[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017058461A - Electronic wind instrument, music sound production instruction method and program - Google Patents

Electronic wind instrument, music sound production instruction method and program Download PDF

Info

Publication number
JP2017058461A
JP2017058461A JP2015181901A JP2015181901A JP2017058461A JP 2017058461 A JP2017058461 A JP 2017058461A JP 2015181901 A JP2015181901 A JP 2015181901A JP 2015181901 A JP2015181901 A JP 2015181901A JP 2017058461 A JP2017058461 A JP 2017058461A
Authority
JP
Japan
Prior art keywords
pitch
mouthpiece
sound
resonance frequency
wind instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015181901A
Other languages
Japanese (ja)
Other versions
JP6679862B2 (en
JP2017058461A5 (en
Inventor
出嶌 達也
Tatsuya Dejima
達也 出嶌
里夏 大久保
Rika Okubo
里夏 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015181901A priority Critical patent/JP6679862B2/en
Publication of JP2017058461A publication Critical patent/JP2017058461A/en
Publication of JP2017058461A5 publication Critical patent/JP2017058461A5/en
Application granted granted Critical
Publication of JP6679862B2 publication Critical patent/JP6679862B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】口笛の発音原理を用いて楽音を発生する電子管楽器を提供する。
【解決手段】CPUは、マウスピース2を咥える吹奏者の口腔内の状態に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得し、さらにマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2を取得する。音高f1と音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、優先的に音高f1を発音ピッチFに設定する。マウスピース2に息を吹き込んでいれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部に送付し、息が吹き込まれなくなると、ノートオフイベントを発生して音源部に送付する。
【選択図】図1
An electronic wind instrument that generates a musical sound using the whistling sound generation principle is provided.
A CPU measures a resonance frequency that varies depending on the state of the mouth of a blower holding the mouthpiece, obtains a pitch f1 of a chromatic scale close to the resonance frequency, and further obtains a mouthpiece. The pitch f2 of the chromatic scale close to the pitch frequency extracted from the waveform formed by the breath blown into is acquired. If the pitch f1 and the pitch f2 match, the pitch f1 (or pitch f2) is set to the sounding pitch F. If not, the pitch f1 is set to the sounding pitch F preferentially. . If the mouthpiece 2 is breathing in, a note-on event including the sound pitch P and the volume corresponding to the breath pressure data is generated and sent to the sound source unit, and if no breath is blown, a note-off event is generated. To the sound generator.
[Selection] Figure 1

Description

本発明は、口笛の発音原理を用いて楽音を発生する電子管楽器、楽音発生指示方法およびプログラムに関する。   The present invention relates to an electronic wind instrument, a musical sound generation instruction method, and a program that generate a musical sound using the whistling sound generation principle.

従来より、サックス等のアコースティック管楽器を模した筺体内部に音源を設け、当該音源から電子的に楽音を発生する電子管楽器が知られている。この種の楽器として、例えば特許文献1には、マウスピースを咥えた時に接触する吹奏者の上唇および下唇の位置を検出し、検出した上唇および下唇の位置に応じて楽音パラメータを制御することによって、例えば上唇および下唇のわずかな動きで発生楽音の音色を変化させる技術が開示されている。   2. Description of the Related Art Conventionally, there has been known an electronic wind instrument in which a sound source is provided inside a housing imitating an acoustic wind instrument such as a saxophone and electronically generates musical sounds from the sound source. As this type of musical instrument, for example, in Patent Document 1, the positions of the upper lip and lower lip of a blower who come into contact with the mouthpiece are detected, and the musical tone parameters are controlled according to the detected positions of the upper lip and the lower lip. Thus, for example, a technique for changing the tone color of the generated musical tone with a slight movement of the upper lip and the lower lip is disclosed.

特開2000−122641号公報JP 2000-122641 A

ところで、上記特許文献1に開示の技術では、マウスピースに接触する唇の位置や、頬や咽の動きに応じて、発生する楽音のパラメータを制御するが、口笛の発音原理を用いて楽音を発生することが出来ない、という問題がある。   By the way, in the technique disclosed in Patent Document 1, the parameters of the musical sound generated are controlled according to the position of the lips contacting the mouthpiece and the movements of the cheeks and throats. There is a problem that it cannot occur.

そこで本発明は、上述した事情に鑑みてなされたもので、口笛の発音原理を用いて楽音を発生することが出来る電子管楽器、楽音発生指示方法およびプログラムを提供することを目的としている。   Accordingly, the present invention has been made in view of the above-described circumstances, and an object thereof is to provide an electronic wind instrument, a musical sound generation instruction method, and a program that can generate musical sounds using the whistling sound generation principle.

上記目的を達成するため、本発明の電子管楽器は、
マウスピースと、
前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
を具備することを特徴とする。
To achieve the above object, the electronic wind instrument of the present invention is:
Mouthpiece,
A sensor for detecting at least one of a breath pressure or a flow rate of the breath blown into the mouthpiece;
An acquisition process for acquiring a resonance frequency corresponding to a state in the oral cavity of a blower holding the mouthpiece, and a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor. And a processing unit that executes a sound generation instruction process for instructing sound generation to the sound source.

本発明の楽音発生方法は、
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、処理部を有する電子管楽器に用いられる楽音発生指示方法であって、前記処理部が、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、ことを特徴とする。
The musical sound generation method of the present invention includes:
A musical sound generation instruction method used for an electronic wind instrument having a mouthpiece, a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece, and a processing unit, wherein the processing unit includes:
Obtaining the resonance frequency corresponding to the state of the oral cavity of the blower holding the mouthpiece,
The musical sound having a pitch corresponding to the acquired resonance frequency is instructed to be sounded to a sound source at a volume corresponding to the detection result of the sensor.

本発明のプログラムは、
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、を有する電子管楽器として用いられるコンピュータに、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
を実行させることを特徴とする。
The program of the present invention
A computer used as an electronic wind instrument having a mouthpiece and a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece,
Obtaining a resonance frequency corresponding to a state in the mouth of a blower holding the mouthpiece;
Instructing the sound source to produce a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor;
Is executed.

本発明では、口笛の発音原理を用いて楽音を発生することが出来る。   In the present invention, it is possible to generate a musical tone using the whistling sound generation principle.

本発明の実施の一形態による電子管楽器100の外観を示す外観図およびマウスピース2の構造の一例を示す断面図である。1 is an external view showing an external appearance of an electronic wind instrument 100 according to an embodiment of the present invention and a cross-sectional view showing an example of the structure of a mouthpiece 2; 電子管楽器100の電気的構成を示すブロック図である。2 is a block diagram showing an electrical configuration of the electronic wind instrument 100. FIG. CPU10が実行するメインフローの動作および音程検出処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the main flow and operation | movement of a pitch detection process which CPU10 performs. CPU10が実行する共振検知処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the resonance detection process which CPU10 performs. CPU10が実行するピッチ検出処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the pitch detection process which CPU10 performs. CPU10が実行する発音ピッチ確定処理の動作および音源処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the sound generation pitch determination process which CPU10 performs, and the operation | movement of a sound source process. 変形例による発音ピッチ確定処理の動作を示すフローチャートおよび音高マップの一例を示す図である。It is a figure which shows an example of the flowchart which shows the operation | movement of the pronunciation pitch determination process by a modification, and a pitch map.

以下、図面を参照して本発明の実施形態について説明する。
A.外観
図1(a)は、本発明の一実施形態による電子管楽器100の外観を示す外観図である。この図に示す電子管楽器100は、角笛状の管体として形成される本体1と、この本体1の基端側に嵌着されるマウスピース2とから構成される。本体1の他端側には、楽音を放音するスピーカ3が設けられる。本体1の側部には、パワーオン・オフする電源スイッチの他、音色選択スイッチ等の各種操作スイッチ4が配設される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
A. External View FIG. 1A is an external view showing the external appearance of an electronic wind instrument 100 according to one embodiment of the present invention. An electronic wind instrument 100 shown in this figure is composed of a main body 1 formed as a square flute-like tube body and a mouthpiece 2 fitted to the base end side of the main body 1. On the other end side of the main body 1, a speaker 3 that emits a musical sound is provided. On the side of the main body 1, various operation switches 4 such as a tone color selection switch are arranged in addition to a power switch for turning on / off the power.

次に、図1(b)を参照してマウスピース2の構造を説明する。本体1の基端側に嵌着されるマウスピース2は、内部にスピーカ20、マイク21および圧力センサ22を備える。スピーカ20は、ホワイトノイズ音を放音するものであり、その意図するところについては追って述べる。マイク21は、マウスピース内部の音を集音する。圧力センサ22は、マウスピース2の歌口(吹き込み口)から吹き込まれる吹奏者の息圧を検出する。   Next, the structure of the mouthpiece 2 will be described with reference to FIG. The mouthpiece 2 fitted on the base end side of the main body 1 includes a speaker 20, a microphone 21 and a pressure sensor 22 inside. The speaker 20 emits a white noise sound, and its intention will be described later. The microphone 21 collects sound inside the mouthpiece. The pressure sensor 22 detects a breather's breath pressure blown from the mouthpiece (blowing mouth) of the mouthpiece 2.

B.構成
次に、図2を参照して電子管楽器100の電気的構成を説明する。図2において、CPU10は、操作部16(スイッチ4を含む)が発生する各種スイッチイベントに従って楽器各部を動作形態を設定する他、口笛の発音原理(後述する)に基づき音源部17に発音・消音を指示する。ROM11は、CPU10にロードされる各種プログラムを記憶する。各種プログラムとは、後述するメインフロー、音程検出処理および音源処理を含む。なお、音程検出処理は、共振検知処理、ピッチ検出処理および発音ピッチ確定処理を含む。
B. Configuration Next, the electrical configuration of the electronic wind instrument 100 will be described with reference to FIG. In FIG. 2, the CPU 10 sets the operation mode of each unit of the musical instrument according to various switch events generated by the operation unit 16 (including the switch 4) and causes the sound source unit 17 to sound and mute based on the whistle sound generation principle (described later) Instruct. The ROM 11 stores various programs loaded on the CPU 10. The various programs include a main flow, a pitch detection process, and a sound source process which will be described later. Note that the pitch detection process includes a resonance detection process, a pitch detection process, and a tone generation pitch determination process.

RAM12は、ワークエリアおよびデータエリアを備える。RAM12のワークエリアには、CPU10の作業領域として用いられ、各種レジスタ・フラグが一時記憶される。RAM12のデータエリアには、後述する集音データや息圧データが一時記憶される。ホワイトノイズ発生部13は、CPU10の制御の下に、ホワイトノイズ信号を発生し、マウスピース2の内部に設けられたスピーカ20に供給してホワイトノイズ音を放音させる。なお、本実施形態では、ホワイトノイズ発生部13でホワイトノイズ信号を発生する態様としたが、これに替えて、後述する音源部17を用いてホワイトノイズ信号を発生する態様としても構わない。   The RAM 12 includes a work area and a data area. The work area of the RAM 12 is used as a work area for the CPU 10 and temporarily stores various registers and flags. In the data area of the RAM 12, sound collection data and breath pressure data described later are temporarily stored. The white noise generation unit 13 generates a white noise signal under the control of the CPU 10 and supplies the white noise signal to the speaker 20 provided in the mouthpiece 2 to emit a white noise sound. In the present embodiment, the white noise signal is generated by the white noise generator 13, but instead, a white noise signal may be generated by using the sound source unit 17 described later.

息圧検出部14は、CPU10の制御の下に、マウスピース2の内部に配設される圧力センサ22(図1(b)参照)の出力をサンプリングして得た息圧データを発生する。息圧検出部14が発生する息圧データは、RAM12のデータエリアに一時記憶される。集音部15は、CPU10の制御の下に、マウスピース2の内部に配設されるマイク21(図1(b)参照)の出力をサンプリングして得た集音データを発生する。集音部15が発生する集音データは、RAM12のデータエリアに一時記憶される。   The breath pressure detection unit 14 generates breath pressure data obtained by sampling the output of the pressure sensor 22 (see FIG. 1B) disposed inside the mouthpiece 2 under the control of the CPU 10. The breath pressure data generated by the breath pressure detector 14 is temporarily stored in the data area of the RAM 12. The sound collection unit 15 generates sound collection data obtained by sampling the output of the microphone 21 (see FIG. 1B) disposed inside the mouthpiece 2 under the control of the CPU 10. The sound collection data generated by the sound collection unit 15 is temporarily stored in the data area of the RAM 12.

操作部16は、本体1の側部に配設される各種操作スイッチ4から構成され、操作されるスイッチ種に応じたスイッチイベントを発生する。このスイッチイベントは、CPU10に取り込まれる。音源部17は、周知の波形メモリ読み出し方式にて構成される複数の発音チャンネル(MIDIチャンネル)を備え、CPU10から供給されるノートオン/ノートオフイベントに従って楽音波形データを発生する。   The operation unit 16 includes various operation switches 4 disposed on the side of the main body 1 and generates a switch event corresponding to the switch type to be operated. This switch event is captured by the CPU 10. The sound source unit 17 includes a plurality of tone generation channels (MIDI channels) configured by a well-known waveform memory reading method, and generates musical sound waveform data according to note-on / note-off events supplied from the CPU 10.

サウンドシステム18は、音源部17から出力される楽音波形データをアナログ形式の楽音信号に変換し、当該楽音信号から不要ノイズを除去する等のフィルタリングを施した後、これを増幅して本体1の開放端に設けられたスピーカ3(図1(a)参照)から放音させる。MIDIインタフェース19は、CPU10の制御の下に、図示されていないMIDI楽器とMIDIデータを授受する。   The sound system 18 converts the musical sound waveform data output from the sound source unit 17 into an analog musical sound signal, performs filtering such as removing unnecessary noise from the musical sound signal, and then amplifies it to amplify the main body 1. Sound is emitted from the speaker 3 (see FIG. 1A) provided at the open end. The MIDI interface 19 exchanges MIDI data with a MIDI instrument (not shown) under the control of the CPU 10.

C.動作
次に、図3〜図6を参照して、上述した電子管楽器100のCPU10が実行するメインフロー、音程検出処理および音源処理を各動作について説明する。なお、音程検出処理は、共振検知処理、ピッチ検出処理および発音ピッチ確定処理を含む。また、以下の動作説明では、ことわりが無い限り、CPU10が動作の主体となる。
C. Operation Next, with reference to FIGS. 3 to 6, each operation of the main flow, pitch detection processing, and sound source processing executed by the CPU 10 of the electronic wind instrument 100 described above will be described. Note that the pitch detection process includes a resonance detection process, a pitch detection process, and a tone generation pitch determination process. In the following description of the operation, the CPU 10 is the main operation unless otherwise specified.

(1)メインフローの動作
図3(a)は、CPU10が実行するメインフローの動作を示すフローチャートである。電源スイッチのオン操作でパワーオンされると、CPU10は図3(a)に図示する本処理を実行してステップSA1に処理を進め、電子管楽器100の各部を初期化するイニシャライズを行う。そして、イニシャライズが完了すると、ステップSA2を介して音程検出処理を実行する。
(1) Main Flow Operation FIG. 3A is a flowchart showing the main flow operation executed by the CPU 10. When the power is turned on by turning on the power switch, the CPU 10 executes the main process shown in FIG. 3A and proceeds to step SA1 to perform initialization for initializing each part of the electronic wind instrument 100. When the initialization is completed, a pitch detection process is executed via step SA2.

音程検出処理では、後述するように、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得し、さらにマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2を取得する。そして、音高f1と音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、優先的に音高f1を発音ピッチFに設定する。   In the pitch detection process, as will be described later, a resonance frequency that varies depending on the state of the mouth of the blower holding the mouthpiece 2 (the position and shape of the tongue, the degree of swelling of the cheeks) is measured, and the resonance frequency is set to the resonance frequency. The pitch f1 of the near chromatic scale is acquired, and the pitch f2 of the chromatic scale close to the pitch frequency extracted from the waveform formed by the breath blown into the mouthpiece 2 is acquired. If the pitch f1 and the pitch f2 match, the pitch f1 (or pitch f2) is set to the sounding pitch F. On the other hand, if the pitch f1 does not match, the pitch f1 is preferentially set to the sounding pitch F. Set.

続いて、ステップSA3では、音源処理を実行する。音源処理では、後述するように、吹奏者がマウスピース2に息を吹き込んでいるかどうかを判断し、息を吹き込んでいれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に供給し、さらに発音ピッチFが変更されると、変更された発音ピッチFで発音するよう音源部17に指示する。そして、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に供給する。   Subsequently, in step SA3, sound source processing is executed. In the sound source processing, as will be described later, it is determined whether or not the blower is breathing into the mouthpiece 2. If the breather is breathing in, the note-on event including the sound generation pitch F and the volume corresponding to the breath pressure data is generated. When the sound generation pitch F is changed, the sound source unit 17 is instructed to generate sound with the changed sound generation pitch F. When no breath is blown, a note-off event is generated and supplied to the sound source unit 17.

そして、ステップSA4では、例えば音色選択スイッチ操作で選択された音色を音源部17に指示する等の、その他の処理を実行した後、上記ステップSA2に処理を戻す。以後、電源スイッチのオフ操作でパワーオフされるまで上記ステップSA2〜SA4を繰り返し実行する。   In step SA4, for example, other processing such as instructing the tone generator 17 to select the tone color selected by the tone color selection switch operation is performed, and then the processing returns to step SA2. Thereafter, the above steps SA2 to SA4 are repeatedly executed until the power is turned off by turning off the power switch.

(2)音程検出処理の動作
次に、図3(b)を参照して音程検出処理の動作を説明する。図3(b)は、音程検出処理の動作を示すフローチャートである。上述したメインフローのステップSA2(図3(a)参照)を介して本処理が実行されると、CPU10は図3(b)に図示するステップSB1に処理を進め、共振検知処理を実行する。
(2) Operation of pitch detection process Next, the operation of the pitch detection process will be described with reference to FIG. FIG. 3B is a flowchart showing the operation of the pitch detection process. When this process is executed through step SA2 (see FIG. 3A) of the main flow described above, the CPU 10 advances the process to step SB1 shown in FIG. 3B and executes a resonance detection process.

共振検知処理では、後述するように、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へホワイトノイズ音を伝え、そのホワイトノイズ音をマイク21で集音した集音データを周波数分析してマウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得する。つまり、口笛の発音原理と同様に口腔のヘルムホルツ共鳴で得られる音高を取得する。   In the resonance detection process, as will be described later, collected sound data is obtained by transmitting a white noise sound from the internal space of the mouthpiece 2 to the mouth of the blower holding the mouthpiece 2 and collecting the white noise sound by the microphone 21. The frequency of the sound is analyzed, and the resonance frequency that changes according to the state of the mouth of the blower who holds the mouthpiece 2 (the position and shape of the tongue, the degree of swelling of the cheeks) is measured, and the sound of the chromatic scale close to the resonance frequency. Get high f1. That is, the pitch obtained by oral Helmholtz resonance is acquired in the same manner as the whistle pronunciation principle.

次のステップSB2では、ピッチ検出処理を実行する。ピッチ検出処理では、後述するよに、吹奏者がマウスピース2に息を吹き込むと、マイク21で集音した集音データ(マウスピース2の内部の波形)からホワイトノイズ成分を減算し、さらにその残存波形にバンドパスフィルタリングを施して得た波形のピッチを抽出し、前回測定したピッチと今回測定したピッチとが一致すると、今回取得したピッチに近いクロマチック音階の音高f2を取得する。   In the next step SB2, a pitch detection process is executed. In the pitch detection process, as will be described later, when the wind blower blows into the mouthpiece 2, the white noise component is subtracted from the sound collection data (waveform inside the mouthpiece 2) collected by the microphone 21, The pitch of the waveform obtained by applying bandpass filtering to the remaining waveform is extracted, and when the previously measured pitch matches the currently measured pitch, the pitch f2 of the chromatic scale close to the currently acquired pitch is acquired.

そして、ステップSB3では、発音ピッチ確定処理を実行する。発音ピッチ確定処理では、後述するように、共振検知処理で得た音高f1と、ピッチ検出処理で得た音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、共振検知処理で得た音高f1を優先的に発音ピッチFに設定する。   In step SB3, a sound generation pitch determination process is executed. In the pronunciation pitch determination process, as will be described later, if the pitch f1 obtained by the resonance detection process matches the pitch f2 obtained by the pitch detection process, the pitch f1 (or the pitch f2) is used as the pronunciation pitch F. On the other hand, if they do not match, the pitch f1 obtained by the resonance detection process is preferentially set to the sound generation pitch F.

(3)共振検知処理の動作
次に、図4を参照して共振検知処理の動作を説明する。図4は、共振検知処理の動作を示すフローチャートである。上述した音程検出処理のステップSB1(図3(b)参照)を介して本処理が実行されると、CPU10は図4に図示するステップSC1に処理を進め、ホワイトノイズ発生部13から所定レベルのホワイトノイズ信号を発生させ、当該ホワイトノイズ信号をマウスピース2の内部に設けられたスピーカ20に供給してホワイトノイズ音を放音させる。こうして放音されるホワイトノイズ音は、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へ伝わる。
(3) Operation of Resonance Detection Process Next, the operation of the resonance detection process will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of the resonance detection process. When this process is executed via step SB1 (see FIG. 3B) of the pitch detection process described above, the CPU 10 advances the process to step SC1 shown in FIG. A white noise signal is generated, and the white noise signal is supplied to a speaker 20 provided in the mouthpiece 2 to emit a white noise sound. The white noise sound emitted in this way is transmitted from the internal space of the mouthpiece 2 to the mouth of the blower holding the mouthpiece 2.

次いで、ステップSC2では、マウスピース2の内部に配設されるマイク21の出力をサンプリングするよう集音部15に指示する。これにより、集音部15により取得される集音データがRAM12のデータエリアに一時記憶される。次のステップSC3では、RAM12のデータエリアに一時記憶された所定サンプル数のホワイトノイズ音データにFFT(高速フーリエ変換)処理を施す。   Next, in step SC2, the sound collection unit 15 is instructed to sample the output of the microphone 21 disposed in the mouthpiece 2. Thereby, the sound collection data acquired by the sound collection unit 15 is temporarily stored in the data area of the RAM 12. In the next step SC3, FFT (Fast Fourier Transform) processing is performed on the white noise sound data of a predetermined number of samples temporarily stored in the data area of the RAM 12.

そして、ステップSC4では、上記ステップSC3のFFT処理で得られる周波数分析結果に基づき共振周波数を測定する。なお、この共振周波数は、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化するものであり、口笛の発音原理であるヘルムホルツ共鳴に相当する。   In step SC4, the resonance frequency is measured based on the frequency analysis result obtained by the FFT process in step SC3. This resonance frequency changes according to the state of the mouth of the blower holding the mouthpiece 2 (the position and shape of the tongue, the swelling of the cheeks), and the Helmholtz resonance, which is the whistling pronunciation principle. Equivalent to.

続いて、ステップSC5では、前回測定した共振周波数と今回測定した共振周波数とが一致するか否かを判断する。最初の測定では、前回測定値が存在しないので、判断結果は「NO」になり、ステップSC6に進む。ステップSC6では、取得した測定値(共振周波数)に近いクロマチック音階の音高f1を設定する。この後、ステップSC7に進み、一定時間待機した後、上記ステップSC1〜SC4を繰り返して再び共振周波数を測定する。   Subsequently, in step SC5, it is determined whether or not the resonance frequency measured last time matches the resonance frequency measured this time. In the first measurement, since the previous measurement value does not exist, the determination result is “NO”, and the process proceeds to Step SC6. In step SC6, a pitch f1 of a chromatic scale close to the acquired measurement value (resonance frequency) is set. Thereafter, the process proceeds to step SC7, and after waiting for a predetermined time, the steps SC1 to SC4 are repeated and the resonance frequency is measured again.

そして、前回測定した共振周波数と今回測定した共振周波数とが一致すると、上記ステップSC5の判断結果が「YES」になり、ステップSC8に進み、今回取得した測定値(共振周波数)に近いクロマチック音階の音高f1を設定して本処理を終える。   When the resonance frequency measured last time coincides with the resonance frequency measured this time, the determination result in step SC5 is “YES”, the process proceeds to step SC8, and the chromatic scale close to the measurement value (resonance frequency) acquired this time is obtained. The pitch f1 is set and this processing is finished.

このように、共振検知処理では、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へホワイトノイズ音を伝え、そのホワイトノイズ音をマイク21で集音して得た集音データを周波数分析してマウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、その共振周波数に近いクロマチック音階の音高f1を取得する。   As described above, in the resonance detection process, the white noise sound is transmitted from the internal space of the mouthpiece 2 to the oral cavity of the blower holding the mouthpiece 2 and the white noise sound is collected by the microphone 21. Analyzing the frequency of the sound data, measure the resonance frequency that changes depending on the condition (the position and shape of the tongue, the swelling of the cheeks) of the blower who holds the mouthpiece 2, and the chromatic scale close to that resonance frequency Is obtained.

(4)ピッチ検出処理の動作
次に、図5を参照してピッチ検出処理の動作を説明する。図5は、ピッチ検出処理の動作を示すフローチャートである。前述した音程検出処理のステップSB2(図3(b)参照)を介して本処理が実行されると、CPU10は図5に図示するステップSD1に処理を進め、マウスピース2内部に設けられる圧力センサ22がオン状態であるか否かを判断する。ここで言う圧力センサ22がオン状態とは、圧力センサ22が息圧を検出している状態を指す。したがって、上記ステップSD1では、マウスピース2に息が吹き込まれているか否かを判断する。
(4) Operation of Pitch Detection Process Next, the operation of the pitch detection process will be described with reference to FIG. FIG. 5 is a flowchart showing the operation of the pitch detection process. When this process is executed through step SB2 (see FIG. 3B) of the pitch detection process described above, the CPU 10 advances the process to step SD1 shown in FIG. It is determined whether or not 22 is on. Here, the pressure sensor 22 being in an ON state indicates a state in which the pressure sensor 22 is detecting a breath pressure. Therefore, in step SD1, it is determined whether or not the mouthpiece 2 is breathing.

息が吹き込まれていなければ、上記ステップSD1の判断結果は「NO」になり、本処理を終えるが、息が吹き込まれていれば、上記ステップSD1の判断結果は「YES」になり、ステップSD2に進む。ステップSD2では、マウスピース2の内部に配設されるマイク21の出力をサンプリングするよう集音部15に指示する。これにより、集音部15により取得される集音データがRAM12のデータエリアに一時記憶される。   If no breath is being blown, the determination result in step SD1 is “NO”, and the present process is terminated. If breath is being blown in, the determination result in step SD1 is “YES”, and step SD2 Proceed to In step SD2, the sound collection unit 15 is instructed to sample the output of the microphone 21 disposed inside the mouthpiece 2. Thereby, the sound collection data acquired by the sound collection unit 15 is temporarily stored in the data area of the RAM 12.

次いで、ステップSD3では、上記ステップSD2で取得した集音データ(MIC波形)からホワイトノイズ成分を減算し、続くステップSD4では、ホワイトノイズ成分を減算して得た残存波形にBPF(バンドパスフィルタ)処理を施す。そして、ステップSD5では、バンドパスフィルタリングされた波形のピッチを抽出する。   Next, in step SD3, the white noise component is subtracted from the sound collection data (MIC waveform) acquired in step SD2, and in the subsequent step SD4, a BPF (band pass filter) is added to the remaining waveform obtained by subtracting the white noise component. Apply processing. In step SD5, the pitch of the bandpass filtered waveform is extracted.

ステップSD6では、前回測定したピッチと今回測定したピッチとが一致するか否かを判断する。最初の測定では、前回測定値が存在しないので、判断結果は「NO」になり、ステップSD8に進む。ステップSD8では、今回取得したピッチに近いクロマチック音階の音高f2を設定して本処理を終える。これに対し、前回測定したピッチと今回測定したピッチとが一致すると、上記ステップSD6の判断結果が「YES」になり、ステップSD7に進み、今回取得したピッチに近いクロマチック音階の音高f2を設定して本処理を終える。   In step SD6, it is determined whether or not the previously measured pitch matches the currently measured pitch. In the first measurement, since the previous measurement value does not exist, the determination result is “NO”, and the process proceeds to Step SD8. In step SD8, the pitch f2 of the chromatic scale close to the pitch acquired this time is set, and this processing is finished. On the other hand, if the previously measured pitch matches the currently measured pitch, the determination result in step SD6 is “YES”, and the process proceeds to step SD7 to set the pitch f2 of the chromatic scale close to the currently acquired pitch. And this processing is finished.

このように、ピッチ検出処理では、吹奏者がマウスピース2に息を吹き込むと、マイク21で集音した集音データ(マウスピース2の内部の波形)からホワイトノイズ成分を減算し、さらにその残存波形にバンドパスフィルタリングを施して得た波形のピッチを抽出し、前回測定したピッチと今回測定したピッチとが一致すると、今回取得したピッチに近いクロマチック音階の音高f2を取得する。   As described above, in the pitch detection process, when the wind blower blows into the mouthpiece 2, the white noise component is subtracted from the sound collection data (waveform inside the mouthpiece 2) collected by the microphone 21, and the remaining noise is further subtracted. The pitch of the waveform obtained by performing bandpass filtering on the waveform is extracted, and when the previously measured pitch matches the currently measured pitch, the pitch f2 of the chromatic scale close to the currently acquired pitch is acquired.

(5)発音ピッチ確定処理の動作
次に、図6(a)を参照して発音ピッチ確定処理の動作を説明する。図6(a)は、発音ピッチ確定処理の動作を示すフローチャートである。前述した音程検出処理のステップSB3(図3(b)参照)を介して本処理が実行されると、CPU10は図6(a)に図示するステップSE1に処理を進め、上述の共振検知処理で得た音高f1と、上述のピッチ検出処理で得た音高f2とが一致するか否かを判断する。一致すれば、音高f1(又は音高f2)を発音ピッチFに設定して本処理を終える。一方、一致しなければ、共振検知処理で得た音高f1を優先的に発音ピッチFに設定して本処理を終える。
(5) Operation of Sound Generation Pitch Determination Process Next, the operation of the sound generation pitch determination process will be described with reference to FIG. FIG. 6A is a flowchart showing the operation of the pronunciation pitch determination process. When this process is executed through step SB3 (see FIG. 3B) of the pitch detection process described above, the CPU 10 advances the process to step SE1 shown in FIG. 6A, and performs the resonance detection process described above. It is determined whether or not the obtained pitch f1 matches the pitch f2 obtained by the pitch detection process described above. If they match, the pitch f1 (or pitch f2) is set to the pronunciation pitch F, and the process is terminated. On the other hand, if they do not match, the pitch f1 obtained by the resonance detection process is preferentially set to the sound generation pitch F, and this process is terminated.

(6)音源処理の動作
次に、図6(b)を参照して音源処理の動作を説明する。図6(b)は、音源処理の動作を示すフローチャートである。前述したメインフローのステップSA3(図3(a)参照)を介して本処理が実行されると、CPU10は図6(b)に図示するステップSF1に処理を進め、マウスピース2内部に設けられる圧力センサ22がオン状態、すなわちマウスピース2に息が吹き込まれているか否かを判断する。
(6) Sound Source Processing Operation Next, the sound source processing operation will be described with reference to FIG. FIG. 6B is a flowchart showing the sound source processing operation. When this processing is executed through step SA3 (see FIG. 3A) of the main flow described above, the CPU 10 advances the processing to step SF1 shown in FIG. 6B and is provided inside the mouthpiece 2. It is determined whether or not the pressure sensor 22 is on, that is, whether or not the mouthpiece 2 is breathing.

息が吹き込まれていれば、判断結果は「YES」になり、ステップSF2に進み、発音ピッチFと、息圧検出部14が発生する息圧データに対応した音量とを含むノートオンイベントを発生して音源部17に送付する。これにより、音源部17では、発音ピッチFの音高で、息圧データに応じた音量の楽音データを発生する。   If the breath is being blown in, the determination result is “YES”, and the process proceeds to step SF 2 to generate a note-on event including the sound generation pitch F and the volume corresponding to the breath pressure data generated by the breath pressure detector 14. And sent to the sound source unit 17. As a result, the tone generator 17 generates musical tone data having a volume corresponding to the breath pressure data at the pitch of the pronunciation pitch F.

次いで、ステップSF3では、発音ピッチFの変更の有無を判断する。発音ピッチFに変更が無ければ、判断結果は「NO」に本処理を終えるが、発音ピッチFに変更が有ると、判断結果が「YES」になり、ステップSF4に進み、変更された発音ピッチFで発音するよう音源部17に指示して本処理を終える。   Next, in step SF3, it is determined whether or not the pronunciation pitch F has been changed. If there is no change in the pronunciation pitch F, the determination result is “NO”, and the present processing is finished. However, if there is a change in the pronunciation pitch F, the determination result is “YES”, and the process proceeds to step SF4 to change the pronunciation pitch. The sound source unit 17 is instructed to generate a sound with F, and the process is finished.

一方、息が吹き込まれていないと、上記ステップSF1の判断結果は「NO」になり、ステップSF5に進む。ステップSF5では、ノートオフイベントを発生して音源部17に送付して本処理を終える。これにより、音源部17では、ノートオフイベントを受信した時点で発音していた楽音を消音させる。   On the other hand, if no breath is blown, the determination result in step SF1 is “NO”, and the flow proceeds to step SF5. In step SF5, a note-off event is generated and sent to the sound source unit 17 to complete the present process. As a result, the tone generator 17 silences the musical sound that was sounded when the note-off event was received.

このように、音源処理では、マウスピース2に息が吹き込まれているか否かを判断し、息が吹き込まれていれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に送付し、さらに発音ピッチFが変更されると、変更された発音ピッチFで発音するよう音源部17に指示する。そして、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に送付する。   As described above, in the sound source processing, it is determined whether or not the mouthpiece 2 is breathing. If the breath is being breathed, the note-on event including the sound generation pitch F and the volume corresponding to the breath pressure data is generated. Then, when the sound generation pitch F is changed, the sound source unit 17 is instructed to generate sound with the changed sound generation pitch F. When no breath is blown, a note-off event is generated and sent to the sound source unit 17.

D.変形例
次に、図7を参照して変形例による発音ピッチ確定処理の動作について説明する。図7(a)は変形例による発音ピッチ確定処理の動作を示すフローチャート、図7(b)は音高マップの一例を示す図である。上述の実施形態と同様、音程検出処理のステップSB3(図3(b)参照)を介して本処理が実行されると、CPU10は図7(a)に図示するステップSG1に処理を進める。ステップSG1〜SG2では、音高マップを参照し、音高f1、f2に対応する発音ピッチFが有るか否かを判断する。
D. Modified Example Next, the operation of the pronunciation pitch determination process according to the modified example will be described with reference to FIG. FIG. 7A is a flowchart showing the operation of the pronunciation pitch determination process according to the modification, and FIG. 7B is a diagram showing an example of a pitch map. As in the above-described embodiment, when this process is executed via step SB3 (see FIG. 3B) of the pitch detection process, the CPU 10 advances the process to step SG1 illustrated in FIG. In steps SG1 to SG2, the pitch map is referred to and it is determined whether or not there is a pronunciation pitch F corresponding to the pitches f1 and f2.

音高マップとは、図7(b)に図示する一例のように、予め測定して得た音高f1および音高f2に対応する発音ピッチFをデータテーブルとしたものである。この一例の場合、例えば吹奏者の口腔の共振周波数に近いクロマチック音階の音高f1が「146.8Hz」、マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2が「155.6Hz」であると、対応する発音ピッチFは「D3(ノート番号:50)」となる。   The pitch map is a data table in which the tone pitch F corresponding to the pitch f1 and the pitch f2 obtained by measurement in advance is used as a data table, as in the example shown in FIG. 7B. In this example, for example, the pitch f1 of the chromatic scale close to the resonance frequency of the oral cavity of the blower is “146.8 Hz”, and the chromatic scale close to the pitch frequency extracted from the waveform formed by the breath blown into the mouthpiece 2 is used. When the pitch f2 is “155.6 Hz”, the corresponding sound generation pitch F is “D3 (note number: 50)”.

このように、音高f1および音高f2に対応する発音ピッチFが音高マップに存在すると、上記ステップSG2の判断結果は「YES」になり、ステップSG3に進み、発音ピッチFを決定して本処理を終える。これに対し、音高f1および音高f2に対応する発音ピッチFが音高マップに存在しない場合には、上記ステップSG2の判断結果が「NO」になり、ステップSG4に進み、音高f2を優先的に発音ピッチFに設定して本処理を終える。   As described above, when the tone pitch F corresponding to the pitch f1 and the pitch f2 exists in the pitch map, the determination result of the above step SG2 is “YES”, and the process proceeds to step SG3, where the tone pitch F is determined. This process is finished. On the other hand, if the tone pitch F corresponding to the pitch f1 and the pitch f2 does not exist in the pitch map, the determination result in step SG2 is “NO”, and the process proceeds to step SG4, where the pitch f2 is set. The tone generation pitch F is preferentially set and the present process is terminated.

以上説明したように、本実施形態によれば、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得し、さらにマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2を取得する。音高f1と音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、優先的に音高f1を発音ピッチFに設定する。そして、吹奏者がマウスピース2に息を吹き込んでいれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に送付し、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に送付するので、口笛の発音原理を用いて楽音を発生することが出来る。   As described above, according to the present embodiment, the resonance frequency that changes in accordance with the state in the mouth of the blower holding the mouthpiece 2 (the position and shape of the tongue, the degree of swelling of the cheeks) is measured. The pitch f1 of the chromatic scale close to the resonance frequency is acquired, and the pitch f2 of the chromatic scale close to the pitch frequency extracted from the waveform formed by the breath blown into the mouthpiece 2 is acquired. If the pitch f1 and the pitch f2 match, the pitch f1 (or pitch f2) is set to the sounding pitch F. If not, the pitch f1 is set to the sounding pitch F preferentially. . If the wind blower is breathing into the mouthpiece 2, a note-on event including the sound generation pitch F and the volume corresponding to the breath pressure data is generated and sent to the sound source unit 17. Since a note-off event is generated and sent to the sound source unit 17, it is possible to generate a musical tone using the whistle pronunciation principle.

なお、上述した実施形態および変形例では、音高f1を吹奏者の口腔の共振周波数に近いクロマチック音階、音高f2をマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階としたが、これに替えて、クロマチック音階に当て嵌めずに、吹奏者の口腔の共振周波数を音高f1、マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数を音高f2として扱う態様としてもよい。   In the embodiment and the modification described above, the pitch f1 is close to the chromatic scale close to the resonance frequency of the oral cavity of the blower, and the pitch f2 is close to the pitch frequency extracted from the waveform formed by the breath blown into the mouthpiece 2. Instead of fitting to the chromatic scale, the pitch frequency extracted from the waveform formed by the breath flicked into the mouthpiece 2 with the resonance frequency of the blower's oral cavity is used instead of being applied to the chromatic scale. It is good also as a mode handled as high f2.

さらに音高f1(吹奏者の口腔の共振周波数)と音高f2(マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数)の平均値をクロマチック音階に当て嵌めて発音ピッチFを得る態様でもよい。   Further, the average pitch f1 (resonant frequency of the blower's mouth) and pitch f2 (pitch frequency extracted from the waveform formed by the breath blown into the mouthpiece 2) are applied to the chromatic scale, and the pronunciation pitch F is calculated. It may be an embodiment.

以上、本発明の実施の一形態について説明したが、本発明はそれに限定されるものではなく、本願出願の特許請求の範囲に記載された発明とその均等の範囲に含まれる。以下では、本願出願当初の特許請求の範囲に記載された各発明について付記する。   As mentioned above, although one Embodiment of this invention was described, this invention is not limited to it, It is included in the invention described in the claim of this-application, and its equivalent range. Hereinafter, each invention described in the scope of claims at the beginning of the present application will be additionally described.

(付記)
[請求項1]
マウスピースと、
前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
を具備する電子管楽器。
(Appendix)
[Claim 1]
Mouthpiece,
A sensor for detecting at least one of a breath pressure or a flow rate of the breath blown into the mouthpiece;
An acquisition process for acquiring a resonance frequency corresponding to a state in the oral cavity of a blower holding the mouthpiece, and a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor. An electronic wind instrument comprising: a processing unit that executes a sound generation instruction process for instructing sound generation to a sound source.

[請求項2]
前記処理部は、前記発音指示処理において、前記取得された共振周波数を、クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第1の変換処理を実行する付記1記載の電子管楽器。
[Claim 2]
The processing unit performs a first conversion process of converting the acquired resonance frequency into a closest pitch among a plurality of pitches constituting a chromatic scale in the sound generation instruction process. Electronic wind instrument.

[請求項3]
前記電子管楽器はさらに、前記マウスピース内に配設されたマイクを有し、
前記処理部は、前記取得処理において、前記吹奏者の口腔内にホワイトノイズを発生するとともに、前記ホワイトノイズの発生後に前記マイクにより集音された前記口腔内の音を分析することにより、前記口腔内の共振周波数を取得する処理を実行する付記1または2に記載の電子管楽器。
[Claim 3]
The electronic wind instrument further includes a microphone disposed in the mouthpiece,
In the acquisition process, the processing unit generates white noise in the blower's mouth and analyzes the sound in the mouth collected by the microphone after the white noise is generated. The electronic wind instrument of Additional remark 1 or 2 which performs the process which acquires the inside resonance frequency.

[請求項4]
前記処理部はさらに、
前記センサの検出信号から周波数を抽出するとともに、前記抽出された周波数を、前記クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第2の変換処理と、
前記第1の変換処理にて変換された音高と前記第2の変換処理にて変換された音高とが一致しない場合には、前記第1の変換処理にて変換された音高を前記発音すべき楽音の音高とする付記2に記載の電子管楽器。
[Claim 4]
The processing unit further includes:
A second conversion process for extracting a frequency from the detection signal of the sensor, and converting the extracted frequency to the closest pitch among a plurality of pitches constituting the chromatic scale;
If the pitch converted by the first conversion process does not match the pitch converted by the second conversion process, the pitch converted by the first conversion process is The electronic wind instrument according to appendix 2, which is the pitch of a musical tone to be pronounced.

[請求項5]
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、処理部を有する電子管楽器に用いられる楽音発生指示方法であって、前記処理部が、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、楽音発生指示方法。
[請求項6]
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、を有する電子管楽器として用いられるコンピュータに、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
を実行させるプログラム。
[Claim 5]
A musical sound generation instruction method used for an electronic wind instrument having a mouthpiece, a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece, and a processing unit, wherein the processing unit includes:
Obtaining the resonance frequency corresponding to the state of the oral cavity of the blower holding the mouthpiece,
A musical sound generation instruction method of instructing a sound source to generate a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to a detection result of the sensor.
[Claim 6]
A computer used as an electronic wind instrument having a mouthpiece and a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece,
Obtaining a resonance frequency corresponding to a state in the mouth of a blower holding the mouthpiece;
Instructing the sound source to produce a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor;
A program that executes

1 本体
2 マウスピース
3 スピーカ
4 スイッチ
10 CPU
11 ROM
12 RAM
13 ホワイトノイズ発生部
14 息圧検出部
15 集音部
16 操作部
17 音源部
18 サウンドシステム
19 MIDIインタフェース
20 スピーカ
21 マイク
22 圧力センサ
100 電子管楽器
1 Body 2 Mouthpiece 3 Speaker 4 Switch 10 CPU
11 ROM
12 RAM
DESCRIPTION OF SYMBOLS 13 White noise generation part 14 Breath pressure detection part 15 Sound collection part 16 Operation part 17 Sound source part 18 Sound system 19 MIDI interface 20 Speaker 21 Microphone 22 Pressure sensor 100 Electronic wind instrument

Claims (6)

マウスピースと、
前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
を具備する電子管楽器。
Mouthpiece,
A sensor for detecting at least one of a breath pressure or a flow rate of the breath blown into the mouthpiece;
An acquisition process for acquiring a resonance frequency corresponding to a state in the oral cavity of a blower holding the mouthpiece, and a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor. An electronic wind instrument comprising: a processing unit that executes a sound generation instruction process for instructing sound generation to a sound source.
前記処理部は、前記発音指示処理において、前記取得された共振周波数を、クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第1の変換処理を実行する請求項1記載の電子管楽器。   2. The processing unit executes a first conversion process of converting the acquired resonance frequency into a closest pitch among a plurality of pitches constituting a chromatic scale in the sound generation instruction process. The electronic wind instrument described. 前記電子管楽器はさらに、前記マウスピース内に配設されたマイクを有し、
前記処理部は、前記取得処理において、前記吹奏者の口腔内にホワイトノイズを発生するとともに、前記ホワイトノイズの発生後に前記マイクにより集音された前記口腔内の音を分析することにより、前記口腔内の共振周波数を取得する処理を実行する請求項1または2に記載の電子管楽器。
The electronic wind instrument further includes a microphone disposed in the mouthpiece,
In the acquisition process, the processing unit generates white noise in the blower's mouth and analyzes the sound in the mouth collected by the microphone after the white noise is generated. The electronic wind instrument of Claim 1 or 2 which performs the process which acquires the resonance frequency in the inside.
前記処理部はさらに、
前記センサの検出信号から周波数を抽出するとともに、前記抽出された周波数を、前記クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第2の変換処理と、
前記第1の変換処理にて変換された音高と前記第2の変換処理にて変換された音高とが一致しない場合には、前記第1の変換処理にて変換された音高を前記発音すべき楽音の音高とする請求項2に記載の電子管楽器。
The processing unit further includes:
A second conversion process for extracting a frequency from the detection signal of the sensor, and converting the extracted frequency to the closest pitch among a plurality of pitches constituting the chromatic scale;
If the pitch converted by the first conversion process does not match the pitch converted by the second conversion process, the pitch converted by the first conversion process is The electronic wind instrument according to claim 2, wherein the pitch of a musical tone to be pronounced is set.
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、処理部を有する電子管楽器に用いられる楽音発生指示方法であって、前記処理部が、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、楽音発生指示方法。
A musical sound generation instruction method used for an electronic wind instrument having a mouthpiece, a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece, and a processing unit, wherein the processing unit includes:
Obtaining the resonance frequency corresponding to the state of the oral cavity of the blower holding the mouthpiece,
A musical sound generation instruction method of instructing a sound source to generate a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to a detection result of the sensor.
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、を有する電子管楽器として用いられるコンピュータに、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
を実行させるプログラム。
A computer used as an electronic wind instrument having a mouthpiece and a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece,
Obtaining a resonance frequency corresponding to a state in the mouth of a blower holding the mouthpiece;
Instructing the sound source to produce a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor;
A program that executes
JP2015181901A 2015-09-15 2015-09-15 Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program Active JP6679862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015181901A JP6679862B2 (en) 2015-09-15 2015-09-15 Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181901A JP6679862B2 (en) 2015-09-15 2015-09-15 Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program

Publications (3)

Publication Number Publication Date
JP2017058461A true JP2017058461A (en) 2017-03-23
JP2017058461A5 JP2017058461A5 (en) 2018-10-11
JP6679862B2 JP6679862B2 (en) 2020-04-15

Family

ID=58390017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181901A Active JP6679862B2 (en) 2015-09-15 2015-09-15 Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program

Country Status (1)

Country Link
JP (1) JP6679862B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113345393A (en) * 2020-03-02 2021-09-03 雅马哈株式会社 Electronic wind instrument
JP7593069B2 (en) 2020-11-17 2024-12-03 ヤマハ株式会社 Training support device, training support method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63285594A (en) * 1987-05-18 1988-11-22 高木 征一 Input device for electronic musical instrument
JPH0311398A (en) * 1989-06-08 1991-01-18 Yamaha Corp Breath controller for electronic musical instrument
JPH0493996A (en) * 1990-08-07 1992-03-26 Yamaha Corp Musical sound controller for electronic musical instrument
JPH04166897A (en) * 1990-10-30 1992-06-12 Yamaha Corp Performance information input device
JP2000122641A (en) * 1998-10-21 2000-04-28 Casio Comput Co Ltd Electronic wind instrument
WO2007059614A1 (en) * 2005-11-23 2007-05-31 Photon Wind Research Ltd. Mouth-operated input device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63285594A (en) * 1987-05-18 1988-11-22 高木 征一 Input device for electronic musical instrument
JPH0311398A (en) * 1989-06-08 1991-01-18 Yamaha Corp Breath controller for electronic musical instrument
JPH0493996A (en) * 1990-08-07 1992-03-26 Yamaha Corp Musical sound controller for electronic musical instrument
JPH04166897A (en) * 1990-10-30 1992-06-12 Yamaha Corp Performance information input device
JP2000122641A (en) * 1998-10-21 2000-04-28 Casio Comput Co Ltd Electronic wind instrument
WO2007059614A1 (en) * 2005-11-23 2007-05-31 Photon Wind Research Ltd. Mouth-operated input device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113345393A (en) * 2020-03-02 2021-09-03 雅马哈株式会社 Electronic wind instrument
CN113345393B (en) * 2020-03-02 2024-02-20 雅马哈株式会社 Electronic wind instruments
JP7593069B2 (en) 2020-11-17 2024-12-03 ヤマハ株式会社 Training support device, training support method, and program

Also Published As

Publication number Publication date
JP6679862B2 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
US10475431B2 (en) Apparatus for a reed instrument
CN102467902B (en) Electronic percussion instrument
US10832645B2 (en) Transducer apparatus for a labrosone and a labrosone having the transducer apparatus
US11200872B2 (en) Transducer apparatus for an edge-blown aerophone and an edge-blown aerophone having the transducer apparatus
CN102923051A (en) Sound producing device for a vehicle, and recording medium and information processing method for a sound producing device for a vehicle
JP6435644B2 (en) Electronic musical instrument, pronunciation control method and program
CN102456339B (en) Input device
JP6679862B2 (en) Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program
JP5614045B2 (en) Electronic wind instrument
JP6728843B2 (en) Electronic musical instrument, musical tone generating device, musical tone generating method and program
US8723014B2 (en) Musical tone control device, system and process
JP2017058461A5 (en) Electronic musical instrument, electronic wind instrument, musical sound generation instruction method and program
JP4618053B2 (en) Automatic performance device
JP2015225271A (en) Electronic musical instrument, method for controlling sound production of electronic musical instrument, and program
JP6753250B2 (en) Musical tone generator, musical tone generator, electronic musical instrument, and program
JP2015225269A (en) Electronic musical instrument, pronunciation control method for electronic musical instrument, and program
JP6573100B2 (en) Musical sound control device, musical sound control method, program, and electronic musical instrument
JP5023943B2 (en) Electronic wind instrument
JP7346865B2 (en) Electronic wind instrument, musical sound generation method, and program
JP6671633B2 (en) Electronic wind instrument, musical sound generation method and program
JP2023007982A (en) Player fingering detection system for woodwind instrument
JP4973753B2 (en) Karaoke device and karaoke information processing program
JP2007264060A (en) Karaoke device and karaoke information processing program
FR2884345A1 (en) Electronic musical instrument for playing musical notes, has pipe in which air is blown, and embedded electronic system that processes signal based on personalized calibration for user game for reproducing melody
JP2017062325A (en) Electronic wind instrument, musical sound generation method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6679862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150