JP2017058461A - Electronic wind instrument, music sound production instruction method and program - Google Patents
Electronic wind instrument, music sound production instruction method and program Download PDFInfo
- Publication number
- JP2017058461A JP2017058461A JP2015181901A JP2015181901A JP2017058461A JP 2017058461 A JP2017058461 A JP 2017058461A JP 2015181901 A JP2015181901 A JP 2015181901A JP 2015181901 A JP2015181901 A JP 2015181901A JP 2017058461 A JP2017058461 A JP 2017058461A
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- mouthpiece
- sound
- resonance frequency
- wind instrument
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 112
- 239000011295 pitch Substances 0.000 claims description 164
- 238000001514 detection method Methods 0.000 claims description 51
- 210000000214 mouth Anatomy 0.000 claims description 25
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000029058 respiratory gaseous exchange Effects 0.000 abstract description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000008961 swelling Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000007664 blowing Methods 0.000 description 1
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】口笛の発音原理を用いて楽音を発生する電子管楽器を提供する。
【解決手段】CPUは、マウスピース2を咥える吹奏者の口腔内の状態に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得し、さらにマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2を取得する。音高f1と音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、優先的に音高f1を発音ピッチFに設定する。マウスピース2に息を吹き込んでいれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部に送付し、息が吹き込まれなくなると、ノートオフイベントを発生して音源部に送付する。
【選択図】図1An electronic wind instrument that generates a musical sound using the whistling sound generation principle is provided.
A CPU measures a resonance frequency that varies depending on the state of the mouth of a blower holding the mouthpiece, obtains a pitch f1 of a chromatic scale close to the resonance frequency, and further obtains a mouthpiece. The pitch f2 of the chromatic scale close to the pitch frequency extracted from the waveform formed by the breath blown into is acquired. If the pitch f1 and the pitch f2 match, the pitch f1 (or pitch f2) is set to the sounding pitch F. If not, the pitch f1 is set to the sounding pitch F preferentially. . If the mouthpiece 2 is breathing in, a note-on event including the sound pitch P and the volume corresponding to the breath pressure data is generated and sent to the sound source unit, and if no breath is blown, a note-off event is generated. To the sound generator.
[Selection] Figure 1
Description
本発明は、口笛の発音原理を用いて楽音を発生する電子管楽器、楽音発生指示方法およびプログラムに関する。 The present invention relates to an electronic wind instrument, a musical sound generation instruction method, and a program that generate a musical sound using the whistling sound generation principle.
従来より、サックス等のアコースティック管楽器を模した筺体内部に音源を設け、当該音源から電子的に楽音を発生する電子管楽器が知られている。この種の楽器として、例えば特許文献1には、マウスピースを咥えた時に接触する吹奏者の上唇および下唇の位置を検出し、検出した上唇および下唇の位置に応じて楽音パラメータを制御することによって、例えば上唇および下唇のわずかな動きで発生楽音の音色を変化させる技術が開示されている。 2. Description of the Related Art Conventionally, there has been known an electronic wind instrument in which a sound source is provided inside a housing imitating an acoustic wind instrument such as a saxophone and electronically generates musical sounds from the sound source. As this type of musical instrument, for example, in Patent Document 1, the positions of the upper lip and lower lip of a blower who come into contact with the mouthpiece are detected, and the musical tone parameters are controlled according to the detected positions of the upper lip and the lower lip. Thus, for example, a technique for changing the tone color of the generated musical tone with a slight movement of the upper lip and the lower lip is disclosed.
ところで、上記特許文献1に開示の技術では、マウスピースに接触する唇の位置や、頬や咽の動きに応じて、発生する楽音のパラメータを制御するが、口笛の発音原理を用いて楽音を発生することが出来ない、という問題がある。 By the way, in the technique disclosed in Patent Document 1, the parameters of the musical sound generated are controlled according to the position of the lips contacting the mouthpiece and the movements of the cheeks and throats. There is a problem that it cannot occur.
そこで本発明は、上述した事情に鑑みてなされたもので、口笛の発音原理を用いて楽音を発生することが出来る電子管楽器、楽音発生指示方法およびプログラムを提供することを目的としている。 Accordingly, the present invention has been made in view of the above-described circumstances, and an object thereof is to provide an electronic wind instrument, a musical sound generation instruction method, and a program that can generate musical sounds using the whistling sound generation principle.
上記目的を達成するため、本発明の電子管楽器は、
マウスピースと、
前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
を具備することを特徴とする。
To achieve the above object, the electronic wind instrument of the present invention is:
Mouthpiece,
A sensor for detecting at least one of a breath pressure or a flow rate of the breath blown into the mouthpiece;
An acquisition process for acquiring a resonance frequency corresponding to a state in the oral cavity of a blower holding the mouthpiece, and a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor. And a processing unit that executes a sound generation instruction process for instructing sound generation to the sound source.
本発明の楽音発生方法は、
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、処理部を有する電子管楽器に用いられる楽音発生指示方法であって、前記処理部が、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、ことを特徴とする。
The musical sound generation method of the present invention includes:
A musical sound generation instruction method used for an electronic wind instrument having a mouthpiece, a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece, and a processing unit, wherein the processing unit includes:
Obtaining the resonance frequency corresponding to the state of the oral cavity of the blower holding the mouthpiece,
The musical sound having a pitch corresponding to the acquired resonance frequency is instructed to be sounded to a sound source at a volume corresponding to the detection result of the sensor.
本発明のプログラムは、
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、を有する電子管楽器として用いられるコンピュータに、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
を実行させることを特徴とする。
The program of the present invention
A computer used as an electronic wind instrument having a mouthpiece and a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece,
Obtaining a resonance frequency corresponding to a state in the mouth of a blower holding the mouthpiece;
Instructing the sound source to produce a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor;
Is executed.
本発明では、口笛の発音原理を用いて楽音を発生することが出来る。 In the present invention, it is possible to generate a musical tone using the whistling sound generation principle.
以下、図面を参照して本発明の実施形態について説明する。
A.外観
図1(a)は、本発明の一実施形態による電子管楽器100の外観を示す外観図である。この図に示す電子管楽器100は、角笛状の管体として形成される本体1と、この本体1の基端側に嵌着されるマウスピース2とから構成される。本体1の他端側には、楽音を放音するスピーカ3が設けられる。本体1の側部には、パワーオン・オフする電源スイッチの他、音色選択スイッチ等の各種操作スイッチ4が配設される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
A. External View FIG. 1A is an external view showing the external appearance of an
次に、図1(b)を参照してマウスピース2の構造を説明する。本体1の基端側に嵌着されるマウスピース2は、内部にスピーカ20、マイク21および圧力センサ22を備える。スピーカ20は、ホワイトノイズ音を放音するものであり、その意図するところについては追って述べる。マイク21は、マウスピース内部の音を集音する。圧力センサ22は、マウスピース2の歌口(吹き込み口)から吹き込まれる吹奏者の息圧を検出する。
Next, the structure of the
B.構成
次に、図2を参照して電子管楽器100の電気的構成を説明する。図2において、CPU10は、操作部16(スイッチ4を含む)が発生する各種スイッチイベントに従って楽器各部を動作形態を設定する他、口笛の発音原理(後述する)に基づき音源部17に発音・消音を指示する。ROM11は、CPU10にロードされる各種プログラムを記憶する。各種プログラムとは、後述するメインフロー、音程検出処理および音源処理を含む。なお、音程検出処理は、共振検知処理、ピッチ検出処理および発音ピッチ確定処理を含む。
B. Configuration Next, the electrical configuration of the
RAM12は、ワークエリアおよびデータエリアを備える。RAM12のワークエリアには、CPU10の作業領域として用いられ、各種レジスタ・フラグが一時記憶される。RAM12のデータエリアには、後述する集音データや息圧データが一時記憶される。ホワイトノイズ発生部13は、CPU10の制御の下に、ホワイトノイズ信号を発生し、マウスピース2の内部に設けられたスピーカ20に供給してホワイトノイズ音を放音させる。なお、本実施形態では、ホワイトノイズ発生部13でホワイトノイズ信号を発生する態様としたが、これに替えて、後述する音源部17を用いてホワイトノイズ信号を発生する態様としても構わない。
The
息圧検出部14は、CPU10の制御の下に、マウスピース2の内部に配設される圧力センサ22(図1(b)参照)の出力をサンプリングして得た息圧データを発生する。息圧検出部14が発生する息圧データは、RAM12のデータエリアに一時記憶される。集音部15は、CPU10の制御の下に、マウスピース2の内部に配設されるマイク21(図1(b)参照)の出力をサンプリングして得た集音データを発生する。集音部15が発生する集音データは、RAM12のデータエリアに一時記憶される。
The breath
操作部16は、本体1の側部に配設される各種操作スイッチ4から構成され、操作されるスイッチ種に応じたスイッチイベントを発生する。このスイッチイベントは、CPU10に取り込まれる。音源部17は、周知の波形メモリ読み出し方式にて構成される複数の発音チャンネル(MIDIチャンネル)を備え、CPU10から供給されるノートオン/ノートオフイベントに従って楽音波形データを発生する。
The
サウンドシステム18は、音源部17から出力される楽音波形データをアナログ形式の楽音信号に変換し、当該楽音信号から不要ノイズを除去する等のフィルタリングを施した後、これを増幅して本体1の開放端に設けられたスピーカ3(図1(a)参照)から放音させる。MIDIインタフェース19は、CPU10の制御の下に、図示されていないMIDI楽器とMIDIデータを授受する。
The
C.動作
次に、図3〜図6を参照して、上述した電子管楽器100のCPU10が実行するメインフロー、音程検出処理および音源処理を各動作について説明する。なお、音程検出処理は、共振検知処理、ピッチ検出処理および発音ピッチ確定処理を含む。また、以下の動作説明では、ことわりが無い限り、CPU10が動作の主体となる。
C. Operation Next, with reference to FIGS. 3 to 6, each operation of the main flow, pitch detection processing, and sound source processing executed by the
(1)メインフローの動作
図3(a)は、CPU10が実行するメインフローの動作を示すフローチャートである。電源スイッチのオン操作でパワーオンされると、CPU10は図3(a)に図示する本処理を実行してステップSA1に処理を進め、電子管楽器100の各部を初期化するイニシャライズを行う。そして、イニシャライズが完了すると、ステップSA2を介して音程検出処理を実行する。
(1) Main Flow Operation FIG. 3A is a flowchart showing the main flow operation executed by the
音程検出処理では、後述するように、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得し、さらにマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2を取得する。そして、音高f1と音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、優先的に音高f1を発音ピッチFに設定する。
In the pitch detection process, as will be described later, a resonance frequency that varies depending on the state of the mouth of the blower holding the mouthpiece 2 (the position and shape of the tongue, the degree of swelling of the cheeks) is measured, and the resonance frequency is set to the resonance frequency. The pitch f1 of the near chromatic scale is acquired, and the pitch f2 of the chromatic scale close to the pitch frequency extracted from the waveform formed by the breath blown into the
続いて、ステップSA3では、音源処理を実行する。音源処理では、後述するように、吹奏者がマウスピース2に息を吹き込んでいるかどうかを判断し、息を吹き込んでいれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に供給し、さらに発音ピッチFが変更されると、変更された発音ピッチFで発音するよう音源部17に指示する。そして、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に供給する。
Subsequently, in step SA3, sound source processing is executed. In the sound source processing, as will be described later, it is determined whether or not the blower is breathing into the
そして、ステップSA4では、例えば音色選択スイッチ操作で選択された音色を音源部17に指示する等の、その他の処理を実行した後、上記ステップSA2に処理を戻す。以後、電源スイッチのオフ操作でパワーオフされるまで上記ステップSA2〜SA4を繰り返し実行する。
In step SA4, for example, other processing such as instructing the
(2)音程検出処理の動作
次に、図3(b)を参照して音程検出処理の動作を説明する。図3(b)は、音程検出処理の動作を示すフローチャートである。上述したメインフローのステップSA2(図3(a)参照)を介して本処理が実行されると、CPU10は図3(b)に図示するステップSB1に処理を進め、共振検知処理を実行する。
(2) Operation of pitch detection process Next, the operation of the pitch detection process will be described with reference to FIG. FIG. 3B is a flowchart showing the operation of the pitch detection process. When this process is executed through step SA2 (see FIG. 3A) of the main flow described above, the
共振検知処理では、後述するように、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へホワイトノイズ音を伝え、そのホワイトノイズ音をマイク21で集音した集音データを周波数分析してマウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得する。つまり、口笛の発音原理と同様に口腔のヘルムホルツ共鳴で得られる音高を取得する。
In the resonance detection process, as will be described later, collected sound data is obtained by transmitting a white noise sound from the internal space of the
次のステップSB2では、ピッチ検出処理を実行する。ピッチ検出処理では、後述するよに、吹奏者がマウスピース2に息を吹き込むと、マイク21で集音した集音データ(マウスピース2の内部の波形)からホワイトノイズ成分を減算し、さらにその残存波形にバンドパスフィルタリングを施して得た波形のピッチを抽出し、前回測定したピッチと今回測定したピッチとが一致すると、今回取得したピッチに近いクロマチック音階の音高f2を取得する。
In the next step SB2, a pitch detection process is executed. In the pitch detection process, as will be described later, when the wind blower blows into the
そして、ステップSB3では、発音ピッチ確定処理を実行する。発音ピッチ確定処理では、後述するように、共振検知処理で得た音高f1と、ピッチ検出処理で得た音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、共振検知処理で得た音高f1を優先的に発音ピッチFに設定する。 In step SB3, a sound generation pitch determination process is executed. In the pronunciation pitch determination process, as will be described later, if the pitch f1 obtained by the resonance detection process matches the pitch f2 obtained by the pitch detection process, the pitch f1 (or the pitch f2) is used as the pronunciation pitch F. On the other hand, if they do not match, the pitch f1 obtained by the resonance detection process is preferentially set to the sound generation pitch F.
(3)共振検知処理の動作
次に、図4を参照して共振検知処理の動作を説明する。図4は、共振検知処理の動作を示すフローチャートである。上述した音程検出処理のステップSB1(図3(b)参照)を介して本処理が実行されると、CPU10は図4に図示するステップSC1に処理を進め、ホワイトノイズ発生部13から所定レベルのホワイトノイズ信号を発生させ、当該ホワイトノイズ信号をマウスピース2の内部に設けられたスピーカ20に供給してホワイトノイズ音を放音させる。こうして放音されるホワイトノイズ音は、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へ伝わる。
(3) Operation of Resonance Detection Process Next, the operation of the resonance detection process will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of the resonance detection process. When this process is executed via step SB1 (see FIG. 3B) of the pitch detection process described above, the
次いで、ステップSC2では、マウスピース2の内部に配設されるマイク21の出力をサンプリングするよう集音部15に指示する。これにより、集音部15により取得される集音データがRAM12のデータエリアに一時記憶される。次のステップSC3では、RAM12のデータエリアに一時記憶された所定サンプル数のホワイトノイズ音データにFFT(高速フーリエ変換)処理を施す。
Next, in step SC2, the
そして、ステップSC4では、上記ステップSC3のFFT処理で得られる周波数分析結果に基づき共振周波数を測定する。なお、この共振周波数は、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化するものであり、口笛の発音原理であるヘルムホルツ共鳴に相当する。 In step SC4, the resonance frequency is measured based on the frequency analysis result obtained by the FFT process in step SC3. This resonance frequency changes according to the state of the mouth of the blower holding the mouthpiece 2 (the position and shape of the tongue, the swelling of the cheeks), and the Helmholtz resonance, which is the whistling pronunciation principle. Equivalent to.
続いて、ステップSC5では、前回測定した共振周波数と今回測定した共振周波数とが一致するか否かを判断する。最初の測定では、前回測定値が存在しないので、判断結果は「NO」になり、ステップSC6に進む。ステップSC6では、取得した測定値(共振周波数)に近いクロマチック音階の音高f1を設定する。この後、ステップSC7に進み、一定時間待機した後、上記ステップSC1〜SC4を繰り返して再び共振周波数を測定する。 Subsequently, in step SC5, it is determined whether or not the resonance frequency measured last time matches the resonance frequency measured this time. In the first measurement, since the previous measurement value does not exist, the determination result is “NO”, and the process proceeds to Step SC6. In step SC6, a pitch f1 of a chromatic scale close to the acquired measurement value (resonance frequency) is set. Thereafter, the process proceeds to step SC7, and after waiting for a predetermined time, the steps SC1 to SC4 are repeated and the resonance frequency is measured again.
そして、前回測定した共振周波数と今回測定した共振周波数とが一致すると、上記ステップSC5の判断結果が「YES」になり、ステップSC8に進み、今回取得した測定値(共振周波数)に近いクロマチック音階の音高f1を設定して本処理を終える。 When the resonance frequency measured last time coincides with the resonance frequency measured this time, the determination result in step SC5 is “YES”, the process proceeds to step SC8, and the chromatic scale close to the measurement value (resonance frequency) acquired this time is obtained. The pitch f1 is set and this processing is finished.
このように、共振検知処理では、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へホワイトノイズ音を伝え、そのホワイトノイズ音をマイク21で集音して得た集音データを周波数分析してマウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、その共振周波数に近いクロマチック音階の音高f1を取得する。
As described above, in the resonance detection process, the white noise sound is transmitted from the internal space of the
(4)ピッチ検出処理の動作
次に、図5を参照してピッチ検出処理の動作を説明する。図5は、ピッチ検出処理の動作を示すフローチャートである。前述した音程検出処理のステップSB2(図3(b)参照)を介して本処理が実行されると、CPU10は図5に図示するステップSD1に処理を進め、マウスピース2内部に設けられる圧力センサ22がオン状態であるか否かを判断する。ここで言う圧力センサ22がオン状態とは、圧力センサ22が息圧を検出している状態を指す。したがって、上記ステップSD1では、マウスピース2に息が吹き込まれているか否かを判断する。
(4) Operation of Pitch Detection Process Next, the operation of the pitch detection process will be described with reference to FIG. FIG. 5 is a flowchart showing the operation of the pitch detection process. When this process is executed through step SB2 (see FIG. 3B) of the pitch detection process described above, the
息が吹き込まれていなければ、上記ステップSD1の判断結果は「NO」になり、本処理を終えるが、息が吹き込まれていれば、上記ステップSD1の判断結果は「YES」になり、ステップSD2に進む。ステップSD2では、マウスピース2の内部に配設されるマイク21の出力をサンプリングするよう集音部15に指示する。これにより、集音部15により取得される集音データがRAM12のデータエリアに一時記憶される。
If no breath is being blown, the determination result in step SD1 is “NO”, and the present process is terminated. If breath is being blown in, the determination result in step SD1 is “YES”, and step SD2 Proceed to In step SD2, the
次いで、ステップSD3では、上記ステップSD2で取得した集音データ(MIC波形)からホワイトノイズ成分を減算し、続くステップSD4では、ホワイトノイズ成分を減算して得た残存波形にBPF(バンドパスフィルタ)処理を施す。そして、ステップSD5では、バンドパスフィルタリングされた波形のピッチを抽出する。 Next, in step SD3, the white noise component is subtracted from the sound collection data (MIC waveform) acquired in step SD2, and in the subsequent step SD4, a BPF (band pass filter) is added to the remaining waveform obtained by subtracting the white noise component. Apply processing. In step SD5, the pitch of the bandpass filtered waveform is extracted.
ステップSD6では、前回測定したピッチと今回測定したピッチとが一致するか否かを判断する。最初の測定では、前回測定値が存在しないので、判断結果は「NO」になり、ステップSD8に進む。ステップSD8では、今回取得したピッチに近いクロマチック音階の音高f2を設定して本処理を終える。これに対し、前回測定したピッチと今回測定したピッチとが一致すると、上記ステップSD6の判断結果が「YES」になり、ステップSD7に進み、今回取得したピッチに近いクロマチック音階の音高f2を設定して本処理を終える。 In step SD6, it is determined whether or not the previously measured pitch matches the currently measured pitch. In the first measurement, since the previous measurement value does not exist, the determination result is “NO”, and the process proceeds to Step SD8. In step SD8, the pitch f2 of the chromatic scale close to the pitch acquired this time is set, and this processing is finished. On the other hand, if the previously measured pitch matches the currently measured pitch, the determination result in step SD6 is “YES”, and the process proceeds to step SD7 to set the pitch f2 of the chromatic scale close to the currently acquired pitch. And this processing is finished.
このように、ピッチ検出処理では、吹奏者がマウスピース2に息を吹き込むと、マイク21で集音した集音データ(マウスピース2の内部の波形)からホワイトノイズ成分を減算し、さらにその残存波形にバンドパスフィルタリングを施して得た波形のピッチを抽出し、前回測定したピッチと今回測定したピッチとが一致すると、今回取得したピッチに近いクロマチック音階の音高f2を取得する。
As described above, in the pitch detection process, when the wind blower blows into the
(5)発音ピッチ確定処理の動作
次に、図6(a)を参照して発音ピッチ確定処理の動作を説明する。図6(a)は、発音ピッチ確定処理の動作を示すフローチャートである。前述した音程検出処理のステップSB3(図3(b)参照)を介して本処理が実行されると、CPU10は図6(a)に図示するステップSE1に処理を進め、上述の共振検知処理で得た音高f1と、上述のピッチ検出処理で得た音高f2とが一致するか否かを判断する。一致すれば、音高f1(又は音高f2)を発音ピッチFに設定して本処理を終える。一方、一致しなければ、共振検知処理で得た音高f1を優先的に発音ピッチFに設定して本処理を終える。
(5) Operation of Sound Generation Pitch Determination Process Next, the operation of the sound generation pitch determination process will be described with reference to FIG. FIG. 6A is a flowchart showing the operation of the pronunciation pitch determination process. When this process is executed through step SB3 (see FIG. 3B) of the pitch detection process described above, the
(6)音源処理の動作
次に、図6(b)を参照して音源処理の動作を説明する。図6(b)は、音源処理の動作を示すフローチャートである。前述したメインフローのステップSA3(図3(a)参照)を介して本処理が実行されると、CPU10は図6(b)に図示するステップSF1に処理を進め、マウスピース2内部に設けられる圧力センサ22がオン状態、すなわちマウスピース2に息が吹き込まれているか否かを判断する。
(6) Sound Source Processing Operation Next, the sound source processing operation will be described with reference to FIG. FIG. 6B is a flowchart showing the sound source processing operation. When this processing is executed through step SA3 (see FIG. 3A) of the main flow described above, the
息が吹き込まれていれば、判断結果は「YES」になり、ステップSF2に進み、発音ピッチFと、息圧検出部14が発生する息圧データに対応した音量とを含むノートオンイベントを発生して音源部17に送付する。これにより、音源部17では、発音ピッチFの音高で、息圧データに応じた音量の楽音データを発生する。
If the breath is being blown in, the determination result is “YES”, and the process proceeds to step
次いで、ステップSF3では、発音ピッチFの変更の有無を判断する。発音ピッチFに変更が無ければ、判断結果は「NO」に本処理を終えるが、発音ピッチFに変更が有ると、判断結果が「YES」になり、ステップSF4に進み、変更された発音ピッチFで発音するよう音源部17に指示して本処理を終える。
Next, in step SF3, it is determined whether or not the pronunciation pitch F has been changed. If there is no change in the pronunciation pitch F, the determination result is “NO”, and the present processing is finished. However, if there is a change in the pronunciation pitch F, the determination result is “YES”, and the process proceeds to step SF4 to change the pronunciation pitch. The
一方、息が吹き込まれていないと、上記ステップSF1の判断結果は「NO」になり、ステップSF5に進む。ステップSF5では、ノートオフイベントを発生して音源部17に送付して本処理を終える。これにより、音源部17では、ノートオフイベントを受信した時点で発音していた楽音を消音させる。
On the other hand, if no breath is blown, the determination result in step SF1 is “NO”, and the flow proceeds to step SF5. In step SF5, a note-off event is generated and sent to the
このように、音源処理では、マウスピース2に息が吹き込まれているか否かを判断し、息が吹き込まれていれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に送付し、さらに発音ピッチFが変更されると、変更された発音ピッチFで発音するよう音源部17に指示する。そして、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に送付する。
As described above, in the sound source processing, it is determined whether or not the
D.変形例
次に、図7を参照して変形例による発音ピッチ確定処理の動作について説明する。図7(a)は変形例による発音ピッチ確定処理の動作を示すフローチャート、図7(b)は音高マップの一例を示す図である。上述の実施形態と同様、音程検出処理のステップSB3(図3(b)参照)を介して本処理が実行されると、CPU10は図7(a)に図示するステップSG1に処理を進める。ステップSG1〜SG2では、音高マップを参照し、音高f1、f2に対応する発音ピッチFが有るか否かを判断する。
D. Modified Example Next, the operation of the pronunciation pitch determination process according to the modified example will be described with reference to FIG. FIG. 7A is a flowchart showing the operation of the pronunciation pitch determination process according to the modification, and FIG. 7B is a diagram showing an example of a pitch map. As in the above-described embodiment, when this process is executed via step SB3 (see FIG. 3B) of the pitch detection process, the
音高マップとは、図7(b)に図示する一例のように、予め測定して得た音高f1および音高f2に対応する発音ピッチFをデータテーブルとしたものである。この一例の場合、例えば吹奏者の口腔の共振周波数に近いクロマチック音階の音高f1が「146.8Hz」、マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2が「155.6Hz」であると、対応する発音ピッチFは「D3(ノート番号:50)」となる。
The pitch map is a data table in which the tone pitch F corresponding to the pitch f1 and the pitch f2 obtained by measurement in advance is used as a data table, as in the example shown in FIG. 7B. In this example, for example, the pitch f1 of the chromatic scale close to the resonance frequency of the oral cavity of the blower is “146.8 Hz”, and the chromatic scale close to the pitch frequency extracted from the waveform formed by the breath blown into the
このように、音高f1および音高f2に対応する発音ピッチFが音高マップに存在すると、上記ステップSG2の判断結果は「YES」になり、ステップSG3に進み、発音ピッチFを決定して本処理を終える。これに対し、音高f1および音高f2に対応する発音ピッチFが音高マップに存在しない場合には、上記ステップSG2の判断結果が「NO」になり、ステップSG4に進み、音高f2を優先的に発音ピッチFに設定して本処理を終える。 As described above, when the tone pitch F corresponding to the pitch f1 and the pitch f2 exists in the pitch map, the determination result of the above step SG2 is “YES”, and the process proceeds to step SG3, where the tone pitch F is determined. This process is finished. On the other hand, if the tone pitch F corresponding to the pitch f1 and the pitch f2 does not exist in the pitch map, the determination result in step SG2 is “NO”, and the process proceeds to step SG4, where the pitch f2 is set. The tone generation pitch F is preferentially set and the present process is terminated.
以上説明したように、本実施形態によれば、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得し、さらにマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2を取得する。音高f1と音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、優先的に音高f1を発音ピッチFに設定する。そして、吹奏者がマウスピース2に息を吹き込んでいれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に送付し、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に送付するので、口笛の発音原理を用いて楽音を発生することが出来る。
As described above, according to the present embodiment, the resonance frequency that changes in accordance with the state in the mouth of the blower holding the mouthpiece 2 (the position and shape of the tongue, the degree of swelling of the cheeks) is measured. The pitch f1 of the chromatic scale close to the resonance frequency is acquired, and the pitch f2 of the chromatic scale close to the pitch frequency extracted from the waveform formed by the breath blown into the
なお、上述した実施形態および変形例では、音高f1を吹奏者の口腔の共振周波数に近いクロマチック音階、音高f2をマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階としたが、これに替えて、クロマチック音階に当て嵌めずに、吹奏者の口腔の共振周波数を音高f1、マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数を音高f2として扱う態様としてもよい。
In the embodiment and the modification described above, the pitch f1 is close to the chromatic scale close to the resonance frequency of the oral cavity of the blower, and the pitch f2 is close to the pitch frequency extracted from the waveform formed by the breath blown into the
さらに音高f1(吹奏者の口腔の共振周波数)と音高f2(マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数)の平均値をクロマチック音階に当て嵌めて発音ピッチFを得る態様でもよい。 Further, the average pitch f1 (resonant frequency of the blower's mouth) and pitch f2 (pitch frequency extracted from the waveform formed by the breath blown into the mouthpiece 2) are applied to the chromatic scale, and the pronunciation pitch F is calculated. It may be an embodiment.
以上、本発明の実施の一形態について説明したが、本発明はそれに限定されるものではなく、本願出願の特許請求の範囲に記載された発明とその均等の範囲に含まれる。以下では、本願出願当初の特許請求の範囲に記載された各発明について付記する。 As mentioned above, although one Embodiment of this invention was described, this invention is not limited to it, It is included in the invention described in the claim of this-application, and its equivalent range. Hereinafter, each invention described in the scope of claims at the beginning of the present application will be additionally described.
(付記)
[請求項1]
マウスピースと、
前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
を具備する電子管楽器。
(Appendix)
[Claim 1]
Mouthpiece,
A sensor for detecting at least one of a breath pressure or a flow rate of the breath blown into the mouthpiece;
An acquisition process for acquiring a resonance frequency corresponding to a state in the oral cavity of a blower holding the mouthpiece, and a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor. An electronic wind instrument comprising: a processing unit that executes a sound generation instruction process for instructing sound generation to a sound source.
[請求項2]
前記処理部は、前記発音指示処理において、前記取得された共振周波数を、クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第1の変換処理を実行する付記1記載の電子管楽器。
[Claim 2]
The processing unit performs a first conversion process of converting the acquired resonance frequency into a closest pitch among a plurality of pitches constituting a chromatic scale in the sound generation instruction process. Electronic wind instrument.
[請求項3]
前記電子管楽器はさらに、前記マウスピース内に配設されたマイクを有し、
前記処理部は、前記取得処理において、前記吹奏者の口腔内にホワイトノイズを発生するとともに、前記ホワイトノイズの発生後に前記マイクにより集音された前記口腔内の音を分析することにより、前記口腔内の共振周波数を取得する処理を実行する付記1または2に記載の電子管楽器。
[Claim 3]
The electronic wind instrument further includes a microphone disposed in the mouthpiece,
In the acquisition process, the processing unit generates white noise in the blower's mouth and analyzes the sound in the mouth collected by the microphone after the white noise is generated. The electronic wind instrument of
[請求項4]
前記処理部はさらに、
前記センサの検出信号から周波数を抽出するとともに、前記抽出された周波数を、前記クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第2の変換処理と、
前記第1の変換処理にて変換された音高と前記第2の変換処理にて変換された音高とが一致しない場合には、前記第1の変換処理にて変換された音高を前記発音すべき楽音の音高とする付記2に記載の電子管楽器。
[Claim 4]
The processing unit further includes:
A second conversion process for extracting a frequency from the detection signal of the sensor, and converting the extracted frequency to the closest pitch among a plurality of pitches constituting the chromatic scale;
If the pitch converted by the first conversion process does not match the pitch converted by the second conversion process, the pitch converted by the first conversion process is The electronic wind instrument according to
[請求項5]
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、処理部を有する電子管楽器に用いられる楽音発生指示方法であって、前記処理部が、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、楽音発生指示方法。
[請求項6]
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、を有する電子管楽器として用いられるコンピュータに、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
を実行させるプログラム。
[Claim 5]
A musical sound generation instruction method used for an electronic wind instrument having a mouthpiece, a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece, and a processing unit, wherein the processing unit includes:
Obtaining the resonance frequency corresponding to the state of the oral cavity of the blower holding the mouthpiece,
A musical sound generation instruction method of instructing a sound source to generate a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to a detection result of the sensor.
[Claim 6]
A computer used as an electronic wind instrument having a mouthpiece and a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece,
Obtaining a resonance frequency corresponding to a state in the mouth of a blower holding the mouthpiece;
Instructing the sound source to produce a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor;
A program that executes
1 本体
2 マウスピース
3 スピーカ
4 スイッチ
10 CPU
11 ROM
12 RAM
13 ホワイトノイズ発生部
14 息圧検出部
15 集音部
16 操作部
17 音源部
18 サウンドシステム
19 MIDIインタフェース
20 スピーカ
21 マイク
22 圧力センサ
100 電子管楽器
1
11 ROM
12 RAM
DESCRIPTION OF
Claims (6)
前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
を具備する電子管楽器。 Mouthpiece,
A sensor for detecting at least one of a breath pressure or a flow rate of the breath blown into the mouthpiece;
An acquisition process for acquiring a resonance frequency corresponding to a state in the oral cavity of a blower holding the mouthpiece, and a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor. An electronic wind instrument comprising: a processing unit that executes a sound generation instruction process for instructing sound generation to a sound source.
前記処理部は、前記取得処理において、前記吹奏者の口腔内にホワイトノイズを発生するとともに、前記ホワイトノイズの発生後に前記マイクにより集音された前記口腔内の音を分析することにより、前記口腔内の共振周波数を取得する処理を実行する請求項1または2に記載の電子管楽器。 The electronic wind instrument further includes a microphone disposed in the mouthpiece,
In the acquisition process, the processing unit generates white noise in the blower's mouth and analyzes the sound in the mouth collected by the microphone after the white noise is generated. The electronic wind instrument of Claim 1 or 2 which performs the process which acquires the resonance frequency in the inside.
前記センサの検出信号から周波数を抽出するとともに、前記抽出された周波数を、前記クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第2の変換処理と、
前記第1の変換処理にて変換された音高と前記第2の変換処理にて変換された音高とが一致しない場合には、前記第1の変換処理にて変換された音高を前記発音すべき楽音の音高とする請求項2に記載の電子管楽器。 The processing unit further includes:
A second conversion process for extracting a frequency from the detection signal of the sensor, and converting the extracted frequency to the closest pitch among a plurality of pitches constituting the chromatic scale;
If the pitch converted by the first conversion process does not match the pitch converted by the second conversion process, the pitch converted by the first conversion process is The electronic wind instrument according to claim 2, wherein the pitch of a musical tone to be pronounced is set.
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、楽音発生指示方法。 A musical sound generation instruction method used for an electronic wind instrument having a mouthpiece, a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece, and a processing unit, wherein the processing unit includes:
Obtaining the resonance frequency corresponding to the state of the oral cavity of the blower holding the mouthpiece,
A musical sound generation instruction method of instructing a sound source to generate a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to a detection result of the sensor.
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
を実行させるプログラム。 A computer used as an electronic wind instrument having a mouthpiece and a sensor for detecting at least one of a breath pressure or a flow rate of breath blown into the mouthpiece,
Obtaining a resonance frequency corresponding to a state in the mouth of a blower holding the mouthpiece;
Instructing the sound source to produce a musical tone having a pitch corresponding to the acquired resonance frequency at a volume corresponding to the detection result of the sensor;
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015181901A JP6679862B2 (en) | 2015-09-15 | 2015-09-15 | Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015181901A JP6679862B2 (en) | 2015-09-15 | 2015-09-15 | Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017058461A true JP2017058461A (en) | 2017-03-23 |
JP2017058461A5 JP2017058461A5 (en) | 2018-10-11 |
JP6679862B2 JP6679862B2 (en) | 2020-04-15 |
Family
ID=58390017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015181901A Active JP6679862B2 (en) | 2015-09-15 | 2015-09-15 | Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6679862B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113345393A (en) * | 2020-03-02 | 2021-09-03 | 雅马哈株式会社 | Electronic wind instrument |
JP7593069B2 (en) | 2020-11-17 | 2024-12-03 | ヤマハ株式会社 | Training support device, training support method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63285594A (en) * | 1987-05-18 | 1988-11-22 | 高木 征一 | Input device for electronic musical instrument |
JPH0311398A (en) * | 1989-06-08 | 1991-01-18 | Yamaha Corp | Breath controller for electronic musical instrument |
JPH0493996A (en) * | 1990-08-07 | 1992-03-26 | Yamaha Corp | Musical sound controller for electronic musical instrument |
JPH04166897A (en) * | 1990-10-30 | 1992-06-12 | Yamaha Corp | Performance information input device |
JP2000122641A (en) * | 1998-10-21 | 2000-04-28 | Casio Comput Co Ltd | Electronic wind instrument |
WO2007059614A1 (en) * | 2005-11-23 | 2007-05-31 | Photon Wind Research Ltd. | Mouth-operated input device |
-
2015
- 2015-09-15 JP JP2015181901A patent/JP6679862B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63285594A (en) * | 1987-05-18 | 1988-11-22 | 高木 征一 | Input device for electronic musical instrument |
JPH0311398A (en) * | 1989-06-08 | 1991-01-18 | Yamaha Corp | Breath controller for electronic musical instrument |
JPH0493996A (en) * | 1990-08-07 | 1992-03-26 | Yamaha Corp | Musical sound controller for electronic musical instrument |
JPH04166897A (en) * | 1990-10-30 | 1992-06-12 | Yamaha Corp | Performance information input device |
JP2000122641A (en) * | 1998-10-21 | 2000-04-28 | Casio Comput Co Ltd | Electronic wind instrument |
WO2007059614A1 (en) * | 2005-11-23 | 2007-05-31 | Photon Wind Research Ltd. | Mouth-operated input device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113345393A (en) * | 2020-03-02 | 2021-09-03 | 雅马哈株式会社 | Electronic wind instrument |
CN113345393B (en) * | 2020-03-02 | 2024-02-20 | 雅马哈株式会社 | Electronic wind instruments |
JP7593069B2 (en) | 2020-11-17 | 2024-12-03 | ヤマハ株式会社 | Training support device, training support method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6679862B2 (en) | 2020-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10475431B2 (en) | Apparatus for a reed instrument | |
CN102467902B (en) | Electronic percussion instrument | |
US10832645B2 (en) | Transducer apparatus for a labrosone and a labrosone having the transducer apparatus | |
US11200872B2 (en) | Transducer apparatus for an edge-blown aerophone and an edge-blown aerophone having the transducer apparatus | |
CN102923051A (en) | Sound producing device for a vehicle, and recording medium and information processing method for a sound producing device for a vehicle | |
JP6435644B2 (en) | Electronic musical instrument, pronunciation control method and program | |
CN102456339B (en) | Input device | |
JP6679862B2 (en) | Electronic musical instrument, electronic wind instrument, musical tone generation instruction method and program | |
JP5614045B2 (en) | Electronic wind instrument | |
JP6728843B2 (en) | Electronic musical instrument, musical tone generating device, musical tone generating method and program | |
US8723014B2 (en) | Musical tone control device, system and process | |
JP2017058461A5 (en) | Electronic musical instrument, electronic wind instrument, musical sound generation instruction method and program | |
JP4618053B2 (en) | Automatic performance device | |
JP2015225271A (en) | Electronic musical instrument, method for controlling sound production of electronic musical instrument, and program | |
JP6753250B2 (en) | Musical tone generator, musical tone generator, electronic musical instrument, and program | |
JP2015225269A (en) | Electronic musical instrument, pronunciation control method for electronic musical instrument, and program | |
JP6573100B2 (en) | Musical sound control device, musical sound control method, program, and electronic musical instrument | |
JP5023943B2 (en) | Electronic wind instrument | |
JP7346865B2 (en) | Electronic wind instrument, musical sound generation method, and program | |
JP6671633B2 (en) | Electronic wind instrument, musical sound generation method and program | |
JP2023007982A (en) | Player fingering detection system for woodwind instrument | |
JP4973753B2 (en) | Karaoke device and karaoke information processing program | |
JP2007264060A (en) | Karaoke device and karaoke information processing program | |
FR2884345A1 (en) | Electronic musical instrument for playing musical notes, has pipe in which air is blown, and embedded electronic system that processes signal based on personalized calibration for user game for reproducing melody | |
JP2017062325A (en) | Electronic wind instrument, musical sound generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6679862 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |