[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2006011342A1 - 楽音生成装置および楽音生成システム - Google Patents

楽音生成装置および楽音生成システム Download PDF

Info

Publication number
WO2006011342A1
WO2006011342A1 PCT/JP2005/012539 JP2005012539W WO2006011342A1 WO 2006011342 A1 WO2006011342 A1 WO 2006011342A1 JP 2005012539 W JP2005012539 W JP 2005012539W WO 2006011342 A1 WO2006011342 A1 WO 2006011342A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
coordinate
musical
sound
tone
Prior art date
Application number
PCT/JP2005/012539
Other languages
English (en)
French (fr)
Inventor
Shunsuke Nakamura
Original Assignee
National University Corporation Kyushu Institute Of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University Corporation Kyushu Institute Of Technology filed Critical National University Corporation Kyushu Institute Of Technology
Priority to JP2006528958A priority Critical patent/JP3978506B2/ja
Priority to US11/631,398 priority patent/US7504572B2/en
Publication of WO2006011342A1 publication Critical patent/WO2006011342A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/161User input interfaces for electrophonic musical instruments with 2D or x/y surface coordinates sensing

Definitions

  • the present invention relates to a musical sound generation device and a musical sound generation system that generate musical sounds based on input coordinate data.
  • a pen-type input device that inputs coordinate information of a drawn picture
  • a display device that displays coordinate information input from the pen-type input device
  • a pen-type input device A music performance system including a sound source device that outputs an audio signal corresponding to input coordinate information and a main control device that controls the display device and the sound source device based on the coordinate information input from the pen-type input device. Proposed.
  • the sound of the instrument used is replaced with the color on the input screen, and the user can freely select from the color variations and place it on the display screen to listen to the sound. In addition to the enjoyment, it is said that the enjoyment can be enjoyed (see Patent Document 1;).
  • the audio signal corresponding to the position where the pen is placed for drawing is an audio signal assigned to the coordinate position. Then, an audio signal corresponding to the coordinate position is generated and recorded in advance when drawing a picture, and the audio signal corresponding to the coordinate position is reproduced by tracing the next drawn picture again. .
  • the audio signal generated by the drawn picture is determined by where the pen is placed on the screen when tracing the drawn picture, and the audio signal corresponding to the coordinate position is reproduced. Therefore, in practice, it is not possible to generate free audio based on freely drawn pictures. It cannot be said that it is necessary to perform a pen operation defined at the position of the screen. Also, in order to reproduce music, the pen must be moved at the exact same screen position.
  • an image display step for displaying input images in the order of input in a drawing area in which a coordinate system is set, and a tone generation step for generating a tone corresponding to the coordinates in the coordinate system of the image portion being displayed A musical sound generating method having the following has been proposed.
  • the coordinate system is set to a first coordinate axis that determines the pitch of the musical sound and a second coordinate axis that determines the left-right volume balance of the musical sound.
  • this musical sound generation method it is said that the reproduced drawing and musical sound can be matched with the drawing and musical sound at the time of input (see Patent Document 2;).
  • a phrase is generated by adding a tempo element by clicking the mouse.
  • the generated sound is a single sound having a pitch and volume assigned to coordinate positions (coordinate points).
  • the generated phrase is also determined by a mouse operation at a specific coordinate point on the plane coordinate.
  • the musical sound generation method (Patent Document 2) is similar to the music performance system (Patent Document 1), in other words, the degree of freedom of voice generated when generating a voice based on a freely drawn drawing. Is small.
  • Patent Document 2 Japanese Patent Laid-Open No. 2003-271164
  • Patent Document 3 Japanese Patent Laid-Open No. 6-175652 Disclosure of the invention
  • the object to be controlled based on the solid is the increase / decrease of the value of the timbre parameter, etc., and the setting change of the timbre parameter itself Is performed by a parameter input device such as a mode setting switch which is an input means different from the tablet.
  • a parameter input device such as a mode setting switch which is an input means different from the tablet.
  • the present invention has been made in view of the above problems, and provides a musical sound generation device and a musical sound generation system with a high degree of freedom of musical sounds generated based on a drawing freely drawn by coordinate input means.
  • the purpose is to do.
  • a musical sound generating device includes coordinate input means for inputting coordinate data and a vector of two coordinate data input before and after a predetermined time interval.
  • Vector calculation means for calculating the musical instrument data
  • musical tone data generation means for generating musical sound data based on the calculated outer scale
  • musical instrument data generation means for generating musical instrument data based on the coordinate data
  • generated musical sound And a musical tone output means for controlling the sound source based on the data and the musical instrument data to output musical instruments.
  • the musical sound generating device is characterized in that the musical instrument data generating means generates musical sound data based on the coordinate data and a music theory database.
  • the musical sound data is selected from one or two or more selected from the pitch of sound, the strength of the sound, the length of the sound, the right / left balance of the sound, and the middle of the vibration of the sound. It is characterized by being.
  • the musical sound generating device is further characterized by further comprising image display means for displaying an image corresponding to the coordinate data input by the coordinate input means.
  • the musical sound generating device is further characterized by further comprising display color data generating means for generating display color data based on the coordinate data.
  • the musical sound generation device generates musical instrument data based on the coordinate data.
  • a musical instrument data generating means configured to associate the musical instrument data with the display color data, control the sound source based on the generated musical instrument data, and output a musical tone of the musical instrument.
  • the musical sound generating device records a data group consisting of coordinate data groups input separately and generated musical sound data groups, display color data groups, and instrument data groups, and the data It further comprises recording / reproducing means for simultaneously reproducing one or both of the musical sound and the image based on the group.
  • a plurality of the tone generation devices are connected by a communication network, and one or both of a tone and an image are connected to each of the plurality of tone generation devices. Are generated simultaneously.
  • the musical sound generating apparatus calculates the change amount of the coordinate data as a vector, generates musical sound data corresponding to the calculated vector, and generates musical instrument data based on the coordinate data. Since the musical tone of the musical instrument is output by controlling the sound source based on the generated musical tone data and musical instrument data, the musical tone can be freely obtained without being limited by the size and position of the input coordinate plane.
  • FIG. 1 is a diagram showing a schematic configuration of a musical sound generating device according to the present invention.
  • FIG. 2 is a diagram for explaining the relationship between coordinate data and vectors in the musical sound generating device of the present invention.
  • FIG. 3 is a diagram showing a color circle used for explaining a display color determination method in the musical sound generating apparatus of the present invention.
  • FIG. 4 is a diagram showing a hue circle used for explaining a musical instrument determining method in the musical sound generating device of the present invention.
  • FIG. 5 is a diagram showing a main flow of a musical sound generation processing procedure in the musical sound generation device of the present invention.
  • FIG. 6 shows a flow of color selection processing in the musical sound generation process in the musical sound generation device of the present invention.
  • FIG. 7 is a diagram showing a system configuration of an example of a tone generation system of the present invention.
  • the musical sound generating apparatus 10 of the present invention includes a coordinate input device (coordinate input means) 12, a main control device 14, an acoustic device (musical sound output means) 16, and a display device (image display means) 18.
  • the coordinate input device 12 is for inputting coordinate data of lines or pictures drawn continuously or discontinuously, and an appropriate method such as a touch panel display or a mouse can be used.
  • the main control device 14 is, for example, a personal computer, which processes the coordinate data signal from the coordinate input device 12, sends a musical sound signal to the acoustic device 16, and sends an image signal to the display device 18.
  • the detailed configuration of the main controller 14 will be described later.
  • the acoustic device (musical sound output means) 16 is, for example, a speaker system, and generates a musical sound by a musical sound signal.
  • the display device 18 is a liquid crystal display, for example, and displays an image using an image signal.
  • the acoustic device 16 and the display device 18 may be integrated with the main control device 14. Further, the display device 18 may be omitted as necessary.
  • the main controller 14 will be further described.
  • the main control unit 14 includes a motion calculation unit (vector calculation unit) 20, a musical sound data generation unit (musical sound data generation unit) 22, and an instrument data generation unit / display color data generation unit (instrument data generation unit / display color data generation). Means) 24, a data transfer / save unit 26, and a sound source, for example, a MIDI sound source 28 and a timer 30 are provided.
  • the motion calculation unit 20 calculates the coordinate data input by the coordinate input device 12 as a vector having a size and an orientation by connecting two coordinate positions input before and after a predetermined time interval. Is.
  • the motion calculation unit 20 includes a coordinate buffer unit 32 and a vector calculation unit 34.
  • the coordinate buffer unit 32 temporarily stores the input coordinate data.
  • the first coordinate buffer unit and the coordinate data of the first coordinate buffer unit that capture the input coordinate data as they are are sequentially received at predetermined time intervals. Includes the second coordinate buffer and third coordinate buffer.
  • the vector calculation unit 34 determines whether the coordinate data of the first coordinate buffer unit to the third coordinate buffer unit are This is for calculating the outer radius, and includes a scalar amount calculation unit and an angle change amount calculation unit.
  • the musical sound data generation unit 22 generates musical sound data based on the vector calculated by the vector calculation unit 34. In this case, the musical sound data generation unit 22 generates MIDI data.
  • the musical sound data generation unit 22 includes a musical sound data determination unit 36 that generates MIDI data, and further includes a music theory database 38 in this case. Details of the music theory database 38 will be described later.
  • the musical sound data determining unit 36 includes a sound intensity parameter determining unit that determines a sound intensity parameter based on a scalar amount, and a sound pitch parameter determining unit that determines a sound pitch parameter based on an angle change amount. including. Note that, conversely, the sound pitch parameter may be determined based on the scalar amount, and the sound intensity parameter may be determined based on the angle change amount.
  • the musical sound data determination unit 36 is configured such that, for example, when the amount of change in the vector obtained at a predetermined time interval is equal to or smaller than the threshold value, the musical sound data at the previous time is continuously generated as it is. The length of the sound (tempo) can be obtained.
  • the musical sound data is selected from these five, which may be the left / right balance of the sound or the modulation (sound modulation) of the sound only by the pitch, intensity, and length of the sound 1 Or it can be 2 or more.
  • the instrument data generation unit / display color data generation unit 24 has a function of generating instrument data and a function of generating display color data corresponding to the coordinate data.
  • the color 'instrument correspondence database 42 generates display color data and instrument data based on the coordinate data.
  • the display color data displayed on the display device 18 and the musical instrument data that is the material of the musical sound generated by the acoustic device 16 are allocated in the form of a hue ring and a musical instrument divided area corresponding to the hue ring, for example, according to the coordinate position.
  • Display color data and musical instrument data can be obtained by changing the coordinate position after displaying the color wheel on the input screen.
  • the color 'instrument correspondence check' determining unit 40 checks the input coordinate data against the color 'musical instrument correspondence database 42 and simultaneously determines display color data and instrument data.
  • the data transfer / save unit 26 is a data transfer unit that temporarily stores each data including coordinate data sent from the musical tone data generation unit 22 and the musical instrument data generation unit / display color data generation unit 24. 44 and a data storage unit 46 for storing the data as necessary.
  • the MIDI sound source 28 includes musical tones for a plurality of types of musical instruments, and is controlled by musical tone data and musical instrument data signals from the data transfer unit 42 to generate musical tone signals for the selected musical instrument.
  • a musical sound is generated by the acoustic device 16 by the musical sound signal.
  • the image drawn on the input device 12 is displayed on the display device 18 by a signal of coordinate data including display color data of the data transfer unit 42.
  • the acoustic device 16 and the display device 18 can be operated at the same time, or only one of them can be operated.
  • Coordinate data that changes continuously or discontinuously is taken into the coordinate buffer unit 32 of the motion calculation unit 20 at predetermined time intervals.
  • the pen is moved from left to right in FIG. 2 to obtain coordinate data l (xl, yl, tl) and coordinate data 1 at a certain time, and then a predetermined time has elapsed.
  • the coordinate data 2 (x2, y2, t2) and the coordinate data 2 are acquired, the coordinate data 3 (x3, y3, t3) when a predetermined time elapses are sequentially obtained.
  • (xi, yj) indicates the coordinate value
  • tk indicates the time.
  • the time tl, the time t2, and the time t3 are predetermined equal time intervals.
  • the latest coordinate data 3 is taken into the first buffer section. Prior to that, the coordinate data 2 is shifted from the first buffer unit to the second buffer unit, and the coordinate data 1 is also shifted to the first buffer unit.
  • the angle change amount calculation unit of the vector calculation unit 34 obtains a solid a from the coordinate data 1 and the coordinate data 2, that is, by connecting the two coordinate positions of the coordinate data 1 and the coordinate data 2, and similarly.
  • the vector b is obtained from the coordinate data 2 and the coordinate data 3.
  • the position of the coordinate data (xi, yj) is freely changed by the movement of the pen, and therefore the vector b can be different from the vector a. That is, for example, as shown in FIG.
  • the pen is slowly moved in a certain direction between time tl and time t2, and from time t2 to time t3 If you change the direction of the pen and move it quickly, the vector b will have a larger scalar value and the direction of the vector will change with respect to the vector a. At this time, the amount of change in the direction of the two vectors obtained before and after the predetermined time interval is shown as an angle change amount ⁇ in FIG.
  • the pitch of the sound is determined according to the angle change amount ⁇ .
  • the angle change amount ⁇ can take a value of ⁇ 180 degrees according to the movement of the pen.
  • the note pitch (hereinafter referred to as “note”) of MIDI data is used as the pitch of the sound.
  • the note is, for example, a number from 0 to 127 in which a full note (piano white key) and a semitone (piano black key) are arranged.
  • the music theory database 38 in addition to the data that can specify the pitch of all sounds according to the angle change amount 0 shown in Table 1, for example, the scale on the chord according to the angle change amount 0 shown in Table 2 ( This includes data for C code) and the ethnic scales shown in Table 3 (here, offshore scales).
  • the scalar quantity calculation unit of the vector calculation unit 34 calculates the scalar quantity of each of the vector a and vector b forces. Then, the musical sound data determining unit 36 of the musical sound data generating unit 22 generates sound intensity (sound intensity data, sound intensity parameter) according to the scalar amounts of the vectors a and b. In other words, the intensity of the sound can be changed by changing the amount of vector scalar.
  • L can take a value within the range of 0-1.
  • the sound intensity is the volume of MIDI data (hereinafter referred to as volume), and volume is a number from 0 to 127.
  • the sound intensity is generated according to the scalar quantity.
  • the sound intensity (tempo) is set by continuing the intensity of the sound generated according to the scalar quantity at the previous time. Can be generated.
  • a hue circle is set in which hue h is assigned in an angular range of 360 degrees with the center point of the coordinate plane as the center.
  • the hue circle is assigned a saturation s so that the closer it is to the center point of the coordinate plane, the lighter the color is, and the farther the center point of the coordinate plane is, the brighter the color.
  • color setting means such as a color selection button is operated to display a hue circle on the coordinate plane
  • the color of the display color can be changed by changing the angle of the hue circle by moving the state force to the position of the current coordinate P (X, y) of the plane coordinates and moving the state force to the position of another coordinate.
  • the saturation of the display color can be changed by changing the distance from the center of the hue circle.
  • the display color can be changed by dragging the right button.
  • a desired brightness can be obtained by setting the brightness to change according to the length of time in which the pen is fixed at the same coordinates without being powered.
  • the hue circle in FIG. 3 is divided into, for example, 12 parts, and musical instruments are assigned to the respective colors A to L.
  • the instrument number (Program Nunber) of the tone map shown in Table 4 of the MIDI sound source 28 may be assigned mechanically as shown in Table 5 or the desired instrument number as shown in Table 6 May be assigned.
  • the kind of musical instrument can be determined together with the determination of the display color. Note that when the image is not displayed! /, The instrument can be determined only by operating on the coordinate plane.
  • the data for selecting the display color and the data for selecting the musical instrument described above are included in the color 'instrument correspondence database 42', and the color 'instrument correspondence comparison' determination unit 40 The display color and the instrument are determined by collating with the input coordinate data.
  • mode confirmation is performed (S3 in FIG. 5), and the operator performs color selection as desired (S22 in FIG. 5).
  • the process of 0 color selection will be described later.
  • drawing is performed based on the default color conditions.
  • the drawing start (drag start) decision is made (S4 in Fig. 5), the drawing is then initialized, and the initial two continuous coordinates (Pbuf3, Pbuf2) are the first. 3. Shifted to the second buffer (S5 in Fig. 5). If drawing has not started, return to step S3 for mode confirmation. Thus, it is determined whether or not the drawing is performed at a timing that matches the rhythm (sound length, tempo) (S6 in FIG. 5).
  • the current coordinate P being drawn (hereinafter sometimes referred to as the current coordinate), that is, the current coordinate data is acquired (S7 in FIG. 5), and the drawing is performed. Subsequently, the current coordinate P is compared with the previous coordinate (Pbuf 2) (S8 in FIG. 5).
  • step S6 If the difference between the value of the current coordinate P and the previous coordinate (Pbuf 2) that is a predetermined time in the past is less than the threshold value, the process returns to step S6 where it is determined again whether the drawing is performed at a timing that matches the rhythm. .
  • the difference between the value of the current coordinate P and the previous coordinate (Pbuf 2) is greater than or equal to the threshold value, the current coordinate P is substituted into the first buffer (Pbuf 1, S9 in FIG. 5).
  • note off is transmitted to the MIDI sound source 28. That is, for example, when a musical instrument is selected that continues without sound disappearing naturally, such as a wind instrument, the previous sound (the current sound) is stopped to play the next sound (in Fig. 5, S10). ).
  • the angle change amount ⁇ of two vectors and the scalar amount L of each vector are calculated from the coordinate data (Pbuf1 to Pbuf3) of the first to third buffers (Sl l in Fig. 5).
  • the musical sound generation device 10 assumes that a plurality of operators draw alternately, create musical sounds, and then reproduce these multiple drawings and musical sounds at the same time.
  • Each generated data is saved in the list, and the time when the sound was heard is added to the data (S13 in Fig. 5).
  • each buffer is shifted backward (S14 in FIG. 5). Furthermore, it is judged whether the generated data exceeds the specified amount (S15 in Fig. 5). When the generated data does not exceed the specified amount, it is determined whether or not the operator has finished drawing (S16 in Fig. 5), and when the operator finishes drawing, that is, the pen is released and dragged. When finished, return to step S3 for mode confirmation. On the other hand, when the operator continues drawing, the timing Returning to the confirmation step S6, new coordinates are acquired. If there is only one operator, step S15 is omitted and the process proceeds to step S16.
  • step S15 where it is determined whether the generated data exceeds the specified amount. If the generated data exceeds the specified amount, it is further determined whether the force has reached the specified number of people (S17 in Fig. 5). , processing is terminated when it reaches a prescribed number of people (in Figure 5, S18), whereas, operation by another operator is performed when not reached the predetermined number of people (in Figure 5, omitted.) 0 [0056]
  • MIDI data and screen display data are generated (S12 in FIG. 5)
  • screen display is performed in real time based on these data (S19 in FIG. 5), or MIDI data is displayed. The data is sent to the MIDI sound source (S20 in Fig. 5) and played (S21 in Fig. 5).
  • screen display and pronunciation can be performed based on the stored data.
  • a plurality of operators a plurality of drawings are performed on the same screen, and a simultaneous performance (session) is performed.
  • there are a plurality of operators only one of a plurality of drawing and simultaneous performances may be performed.
  • the color selection process will be described.
  • the current coordinate P is acquired (S24 in FIG. 6). Therefore, the positional relationship between the center point O of the effective range of the hue circle and the current coordinate P is calculated (S25 in FIG. 6), and it is further determined whether the pen is raised (in FIG. 6, S26).
  • the hue h force is determined based on the center angle of the hue ring, and the saturation s is determined based on the distance from the center point of the hue ring (S27 in FIG. 6), and the color selection ends ( In FIG. 6, S28) returns to the main routine for drawing.
  • the new coordinate is obtained as the current coordinate ((S24 in FIG. 6) 0.
  • the new coordinate is the same as the previous coordinate P.
  • the brightness is judged whether the brightness is the maximum value, when the brightness is not the maximum value, the brightness is increased (S31 in FIG. 6), and when the brightness is the maximum value, the brightness is decreased to the minimum value ( Figure 6), S32), each returns to step S26 where it is determined whether the pen has been raised.
  • a seat A device capable of inputting coordinate data by a plurality of persons as the mark input device 12 may be used, and a plurality of coordinate data may be processed simultaneously by the main control device 14.
  • musical sound data can be generated based on a three-dimensional vector by using a three-dimensional input device such as a three-dimensional mouse as the coordinate input apparatus 12.
  • the coordinate input device 12 may input the position of an object captured by a camera as coordinate data.
  • the line is drawn thickly by providing a selection switch or the like to express the blur of the line according to the magnitude of the vector scalar quantity, in other words, the speed of the pen movement. It is also possible to change the height.
  • a plurality of the musical tone generators 10 are connected by a communication network, and the musical tone generators 10 respectively generate musical sounds and images at the same time, or record and playback as necessary.
  • the data may be exchanged in real time, or may be recorded with another musical sound generator 10 that receives and records data of one or more musical sound generators 10 with a time lag, for example. You can also superimpose your own data on this data. Also, instead of generating musical sounds and images at the same time, either one of musical sounds or images may be generated at the same time.
  • one example of a musical sound generation system is one in which, for example, two musical sound generation devices 10 are directly connected via a communication network (not shown, see FIG. 8).
  • reference numeral 30 a indicates a rhythm control / synchronization unit including the timer 30.
  • a data group consisting of a coordinate data group input by each musical tone generator 10 and a musical tone data group, a display color data group and a musical instrument data group generated according to the coordinate data is a data storage unit of each musical tone generator 10.
  • These data groups are exchanged in real time, for example, and are generated in real time, and music and images are simultaneously generated based on the data groups controlled and synchronized by the rhythm control / synchronization unit 30a. In this case as well, instead of generating music and images at the same time, either music or images are used. You may produce
  • FIG. 1 Another example of the musical sound generation system is one in which, for example, three musical sound generation devices 10a are connected via a communication network 50 via a server unit 48, as shown in FIG.
  • the data storage unit 46 and the rhythm control / synchronization unit 30b are provided in the server unit 48, and the data groups of the three musical tone generation devices 10 are exchanged in real time, for example, in the same manner as the musical tone generation system of FIG.
  • the rhythm control / synchronization unit 30b generates music and images simultaneously based on the data group controlled and synchronized. In this case, either the musical sound or the image may be generated simultaneously instead of generating the musical sound and the image at the same time.
  • a session can be performed by a plurality of persons in remote locations.
  • the musical sound generating apparatus 10 of the present invention since drawing and playing can be performed simultaneously, it is possible to provide personal enjoyment as well as a new expression for an artist. Further, the musical sound generating device 10 of the present invention is not limited to the use only for playing music. For example, by making the movement of a pen writing a character such as a sign into a voice, it can be used as a new sign authentication and visual information transmission means for visually impaired people. Alternatively, it can be applied as a tool for rehabilitation and prevention of blurring of the elderly because it can easily produce sounds. Similarly, it can be applied to children's emotional education and learning of colors and sounds.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

 座標データの変化量をベクトルとして算出し、算出されたベクトルに対応して楽音データを生成して楽音を出力するため、入力する座標平面の大きさや位置に制限されることなく楽音を自由に得ることができる。  楽音生成装置10は、座標データを入力する座標入力装置12と、主制御装置14と、音響装置16と、表示装置18を備える。主制御装置14は、所定の時間間隔で前後して入力された2つの該座標データのベクトルを算出する動き算出部20と、算出されたベクトルに基づいて楽音データを生成する楽音データ生成部22と、座標データに基づいて、楽器データを生成する機能と表示色データを生成する機能とを兼ね備える、楽器データ生成部兼表示色データ生成部24と、データ転送・保存部26と、楽音データによって制御されるMIDI音源28を備える。

Description

明 細 書
楽音生成装置および楽音生成システム
技術分野
[0001] 本発明は、入力される座標データに基づいて楽音を生成する楽音生成装置および 楽音生成システムに関する。
背景技術
[0002] 近年、コンピュータを利用した音楽演奏システムが急速に普及しつつある。音楽演 奏システムは、一般的には、作曲や編曲を楽しむことを目的としたものであり、音楽の 専門知識や習熟を必要とするものである。
[0003] これに対して、楽譜を図形や色に置き換えて画像として視覚的に表現するものや、 音楽と画像の変化とを連動させるもの等、気軽に使用でき、娯楽性の高いシステムも 提案されている。
[0004] このようなシステムとして、例えば、描かれた絵の座標情報を入力するペン型入力 装置と、ペン型入力装置から入力された座標情報を表示する表示装置と、ペン型入 力装置から入力された座標情報に対応した音声信号を出力する音源装置と、ペン型 入力装置から入力された座標情報に基づいて表示装置と音源装置とを制御する主 制御装置とを備えた音楽演奏システムが提案されている。この音楽演奏システムによ れば、使用する楽器の音色を入力スクリーン上の色として置き換え、使用者が色のバ リエーシヨンの中から自由に選択し、表示スクリーン上に配置することにより、音を聞く 楽しみに加えて見る楽しみも味わうことができるとされている(特許文献 1参照。;)。
[0005] し力しながら、上記音楽演奏システムにおいて、描くためにペンを置いた位置に対 応した音声信号は、座標位置に割り当てられた音声信号である。そして、予め絵を描 くときに座標位置に応じた音声信号が生成、記録され、つぎに描かれた絵を再度な ぞることにより、座標位置に応じた音声信号が再生されるものである。すなわち、描い た絵によって生成された音声信号ではなぐ描かれた絵をなぞる際に画面上のどこに ペンを置いたかによつて判断され、座標位置に応じた音声信号が再生されるもので ある。このため、実際には、自由に描いた絵に基づいて自由な音声を生成することは できず、画面の位置に規定されたペン操作を行わざるを得ないといえる。また、音楽 を再現するためには完全に一致する画面位置でペンを動かさねばならない。
[0006] 一方、座標系が設定された描画領域に、入力された画像を入力順に表示する画像 表示ステップと、表示しつつある画像部分の座標系における座標に対応する楽音を 発生させる楽音生成ステップとを有する楽音発生方法が提案されている。ここで、座 標系は、楽音の音程を決定する第一の座標軸と、楽音の左右の音量バランスを決定 する第二の座標軸とに設定されている。この楽音発生方法によれば、再現される描 画と楽音とを入力時の描画と楽音とに一致させることができるとされている (特許文献 2参照。;)。なお、マウスのクリック操作によりテンポの要素が加わってフレーズが生成 される。
[0007] し力しながら、上記楽音生成方法 (特許文献 2)にお 、て、生成される音声は、座標 位置 (座標点)に割り当てられた音程および音量を持つ 1つの音である。いうなれば、 特定の音程および音量の 1つの音を一義的に得るには、平面座標上で特定の座標 点を入力する必要がある。また、生成されるフレーズも、平面座標上での特定の座標 点におけるマウス操作によって決まるものである。その意味において、上記楽音生成 方法 (特許文献 2)は、上記音楽演奏システム (特許文献 1)と同様に、いわば、自由 に描いた描画に基づいて音声を生成するときの生成する音声の自由度は小さいとい える。
[0008] この点に関し、電子楽器における音色パラメータや効果のパラメータをタブレット入 力で行い操作性を向上させることを目的として、タブレット上の操作点をサンプリング し、各サンプリング点 P (k=0, 1, 2, ···)を結ぶベクトル Vを想定し、操作の初動時 k k
のベクトル Vの方向に対する現在のベクトルの方向の回転角度に応じてパラメータを
0
増減させ、その際パラメータ値を増加させる力減少させるかは操作点の回転方向に よって決め、一方、操作点の回転方向はベクトルの傾きの差 (変化)によって検出す る電子楽器のパラメータ入力装置が提案されている (特許文献 3参照。 )0 特許文献 1:特開平 8 - 335076号公報
特許文献 2:特開 2003— 271164号公報
特許文献 3:特開平 6— 175652号公報 発明の開示
発明が解決しょうとする課題
[0009] し力しながら、上記電子楽器のパラメータ入力装置 (特許文献 3)にお 、て、ベタト ルに基づいて制御する対象は音色パラメータ等の値の増減であり、音色パラメータ 自体の設定変更は、タブレットとは別の入力手段であるモード設定スィッチ等のパラ メータ入力装置により行うものとされている。このため、上記他の先行技術と同様に、 自由に描いた描画に基づいて音声を生成するときの生成する音声の自由度は小さ いといえる。
[0010] 本発明は、上記の課題に鑑みてなされたものであり、座標入力手段により自由に描 いた描画に基づいて生成される楽音の自由度が大きな楽音生成装置および楽音生 成システムを提供することを目的とする。
課題を解決するための手段
[0011] 上記目的を達成するために、本発明に係る楽音生成装置は、座標データを入力す る座標入力手段と、所定の時間間隔で前後して入力された 2つの該座標データのベ タトルを算出するベクトル算出手段と、算出された該べ外ルに基づいて楽音データ を生成する楽音データ生成手段と、該座標データに基づいて楽器データを生成する 楽器データ生成手段と、生成された楽音データおよび楽器データに基づいて音源を 制御して楽器の楽音を出力する楽音出力手段とを備えることを特徴とする。
[0012] また、本発明に係る楽音生成装置は、前記楽器データ生成手段が、前記座標デー タおよび音楽理論データベースに基づいて楽音データを生成することを特徴とする。
[0013] また、本発明に係る楽音生成装置は、前記楽音データが音の高さ、音の強さ、音の 長さ、音の左右バランスおよび音の揺れの中力 選ばれる 1または 2以上であることを 特徴とする。
[0014] また、本発明に係る楽音生成装置は、前記座標入力手段により入力された前記座 標データに対応して画像を表示する画像表示手段をさらに備えることを特徴とする。
[0015] また、本発明に係る楽音生成装置は、前記座標データに基づいて表示色データを 生成する表示色データ生成手段をさらに備えることを特徴とする。
[0016] また、本発明に係る楽音生成装置は、前記座標データに基づいて楽器データを生 成する楽器データ生成手段をさらに備え、該楽器データと前記表示色データとが対 応付けられ、生成された該楽器データに基づ!ヽて音源を制御して楽器の楽音を出力 することを特徴とする。
[0017] また、本発明に係る楽音生成装置は、別々に入力された座標データ群ならびに生 成された楽音データ群、表示色データ群および楽器データ群からなるデータ群を記 録し、該データ群に基づいて楽音および画像のうちのいずれか一方または双方を同 時再生する記録再生手段をさらに備えることを特徴とする。
[0018] また、本発明に係る楽音生成システムは、上記楽音生成装置の複数基が通信ネッ トワークで結ばれ、該複数基の楽音生成装置それぞれで楽音および画像のうちのい ずれか一方または双方を同時に生成することを特徴とする。
発明の効果
[0019] 本発明に係る楽音生成装置は、座標データの変化量をベクトルとして算出し、算出 されたベクトルに対応して楽音データを生成し、また、座標データに基づいて楽器デ ータを生成し、生成された楽音データおよび楽器データに基づいて音源を制御して 楽器の楽音を出力するため、入力する座標平面の大きさや位置に制限されることなく 楽音を自由に得ることができる。
図面の簡単な説明
[0020] [図 1]本発明の楽音生成装置の概略構成を示す図である。
[図 2]本発明の楽音生成装置における座標データとベクトルの関係を説明するため の図である。
[図 3]本発明の楽音生成装置において表示色決定方法を説明するために用いる色 相環を示す図である。
[図 4]本発明の楽音生成装置において楽器決定方法を説明するために用いる色相 環を示す図である。
[図 5]本発明の楽音生成装置における楽音生成の処理手順のメインフローを示す図 である。
[図 6]本発明の楽音生成装置における楽音生成の処理手順のうち、色選択処理のフ ローを示す O
[図 7]本発明の楽音生成システムの一例のシステム構成を示す図である。
[図1—
〇 8]本発明の楽音生成システムの他の一例のシステム構成を示す図である 符号の説明
, 10a 楽音生成装置
12 座標入力装置
14 主制御装置
16 音響装置
18 表示装置
20 動き算出部
22 楽音データ生成部
24 楽器データ生成部兼表示色データ生成部
26 データ転送 ·保存部
28 MIDI音源
30 タイマ
30a, 30b リズム制御 ·同期部
32 座標バッファ部
34 ベクトル算出部
36 楽音データ決定部
38 音楽理論データベース
40 色 ·楽器対応照合,決定部
42 色'楽器対応データベース
44 データ転送部
46 データ保存部
48 サーバ部
50 通信ネットワーク
発明を実施するための最良の形態
[0022] 本発明に係る楽音生成装置の実施の形態について、以下に説明する。
[0023] まず、本発明の楽音生成装置の概略構成について、図 1を参照して説明する。 本発明の楽音生成装置 10は、座標入力装置 (座標入力手段) 12と、主制御装置 1 4と、音響装置 (楽音出力手段) 16と、表示装置 (画像表示手段) 18を備える。
座標入力装置 12は、連続的に、あるいは不連続に描かれる線や絵の座標データ を入力するためのものであり、タツチパネルディスプレイやマウス等の適宜の方式のも のを用いることができる。
主制御装置 14は、例えばパソコンであり、座標入力装置 12からの座標データ信号 を処理して、音響装置 16に楽音信号を送り、また、表示装置 18に画像信号を送るも のである。主制御装置 14の詳細な構成は後述する。
音響装置 (楽音出力手段) 16は、例えばスピーカシステムであり、楽音信号によつ て楽音を発生するものである。
表示装置 18は、例えば液晶ディスプレイであり、画像信号によって画像を表示する ものである。
なお、音響装置 16および表示装置 18は、主制御装置 14と一体化されたものであ つてもよい。また、必要に応じて表示装置 18を省略してもよい。
[0024] 主制御装置 14について、さらに説明する。
主制御装置 14は、動き算出部 (ベクトル算出手段) 20と、楽音データ生成部 (楽音 データ生成手段) 22と、楽器データ生成部兼表示色データ生成部 (楽器データ生成 手段兼表示色データ生成手段) 24と、データ転送 ·保存部 26と、音源として、例えば MIDI音源 28と、タイマ 30を備える。
[0025] 動き算出部 20は、座標入力装置 12で入力された座標データについて、所定時間 間隔で前後して入力された 2つの座標位置を結んで、大きさと向きを有するベクトルと して算出するものである。動き算出部 20は、座標バッファ部 32およびベクトル算出部 34を有する。
座標バッファ部 32は、入力された座標データを一時的に記憶するものであり、入力 された座標データをそのまま取り込む第 1座標バッファ部ならびに第 1座標バッファ部 の座標データを所定の時間間隔で順次シフトする第 2座標バッファ部および第 3座標 バッファ部を含む。
ベクトル算出部 34は、第 1座標バッファ部乃至第 3座標バッファ部の座標データか らべ外ルを算出するものであり、スカラ量算出部と角度変化量算出部を含む。
[0026] 楽音データ生成部 22は、ベクトル算出部 34で算出されたベクトルに基づいて楽音 データを生成するものであり、この場合 MIDIデータを生成する。
楽音データ生成部 22は、 MIDIデータを生成する楽音データ決定部 36を有すると ともに、この場合、音楽理論データベース 38をさらに有する。音楽理論データベース 38の詳細は、後述する。
楽音データ決定部 36は、スカラ量に基づいて音の強さパラメータを決定する音の 強さパラメータ決定部と、角度変化量に基づいて音の高さパラメータを決定する音の 高さパラメータ決定部を含む。なお、これとは逆に、スカラ量に基づいて音の高さパラ メータを決定し、角度変化量に基づいて音の強さパラメータを決定する構成としても よい。
また、楽音データ決定部 36では、例えば、所定時間間隔で得られるベクトルの変 化量が閾値以下のときには、前の時刻の楽音データがそのまま継続して生成される ように構成することで、楽音の音の長さ (テンポ)が得られる。
なお、楽音データは、上記音の高さ、音の強さおよび音の長さのみでなぐ音の左 右バランスあるいは音の揺れ(モジュレーション)であってもよぐこれら 5つの中から 選ばれる 1または 2以上とすることができる。
[0027] 楽器データ生成部兼表示色データ生成部 24は、座標データに対応して、楽器デ ータを生成する機能と表示色データを生成する機能とを兼ね備える、色'楽器対応 照合 ·決定部 40および色 ·楽器対応データベース 42を有する。
色'楽器対応データベース 42は、座標データに基づいて、表示色データおよび楽 器データを生成する。すなわち、表示装置 18で表示する表示色データおよび音響 装置 16で発生する楽音の素材となる楽器データが、例えば座標位置に応じて色相 環および色相環に対応した楽器分割領域の形で割り付けられており、色相環を入力 画面に表示したうえで座標位置を変化させることで、新 、表示色データおよび楽器 データが得られる。色'楽器対応照合'決定部 40で、入力された座標データを色'楽 器対応データベース 42と照合して、表示色データおよび楽器データを同時に決定 する。 [0028] データ転送 ·保存部 26は、楽音データ生成部 22および楽器データ生成部兼表示 色データ生成部 24から送られてくる、座標データを含むそれぞれのデータを一時的 に記憶するデータ転送部 44とともに、必要に応じてそれらのデータを保存するデー タ保存部 46を含む。
[0029] MIDI音源 28は、複数の種類の楽器についての楽音が含まれており、データ転送 部 42の楽音データおよび楽器データの信号によって制御されて、選択された楽器の 楽音信号を生成する。楽音信号によって音響装置 16で楽音を発生する。
一方、データ転送部 42の表示色データを含む座標データの信号によって、入力装 置 12にお 、て描かれた画像を表示装置 18で表示する。
音響装置 16と表示装置 18は、両者を同時に動作させ、あるいはいずれか一方の みを動作させることができる。
[0030] ここで、座標データの変化力もベクトルを算出し、ベクトルの変化に基づいて楽音を 生成する方法について、図 2および表 1〜3をさらに参照して説明する。
[0031] 連続的にあるいは不連続に変化する座標データを所定時間間隔で動き算出部 20 の座標バッファ部 32に取り込む。ここでは、例えば、座標平面上で、図 2中左から右 にペンを動力して、ある時刻における座標データ l (xl, yl, tl)、座標データ 1を取 得した後、所定時間経過したときの座標データ 2 (x2, y2, t2)、座標データ 2を取得 した後、所定時間経過したときの座標データ 3 (x3, y3, t3)が順次得られる状態を 示すものとする。ここで、(xi, yj)は座標値を、 tkは時刻をそれぞれ示す。上記のよう に、時刻 tl、時刻 t2および時刻 t3は、所定の等時間間隔である。最新の座標データ 3は第 1バッファ部に取り込まれる。それに先立ち、座標データ 2が第 1バッファ部から 第 2バッファ部へ、座標データ 1が第 2バッファ部力も第 1バッファ部へシフトされる。
[0032] ベクトル算出部 34の角度変化量算出部では、上記座標データ 1および座標データ 2から、すなわち、座標データ 1および座標データ 2の 2つの座標位置を結んでベタト ル aを得、同様に座標データ 2および座標データ 3からベクトル bを得る。このとき、座 標データ(xi, yj)の位置は、ペンの動きによって自由に変化し、このため、ベクトル b は、ベクトル aと異なったものとなりうる。すなわち、例えば、図 2に示すように時刻 tlか ら時刻 t2までの間にペンを一定の方向にゆっくり動かし、時刻 t2から時刻 t3までの 間にペンを方向を変えて速く動かすと、ベクトル bは、ベクトル aに対して、スカラ値が 大きくなるとともに、ベクトルの方向が変わる。このときの、所定の時間間隔で前後して 得られる 2つのベクトルの方向の変化量を図 2中、角度変化量 Θで示す。
[0033] 楽音データ生成部 22の楽音データ決定部 36で、角度変化量 Θに応じて音の高さ
(音の高さデータ、音の高さパラメータ)が生成される。
角度変化量 Θは、ペンの動きに応じて ± 180度の値をとりうる。音の高さは、 MIDI データのノートナンバー(以下、 noteという。)を用いる。 noteは、例えば、 0〜127の 数字で全音 (ピアノの白鍵)と半音 (ピアノの黒鍵)が配列されたものである。
表 1に示すように、角度変化量 Θの値に応じて noteを割り付けておくことで、ペンの 動きに応じて全ての音の高さをとりうる。
[0034] [表 1]
Figure imgf000011_0001
[0035] ここで、楽音データ生成部 22の音楽理論データベース 38について合わせて説明 する。
音楽理論データベース 38には、表 1の角度変化量 0に応じて全ての音の高さを指 定できるデータのほかにさらに、例えば表 2に示す角度変化量 0に応じてコード上の 音階 (ここでは Cコード)や、表 3に示す民族風音階 (ここでは沖縛音階)のデータが 含まれる。
したがって、楽音を生成する際、音楽理論を適用する操作を行うことで、好みの旋 韋を得ることができる。
[0036] [表 2]
Θ -40 -30 -20 -10 0 +10 20 +30 +40
note変化量 -17 -12 -8 -5 0 +4 +7 +12 +16
note 43 48 52 55 60 64 67 72 76 [0037] [表 3]
Figure imgf000012_0001
[0038] また、ベクトル算出部 34のスカラ量算出部では、ベクトル aおよびベクトル b力もそれ ぞれのスカラ量が算出される。そして、楽音データ生成部 22の楽音データ決定部 36 で、ベクトル aおよびベクトル bそれぞれのスカラ量に応じて音の強さ(音の強さデータ 、音の強さパラメータ)が生成される。言い換えれば、ベクトルのスカラ量を変えること で音の強さを変えることができる。
座標平面の最大幅を 1とし、ペンを動力して得られるスカラ量を Lとするとき、 Lは 0 〜1の範囲内の値をとりうる。音の強さは、 MIDIデータのボリューム(以下、 volumeと いう。)を用い、 volumeは 0〜127の数字をとるものとする。
そして、スカラ量 Lと volumeとの関係を、例えば次の式のように設定することで、ス カラ量に応じて音の強さが生成される。
volume = (1— L)
この場合、ペンをゆっくり動かすほどスカラ量 Lの値が小さくなり大きな音の強さが得 られること〖こなる。
[0039] このとき、スカラ量 Lが閾値以下のときには、その前の時刻におけるスカラ量に応じ て生成された音の強さを «続するように設定することで、音の長さ (テンポ)を生成す ることがでさる。
[0040] つぎに、表示装置 18を用いてペンで描いた絵を表示するときに、表示色を選択す る方法について図 3を参照して説明する。
[0041] 図 3に示すように、座標平面の中心点を中心として 360度の角度範囲で色相 hが割 り当てられた色相環が設定される。また、色相環は、座標平面の中心点に近いほど 淡!、色となり、座標平面の中心点力 遠 、ほど鮮やかな色となるように彩度 sが割り当 てられている。
そして、色選択ボタン等の色設定手段を操作して座標平面に色相環を表示し、ぺ ンを平面座標の現在の座標 P (X, y)の位置に置 、た状態力も別の座標の位置に移 動させて色相環の角度を変えることで表示色の色相を変えることができ、また、色相 環の中心からの距離を変えることで表示色の彩度を変えることができる。なお、マウス を用いるときは、右ボタンをドラッグすることで、表示色を変えることができる。
[0042] このとき、ペンを動力さずに同一の座標に固定している時間の長さに応じて明度を 変化させるように設定することで、所望の明度を得ることができる。
[0043] つぎに、表示色と楽器を対応させて、表示色に応じた楽器を選択する方法にっ ヽ て、図 4および表 4〜表 8を参照して説明する。
[0044] 図 4に示すように、図 3の色相環を例えば 12分割して、各色 A〜Lに楽器を割り当 てる。このとき、 MIDI音源 28の例えば表 4に示す音色マップの楽器番号(Program Nunber)を、表 5に示すようにそのまま機械的に割り当ててもよぐまた、表 6に示すよ うに好みの楽器番号を割り当ててもよい。あるいはまた、例えば表 7に示すドラムセッ ト番号 1のような、別途用意したドラムセット番号を表 8に示すように割り当ててもょ 、。 これにより、表示色の決定と合わせて楽器の種類を決定することができる。なお、画 像表示を行わな!/、ときは、座標平面上の操作で楽器の決定のみ行うこともできる。
[0045] [表 4]
Figure imgf000014_0001
[0046] [表 5]
Figure imgf000014_0002
[0047] [表 6]
Figure imgf000014_0003
[0048] [表 7] 35 Acoust i c Bass Drun
Bass
37 Side St ick
38 Aoou&tiQ Snare
S9 Hand Chp
40 Electric Snare
l L。w Floor Tom
Z Closed Hi Hat
43 High F lonr torn
44 Peda l Ηΐ-Hat
45 low Tam
[0049] [表 8]
Figure imgf000015_0001
[0050] 以上説明した、表示色を選択するためのデータおよび楽器を選択するためのデー タは、色'楽器対応データベース 42に含まれており、色'楽器対応照合'決定部 40に よって、入力される座標データと照合されて、表示色および楽器が決定される。
[0051] つぎに、本発明の楽音生成装置 10による楽音の発生および画像の表示の処理に ついて、図 5および図 6のフローチャートを参照して説明する。
[0052] 楽音生成装置 10を使用する操作者が、操作を開始すると (図 5中、 S1)、時刻、座 標データ等の初期設定が行われる(図 5中、 S2)。
ついで、モード確認が行われ (図 5中、 S3)、操作者は希望により色選択を行う(図 5 中、 S22) 0色選択の処理については後述する。色選択を行わない場合は、初期設 定された色条件に基づいて、描画が行われることになる。
色選択を行わない場合、描画開始 (ドラッグ開始)の判断が行われ (図 5中、 S4)、引 き続き、描画の初期化が行われ、初期の連続 2座標 (Pbuf3、 Pbuf2)が第 3、第 2バ ッファにシフトされる(図 5中、 S5)。描画を開始していないときは、モード確認のステツ プ S3に戻る。 [0053] っ 、で、描画がリズム (音の長さ、テンポ)に合致したタイミングで行われて 、るかが 判断される(図 5中、 S6)。
描画がリズムに合致したタイミングで行われていると、描画中の現在の座標 P (以下 、現座標ということがある。)、すなわち、現座標データが取得され(図 5中、 S7)、引き 続き、現座標 Pと直前の座標(Pbuf 2)とが比較される(図 5中、 S8)。
現座標 Pと所定時間過去である直前の座標(Pbuf 2)の値の差が閾値未満のときに は、再び、描画がリズムに合致したタイミングで行われているかが判断されるステップ S6に戻る。一方、現座標 Pと直前の座標(Pbuf 2)の値の差が閾値以上のときは、現 座標 Pが第 1バッファに代入される(Pbuf 1、図 5中、 S9)。ここで、座標の値が変わつ ているにもかかわらず直前の音が鳴っている場合、 note offを MIDI音源 28に送信 する。すなわち、例えば管楽器のように音が自然に消えることなく継続される楽器を 選んでいるときは、次の音を鳴らすために、直前の音 (今の音)が止められる(図 5中、 S10)。
[0054] 第 1乃至第 3バッファの座標データ(Pbuf l〜Pbuf3)から 2つのベクトルの角度変 化量 Θおよびそれぞれのベクトルのスカラ量 Lが算出される(図 5中、 Sl l)。
ついで、ベクトルの角度変化量 Θおよびスカラ量 L、ならびに、初期設定され、ある いは選択された色、および色に対応して選択 (指定)された楽器等から、 MIDIデー タと画面表示データが生成される(図 5中、 S12)。
[0055] 楽音生成装置 10は、この実施例では、複数の操作者が交代で描画し、楽音を作成 し、その後、これら複数の描画および楽音を同時に再生することを想定しているため
、以下の処理を経る。
生成した各データは、リストに保存され、音が鳴っていた時間がデータに追加される (図 5中、 S13)。
ついで、各バッファは、後ろにシフトされる(図 5中、 S14)。さらに、生成したデータ が規定量を超えた力どうかが判断される(図 5中、 S15)。生成したデータが規定量を 超えていないときは、操作者が描画を終了した力どうかが判断され (図 5中、 S16)、 操作者が描画を終了したとき、すなわち、ペンを離してドラッグを終了したときは、モ ード確認のステップ S3に戻る。一方、操作者が描画を継続しているときは、タイミング 確認のステップ S6に戻り、さらに新たな座標が取得される。なお、操作者が 1人のみ の場合は、ステップ S 15は省略され、ステップ S 16に進む。
生成したデータが規定量を超えた力どうかが判断されるステップ S 15で、生成した データが規定量を超えるときは、さらに規定人数分に達した力どうかが判断され (図 5 中、 S17)、規定人数分に達したときは処理が終了され (図 5中、 S18)、一方、規定 人数分に達していないときは別の操作者による操作が行われる(図 5中、省略。 )0 [0056] 一方、 MIDIデータと画面表示データが生成されると(図 5中、 S12)、これらのデー タに基づいて、リアルタイムで画面表示が行われ(図 5中、 S 19)、あるいは MIDIデ ータが MIDI音源に送られて(図 5中、 S20)、発音される(図 5中、 S21)。一方、保存 したデータに基づいて、画面表示や発音を行うこともできる。このとき、操作者が複数 の場合は、同一の画面に複数の描画が行われ、同時演奏 (セッション)が行われる。 なお、操作者が複数の場合、複数の描画および同時演奏を同時に行ってもよぐ複 数の描画および同時演奏のうちのいずれか一方のみを行ってもよい。
[0057] つぎに、色選択の処理にっ 、て説明する。例えば、前記したペンダウン操作により 色選択が開始されると(図 6中、 S23)、現在の座標 Pが取得される(図 6中、 S24)。 っ 、で、前記した色相環の有効範囲の中心点 Oと現在の座標 Pの位置関係が算出 され(図 6中、 S25)、さらに、ペンを上げたかどうかが判断される(図 6中、 S26)。 ペンを上げると、色相環の中心角に基づいて色相 h力 色相環の中心点からの距 離に基づいて彩度 sが、それぞれ決定され (図 6中、 S27)、色選択が終了し(図 6中、 S28)、描画を行うメインルーチンに戻る。
[0058] 一方、ペンを置いたままのときは、閾時間が経過したときの座標が先の座標 Pと同 一かどうかが判断される(図 6中、 S29)。
そして、新たな座標が先の座標 Pと異なるときは、新たな座標が現在の座標として取 得される((図 6中、 S24) 0一方、新たな座標が先の座標 Pと同一のときは、明度が最 大値かどうか判断され、明度が最大値でないときは明度を上げた後に(図 6中、 S31) 、また明度が最大値のときは明度を最小値に下げた後に(図 6中、 S32)、それぞれ ペンを上げたかどうかが判断されるステップ S26に戻る。
[0059] なお、本発明の楽音生成装置 10において、複数人が別々に入力する代わりに、座 標入力装置 12として複数人で座標データを入力できるデバイスを用い、主制御装置 14で複数の座標データを同時処理可能に構成してもよい。
また、本発明の楽音生成装置 10において、座標入力装置 12として 3次元マウス等 の 3次元入力デバイスを用いることで、 3次元ベクトルに基づ 、て楽音データを生成 することができる。
また、本発明の楽音生成装置 10において、座標入力装置 12はカメラで捉えた物 体の位置を座標データとして入力するものであってもよい。
また、本発明の楽音生成装置 10において、ベクトルのスカラ量の大きさ、言い換え ればペンの動きの早さに応じて線のかすれを表現したり、選択スィッチ等を設けて、 描く線の太さを変えることも可能である。
[0060] つぎに、本発明の楽音生成装置 10を複数基用いて構成する楽音生成システムに ついて、図 7および図 8を参照して説明する。
本発明の楽音生成システムは、上記の楽音生成装置 10の複数基が通信ネットヮー クで結ばれ、複数基の楽音生成装置 10それぞれで楽音および画像を同時に生成し 、あるいは、必要に応じて録画再生するものである。この場合、リアルタイムでデータ を交信してもよぐあるいは、タイムラグを置いて、例えば 1つあるいは複数の楽音生 成装置 10のデータを受信して録画した別の楽音生成装置 10で、録画した他のデー タに自らのデータを重ねることもできる。また、楽音および画像を同時に生成する代 わりに、楽音または画像のうちの 、ずれか一方を同時に生成してもよ 、。
[0061] 楽音生成システムの一つの例は、図 7に示すように、例えば 2基の楽音生成装置 1 0が通信ネットワーク(図示せず。図 8参照。)で直接に繋がれたものである。図 7中、 参照符号 30aはタイマ 30を含むズム制御 ·同期部を示す。
それぞれの楽音生成装置 10で入力された座標データ群ならびに座標データに応 じて生成された楽音データ群、表示色データ群および楽器データ群からなるデータ 群がそれぞれの楽音生成装置 10のデータ保存部 26に記録されるとともに、それらの データ群が例えばリアルタイムで交信されて、リズム制御 ·同期部 30aで制御、同期さ れたデータ群に基づいて楽音および画像を同時に生成する。なお、この場合も、楽 音および画像を同時に生成する代わりに、楽音または画像のうちのいずれか一方を 同時に生成してもよい。
[0062] また、楽音生成システムの他の一つの例は、図 8に示すように、例えば 3基の楽音 生成装置 10aがサーバ部 48を介して通信ネットワーク 50で繋がれたものである。 この場合、データ保存部 46およびリズム制御 ·同期部 30bはサーバ部 48に設けら れ、図 7の楽音生成システムと同様に、 3基の楽音生成装置 10のデータ群が例えば リアルタイムで交信されて、リズム制御 ·同期部 30bで制御、同期されたデータ群に基 づいて楽音および画像を同時に生成する。なお、この場合も、楽音および画像を同 時に生成する代わりに、楽音または画像のうちのいずれか一方を同時に生成しても よい。
[0063] 本発明の楽音生成システムによれば、離隔した地にいる複数人でセッションを行う ことができる。
[0064] 本発明の楽音生成装置 10によれば、絵を描くことと演奏することが同時に行えるた め、個人の楽しみを提供するほか、アーティストの新しい表現としても利用できる。 また、本発明の楽音生成装置 10は、音楽の演奏のためだけに用途を限定するもの ではない。例えば、サイン等の文字を書くペンの動きを音声化することにより、新たな サイン認証や視覚障害者のための視覚情報の伝達手段として活用することができる 。あるいは、手の動き力 簡単に音を作り出すことができるため、リハビリテーションや 高齢者のボケ防止等のツールとしても適用が可能である。同様に、子供の情操教育 、色と音の学習などにも適用できる。

Claims

請求の範囲
[1] 座標データを入力する座標入力手段と、所定の時間間隔で前後して入力された 2 つの該座標データのベクトルを算出するベクトル算出手段と、算出された該ベクトル に基づいて楽音データを生成する楽音データ生成手段と、該座標データに基づい て楽器データを生成する楽器データ生成手段と、生成された楽音データおよび楽器 データに基づいて音源を制御して楽器の楽音を出力する楽音出力手段とを備えるこ とを特徴とする楽音生成装置。
[2] 前記楽器データ生成手段が、前記座標データおよび音楽理論データベースに基 づいて楽音データを生成することを特徴とする請求項 1記載の楽音生成装置。
[3] 前記楽音データが音の高さ、音の強さ、音の長さ、音の左右バランスおよび音の揺 れの中力 選ばれる 1または 2以上であることを特徴とする請求項 1または 2記載の楽 音生成装置。
[4] 前記座標入力手段により入力された前記座標データに対応して画像を表示する画 像表示手段をさらに備えることを特徴とする請求項 1または 2記載の楽音生成装置。
[5] 前記座標データに基づ 、て表示色データを生成する表示色データ生成手段をさら に備えることを特徴とする請求項 4記載の楽音生成装置。
[6] 前記座標データに基づいて楽器データを生成する楽器データ生成手段をさらに備 え、該楽器データと前記表示色データとが対応付けられ、生成された該楽器データ に基づいて音源を制御して楽器の楽音を出力することを特徴とする請求項 5記載の 楽音生成装置。
[7] 別々に入力された座標データ群ならびに生成された楽音データ群、表示色データ 群および楽器データ群からなるデータ群を記録し、該データ群に基づ!ヽて楽音およ び画像のうちのいずれか一方または双方を同時再生する記録再生手段をさらに備え ることを特徴とする請求項 6記載の楽音生成装置。
[8] 請求項 6記載の楽音生成装置の複数基が通信ネットワークで結ばれ、該複数基の楽 音生成装置それぞれで楽音および画像のうちのいずれか一方または双方を同時に 生成することを特徴とする楽音生成システム。
PCT/JP2005/012539 2004-07-29 2005-07-07 楽音生成装置および楽音生成システム WO2006011342A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006528958A JP3978506B2 (ja) 2004-07-29 2005-07-07 楽音生成方法
US11/631,398 US7504572B2 (en) 2004-07-29 2005-07-07 Sound generating method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-220998 2004-07-29
JP2004220998 2004-07-29

Publications (1)

Publication Number Publication Date
WO2006011342A1 true WO2006011342A1 (ja) 2006-02-02

Family

ID=35786093

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/012539 WO2006011342A1 (ja) 2004-07-29 2005-07-07 楽音生成装置および楽音生成システム

Country Status (3)

Country Link
US (1) US7504572B2 (ja)
JP (1) JP3978506B2 (ja)
WO (1) WO2006011342A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010096885A (ja) * 2008-10-15 2010-04-30 Hideyuki Kotani 選曲装置
CN109920397A (zh) * 2019-01-31 2019-06-21 李奕君 一种物理学中音频函数制作系统及制作方法
US11756516B2 (en) 2020-12-09 2023-09-12 Matthew DeWall Anatomical random rhythm generator

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006008298B4 (de) * 2006-02-22 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Notensignals
EP2136356A1 (en) * 2008-06-16 2009-12-23 Yamaha Corporation Electronic music apparatus and tone control method
TWI467467B (zh) * 2012-10-29 2015-01-01 Pixart Imaging Inc 畫面物件移動控制方法及裝置
US11532293B2 (en) * 2020-02-06 2022-12-20 James K. Beasley System and method for generating harmonious color sets from musical interval data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03206493A (ja) * 1990-01-09 1991-09-09 Yamaha Corp 電子楽器
JPH06175652A (ja) * 1992-12-10 1994-06-24 Yamaha Corp 電子楽器のパラメータ入力装置および演奏操作装置
WO1996022580A1 (fr) * 1995-01-17 1996-07-25 Sega Enterprises, Ltd. Processeur d'images et dispositif electronique
JP2002182647A (ja) * 2001-12-07 2002-06-26 Yamaha Corp 電子楽器
JP2003271164A (ja) * 2002-03-19 2003-09-25 Yamaha Music Foundation 楽音発生方法、楽音発生プログラム、記憶媒体、及び楽音発生装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2890564B2 (ja) * 1989-12-14 1999-05-17 ヤマハ株式会社 電子楽器
EP0434086B1 (en) * 1989-12-22 1995-03-29 Yamaha Corporation Musical tone control apparatus
JP3528284B2 (ja) * 1994-11-18 2004-05-17 ヤマハ株式会社 3次元サウンドシステム
JP3224492B2 (ja) 1995-06-08 2001-10-29 シャープ株式会社 音楽演奏システム
US5920024A (en) * 1996-01-02 1999-07-06 Moore; Steven Jerome Apparatus and method for coupling sound to motion
KR20010020900A (ko) * 1999-08-18 2001-03-15 김길호 화성법과 색음 상호변환을 이용하여 색채를 조화하는 방법및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03206493A (ja) * 1990-01-09 1991-09-09 Yamaha Corp 電子楽器
JPH06175652A (ja) * 1992-12-10 1994-06-24 Yamaha Corp 電子楽器のパラメータ入力装置および演奏操作装置
WO1996022580A1 (fr) * 1995-01-17 1996-07-25 Sega Enterprises, Ltd. Processeur d'images et dispositif electronique
JP2002182647A (ja) * 2001-12-07 2002-06-26 Yamaha Corp 電子楽器
JP2003271164A (ja) * 2002-03-19 2003-09-25 Yamaha Music Foundation 楽音発生方法、楽音発生プログラム、記憶媒体、及び楽音発生装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010096885A (ja) * 2008-10-15 2010-04-30 Hideyuki Kotani 選曲装置
CN109920397A (zh) * 2019-01-31 2019-06-21 李奕君 一种物理学中音频函数制作系统及制作方法
CN109920397B (zh) * 2019-01-31 2021-06-01 李奕君 一种物理学中音频函数制作系统及制作方法
US11756516B2 (en) 2020-12-09 2023-09-12 Matthew DeWall Anatomical random rhythm generator

Also Published As

Publication number Publication date
JPWO2006011342A1 (ja) 2008-05-01
US7504572B2 (en) 2009-03-17
JP3978506B2 (ja) 2007-09-19
US20080168893A1 (en) 2008-07-17

Similar Documents

Publication Publication Date Title
Fels Designing for intimacy: Creating new interfaces for musical expression
Hunt et al. Mapping performer parameters to synthesis engines
Freeman Extreme sight-reading, mediated expression, and audience participation: Real-time music notation in live performance
US8242344B2 (en) Method and apparatus for composing and performing music
Hunt et al. Multiple media interfaces for music therapy
Jensenius An action–sound approach to teaching interactive music
Pressing Some perspectives on performed sound and music in virtual environments
Ward et al. Music technology and alternate controllers for clients with complex needs
JP3978506B2 (ja) 楽音生成方法
Fels et al. Evolving Tooka: from Experiment to Instrument.
Siegel Dancing the music: Interactive dance and music
Zlatintsi et al. A web-based real-time kinect application for gestural interaction with virtual musical instruments
JP2003521005A (ja) 単一またはいくつかのリンクされたワークステーションを用いる、音楽を表示するための装置
Ilsar The AirSticks: a new instrument for live electronic percussion within an ensemble
Mainsbridge Body as instrument: an exploration of gestural interface design
Overholt Advancements in violin-related human-computer interaction
Bergstrom Soma: live performance where congruent musical, visual, and proprioceptive stimuli fuse to form a combined aesthetic narrative
Armitage et al. Augmented opera performance
Meneses Iterative design in DMIs and AMIs: expanding and embedding a high-level gesture vocabulary for T-Stick and GuitarAMI
WO2024190759A1 (ja) 情報処理方法、情報処理システムおよびプログラム
Ingebritsen Auditory kinesthesia: A framework to facilitate the design and performance of interactive music systems
JPH08335076A (ja) 音楽演奏システム
von Arnim et al. The Feedback Mop Cello: An Instrument for Interacting with Acoustic Feedback Loops
Rubin in tensions, for dancer, cello, and motion-sensitive live electronics
Ishov PrismaSonus: Bridging Acoustic and Digital Worlds in Flute Practice and Performer-Composer Collaboration

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006528958

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11631398

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase