JPH09190181A - Method for generating and playing music - Google Patents
Method for generating and playing musicInfo
- Publication number
- JPH09190181A JPH09190181A JP8001060A JP106096A JPH09190181A JP H09190181 A JPH09190181 A JP H09190181A JP 8001060 A JP8001060 A JP 8001060A JP 106096 A JP106096 A JP 106096A JP H09190181 A JPH09190181 A JP H09190181A
- Authority
- JP
- Japan
- Prior art keywords
- data
- graphic
- music
- note
- musical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、音楽の作成およ
び演奏方法に関し、特に、テレビ番組、ビデオソフト、
映画、マルチメディアソフトその他の映像作品において
使用する音楽の作成および方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of creating and playing music, and more particularly, to television programs, video software,
The present invention relates to the making and method of music used in movies, multimedia software and other video works.
【0002】[0002]
【従来の技術】ビデオ、映画、マルチメディアソフトそ
の他の映像作品は映像のみならず、付随する背景音楽も
映像作品の重要な要素である。この様な背景音楽は、従
来、映像とは別個に作成し、映像に合わせて編集して映
像作品を構成している。即ち、映像のイメージにふさわ
しい背景音楽を新規に作成して演奏するか、或は既存の
音楽の内から選択収集し、編集装置を使用して映像の動
き或はシーンの変化するタイミングと音楽とが合致する
様に映像および/または音楽を編集することにより映像
作品を構成する。図形データおよび動きデータに基づい
て計算機により映像を作成するコンピュータグラフイッ
クスの場合においても同様の編集過程が採用される。2. Description of the Related Art Video, movies, multimedia software and other video works are not only video images, but also background music accompanying them is an important element of the video works. Conventionally, such background music is created separately from the video and edited according to the video to form a video work. That is, the background music suitable for the image of the image is newly created and played, or the selected background music is selectively collected from the existing music and the timing and music of the movement of the image or the scene are changed by using the editing device. A video work is constructed by editing the video and / or music so that the two match. A similar editing process is adopted also in the case of computer graphics in which an image is created by a computer based on graphic data and motion data.
【0003】[0003]
【発明が解決しようとする課題】上述した音楽の作成方
法を採用する場合、次の如き問題が生ずる。映像と音楽
との間の関係が稀薄となり、映像作品としての統一性が
失われ、その価値を下げる恐れがある。特に、音楽にか
けるコストを削減して既存の音楽を適用する場合、映像
にふさわしい音楽は見いだし難く、この恐れは特に大き
くなる。When the above-mentioned music making method is adopted, the following problems occur. There is a risk that the relationship between video and music will be weakened, the unity of the video work will be lost, and its value will be reduced. In particular, when the existing music is applied while reducing the cost for music, it is difficult to find music suitable for the image, and this fear becomes particularly serious.
【0004】そして、映像と音楽の両者に関する編集作
業、特に映像と音楽との間の微妙なタイミング合わせに
は大変な時間と労力を必要とする。また、完成した映像
作品をユーザが視聴する際に、映像の再生速度を変化さ
せた場合、即ち、早送り、巻戻し、スローモーション再
生を行った場合、音の再生速度を同様に変化させると、
音楽は高音において速いピロピロという様な音、或は低
音において遅いワウワウという様な音として再生され、
本来の音楽とは似ても似つかぬものとなり、背景音楽と
しての効果を失なうに到る。Further, it takes a lot of time and labor to perform editing work on both video and music, particularly fine adjustment of timing between video and music. Also, when the user views the completed video work, if the playback speed of the video is changed, that is, if fast-forwarding, rewinding, or slow-motion playback is performed, the playback speed of the sound is similarly changed,
The music is played as high-pitched sounds such as fast piro-piro, or low-pitched sounds like slow wah-wah,
Even if it is not similar to the original music, it loses its effect as background music.
【0005】更に、画像の表示範囲の移動、一部領域の
拡大表示であるズームイン、或は広範囲の縮小表示であ
るズームアウトを行なった場合、画像の与える印象が変
化するにも拘わらず、これに合わせて音楽を変化させる
ことは困難である。特に、マルチメディアソフトにおい
て、ユーザがこれらの操作を対話的に行う場合、音楽を
実時間で変更して演奏しなければならず、より一層の困
難を伴う。その結果、映像と音楽との間の統一性は失な
われる。Further, when the display range of the image is moved, the partial area is enlarged and zoomed in, or the wide area is reduced and zoomed out, the impression given by the image is changed despite the change. It is difficult to change the music to suit. Particularly, in multimedia software, when the user interactively performs these operations, the music must be changed and played in real time, which is even more difficult. As a result, the unity between video and music is lost.
【0006】この発明は、上述の通りの問題を解消した
音楽の作成および演奏方法を提供するものである。The present invention provides a method of making and playing music which solves the above problems.
【0007】[0007]
【課題を解決するための手段】図形を構成する個々の要
素図形の形状、大きさ、向き、或は色より成る要素図形
データを音の高さ、長さ、音色の音符データに変換し、
要素図形間の接続の仕方を規定する図形接続データに基
づいて音符データを接続することにより生成されるべき
音楽の楽譜データを生成する音楽の作成および演奏方法
を構成した。[MEANS FOR SOLVING THE PROBLEMS] The element graphic data consisting of the shape, size, direction, or color of each element graphic forming the graphic is converted into musical note data of pitch, length and timbre,
A method of creating and playing music is constructed, in which musical score data of music to be generated is created by connecting note data based on graphic connection data that defines how to connect element graphics.
【0008】そして、音符データおよび図形接続データ
に基づいて楽譜データを生成すると共に描画タイミング
データを生成し、要素図形データおよび描画タイミング
データに基づいて逐次描画する音楽の作成および演奏方
法を構成した。また、図形データは自己相似な図形であ
るフラクタル図形より成る要素図形データおよびこれら
要素図形間を接続する図形接続データにより構成される
ものである音楽の作成および演奏方法を構成した。The musical score data is generated based on the note data and the graphic connection data, the drawing timing data is generated, and the music is created and played sequentially based on the element graphic data and the drawing timing data. In addition, a method of creating and playing music is constructed in which the figure data is composed of element figure data composed of fractal figures which are self-similar figures and figure connection data connecting these element figures.
【0009】更に、図形音符変換処理を施すに先だっ
て、図形を表示すべき範囲を示す視野データに基づいて
要素図形データに視野変換およびクリッピング処理を施
す音楽の作成および演奏方法を構成した。Further, before performing the graphic note conversion processing, a method of creating and playing music is constructed in which visual field conversion and clipping processing are performed on element graphic data based on visual field data indicating a range in which a graphic is to be displayed.
【0010】[0010]
【発明の実施の形態】この発明の実施の形態を実施例を
参照して説明する。この発明の第1の実施例を図を参照
して説明する。先ず、図1および図2を参照するに、図
1は第1の実施例全体の処理の流れを示す図であり、図
2は音楽を作成するに際して使用される図形を示す図で
ある。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described with reference to embodiments. A first embodiment of the present invention will be described with reference to the drawings. First, referring to FIG. 1 and FIG. 2, FIG. 1 is a diagram showing a flow of processing of the first embodiment as a whole, and FIG. 2 is a diagram showing figures used in creating music.
【0011】図2に示される図形は図形データであり、
矢印を付与した直線を要素図形としてこの要素図形の向
きの変化の情報を音の高さに対応させると共に要素図形
の長さの情報を音の長さに対応させたものより成る。要
素図形に付記される数字は生成されるべき音の生成順序
を示す要素図形番号である。図3をも参照して説明する
に、(a) 要素図形の向きが直前の要素図形を基準と
して反時計回りに60゜変化したとき音階において1音
上昇し、時計回りに60゜変化したとき1音下降するも
のとし、(b) 音の長は要素図形の長さに比例させ
る、という2個の規則を適用して要素図形を音符に変換
する図形音符変換処理を実施する。図2に示される図形
データにこれらの規則を適用して図形音符変換処理した
結果は図3に示される通りである。ここで、調性はハ長
調であるものとし、要素図形1を1点ハ音の4分音であ
るものとする。要素図形2は直前の要素図形1を基準と
して反時計回りに60゜変化しているので1音上昇して
1点ニ音であり、長さは要素図形1の2倍であるので音
の長さは要素図形1の4分音の2倍の2分音である。要
素図形3は直前の要素図形1を基準として時計回りに6
0゜変化しているので1音降下してロ音であり、長さは
要素図形1の1倍であるので音の長さは要素図形1に同
じく4分音である。以下、同様である。The graphic shown in FIG. 2 is graphic data.
A straight line with an arrow is used as an element figure, and information about a change in the direction of the element figure is associated with the pitch of the sound, and information about the length of the element figure is associated with the length of the sound. The numbers attached to the elemental figures are elemental figure numbers indicating the generation order of sounds to be generated. As will be described with reference to FIG. 3 as well, (a) when the orientation of the elemental figure changes 60 ° counterclockwise with respect to the immediately preceding elemental figure, it increases by one note in the scale and changes 60 ° clockwise. One note is descended, and (b) the figure-note conversion processing for converting the element figure into a note is performed by applying two rules that the sound length is proportional to the length of the element figure. The result of graphic note conversion processing by applying these rules to the graphic data shown in FIG. 2 is as shown in FIG. Here, the tonality is assumed to be C major, and the element graphic 1 is assumed to be a quarter note of one point C sound. Since the element figure 2 has changed by 60 ° counterclockwise with respect to the immediately preceding element figure 1, it rises by one sound and is a one-point double sound, and since the length is twice that of the element figure 1, the sound length is S is a double note that is twice the quarter note of element graphic 1. Element graphic 3 is 6 clockwise with reference to the immediately preceding element graphic 1.
Since it changes by 0 °, it drops by one sound and is a low sound. Since the length is one time that of the element graphic 1, the sound length is also a quarter sound in the element graphic 1. Hereinafter, the same applies.
【0012】図形データは、上述した要素図形データお
よび後で説明される図形接続データより成る。要素図形
データは、図2に示される如く、予め要素図形単位に分
割して図形接続データと共に保存しておくか、或は別形
式の図形データに基づいて要素図形データと図形接続デ
ータとを実時間で生成する。図形データを構成する要素
図形は、曲線も含む線分或は多角形その他の面を基本単
位とするが、これらを複数個組み合わせたものを単位と
することができる。そして、要素図形の情報としては、
以上の向きおよび長さの他に、要素図形の形状、位置、
大きさ、色、その他の情報に着目することができる。The graphic data is composed of the above-described element graphic data and graphic connection data described later. As shown in FIG. 2, the element graphic data is divided into element graphic units in advance and stored together with the graphic connection data, or the element graphic data and the graphic connection data are implemented based on the graphic data of another format. Generate in time. The element graphic forming the graphic data has a line segment including a curve, a polygon, or another surface as a basic unit, but a combination of a plurality of these can be a unit. And as the information of the element figure,
In addition to the above orientation and length, the shape, position, and
You can focus on size, color, and other information.
【0013】図4を参照して図形接続データを説明す
る。図形接続データは、要素図形の接続順序および要素
図形相互の接続状態が直列接続か或は並列接続かをデー
タとして保持する。図2に示される図形データに対応す
る図形接続データは図4に示される如くになる。ここ
で、鎖線--- は要素図形を直列接続することを示し、平
行線‖は要素図形を並列接続することを示す。直列接続
とは、生成される音符が同一の譜表に順次に配列される
べく要素図形を順次に直列に接続することを示す。並列
接続とは、生成される音符が当該譜表とは異なる譜表に
配列されるべく分岐接続することを示す。The graphic connection data will be described with reference to FIG. The graphic connection data holds, as data, the connection order of element graphics and whether the connection status of element graphics is serial connection or parallel connection. The graphic connection data corresponding to the graphic data shown in FIG. 2 is as shown in FIG. Here, the chain line --- indicates that the element figures are connected in series, and the parallel line ‖ indicates that the element figures are connected in parallel. The serial connection means that element graphics are sequentially connected in series so that the generated notes are sequentially arranged on the same staff. The parallel connection means that the generated notes are branched and connected so as to be arranged on a staff different from the staff.
【0014】図形音符変換処理部1は、要素図形の形
状、向き、位置、大きさ、色、その他の情報の一部或は
全部を音の高さ、長さ、強さ、音色その他の音符データ
に変換する。音の高さおよび長さは双方共に連続量、離
散量の何れとしても取り扱うことができる。例えば、要
素図形の長さに比例して連続的に音の高さ或は周波数を
変化させることができるし、図3に示される如く、予め
指定した音階に従って段階的に変化させることもでき
る。この場合の音階も長音階、短音階、半音階、五音音
階、その他不規則な音階を任意に決めることができる。
更に、1個の要素図形を1個だけの音符に限定対応させ
る他に音符列に変換対応することもできる。音符列と
は、1個だけの音符より成る単音、音符を並列に複数個
並べた複音或は和音、単音或は複音を直列に複数個並べ
た音列を含む。音符列は、休符を含む場合もある。要素
図形を音列に対応させる例としては、形状に応じて個々
の音符の長さの組合せを変え或は音の高さの組合せを変
える例を想定することができる。The graphic note conversion processing unit 1 uses part or all of the shape, direction, position, size, color, and other information of the element graphic, such as pitch, length, strength, tone color, and other notes. Convert to data. Both the pitch and the length of the sound can be treated as either a continuous quantity or a discrete quantity. For example, the pitch or frequency of the tone can be continuously changed in proportion to the length of the element graphic, or can be changed stepwise according to a predesignated scale as shown in FIG. In this case, the major scale, the minor scale, the chromatic scale, the pentatonic scale, and other irregular scales can be arbitrarily determined.
Furthermore, one element graphic can be converted into a note string in addition to being limited to only one note. The note sequence includes a single note composed of only one note, a compound note or chord in which a plurality of notes are arranged in parallel, and a note string in which a plurality of single notes or compound notes are arranged in series. The note string may include rests. As an example of associating the elemental figure with the tone sequence, it is possible to assume an example in which the combination of the lengths of the individual notes is changed or the combination of the pitches of the notes is changed according to the shape.
【0015】楽譜生成処理部2は、変換した音符データ
である音符列を接続して楽譜を生成処理する。この楽譜
生成処理に際して、接続順序および接続方法は先の図形
接続データに基づいて決定する。即ち、音符列の接続順
序は対応する要素図形の接続順序に従う。要素図形の接
続が直列である場合は、音符列も時間順に直列に配列す
る。要素図形の接続が並列である場合は、音符列も最初
の音符または休符を揃えて並列に配列する。図3の音符
列を図4の図形接続データに基づいて接続した楽譜デー
タを譜表に表現すると、図5に示される通りになる。The musical score generation processing unit 2 connects musical note strings, which are converted musical note data, to generate a musical score. In this musical score generation processing, the connection order and connection method are determined based on the above-mentioned graphic connection data. That is, the connection order of the musical note sequence follows the connection order of the corresponding element figures. When the element figures are connected in series, note strings are also arranged in time series. When the element figures are connected in parallel, the note sequence is also arranged in parallel with the first note or rest aligned. When the musical score data obtained by connecting the note strings of FIG. 3 based on the graphic connection data of FIG. 4 is expressed in a staff, it becomes as shown in FIG.
【0016】作成された楽譜データは、これを自動演奏
処理部3に入力することにより音楽を演奏することがで
きる。この自動演奏処理は、楽譜データをMIDI規格
に準拠して作成しておくことにより、市販のMIDI音
源およびこれを演奏するソフトウエア、ハードウエアを
使用することができる。なお、自動演奏では実現困難
な、高度の音楽性を付加したい場合には、楽譜データを
印刷して、それに従って人間が演奏することもできる。The created musical score data can be played by inputting it to the automatic performance processing section 3. This automatic performance processing can use a commercially available MIDI sound source and software and hardware for playing the same by creating score data in compliance with the MIDI standard. When it is desired to add a high degree of musicality, which is difficult to achieve by automatic performance, the musical score data can be printed and a human can play the music in accordance with the printed musical score data.
【0017】図6は第2の実施例全体の処理の流れを示
す図である。第2の実施例は、楽譜・描画タイミング生
成処理部4により音符データと図形接続データとから楽
譜データを生成する際に、要素図形を描画するタイミン
グを示す描画タイミングデータを同時に生成するところ
を第1の実施例に付加したものに相当する。この場合、
要素図形が対応する音符列の演奏開始と同期して描画開
始される様に描画タイミングデータを作成する。描画タ
イミングデータの具体的な構成としては種々のものが考
えられる。例えば、演奏および描画の開始の瞬間から各
要素図形に対応する音符列の演奏開始までの時間を計算
し、要素図形の番号と時間の組を時間順に並べ換えたも
のを描画タイミングデータとして使用することができ
る。図7は、図2ないし図5の例に対応する描画タイミ
ングデータを示す。ここで、時間の単位は図5における
4分音符の演奏時間を1とする。FIG. 6 is a diagram showing the overall processing flow of the second embodiment. In the second embodiment, when the score / drawing timing generation processing unit 4 generates the score data from the note data and the figure connection data, the drawing timing data indicating the timing of drawing the element graphic is simultaneously generated. It corresponds to the one added to the first embodiment. in this case,
The drawing timing data is created so that the drawing of the element graphic is started in synchronization with the start of the performance of the corresponding note sequence. Various concrete structures of the drawing timing data are conceivable. For example, calculate the time from the moment of starting playing and drawing to the start of playing the note sequence corresponding to each element figure, and use the number of element figure and time group sorted in chronological order as drawing timing data. You can FIG. 7 shows drawing timing data corresponding to the examples of FIGS. Here, the unit of time is 1 for the performance time of the quarter note in FIG.
【0018】逐次描画処理部5は、要素図形データと描
画タイミングデータとを参照することにより、要素図形
データを指定されたタイミングで描画する。自動演奏処
理部3は楽譜データを参照して演奏する。この様にし
て、描画と音楽との間の同期をとることができ、手作業
により編集する手間を省略することができる。図8は第
3の実施例全体の処理の流れを示す図である。The sequential drawing processing unit 5 draws the element graphic data at a designated timing by referring to the element graphic data and the drawing timing data. The automatic performance processing section 3 refers to the score data to perform the performance. In this way, the drawing and the music can be synchronized with each other, and the labor of manual editing can be omitted. FIG. 8 is a diagram showing a processing flow of the entire third embodiment.
【0019】第3の実施例は、第1の実施例において、
要素図形データと図形接続データをフラクタル図形生成
処理部6により生成する行程を付加したものに相当す
る。自己相似性を有するフラクタル図形の生成の仕方に
ついては「フラクタル幾何学」(マンデルプロ著、広中
平祐監訳、日経サイエンス社、1985年 発行)に記
載されている。これを図9を参照して簡単に説明する。
「イニシエータ(初期形)」に含まれる単位形状を「ジ
ェネレータ(生成素)」により再帰的に置き換えて行く
ことにより、種々のフラクタル図形が得られる。図9
は、イニシエータ即ち単位図形である線分を2本の線分
より成るジェネレータで置き換えて行く場合のイニシエ
ータの形状の変化を示している。ここで、イニシエータ
をレベル0、レベル0を構成する単位図形をすべてジェ
ネレータで置き換えたものをレベル1、レベル1の単位
図形をすべて置き換えたものをレベル2と呼ぶことにす
る。以下同様である。図9において、レベル0のイニシ
エータをその線分0の左右両端の位置をそのまま変位す
ることなしにジェネレータにより置き換えることによ
り、線分11と線分12を直角に接続したレベル1の図
形を形成することができる。レベル1の図形の左下がり
の線分11の左右両端の位置をそのまま変位することな
く、そして右下がりの線分12の左右両端の位置をその
まま変位することなしに、レベル1の図形をジェネレー
タにより置き換えることにより、線分21ないし線分2
4を順次に直角に接続したレベル2を形成することがで
きる。レベル3の図形も、同様に、レベル2の図形に基
づいて形成することができる。The third embodiment differs from the first embodiment in that
This corresponds to the addition of the process of generating the element graphic data and the graphic connection data by the fractal graphic generation processing unit 6. A method of generating a fractal figure having self-similarity is described in "Fractal Geometry" (mandelpro, translated by Heisuke Hironaka, published by Nikkei Science, 1985). This will be briefly described with reference to FIG.
Various fractal figures can be obtained by recursively replacing the unit shape included in the “initiator” with the “generator”. FIG.
Shows the change in the shape of the initiator when the line segment which is the initiator, that is, the unit figure, is replaced by the generator consisting of two line segments. Here, the level 0 for the initiator and the generator for all the unit figures constituting the level 0 will be referred to as level 1, and the one for all the unit figures for level 1 will be referred to as level 2. The same applies hereinafter. In FIG. 9, the level 0 initiator is replaced by a generator without displacing the left and right ends of the line segment 0 as it is, thereby forming a level 1 graphic in which the line segment 11 and the line segment 12 are connected at a right angle. be able to. The level 1 graphic is generated by the generator without displacing the left and right ends of the downward-sloping line segment 11 of the level 1 graphic, and without displacing the left and right ends of the right-down graphic segment 12. By replacing it, line segment 21 or line segment 2
It is possible to form level 2 in which 4 are sequentially connected at right angles. The level 3 graphic can be similarly formed based on the level 2 graphic.
【0020】図10は、図9のレベル1からレベル5ま
での図形を重ねることにより形成された図形であるが、
要素図形データは、この様に連続した幾つかのレベルの
図形を重ねることにより形成された図形により構成され
る。図10の要素図形データについての図形接続データ
は重ねられた図形の内の最低レベルの図形について直列
接続とし、ジェネレータの置き換え毎に並列に付加接続
して行くものとする。この場合の最低レベルの図形はレ
ベル1の図形である。図10の要素図形の図形接続デー
タの模式図は図11に示される様になる。これを具体的
に説明するに、図10においては太い線分11および太
い線分12はレベル1の要素図形を構成する線分である
が、この2本の線分は図11においては直列接続関係に
ある黒丸11および黒丸12により示されている。次
に、図10において、太い線分21ないし太い線分24
はレベル2の要素図形を構成する線分である。これらの
内の2本の線分21および線分22は太い線分11から
構成されたものであり、図11においてはこれに対応す
る黒丸11から分岐して並列接続する一方、2本の線分
23および線分24は太い線分12から構成されたもの
であり、図11においてはこれに対応する黒丸12から
分岐して並列接続している。以下、レベル2とレベル3
との間の接続関係、レベル3とレベル4との間の接続関
係、レベル4とレベル5との間の接続関係についても同
様である。FIG. 10 is a figure formed by overlapping the figures from level 1 to level 5 in FIG.
The element graphic data is composed of a graphic formed by superposing several continuous graphic levels. The figure connection data for the element figure data in FIG. 10 is serially connected for the lowest level figure among the overlapped figures, and is additionally connected in parallel every time the generator is replaced. The lowest level graphic in this case is the level 1 graphic. A schematic diagram of the graphic connection data of the element graphic of FIG. 10 is as shown in FIG. To explain this concretely, in FIG. 10, the thick line segment 11 and the thick line segment 12 are line segments that compose the element graphic of level 1. However, these two line segments are connected in series in FIG. It is indicated by the black circle 11 and the black circle 12 which are related. Next, in FIG. 10, a thick line segment 21 to a thick line segment 24
Is a line segment forming the level 2 element graphic. Two of these line segments 21 and 22 are composed of a thick line segment 11. In FIG. 11, a black circle 11 corresponding thereto is branched and connected in parallel, while two lines are connected. The line segment 23 and the line segment 24 are composed of the thick line segment 12, and in FIG. 11, the black circle 12 corresponding thereto is branched and connected in parallel. Below, Level 2 and Level 3
The same applies to the connection relationship between the and, the connection relationship between the level 3 and the level 4, and the connection relationship between the level 4 and the level 5.
【0021】ここで、自己相似性を有する音楽を生成す
るには、図形音符変換処理部1は以下の2制約条件を必
要とする。或るレベルnの図形におけるジェネレータ1
個分に相当する図形Aの演奏時間をTA 、この内の1個
の単位図形Bに対応する演奏時間をTB 、次のレベル
(n+1)における単位図形Bに対応するジェネレータ
1個分に相当する図形Cの演奏時間をTc とすると、 (制約条件1) TB =Tc とする。Here, in order to generate music having self-similarity, the graphic note conversion processing section 1 needs the following two constraint conditions. Generator 1 for a level n graphic
The playing time of the figure A corresponding to the number of pieces is T A , the playing time corresponding to one of the unit figures B is T B , and one generator corresponding to the unit figure B at the next level (n + 1) is set. Assuming that the playing time of the corresponding figure C is T c , (constraint condition 1) T B = T c .
【0022】(制約条件2) 図形Aの演奏時の基準周
波数と図形Cの演奏時の基準周波数の比を(1/
TA ):(1/Tc )とする。この場合、再生速度を元
のTC /TA 倍にすると、レベルnに対応した音符列の
音程は元の音楽におけるレベル(n+1)の音符列の音
程に等しくなる。図9の図形の場合、1個の線分をジェ
ネレータ置き換えすることにより、この線分は元の長さ
の1/√2倍の2個の等長線分となる。ここで、レベル
が1だけ進む毎に、各線分に対応する音の長さは1/√
2倍ではあるがこれに対応して1/2倍を設定し、周波
数は1オクターブ高い音に相当する2倍を設定する必要
がある。(Restriction condition 2) The ratio between the reference frequency when the figure A is played and the reference frequency when the figure C is played is (1 /
T A ): (1 / T c ). In this case, if the reproduction speed is multiplied by the original T C / T A times, the pitch of the note string corresponding to level n becomes equal to the pitch of the note string of level (n + 1) in the original music. In the case of the figure in FIG. 9, by replacing one line segment with a generator, the line segment becomes two equal-length line segments that are 1 / √2 times the original length. Here, each time the level advances by 1, the length of the sound corresponding to each line segment is 1 / √
Although it is twice, it is necessary to set 1/2 times correspondingly, and it is necessary to set the frequency to twice, which corresponds to a sound one octave higher.
【0023】上述した制約条件下において、無限個のレ
ベルの図形を重ねたものから音楽を生成すれば、如何に
再生速度を変更しようとも、Tc /TA 倍或はTA /T
c 倍毎にオクターブを単位として音程を異にする全く同
じ音楽が現れる。ただし、実用上は可聴周波数20〜2
万ヘルツの範囲内だけ重ねておけば、ほぼ問題なく同じ
音楽に聞こえる。なお、上述の条件は音の長さと高さに
限定して説明したものである。再生速度の変更によって
音色まで同じになる様にするには、低音部の音を高速再
生した音色と、高音部の音色とが近くなる様な楽器音を
使用する必要がある。Under the above-mentioned constraint conditions, if music is generated from a figure in which an infinite number of levels are superposed, no matter how the reproduction speed is changed, T c / T A times or T A / T.
Exactly the same music appears with different pitches in octave units every c times. However, in practice, the audible frequency is 20 to 2
If it overlaps only within the range of ten thousand hertz, the same music will sound almost without problems. The above conditions are limited to the length and pitch of the sound. In order to make the timbres the same by changing the reproduction speed, it is necessary to use a musical instrument sound in which the timbre of the low-pitched sound reproduced at high speed and the timbre of the high-pitched sound are close to each other.
【0024】この様にして、図10の要素図形から生成
した音楽の楽譜の例は図12に示されるものとなる。こ
の例においては、線分の時計回り或は反時計回りの方向
変更は音階の音程の上下に対応させている。音階は、
ミ、ソ、ラ、ド、レの五音音階を使用している。なお、
第3の実施例においては、表示映像がフラクタル図形を
使用して形成されたものである場合、このフラクタル図
形に基づいて音楽を生成すればよいが、その他の表示映
像においても、この映像とは別の適当なフラクタル図形
を使用して形成される図形に基づいて音楽を生成するこ
とにより、再生速度に影響されない音楽を生成すること
ができる。An example of the musical score of the music generated from the element graphic of FIG. 10 in this manner is shown in FIG. In this example, the change in the clockwise or counterclockwise direction of the line segment corresponds to the upper and lower pitches of the scale. The scale is
It uses the five-tone scale of Mi, So, La, De, and Re. In addition,
In the third embodiment, when the display image is formed by using the fractal figure, music may be generated based on the fractal figure. By generating music based on a graphic formed using another suitable fractal graphic, it is possible to generate music that is not affected by the playback speed.
【0025】図13は第4の実施例全体の処理の流れを
示す図である。第4の実施例は、第1の実施例におい
て、要素図形データに視野変換・クリッピング処理を施
した上において図形音符変換処理をする構成を付加した
ものに相当する。図形を描画する場合、視野変換・クリ
ッピング処理部7において元の要素図形データに対して
描画範囲或は拡大率を示す視野データを与えて視野変換
およびクリッピング処理を施し、指定された大きさおよ
び指定された範囲だけについて描画処理部8により描画
する。この様な視野変換およびクリッピング処理を施し
た場合、画面に見えている見かけ上の要素図形だけが要
素図形データとされている。従って、この要素図形デー
タについて図形音符変換処理、楽譜生成処理および自動
演奏処理を施して音楽を演奏すれば、常に見かけの映像
と統一のとれた演奏をすることができる。この場合、視
野データをユーザが実時間変更した場合においても、映
像と音楽とはこれに追従して変化する。FIG. 13 is a diagram showing the overall processing flow of the fourth embodiment. The fourth embodiment corresponds to the one obtained by adding the configuration of performing the visual field conversion / clipping processing to the element graphic data and then performing the graphic note conversion processing in the first embodiment. When drawing a figure, the field-of-view conversion / clipping processing unit 7 performs field-of-view conversion and clipping processing by giving field-of-view data indicating a drawing range or an enlargement ratio to the original elemental figure data, and performs the specified size and designation. The drawing processing unit 8 draws only the specified range. When such visual field conversion and clipping processing are performed, only the apparent elemental figures visible on the screen are regarded as elemental figure data. Therefore, by performing graphic note conversion processing, musical score generation processing, and automatic performance processing on this element graphic data to play music, it is possible to always perform a performance that is unified with an apparent image. In this case, even when the user changes the visual field data in real time, the image and the music follow the change.
【0026】なお、元の図形が3次元図形である場合、
描画の際に視点を定めて透視投影を行うのが普通であ
る。この処理は、視野変換・クリッピング処理部3に含
めて実施することもできるが、音符の変化が複雑になり
過ぎて音楽性を損なう様であれば描画処理部8において
実施することができる。If the original figure is a three-dimensional figure,
When drawing, it is usual to set a viewpoint and perform perspective projection. This processing can be carried out by being included in the visual field conversion / clipping processing section 3, but can be carried out by the drawing processing section 8 if the change of the notes becomes too complicated and the musicality is impaired.
【0027】[0027]
【発明の効果】以上の通りであって、この発明の第1の
実施例は、要素図形間の接続を示す図形接続データに基
づいて図形音符変換処理して得られる音符データを接続
することにより生成されるべき音楽の楽譜データを生成
する。この様にして、描画に使用した図形データに基づ
いて音楽を作成および演奏することとなるので、映像と
音楽との間の統一性が維持されることとなる。As described above, according to the first embodiment of the present invention, by connecting the note data obtained by the graphic note conversion processing based on the figure connection data indicating the connection between the element figures. The score data of the music to be generated is generated. In this way, music is created and played based on the graphic data used for drawing, so that the unity between the image and the music is maintained.
【0028】そして、この発明の第2の実施例は、楽譜
データを生成する際に、これと同時に各要素図形を描画
するタイミングを示す描画タイミングデータをも生成
し、これを使用して図形描画と音楽演奏とを同期させて
いる。この様にして、図形の描画と音楽の演奏との間の
タイミングを同一の図形データに基づいて同期させるこ
とができるので、音の編集、特に画像との間のタイミン
グ合わせを人手により実施する作業は不要となる。In the second embodiment of the present invention, when the musical score data is generated, at the same time, the drawing timing data indicating the timing of drawing each element graphic is also generated, and this is used to draw the graphic. And music performance are synchronized. In this way, the timing between the drawing of the figure and the performance of the music can be synchronized based on the same figure data, so that the editing of the sound, especially the timing adjustment with the image is manually performed. Is unnecessary.
【0029】また、この発明の第3の実施例は、フラク
タル図形ジェネレータを使用して自己相似性のある要素
図形データおよび図形接続データを生成使用する。この
様にすることにより、生成される音楽においても自己相
似性が生じ、再生速度にかかわらず、音程は異にするが
同一の音楽を得ることができる。更に、この発明の第4
の実施例は、要素図形データに対して予め視野変換・ク
リッピング処理を適用して表示範囲の移動、拡大、縮小
し、実際に表示される範囲とサイズに変換しておく。こ
の様にすることにより、演奏されるべき音符列を変化
し、表示映像に対応する音楽を自動的に演奏することが
できる。視野データをユーザが実時間で操作する場合
も、その都度、要素図形データに視野変換・クリッピン
グ処理を適用することにより、映像および音楽の変化に
実時間で対応することができる。そして、視野データを
変更し、図形を拡大表示した場合、それにつれて音楽は
遅くかつ低い音で演奏される様になる。しかし、図形に
は自己相似性があるので、拡大しても同一図形が現わ
れ、同時に同一音楽が聴こえる。これにより、フラクタ
ルの特徴である自己相似性を視覚と聴覚の双方について
同時に鑑賞することができる。The third embodiment of the present invention uses a fractal graphic generator to generate element graphic data and graphic connection data having self-similarity. By doing so, self-similarity also occurs in the generated music, and the same music can be obtained although the pitch is different regardless of the reproduction speed. Furthermore, the fourth aspect of the present invention
In the embodiment, the visual field conversion / clipping process is applied to the element graphic data in advance to move, enlarge, or reduce the display range, and convert it to the range and size to be actually displayed. By doing so, the note string to be played can be changed and the music corresponding to the displayed image can be automatically played. Even when the user operates the visual field data in real time, by applying the visual field conversion / clipping process to the element graphic data each time, it is possible to deal with the change of the image and music in real time. When the view field data is changed and the figure is enlarged and displayed, the music is played slowly and at low pitches. However, since the figures have self-similarity, the same figure appears even when enlarged, and the same music can be heard at the same time. As a result, the self-similarity, which is a feature of fractals, can be viewed at the same time for both sight and hearing.
【0030】この発明は、コンピュータグラフィック映
像作品の製作において特に効果を奏するものであり、映
像と音楽との間の密接な関係を保持し、作品としての統
一性を維持する音楽の作成および演奏方法を提供するこ
とができる。そして、映像と音の編集作業を軽減するこ
とができる。また、再生速度にかかわらず、元の音楽に
近い音楽を再生する音楽の作成および演奏方法を提供す
ることができる。更に画像の表示範囲の移動、一部領域
の拡大表示、および広範囲の縮小表示に対応して音楽も
変化して、表示画像と音楽との統一性を保持することが
でき、その上にユーザの実時間操作にも追従する音楽の
作成および演奏方法を提供することができる。The present invention is particularly effective in the production of computer graphic video works, and it is a method of creating and playing music which maintains a close relationship between video and music and maintains the unity of the work. Can be provided. Then, the editing work of video and sound can be reduced. Further, it is possible to provide a music creating and playing method for playing music close to the original music regardless of the playing speed. Furthermore, the music changes in response to the movement of the display range of the image, the enlarged display of a part of the area, and the reduced display of a wide area, and the unity between the displayed image and the music can be maintained. It is possible to provide a method of creating and playing music that also follows real-time operation.
【図1】第1の実施例を説明する図。FIG. 1 is a diagram illustrating a first embodiment.
【図2】要素図形を示す図。FIG. 2 is a diagram showing element graphics.
【図3】音符データを示す図。FIG. 3 is a diagram showing note data.
【図4】図形接続データを示す図。FIG. 4 is a diagram showing graphic connection data.
【図5】楽譜データを示す図。FIG. 5 is a diagram showing musical score data.
【図6】第2の実施例を説明する図。FIG. 6 is a diagram illustrating a second embodiment.
【図7】描画タイミングデータを示す図。FIG. 7 is a diagram showing drawing timing data.
【図8】第3の実施例を説明する図。FIG. 8 is a diagram illustrating a third embodiment.
【図9】フラクタル図形生成処理を説明する図。FIG. 9 is a diagram illustrating a fractal figure generation process.
【図10】フラクタル図形を示す図。FIG. 10 is a diagram showing a fractal figure.
【図11】フラクタル図形の図形接続データを示す図。FIG. 11 is a diagram showing graphic connection data of a fractal graphic.
【図12】図11のフラクタル図形に基づく楽譜データ
を示す図。12 is a diagram showing musical score data based on the fractal figure of FIG. 11. FIG.
【図13】第4の実施例を説明する図。FIG. 13 is a diagram for explaining the fourth embodiment.
1 図形音符変換処理部 2 楽譜生成処理部 3 自動演奏処理部 4 楽譜・描画タイミング生成処理部 5 逐次描画処理部 6 フラクタル図形生成処理部 7 視野変換・クリッピング処理部 8 描画処理部 1 Graphic note conversion processing unit 2 Music score generation processing unit 3 Automatic performance processing unit 4 Music score / drawing timing generation processing unit 5 Sequential drawing processing unit 6 Fractal figure generation processing unit 7 Visual field conversion / clipping processing unit 8 Drawing processing unit
Claims (4)
大きさ、向き、或は色より成る要素図形データを音の高
さ、長さ、音色の音符データに変換し、 要素図形間の接続の仕方を規定する図形接続データに基
づいて音符データを接続することにより生成されるべき
音楽の楽譜データを生成することを特徴とする音楽の作
成および演奏方法。1. The shape of individual elemental figures that make up the figure,
Convert element figure data consisting of size, direction, or color into note data of pitch, length, and tone color, and connect note data based on figure connection data that defines how to connect between element figures A method of creating and playing music, characterized in that the score data of the music to be generated is generated.
演奏方法において、 音符データおよび図形接続データに基づいて楽譜データ
を生成すると共に描画タイミングデータを生成し、 要素図形データおよび描画タイミングデータに基づいて
逐次描画することを特徴とする音楽の作成および演奏方
法。2. The method for creating and playing music according to claim 1, wherein the musical score data is generated based on the note data and the graphic connection data, and the drawing timing data is generated to generate the element graphic data and the drawing timing data. A method of creating and playing music, which is characterized by sequentially drawing based on.
記載される音楽の作成および演奏方法において、 図形データは自己相似な図形であるフラクタル図形より
成る要素図形データおよびこれら要素図形間を接続する
図形接続データにより構成されるものであることを特徴
とする音楽の作成および演奏方法。3. The music creating and playing method according to claim 1 or 2, wherein the graphic data is element graphic data composed of a fractal graphic which is a self-similar graphic, and between these graphic elements. A method of making and playing music, characterized in that it is composed of graphic connection data for connecting music.
記載される音楽の作成および演奏方法において、 図形音符変換処理を施すに先だって、図形を表示すべき
範囲を示す視野データに基づいて要素図形データに視野
変換およびクリッピング処理を施すことを特徴とする音
楽の作成および演奏方法。4. The method for creating and playing music according to claim 1, wherein the graphic note conversion processing is performed based on visual field data indicating a range in which a graphic is to be displayed. A method of creating and playing music, characterized by subjecting element graphic data to visual field conversion and clipping processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8001060A JPH09190181A (en) | 1996-01-08 | 1996-01-08 | Method for generating and playing music |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8001060A JPH09190181A (en) | 1996-01-08 | 1996-01-08 | Method for generating and playing music |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09190181A true JPH09190181A (en) | 1997-07-22 |
Family
ID=11491003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8001060A Pending JPH09190181A (en) | 1996-01-08 | 1996-01-08 | Method for generating and playing music |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09190181A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006346471A (en) * | 2002-12-12 | 2006-12-28 | Hidenori Ito | Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system |
CN110444185A (en) * | 2019-08-05 | 2019-11-12 | 腾讯音乐娱乐科技(深圳)有限公司 | A kind of music generating method and device |
-
1996
- 1996-01-08 JP JP8001060A patent/JPH09190181A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006346471A (en) * | 2002-12-12 | 2006-12-28 | Hidenori Ito | Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system |
CN110444185A (en) * | 2019-08-05 | 2019-11-12 | 腾讯音乐娱乐科技(深圳)有限公司 | A kind of music generating method and device |
CN110444185B (en) * | 2019-08-05 | 2024-01-12 | 腾讯音乐娱乐科技(深圳)有限公司 | Music generation method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6245982B1 (en) | Performance image information creating and reproducing apparatus and method | |
US5689078A (en) | Music generating system and method utilizing control of music based upon displayed color | |
US20080314228A1 (en) | Interactive tool and appertaining method for creating a graphical music display | |
WO2002065444A2 (en) | Electronic color display instrument and method | |
US6646644B1 (en) | Tone and picture generator device | |
US5900567A (en) | System and method for enhancing musical performances in computer based musical devices | |
Boulez et al. | Computers in music | |
Nakamura et al. | Automatic background music generation based on actors' mood and motions | |
JPH09190181A (en) | Method for generating and playing music | |
Ox et al. | The 21st century virtual reality color organ | |
Kreichi | The ANS synthesizer: Composing on a photoelectronic instrument | |
Ox | 2 performances in the 21st century virtual color organ | |
JP2872869B2 (en) | Composition support system for constellation information | |
JP3700442B2 (en) | Performance system compatible input system and recording medium | |
JP3117413B2 (en) | Real-time multimedia art production equipment | |
JP2000132150A (en) | Image display device | |
JPH0764545A (en) | Musical composition device | |
JPH09319383A (en) | Karaoke device | |
JP4385532B2 (en) | Automatic arrangement device and program | |
JP3721822B2 (en) | Rendition style input system | |
Potter | Audivisual music | |
Ghys | Designing a Computer-Assisted Meta-Composition Workflow: Stimulation of a Ludic Creative Process Through the Production of Audiovisual Pieces | |
Sykes | The Mathematical Life and Death Sequence of the Universe: Generating Audiovisual Art From the Mandelbrot Set | |
Yavelow | Personal computers and music: The state of the art | |
Nishimoto et al. | A proposal for a framework for general multimedia art creation instruments |