[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015114401A - Program for realization of music data creation method and music data creation device - Google Patents

Program for realization of music data creation method and music data creation device Download PDF

Info

Publication number
JP2015114401A
JP2015114401A JP2013254724A JP2013254724A JP2015114401A JP 2015114401 A JP2015114401 A JP 2015114401A JP 2013254724 A JP2013254724 A JP 2013254724A JP 2013254724 A JP2013254724 A JP 2013254724A JP 2015114401 A JP2015114401 A JP 2015114401A
Authority
JP
Japan
Prior art keywords
information
attribute information
display
time
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013254724A
Other languages
Japanese (ja)
Other versions
JP6255960B2 (en
Inventor
忠 岡野
Tadashi Okano
忠 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013254724A priority Critical patent/JP6255960B2/en
Publication of JP2015114401A publication Critical patent/JP2015114401A/en
Application granted granted Critical
Publication of JP6255960B2 publication Critical patent/JP6255960B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program for the realization of a music data creation method and a music data creation device that enable users who do not have musical knowledge on a specific portion of music content data to create a new piece of music using the attributes of the specific portion.SOLUTION: When application range information (code set) and application target information (section) are decided, a user drags the code set icon (any of code set icons 25a through 25c) indicating the application range information (code set) and drops it on the section icon (any of section icons 26a through 26e) indicating the selected application target information (section). As the result, the selected application range information (code set) is applied to the selected application target information (section), and processed application target information (section) is created.

Description

本発明は、所定の音楽的な属性情報を時系列被適用情報に適用することにより音楽データを生成する音楽データ生成方法を実現するためのプログラムおよび音楽データ生成装置に関する。   The present invention relates to a program and a music data generation apparatus for realizing a music data generation method for generating music data by applying predetermined musical attribute information to time-series applied information.

所定の音楽的な属性情報を時系列被適用情報に適用することにより音楽データを生成する音楽データ生成装置は、従来から知られている。   2. Description of the Related Art Music data generating apparatuses that generate music data by applying predetermined musical attribute information to time-series applied information are conventionally known.

このような装置として、所定の音楽的な属性情報にコード進行を採り、時系列被適用情報に4小節や8小節等の短い演奏情報(フレーズ)を採って、フレーズを入力して並べることでセクションを作り、各セクションについてそれぞれコード進行を設定し、各コードを適宜切り替えながら、繰り返し再生するようにしたものがある(たとえば、非特許文献1参照)。   As such a device, chord progression is adopted for predetermined musical attribute information, short performance information (phrase) such as four measures or eight measures is taken as time-series applied information, and phrases are inputted and arranged. There is a technique in which sections are created, the chord progression is set for each section, and the chords are repeatedly reproduced while appropriately switching the chords (see, for example, Non-Patent Document 1).

Mobile Music Sequencer マニュアル,ヤマハ株式会社,http://download.yamaha.com/api/asset/file/?language=ja&site=jp.yamaha.com&asset_id=58586Mobile Music Sequencer Manual, Yamaha Corporation, http://download.yamaha.com/api/asset/file/?language=en&site=jp.yamaha.com&asset_id=58586

しかし上記従来の装置では、コード進行の設定はユーザが1つずつコードを指定して行わなければならなかったので、ユーザにはコード進行についての知識が必要であった。   However, in the above-described conventional apparatus, since the user has to set chord progression by specifying chords one by one, the user needs knowledge about chord progression.

一方、既存の曲を聴いたときに、ある特定部分が印象に残り、その特定部分の特徴的な属性(コード進行も含まれる)を用いて新たな音楽を創作したいという要望を持つユーザもいたが、上記従来の装置では、このユーザの要望に応えることができなかった。   On the other hand, when listening to an existing song, a specific part remains in the impression, and some users have a desire to create new music using characteristic attributes (including chord progression) of the specific part. However, the above-described conventional apparatus cannot meet this user's request.

本発明は、この点に着目してなされたものであり、音楽コンテンツデータの特定部分についての音楽的な知識がないユーザでも、その特定部分の属性を用いて新たな音楽を創作することが可能となる音楽データ生成方法を実現するためのプログラムおよび音楽データ生成装置を提供することを目的とする。   The present invention has been made paying attention to this point, and even a user who does not have musical knowledge about a specific part of the music content data can create new music using the attribute of the specific part. An object of the present invention is to provide a program and a music data generation apparatus for realizing the music data generation method.

上記目的を達成するため、請求項1に記載のプログラムは、音楽データ生成方法をコンピュータに実行させるためのプログラムであって、前記音楽データ生成方法は、時系列音楽コンテンツデータから、当該時系列音楽コンテンツデータに時間的に対応付け可能な第1属性情報を取得する取得ステップと、前記取得ステップによって取得された第1属性情報が有する全時間区間内の一部区間を設定する設定ステップと、前記時系列音楽コンテンツデータに時間的に対応付け可能な、前記第1属性情報とは異なる属性を含む第2属性情報における、前記設定ステップによって設定された一部区間に相当する範囲を提示する提示ステップと、前記取得された第1属性情報のうち、前記設定された一部区間内の部分属性を時系列被適用情報に適用する適用ステップとを有することを特徴とする。   In order to achieve the above object, a program according to claim 1 is a program for causing a computer to execute a music data generation method, wherein the music data generation method uses time-series music content data and the time-series music. An acquisition step of acquiring first attribute information that can be temporally associated with content data; a setting step of setting a partial interval in all time intervals of the first attribute information acquired by the acquisition step; Presenting step for presenting a range corresponding to the partial section set by the setting step in the second attribute information including attributes different from the first attribute information that can be temporally associated with the time-series music content data And applying the partial attribute in the set partial section of the acquired first attribute information to the time-series applied information. And having a step of applying.

請求項2に記載のプログラムは、請求項1のプログラムにおいて、前記提示ステップでは、前記一部区間を含むより広い区間に亘って前記第2属性情報を表示しつつ、当該表示上の前記一部区間に相当する範囲を識別可能な表示態様で表示することを特徴とする。   The program according to claim 2 is the program according to claim 1, wherein in the presenting step, the second attribute information is displayed over a wider section including the partial section, and the part on the display is displayed. A range corresponding to the section is displayed in an identifiable display manner.

請求項3に記載のプログラムは、請求項2のプログラムにおいて、前記提示ステップでは、前記表示に加えてさらに、前記一部区間に対応する第1小表示と、前記時系列被適用情報に対応する第2小表示とを表示し、前記適用ステップでは、部分属性を時系列被適用情報に適用する場合、ユーザによって所定の操作がなされた第1および第2小表示にそれぞれ対応するものについて行うことを特徴とする。   The program according to claim 3 corresponds to the program according to claim 2, wherein, in the presenting step, in addition to the display, the program further corresponds to the first small display corresponding to the partial section and the time-series applied information. The second small display is displayed, and in the applying step, when the partial attribute is applied to the time-series applied information, it is performed for each of the first and second small displays that have been subjected to a predetermined operation by the user. It is characterized by.

請求項4に記載のプログラムは、請求項2または3のプログラムにおいて、前記提示ステップでは、前記表示に加えてさらに、前記第1属性情報および/または前記第2属性情報を時間的に拡大して表示し、前記一部区間は、前記拡大表示に対するユーザ操作に応じて変動することを特徴とする。   According to a fourth aspect of the present invention, in the program of the second or third aspect, in the presentation step, the first attribute information and / or the second attribute information is further expanded in time in addition to the display. The partial section varies according to a user operation with respect to the enlarged display.

上記目的を達成するため、請求項5に記載の音楽データ生成装置は、請求項1と同様の技術的思想によって実現できる。   In order to achieve the above object, the music data generating apparatus according to claim 5 can be realized by the technical idea similar to that of claim 1.

請求項1または5に記載の発明によれば、時系列音楽コンテンツデータから、当該時系列音楽コンテンツデータに時間的に対応付け可能な第1属性情報が取得され、当該取得された第1属性情報が有する全時間区間内の一部区間が設定され、前記時系列音楽コンテンツデータに時間的に対応付け可能な、前記第1属性情報とは異なる属性を含む第2属性情報における、前記設定された一部区間に相当する範囲が提示され、前記取得された第1属性情報のうち、前記設定された一部区間内の部分属性が時系列被適用情報に適用されるので、つまり、時系列音楽コンテンツデータに対する一部区間の設定だけで、取得された第1属性情報のうち、当該設定された一部区間内の部分属性が時系列被適用情報に適用されるので、音楽コンテンツデータの特定部分についての音楽的な知識がないユーザでも、その特定部分の属性を用いて新たな音楽を創作することが可能となる。   According to the first or fifth aspect of the invention, the first attribute information that can be temporally associated with the time-series music content data is acquired from the time-series music content data, and the acquired first attribute information Is set in the second attribute information including a different attribute from the first attribute information that is temporally associated with the time-series music content data. A range corresponding to a partial section is presented, and among the acquired first attribute information, the partial attribute in the set partial section is applied to the time-series applied information, that is, time-series music. Since the partial attribute in the set partial section is applied to the time-series applied information among the acquired first attribute information only by setting the partial section for the content data, the music content data Even a user without musical knowledge of the particular portion, it is possible to creation of new music using the attribute of that particular portion.

請求項2に記載の発明によれば、前記一部区間を含むより広い区間に亘って前記第2属性情報を表示しつつ、当該表示上の前記一部区間に相当する範囲が識別可能な表示態様で表示されるので、つまり、一部区間に相当する範囲は、音楽コンテンツデータの利用したい音楽的な属性と別の属性を表示したものの上に、識別可能な表示態様で表示されるので、ユーザは、設定された範囲情報が音楽コンテンツデータのどの部分かを一目で確認することができる。   According to the second aspect of the present invention, the display corresponding to the partial section on the display can be identified while displaying the second attribute information over a wider section including the partial section. Since it is displayed in a mode, that is, a range corresponding to a partial section is displayed in a discriminable display mode on top of what is displayed as a different attribute from the musical attribute of the music content data, The user can confirm at a glance which part of the music content data the set range information is.

請求項3に記載の発明によれば、前記表示に加えてさらに、前記一部区間に対応する第1小表示と、前記時系列被適用情報に対応する第2小表示とが表示され、部分属性を時系列被適用情報に適用する場合、ユーザによって所定の操作がなされた第1および第2小表示にそれぞれ対応するものについてなされるので、つまり、部分属性を時系列被適用情報に適用する場合、ユーザは適用したいものに対応する第1および第2小表示に所定の操作を行うだけでよいので、部分属性を時系列被適用情報に適用する際の操作性が向上するとともに、視覚的に分かり易く間違えのない操作が可能になる。   According to the invention described in claim 3, in addition to the display, a first small display corresponding to the partial section and a second small display corresponding to the time-series applied information are further displayed, When applying an attribute to time-series applied information, since it is made for each corresponding to the first and second small displays that have been subjected to a predetermined operation by the user, that is, the partial attribute is applied to the time-series applied information. In this case, since the user only needs to perform a predetermined operation on the first and second small displays corresponding to the one to be applied, the operability when applying the partial attribute to the time-series applied information is improved, and the visual This makes it easy to understand and correct operations.

請求項4に記載の発明によれば、前記表示に加えてさらに、前記第1属性情報および/または前記第2属性情報が時間的に拡大して表示され、前記一部区間は、前記拡大表示に対するユーザ操作に応じて変動するので、特にタッチパネルディスプレイ上に表示されたUI(user interface)を指で操作することで一部区間を変動させる場合、操作がし易く、操作ミスを減少させることができる。   According to the invention described in claim 4, in addition to the display, the first attribute information and / or the second attribute information is further enlarged in time, and the partial section is displayed in the enlarged display. Therefore, when a part of the section is changed by operating a user interface (UI) displayed on the touch panel display with a finger, it is easy to operate and operation errors can be reduced. it can.

本発明の一実施の形態に係る音楽データ生成装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a music data generation device according to an embodiment of the present invention. 図1の音楽データ生成装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the music data generation apparatus of FIG. 図1中のタッチパネルディスプレイ上に表示された画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the touchscreen display in FIG. 図1の音楽データ生成装置、特にCPUが実行するメインルーチンの手順を示すフローチャートである。2 is a flowchart showing a procedure of a main routine executed by the music data generating device of FIG. 1, particularly a CPU. 図4中の範囲情報設定&適用処理の詳細な手順を示すフローチャートである。5 is a flowchart showing a detailed procedure of range information setting & application processing in FIG. 4.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る音楽データ生成装置100の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of a music data generating apparatus 100 according to an embodiment of the present invention.

同図に示すように、音楽データ生成装置100は、各種情報を入力するための複数のスイッチを含む設定操作子1と、音楽データ生成用のGUI(graphical user interface)を含む各種UI(user interface)を表示するとともに、ユーザが表示された各種UIを、たとえば指で触れることで各種情報を入力するタッチパネルディスプレイ(以下、「タッチパネル」と略して言う)2と、設定操作子1の操作状態を検出する検出回路3と、ユーザによるタッチパネル2上の操作位置や操作圧力などの押圧操作を検出する検出回路4と、上記各種UIをタッチパネル2上に表示させる表示回路5と、装置全体の制御を司るCPU6と、該CPU6が実行する制御プログラムや、各種テーブルデータ等を記憶するROM7と、各種入力情報および演算結果等を一時的に記憶するRAM8と、前記制御プログラムを含む各種アプリケーションプログラムや各種データ等を記憶する記憶装置9と、図示しない外部機器を接続し、この外部機器とデータの送受信を行う通信インターフェース(I/F)10と、前記GUIを用いて生成された音楽データを再生して得られた演奏情報等を楽音信号に変換するとともに、その楽音信号に各種効果を付与するための音源・効果回路11と、該音源・効果回路11からの楽音信号を音響に変換する、たとえば、DAC(digital-to-analog converter)やアンプ、スピーカ等のサウンドシステム12とにより構成されている。   As shown in the figure, the music data generating apparatus 100 includes a setting operator 1 including a plurality of switches for inputting various information, and various UIs (user interface) including a GUI (graphical user interface) for generating music data. ) And a touch panel display (hereinafter abbreviated as “touch panel”) 2 for inputting various information by touching various UIs displayed by the user with, for example, a finger, and an operation state of the setting operator 1 A detection circuit 3 for detecting, a detection circuit 4 for detecting a pressing operation such as an operation position or an operation pressure on the touch panel 2 by a user, a display circuit 5 for displaying the various UIs on the touch panel 2, and control of the entire apparatus. The CPU 6 that controls it, the ROM 7 that stores the control program executed by the CPU 6, various table data, and the like, various input information, calculation results, etc. A RAM 8 that temporarily stores, a storage device 9 that stores various application programs including the control program, various data, and the like, and an external device (not shown), and a communication interface (I / O) that transmits / receives data to / from the external device. F) 10 and a sound source / effect circuit 11 for converting performance information obtained by reproducing the music data generated using the GUI into a musical sound signal and for applying various effects to the musical sound signal, The sound signal from the sound source / effect circuit 11 is converted into sound, and is composed of a sound system 12 such as a DAC (digital-to-analog converter), an amplifier, and a speaker.

上記構成要素3〜11は、バス13を介して相互に接続され、音源・効果回路11にはサウンドシステム12が接続されている。   The components 3 to 11 are connected to each other via a bus 13, and a sound system 12 is connected to the sound source / effect circuit 11.

タッチパネル2は、本実施の形態では、小型のものを採用している。これは、音楽データ生成装置100は、掌に載せて片手で操作可能な小型の携帯端末(具体的には、汎用のスレートPC(slate PC)やスマートフォン(smartphone)など)を想定しているからである。もちろん、音楽データ生成装置としては、小型の携帯端末に限らず、汎用のPC(パーソナルコンピュータ)を採用してもよい。この場合には、タッチパネルは通常、大型のものが採用される。   The touch panel 2 is a small touch panel in the present embodiment. This is because the music data generation device 100 assumes a small portable terminal (specifically, a general-purpose slate PC, a smartphone, or the like) that can be placed on the palm and operated with one hand. It is. Of course, the music data generation device is not limited to a small portable terminal, and a general-purpose PC (personal computer) may be employed. In this case, a large touch panel is usually adopted.

記憶装置9は、たとえば、フレキシブルディスク(FD)、ハードディスク(HD)、CD−ROM、DVD(digital versatile disc)、光磁気ディスク(MO)および半導体メモリなどの記憶媒体とその駆動装置である。記憶媒体は、駆動装置から着脱可能であってもよいし、記憶装置9自体が、音楽データ生成装置100から着脱可能であってもよい。あるいは、記憶媒体も記憶装置9も着脱不可能であってもよい。なお、記憶装置9(の記憶媒体)には、前述のように、CPU6が実行する制御プログラムも記憶でき、ROM7に制御プログラムが記憶されていない場合には、この記憶装置9に制御プログラムを記憶させておき、それをRAM8に読み込むことにより、ROM7に制御プログラムを記憶している場合と同様の動作をCPU6にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。   The storage device 9 is, for example, a storage medium such as a flexible disk (FD), a hard disk (HD), a CD-ROM, a DVD (digital versatile disc), a magneto-optical disk (MO), and a semiconductor memory, and a driving device thereof. The storage medium may be removable from the drive device, or the storage device 9 itself may be removable from the music data generating device 100. Alternatively, neither the storage medium nor the storage device 9 may be detachable. As described above, the storage device 9 (the storage medium) can also store the control program executed by the CPU 6. If the control program is not stored in the ROM 7, the control program is stored in the storage device 9. By reading it into the RAM 8, it is possible to cause the CPU 6 to perform the same operation as when the control program is stored in the ROM 7. In this way, control programs can be easily added and upgraded.

通信I/F10としては、たとえば、MIDI(musical instrument digital interface)信号などの音楽信号を専用に送受信する音楽専用有線I/F、USB(universal serial bus)やIEEE1394などの汎用近距離有線I/F、Ethernet(登録商標)などの汎用ネットワークI/F、無線LAN(local area network)やBluetooth(登録商標)などの汎用近距離無線I/F、デジタル電話回線網用の通信I/Fを挙げることができる。本実施の形態では、通信I/F10として、デジタル電話回線網用および/または無線LAN用の通信I/Fを採用している。   As the communication I / F 10, for example, a dedicated music I / F for transmitting and receiving music signals such as MIDI (musical instrument digital interface) signals, and a general-purpose short-distance wired I / F such as USB (universal serial bus) and IEEE1394. And general-purpose network I / F such as Ethernet (registered trademark), general-purpose short-range wireless I / F such as wireless LAN (local area network) and Bluetooth (registered trademark), and communication I / F for digital telephone network Can do. In this embodiment, a communication I / F for a digital telephone network and / or a wireless LAN is employed as the communication I / F 10.

音源・効果回路11は、音源LSI(large scale integrated circuit)やDSP(digital signal processor)(+マイクロプログラム)などで構成される。音源LSIは、MIDIデータのような演奏イベントを変換し、オーディオデータ列をストリームとして生成する。また、DSPは、記憶装置9内のオーディオファイルをデコードし、オーディオデータ列をストリームとして生成したり、そのストリームや音源LSIによって生成された上記ストリームに対してミキシングや各種効果付与を行ったりするなどの信号処理を実行する。このように本実施の形態では、音源・効果回路11は、ハードウェアのみによって楽音信号を生成し、これに各種効果を付与するものを想定しているが、これに限らず、ソフトウェア処理のみによって楽音信号を生成し、これに各種効果を付与するものであってもよいし、ハードウェアとソフトウェアで処理を分担するようなものでもよい。   The sound source / effect circuit 11 includes a sound source LSI (large scale integrated circuit), a DSP (digital signal processor) (+ microprogram), and the like. The tone generator LSI converts a performance event such as MIDI data and generates an audio data string as a stream. Further, the DSP decodes the audio file in the storage device 9 and generates an audio data string as a stream, or performs mixing and applying various effects to the stream and the stream generated by the sound source LSI. The signal processing is executed. As described above, in the present embodiment, the sound source / effect circuit 11 is assumed to generate a musical sound signal only by hardware and give various effects thereto, but this is not restrictive, and only by software processing. A musical tone signal may be generated and various effects may be imparted thereto, or processing may be shared between hardware and software.

なお本実施の形態では、音楽データ生成装置100の形態として、上述のようにタッチパネル2を備えた汎用のスレートPCやスマートフォンを想定しているが、タッチパネル形式でない通常のLCD(liquid crystal display)やLED(light emitting diode)と物理的な操作子を備えたハードウェア構成としてもよい。   In the present embodiment, a general-purpose slate PC or smartphone equipped with the touch panel 2 as described above is assumed as the form of the music data generating device 100. However, a normal LCD (liquid crystal display) or non-touch panel type is used. A hardware configuration including an LED (light emitting diode) and a physical operator may be used.

図2は、音楽データ生成装置100の機能構成を示すブロック図である。   FIG. 2 is a block diagram showing a functional configuration of the music data generation device 100.

同図に示すように、音楽データ生成装置100は主として、コンテンツ再生部100a、第1属性情報抽出部100b、第1属性情報取得部100c、範囲情報取得部100d、提示部100e、編集部100f、アイコン制御部100g、適用部100hおよび演奏部100iによって構成されている。各部100a〜100iは、前記CPU6、ROM7およびRAM8によって構成され、CPU6が後述する図4のメインルーチンを実行することによって実現される。   As shown in the figure, the music data generating apparatus 100 mainly includes a content reproduction unit 100a, a first attribute information extraction unit 100b, a first attribute information acquisition unit 100c, a range information acquisition unit 100d, a presentation unit 100e, an editing unit 100f, The icon control unit 100g, the application unit 100h, and the performance unit 100i are included. Each part 100a-100i is comprised by said CPU6, ROM7, and RAM8, and is implement | achieved when CPU6 performs the main routine of FIG. 4 mentioned later.

各部100a〜100iによって実行される制御処理の詳細は、図4および図5に基づいて後述するので、ここでは、RAM8と記憶装置9に記憶されるデータについて説明する。図2中、80番台の符号が付けられた破線のブロックが、RAM8に記憶されるデータを示し、90番台の符号が付けられた実線のブロックが、記憶装置9に記憶されるデータを示している。破線のブロックで示されるデータはいずれも、本制御処理(本願のアプリケーション)によって一から作成されるものである。実線のブロックで示されるデータのうち、他のアプリケーションソフトウェアのコンテンツライブラリ90と被適用情報(セクション)92は、予め記憶装置9に記憶されているものである。それ以外の実線のブロックで示されるデータは、本制御処理(本願のアプリケーション)によって一から作成されるものである。   Details of the control processing executed by each of the units 100a to 100i will be described later with reference to FIGS. 4 and 5, and data stored in the RAM 8 and the storage device 9 will be described here. In FIG. 2, a broken-line block with a number of 80s indicates data stored in the RAM 8, and a solid-line block with a number of 90s indicates data stored in the storage device 9. Yes. All the data indicated by the broken line blocks are created from scratch by the present control process (application of the present application). Among the data indicated by the solid line blocks, the content library 90 and applicable information (section) 92 of other application software are stored in the storage device 9 in advance. The other data indicated by the solid line blocks are created from scratch by this control process (application of the present application).

コンテンツライブラリ90には、図示例では、#1コンテンツ90a〜#3コンテンツ90cの3種類が登録されている。コンテンツ90a〜90cはいずれも、時系列のオーディオデータによって構成されているが、データ形式は、オーディオ形式に限られる訳ではない。コンテンツ90a〜90cは、第1属性情報(本実施の形態では、コード進行)を抽出する基になるものであり、本実施の形態では、このような基になるデータとして、音楽データ生成装置100の内部に記憶されたものを用いているが、これに限らず、音楽データ生成装置100の外部、たとえばインターネット上のサーバコンピュータから取得するようにしてもよい。   In the content library 90, three types of # 1 content 90a to # 3 content 90c are registered in the illustrated example. The contents 90a to 90c are all composed of time-series audio data, but the data format is not limited to the audio format. The contents 90a to 90c are a basis for extracting the first attribute information (in the present embodiment, chord progression). In the present embodiment, the music data generating apparatus 100 is used as such a base data. However, the present invention is not limited to this, and may be acquired from the outside of the music data generating apparatus 100, for example, from a server computer on the Internet.

範囲情報は、本実施の形態では、抽出された第1属性情報(コード進行)におけるある範囲の開始位置と、そこから終了位置までの長さとを示す情報である。このように範囲情報は、あるコード進行の一部の範囲を示すので、範囲がどこからどこまでかの情報しか表現していないとは言え、コード進行の一部を構成している、いくつかのコードの集合(セット)を間接的に示している。このため、図2中では、範囲情報(コードセット)と記載されている。なお範囲情報のデータ形式は、開始位置と長さに限らず、開始位置と終了位置であってもよい。   In the present embodiment, the range information is information indicating the start position of a certain range in the extracted first attribute information (chord progression) and the length from the start position to the end position. In this way, the range information indicates a range of a part of a chord progression, so some chords that make up a part of the chord progression, even though the range represents only the information from where to where. It indirectly indicates a set. For this reason, in FIG. 2, it is described as range information (code set). The data format of the range information is not limited to the start position and length, and may be a start position and an end position.

被適用情報(セクション)92は、範囲情報(コードセット)が適用されるものである。この適用後は、加工された被適用情報(セクション)85になる。被適用情報(セクション)92は、本実施の形態では、SMF(Standard MIDI File)のような形式の演奏データであり、たとえば、4小節長で、複数のパートからなり、各パートは演奏データを持つとともに、楽器音色が割り当てられる。演奏データは、音高を持つノートのオン/オフイベント情報をイベント間の時間を表すデルタタイム情報とともに持つ。このような被適用情報(セクション)92に範囲情報(コードセット)が適用されると、セクションを構成する演奏データの音高を、コードセット(コード進行の一部)に合致するように加工される。加工されたセクションは、後述するように、所定のテンポで繰り返し再生して楽しむことができる。   Information to be applied (section) 92 is information to which range information (code set) is applied. After this application, the processed application information (section) 85 is obtained. In the present embodiment, the applicable information (section) 92 is performance data in a format such as SMF (Standard MIDI File). For example, the applicable information (section) 92 has a four-measure length and includes a plurality of parts. The instrument tone color is assigned. The performance data includes note on / off event information having a pitch together with delta time information representing the time between events. When range information (chord set) is applied to such applicable information (section) 92, the pitch of the performance data constituting the section is processed to match the chord set (part of chord progression). The The processed section can be repeatedly reproduced and enjoyed at a predetermined tempo as will be described later.

第2属性情報(波形画像)80は、コンテンツ90a〜90c(のうちの選択された1つ)から生成した第2属性情報(本実施の形態では、波形画像)である。   The second attribute information (waveform image) 80 is second attribute information (a waveform image in the present embodiment) generated from the contents 90a to 90c (one selected among them).

コード進行画像81は、後述する図3の表示領域23に表示するために作成されたものであり、波形拡大画像82は、図3の表示領域24に表示するために作成されたものである。   The chord progression image 81 is created for display in the display area 23 of FIG. 3 to be described later, and the enlarged waveform image 82 is created for display in the display area 24 of FIG.

また、コードセットアイコン83a〜83cは、図3の表示領域25に表示するために作成されたものであり、セクションアイコン84a〜84cは、図3の表示領域26に表示するために作成されたものである。なお図3の表示領域26には、セクションアイコン26a〜26eの5つが表示され、図2には、セクションアイコン84a〜84cの3つが描かれ、アイコンの個数が異なっているが、これは、図2を描き易くするために便宜上そうしているに過ぎない。つまり、表示領域26に表示されている個数分のアイコンがRAM8内にも生成されていることは、言うまでもない。   Further, the code set icons 83a to 83c are created for display in the display area 25 of FIG. 3, and the section icons 84a to 84c are created for display in the display area 26 of FIG. It is. In the display area 26 of FIG. 3, five section icons 26a to 26e are displayed. In FIG. 2, three section icons 84a to 84c are drawn, and the number of icons is different. This is only done for convenience to make 2 easier to draw. That is, it goes without saying that the same number of icons displayed in the display area 26 are also generated in the RAM 8.

以上のように構成された音楽データ生成装置100が実行する制御処理を、まず図3を参照してその概要を説明し、次に図4および図5を参照して詳細に説明する。   A control process executed by the music data generating apparatus 100 configured as described above will be described first with reference to FIG. 3, and then described in detail with reference to FIGS.

図3は、タッチパネル2上に表示された画面の一例を示す図であり、同図の表示画面20は、後述する図4の第1属性情報抽出&(および)記憶処理(ステップS2)が実行されたときのものである。   FIG. 3 is a diagram showing an example of a screen displayed on the touch panel 2. The display screen 20 in FIG. 3 is subjected to first attribute information extraction & (and) storage processing (step S2) in FIG. 4 to be described later. It is when it was done.

表示画面20の表示領域22には、コンテンツ90a〜90cからユーザによって選択された1つのコンテンツ、たとえば#1コンテンツ90aに基づいて作成された第2属性情報(波形画像)80(図2参照)が表示され、その波形上に、範囲情報91a1〜91a3によって示される各範囲を示す枠22a〜22cが表示され、さらに現在選択されている枠22aの内部の表示態様が変更されて表示される。図示例では、表示態様の変更を「斜線」で表現しているが、これは図面の描き易さを考慮してそうしているに過ぎず、実際には枠内部の色を変更している。もちろん、表示態様の変更は「色」や「斜線」に限らず、他の枠と区別できるものであれば、どのような態様を採用してもよい。   In the display area 22 of the display screen 20, second content information (waveform image) 80 (see FIG. 2) created based on one content selected by the user from the content 90a to 90c, for example, the # 1 content 90a. The frames 22a to 22c indicating the respective ranges indicated by the range information 91a1 to 91a3 are displayed on the waveform, and the display mode inside the currently selected frame 22a is changed and displayed. In the example shown in the figure, the change of the display mode is expressed by “diagonal lines”, but this is only done in consideration of the drawing ease of drawing, and the color inside the frame is actually changed. . Of course, the display mode is not limited to “color” or “slashed line”, and any mode can be adopted as long as it can be distinguished from other frames.

表示領域23には、コード進行画像81が表示され、表示領域24には、波形拡大画像82が表示される。コード進行画像81は、選択枠22aおよびその近傍のコード進行を拡大表示したものであり、波形拡大画像82は、選択枠22aおよびその近傍の波形画像を拡大表示したものである。   A chord progression image 81 is displayed in the display area 23, and a waveform enlarged image 82 is displayed in the display area 24. The chord progression image 81 is an enlarged display of the chord progression in the selection frame 22a and its vicinity, and the waveform enlargement image 82 is an enlargement display of the selection frame 22a and the waveform image in the vicinity thereof.

また、表示領域25には、コードセットアイコン25a〜25cが表示され、表示領域26には、セクションアイコン26a〜26eが表示される。コードセットアイコン25aは、現在選択中であることが分かるようにハイライト表示されている。   In addition, code set icons 25 a to 25 c are displayed in the display area 25, and section icons 26 a to 26 e are displayed in the display area 26. The code set icon 25a is highlighted so that it can be seen that it is currently selected.

選択中の#1コンテンツ90aは、再生することができる。再生開始は、表示領域21に表示された再生ボタン21aをタッチすることで指示し、再生停止は、再生中に再生ボタン21aをタッチすることで指示する。再生位置はバーCP(表示領域23,24では、バーCP′)によって示される。バーCPは(バーCP′も)ドラッグにより移動させることができ、これにより再生位置を変更することができる。   The selected # 1 content 90a can be reproduced. The playback start is instructed by touching the playback button 21a displayed in the display area 21, and the playback stop is instructed by touching the playback button 21a during playback. The reproduction position is indicated by a bar CP (in the display areas 23 and 24, the bar CP ′). The bar CP (also the bar CP ′) can be moved by dragging, thereby changing the reproduction position.

このように再生音を聞くなどして、適用したい範囲情報(コードセット)と被適用情報(セクション)が決まると、ユーザは、適用したい範囲情報(コードセット)を示すコードセットアイコン(コードセットアイコン25a〜25cのうちのいずれか)をドラッグして、目的の被適用情報(セクション)を示すセクションアイコン(セクションアイコン26a〜26eのうちのいずれか)の上に持って行き、そこでドロップする。これにより、目的の範囲情報(コードセット)が目的の被適用情報(セクション)に適用されて、加工された被適用情報(セクション)が生成される。図示例では、セクションアイコン26dがハイライト表示されているが、このハイライト表示は、試聴された被適用情報(セクション)のうち、最後に試聴されたものであることを意味している。セクションアイコン26a〜26eに対応付けられた各被適用情報(セクション)は、対応するアイコンをタップ操作することで、試聴できるようになっている。試聴のための再生中は、当該アイコンは明るくハイライト表示され、再生が停止された後も、薄くハイライト表示される。この薄くハイライト表示された状態が、図3のセクションアイコン26dの表示状態である。   When the range information (code set) and application target information (section) to be applied are determined by listening to the playback sound in this manner, the user can select a code set icon (code set icon) indicating the range information (code set) to be applied. Drag one of 25a to 25c) to the section icon (any one of the section icons 26a to 26e) indicating the target application information (section) and drop it there. Thereby, the target range information (code set) is applied to the target application information (section), and processed application information (section) is generated. In the illustrated example, the section icon 26d is highlighted, but this highlighted display means that it is the last auditioned information (section) to be auditioned. Each applicable information (section) associated with the section icons 26a to 26e can be auditioned by tapping the corresponding icon. During playback for trial listening, the icon is highlighted brightly, and even after playback is stopped, it is highlighted in a thin highlight. This thinly highlighted state is the display state of the section icon 26d in FIG.

また選択枠22aは、ユーザ操作に応じて、その範囲を拡大/(または)縮小することができる。拡大/縮小の指示は、表示領域23,24に表示されているインデクスIXをドラッグにより移動させて行う。拡大/縮小の単位は、本実施の形態では「拍」とするが、これに限られる訳ではない。選択枠22aの範囲が変動するに従って、選択枠22aを表示するための基になる#1−1範囲情報(コードセット)91a1も変更される。   The range of the selection frame 22a can be enlarged / (or) reduced according to a user operation. The enlargement / reduction instruction is given by dragging the index IX displayed in the display areas 23 and 24. The unit of enlargement / reduction is “beat” in the present embodiment, but is not limited to this. As the range of the selection frame 22a changes, the # 1-1 range information (code set) 91a1 that is the basis for displaying the selection frame 22a is also changed.

このように本実施の形態では、音楽コンテンツデータの連続する一部に、利用したい音楽的な属性がある場合、その一部を含むように範囲情報を設定するだけで、当該属性を取得でき、取得された属性を時系列被適用情報に適用することができるので、音楽コンテンツデータの特定部分についての音楽的な知識がないユーザでも、その特定部分の属性を用いて新たな音楽を創作することが可能となる。   As described above, in this embodiment, when there is a musical attribute to be used in a continuous part of the music content data, the attribute can be acquired only by setting range information so as to include the part, Since the acquired attributes can be applied to time-series applied information, even a user who does not have musical knowledge about a specific part of the music content data can create new music using the attribute of the specific part Is possible.

また、設定された範囲情報は、音楽コンテンツデータの前記利用したい音楽的な属性と別の属性を表示したものの上に、識別可能な表示態様で表示されるので、ユーザは、設定された範囲情報が音楽コンテンツデータのどの部分かを一目で確認することができる。   Moreover, since the set range information is displayed in an identifiable display form on the music content data on which the attribute different from the musical attribute that the user wants to use is displayed, the user can set the set range information. It is possible to confirm at a glance which part of the music content data is.

さらに、適用したい範囲情報(コードセット)を示すコードセットアイコン(コードセットアイコン25a〜25cのうちのいずれか)をドラッグして、目的の被適用情報(セクション)を示すセクションアイコン(セクションアイコン26a〜26eのうちのいずれか)の上に持って行き、そこでドロップするだけで、目的の範囲情報(コードセット)が目的の被適用情報(セクション)に適用されて、加工された被適用情報(セクション)が生成されるので、目的の範囲情報(コードセット)を目的の被適用情報(セクション)に適用する際の操作性が向上するとともに、視覚的に分かり易く間違えのない操作が可能になる。   Further, by dragging a code set icon (any one of the code set icons 25a to 25c) indicating range information (code set) to be applied, section icons (section icons 26a to 26a) indicating target application information (sections) are dragged. 26e) and then drop it there, the target range information (code set) is applied to the target application information (section), and the processed application information (section) ) Is generated, the operability when the target range information (code set) is applied to the target application information (section) is improved, and an operation that is easy to understand visually and without error is possible.

また、範囲情報は、拡大表示領域23,24に対する操作に応じて、その範囲の拡大/縮小を行うことができるので、特にタッチパネル2上に表示されたUIを指で操作することで一部区間を変動させる場合、操作がし易く、操作ミスを減少させることができる。   In addition, the range information can be enlarged / reduced in response to an operation on the enlarged display areas 23 and 24. Therefore, the range information can be obtained by operating the UI displayed on the touch panel 2 with a finger. When the distance is changed, it is easy to operate and operation errors can be reduced.

次に、この制御処理を詳細に説明する。   Next, this control process will be described in detail.

音楽データ生成装置100は、前述のように記憶装置9(およびROM7)内に各種アプリケーションを記憶し、ユーザがいずれかのアプリケーションを選択して起動指示すると、指示されたアプリケーションがRAM8内に読み出されて起動される。本制御処理も、このアプリケーションの1つであり、ユーザの起動指示に応じて起動される。   The music data generation device 100 stores various applications in the storage device 9 (and the ROM 7) as described above, and when the user selects one of the applications and gives an activation instruction, the designated application is read into the RAM 8. To be launched. This control process is also one of these applications, and is activated in response to a user activation instruction.

図4は、本制御処理のメインルーチンの手順を示すフローチャートであり、CPU6によって実行されるものである。   FIG. 4 is a flowchart showing the procedure of the main routine of this control process, which is executed by the CPU 6.

本メインルーチンは主として、第1属性情報抽出&記憶処理(ステップS2)と、範囲情報設定&適用処理(ステップS3)と、加工後被適用情報使用処理(ステップS4)とによって構成されている。   The main routine mainly includes a first attribute information extraction & storage process (step S2), a range information setting & application process (step S3), and a post-processing applied information use process (step S4).

本メインルーチンが初めて起動されると、タッチパネル2上には、第1属性情報抽出&記憶処理、範囲情報設定&適用処理および加工後被適用情報使用処理をそれぞれ選択するためのボタン(図示せず)が表示される。ユーザがいずれかのボタンをタッチすると、CPU6は、そのタッチ操作に応じた処理を判定し、判定した処理に移行させる。   When this main routine is started for the first time, buttons (not shown) on the touch panel 2 for selecting a first attribute information extraction & storage process, a range information setting & application process, and a post-processing applied information use process. ) Is displayed. When the user touches any button, the CPU 6 determines a process corresponding to the touch operation, and shifts to the determined process.

本メインルーチンは、一度起動すると、ユーザによる終了指示があるまで、繰り返し実行される。終了指示は、終了ボタン(図示せず)をタッチ操作することでなされる。   Once started, this main routine is repeatedly executed until an end instruction is given by the user. The end instruction is made by touching an end button (not shown).

第1属性情報抽出&記憶処理は、前記図2の第1属性情報抽出部100bが実行する処理に相当する。第1属性情報抽出部100bは、選択された音楽コンテンツ、つまり図2では#1コンテンツ90aから、その全体に亘る第1属性情報を抽出する。第1属性情報は、本実施の形態では、コード進行である。この抽出に際して第1属性情報抽出部100bは、拍情報や小節線情報も抽出する。抽出は、選択された音楽コンテンツに対する信号処理で行うことにするが、外部から与えられ(人が作成して入力したり、何らかの方法で作成されインターネットからダウンロードしたりし)てもよい。なお本発明の特徴は、音楽コンテンツから第1属性情報などを抽出する方法にある訳ではないので、抽出方法は、公知のものを使用すればよい。抽出された第1属性情報、つまり#1コンテンツ90a全体のコード進行は、当該コード進行の抽出元である音楽コンテンツを特定する情報(たとえば、音楽コンテンツのID+名称)が付与されて、前記記憶装置9に記憶される。#1第1属性情報(コード進行)91aは、#1コンテンツ90aから抽出され、記憶装置9に記憶されたコード進行を示している。また#2第1属性情報(コード進行)91bは、同様にして、#2コンテンツ90bから抽出され、記憶装置9に記憶されたコード進行を示している。なお“#1”および“#2”が、基のコンテンツ90aおよび90bにそれぞれ付与されたIDを示している。これにより、音楽コンテンツの記憶場所と第1属性情報(コード進行)の記憶場所が離れていても、対応するものを的確に見つけることができる。   The first attribute information extraction & storage process corresponds to the process executed by the first attribute information extraction unit 100b of FIG. The first attribute information extraction unit 100b extracts the first attribute information over the whole from the selected music content, that is, the # 1 content 90a in FIG. In the present embodiment, the first attribute information is a chord progression. In this extraction, the first attribute information extraction unit 100b also extracts beat information and bar line information. The extraction is performed by signal processing on the selected music content, but may be given from the outside (created and input by a person, or created by some method and downloaded from the Internet). Since the feature of the present invention is not in the method of extracting the first attribute information and the like from the music content, a known method may be used as the extraction method. The extracted first attribute information, that is, the chord progression of the entire # 1 content 90a is given information for identifying the music content from which the chord progression is extracted (for example, the ID + name of the music content), and the storage device 9 is stored. The # 1 first attribute information (chord progression) 91a indicates the chord progression extracted from the # 1 content 90a and stored in the storage device 9. Similarly, the # 2 first attribute information (chord progression) 91b indicates the chord progression extracted from the # 2 content 90b and stored in the storage device 9. Note that “# 1” and “# 2” indicate the IDs assigned to the base contents 90a and 90b, respectively. Thereby, even if the storage location of the music content is separated from the storage location of the first attribute information (chord progression), a corresponding one can be found accurately.

範囲情報設定&適用処理は、図2の第1属性情報取得部100c、範囲情報取得部100d、提示部100e、編集部100f、アイコン制御部100gおよび適用部100hが実行する処理に相当する。   The range information setting & application process corresponds to the process executed by the first attribute information acquisition unit 100c, the range information acquisition unit 100d, the presentation unit 100e, the editing unit 100f, the icon control unit 100g, and the application unit 100h in FIG.

図5は、本範囲情報設定&適用処理の詳細な手順を示すフローチャートであり、処理が本範囲情報設定&適用処理に進むと、まずCPU6は、ユーザ操作に応じてコンテンツを選択する(ステップS11)。具体的には、CPU6は、ユーザ操作に応じてメニュー画面を表示し、ユーザは各種メニューから「コンテンツ選択」を選択する。これにより、タッチパネル2上には、選択可能なコンテンツの(名称の)一覧が表示されるので、その一覧からユーザがいずれかのコンテンツ(の名称)をタッチして選択すると、CPU6は、当該コンテンツをRAM8に確保されたコンテンツ格納領域(図示せず)に格納する。これにより、目的のコンテンツが選択される。選択されるコンテンツは、本実施の形態では前述のように、時系列のオーディオデータである。   FIG. 5 is a flowchart showing a detailed procedure of the range information setting & application process. When the process proceeds to the range information setting & application process, the CPU 6 first selects content according to a user operation (step S11). ). Specifically, the CPU 6 displays a menu screen in response to a user operation, and the user selects “content selection” from various menus. As a result, a list of selectable contents (names) is displayed on the touch panel 2, and when the user touches and selects any content (name) from the list, the CPU 6 Are stored in a content storage area (not shown) secured in the RAM 8. Thereby, the target content is selected. In the present embodiment, the selected content is time-series audio data as described above.

次にCPU6は、選択されたコンテンツから、第2属性情報を作成して表示する(ステップS12)。このステップS12の処理は、提示部100eが実行する処理の一部に相当する。提示部100eは、選択された音楽コンテンツ、つまり図2では#1コンテンツ90aから、その全体に亘る第2属性情報を作成する。第2属性情報は、本実施の形態では波形画像である。提示部100eは、作成した第2属性情報(波形画像)80をRAM8に確保された第2属性情報格納領域(図示せず)に格納するとともに、前記表示回路5に転送する。これにより、図3の表示画面20の表示領域22には、第2属性情報(波形画像)80に対応する波形が表示される。   Next, the CPU 6 creates and displays second attribute information from the selected content (step S12). The process in step S12 corresponds to part of the process executed by the presentation unit 100e. The presentation unit 100e creates second attribute information over the entire music content, that is, the # 1 content 90a in FIG. The second attribute information is a waveform image in the present embodiment. The presenting unit 100e stores the created second attribute information (waveform image) 80 in a second attribute information storage area (not shown) secured in the RAM 8 and transfers it to the display circuit 5. As a result, a waveform corresponding to the second attribute information (waveform image) 80 is displayed in the display area 22 of the display screen 20 of FIG.

次にCPU6は、被適用情報に対応するアイコンを並べて表示する(図5のステップS13)とともに、範囲情報に対応するアイコンを並べて表示する(ステップS14)。このステップS13,S14の処理は、アイコン制御部100gが実行する処理に相当する。アイコン制御部100gは、選択中の第1属性情報、つまり図2では#1第1属性情報(コード進行)91aに対する範囲情報(コードセット)91a1〜91a3にそれぞれ対応するアイコン、つまりコードセットアイコン83a〜83cを生成し、RAM8に確保されたコードセットアイコン格納領域(図示せず)に格納するとともに、被適用情報(セクション)92にそれぞれ対応するアイコン、つまりセクションアイコン84a〜84cをRAM8に確保されたセクションアイコン格納領域(図示せず)に格納する。コードセットアイコン83a〜83cは選択可能に構成されているので、アイコン制御部100gは、コードセットアイコン格納領域に格納されているコードセットアイコン83a〜83cのうち、現在選択中のコードセットアイコンに対してハイライト表示するとともに、当該コードセットアイコンとセクションアイコンがどれであるかの情報を適用部100hに供給する。ハイライト表示は、本実施の形態では、当該アイコン枠を他のアイコン枠より太くする表示態様を採用しているが、これに限らず、当該アイコンの背景色や形状を変更するようにしてもよい。要するに、選択中のアイコンと非選択中のアイコンとが分かる表示態様であれば、どのようなハイライト表示を採用してもよい。このようにしてハイライト表示の施されたコードセットアイコンを含む、コードセットアイコン格納領域およびセクションアイコン格納領域にそれぞれ格納されたコードセットアイコン83a〜83cおよびセクションアイコン84a〜84cは、表示回路5に転送される。   Next, the CPU 6 displays icons corresponding to the application information side by side (step S13 in FIG. 5) and displays icons corresponding to the range information side by side (step S14). The processing in steps S13 and S14 corresponds to processing executed by the icon control unit 100g. The icon control unit 100g corresponds to the first attribute information being selected, that is, the icons corresponding to the range information (code set) 91a1 to 91a3 for the # 1 first attribute information (chord progression) 91a in FIG. 2, that is, the code set icon 83a. To 83c are generated and stored in a code set icon storage area (not shown) secured in the RAM 8, and icons corresponding to the application target information (section) 92, that is, section icons 84a to 84c are secured in the RAM 8. Stored in a section icon storage area (not shown). Since the code set icons 83a to 83c are configured to be selectable, the icon control unit 100g selects the code set icon currently selected from the code set icons 83a to 83c stored in the code set icon storage area. And the information indicating which of the code set icon and the section icon is supplied to the application unit 100h. In this embodiment, the highlight display employs a display mode in which the icon frame is thicker than other icon frames. However, the present invention is not limited to this, and the background color or shape of the icon may be changed. Good. In short, any highlight display may be adopted as long as it is a display mode in which the selected icon and the non-selected icon can be understood. The code set icons 83a to 83c and the section icons 84a to 84c stored in the code set icon storage area and the section icon storage area, respectively, including the code set icon highlighted in this way, are displayed on the display circuit 5. Transferred.

これにより、図3の表示画面20に示すように、表示領域25にコードセットアイコン25a〜25cが表示されるとともに、表示領域26にセクションアイコン26a〜26cが表示される(ただし図3の表示領域26には、5つのセクションアイコン26a〜26eが表示されている)。そして、選択中のコードセットアイコン25aがハイライト表示される。また、表示領域25には、選択中のコードセットアイコン25aに対応する範囲情報が示す小節長(“2”)の表示領域(“MEASURE LENGTH”)251も設けられ、表示領域26には、当該範囲情報が示すコードセットのうちの先頭のコード(“Csus4 on G”)の表示領域261も設けられている。   Thereby, as shown in the display screen 20 of FIG. 3, the code set icons 25a to 25c are displayed in the display area 25 and the section icons 26a to 26c are displayed in the display area 26 (however, the display area of FIG. 3). 26, five section icons 26a to 26e are displayed). The currently selected code set icon 25a is highlighted. The display area 25 is also provided with a display area (“MEASURE LENGTH”) 251 of the bar length (“2”) indicated by the range information corresponding to the currently selected code set icon 25a. A display area 261 of the first code (“Csus4 on G”) in the code set indicated by the range information is also provided.

図5に戻り、CPU6は、第2属性情報の、範囲情報に対応する部分属性を別態様で表示する(ステップS15)。このステップS15の処理は、提示部100eが実行する処理の一部に相当する。提示部100eは、この処理を範囲情報取得部100dから供給される情報に基づいて実行するので、提示部100eが実行するこの処理を説明する前に、範囲情報取得部100dが実行する処理を説明する。範囲情報取得部100dは、選択された第1属性情報、つまり図2では#1第1属性情報(コード進行)91aについて、ユーザが指定した連続する一部範囲を示す範囲情報91a1〜91a3(この範囲情報は、ユーザの指定に応じて単数の場合も複数の場合もあるが、図示例では、3範囲指定された場合が示されている)からユーザによって選択されたもの(図示例では、#1−1範囲情報(コードセット)91a1が選択されている)を取得して、提示部100eに供給する。なお#2第1属性情報(コード進行)91bについては、範囲情報として、2範囲指定されたもの91b1および91b2が示されている。   Returning to FIG. 5, the CPU 6 displays the partial attribute of the second attribute information corresponding to the range information in a different manner (step S <b> 15). The process in step S15 corresponds to part of the process executed by the presentation unit 100e. Since the presenting unit 100e executes this process based on the information supplied from the range information acquiring unit 100d, the process performed by the range information acquiring unit 100d will be described before describing this process performed by the presenting unit 100e. To do. The range information acquisition unit 100d selects range information 91a1 to 91a3 (this information indicating continuous partial ranges designated by the user) for the selected first attribute information, that is, the # 1 first attribute information (chord progression) 91a in FIG. The range information may be singular or plural depending on the user's designation, but in the illustrated example, the case where three ranges are designated is selected) (in the illustrated example, # 1-1 range information (code set) 91a1 is selected) and is supplied to the presentation unit 100e. As for # 2 first attribute information (chord progression) 91b, two ranges designated 91b1 and 91b2 are shown as range information.

提示部100eは、範囲情報取得部100dから供給された範囲情報91a1〜91a3に基づいて、第2属性情報格納領域に格納されている第2属性情報(波形画像)80に、範囲情報91a1〜91a3によって示される各範囲の枠の画像を重ねるとともに、その枠のうち、現在選択されている枠の内部の表示態様を変更する。このように加工された第2属性情報(波形画像)は、前記表示回路5に転送される。これにより、図3の表示画面20の表示領域22には、第2属性情報(波形画像)80に対応する波形上に各範囲を示す枠22a〜22cが表示され、さらに枠22aの内部の表示態様が変更されて表示される。   The presentation unit 100e adds range information 91a1 to 91a3 to the second attribute information (waveform image) 80 stored in the second attribute information storage area based on the range information 91a1 to 91a3 supplied from the range information acquisition unit 100d. The images of the frames in the respective ranges indicated by are overlapped, and the display mode inside the currently selected frame is changed among the frames. The second attribute information (waveform image) processed in this way is transferred to the display circuit 5. As a result, in the display area 22 of the display screen 20 of FIG. 3, frames 22a to 22c indicating the respective ranges are displayed on the waveform corresponding to the second attribute information (waveform image) 80, and the display inside the frame 22a is further displayed. The mode is changed and displayed.

次にCPU6は、ユーザ操作に応じて、選択されたコンテンツについて、再生、停止、再生位置変更を指示する(ステップS16)。このステップS16の処理は、コンテンツ再生部100aに指示する処理に相当する。コンテンツ再生部100aは、CPU6からの指示に応じた処理を実行する。なおコンテンツ再生部100aは、本実施の形態では、他のアプリケーションソフトウェアのコンテンツライブラリ90に登録された各種音楽コンテンツ(図示例では、#1コンテンツ90a〜#3コンテンツ90cの3種類)からユーザによって選択されたもの(図示例では、#1コンテンツ90aが選択されている)を再生する。   Next, in response to a user operation, the CPU 6 instructs the selected content to be reproduced, stopped, and changed in reproduction position (step S16). The processing in step S16 corresponds to processing for instructing the content reproduction unit 100a. The content reproduction unit 100a executes a process according to an instruction from the CPU 6. In the present embodiment, the content playback unit 100a is selected by the user from various music contents (in the example shown, three types # 1 content 90a to # 3 content 90c) registered in the content library 90 of other application software. Is reproduced (in the example shown, # 1 content 90a is selected).

次にCPU6は、ユーザ操作に応じて、対象とする範囲情報を決めるとともに、選択されたコンテンツから作成した第2属性情報および第1属性情報の、範囲情報に相当する部分を拡大表示する(ステップS17)。このステップS17の処理は、編集部100fが実行する処理の一部に相当する。編集部100fは、範囲情報の編集、つまり拡大/縮小が指示されないときでも範囲情報が選択されれば、選択された範囲情報に基づいてコード進行画像と波形拡大画像を生成し、RAM8に確保されたコード進行画像格納領域および波形拡大画像格納領域(ともに図示せず)にそれぞれ格納する。コード進行画像(と波形拡大画像)を生成するとき、編集部100fは、選択された範囲情報を直接参照して生成するが、範囲情報は、前述のように、当該範囲の開始位置と長さを示すものであるため、これを参照するだけではコード進行画像を生成することはできない。つまり、第1属性情報取得部100cによって取得されている第1属性情報も参照する必要がある。第1属性情報取得部100cは、記憶装置9に記憶された各種第1属性情報、つまり図2では#1および#2第1属性情報(コード進行)91aおよび91bからユーザによって選択されたもの(図示例では、#1第1属性情報(コード進行)91aが選択されている)を取得して、たとえばRAM8に確保された第1属性情報格納領域(図示せず)に格納する。したがって、編集部100fは、第1属性情報格納領域に格納されている#1第1属性情報(コード進行)91aのうち、選択された範囲情報が示す範囲の一部のコード進行を取得し、これに基づいてコード進行画像を生成する。なお第1属性情報取得部100cは、取得した第1属性情報を適用部100hに供給する機能も営んでいる。コード進行画像格納領域および波形拡大画像格納領域に格納されたコード進行画像81および波形拡大画像82は、表示回路5に転送される。   Next, the CPU 6 determines target range information according to a user operation, and enlarges and displays a portion corresponding to the range information of the second attribute information and the first attribute information created from the selected content (step). S17). The process in step S17 corresponds to part of the process executed by the editing unit 100f. The editing unit 100f generates a chord progression image and a waveform enlarged image based on the selected range information, and is secured in the RAM 8 if the range information is selected even when editing of the range information, that is, enlargement / reduction is not instructed. The chord progression image storage area and the waveform enlarged image storage area (both not shown) are stored. When generating the chord progression image (and the enlarged waveform image), the editing unit 100f generates the chord progression image by directly referring to the selected range information. The range information is, as described above, the start position and length of the range. Therefore, it is not possible to generate a chord progression image simply by referring to this. That is, it is necessary to refer to the first attribute information acquired by the first attribute information acquisition unit 100c. The first attribute information acquisition unit 100c is selected by the user from various first attribute information stored in the storage device 9, that is, in FIG. 2, # 1 and # 2 first attribute information (chord progression) 91a and 91b ( In the illustrated example, # 1 first attribute information (chord progression) 91a is selected) and stored in a first attribute information storage area (not shown) secured in the RAM 8, for example. Therefore, the editing unit 100f acquires a part of the chord progression in the range indicated by the selected range information from the # 1 first attribute information (chord progression) 91a stored in the first attribute information storage area, Based on this, a chord progression image is generated. The first attribute information acquisition unit 100c also has a function of supplying the acquired first attribute information to the application unit 100h. The chord progression image 81 and the magnified waveform image 82 stored in the chord progression image storage area and the waveform enlargement image storage area are transferred to the display circuit 5.

これにより、図3の表示画面20に示すように、当該範囲情報によって示される範囲およびその近傍のコード進行画像および波形拡大画像がそれぞれ、表示領域23および24に表示される。図示例では、選択中の範囲情報は、枠22aで示される#1−1範囲情報(コードセット)91a1(図2参照)であり、2小節長に相当する。これに対して、表示領域23および24は、3小節長のコード進行画像および波形拡大画像を表示できるので、編集部100fは、選択中の範囲情報によって示される範囲を含む範囲のコード進行画像および波形拡大画像を生成する。一方、枠22bで示される#1−2範囲情報(コードセット)91a2が選択された場合には、当該範囲情報は4小節長に相当するので、当該範囲内のコード進行画像および波形拡大画像がそれぞれ、表示領域23および24に表示される。   Thereby, as shown in the display screen 20 of FIG. 3, the range indicated by the range information and the chord progression image and the waveform enlarged image in the vicinity thereof are displayed in the display areas 23 and 24, respectively. In the illustrated example, the selected range information is # 1-1 range information (code set) 91a1 (see FIG. 2) indicated by a frame 22a, which corresponds to a two-bar length. On the other hand, since the display areas 23 and 24 can display a chord progression image and a waveform enlarged image having a three-bar length, the editing unit 100f can display a chord progression image in a range including the range indicated by the selected range information and Generate an enlarged waveform image. On the other hand, when # 1-2 range information (code set) 91a2 indicated by the frame 22b is selected, the range information corresponds to a four-bar length, so that the chord progression image and the waveform enlarged image within the range are displayed. They are displayed in display areas 23 and 24, respectively.

次にCPU6は、ユーザ操作に応じて、範囲情報を修正するとともに、表示を更新する(ステップS18)。このステップS18の処理も、編集部100fが実行する処理の一部に相当する。ユーザが、現在選択中の範囲情報に対してその範囲の拡大/縮小を指示すると、編集部100fは、その指示に応じた範囲に拡大/縮小を行う。範囲情報が編集されると、編集部100fは、編集後の範囲情報に基づいてコード進行画像と波形拡大画像を生成し、RAM8に確保されたコード進行画像格納領域および波形拡大画像格納領域にそれぞれ格納する。コード進行画像格納領域および波形拡大画像格納領域に格納されたコード進行画像81および波形拡大画像82は、表示回路5に転送される。   Next, the CPU 6 corrects the range information and updates the display according to the user operation (step S18). The processing in step S18 also corresponds to part of the processing executed by the editing unit 100f. When the user instructs enlargement / reduction of the range for the currently selected range information, the editing unit 100f enlarges / reduces the range according to the instruction. When the range information is edited, the editing unit 100f generates a chord progression image and a waveform enlarged image based on the edited range information, and stores them in the chord progression image storage area and the waveform enlargement image storage area secured in the RAM 8, respectively. Store. The chord progression image 81 and the magnified waveform image 82 stored in the chord progression image storage area and the waveform enlargement image storage area are transferred to the display circuit 5.

次にCPU6は、ユーザ操作に応じて、範囲情報を被適用情報に適用し、被適用情報を加工する(ステップS19)。このステップS19の処理は、適用部100hが実行する処理に相当する。アイコン制御部100gから適用部100hに、ユーザ操作に応じてコードセットアイコンのいずれかがセクションアイコンのいずれかに重ねられたという情報が伝達されると、適用部100hは、当該コードセットを当該被適用情報(セクション)に適用する。より具体的には、今コードセットアイコン25aがドラッグ・アンド・ドロップによりセクションアイコン26dに重ねられたとする。コードセットアイコン25aは、#1−1範囲情報(コードセット)91a1に対応付けられるが、#1−1範囲情報(コードセット)91a1は、前述のように開始位置と長さしか示していないので、適用部100hは、対応するコード進行、つまり#1第1属性情報(コード進行)91aから当該範囲内のコードセット(コード進行の一部)を抽出する。このとき、セクションアイコン26dが選択されているので、適用部100hは、記憶装置9に記憶された各種被適用情報92から、セクションアイコン26dによって示されるものを取得する。そして適用部100hは、抽出されたコードセットを取得された被適用情報に適用して加工し、RAM8に確保された加工後被適用情報格納領域(図示せず)に格納する。このようにして、各種加工された被適用情報(セクション)85が作成されて、RAM8内に蓄えられる。   Next, the CPU 6 applies the range information to the application information in accordance with the user operation, and processes the application information (step S19). The process in step S19 corresponds to the process executed by the application unit 100h. When the information indicating that one of the code set icons is superimposed on one of the section icons is transmitted from the icon control unit 100g to the application unit 100h according to a user operation, the application unit 100h transmits the code set to the application unit 100h. Applies to application information (sections). More specifically, it is assumed that the code set icon 25a is now overlaid on the section icon 26d by drag and drop. The code set icon 25a is associated with # 1-1 range information (code set) 91a1, but the # 1-1 range information (code set) 91a1 indicates only the start position and length as described above. The application unit 100h extracts a chord set (part of chord progression) within the range from the corresponding chord progression, that is, # 1 first attribute information (chord progression) 91a. At this time, since the section icon 26d is selected, the application unit 100h acquires information indicated by the section icon 26d from the various pieces of applied information 92 stored in the storage device 9. The application unit 100h applies the extracted code set to the acquired application information, processes the code set, and stores it in a post-processing application information storage area (not shown) secured in the RAM 8. In this way, various processed application information (section) 85 is created and stored in the RAM 8.

次にCPU6は、ユーザ操作に応じて、セクションを再生する(ステップS20)。このステップS20の処理は、アイコン制御部100gが演奏部100iの機能を利用して実行される。具体的には、ユーザがセクションアイコン26a〜26eのうちのいずれか1つをタップ操作すると、CPU6は、当該タップ操作したセクションアイコンに対応する、加工された被適用情報(セクション)を繰り返し再生する。これにより、加工された被適用情報(セクション)を、後述する加工後被適用情報使用処理(図4のステップS4)で使用する前に、試聴することができる。   Next, the CPU 6 reproduces the section according to the user operation (step S20). The process of step S20 is executed by the icon control unit 100g using the function of the performance unit 100i. Specifically, when the user taps any one of the section icons 26a to 26e, the CPU 6 repeatedly reproduces the processed application information (section) corresponding to the section icon that has been tapped. . Thereby, the processed application information (section) can be auditioned before being used in the post-processing application information use processing (step S4 in FIG. 4) described later.

さらにCPU6は、ユーザ操作に応じて、その他設定を行う(ステップS21)。その他設定としては、たとえば、再生する際の音量やテンポの設定を挙げることができる。   Further, the CPU 6 performs other settings according to the user operation (step S21). As other settings, for example, the volume and tempo for playback can be set.

そしてCPU6は、終了操作がなされたかどうかを判定し(ステップS22)、終了操作がなされないときには、処理を前記ステップS16に戻す一方、終了操作がなされたときには、本範囲情報設定&適用処理を終了する。ここで終了操作とは、具体的には、図3の表示領域21に表示されたEXITボタン21bをタッチすることである。   Then, the CPU 6 determines whether or not the end operation has been performed (step S22). When the end operation has not been performed, the process returns to step S16. When the end operation has been performed, the range information setting & application process is ended. To do. Here, the end operation is specifically to touch the EXIT button 21b displayed in the display area 21 of FIG.

図4に戻り、加工後被適用情報使用処理は、演奏部100iが実行する処理に相当する。演奏部100iは、各種加工された被適用情報(セクション)85からユーザによって選択されたものを順次切り替えながら演奏する。加工された被適用情報、すなわちスタイルは、本実施の形態では、SMF(Standard MIDI File)のような形式の演奏データであり、たとえば4小節長で、複数のパートからなり、各パートは演奏データを持つとともに、楽器音色が割り当てられる。演奏データ内の音高情報は、第1属性情報(コード進行)に合致するように加工されている。この加工されたスタイルを、タイマ制御の下、順次読み、読み出されたノートオン/オフイベントに応じて、読み出された音色指定に応じた音の生成をする。加工されたスタイルは、たとえば4小節であり、加工されたスタイルの終端まで再生したら、再び先頭から再生するように繰り返す。   Returning to FIG. 4, the post-processing applied information use processing corresponds to processing executed by the performance unit 100i. The performance unit 100i performs the performance while sequentially switching the information selected by the user from the various pieces of processed application information (section) 85. The processed application information, that is, the style is performance data in a format such as SMF (Standard MIDI File) in the present embodiment, which is, for example, four measures long and includes a plurality of parts, and each part is performance data. Instrumental tone color is assigned. The pitch information in the performance data is processed so as to match the first attribute information (chord progression). The processed style is sequentially read under timer control, and a sound corresponding to the read tone color designation is generated according to the read note on / off event. The processed style is, for example, four bars. When the processed style is played back to the end, the playback is repeated from the beginning.

なお本実施の形態では、既に設定されている範囲情報(コードセット)を編集(拡大/縮小)することについては言及したものの、範囲情報(コードセット)を新たに設定することについては言及していない。もちろん、範囲情報(コードセット)は、編集だけでなく、新たに設定できるようにしてもよい。さらに、曲の先頭から所定サイズ(4小節など)ずつ、多数の範囲情報を自動的に切り出し、範囲情報(コードセット)に割り当てる機能を備えるようにしてもよい。   In this embodiment, although reference is made to editing (enlargement / reduction) of already set range information (code set), reference is made to newly setting range information (code set). Absent. Of course, the range information (code set) may be newly set as well as edited. Furthermore, a function may be provided in which a large number of range information is automatically cut out by a predetermined size (for example, four bars) from the beginning of the song and assigned to the range information (code set).

また本実施の形態では、第1属性情報として「コード進行」を採り、被適用情報として「演奏情報で構成されるセクション」を採るとしたが、これとは逆に、第1属性情報として「演奏情報」を採り、被適用情報として「コード進行」を採るようにしてもよい。この場合、「演奏情報」は、単一パートのメロディでもよいが、複数パートからなるものであってもよい。このようにすると、ユーザが創作した4小節程度のコード進行に対して、あるコンテンツの部分的なメロディ等が適用される。なお、この「演奏情報」は、1つの楽曲についてユーザが作成してもよいし、誰かが作成したものをインターネット経由で取得してもよい。また、楽曲のオーディオ情報から信号処理によって抽出するようにしてもよい。   In the present embodiment, “chord progression” is adopted as the first attribute information, and “section composed of performance information” is adopted as the applied information. On the contrary, “first section information” is “ “Performance information” may be taken and “chord progression” may be taken as applicable information. In this case, the “performance information” may be a single-part melody or may be composed of a plurality of parts. In this way, a partial melody or the like of a certain content is applied to a chord progression of about 4 measures created by the user. The “performance information” may be created by the user for one piece of music, or may be acquired by someone via the Internet. Moreover, you may make it extract by signal processing from the audio information of a music.

また、第1属性情報として「歌詞情報」を採り、被適用情報として「演奏情報」を採るようにしてもよい。あるいはその逆に、第1属性情報として「演奏情報」を採り、被適用情報として「歌詞情報」を採るようにしてもよい。   Further, “lyric information” may be adopted as the first attribute information, and “performance information” may be adopted as the applied information. Or conversely, "performance information" may be taken as the first attribute information, and "lyric information" may be taken as the applied information.

さらに、第1属性情報として「スペクトルエンベロープ情報」を採り、被適用情報として「励起信号情報」を採るようにしてもよい。あるいはその逆に、第1属性情報として「励起信号情報」を採り、被適用情報として「スペクトルエンベロープ情報」を採るようにしてもよい。   Furthermore, “spectrum envelope information” may be adopted as the first attribute information, and “excitation signal information” may be adopted as the application information. Or conversely, “excitation signal information” may be adopted as the first attribute information, and “spectrum envelope information” may be adopted as the applied information.

なお本実施の形態では、第2属性情報として「波形画像」を採るようにしたが、これに限らず、「楽譜表示情報」、「歌詞表示情報」、「曲に対応したプロモーションビデオや演奏動画を構成する、複数の所定フレームの情報」、「演奏情報を構成するイベント群を表示し得る、ピアノロール等の表示情報」、「曲のオーディオ情報を時間周波数分析した結果の時間周波数表示情報」を採るようにしてもよい。また、これらを複数同時に表示するようにしてもよい。   In this embodiment, the “waveform image” is adopted as the second attribute information. However, the present invention is not limited to this, but “score display information”, “lyric display information”, “promotion video or performance video corresponding to the song” , "Information on a plurality of predetermined frames", "display information such as piano rolls that can display a group of events constituting performance information", "time frequency display information as a result of time frequency analysis of music audio information" You may make it take. A plurality of these may be displayed simultaneously.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

2…タッチパネル(設定手段、提示手段),4…検出回路(設定手段),5…表示回路(提示手段),6…CPU(取得手段、設定手段、提示手段、適用手段) 2 ... Touch panel (setting means, presentation means), 4 ... detection circuit (setting means), 5 ... display circuit (presentation means), 6 ... CPU (acquisition means, setting means, presentation means, application means)

Claims (5)

音楽データ生成方法をコンピュータに実行させるためのプログラムであって、
前記音楽データ生成方法は、
時系列音楽コンテンツデータから、当該時系列音楽コンテンツデータに時間的に対応付け可能な第1属性情報を取得する取得ステップと、
前記取得ステップによって取得された第1属性情報が有する全時間区間内の一部区間を設定する設定ステップと、
前記時系列音楽コンテンツデータに時間的に対応付け可能な、前記第1属性情報とは異なる属性を含む第2属性情報における、前記設定ステップによって設定された一部区間に相当する範囲を提示する提示ステップと、
前記取得された第1属性情報のうち、前記設定された一部区間内の部分属性を時系列被適用情報に適用する適用ステップと
を有する
ことを特徴とするプログラム。
A program for causing a computer to execute a music data generation method,
The music data generation method includes:
An acquisition step of acquiring, from the time-series music content data, first attribute information that can be temporally associated with the time-series music content data;
A setting step for setting a part of all time intervals included in the first attribute information acquired by the acquisition step;
Presentation that presents a range corresponding to a partial section set by the setting step in second attribute information that can be temporally associated with the time-series music content data and includes attributes different from the first attribute information Steps,
An application step of applying a partial attribute in the set partial section to the time-series applied information in the acquired first attribute information.
前記提示ステップでは、前記一部区間を含むより広い区間に亘って前記第2属性情報を表示しつつ、当該表示上の前記一部区間に相当する範囲を識別可能な表示態様で表示することを特徴とする請求項1に記載のプログラム。   In the presenting step, the second attribute information is displayed over a wider section including the partial section, and a range corresponding to the partial section on the display is displayed in a display mode that can be identified. The program according to claim 1, characterized in that: 前記提示ステップでは、前記表示に加えてさらに、前記一部区間に対応する第1小表示と、前記時系列被適用情報に対応する第2小表示とを表示し、
前記適用ステップでは、部分属性を時系列被適用情報に適用する場合、ユーザによって所定の操作がなされた第1および第2小表示にそれぞれ対応するものについて行う
ことを特徴とする請求項2に記載のプログラム。
In the presenting step, in addition to the display, a first small display corresponding to the partial section and a second small display corresponding to the time-series applied information are displayed.
3. The application step according to claim 2, wherein when the partial attribute is applied to the time-series applied information, the application is performed for each of the first and second small displays that are subjected to a predetermined operation by the user. Program.
前記提示ステップでは、前記表示に加えてさらに、前記第1属性情報および/または前記第2属性情報を時間的に拡大して表示し、
前記一部区間は、前記拡大表示に対するユーザ操作に応じて変動する
ことを特徴とする請求項2または3に記載のプログラム。
In the presenting step, in addition to the display, the first attribute information and / or the second attribute information is further enlarged in time and displayed.
The program according to claim 2, wherein the partial section varies according to a user operation for the enlarged display.
時系列音楽コンテンツデータから、当該時系列音楽コンテンツデータに時間的に対応付け可能な第1属性情報を取得する取得手段と、
前記取得手段によって取得された第1属性情報が有する全時間区間内の一部区間を設定する設定手段と、
前記時系列音楽コンテンツデータに時間的に対応付け可能な、前記第1属性情報とは異なる属性を含む第2属性情報における、前記設定手段によって設定された一部区間に相当する範囲を提示する提示手段と、
前記取得された第1属性情報のうち、前記設定された一部区間内の部分属性を時系列被適用情報に適用する適用手段と
を有することを特徴とする音楽データ生成装置。
Obtaining means for obtaining, from the time-series music content data, first attribute information that can be temporally associated with the time-series music content data;
Setting means for setting a part of all time intervals included in the first attribute information acquired by the acquisition means;
Presentation that presents a range corresponding to a partial section set by the setting means in the second attribute information that can be temporally associated with the time-series music content data and includes an attribute different from the first attribute information Means,
An apparatus for generating music data, comprising: application means for applying partial attributes within the set partial section to the time-series applied information in the acquired first attribute information.
JP2013254724A 2013-12-10 2013-12-10 Program and music data generating apparatus for realizing music data generating method Active JP6255960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013254724A JP6255960B2 (en) 2013-12-10 2013-12-10 Program and music data generating apparatus for realizing music data generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013254724A JP6255960B2 (en) 2013-12-10 2013-12-10 Program and music data generating apparatus for realizing music data generating method

Publications (2)

Publication Number Publication Date
JP2015114401A true JP2015114401A (en) 2015-06-22
JP6255960B2 JP6255960B2 (en) 2018-01-10

Family

ID=53528267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013254724A Active JP6255960B2 (en) 2013-12-10 2013-12-10 Program and music data generating apparatus for realizing music data generating method

Country Status (1)

Country Link
JP (1) JP6255960B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054064A1 (en) * 2018-09-14 2020-03-19 Dmet Products株式会社 Musical-composition editing system, and musical-composition editing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6145299A (en) * 1984-08-09 1986-03-05 カシオ計算機株式会社 Waveform information processor
JPH0962263A (en) * 1995-08-29 1997-03-07 Yamaha Corp Automatic composition device
JPH09244648A (en) * 1996-11-05 1997-09-19 Casio Comput Co Ltd Automatic music composing machine
JPH113079A (en) * 1997-06-11 1999-01-06 Yamaha Corp Automatic composition device and recording medium
JP2002006843A (en) * 2000-06-20 2002-01-11 Yamaha Corp Automatic composing device and method as well as memory medium
JP2002099277A (en) * 2000-07-18 2002-04-05 Yamaha Corp Automatic composition apparatus and method as well as memory medium
JP2008164932A (en) * 2006-12-28 2008-07-17 Sony Corp Music editing device and method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6145299A (en) * 1984-08-09 1986-03-05 カシオ計算機株式会社 Waveform information processor
JPH0962263A (en) * 1995-08-29 1997-03-07 Yamaha Corp Automatic composition device
JPH09244648A (en) * 1996-11-05 1997-09-19 Casio Comput Co Ltd Automatic music composing machine
JPH113079A (en) * 1997-06-11 1999-01-06 Yamaha Corp Automatic composition device and recording medium
JP2002006843A (en) * 2000-06-20 2002-01-11 Yamaha Corp Automatic composing device and method as well as memory medium
JP2002099277A (en) * 2000-07-18 2002-04-05 Yamaha Corp Automatic composition apparatus and method as well as memory medium
JP2008164932A (en) * 2006-12-28 2008-07-17 Sony Corp Music editing device and method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOBILE SEUENCER マニュアル, JPN7017003486, 2013, pages 1 - 28, ISSN: 0003674654 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054064A1 (en) * 2018-09-14 2020-03-19 Dmet Products株式会社 Musical-composition editing system, and musical-composition editing method

Also Published As

Publication number Publication date
JP6255960B2 (en) 2018-01-10

Similar Documents

Publication Publication Date Title
EP3462441B1 (en) Singing voice edit assistant method and singing voice edit assistant device
EP2760014B1 (en) Interactive score curve for adjusting audio parameters of a user&#39;s recording.
US20120014673A1 (en) Video and audio content system
WO2017028686A1 (en) Information processing method, terminal device and computer storage medium
JP6708537B2 (en) Karaoke system
JP6255960B2 (en) Program and music data generating apparatus for realizing music data generating method
JP2013037237A (en) Electronic music device and program for realizing control method thereof
JP5870831B2 (en) Program and music image display apparatus for realizing music image display method
JP6132052B2 (en) Electronic musical instruments and programs
JP6372076B2 (en) Music information display device, music information display method and program
JP2013152395A (en) Electronic music instrument and program
US20130204628A1 (en) Electronic apparatus and audio guide program
JP5549100B2 (en) Electronic music apparatus and program for realizing timbre data creation method
JP2008083628A (en) Sound signal processor and program
JP2009025988A (en) Gui development device, program for achieving control method, and electronic music device
US11694724B2 (en) Gesture-enabled interfaces, systems, methods, and applications for generating digital music compositions
JP6020134B2 (en) Performance data set editing program and apparatus
JP5670367B2 (en) Music selection reservation system for single use karaoke performance device
JP5742303B2 (en) Musical sound generation control device and musical sound generation control program
JP2006119512A (en) Apparatus for displaying and editing music information, and program
JP6186955B2 (en) Electronic device, program for realizing control method of electronic device, and control method of electronic device
JP5223536B2 (en) Electronic music apparatus and score data utilization program
JP2004109745A (en) Expression parameter editing device and program for realizing expression parameter editing method
JP6048720B2 (en) Display device and program
JP2016099817A (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171120

R151 Written notification of patent or utility model registration

Ref document number: 6255960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151