KR20070059102A - 콘텐츠 생성 장치 및 콘텐츠 생성 방법 - Google Patents
콘텐츠 생성 장치 및 콘텐츠 생성 방법 Download PDFInfo
- Publication number
- KR20070059102A KR20070059102A KR1020077005981A KR20077005981A KR20070059102A KR 20070059102 A KR20070059102 A KR 20070059102A KR 1020077005981 A KR1020077005981 A KR 1020077005981A KR 20077005981 A KR20077005981 A KR 20077005981A KR 20070059102 A KR20070059102 A KR 20070059102A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- data
- additional data
- music
- material data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 90
- 239000000463 material Substances 0.000 claims abstract description 174
- 239000000203 mixture Substances 0.000 claims abstract description 26
- 238000013500 data storage Methods 0.000 claims abstract description 23
- 230000008569 process Effects 0.000 claims description 47
- 230000007613 environmental effect Effects 0.000 claims description 33
- 230000008451 emotion Effects 0.000 claims description 29
- 230000008859 change Effects 0.000 claims description 26
- 230000002996 emotional effect Effects 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 12
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 7
- 238000003915 air pollution Methods 0.000 claims description 6
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 claims description 6
- 239000008280 blood Substances 0.000 claims description 6
- 210000004369 blood Anatomy 0.000 claims description 6
- 230000036772 blood pressure Effects 0.000 claims description 6
- 230000004424 eye movement Effects 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 6
- 229910052760 oxygen Inorganic materials 0.000 claims description 6
- 239000001301 oxygen Substances 0.000 claims description 6
- 210000001747 pupil Anatomy 0.000 claims description 6
- 230000035900 sweating Effects 0.000 claims description 6
- 210000004556 brain Anatomy 0.000 claims description 5
- 230000036651 mood Effects 0.000 claims description 5
- 239000002023 wood Substances 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims 3
- 210000003205 muscle Anatomy 0.000 claims 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 claims 1
- 230000004044 response Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 2
- 238000010276 construction Methods 0.000 abstract 1
- 239000002994 raw material Substances 0.000 description 51
- 238000010586 diagram Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 11
- 210000003128 head Anatomy 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000033764 rhythmic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 239000013077 target material Substances 0.000 description 3
- 241001342895 Chorus Species 0.000 description 2
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 2
- 238000009527 percussion Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 229910003798 SPO2 Inorganic materials 0.000 description 1
- 101100478210 Schizosaccharomyces pombe (strain 972 / ATCC 24843) spo2 gene Proteins 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- XSQUKJJJFZCRTK-UHFFFAOYSA-N Urea Chemical compound NC(N)=O XSQUKJJJFZCRTK-UHFFFAOYSA-N 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000004202 carbamide Substances 0.000 description 1
- 235000021438 curry Nutrition 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- -1 for example Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000011122 softwood Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/022—Electronic editing of analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/04—Sound-producing devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/081—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/125—Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/265—Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
- G10H2210/295—Spatial effects, musical uses of multiple audio channels, e.g. stereo
- G10H2210/305—Source positioning in a soundscape, e.g. instrument positioning on a virtual soundstage, stereo panning or related delay or reverberation changes; Changing the stereo width of a musical source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/311—Distortion, i.e. desired non-linear audio processing to change the tone colour, e.g. by adding harmonics or deliberately distorting the amplitude of an audio waveform
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
- G10H2210/576—Chord progression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/351—Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/371—Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/371—Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information
- G10H2220/376—Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information using brain waves, e.g. EEG
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/395—Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/056—MIDI or other note-oriented file format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/081—Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/641—Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Electrophonic Musical Instruments (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
소재로서의 음성 콘텐츠 데이터를 여러가지의 양태로 이용하여, 완성도가 높은 새로운 음성 콘텐츠를 간단히 생성할 수 있도록 한다. 소재 데이터로서 이용되는 다수의 음성 콘텐츠 데이터가 소재 데이터 기억부(31)에 미리 준비된다. 소재 데이터의 각각은, 부가 데이터가 부수하도록 되어 있으며, 이 부가 데이터가 소재 데이터베이스 기억부(32)에 기억된다. 제어부(10)에 있어서, 접수부(20)를 통해 접수한 외부 정보와 재구성 법칙 데이터베이스 기억부(33)에 기억되어 있는 법칙 정보의 한쪽 또는 양쪽에 의거하여, 부가 데이터를 통해 소재 데이터 기억부(31)로부터 필요한 소재 데이터가 추출되고, 이것들로부터 새로운 악곡이 생성된다.
음성 콘텐츠, 소재 데이터, 데이터 기억부, 부가 데이터, 제어부
Description
본 발명은, 예를 들면 악곡을 악곡 파트, 소절 등으로 세분화함으로써 얻어지는 음성 콘텐츠 데이터 등을 소재로서 사용하고, 새로운 악곡(음성 콘텐츠)의 음성 콘텐츠 데이터를 생성하도록 하는 장치, 방법에 관한 것이다.
최근의 휴대형의 실리콘 오디오 플레이어나 하드 디스크 음악 플레이어가 대두됨으로써, 몇백∼몇만곡의 악곡(음악 콘텐츠)을 1대의 재생장치 내부의 기록 매체에 기록하여, 이것을 재생할 수 있게 되고, 유저는 자신의 원하는 악곡을 모두 꺼내 이것을 언제나 재생해서 들을 수 있게 되었다.
수많은 악곡을 기록 매체에 기록하여, 재생 가능하게 해 두는 것으로 장시간 음악을 즐길 수 있으며, 또한 재생 순서를 랜덤하게 변경하여 재생하는 소위 셔플 재생을 행함으로써 생각하지 않았던 곡순으로 악곡을 들을 수 있게 되므로 싫증이 잘 나지 않는다. 그러나, 이들의 오디오 플레이어는 미리 녹음된 악곡을 단순히 재생할 뿐으로, 곡수는 증가하고 있지만 1곡 1곡에 대해서 보면, 매회 같은 음성을 재생하고 있는 것에 지나지 않는다.
한편, 자동작곡 소프트(자동작곡 프로그램)와 같이 유저가 곡의 분위기나 생일 등의 상황을 입력하는 것만으로 곡을 작성해 주는 컴퓨터용 소프트웨어가 존재한다. 예를 들면 나중에 기술하는 일본국 공개특허공보 특개2002-117069호에는, 데이터베이스 내의 음악 아이템(소재가 되는 음성 데이터)으로부터 임의의 길이의 적절한 음악 시퀀스(음성 데이터의 나열)를 생성하는 방식이 개시되어 있다.
이러한, 소위 자동작곡 소프트를 PC를 통해 이용함으로써, 유저는, 간단하고, 부담없이 독자의 음성 콘텐츠를 작성해서 재생하고, 이것을 즐길 수 있도록 되어 있다.
그러나, 전술한 바와 같은 자동작곡 소프트는, 1음씩 음부를 생성해 가도록 하거나, 미리 정해진 소재를 연결할 뿐으로, 많은 청취자가 「뛰어난 곡」이라고 느낄 수 있는 완성도가 높은 악곡(음성 콘텐츠)을 생성하는 것은 어렵다. 또한 PC에 있어서 기동되는 자동작곡 소프트에 대한 조작이 복잡하거나, 이해하기 힘들기 때문에, PC에 익숙하지 않은 유저에 있어서는 이용하기 어려운 것으로 생각할 수 있다.
또한 자동작곡 소프트의 경우에는, MIDI(Musical Instrument Digital Interface)데이터를 사용하여 작곡을 하도록 하는 것이 대부분으로, 악기 음색의 리얼함이 부족하거나, 자연스러운 인간의 가성을 낼 수 없는 등의 제약이 존재한다. 또한, 리얼함이 늘어났다고 해도 인간의 연주가 아님을 유저를 알고 있을 경우에는 감동이 일지 않는 경우가 많다.
이상을 감안하여, 본 발명은, 소재로서의 음성 콘텐츠 데이터를 여러가지의 양태로 이용하여, 완성도가 높은 새로운 음성 콘텐츠를 간단히 생성하는 것이 가능한 장치, 방법을 제공하는 것을 목적으로 한다.
상기 과제를 해결하기 위해서, 본 발명의 콘텐츠 생성 장치는, 소재로서 이용되는 다수의 음성 콘텐츠 데이터를 기억 유지하는 소재기억 수단과, 다수의 상기 음성 콘텐츠 데이터의 각각 마다 부수하여, 색인/구성 정보로서의 기능을 가지는 부가 데이터를 기억 유지하는 부가 데이터 기억 수단을 구비함과 동시에, 외부 정보의 입력을 접수하는 접수수단과, 다수의 상기 음성 콘텐츠 데이터로부터 필요한 것을 추출하여 새로운 음성 콘텐츠를 구성하는 구성 처리시에 사용하는 법칙 정보를 기억 유지하는 법칙기억 수단의 한쪽 또는 양쪽을 구비하고, 상기 접수수단을 통해 접수한 상기 외부 정보와 상기 법칙기억 수단의 상기 법칙 정보의 한쪽 또는 양쪽에 의거하여 상기 부가 데이터 기억 수단의 상기 부가 데이터를 통해 상기 소재기억 수단으로부터 필요한 음성 콘텐츠 데이터를 추출하는 동시에 구성 처리를 행하여, 새로운 음성 콘텐츠를 생성하는 구성 처리 수단을 구비하는 것을 특징으로 한다.
이 본 발명의 콘텐츠 생성 장치에 의하면, 예를 들면 악곡을 구성하는 음성 콘텐츠 데이터를, 악기 파트, 소절 등으로 세분화하여 형성하고, 소재로서 이용되는 다수의 음성 콘텐츠 데이터가 소재기억 수단에 미리 준비된다. 소재로서 이용되는 다수의 음성 콘텐츠 데이터의 각각은, 색인/구성 정보로서의 기능을 가지는 부가 데이터가 부수되도록 되어 있으며, 이 부가 데이터가 부가 데이터 기억 수단에 기억된다.
그리고, 구성 처리 수단에 있어서, 접수수단을 통해서 접수한 외부 정보와 법칙기억 수단에 기억되어 있는 법칙 정보의 한쪽 또는 양쪽에 근거하여, 부가 데이터를 통해 소재기억 수단으로부터 소재로서 사용하는 복수의 음성 콘텐츠 데이터가 추출되고, 이것들을 사용하여 새로운 악곡을 형성하는 일련의 음성 콘텐츠 데이터가 구성되는(생성되는), 이것을 이용할 수 있게 된다.
본 발명에 의하면, 미리 준비되는 소재로서의 음성 콘텐츠 데이터를 여러가지의 양태로 이용함으로써, 완성도가 높게 새로운 악곡을 간단히 생성하여, 이것을 이용할 수 있도록 할 수 있다. 또한 외부 정보 등의 변화에 따라, 매회, 새로운 악곡을 생성하여 이것을 이용할 수 있도록 할 수 있다.
또한 유저의 인터럭션에 의해 실시간으로 악곡을 변화시키거나, 적은 소재로부터도 수많은 악곡을 생성하거나 할 수 있다. 이 때문에, 종래의 CD(Compact Disc)와 같이 녹음된 악곡을 반복해서 듣는, 음악의 즐기는 방법을 근저로부터 변화시켜, 새로운 음악의 즐기는 방법을 유저에게 제공할 수 있다.
도 1은, 본 발명에 의한 장치, 방법의 개요를 설명하기 위한 도면이다.
도 2는, 본 발명의 일 실시예가 적용된 재생장치를 설명하기 위한 블럭도이 다.
도 3은, 재구성 처리의 구체적인 예를 설명하기 위한 도면이다.
도 4a는, 재구성 처리의 구체적인 예를 설명하기 위한 도면이다.
도 4b는, 재구성 처리의 구체적인 예를 설명하기 위한 도면이다.
도 4c는, 재구성 처리의 구체적인 예를 설명하기 위한 도면이다.
도 4d는, 재구성 처리의 구체적인 예를 설명하기 위한 도면이다.
도 5는, 재구성 처리의 구체적인 예를 설명하기 위한 도면이다.
도 6은, 재구성 처리의 구체적인 예를 설명하기 위한 도면이다.
도 7은, 재구성 처리의 구체적인 예를 설명하기 위한 도면이다.
도 8은, 재구성 법칙 데이터베이스의 정보의 일부에 대해서 설명하기 위한 도면이다.
도 9는, 도 2에 나타낸 재생장치에 있어서 행해지는 새로운 악곡의 재구성 처리(생성 처리)를 설명하기 위한 플로챠트이다.
이하, 도면을 참조하면서, 본 발명에 의한 장치, 방법의 일 실시예에 관하여 설명한다. 이하에 설명하는 실시예에 있어서는, 본 발명에 의한 장치, 방법을 여러가지의 악곡 등의 음성 콘텐츠 데이터를 재생하는 음성재생장치(이하, 간단히 재생장치라고 한다.)에 적용했을 경우를 예로 해서 설명한다.
[재생장치의 개요]
도 1은, 본 발명에 의한 장치, 방법이 적용된 재생장치의 개요를 설명하기 위한 블럭도이다. 이 실시예의 재생장치는, 예를 들면 휴대형의 음성재생장치이다. 그리고, 이 실시예의 재생장치는, 도 1에 나타나 있는 바와 같이 악곡을 생성(구성)하기 위한 음성 콘텐츠 데이터인 다수의 소재 데이터(1)와, 미리 정해지는 재구성 법칙 정보(법칙 정보)의 데이터베이스인 재구성 법칙 데이터베이스(2)와, 미리 정해지는 재구성의 처리 순서인 재구성 알고리즘(3)을 미리 구비하고 있다. 여기에서 소재 데이터(1)는, 악곡을 구성하는 악기 파트 단위나 소절 단위 등과 같이, 소정의 단위마다 세분화함으로써 세분화된 단위로 이용 가능하게 된 음성 콘텐츠 데이터이다.
또한 이 실시예의 재생장치는, 기온, 습도 등의 환경 정보, 이 재생장치의 유저(사용자)의 심박, 피부 온도 등의 생체 정보, 유저로부터의 조작 입력 정보 등의 외부 정보를 접수하는 접수부(4)를 구비하고 있다. 그리고, 이 실시예의 재생장치는, 재생시에 있어서, 접수부(4)를 통해 접수한 여러가지의 외부 정보와 재구성 법칙 데이터베이스의 법칙 정보에 의거하여, 또한 재구성 알고리즘(3)에 따라, 다수의 소재 데이터(1)에서 필요한 소재 데이터를 추출하여, 이 추출한 소재 데이터를 재구성 처리함으로써, 새로운 악곡(음성 콘텐츠)을 생성(재구성)하여, 이것을 재생해서 이용할 수 있도록 하는 것이다.
즉, 이미 완성된 악곡을 기억 유지하여, 이것을 단순히 재생하는 것은 아니고, 음성 콘텐츠 데이터인 다수의 소재 데이터를 기억 유지하여, 이 다수의 소재 데이터 중에서 필요한 소재 데이터를 추출하고, 이 추출한 소재 데이터를 재구성 처리함으로써, 완전히 새로운 악곡을 생성하여 재생할 수 있는 것이다.
[재생장치의 구성과 동작]
다음에 이 실시예의 재생장치의 구성과, 그 동작에 관하여 설명한다. 도 2는, 이 실시예의 재생장치를 설명하기 위한 블럭도이다. 도 2에 나타나 있는 바와 같이, 이 실시예의 재생장치는, 크게 나누면 제어부(10), 접수부(20), 기억장치부(30), 표시장치부(40), 출력부(50)를 구비하고 있다.
제어부(10)는, CPU(Central Processing Unit)(11), ROM(Random Access Memory)(12), RAM(Read Only Memory)(13)가, CPU버스(14)를 통해서 접속되어 형성된 마이크로컴퓨터로서, 이 실시예의 재생장치의 각부를 제어하거나, 소재 데이터베이스로부터 새로운 악곡을 생성하는 등의 여러가지의 데이터 처리를 행하는 것이 가능하다.
접수부(20)는, 생체 정보 센서(21), A/D(Analog/Digital)변환부(22), 환경 정보 센서(23), A/D변환부(24), 입력 디바이스(25)를 구비하여, 생체 정보, 감성 정보, 환경 정보, 조작 입력 정보 등의 여러가지의 외부 정보를 접수하고, 이 접수한 외부 정보를 제어부(10)에 공급할 수 있다. 또한, 입력 디바이스(25)는, 유저로부터의 조작입력을 접수하는 것으로, 키보드 등으로 불리는 키 조작부나 마우스 등의 포인팅 디바이스, 버튼, 터치패널 등도 포함하는 것이다.
또한 기억장치부(30)는, 새로운 악곡(음성 콘텐츠 데이터)을 생성하기 위해서 필요하게 되는 데이터나 프로그램을 기억 유지하는 것이다. 즉, 이 실시예의 재생장치의 기억장치부(30)는, 예를 들면 하드디스크 드라이브이며, 내장하는 하드디 스크에는, 소재 데이터 기억부(31), 소재 데이터베이스 기억부(32), 재구성 법칙 데이터베이스 기억부(33), 알고리즘 실장 프로그램 기억부(34)등을 구비하여, 여러가지의 정보를 기억 유지하고 있다.
또한 표시장치부(40)는, 예를 들면 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), 유기EL(Organic Electro luminescence Panel), CRT(Cathode-Ray Tube)등의 표시 소자와, 이 표시 소자의 콘트롤러 등을 구비하여, 각종의 메시지 정보 등의 화상 정보를 표시하는 것이다. 또한 출력부(50)는, 음성출력장치부(51)와, D/A변환부(52)를 구비한 것이며, 이 실시예의 재생장치에 있어서, 새롭게 생성(구성)된 음성 콘텐츠 데이터에 따른 악곡을 음성으로서 방음(放音)하기 위한 것이다.
그리고, 이 실시예의 재생장치에 있어서, 기억장치부(30)의 소재 데이터 기억부(31)에는, 새로운 악곡을 구성하기 위한 소재 데이터가 되는 다수의 음성 콘텐츠 데이터가 기억되어 있다. 여기에서, 소재 데이터가 되는 음성 콘텐츠 데이터는, 상기한 바와 같이, 악곡을 구성하는 음성 콘텐츠 데이터를, 악기 파트마다 또는 소절마다로 세분화함으로써(작게 나눔으로써) 형성되는 것이다. 물론, 소재 데이터로서, 소정의 악기의 파트 부분만을 새롭게 녹음하는 등, 소재 데이터를 독립 형성하고, 이것을 기억 유지하는 것도 가능하게 된다.
또한 소재 데이터베이스 기억부(32)에는, 소재 데이터 기억부(31)에 기억되어 있는 소재 데이터를 특정하는 것이 가능한 식별자와, 다수의 소재 데이터의 각각 마다 부수되는 부가 데이터가 대응되어 기억되어 있다. 소재 데이터베이스 기억 부(32)의 부가 데이터와, 소재 데이터 기억부(31)의 각 소재 데이터는, 미리 정해진 식별자에 의해, 서로 관련되어, 부가 데이터로 소재 데이터를 특정하거나, 소재 데이터로 그 소재 데이터에 대응하는 부가 데이터를 특정할 수 있도록 하고 있다.
또한 재구성 법칙 데이터베이스 기억부(33)에는, 어떤 경우에, 어떤 소재 데이터를, 어떻게 사용하고, 재구성 처리함으로써 새로운 악곡을 생성할지를 나타내는 재구성 법칙 정보(법칙 정보) 등이 기억되어 있다. 또한, 여기에서 사용한 재구성이라고 하는 문언의 「재」의 의미는, 「같은 것을 다시」라는 의미가 아닌, 새로운 악곡의 구성을 「반복하여 행해진다」라는 의미이다.
또한 알고리즘 실장 프로그램 기억부(34)에는, 새로운 악곡을 구성하는 처리를 행할 경우에 실행되는 프로그램이 격납되어 있다. 이 프로그램의 알고리즘에 있어서, 어떤 경우에, 어떤 소재 데이터를, 어떻게 사용할지에 대해, 변경이나 조정을 행하는 것도 가능하게 된다.
또한, 여기에서는 기억장치부(30)는 하나만 도시하고 있지만, 몇 개의 기억장치부(기록 매체)에 소재 데이터 기억부(31), 소재 데이터베이스 기억부(32), 재구성 법칙 데이터베이스 기억부(33), 알고리즘 실장 프로그램 기억부(34)를 분산시켜서 설치하도록 해도 된다. 즉, 소재 데이터 기억부(31), 소재 데이터베이스 기억부(32), 재구성 법칙 데이터베이스 기억부(33), 알고리즘 실장 프로그램 기억부(34)의 각각을 다른 기억장치부(기록 매체)에 설치하도록 해도 되며, 몇개를 한꺼번에 같은 기억장치부에 기억하도록 해도 된다.
그리고, 이 실시예의 재생장치에 있어서는, 제어부(10)에 접속된 입력 디바 이스(25)를 통해, 유저로부터의 음성재생 지시 입력을 접수하면, 제어부(10)는, 생체 정보 센서(21)를 통해서 접수한 생체 정보나 유저의 움직임 정보는, A/D변환부(22)를 통해서 제어부(10)에 공급되고, 환경 정보 센서(23)를 통해 접수한 환경 정보는, A/D변환부(24)를 통해 공급된다. 또한 입력 디바이스(25)를 통해 접수한 유저로부터의 입력 정보도 제어부(10)에 공급된다.
제어부(10)의 CPU(11)는, 기억장치부(30)의 알고리즘 실장 프로그램 기억부(34)에 기억되어 있는 알고리즘을 판독하여 실행하고, 이 알고리즘에 따라 소재의 속성, 입력 디바이스(25)로부터의 입력 정보나 생체 정보 센서(21)나 환경 정보 센서(23)로부터의 입력 정보 등의 외부 정보를 재구성 법칙 데이터베이스와 대조하면서, 소재 데이터 기억부(31)로부터 필요한 소재 데이터를 추출하고, 이 추출한 소재 데이터(음성 콘텐츠 데이터)를 전술한 알고리즘이나 재구성 법칙 데이터베이스 기억부(33)의 법칙 정보에 의거하여 재구성 처리함으로써 새로운 악곡을 생성한다.
또한, 후술 하지만, 소재 데이터베이스 기억부(32)를 통해, 같은 부가 데이터를 가지는 복수의 소재 데이터를 추출하고, 이것을 재구성 법칙 데이터베이스 기억부(33)의 법칙 정보에 따라 처리함으로써, 새로운 악곡을 생성하고, 이것을 재생할 수도 있게 된다. 즉, 이 실시예의 재생장치는, 자기의 기억장치부(30)에 구비하는 다수의 소재 데이터 중에서 필요하게 되는 소재 데이터를, 소재 데이터베이스 기억부(32)나 재구성 법칙 데이터베이스 기억부(33)를 통해 추출하고, 이것을 재구성 법칙 데이터베이스 기억부(33)의 법칙 정보나 재구성 알고리즘에 따라 처리하여 새로운 악곡(음성 콘텐츠)을 생성(구성)하고, 이것을 재생할 수 있도록 하고 있다.
[부가 데이터의 상세]
다음에 이 실시예의 재생장치에서 사용되는 소재 데이터에 부수되는 부가 데이터에 관하여 설명한다. 미리 소재 데이터 기억부(31)에 기억 유지되어 있는 소재 데이터를 유연하게 이용하고, 새로운 악곡을 자유롭게 생성하기 위해, 소재 데이터로서의 음성 콘텐츠 데이터의 각각에 대해, 그 소재를 나타내기 위한 부가 데이터가 부가된다.
환언하면, 부가 데이터는, 다수의 소재 데이터 중에서 목적으로 하는 소재 데이터를 추출하기 위한 색인(인덱스)이 되는 것이다. 이 부가 데이터가, 도 2에 나타낸 재생장치의 기억장치부(30)의 소재 데이터베이스 기억부(32)에 기억 유지되어, 이 부가 데이터를 통해, 목적으로 하는 소재 데이터를 추출하고, 새로운 악곡의 구성에 이용할 수 있게 된다. 이하, 소재 데이터로서의 음성 콘텐츠 데이터에 부수되는 부가 데이터에 대해서 상세하게 설명한다.
부가 데이터는, 크게 나누면, (1)소재 데이터로서의 음성 콘텐츠 데이터의 악음 정보(악곡 정보)와 시간 정보, (2)소재 데이터로서의 음성 콘텐츠 데이터의 인물 정보, (3)감성 정보, (4)환경 정보, (5)생체 정보가 있다. 이들 5가지로 분류되는 부가 데이터의 각각에 관하여 설명한다.
(1)소재 데이터로서의 음성 콘텐츠 데이터의 악음 정보와 시간 정보에 대해서
(1)의 부가 데이터는, 소재 데이터의 악음 정보와, 그것이 어느 정도의 시간 적 길이를 가질지를 나타내는 시간 정보가 대응된 것이다. 악음 정보는, 소재 데이터를 재생함으로써 얻어지는 악음(음성)에 대한 정보이다. 구체적으로는, 소재 데이터를 재생함으로써 얻어지는 음성에 대한, 스케일(키), 코드, 템포, BPM(Beats Per Minute)으로 불리는 1분당 박수, 비트 정보(드럼 패턴), 박자, 소절수, 음량, 음부·쉼표 정보, 루프 정보, 쟝르 정보, 악기 정보, 지역 정보 등의 정보이다.
여기에서, 스케일(키)은, C메이저 스케일 또는 C장조, D장조 등의 악곡의 주음의 위치에 따라 결정되는 악곡의 특성이며, 코드는, C, Am, Em7등의 악곡의 화음(코드)이다. 이들, 스케일이나 코드가 소재 데이터인 음성 콘텐츠 데이터 중에서 변화될 경우에는, 그 변화되는 위치 정보·시간 정보(데이터의 선두부터의 오프셋 정보)등도 포함된다.
템포는 악곡진행의 속도로서, BPM은, 상기한 바와 같이 1분당 박자수이며, 비트 정보는, 여기에서는 드럼의 리듬 패턴(드럼 패턴)이다. BPM의 경우, 예를 들면 1분간 120박자일 때에는, 120BPM등으로 표현된다. 또한 리듬 패턴으로서, 베이스 드럼, 스네어 드럼의 어텍음이 들어가는 위치 정보·시간 정보(데이터의 선두로부터의 오프셋 정보)등도 포함된다.
박자는, 2박자, 3박자 등과 같이 악곡에 있어서 한묶음이 되는 리듬의 기초를 이루는 박자수이며, 예를 들면 3/4(4분의 3)박자, 4/4(4분의 4)박자 등과 같이 표현되는 것이다. 소절수는, 전술한 박자로 몇소절분이 되는 지를 나타내는 정보로서, 예를 들면 1소절분, 2소절분 등과 같이 표현되는 것이다.
음량(peak, loudness)은, 소리의 크기의 피크나 강도(레벨)로서, 소재 데이 터 마다 음량의 편차를 정리하기 위해 사용할 수 있는 정보이다. 음부·쉼표 정보는, 예를 들면 MML(Music Macro Language)이나 MIDI신호 등으로 기술된 소재 데이터를 재생함으로써 얻어지는 음성을 구성하는 음부나 쉼표를 나타내는 정보이며, 예를 들면 소재 데이터의 음부·쉼표의 정보를 추출하기 위해 사용한다.
루프 정보는, 예를 들면 Loop(루프), OneShot(원·숏)등의 해당 소재 데이터가, 루프 가능한 소재인지, 한번만 연주되는 것을 기대하고 있는 지를 나타내는 것이다. 루프 가능한 소재 데이터는, 해당 소재 데이터(음성 콘텐츠 데이터)의 최후와 최초를 끊어짐이 없도록 연결해도, 노이즈가 발생하지 않고, 템포가 맞지 않아 청각적으로 부자연스럽게 되는 것을 방지한다.
쟝르 정보는, 예를 들면 재즈(Jazz), 록(Rock), 테크노(Techno)…등의 소재 데이터가 속하는 쟝르를 나타내는 값 또는 문자열이다. 악기 정보는, 예를 들면 리듬 악기(드럼, 퍼커션), 기타, 베이스, 피아노…등의 이용되고 있는 악기의 종류를 나타내는 정보이다. 드럼계의 악기나 특히 음계가 없는 효과음의 경우에는, 피치 변환을 할 필요가 없기(반대로 해서는 않되는 경우가 많다)때문에, 이 정보를 바탕으로 피치 변환에 적응을 하는 소재 데이터인지 여부를 결정하는 것이 가능하게 된다. 또한 재구성 시의 악기의 밸런스나 종류를 결정하는 경우 등에 있어서도 사용할 수 있다.
지역 정보는, 예를 들면 인도네시아, 오키나와, 잉글랜드…등, 소재 데이터가, 어떤 지역과 밀접하게 관련되고 있을 경우, 그 지역을 나타내는 정보이다. 예를 들면 인도네시아의 가멜란 음악의 소재 데이터나 오키나와 음계의 소재 데이터 등을 구별하기 위한 것이다.
이러한, 각종의 악음 정보와 그 계속시간을 나타내는 시간 정보를 조합하여 부가 데이터의 일부로 함으로써, 각 소재 데이터가 어떤 음성을 어느 정도의 시간 낼 지, 즉, 각 소재 데이터의 소재나 성질을 정확하게 파악하여, 적절히 처리할 수 있게 된다.
(2)소재 데이터로서의 음성 콘텐츠 데이터의 인물 정보에 대해서
이 (2)의 인물 정보에는, 작곡자 정보, 연주자 정보, 녹음자 정보, 소재 그룹 정보 등이 있다. 작곡자 정보는, 소재 데이터를 재생함으로써 얻어지는 선율의 작곡자를 나타내는 것이다. 이 정보는, 특정 작곡자의 소재 데이터만을 모아, 새로운 악곡을 구성할 경우 등에 이용 가능한 것이다. 이 작곡자 정보는, 주로는 작곡자의 성명, 예명, 필명 등의 작곡자를 특정하는 것이 가능한 정보이다. 그러나, 이것에 한정하는 것은 아니고, 작곡자가 속하는 그룹명, 작곡자의 출신지나 활동지역 등을 나타내는 지역 정보, 작곡자의 연령이나 성별 등, 작곡자에 관한 여러가지의 정보를 포함하도록 해도 된다.
연주자 정보는, 소재 데이터를 재생함으로써 얻어지는 선율을 실제로 연주한 연주자를 나타내는 것이다. 어떤 연주자의 소재 데이터만을 모아서 곡으로서 구성하고 싶을 경우 등에 이용가능하다. 이 연주자 정보도 또한 주로는 연주자의 성명, 예명 등의 연주자를 특정하는 것이 가능한 정보이다. 그러나, 이것에 한정하는 것은 아니고, 연주자가 속하는 그룹명, 연주자의 출신지나 활동지역 등을 나타내는 지역 정보, 연주자의 연령이나 성별 등, 연주자에 관한 여러가지의 정보를 포함하 도록 해도 된다.
녹음자 정보는, 소재 데이터를 녹음한 녹음 엔지니어의 정보이다. 어느 녹음 엔지니어가 녹음한 소재만을 모아서 곡으로서 구성하고 싶을 경우 등에 이용가능하다. 이 녹음자 정보에 관해서도, 주로는 녹음자의 성명, 예명 등의 녹음자를 특정하는 것이 가능한 정보이다. 그러나, 이것에 한정하는 것은 아니고, 녹음자가 속하는 그룹명, 녹음자의 출신지나 활동지역 등을 나타내는 지역 정보, 녹음자의 연령이나 성별 등, 연주자에 관한 여러가지의 정보를 포함하도록 해도 된다.
소재 그룹 정보는, 예를 들면 오키나와 민요소재, 퍼커션 그룹…등과 같은 한묶음이 되는 소재 데이터의 그룹을 나타내는 정보이다. 즉, 소재 데이터는, 단독으로 제공되는 경우도 있지만, 복수 소재의 아카이브로서 제공되는 경우도 있다. 소재 데이터가 어느 소재 데이터와 함께 제공되었다라는 그룹을 식별하기 위한 ID 혹은 문자열이 소재 그룹 정보이다. 이 소재 그룹 정보를 사용함으로써, 어떤 특정한 소재군을 사용한 악곡의 구성이 가능하게 된다.
(3)감성 정보에 대해서
(3)의 감성 정보는, 소재 데이터를 사람의 주관적인 감성에 의해 분류하기 위해 부가하는 것이다. 소재 데이터를 재생함으로써 얻어지는 음성에 관한, 예를 들면, 「밝다」, 「슬프다」등의 해당 음성이 청취자에게 줄거라는 인상을 나타내는 정보나,「후렴구에 적합하다」,「인트로에 적합하다」,「BGM(Background Music)에 적합하다」등을 나타내는 정보이다.
또한, 감성 정보는, 예를 들면 「밝다 :7」,「슬프다 :8 」등과 같이, 시스 템에서 미리 정해진 인상이나 느낌의 분류와 그것에 대한 점수부여와 같이 표현하도록 해도 좋고, 또한 자유로운 문자열이나 키워드에 의해 표현하여, 시스템측이나 유저가 그것을 해석할 수 있도록 해두어도 된다. 이 부가 데이터가 있는 것으로, 감성 정보가 「밝고 건강한」인 소재 데이터만을 이용해서 새로운 악곡을 구성하거나, 감성 정보가 「슬프다」인 소재 데이터만을 이용해서 새로운 악곡을 구성하거나 할 수 있다.
또한 상술한 바와 같은 감성 정보는 주관적인 것이며, 예를 들면 소재 데이터의 제공자가 미리 설정해 둔 감성 정보(값이나 문자열로서 설정된 감성 정보)가, 소재 데이터를 실제로 이용하는 유저에 있어서 적합치 않을 가능성이 있다. 이 때문에, 감성 정보에 대해서는, 소재 데이터를 이용하는 유저 자신이 고쳐쓸수 있도록 해 둔다. 즉, 소재 데이터베이스 기억부(32)의 각 소재 데이터의 감성 정보를 재생장치의 입력 디바이스(25)를 통해 변경할 수 있도록 해 둔다. 이와 같이 해 두는 것으로, 유저의 감성에 합치한 감성 정보를 각 소재 데이터에 대하여 설정하는 것이 가능하게 된다.
(4)환경 정보에 대해서
(4)의 환경 정보는, 그 소재 데이터가 관련되면 좋을 환경에 관한 정보이며, 기본적으로는 소재 데이터의 제공자가 그 판단에 있어서 부가하는 것이다. 이 환경 정보에 관해서도, 전술한 감성 정보와 마찬가지로, 소재 데이터를 이용하는 유저가 변경할 수 있게 된다.
이하에 있어서는, 환경 정보의 설명을 쉽게 하기 위해, 환경 정보를 몇개의 카테고리로 분류해서 설명한다. 환경 정보는, 예를 들면 기후·시간에 관한 정보, 움직임에 관한 정보, 위치에 관한 정보, 인물에 관한 정보, 그 밖의 정보와 같이, 크게 5개의 카테고리로 분류할 수 있다.
기후·시간에 관한 정보는, 소재 데이터를 재생함으로써 얻어지는 음성이 가지는 속성으로, 기후나 시간에 관한 것이다. 구체적으로는, 기온, 습도, 날씨, 풍속, 날짜, 시각, 계절, 적설량, 강우량 등에 관한 것이다. 예를 들면 어느 소재 데이터에 의한 음성이 「여름의 맑은 날의 밤」을 묘사하는 것일 경우, 「계절:여름」,「날씨: 맑음」, 「시간:밤」이라는 기후·시간에 관한 정보가 부가된다. 또한 어느 소재 데이터에 의한 음성이 「무더운 밤」과 관련된 것일 경우, 「기온:비교적 높다」, 「습도: 높다」, 「시간:밤」등의 기후·시간에 관한 정보가 부가되게 된다.
움직임에 관한 정보는, 소재 데이터를 재생함으로써 얻어지는 음성이 가지는 속성으로, 움직임에 관한 것이다. 구체적으로는, 이동 속도, 가속도, 진동, 중력 변화 등에 관한 것이다. 예를 들면 있는 소재 데이터에 의한 음성이 「질주감이 있는 격렬한 리듬」일 경우에, 이동 속도나 진동의 파라미터를 적절한 값으로 설정함으로써 표현하는 것이 가능하게 된다.
위치에 관한 정보는, 소재 데이터를 재생함으로써 얻어지는 음성이 가지는 속성으로, 위치에 관한 것이다. 구체적으로는, 위도, 경도, 지도 정보, 주위의 물체 정보, 해발 등에 관한 것이다. 예를 들면 지도 정보나 주위의 물체 정보를 사용함으로써, 「바닷가 부근」이나 「시부야계」등의 속성을 소재 데이터에 대하여 부 가할 수 있다.
인물에 관한 정보는, 소재 데이터를 재생함으로써 얻어지는 음성이 가지는 속성으로, 인물(의 관계성)이나 단체에 관한 것이다. 구체적으로는, 특정한 관계에 있는 인물, 단체 등에 관한 것이다. 예를 들면 「연인과 있을 때」, 「가족과 있을 때」, 「만원 전철 안에서」라는 시츄에이션에 관한 정보를 소재 데이터에 대하여 부가 할 수 있다.
그외의 정보로서는, 전술한 정보 외의 여러가지의 정보, 예를 들면 월령(月齡), 냄새, 소음 레벨, 대기 오염도, 주변의 색 등의 여러가지 정보를 환경 정보로서 생각할 수 있다. 예를 들면 소재 데이터를 재생함으로써 음성이 인도풍의 선율이면, 냄새로서 「카레」의 환경 정보를 부가해두는 것을 생각할 수 있다.
또한, 전술한 여러가지의 환경 정보는, 문자열에 의해 표현하도록 해도 되고, 수치화하여 표현하도록 해도 된다.
(5)생체 정보에 대해서
(5)의 생체 정보는, 전술한 환경 정보와 같이, 그 소재 데이터를 재생함으로써 얻어지는 음성에 대하여 관련짓도록 하면 될 것이며, 생체 정보에 관한 정보를 소재 데이터의 제공자가 부가한다. 구체적으로는, 발한, 심박, 맥파, 호흡, 순목(瞬目), 안구운동, 응시 시간, 동공지름의 크기, 혈압, 뇌파, 체동, 체위, 피부 온도, 피부 전기 저항, 마이크로 바이브레이션(MV), 근전위, 혈중산소 포화도(SPO2)등의 정보이다.
예를 들면 있는 소재 데이터에 의한 음성이 「조용히 하고 있을 때」를 묘사 하는 경우에는, 심박, 맥파, 호흡 등이 낮게 (적게) 설정되고, 반대로, 어떤 소재 데이터에 의한 음성이 「심장이 두근거렸을 때」를 묘사할 경우에는, 심박, 맥파, 호흡 등이 높게 (많게) 설정된다. 이밖에, 긴장감이 있는 음성의 경우에 응시 시간을 길게 하거나, 심한 운동을 묘사하는 음성의 경우에는, 체동을 격렬한 상태로 하고 있음을 나타내는 정보로 하는 등으로 행할 수 있게 된다.
또한 이 생체 정보에 관해서도, 감성 정보나 환경 정보와 마찬가지로, 소재 데이터를 이용하는 유저가 자기의 감각·주관에 의거하여 변경할 수 있게 된다.
이와 같이, 이 실시예의 재생장치에 있어서는, 상술한 바와 같은 (1)소재 데이터로서의 음성 콘텐츠 데이터의 악음 정보와 시간 정보, (2)소재 데이터로서의 음성 콘텐츠 데이터의 인물 정보, (3)감성 정보, (4)환경 정보, (5)생체 정보가 부가 데이터로서, 소재 데이터 기억부(31)에 기억되어 있는 각 소재 데이터와 관련지어, 소재 데이터베이스 기억부(32)에 기억되어 있다.
또한, 각 소재 데이터에는, 전술한 모든 부가 데이터가 반드시 부가되지 않아도 된다. 각 소재 데이터에 대해서는, 전술한 여러가지의 부가 데이터 중 해당하는 부가 데이터가 존재하는 경우에만 부가하게 된다. 예를 들면 인물 정보 등은, 작곡자, 연주자, 녹음자 등이 불분명할 경우에는 부가되지 않는다. 또한 감성 정보, 환경 정보, 생체 정보에 관해서도, 해당하는 정보가 없을 경우에는 부가되지 않는다.
그리고, 상기도 한 바와 같이, 각 소재 데이터에 부수되는 부가 데이터에 의거하여 새로운 악곡을 구성할 경우에 필요한 소재 데이터를 추출할 수 있게 된다.
[새로운 악곡의 생성(재구성)방법에 대해서]
다음에 이 실시예의 재생장치에 있어서 행해지는 소재 데이터를 사용한 새로운 악곡의 생성 처리(재구성 처리)의 여러가지의 양태에 대해서, 도 3∼도 7을 참조하면서 설명한다. 새로운 악곡을 생성(재구성)할 경우에는, 이하에 설명한 바와 같이, 소재의 결합, 템포의 변경, 피치의 변경, 음량의 변경, 이펙트의 적용, 팬설정의 변경, 소재의 스킵(추출), 소재의 합성 등의 각 처리를 재구성 법칙에 따라 적용함으로써 새로운 악곡을 구성할 수 있게 된다. 이들의 각 처리에 대하여 설명한다.
도 3은, 소재 데이터의 결합 처리에 대해서 설명하기 위한 도면이다. 도 3에 있어서, 상단이 추출된 소재 데이터 A, B, C, D의 각 파형이며, 하단이 소재 데이터 A, B, C, D를 결합함으로써 생성한 음성 데이터의 파형이다. 도 3의 상단에 나타나 있는 바와 같이, 추출한 개개의 소재 데이터 A, B, C, D를 시간축 방향으로 겹치지 않도록 결합하여, 도 3의 하단에 나타나 있는 바와 같이 연속한 음성 데이터(결합 결과 X)를 얻도록 하는 처리가 소재 데이터의 결합 처리이다.
도 4a는, 소재 데이터의 템포의 변경 처리를 설명하기 위한 도면이다. 도 4a에 있어서, 상단이 템포 변경 전의 소재 데이터의 파형이며, 하단이 템포 변경 후의 해당 소재 데이터의 파형이다. 이 템포의 변경은 피치는 변경하지 않고, 템포만을 변경하는 것으로, 재생시간은 짧아지지만 음정은 바뀌지 않도록 하는 처리이다.
도 4b는, 소재 데이터의 피치의 변경 처리를 설명하기 위한 도면이다. 도 4b에 있어서, 상단이 피치 변경 전의 소재 데이터의 파형이며, 하단이 피치 변경 후 의 해당 소재 데이터의 파형이다. 이 피치의 변경은 템포는 변경하지 않고, 피치만을 변경하는 것으로, 재생시간은 동일하지만, 음정은 바꿀 수 있는 처리이다.
도 4c는, 소재 데이터의 음량의 변경 처리를 설명하기 위한 도면이다. 도 4c에 있어서, 상단이 음량 변경 전의 소재 데이터의 파형이며, 하단이 음량 변경 후의 해당 소재 데이터의 파형이다. 이 도 4c에 나타낸 예는, 소재 데이터에 대해서 서서히 음량을 낮춘 후, 음량을 서서히 높이도록 한 경우를 나타내고 있다. 이밖에, 음량을 서서히 높이도록 한 후에, 음량을 서서히 낮추도록 하거나 또는, 음량을 빈번히 높이거나 낮추거나 또는 음량을 소정의 레벨이 되도록 하는 등의 처리이다.
도 4d는, 소재 데이터에 대하여 이펙트를 적용하는 처리를 설명하기 위한 도면이다. 도 4d에 있어서, 상단이 이펙트 적용 전의 소재 데이터의 파형이며, 하단이 이펙트 적용 후의 해당 소재 데이터의 파형이다. 이 도 4d에 나타낸 예는, 소재 데이터에 대하여 디스토션을 걸도록 한 경우의 예이다. 이펙트 처리는, 디스토션에 한정하는 것은 아니고, 리바브, 코러스, 이퀄라이저, 로패스 필터(LPF)처리, 하이패스 필터(HPF)처리 등의 여러가지의 이펙트 처리를 적용하는 것이 가능하다. 또한 이펙트 처리는, 소재 데이터의 전체에 적용하는 것도 가능하며, 소재 데이터의 일부분에 적용하는 것도 가능하다.
도 5는, 소재 데이터에 대한 팬설정의 변경 처리를 설명하기 위한 도면이다. 도 5에 나타낸 2개의 파형은, 같은 소재 데이터로 생성한 좌(L)채널과 우(R)채널의 파형이다. 이와 같이, 소재에 대하여 팬설정을 변경하고, 음원의 좌우 밸런스를 변 화시킨다.
이 경우에 있어서도, 소재 데이터의 전체 혹은 부분적으로 팬설정을 변경할 수 있게 된다. 또한, 도 5에 있어서는, 좌우 2채널의 경우를 예로 했지만, 4채널, 5.1채널 등의 소위 멀티 채널의 경우에는, 음상의 전후, 상하 등의 공간적 위치를 조정할 수 있게 된다.
도 6은, 소재 데이터의 스킵(추출)처리를 설명하기 위한 도면이다. 도 6에 있어서 상단은, 스킵 전의 소재 데이터의 파형이며, 하단은 스킵 후의 소재 데이터의 파형이다. 즉, 소재 데이터의 스킵은, 소재 데이터의 일부분을 뛰엄 뛰엄 읽어 필요한 부분만을 추출해서 이용할 수 있도록 하는 처리이다.
도 7은, 소재 데이터의 합성 처리를 설명하기 위한 도면이다. 도 6에 있어서, 상측 4개의 파형은, 소재 데이터 A, B, C, D의 합성 전의 각각의 파형이며, 도 6에 있어서 최하단의 파형이 소재 데이터 A, B, C, D를 합성함으로써 형성한 음성 데이터에 관한 것이다. 이와 같이, 소재 데이터의 합성은, 복수의 소재 데이터를 시간축을 동일하게 하여 겹쳐서 새로운 음성 데이터를 생성하는 처리이다. 이것에 의해, 여러가지의 악기 파트나 보컬 파트를 합성하여 합주곡을 생성할 수 있게 된다.
그리고, 실제로 소재 데이터를 사용하여 새로운 악곡을 생성할 경우에, 전술한 각종의 처리를 조합하고, 또한 2개 이상의 처리를 동시에 적용함으로써, 여러가지 악곡을 생성하는 것이 가능하게 된다. 예를 들면 5종류의 악기의 음색(음성)을 녹음함으로써 얻어진 각각의 소재 데이터에 대해서, 템포를 「120」으로 맞추고, 코드를 「G 코드」로 하여, 기타 소재에 디스토션을 건 후 전부를 합성하여, 마지막으로 이펙트 처리로서 리바브 이펙트를 거는 처리가 가능하게 되고, 다수의 소재 데이터를 사용함으로써, 완전히 새로운 악곡을 생성하는 것이 가능해 진다.
[재구성 법칙 데이터베이스의 내용]
다음에 이 실시예의 재생장치가 접수부(20)를 통해 취득하는 각종의 외부 정보나 소재 데이터베이스 기억부(32)의 부가 데이터에 의거하여 참조하며, 새로운 악곡의 생성을 위해 필요하게 되는 정보를 제공하는 재구성 법칙 데이터베이스 기억부(33)에 기억 유지되는 정보에 관하여 설명한다.
재구성 법칙 데이터베이스 기억부(33)에는, 후술하는 바와 같이, 새롭게 생성하는 악곡의 베이스가 되는 악곡구성 정보와, 필요한 소재 데이터를 추출할 경우의 입력 키 정보가 되는 외부 정보와 소재 데이터에 부수되는 부가 데이터와의 관계를 나타내는 관계 정보 및 외부 정보 등에 의거하여 선택 가능하게 되는 재구성 처리 내용을 나타내는 정보가 기억 유지되고 있다. 여기에서 외부 정보는, 상기한 바와 같이, 이 실시예의 접수부(20)의 센서(21, 23)나 입력 디바이스(25)를 통해서 접수한 정보이다.
그리고, 베이스가 되는 악곡구성 정보는, 새롭게 생성하는 악곡의 골자가 되는 곡 구성을 나타내는 것이며, 예를 들면 코드 진행이나 템포의 정보로 이루어지는 것이다. 이 악곡구성 정보는 다수 준비되어 있다. 예를 들면 재즈키, 록키, 팝키, 발라드키 등 여러가지의 쟝르 마다 다수의 악곡구성 정보가 준비되어 있다. 이 악곡구성 정보는, 예를 들면 재생장치의 제어부(10)가 랜덤하게 선택하도록 하는 것도 가능하며, 입력 디바이스(25)를 통해 입력되는 유저로부터의 지시 입력에 따라 선택하도록 하거나, 또는, 생체 정보 센서(21)나 환경 정보 센서(23)로부터의 입력 정보에 의거하여 선택하도록 할 수도 있게 된다.
또한 전술한 관계 정보 및 재구성 처리 내용을 나타내는 정보 중, 관계 정보는, 예를 들면 도 8과 같은 정보로서, 재구성 법칙 데이터베이스 기억부(33)에 기억 유지된다. 즉, 도 8은, 재구성 법칙 데이터베이스의 부가 데이터와 외부 정보의 관계를 나타내는 관계 정보를 설명하기 위한 도면이다.
도 8에 있어서, 소재번호는, 소재 데이터 기억부(31)에 기억 유지되어 있는 다수의 소재 데이터의 각각 붙어 있는 식별자이다. 이 식별자에 의해, 소재 데이터기억부(31)에 기억되어 있는 다수의 소재 데이터 중에서 목적으로 하는 소재 데이터를 특정할 수 있다.
도 8에 있어서, 기온 속성, 체동 속성, 시간 속성, 감성 속성은, 이 실시예에 있어서 사용되는 외부 정보 및 소재 데이터에 부수되는 부가 데이터이다. 또한 도 8에 있어서,「N/A(Not/Applicable)」은, 해당 데이터 없슴을 의미하고 있다. 그리고, 생체 정보 센서(21), 환경 정보 센서(23), 입력 디바이스(25)로부터의 외부 정보로부터 얻어지는 속성 정보 중, 체동속성이 「10이상」, 시각 속성이 「밤」, 감성속성이 「조용함」일 경우에는, 소재번호가 1번의 소재 데이터가 선택된다.
물론, 속성 정보가 일치하는 소재 데이터는 복수존재하는 경우도 있기 때문에 그 중에서 다른 외부 정보 등에 근거하여 사용하는 소재 데이터를 골라내거나, 또한 소재 데이터베이스 기억부(32)의 다른 부가 데이터로부터 소재 데이터를 선택 할 수도 있다. 예를 들면 베이스가 되는 악곡구성 정보가 록키일 경우에는, 예를 들면 일본 민요 등의 쟝르가 다른 소재 데이터는 소재 데이터베이스 기억부(32)의 해당 데이터에 의거하여 선택하지 않도록 할 수 있게 된다.
또한 재구성 처리 내용을 나타내는 정보는, 이하에 설명한 바와 같이, 각 소재 데이터마다, 그 소재 데이터를 어떤 식으로 처리할지를 지시하는 정보이며, 결합, 템포 변경, 피치 변경, 음량 변경, 이펙트 적용, 팬 설정의 변경, 소재의 스킵, 소재의 결합 등의 구체적인 처리 내용을 나타내는 정보이다.
이러한 여러가지의 정보가, 재구성 법칙 데이터베이스 기억부(33)에 미리 기억 유지되고 있으며, 이 실시예의 재생장치가 취득한 상기의 외부 정보 등에 의거하여 참조하여, 악곡구성 정보를 취득하거나, 새로운 악곡을 생성하기 위해 필요한 소재 데이터를 특정하거나, 특정한 소재 데이터의 처리 방법을 특정할 수 있도록 하고 있다.
[새로운 악곡의 생성 처리]
다음에 상기한 바와 같이 구성되는 이 실시예의 재생장치에 있어서, 새로운 악곡을 구성할 경우의 동작에 대해서 도 9의 플로챠트를 참조하면서 설명한다. 상기한 바와 같이, 이 실시예의 재생장치는, 휴대형의 음성재생장치이며, 예를 들면 옥외에서 사용되고 있는 것으로 한다. 이 경우, 날씨는 맑은 하늘이며, 이 재생장치의 유저는, 활기차게 걷고 있는 것으로 한다. 또한 이 실시예의 재생장치는, 환경 정보 센서(23)로서, 기온 센서, 가속도 센서를 내장하고 있는 것으로 한다.
유저가 이 실시예의 재생장치의 전원을 넣으면, 재생장치의 제어부(10)는, 도 9의 플로챠트에 나타내는 처리를 실행한다. 그리고, 제어부(10)는, 우선 처음에 새롭게 생성하는 악곡의 골자가 되는 베이스의 곡 구성을 나타내는 정보인 악곡구성 정보를 재구성 법칙 데이터베이스 기억부(33)로부터 취득하고(스텝S1O1), 생성하는 악곡의 템포를 결정한다(스텝S1O2).
스텝S1O1에서 취득되는 악곡구성 정보는, 상기한 바와 같이, 예를 들면 곡의 코드 진행이나 템포를 나타내는 정보로 이루어지는 것이다. 이 악곡구성 정보는 하나에 한정되지 않고 다수 기록되어 있는 쪽이 베리에이션이 증가하게 된다. 이 악곡구성 정보의 선택은 여러가지의 양태를 생각할 수 있다. 예를 들면 재생장치의 제어부(10)가 랜덤하게 선택하도록 해도 되고, 센서(21, 23)로부터의 정보나 입력 디바이스(25)에서의 유저로부터 입력 정보에 의거하여 선택하도록 해도 된다. 물론, 자동선택과 유저의 지시 선택을 유저가 바꿀 수도 있게 된다.
곡구성 정보로부터 템포가 정해지면, 제어부(10)는 BPM(Beat Per Minutes)클록을 스타트시킨다(스텝S1O3). 이것은 소절의 머리를 카운트하기 위해 사용되는 것으로, 도 2에 있어서는 도시하지 않았지만, 제어부(10)에 설정되는 시계회로에 의해 BPM클록이 카운트된다. 소재 데이터를 다음에서 다음으로 자연스럽게 연결해 가기 위해서는, 음악적으로 소절의 머리에서 구분지어 연결시켜 가는 것이 중요하다.
다음에 제어부(10)는, 센서(21, 23)로부터의 입력을 취득한다. 이 실시예에 있어서는, 우선, 기온 센서로부터의 입력을 취득하고(스텝S1O4), 계속해서 가속도 센서로부터의 입력을 취득한다(스텝S1O5). 이 예에서는 기온 센서와 가속도 센서의 입력값이지만, 스텝S1O5에 있어서의 가속도 센서 입력값은 근방 몇초간의 적분값 또는 평균값 등의 처리가 실시되고 있는 것이다. 여기에서는, 외부 정보로서, 온도센서로부터의 정보와 가속도 센서로부터의 정보를 사용하는 것으로 했지만, 입력 디바이스(25)나 그 밖의 스위치 등을 사용한 유저의 명시적인 입력을 취득하여, 이것을 고려하도록 해도 된다.
스텝S1O4, 스텝S1O5에 있어서 센서로부터 취득한 입력값을 키로 하여, 재구성 법칙 데이터베이스 기억부(33)를 참조하여, 현재의 기온, 운동량에 적합한 소재 데이터를 검색해서 취득한다(스텝S1O6). 즉, 도 8을 사용하여 설명한 바와 같이, 재구성 법칙 데이터베이스 기억부(33)에는, 소재 데이터 기억부(31)에 기록되어 있는 소재의 부가 정보와 입력 키(외부 정보)와의 관계가 기술되어 있다. 거기에서, 입력 키가 되는 외부 정보에 의거하여 정보를 검색함으로써, 도 8에 나타낸 소재번호를 특정하고, 이 특정한 소재번호에 의거하여 소재 데이터 기억부(31)로부터 목적으로 하는 소재 데이터를 판독하게 된다.
또한, 재구성 법칙 데이터베이스 기억부(33)에 기억 유지되는 관계 정보의 구체적인 기술 방식에 관해서는, 도 8에 나타나 있는 바와 같이, 단순하게 어느 센서의 값에 대응하는 소재의 매칭 법칙을 기술하는 것이어도 되고, 또는, 소재 데이터를 그루핑하여 어느 그룹의 소재군에서 다른 소재 그룹으로의 상태천이 조건을 기술하도록 한 정보라도 된다.
마찬가지로, 재구성 법칙 데이터베이스 기억부(33)에는, 상세하게 설명한 결합이나 합성 등의 재구성 처리 방법과 입력 키(외부 정보)와의 관계도 기술되고 있으며, 소재 데이터에 대하여 어떤 신호 처리를 걸어야 할지가 기술되고 있다. 그리 고, 제어부(10)는, 재구성 법칙 데이터베이스 기억부(33)로부터 행해야 할 처리 내용을 나타내는 정보를 취득하고(스텝S107), 이 취득한 정보에 의거하여 스텝S1O6에 있어서 취득한 소재 데이터에 대하여 재구성 신호처리(구성 처리)를 행한다(스텝S1O8).
이 스텝S1O8의 처리에 있어서는, 반드시 재구성 법칙 데이터베이스 기억부(33)의 정보에 따를 필요는 없고, 실장하는 알고리즘에 따라서는 단조로움을 피하기 위해 난수의 요소나 확률요소 등을 사용하여 재구성에 베리에이션을 갖게 하도록 해도 된다. 또한 이와 같이 알고리즘에 의해 처리 내용에 변화를 갖게 하는 것은, 효과적으로 새로운 악곡의 생성을 행하는 것이 가능하게 된다. 즉, 새로운 악곡의 베리에이션을 갖게 할 수 있다.
그리고, 신호 처리를 마친 재구성된 음성 데이터는 D/A변환부(52), 음성출력장치부(스피커부)(51)를 통해 처리되며, 재구성된 음성 데이터에 따른 음성이 음성출력 장치부(51)로부터 방음된다(스텝S1O9). 또한, 재구성된 음성 데이터는, 실제로는 충분히 큰 음성 버퍼에 일단 출력되어, 도중에 끊어지지 않도록 재생 처리된다. 이것은, 소절의 머리에서 일련의 상기 처리를 행하면 음성이 소절의 단락에서 도중에 끊어져 버릴 가능성이 있기 때문이며, 어느 소절이 재생되고 있는 동안에 뒤에서 다음 소절의 음성이 준비되게 된다.
그리고, 제어부(10)는, 다음의 처리 대상이 소절의 선두가 되었는지를 판단하고(스텝S11O), 소절의 선두가 되었다고 판단했을 때에는, 스텝S1O4로부터의 처리를 반복한다. 또한 스텝S110의 판단 처리에 있어서, 소절의 선두가 아니라고 판단 했을 때에는, 유저로부터의 정지 요구를 접수했는 지 여부를 판단하고(스텝S111), 정지 요구는 접수되지 않았다고 판단했을 때에는, 제어부(10)는 스텝S11O으로부터의 처리를 반복하도록 한다.
또한 스텝S110의 판단 처리에 있어서, 정지 요구를 접수했다고 판단했을 때에는, 이 도 9에 나타내는 처리를 종료하고, 새로운 악곡의 생성을 종료한다.
이와 같이, 이 실시예의 재생장치는, 다수의 소재 데이터를 이용하여, 언제라도 새로운 악곡을 생성해서, 이것을 재생하고, 유저에 대하여 제공할 수 있게 된다. 이에 따라 유저는, 생체 정보나 환경 정보, 또한, 자기의 입력 정보에 따른 새로운 악곡을 재구성하여 이것을 청취할 수 있게 된다.
또한 유저에 있어서는 매회 다른 악곡을 듣는 즐거움을 느낄 수 있고, 또 유저의 요구나 상태에 맞추어 재구성 방법을 바꾸는 것으로 보다 상황에 맞는 악곡생성이 가능하게 된다. 한편, 크리에이터에 있어서는, 1곡을 완성시키는 종래의 연주, 녹음 방법 뿐만아니라, 소재로서 여러가지의 프레이즈를 작곡하여, 이것을 녹음해서 파는 새로운 비지니스 모델이 가능하며, 크리에이터의 기회도 펼칠 수 있다.
또한 음악 라벨 각 회사에 있어서도, 침체기에 있다고 하는 기존의 녹음 매체 뿐만아니라, 소재가 기록된 매체를 파는 비지니스를 새롭게 개척할 수 있다. 또한 재생장치를 상품화하는 메이커의 입장에서 보아도, 새로운 음악재생장치로서 고부가가치의 새카테고리의 상품으로서 새로운 시장개척을 할 수 있다. 즉, 본 발명을 사용함으로써, 새로운 음악을 즐기는 문화가 탄생하고, 나아가서는 음악산업 전 체를 활성화할 수 있다.
또한, 재구성 법칙 데이터베이스 및 재구성 알고리즘은 본 장치의 실장자가 자유롭게 정해도 되고, 이것들의 부분만을 유저에게 제공함으로써, 소재 및 그 속성을 일체 변경하지 않고 출력되는 악곡이 변화되게 된다. 또한 반대로, 재구성 법칙과 알고리즘을 변경하지 않고 소재만을 바꾸는 것에 의해서도, 출력되는 악곡이 변화된다. 따라서, 수많은 소재와 수많은 법칙 베이스와 알고리즘에 의해 실질적으로 무한한 조합의 악곡생성이 가능하게 된다.
또한 환경 정보나 생체 정보의 취득에 센서를 사용하지 않고, 조작패널로부터 유저가 명시적으로 메뉴에서 고르거나 키보드로부터 입력하도록 해도 된다.
[새로운 콘텐츠의 재구성방법의 다른 예에 대해서]
도 9를 사용하여 설명한 재구성방법의 경우에는, 사용하는 소재 데이터를, 센서(21, 23)로부터의 외부 정보에 의거하여 재구성 법칙 데이터베이스 기억부(33)에 액세스하고, 이 재구성 법칙 데이터베이스 기억부(33)에 기억 유지되어 있는 부가 데이터를 사용하여 새로운 음성 콘텐츠의 재구성에 사용하는 소재 데이터를 추출하도록 했다. 그러나, 이것에 한정하는 것이 아니다.
예를 들면 1사람 이상의 작곡자를 지정하여, 새로운 음성 콘텐츠를 생성하고자 할 경우에는, 소재 데이터베이스 기억부(32)의 정보를 참조하여, 지정된 1사람 이상의 작곡자의 소재 데이터를 추출하고, 이것을 사용해서 새로운 음성 콘텐츠를 생성하도록 해도 된다. 또한 센서(21, 23)로부터의 외부 정보나 입력 디바이스(25)를 통해서 접수한 유저로부터의 지시 입력에 의거하여 소재 데이터베이스 기억 부(32)에 액세스하여, 필요하게 되는 소재 데이터를 추출하고, 이것을 사용해서 새로운 음성 콘텐츠를 생성할 수도 있다.
이와 같이, 재구성 법칙 데이터베이스 기억부(33)와 소재 데이터베이스 기억부(32) 중 어느 한쪽을 사용함으로써, 새로운 음성 콘텐츠를 생성하는 것이 가능하다. 이 경우, 어떤 악곡을 새롭게 생성할지를 결정하기 위한 중요한 정보인 악곡구성 정보에 대해서는, 재구성 법칙 데이터베이스 기억부(32)에 기억되어 있는 것을 사용해도 되고, 입력 디바이스(25)를 통해서, 유저로부터의 지시 입력에 따른 악곡구성 정보를 사용하도록 해도 된다.
또한 상기의 실시예에 있어서, 재구성 법칙 데이터베이스 기억부(33)에는, 악곡구성 정보, 소재번호와 이용 대상의 부가 데이터와 재구성 처리 내용을 나타내는 정보가 관련된 정보가 기억되어 있는 것으로서 설명했지만, 악곡구성 정보와, 그 밖의 정보를 별도의 기록매체에 설정하도록 해도 물론 좋다.
이와 같이, 이 실시예의 재생장치는, 음악의 소재를 PCM 또는 압축 오디오로 기록한 기록 매체로부터 소재 데이터 및 그 소재의 부가 데이터를 바탕으로 악곡을 재생시에 재구성하여 재생할 수 있게 된다. 이에 따라 같은 소재를 사용했다고 해도 재생시마다 다른 악곡을 생성할 수 있다.
또한 MIDI데이터에 의한 자동작곡과 달리, 인간이 실제로 연주한 프레이즈를 1단위로서 소재화하고 있기 때문에, 실제의 사람의 연주를 느낄 수 있다. 또한, 각프레이즈는 자동적으로 작곡되는 것은 아니고, 연주가, 작곡가의 감성으로 「좋다」라고 생각하는 프레이즈를 녹음하고 있기 때문에, 자동작곡 소프트와 같이 「음 악으로서 이상하지 않지만 좋은 프레이즈도 아니다」라는 한계를 극복할 수 있다. 말하자면, 작곡가, 연주가의 개성을 남길 수 있는 셈이다.
이러한 녹음 소재를 재구성가능한 정보와 함께 기록, 재생함으로써 유연하고 고음질의 악곡을 자동적으로 재구성하는 것이 가능하게 된다.
[기타]
또한, 소재 데이터로서의 음성 콘텐츠 데이터는, 리니어 PCM데이터,또는, 여러가지의 방식으로 데이터 압축된 압축 오디오 데이터의 어느 것이어도 된다. 또 소재 데이터는, 리니어 PCM데이터나 압축 오디오 데이터 등의 음성 데이터 실체와 재구성에 필요한 부가 데이터에 의해 구성되게 된다.
또한 상기한 바와 같이, 소재 데이터와, 재구성 데이터베이스는 각각 독립적으로, 추가, 변경, 삭제, 일부교환, 전부 교환 등을 행할 수 있게 된다.
또한 전술한 실시예에 있어서는, 기록 매체로서 하드 디스크를 사용하고 있는 것으로서 설명했지만, 이것에 한정하는 것이 아니다. 광디스크, 광자기디스크, 자기디스크 등의 각종의 디스크 기록 매체, 반도체 메모리 등의 여러가지의 기록 매체를 사용하도록 해도 물론 좋다. 이 경우, 소재 데이터와 재구성 법칙 데이터베이스가 다른 기록 매체에 기록되어도 된다.
또한 전술한 실시예의 재생장치는, 휴대형의 것으로서 설명했지만, 이것에 한정하는 것은 아니다. 가정 등에 그대로 두어져서 이용되는 설치형의 재생장치에 적용하는 것도 물론 가능하다.
또한 도 9를 사용하여 설명한 처리를 프로그램화함으로써, 이 프로그램을 실 행가능한 PC를 본 발명에 의한 재생장치로 할 수 있고, 또 PC에 있어서, 본 발명에 의한 방법을 실현할 수도 있다.
또한 상기의 실시예의 재생장치에 있어서는, 새로운 음성 콘텐츠의 생성과 재생을 실시간으로 행하는 것으로서 설명했지만, 이것에 한정하는 것이 아니다. 예를 들면 새로운 음성 콘텐츠를 미리 생성하고, 이것을 기억매체에 기록해 두어, 이 기록 매체에 기록된 새롭게 생성된 음성 콘텐츠를 재생하도록 하는 것도 가능하다.
또한 전술한 실시예에 있어서는, 제어부(10)에 있어서, 재구성 알고리즘, 재구성 법칙 데이터베이스를 사용하여, 필요한 소재 데이터를 사용한 재구성 처리를 행하는 것으로서 설명했지만, 이것에 한정하는 것은 아니다. 새로운 음성 콘텐츠의 재구성 처리용으로, 음성 콘텐츠 데이터의 처리용의 DSP(Digital Signal Processor)를 사용하도록 해도 된다.
또한 상기한 바와 같이, 이용 가능한 생체 정보로서는, 발한, 심박, 맥파, 호흡, 순목, 안구운동, 응시 시간, 동공지름의 크기, 혈압, 뇌파, 체동, 체위, 피부 온도 , 피부전기 저항, 마이크로 바이브레이션, 근전위, 혈중산소포화도 등 여러가지의 것이 있으며, 그 각각을 검출가능한 센서를 설치하는 것은 비용이 든다. 이 때문에, 예를 들면 체온 센서와 맥파 센서만을 사용하도록 하는 등, 몇개의 생체 정보를 뽑아 검출하고, 생체 정보를 이용하도록 해도 된다.
마찬가지로, 이용 가능한 환경 정보로서는, 기온, 습도, 날씨, 풍속, 날짜, 시간, 계절, 명도, 냄새, 해발, 적설량, 강우량, 소음레벨, 대기오염도, 위도, 경도, 지도 정보, 주변의 색, 주위의 물체 정보, 이동 속도, 가속도, 월령, 중력변 화, 진동, 인물 정보 등 여러가지의 것이 있으며, 그 전부를 이용 가능하게 하는 것은 비용이 들어 바람직하지 않은 경우도 있다. 그래서, 전술한 실시예의 재생장치와 같이, 예를 들면 기온 센서와 가속도 센서만을 설치하고, 이것에 의해 이용 가능한 환경 정보를 얻도록 해도 된다.
또한 전술한 바와 같이 하여 자동적으로 생성(재구성)된 음성 콘텐츠에 대해서, 유저가 입력 디바이스(25)를 통해 정보를 입력함으로써, 재구성 법칙 데이터베이스의 정보를 수정, 변경하거나, 또는, 작성된 음성 콘텐츠 데이터에 대하여, 수동에서 어레인지를 실시할 수 있도록 해 둠으로써, 유저의 기호에 맞는 새로운 음성 콘텐츠를 보다 유연하게 생성할 수 있게 된다.
Claims (28)
- 소재로서 이용되는 다수의 음성 콘텐츠 데이터를 기억 유지하는 소재기억 수단과,다수의 상기 음성 콘텐츠 데이터의 각각 마다 부수하여, 색인/구성 정보로서의 기능을 가지는 부가 데이터를 기억 유지하는 부가 데이터 기억 수단을 구비함과 동시에,외부 정보의 입력을 접수하는 접수수단과,다수의 상기 음성 콘텐츠 데이터로부터 필요한 것을 추출해서 새로운 음성 콘텐츠를 구성하는 구성 처리시에 사용하는 법칙 정보를 기억 유지하는 법칙기억 수단의 한쪽 또는 양쪽을 구비하고,상기 접수수단을 통해서 접수한 상기 외부 정보와 상기 법칙기억 수단의 상기 법칙 정보의 한쪽 또는 양쪽에 의거하여, 상기 부가 데이터 기억 수단의 상기 부가 데이터를 통해 상기 소재기억 수단으로부터 필요한 음성 콘텐츠 데이터를 추출하는 동시에 구성 처리를 행하고, 새로운 음성 콘텐츠를 생성하는 구성 처리 수단을 구비하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 1항에 있어서,상기 부가 데이터 기억 수단은, 템포, 스케일, 코드, 박자, 소절수, 음량, 음부·쉼표열, 루프 정보, 쟝르 정보, 악기의 종류, 지역 정보, 작곡자 정보, 연주자 정보, 녹음자 정보, 소재 그룹 정보, 감성 정보, 생체 정보, 환경 정보 중 적어도 하나 이상을 포함하는 상기 부가 데이터를 기억 유지하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 2항에 있어서,상기 부가 데이터 기억 수단은, 인간의 기분, 정서, 감정을 표현하는 수치 또는 / 및 문자열에 의해 기술된 정보를 상기 감성 정보로서 상기 부가 데이터에 포함시켜서 기억 유지하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 2항에 있어서,상기 부가 데이터 기억 수단은, 상기 부가 데이터에 포함되는 상기 생체 정보로서, 발한, 심박, 맥파, 호흡, 순목, 안구운동, 응시 시간, 동공지름의 크기, 혈압, 뇌파, 체동, 체위, 피부 온도, 피부전기 저항, 마이크로 바이브레이션, 근전위, 혈중산소포화도 중 적어도 하나 이상을 기억 유지하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 2항에 있어서,상기 부가 데이터 기억 수단은, 상기 부가 데이터에 포함되는 상기 환경 정보로서, 기온, 습도, 날씨, 풍속, 날짜, 시간, 계절, 명도, 냄새, 해발, 적설량, 강우량, 소음레벨, 대기오염도, 위도, 경도, 지도 정보, 주변의 색, 주위의 물체 정보, 이동 속도, 가속도, 월령, 중력변화, 진동, 인물 정보, 중 적어도 하나 이상을 기억 유지하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 2항에 있어서,상기 부가 데이터에 포함되는 상기 쟝르 정보, 상기 생체 정보, 상기 감성 정보, 상기 환경 정보 중 하나 이상에 관한 변경 지시 입력을 접수하는 변경 지시 입력 접수수단을 구비하고,상기 쟝르 정보, 상기 생체 정보, 상기 감성 정보, 상기 환경 정보 중 하나 이상에 대해서 임의로 변경이 가능한 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 1항에 있어서,상기 접수수단으로서, 생체 정보의 검출 접수수단과, 환경 정보의 검출 접수수단과, 유저로부터의 지시 입력을 접수하는 지시 입력 접수수단과, 감성 정보의 입력을 접수하는 감성 정보 접수수단 중 하나 이상을 구비하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 7항에 있어서,상기 생체 정보의 검출 접수수단은, 발한, 심박, 맥파, 호흡, 순목, 안구운동, 응시 시간, 동공지름의 크기, 혈압, 뇌파, 체동, 체위, 피부 온도 , 피부전기 저항, 마이크로 바이브레이션, 근전위, 혈중산소포화도 중 적어도 하나 이상을 검출하여 접수하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 7항에 있어서,상기 감성 정보 접수수단에 의해 접수되는 상기 감성 정보는, 인간의 기분, 정서, 감정을 표현하는 수치 또는 / 및 문자열에 의해 기술되어 이용하도록 되는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 7항에 있어서,상기 환경 정보의 검출 접수수단은, 기온, 습도, 날씨, 풍속, 날짜, 시각, 계절, 명도, 냄새, 해발, 적설량, 강우량, 소음레벨, 대기오염도, 위도, 경도, 지도 정보, 주변의 색, 주위의 물체 정보, 이동 속도, 가속도, 월령, 중력변화, 진 동, 가까이 있는 인물 정보 중 적어도 하나 이상을 검출하여 접수하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 1항에 있어서,상기 구성 처리 수단은, 소재로서의 음성 콘텐츠 데이터에 대하여, 소팅, 합성, 피치 변경, 템포 변경, 음량 변경, 음질 변경 중 적어도 하나 이상을 행하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 1항에 있어서,상기 법칙기억 수단에 있어서는, 음악구성 정보와 상기 소재의 부가 데이터와 상기 접수수단으로부터의 상기 외부 정보 중 적어도 하나 이상을 사용하여, 구성 처리의 내용을 결정하는 법칙 정보를 기억 유지하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 1항에 있어서,상기 구성 처리 수단에 있어서 행해지는 음성 콘텐츠의 구성 처리에 대응하여, 상기 구성 처리 수단에 의해 생성된 음성 콘텐츠를 실시간으로 재생하는 재생 처리 수단을 구비한 것을 특징으로 하는 콘텐츠 생성 장치.
- 제 1항에 있어서,상기 구성 처리 수단에 의해 생성된 음성 콘텐츠를 기억 유지하는 생성 콘텐츠 기억 수단과,상기 생성 콘텐츠 유지 수단에 유지된 음성 콘텐츠를 재생하는 재생 처리 수단을 구비하는 것을 특징으로 하는 콘텐츠 생성 장치.
- 소재로서 이용되는 다수의 음성 콘텐츠 데이터와, 다수의 상기 음성 콘텐츠 데이터의 각각 마다 부수하여 색인/구성 정보로서의 기능을 가지는 부가 데이터를 기억 유지하고,외부에서 접수하는 외부 정보와, 다수의 상기 음성 콘텐츠 데이터로부터 필요한 것을 추출해서 새로운 음성 콘텐츠를 구성하는 구성 처리시에 사용하는 법칙 정보의 한쪽 또는 양쪽에 의거하여 기억 유지되어 있는 상기 부가 데이터를 통해 다수의 상기 음성 콘텐츠 데이터로부터 필요한 음성 콘텐츠 데이터를 추출하는 동시에 구성 처리를 행하고, 새로운 음성 콘텐츠를 생성하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 15항에 있어서,상기 부가 데이터는, 템포, 스케일, 코드, 박자, 소절수, 음량, 음부·쉼표열, 루프 정보, 쟝르 정보, 악기의 종류, 지역 정보, 작곡자 정보, 연주자 정보, 녹음자 정보, 소재 그룹 정보, 감성 정보, 생체 정보, 환경 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 16항에 있어서,상기 부가 데이터에 포함되는 상기 감성 정보는, 인간의 기분, 정서, 감정을 표현하는 수치 또는 / 및 문자열에 의해 기술되는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 16항에 있어서,상기 부가 데이터에 포함되는 상기 생체 정보는, 발한, 심박, 맥파, 호흡, 순목, 안구운동, 응시 시간, 동공지름의 크기, 혈압, 뇌파, 체동, 체위, 피부 온도, 피부전기 저항, 마이크로 바이브레이션, 근전위, 혈중산소포화도 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 16항에 있어서,상기 부가 데이터에 포함되는 상기 환경 정보는, 기온, 습도, 날씨, 풍속, 날짜, 시간, 계절, 명도, 냄새, 해발, 적설량, 강우량, 소음레벨, 대기오염도, 위도, 경도, 지도 정보, 주변의 색, 주위의 물체 정보, 이동 속도, 가속도, 월령, 중력변화, 진동, 인물 정보, 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 16항에 있어서,상기 부가 데이터에 포함되는 상기 쟝르 정보, 상기 생체 정보, 상기 감성 정보, 상기 환경 정보 중 하나 이상에 대한 변경 지시 입력을 접수하고,상기 쟝르 정보, 상기 생체 정보, 상기 감성 정보, 상기 환경 정보 중 하나 이상에 대해서 임의로 변경이 가능한 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 16항에 있어서,상기 외부 정보로서, 생체 정보와, 환경 정보와, 감성 정보와, 유저로부터의 지시 입력 정보 중 하나 이상을 포함하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 21항에 있어서,상기 생체 정보는, 발한, 심박, 맥파, 호흡, 순목, 안구운동, 응시 시간, 동공지름의 크기, 혈압, 뇌파, 체동, 체위, 피부 온도, 피부전기 저항, 마이크로 바이브레이션, 근전위, 혈중산소포화도 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 21항에 있어서,상기 감성 정보는, 인간의 기분, 정서, 감정을 표현하는 수치 또는 / 및 문자열에 의해 기술되는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 21항에 있어서,상기 환경 정보는, 기온, 습도, 날씨, 풍속, 날짜, 시간, 계절, 명도, 냄새, 해발, 적설량, 강우량, 소음레벨, 대기오염도, 위도, 경도, 지도 정보, 주변의 색, 주위의 물체 정보, 이동 속도, 가속도, 월령, 중력변화, 진동, 가까이 있는 인물 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 15항에 있어서,상기 구성 처리는, 소재로서의 음성 콘텐츠 데이터에 대하여, 소팅, 합성, 피치 변경, 템포 변경, 음량 변경, 음질 변경 중 적어도 하나 이상을 행하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 15항에 있어서,상기 법칙 정보는, 음악구성 정보와 상기 소재의 부가 데이터와 상기 외부 정보 중 적어도 하나 이상을 사용하여, 구성 처리의 내용을 지시하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 15항에 있어서,구성 처리되어 새롭게 생성된 상기 음성 콘텐츠를 실시간으로 재생하는 것을 특징으로 하는 콘텐츠 생성 방법.
- 제 15항에 있어서,구성 처리되어서 새롭게 생성된 상기 음성 콘텐츠를 메모리에 기억 유지하고, 상기 메모리에 기억 유지된 음성 콘텐츠를 재생할 수 있도록 한 것을 특징으로 하는 콘텐츠 생성 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004269086A JP2006084749A (ja) | 2004-09-16 | 2004-09-16 | コンテンツ生成装置およびコンテンツ生成方法 |
JPJP-P-2004-00269086 | 2004-09-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20070059102A true KR20070059102A (ko) | 2007-06-11 |
Family
ID=36059868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020077005981A KR20070059102A (ko) | 2004-09-16 | 2005-08-25 | 콘텐츠 생성 장치 및 콘텐츠 생성 방법 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7960638B2 (ko) |
EP (1) | EP1791111A4 (ko) |
JP (1) | JP2006084749A (ko) |
KR (1) | KR20070059102A (ko) |
CN (1) | CN101014994A (ko) |
WO (1) | WO2006030612A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8134062B2 (en) | 2009-02-04 | 2012-03-13 | Samsung Electronics Co., Ltd | Apparatus and method for generating music using bio-signal |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9818386B2 (en) | 1999-10-19 | 2017-11-14 | Medialab Solutions Corp. | Interactive digital music recorder and player |
JP2006084749A (ja) * | 2004-09-16 | 2006-03-30 | Sony Corp | コンテンツ生成装置およびコンテンツ生成方法 |
FR2903804B1 (fr) * | 2006-07-13 | 2009-03-20 | Mxp4 | Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia. |
US7893342B2 (en) | 2006-09-08 | 2011-02-22 | Panasonic Corporation | Information processing terminal and music information generating program |
JP4623028B2 (ja) * | 2007-03-20 | 2011-02-02 | ヤマハ株式会社 | 曲編集装置およびプログラム |
JPWO2008062816A1 (ja) * | 2006-11-22 | 2010-03-04 | 八二六 福原 | 自動作曲システム |
JP5125084B2 (ja) * | 2006-12-11 | 2013-01-23 | ヤマハ株式会社 | 楽音再生装置 |
JP4548424B2 (ja) | 2007-01-09 | 2010-09-22 | ヤマハ株式会社 | 楽音処理装置およびプログラム |
JP4613923B2 (ja) * | 2007-03-30 | 2011-01-19 | ヤマハ株式会社 | 楽音処理装置およびプログラム |
JP5135982B2 (ja) * | 2007-10-09 | 2013-02-06 | ヤマハ株式会社 | 楽曲加工装置およびプログラム |
JP5228432B2 (ja) * | 2007-10-10 | 2013-07-03 | ヤマハ株式会社 | 素片検索装置およびプログラム |
JP2009244705A (ja) * | 2008-03-31 | 2009-10-22 | Brother Ind Ltd | ピッチシフトシステムおよびプログラム |
JP4651055B2 (ja) * | 2008-06-24 | 2011-03-16 | 株式会社ソニー・コンピュータエンタテインメント | 音楽生成装置、音楽生成方法、及びプログラム |
US8558100B2 (en) | 2008-06-24 | 2013-10-15 | Sony Corporation | Music production apparatus and method of producing music by combining plural music elements |
JP4640463B2 (ja) | 2008-07-11 | 2011-03-02 | ソニー株式会社 | 再生装置、表示方法および表示プログラム |
DE102008039967A1 (de) * | 2008-08-27 | 2010-03-04 | Breidenbrücker, Michael | Verfahren zum Betrieb eines elektronischen Klangerzeugungsgerätes und zur Erzeugung kontextabhängiger musikalischer Kompositionen |
WO2010041147A2 (en) * | 2008-10-09 | 2010-04-15 | Futureacoustic | A music or sound generation system |
US20110184539A1 (en) * | 2010-01-22 | 2011-07-28 | Sony Ericsson Mobile Communications Ab | Selecting audio data to be played back in an audio reproduction device |
ITPG20120027A1 (it) * | 2012-05-21 | 2013-11-22 | Muusa Srl | Sistema per la riproduzione di suoni associati a movimenti e relative tecniche di massaggio |
JP2013246742A (ja) * | 2012-05-29 | 2013-12-09 | Azone Co Ltd | 受動型出力装置及び出力データ生成システム |
US8878043B2 (en) | 2012-09-10 | 2014-11-04 | uSOUNDit Partners, LLC | Systems, methods, and apparatus for music composition |
GB2506921B (en) | 2012-10-14 | 2015-06-10 | Gibbs Tech Ltd | Enhanced steering |
US8847054B2 (en) * | 2013-01-31 | 2014-09-30 | Dhroova Aiylam | Generating a synthesized melody |
US8927846B2 (en) * | 2013-03-15 | 2015-01-06 | Exomens | System and method for analysis and creation of music |
IES86526B2 (en) | 2013-04-09 | 2015-04-08 | Score Music Interactive Ltd | A system and method for generating an audio file |
JP6295583B2 (ja) * | 2013-10-08 | 2018-03-20 | ヤマハ株式会社 | 音楽データ生成装置および音楽データ生成方法を実現するためのプログラム |
KR20150072597A (ko) * | 2013-12-20 | 2015-06-30 | 삼성전자주식회사 | 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법 |
US9700333B2 (en) | 2014-06-30 | 2017-07-11 | Ethicon Llc | Surgical instrument with variable tissue compression |
US10854180B2 (en) | 2015-09-29 | 2020-12-01 | Amper Music, Inc. | Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine |
US9721551B2 (en) | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
FR3043242A1 (fr) * | 2015-11-03 | 2017-05-05 | Univ Grenoble I Joseph Fourier | Dispositif de generation de sons musicaux dans une gamme non-harmonique : le dynalophone |
US20170131965A1 (en) * | 2015-11-09 | 2017-05-11 | Jarno Eerola | Method, a system and a computer program for adapting media content |
US10349196B2 (en) | 2016-10-03 | 2019-07-09 | Nokia Technologies Oy | Method of editing audio signals using separated objects and associated apparatus |
JP6492044B2 (ja) * | 2016-10-28 | 2019-03-27 | ロレアル | ヒトケラチン物質の状態について使用者に知らせるための方法 |
WO2019049294A1 (ja) * | 2017-09-07 | 2019-03-14 | ヤマハ株式会社 | コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム |
GB201721061D0 (en) * | 2017-12-15 | 2018-01-31 | Pob Enterprises Ltd | System for processing music |
US10803843B2 (en) * | 2018-04-06 | 2020-10-13 | Microsoft Technology Licensing, Llc | Computationally efficient language based user interface event sound selection |
US11127386B2 (en) * | 2018-07-24 | 2021-09-21 | James S. Brown | System and method for generating music from electrodermal activity data |
EP3916715A4 (en) * | 2019-01-23 | 2022-10-19 | Sony Group Corporation | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD AND PROGRAM |
CN111581402A (zh) * | 2019-02-15 | 2020-08-25 | 北京京东尚科信息技术有限公司 | 内容测试素材的生成方法、系统、电子设备、存储介质 |
US11037538B2 (en) | 2019-10-15 | 2021-06-15 | Shutterstock, Inc. | Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system |
US10964299B1 (en) | 2019-10-15 | 2021-03-30 | Shutterstock, Inc. | Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions |
US11024275B2 (en) | 2019-10-15 | 2021-06-01 | Shutterstock, Inc. | Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system |
US20210248213A1 (en) | 2020-02-11 | 2021-08-12 | Aimi Inc. | Block-Chain Ledger Based Tracking of Generated Music Content |
JP6736196B1 (ja) * | 2020-03-06 | 2020-08-05 | 株式会社マスターマインドプロダクション | 音声再生方法、音声再生システム、およびプログラム |
WO2022249586A1 (ja) * | 2021-05-26 | 2022-12-01 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システム |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4399731A (en) * | 1981-08-11 | 1983-08-23 | Nippon Gakki Seizo Kabushiki Kaisha | Apparatus for automatically composing music piece |
US4926737A (en) * | 1987-04-08 | 1990-05-22 | Casio Computer Co., Ltd. | Automatic composer using input motif information |
EP0301790A3 (en) * | 1987-07-24 | 1990-06-06 | BioControl Systems, Inc. | Biopotential digital controller for music and video applications |
US4982643A (en) * | 1987-12-24 | 1991-01-08 | Casio Computer Co., Ltd. | Automatic composer |
JPH0313993A (ja) | 1989-06-13 | 1991-01-22 | Ii P R Japan:Kk | カーミュージックシンセサイザー |
US5451709A (en) * | 1991-12-30 | 1995-09-19 | Casio Computer Co., Ltd. | Automatic composer for composing a melody in real time |
JP2972431B2 (ja) | 1992-01-29 | 1999-11-08 | 株式会社河合楽器製作所 | 音響発生装置 |
JPH08227297A (ja) | 1994-12-21 | 1996-09-03 | Fujitsu Ltd | サウンド・データのマッピング方法及び表示装置 |
JPH08248953A (ja) * | 1995-03-07 | 1996-09-27 | Ekushingu:Kk | 音楽再生方法及び装置と、これらのための音楽データベースシステム及び音楽データベース |
JP3303617B2 (ja) * | 1995-08-07 | 2002-07-22 | ヤマハ株式会社 | 自動作曲装置 |
US5693902A (en) * | 1995-09-22 | 1997-12-02 | Sonic Desktop Software | Audio block sequence compiler for generating prescribed duration audio sequences |
US5627335A (en) * | 1995-10-16 | 1997-05-06 | Harmonix Music Systems, Inc. | Real-time music creation system |
US5990407A (en) * | 1996-07-11 | 1999-11-23 | Pg Music, Inc. | Automatic improvisation system and method |
DE69637504T2 (de) * | 1996-09-13 | 2009-06-25 | Hitachi, Ltd. | Automatisches musikkomponierverfahren |
US6121532A (en) * | 1998-01-28 | 2000-09-19 | Kay; Stephen R. | Method and apparatus for creating a melodic repeated effect |
JP3541706B2 (ja) * | 1998-09-09 | 2004-07-14 | ヤマハ株式会社 | 自動作曲装置および記憶媒体 |
JP3484986B2 (ja) * | 1998-09-09 | 2004-01-06 | ヤマハ株式会社 | 自動作曲装置、自動作曲方法および記憶媒体 |
JP3557917B2 (ja) * | 1998-09-24 | 2004-08-25 | ヤマハ株式会社 | 自動作曲装置および記憶媒体 |
JP3533974B2 (ja) * | 1998-11-25 | 2004-06-07 | ヤマハ株式会社 | 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体 |
US7076737B2 (en) * | 1998-12-18 | 2006-07-11 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
JP3533975B2 (ja) * | 1999-01-29 | 2004-06-07 | ヤマハ株式会社 | 自動作曲装置および記憶媒体 |
TW495735B (en) * | 1999-07-28 | 2002-07-21 | Yamaha Corp | Audio controller and the portable terminal and system using the same |
US6392133B1 (en) * | 2000-10-17 | 2002-05-21 | Dbtech Sarl | Automatic soundtrack generator |
US7078609B2 (en) * | 1999-10-19 | 2006-07-18 | Medialab Solutions Llc | Interactive digital music recorder and player |
US7176372B2 (en) * | 1999-10-19 | 2007-02-13 | Medialab Solutions Llc | Interactive digital music recorder and player |
EP1837858B1 (en) * | 2000-01-11 | 2013-07-10 | Yamaha Corporation | Apparatus and method for detecting performer´s motion to interactively control performance of music or the like |
US20010035087A1 (en) * | 2000-04-18 | 2001-11-01 | Morton Subotnick | Interactive music playback system utilizing gestures |
JP3620409B2 (ja) * | 2000-05-25 | 2005-02-16 | ヤマハ株式会社 | 携帯通信端末装置 |
FI20001592A (fi) * | 2000-07-03 | 2002-04-11 | Elmorex Ltd Oy | Nuottipohjaisen koodin generointi |
EP1170722B1 (en) | 2000-07-04 | 2010-09-22 | Sony France S.A. | Incremental music title item sequence completion apparatus and method |
US6384310B2 (en) * | 2000-07-18 | 2002-05-07 | Yamaha Corporation | Automatic musical composition apparatus and method |
JP3666577B2 (ja) * | 2000-07-18 | 2005-06-29 | ヤマハ株式会社 | コード進行修正装置、コード進行修正方法及び同装置に適用されるプログラムを記録したコンピュータ読取り可能な記録媒体 |
JP2002032078A (ja) * | 2000-07-18 | 2002-01-31 | Yamaha Corp | 自動作曲装置、方法及び記録媒体 |
EP1193616A1 (en) * | 2000-09-29 | 2002-04-03 | Sony France S.A. | Fixed-length sequence generation of items out of a database using descriptors |
KR100401012B1 (ko) * | 2000-12-15 | 2003-10-30 | 김연경 | 감정상태에 기초한 선곡기능을 가진 음악제공시스템 및 방법 |
EP1241588A3 (en) * | 2001-01-23 | 2006-01-04 | Matsushita Electric Industrial Co., Ltd. | Audio information provision system |
JP2002247697A (ja) | 2001-02-19 | 2002-08-30 | Ad Step:Kk | 環境オーディオ放送システムとその放送制御装置 |
EP1244093B1 (en) * | 2001-03-22 | 2010-10-06 | Panasonic Corporation | Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus and methods and programs for implementing the same |
US7026535B2 (en) * | 2001-03-27 | 2006-04-11 | Tauraema Eruera | Composition assisting device |
US6822153B2 (en) * | 2001-05-15 | 2004-11-23 | Nintendo Co., Ltd. | Method and apparatus for interactive real time music composition |
US6984781B2 (en) * | 2002-03-13 | 2006-01-10 | Mazzoni Stephen M | Music formulation |
US7053291B1 (en) * | 2002-05-06 | 2006-05-30 | Joseph Louis Villa | Computerized system and method for building musical licks and melodies |
JP2004086189A (ja) * | 2002-07-02 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 楽曲検索システム |
US7169996B2 (en) * | 2002-11-12 | 2007-01-30 | Medialab Solutions Llc | Systems and methods for generating music using data/music data file transmitted/received via a network |
EP1489765A3 (en) * | 2003-06-17 | 2005-12-14 | Matsuhita Electric Industrial Co., Ltd. | Music selection apparatus and music delivery system |
JP2006084749A (ja) * | 2004-09-16 | 2006-03-30 | Sony Corp | コンテンツ生成装置およびコンテンツ生成方法 |
US7683252B2 (en) * | 2005-11-23 | 2010-03-23 | Microsoft Corporation | Algorithm for providing music to influence a user's exercise performance |
US7728214B2 (en) * | 2005-11-23 | 2010-06-01 | Microsoft Corporation | Using music to influence a person's exercise performance |
US20070137463A1 (en) * | 2005-12-19 | 2007-06-21 | Lumsden David J | Digital Music Composition Device, Composition Software and Method of Use |
FR2903804B1 (fr) * | 2006-07-13 | 2009-03-20 | Mxp4 | Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia. |
EP2067136A2 (en) * | 2006-08-07 | 2009-06-10 | Silpor Music Ltd. | Automatic analysis and performance of music |
US20090071315A1 (en) * | 2007-05-04 | 2009-03-19 | Fortuna Joseph A | Music analysis and generation method |
EP2175403A1 (en) * | 2008-10-06 | 2010-04-14 | Sap Ag | Method, system and computer program product for composing and executing service processes |
-
2004
- 2004-09-16 JP JP2004269086A patent/JP2006084749A/ja active Pending
-
2005
- 2005-08-25 WO PCT/JP2005/015418 patent/WO2006030612A1/ja active Application Filing
- 2005-08-25 CN CNA2005800304487A patent/CN101014994A/zh active Pending
- 2005-08-25 EP EP05780942A patent/EP1791111A4/en not_active Withdrawn
- 2005-08-25 KR KR1020077005981A patent/KR20070059102A/ko active Search and Examination
- 2005-08-25 US US11/661,040 patent/US7960638B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8134062B2 (en) | 2009-02-04 | 2012-03-13 | Samsung Electronics Co., Ltd | Apparatus and method for generating music using bio-signal |
Also Published As
Publication number | Publication date |
---|---|
US7960638B2 (en) | 2011-06-14 |
US20080288095A1 (en) | 2008-11-20 |
EP1791111A4 (en) | 2011-12-28 |
WO2006030612A1 (ja) | 2006-03-23 |
CN101014994A (zh) | 2007-08-08 |
JP2006084749A (ja) | 2006-03-30 |
EP1791111A1 (en) | 2007-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20070059102A (ko) | 콘텐츠 생성 장치 및 콘텐츠 생성 방법 | |
JP4306754B2 (ja) | 楽曲データ自動生成装置及び音楽再生制御装置 | |
US10790919B1 (en) | Personalized real-time audio generation based on user physiological response | |
JP3573288B2 (ja) | キャラクタの表示制御装置、表示制御方法及び記録媒体 | |
US8017852B2 (en) | Music content reproduction apparatus, method thereof and recording apparatus | |
JP3381074B2 (ja) | 音響構成装置 | |
TWI497484B (zh) | Performance evaluation device, karaoke device, server device, performance evaluation system, performance evaluation method and program | |
CN102760426B (zh) | 使用表示乐音生成模式的演奏数据搜索 | |
JP2006171133A (ja) | 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法 | |
Chau et al. | The emotional characteristics of piano sounds with different pitch and dynamics | |
Mo et al. | The effects of reverberation on the emotional characteristics of musical instruments | |
Timmers et al. | Emotional ornamentation in performances of a Handel sonata | |
JP3716725B2 (ja) | 音声処理装置、音声処理方法および情報記録媒体 | |
Davies | Musical works and orchestral colour | |
JP2007304489A (ja) | 楽曲練習支援装置、制御方法及びプログラム | |
Himonides | Mapping a beautiful voice: Theoretical considerations | |
Hansen | The acoustics and performance of DJ scratching | |
JP2000099014A (ja) | 音楽自動採点装置、音楽自動採点モデル作成装置、音楽自動採点モデル作成方法、音楽自動採点方法、及び、記録媒体 | |
JP2007233078A (ja) | 評価装置、制御方法及びプログラム | |
McDonald | Analogous | |
Brøvig et al. | Digital Signatures: The Impact of Digitization on Popular Music Sound | |
Van Hedger et al. | Some like it sharp: Song familiarity influences musical preference for absolute tuning. | |
Ramos et al. | Psychomusicology: Music, Mind, and Brain | |
Jaynes et al. | How many schools of traditional jazz? A study of musicians and listeners. | |
KR20230153961A (ko) | 게놈 데이터 기반의 컨텐츠 운용 방법 및 이를 지원하는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
B601 | Maintenance of original decision after re-examination before a trial | ||
J121 | Written withdrawal of request for trial |