JP2007219178A - 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法 - Google Patents
楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法 Download PDFInfo
- Publication number
- JP2007219178A JP2007219178A JP2006039985A JP2006039985A JP2007219178A JP 2007219178 A JP2007219178 A JP 2007219178A JP 2006039985 A JP2006039985 A JP 2006039985A JP 2006039985 A JP2006039985 A JP 2006039985A JP 2007219178 A JP2007219178 A JP 2007219178A
- Authority
- JP
- Japan
- Prior art keywords
- music
- information
- song
- data
- broadcast
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 77
- 238000012545 processing Methods 0.000 claims abstract description 398
- 238000001514 detection method Methods 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 description 72
- 102100034068 Monocarboxylate transporter 1 Human genes 0.000 description 37
- 101000937642 Homo sapiens Malonyl-CoA-acyl carrier protein transacylase, mitochondrial Proteins 0.000 description 36
- 101000590830 Homo sapiens Monocarboxylate transporter 1 Proteins 0.000 description 36
- 230000008569 process Effects 0.000 description 36
- 101000577115 Homo sapiens Monocarboxylate transporter 2 Proteins 0.000 description 33
- 102100025272 Monocarboxylate transporter 2 Human genes 0.000 description 33
- 230000000875 corresponding effect Effects 0.000 description 18
- 238000001228 spectrum Methods 0.000 description 14
- 238000007405 data analysis Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 102100022907 Acrosin-binding protein Human genes 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 102100022465 Methanethiol oxidase Human genes 0.000 description 4
- 102100021916 Sperm-associated antigen 1 Human genes 0.000 description 4
- 102100040791 Zona pellucida-binding protein 1 Human genes 0.000 description 4
- 230000003321 amplification Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 102100034866 Kallikrein-6 Human genes 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101000756551 Homo sapiens Acrosin-binding protein Proteins 0.000 description 1
- 101710137760 Malonyl-CoA-acyl carrier protein transacylase, mitochondrial Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/046—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for differentiation between music and non-music signals, based on the identification of musical parameters, e.g. based on tempo detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/201—Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
- G10H2240/211—Wireless transmission, e.g. of music parameters or control data by radio, infrared or ultrasound
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/025—Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
- G10H2250/031—Spectrum envelope processing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Acoustics & Sound (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
【課題】本発明は、放送情報の中からの楽曲の抽出精度を向上し得るようにする。
【解決手段】本発明は、記録媒体102に放送情報を記録する一方、当該放送情報の処理単位毎に曲らしさを検出し、当該曲らしさの検出結果に応じて、記録媒体102に記録した放送情報の中で曲候補区間を特定し、その曲候補区間と、外部サーバ106から取得した楽曲情報とに基づき、記録媒体102に記録した放送情報の中で曲区間を決定し、記録媒体102に楽曲情報を当該曲区間に対応付けて記録することにより、放送情報の中で楽曲の前後に流された楽曲紹介の音声やコマーシャルメッセージの音声等の部分を除いて曲区間を決定でき、放送情報の中からの楽曲の抽出精度を向上し得る。
【選択図】 図1
【解決手段】本発明は、記録媒体102に放送情報を記録する一方、当該放送情報の処理単位毎に曲らしさを検出し、当該曲らしさの検出結果に応じて、記録媒体102に記録した放送情報の中で曲候補区間を特定し、その曲候補区間と、外部サーバ106から取得した楽曲情報とに基づき、記録媒体102に記録した放送情報の中で曲区間を決定し、記録媒体102に楽曲情報を当該曲区間に対応付けて記録することにより、放送情報の中で楽曲の前後に流された楽曲紹介の音声やコマーシャルメッセージの音声等の部分を除いて曲区間を決定でき、放送情報の中からの楽曲の抽出精度を向上し得る。
【選択図】 図1
Description
本発明は楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法に関し、例えばラジオの放送局(以下、これをラジオ局と呼ぶ)により放送されたラジオ番組を番組音声データとして記録し、当該番組音声データの中からラジオ番組の中で放送された楽曲の楽曲データを抽出するデータ記録装置に適用して好適なものである。
従来のデータ処理装置は、ラジオ局で放送されるラジオ番組を番組音声データとして保存すると、サーバ装置から当該ラジオ番組の中で放送された楽曲に対する曲名(以下、これを楽曲タイトルと呼ぶ)やアーティスト名、ラジオ番組内での楽曲の放送開始時刻及び放送終了時刻等を関連付けたプレイリストを取得する。そしてデータ処理装置は、プレイリスト内の楽曲に対する放送開始時刻及び放送終了時刻を参照して番組音声データの中から当該楽曲の楽曲データを抽出していた(例えば、特許文献1参照)。
また従来の記録装置は、ユーザにより所望の楽曲を示すキーワードが入力された状態でラジオ番組を番組音声データとして受信すると、その番組音声データを受信している間、ハードディスクに対し現時点から所定時間(以下、これを保持時間と呼ぶ)前までの当該番組音声データを常に更新しながら一時記録する。そして記録装置は、番組音声データの一時記録と並行してラジオ放送情報配信サーバからラジオ番組の中で今現在放送されている楽曲の放送開始時刻、楽曲タイトル、アーティスト名及びジャンル名を示すナウオンエア情報を、番組音声データに対する保持時間よりも短い所定時間(以下、これを取得時間と呼ぶ)間隔で周期的に取得し、当該取得したナウオンエア情報にキーワードと一致する情報が含まれているか否かを判別する。その結果、記録装置は、ナウオンエア情報にキーワードと一致する情報が含まれていると、ハードディスクからこれに一時記録している保持時間分の番組音声データのうちナウオンエア情報を受信した時点から取得時間前までの部分の番組音声データを取り出し、当該取り出した番組音声データに続けてナウオンエア情報を受信した時点以降の番組音声データを保存用としてハードディスクに記録していく。そして記録装置は、周期的に取得しているナウオンエア情報にキーワードと一致する情報が含まれなくなったとき、ハードディスクに対する番組音声データの保存用の記録を停止する。このようにして記録装置は、周期的に取得するナウオンエア情報を利用して、ラジオ番組全体の番組音声データの中から当該ラジオ番組の中で放送された楽曲の楽曲データを保存用の番組音声データとして抽出してハードディスクに記録していた(例えば、特許文献2参照)。
特開2003−203467公報(第4頁、第5頁、第6頁)
特開2005−332475公報(第43頁、第44頁、第45頁)
ところがサーバ装置に保持されているプレイリストは、実際にラジオ番組の中で楽曲の放送開始や放送終了が秒単位のような細かい時間単位で実行されても、当該楽曲の放送開始時刻及び放送終了時刻が精度の粗い分単位で記述されている。このため従来のデータ処理装置は、プレイリストを用いて、例えばラジオ番組の中で楽曲の前後に流されたディスクジョッキーによる楽曲紹介の音声やコマーシャルメッセージのデータ等を楽曲データの先頭部分や後尾部分として余分に抽出する場合がある。
またラジオ放送情報配信サーバに保持されているナウオンエア情報は、ラジオ番組の中での楽曲の放送開始及び放送終了に応じて内容が更新されているものの、上述のプレイリストと同様に実際にラジオ番組の中での楽曲の放送開始や放送終了が秒単位のような細かい時間単位で実行されても、当該楽曲の放送開始時刻及び放送終了時刻が精度の粗い分単位で記述されている。また従来の記録装置は、ラジオ放送情報配信サーバから単に取得時間間隔で周期的にナウオンエア情報を取得しており、その取得時間をナウオンエア情報の内容の更新時刻に合わせているわけではない。これに加えて記録装置は、取得時間も任意に設定されており、番組音声データから楽曲データを抽出するとき、一時的に記録していた番組音声データの一部を利用しても、その一部の先頭位置が楽曲の先頭位置と一致しているわけではない。このため記録装置でも、例えばラジオ番組の中で楽曲の前後に流されたディスクジョッキーによる楽曲紹介の音声やコマーシャルメッセージのデータ等を楽曲データの先頭部分や後尾部分として余分に抽出する場合がある。このように従来のデータ処理装置や記録装置では、番組音声データの中から楽曲データを精度良く抽出しているとは言い難いという問題があった。
本発明は以上の点を考慮してなされたもので、放送情報の中からの楽曲の抽出精度を向上し得る楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法を提案しようとするものである。
かかる課題を解決するため本発明においては、記録媒体に放送情報を記録する一方、当該放送情報の処理単位毎に曲らしさを検出し、当該曲らしさの検出結果に応じて、記録媒体に記録した放送情報の中で曲候補区間を特定し、その曲候補区間と、外部サーバから取得した楽曲情報とに基づき、記録媒体に記録した放送情報の中で曲区間を決定し、記録媒体に楽曲情報を当該曲区間に対応付けて記録するようにした。
従って本発明では、放送情報から単に楽曲情報を用いて曲区間を決定するわけではなく、放送情報の中で曲らしい曲候補区間を特定したうえで、かかる曲候補区間と楽曲情報とに基づいて当該放送情報の中で曲区間を決定することにより、かかる放送情報の中で楽曲の前後に流された楽曲紹介の音声やコマーシャルメッセージの音声等の部分を除いて曲区間を決定することができる。
本発明によれば、記録媒体に放送情報を記録する一方、当該放送情報の処理単位毎に曲らしさを検出し、当該曲らしさの検出結果に応じて、記録媒体に記録した放送情報の中で曲候補区間を特定し、その曲候補区間と、外部サーバから取得した楽曲情報とに基づき、記録媒体に記録した放送情報の中で曲区間を決定し、記録媒体に楽曲情報を当該曲区間に対応付けて記録するようにしたことにより、放送情報の中で楽曲の前後に流された楽曲紹介の音声やコマーシャルメッセージの音声等の部分を除いて曲区間を決定することができ、かくして放送情報の中からの楽曲の抽出精度を向上し得る楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法を実現することができる。
以下図面について、本発明の一実施の形態を詳述する。
(1)実施の形態の概要
図1において、100は全体として本発明による楽曲抽出装置を示す。かかる楽曲抽出装置100において放送情報記録部101は、記録媒体102に放送情報を記録する。また楽曲抽出装置100において曲らしさ検出部103は、放送情報の処理単位毎に曲らしさを検出する。さらに楽曲抽出装置100において曲候補区間特定部104は、曲らしさ検出部103による曲らしさの検出結果に応じて、記録媒体102に記録された放送情報の中で曲候補区間を特定する。さらにまた楽曲抽出装置100において楽曲情報取得部105は、外部サーバ106から楽曲情報を取得する。そして楽曲抽出装置100において曲区間決定部107は、曲候補区間特定部104により特定された曲候補区間と、楽曲情報取得部105により取得された楽曲情報とに基づき、記録媒体102に記録された放送情報の中で曲区間を決定する。これにより楽曲抽出装置100において楽曲情報記録部108は、記録媒体102に楽曲情報を曲区間に対応付けて記録する。このようにして楽曲抽出装置100は、放送情報の中から曲区間として楽曲を抽出し得るようになされている。
図1において、100は全体として本発明による楽曲抽出装置を示す。かかる楽曲抽出装置100において放送情報記録部101は、記録媒体102に放送情報を記録する。また楽曲抽出装置100において曲らしさ検出部103は、放送情報の処理単位毎に曲らしさを検出する。さらに楽曲抽出装置100において曲候補区間特定部104は、曲らしさ検出部103による曲らしさの検出結果に応じて、記録媒体102に記録された放送情報の中で曲候補区間を特定する。さらにまた楽曲抽出装置100において楽曲情報取得部105は、外部サーバ106から楽曲情報を取得する。そして楽曲抽出装置100において曲区間決定部107は、曲候補区間特定部104により特定された曲候補区間と、楽曲情報取得部105により取得された楽曲情報とに基づき、記録媒体102に記録された放送情報の中で曲区間を決定する。これにより楽曲抽出装置100において楽曲情報記録部108は、記録媒体102に楽曲情報を曲区間に対応付けて記録する。このようにして楽曲抽出装置100は、放送情報の中から曲区間として楽曲を抽出し得るようになされている。
因みに楽曲抽出装置100では、曲らしさ検出部103が外部から放送情報を取得しながら当該放送情報の処理単位毎に曲らしさを検出した後、放送情報記録部101がかかる放送情報を記録媒体102に記録するようにしても良いし、放送情報記録部101が記録媒体102に対し放送情報を一旦記録した後、又は記録しながら曲らしさ検出部103が当該記録媒体に記録された放送情報の処理単位毎に曲らしさを検出するようにしても良い。また楽曲抽出装置100では、楽曲情報記録部108が記録媒体102に対し曲区間と対応付けて記録する楽曲情報を曲区間決定部107から取得するようにしても良いし、楽曲情報取得部105から取得するようにしても良い。
(2)実施の形態
図2において、1は全体として本発明を適用したデータ記録装置2を用いて構築された楽曲取得システムを示し、かかるデータ記録装置2はラジオの放送局(以下、これをラジオ局と呼ぶ)3の放送する放送情報としてのラジオ番組のアナログでなる番組音声信号を受信し、当該受信した番組音声信号をデジタルの番組音声データとして記録し得るようになされている。またデータ記録装置2は、インターネット等のネットワークNTを介してラジオ放送情報配信サーバ4、楽曲情報検索サーバ5及び楽曲配信サーバ6と接続して通信し得るようになされている。
図2において、1は全体として本発明を適用したデータ記録装置2を用いて構築された楽曲取得システムを示し、かかるデータ記録装置2はラジオの放送局(以下、これをラジオ局と呼ぶ)3の放送する放送情報としてのラジオ番組のアナログでなる番組音声信号を受信し、当該受信した番組音声信号をデジタルの番組音声データとして記録し得るようになされている。またデータ記録装置2は、インターネット等のネットワークNTを介してラジオ放送情報配信サーバ4、楽曲情報検索サーバ5及び楽曲配信サーバ6と接続して通信し得るようになされている。
この場合、ラジオ放送情報配信サーバ4は、例えばラジオ局3によって管理され、図3に示すように、そのラジオ局3によりラジオ番組の中で放送された楽曲に関する楽曲情報(以下、これを放送楽曲情報と呼ぶ)OAM1乃至OAMnを登録した、いわゆるオンエアリスト情報と呼ばれるデータテーブル(以下、これを放送楽曲テーブルと呼ぶ)OATを保持している。かかる放送楽曲情報OAM1乃至OAMnは、ラジオ局3で放送されたラジオ番組の編成用の情報とほぼ同じ構成でなり、例えばラジオ番組を放送するラジオ局3の放送局名RAN、ラジオ番組の中で放送された楽曲に対する放送日時情報(すなわち、楽曲の放送日、放送開始時刻及び放送終了時刻でなる情報)OTI1、曲番号MN、楽曲に対する曲名(以下、これを楽曲タイトルと呼ぶ)MT、アーティスト名ARN、ジャンル名(すなわち、楽曲の属するジャンルの名称)JN等から構成されている。
ラジオ放送情報配信サーバ4は、ラジオ局3から制作済みのラジオ番組が放送される場合、そのラジオ番組の放送前に当該ラジオ番組の中で放送される全ての楽曲の放送楽曲情報OAM1乃至OAMnを放送楽曲テーブルOATに登録する。またラジオ放送情報配信サーバ4は、ラジオ局3からラジオ番組が生放送される場合、当該生放送中のラジオ番組の中で楽曲が放送される毎にその楽曲の放送楽曲情報OAM1乃至OAMnを生成し、これをラジオ番組の生放送中又は生放送の終了後に放送楽曲テーブルOATに登録する。そしてラジオ放送情報配信サーバ4は、ラジオ局3により放送されたラジオ番組を番組音声データとして記録したデータ記録装置2から、そのラジオ番組の中で放送された全ての楽曲の放送楽曲情報OAM1乃至OAMnが要求されると、これに応じて要求された放送楽曲情報OAM1乃至OAMnを放送楽曲テーブルOATとしてネットワークNT経由でデータ記録装置2に提供し得るようになされている。
また楽曲情報検索サーバ5は、多数の楽曲それぞれに関する提供用としての楽曲情報(以下、これを提供楽曲情報と呼ぶ)を保持している。因みに個々の提供楽曲情報は、例えば楽曲に対する楽曲タイトル、アーティスト名、ジャンル名等から構成されている。これに加えて楽曲情報検索サーバ5は、例えば多数の楽曲のアナログ音声波形をそれぞれ分析し、その分析結果に基づいてこれら多数の楽曲を個別に識別するための識別情報(以下、これを曲指紋情報と呼ぶ)を生成し、当該生成した曲指紋情報を、これで識別可能な楽曲の提供楽曲情報と対応付けて保持している。
そして楽曲情報検索サーバ5は、後述するようにデータ記録装置2から曲指紋情報が提示され提供楽曲情報の検索が要求されると、当該提示された曲指紋情報(以下、これを特に装置提示曲指紋情報と呼ぶ)と、自己の保持している多数の曲指紋情報とを比較する。これにより楽曲情報検索サーバ5は、かかる比較結果に基づき多数の提供楽曲情報の中から、装置提示曲指紋情報と一致する曲指紋情報に対応付けている提供楽曲情報を検索し、当該検索した提供楽曲情報をネットワークNT経由でデータ記録装置2に送信する。このようにして楽曲情報検索サーバ5は、例えば米国グレースノート株式会社や米国ムードロジック株式会社の提供する提供楽曲情報の検索サービスのように、データ記録装置2に対し提供楽曲情報を検索して提供し得るようになされている。
さらに楽曲配信サーバ6は、販売対象の多数の楽曲をATRAC3(Adaptive Transform Acoustic Coding 3)、AAC(Advanced Audio Coding )、WMA(Windows(登録商標) Media Audio )、RealAUDIO G2 Music Codec、MP3(MPEG Audio Layer-3)形式等でなる楽曲データとして保持している。また楽曲配信サーバ6は、これら多数の楽曲をそれぞれ試聴させるための、例えば楽曲データの一部でなる試聴データも保持している。さらに楽曲配信サーバ6は、これら多数の楽曲に対する楽曲タイトル、アーティスト名、ジャンル名等からなる楽曲情報も保持しており、楽曲毎に楽曲情報を楽曲データや試聴データと対応付けている。
そして楽曲配信サーバ6は、データ記録装置2から楽曲データに対応付けていた楽曲情報(以下、これを特に対応付け楽曲情報と呼ぶ)が提示されると、多数の楽曲情報の中から対応付け楽曲情報と一致する楽曲情報を検出し、その検出した楽曲情報に対応付けている試聴データを例えばストリーミング形式でネットワークNTを介してデータ記録装置2に送信する。これにより楽曲配信サーバ6は、データ記録装置2によりその試聴データに基づきユーザに楽曲を試聴させる。その結果、楽曲配信サーバ6は、ユーザにより試聴した楽曲を購入するように判断されデータ記録装置2からその楽曲の購入が要求されると、試聴させた楽曲の楽曲データ(すなわち、先に検出した楽曲情報に対応付けている楽曲データ)をネットワークNT経由でデータ記録装置2に送信する。また楽曲配信サーバ6は、このとき楽曲データの配信に伴う対価をデータ記録装置2のユーザに対して課金するための課金処理を実行する。このようにして楽曲配信サーバ6は、データ記録装置2に対し楽曲データを配信してユーザにその楽曲データを購入させることができるようになされている。
一方、図4に示すように、データ記録装置2は、中央処理ユニット(CPU:Central Processing Unit )10と各ハードウェアとがバス11を介して接続され、当該中央処理ユニット10がROM(Read Only Memory)12又はハードディスクドライブ13から読み出した楽曲抽出プログラム等の各種プログラムをRAM(Random Access Memory)14で展開して実行することにより全体を統括制御すると共に、各種処理を実行するようになされている。これにより中央処理ユニット10は、例えばデータ記録装置2の筐体等に設けられた操作キー15を介して配信対象の楽曲の取得が要求されると、楽曲の配信を要求する楽曲配信要求信号を、通信処理部16を介してネットワークNT上の楽曲配信サーバ6に送信する。このとき楽曲配信サーバ6は、データ記録装置2から送信された楽曲配信要求信号を受信すると、これに応じて、配信の要求された楽曲データの配信に伴う課金処理を実行すると共に、当該配信の要求された楽曲データをネットワークNT経由でデータ記録装置2に送信する。そしてデータ記録装置2の中央処理ユニット10は、楽曲配信サーバ6から送信された楽曲データを、通信処理部16を介して受信し、これをハードディスクドライブ13に記録する。このようにして中央処理ユニット10は、ネットワークNT上の楽曲配信サーバ6から楽曲データを取得(ダウンロード)し得るようになされている。
この後、中央処理ユニット10は、操作キー15を介して楽曲データの再生が要求されると、ハードディスクドライブ13から再生の要求された楽曲データを読み出し、これをデータ処理部17に送出する。データ処理部17は、中央処理ユニット10から与えられた楽曲データに対しデコード処理等のデジタル処理を施した後、このデジタル処理した楽曲データに対しデジタルアナログ変換処理及び増幅処理等のアナログ処理を施す。これによりデータ処理部17は、かかるアナログ処理により楽曲信号を得て、これをスピーカ18に送出することにより当該スピーカ18から楽曲信号に基づく楽曲を出力させてユーザに聴取させることができる。このようにして中央処理ユニット10は、ハードディスクドライブ13に記録した楽曲データを再生し得るようになされている。
また中央処理ユニット10は、操作キー14を介してラジオ局3が選局されラジオ番組の聴取が要求されると、チューナ19に対し複数のラジオ局3のラジオ放送波のうち、ユーザにより選局されたラジオ局3のラジオ放送波を抽出するように設定して動作させる。また中央処理ユニット10は、このときデータ処理部17をラジオ番組の聴取用に制御する。これによりチューナ19は、アンテナ20で受信された各ラジオ局3のラジオ放送波の中から、ユーザにより選局されたラジオ局3のラジオ放送波を抽出して復調処理等の所定の受信処理を施し、この結果得られたラジオ番組の番組音声信号をデータ処理部17に送出する。データ処理部17は、チューナ19から与えられた番組音声信号に対しアナログデジタル変換処理及びイコライジング処理等のデジタル処理を施し、その結果得られた番組音声データに対しデジタルアナログ変換処理及び増幅処理等のアナログ処理を施す。これによりデータ処理部17は、かかるアナログ処理により番組音声信号を得て、これをスピーカ18に送出することにより当該スピーカ18から番組音声信号に基づく番組音声を出力させてユーザに聴取させる。このようにして中央処理ユニット10は、ユーザに対し所望のラジオ局3で放送されているラジオ番組を聴かせることができる。
さらに中央処理ユニット10は、操作キー15を介してラジオ局3が選局されラジオ番組の録音が要求されると、上述と同様にチューナ19をユーザにより選局されたラジオ局3のラジオ放送波を抽出するように設定して動作させる。また中央処理ユニット10は、このときデータ処理部17をラジオ番組の録音用に制御する。これによりチューナ19は、アンテナ20で受信された各ラジオ局3のラジオ放送波の中から、ユーザにより選局されたラジオ局3のラジオ放送波を抽出して受信処理を施し、この結果得られたラジオ番組の番組音声信号をデータ処理部17に送出する。またデータ処理部17は、チューナ19から与えられた番組音声信号に対してデジタル処理を施し、その結果得られた番組音声データを中央処理ユニット10に送出する。そして中央処理ユニット10は、番組音声データをハードディスクドライブ13に送出してデータファイル(以下、これを番組音声ファイルと呼ぶ)として記録する。このようにして中央処理ユニット10は、所望のラジオ局3で放送されているラジオ番組を録音することができる。因みに中央処理ユニット10は、ラジオ番組を録音した後には、上述した楽曲データの再生時と同様にハードディスクドライブ13から番組音声データを読み出して再生処理することによりラジオ番組を聴かせることもできる。
さらにまた中央処理ユニット10は、ROM12から読み出した各種プログラムの実行結果(例えば、楽曲データの取得及び再生やラジオ番組の聴取及び録音等)に応じた表示用データを表示制御部21に送出する。表示制御部21は、中央処理ユニット10から与えられた表示用データに基づく画面をディスプレイ22に表示する。このようにして中央処理ユニット10は、ディスプレイ22を介して、楽曲データの取得及び再生やラジオ番組の聴取及び録音等に関する各種画面をユーザに視認させ得るようになされている。
ところで図5に示すように、データ処理部17は、チューナ19に接続された入力インタフェース30と、スピーカ18に接続された出力インタフェース31とがそれぞれ入出力切換器32に接続されている。そしてデータ処理部17の入出力切換器32は、楽曲データの再生時、中央処理ユニット10の制御のもと、出力インタフェース31を入力インタフェース30から切り離してバス11に接続する。これにより出力インタフェース31は、中央処理ユニット10から入出力切換器32を介して与えられた楽曲データに対しデコード処理等のデジタル処理を施した後、このデジタル処理した楽曲データに対してデジタルアナログ変換処理及び増幅処理等のアナログ処理を施し、その結果得られた楽曲信号をスピーカ18に送出する。
またデータ処理部17において入出力切換器32は、ラジオ番組の聴取時、中央処理ユニット10の制御のもと、入力インタフェース30及び出力インタフェース31をバス11から切り離し、これらを互いに接続する。これにより入力インタフェース30は、このときチューナ19から与えられた番組音声信号に対してアナログデジタル変換処理及びイコライジング処理等のデジタル処理を施し、その結果得られた番組音声データを、入出力切換器32を介して出力インタフェース31に送出する。そして出力インタフェース31は、入力インタフェース30から与えられた番組音声データに対してデジタルアナログ変換処理及び増幅処理等のアナログ処理を施し、その結果得られた番組音声信号をスピーカ18に送出する。さらにデータ処理部17において入出力切換器32は、ラジオ番組の録音時、中央処理ユニット10の制御のもと、入力インタフェース30を出力インタフェース31から切り離してバス11に接続する。これにより入力インタフェース30は、チューナ19から与えられた番組音声信号に対してアナログデジタル変換処理等のデジタル処理を施し、その結果得られた番組音声データを、入出力切換器32を介して中央処理ユニット10に送出する。
かかる構成に加えてデータ処理部17には、データ解析回路35が設けられている。データ解析回路35は、バス11に接続された入力切換器36に対し曲らしさ検出器37の入力端と曲指紋生成器38の入力端とが接続され、バス11に接続された出力切換器39に対し曲らしさ検出器37の出力端と曲指紋生成器38の出力端とが接続されて構成されている。この場合、データ解析回路35において曲らしさ検出器37は、処理対象のデータに対しどれだけ楽曲データらしいかを数値化して表す曲らしさを検出し得るようになされている。またデータ解析回路35において曲指紋生成器38は、曲らしさ検出器36による曲らしさの検出結果に基づき処理対象のデータの中で特定された曲候補区間が示す部分データ(以下、これを曲候補区間データと呼ぶ)の例えばアナログ音声波形を分析し、その分析結果に基づいて、上述した楽曲情報検索サーバ5と同様に装置提示曲指紋情報を生成し得るようになされている。
すなわち中央処理ユニット10は、ユーザにより操作キー15を介して楽曲の自動抽出を目的としたラジオ番組の録音が要求されると、これに応じてデータ処理部17のデータ解析回路35を制御する。これによりデータ解析回路35は、入力切換器36及び出力切換器39により、曲らしさ検出器37と曲指紋生成器38とのうち一方の曲らしさ検出器37の入力端及び出力端をそれぞれバス11に接続する。そして中央処理ユニット10は、このとき上述と同様にデータ処理部17から与えられる番組音声データをハードディスクドライブ13に記録しながら、かかる記録処理と並行して当該番組音声データを所定の処理単位のデータ(例えば、ラジオ番組の1秒程度の番組音声データに相当し、以下、これを処理単位データと呼ぶ)毎にデータ解析回路35に送出する。従ってデータ解析回路35は、中央処理ユニット10から与えられた処理単位データを、入力切換器36を介して曲らしさ検出器37に順次取り込む。そして曲らしさ検出器37は、上述した処理対象のデータとしての処理単位データが、どれだけラジオ番組の中で放送された楽曲の楽曲データらしいかを数値化して表す曲らしさを検出するようにして、かかる曲らしさの検出を番組音声データ全体に対して実行する。
ここで曲らしさ検出器37による曲らしさの検出手法としては、例えば2種類ある。これら2種類の曲らしさ検出手法のうち一方の曲らしさ検出手法は、人の声の周波数成分が比較的低域側に分布し、かつ楽器等の音の周波数成分が比較的高域側に分布していることを利用するものである。すなわち一方の曲らしさ検出手法は、処理単位データを周波数分析し、その分析結果に基づき曲らしさを検出するものである。また他方の曲らしさ検出手法は、一般に音声データが人の声の生成機構をモデル化してエンコード処理(すなわち、圧縮処理)されているために、楽曲等の声以外の部分のデータをエンコード処理した場合にそのデータの元の波形と、当該データをコーデック処理(すなわち、一旦エンコード処理した後デコード処理)して得られた処理結果データの波形との差分(以下、これをエンコード誤差と呼ぶ)が、声の部分のデータから得られるエンコード誤差に比して大きくなることを利用するものである。すなわち他方の曲らしさ検出手法は、処理単位データのエンコード誤差に基づき曲らしさを検出するものである。そして、かかる曲らしさ検出器37には、これら2種類の曲らしさ検出手法のうち何れか一方が適用されていることにより、以下には、これら2種類の曲らしさ検出手法について順番に説明する。
まず曲らしさ検出器37に対し一方の曲らしさ検出手法が適用されている場合、かかる曲らしさ検出器37は、中央処理ユニット10の制御のもと、内部のメモリに予め記憶している曲らしさ検出プログラムに従って図6に示す曲らしさ検出処理手順RT1を開始する。曲らしさ検出器37は、かかる曲らしさ検出処理手順RT1を開始すると、ステップSP1において中央処理ユニット10から与えられる番組音声データの中の処理単位データ(例えば、ラジオ番組の放送中の時刻がタイムコードとして付加されている番組音声データの中で、当該タイムコードとしてのある時刻tを基点とした当該時刻tの経過側への1024サンプルのデータでなる)を取り込む。そして曲らしさ検出器37は、その処理単位データに対し高速フーリエ変換(FFT:fast Fourier Transfer )演算を施すことにより、当該処理単位データを周波数スペクトルに分解して、次のステップSP2に移る。
ステップSP2において曲らしさ検出器37は、周波数スペクトルspを例えば8〔KHz〕の周波数を境界として低域の周波数スペクトルspnと高域の周波数スペクトルspnとに分ける。因みに番組音声データのサンプリング周波数が44.1〔KHz〕の場合、低域の周波数スペクトルspnはsp0乃至sp185となり、高域の周波数スペクトルspnはsp186乃至sp511となる。また曲らしさ検出器37は、低域のパワースペクトルaを(1)式
で表されるように、低域の周波数スペクトルsp0乃至sp185の大きさ成分を2乗して算出すると共に、高域のパワースペクトルbを(2)式
で表されるように、高域の周波数スペクトルsp186乃至sp511の大きさ成分を2乗して算出する。
そして曲らしさ検出器37は、低域のパワースペクトルaと高域のパワースペクトルbとの比率(以下、これをパワースペクトル比率と呼ぶ)Rtを(3)式
に従って算出して、次のステップSP3に移る。
ステップSP3において曲らしさ検出器37は、移動平均値の算出手法を用いて、この時点までに求めた合計n個のパワースペクトル比率Rt−nの移動平均の数値xを(4)式
に従って求め、その移動平均の数値xを曲らしさを表す数値(以下、これを曲らしさ値と呼ぶ)とする。そして曲らしさ検出器37は、曲らしさ値を、出力切換器39を介して中央処理ユニット10に送出し、次のステップSP4に移る。
ステップSP4において曲らしさ検出器37は、番組音声データ全体の処理単位データについて曲らしさを検出し終えたか否かを判別する。その結果、曲らしさ検出器37は、未だ中央処理ユニット10から処理単位データを取り込んでいる途中であり、曲らしさの検出が完了してはいないことで否定結果を得ると、ステップSP1に戻る。これにより曲らしさ検出器37は、この後、ステップSP4において肯定結果を得るまでの間、ステップSP1乃至ステップSP4の処理を循環的に繰り返し実行する。そして曲らしさ検出器37は、番組音声データ全体の処理単位データに対する曲らしさの検出が完了することでステップSP4において肯定結果を得ると、次のステップSP5に移り、かかる曲らしさ検出処理手順RT1を終了する。このようにして曲らしさ検出器37は、一方の曲らしさ検出手法が適用されている場合、上述した(3)式からも明らかなように、番組音声データにおいてラジオ番組の番組音声として人の声が支配的な箇所では曲らしさ値が比較的小さくなり、これに対し人の声以外の楽器の音等が支配的な箇所では曲らしさ値が比較的大きくなることを利用して、番組音声データの処理単位データ毎に順次曲らしさを検出する。
また曲らしさ検出器37に対し他方の曲らしさ検出手法が適用されている場合、かかる曲らしさ検出器37は、中央処理ユニット10の制御のもと、内部のメモリに予め記憶している曲らしさ検出プログラムに従って図7に示す曲らしさ検出処理手順RT2を開始する。曲らしさ検出器37は、かかる曲らしさ検出処理手順RT2を開始すると、ステップSP11において中央処理ユニット10から与えられる番組音声データの中の処理単位データ(例えば、番組音声データに付加されたタイムコードとしてのある時刻tを基点とした当該時刻tの経過側への200 サンプルのデータでなる)を取り込む。そして曲らしさ検出器37は、その処理単位データのサンプリング周波数を変換して、次のステップSP12に移る。因みに曲らしさ検出器37は、このとき処理単位データのサンプリング周波数を、後のコーデック処理(例えば、CELP(Code Excited Linear Prediction)方式に準じたコーデック処理)で扱うことのできる周波数に合わせるように例えば8〔KHz〕又は16〔KHz〕に変換する。
ステップSP12において曲らしさ検出器37は、処理単位データに対しコーデック処理(すなわち、一旦エンコード処理した後、デコード処理する)。そして曲らしさ検出器37は、処理単位データの元の波形cと、その処理単位データをコーデック処理して得られた例えば元と同じ200サンプルのデータでなる処理結果データの波形dとからエンコード誤差Etを(5)式
で表されるように、互いのサンプル同士の差分を求めるように算出して、次のステップSP13に移る。因みに曲らしさ検出器37は、(5)式に示す演算を実行する場合、処理単位データに対するコーデック処理の開始から、当該処理単位データをコーデック処理して処理結果データを得るまでの遅延delayを考慮してエンコード誤差Etを算出している。
ステップSP13において曲らしさ検出器37は、移動平均値の算出手法を用いて、この時点までに求めた合計n個のエンコード誤差Etの移動平均の数値xを(6)式
に従って求め、その移動平均の数値xを曲らしさ値とする。そして曲らしさ検出器37は、その曲らしさ値を、出力切換器39を介して中央処理ユニット10に送出し、次のステップSP14に移る。
ステップSP14において曲らしさ検出器37は、番組音声データ全体の処理単位データについて曲らしさを検出し終えたか否かを判別する。その結果、曲らしさ検出器37は、未だ中央処理ユニット10から処理単位データを取り込んでいる途中であり、曲らしさの検出が完了してはいないことで否定結果を得ると、ステップSP11に戻る。これにより曲らしさ検出器37は、この後、ステップSP14において肯定結果を得るまでの間、ステップSP11乃至ステップSP14の処理を循環的に繰り返し実行する。そして曲らしさ検出器37は、番組音声データ全体の処理単位データに対する曲らしさの検出が完了することでステップSP14において肯定結果を得ると、次のステップSP15に移り、かかる曲らしさ検出処理手順RT2を終了する。このようにして曲らしさ検出器37は、他方の曲らしさ検出手法が適用されている場合、上述した(5)式からも明らかなように、番組音声データにおいてラジオ番組の番組音声として人の声が支配的な箇所では曲らしさ値が比較的小さくなり、これに対し人の声以外の楽器の音等が支配的な箇所では曲らしさ値が比較的大きくなることを利用して、番組音声データの処理単位データ毎に順次曲らしさを検出する。
そして中央処理ユニット10は、上述のように曲らしさ検出器37に対し番組音声データを順次処理単位データとして送出して曲らしさを検出させている間、その曲らしさ検出処理と並行してハードディスクドライブ13への番組音声データの記録処理と共に、当該番組音声データの個々の処理単位データに対し楽曲データであるか否かを判別する楽曲判別処理も実行している。すなわち中央処理ユニット10は、ラジオ番組の録音を開始すると、ROM12又はハードディスクドライブ13に予め記憶している楽曲抽出プログラムに従い図8に示す楽曲判別処理手順RT3を開始する。中央処理ユニット10は、かかる楽曲判別処理手順RT3を開始すると、ステップSP31において番組音声データを構成する個々の処理単位データが楽曲データの一部であるか否かの判別結果を表す楽曲判別情報を、楽曲データの一部ではないことを表す「Not Music」に初期設定して、次のステップSP32に移る。
ステップSP32において中央処理ユニット10は、曲らしさ検出器37に、ラジオ番組の放送時間の経過に従った順番で番組音声データの中の1個の処理単位データを送出して、次のステップSP33に移る。ステップSP33において中央処理ユニット10は、曲らしさ検出器37から、その処理単位データに対する曲らしさの検出結果としての曲らしさ値を取得して、次のステップSP34に移る。ステップSP34において中央処理ユニット10は、かかる曲らしさ値を、予め選定された所定のしきい値と比較し、その比較結果に基づいて当該曲らしさ値がしきい値以上であるか否かを判別する。このステップSP34において肯定結果が得られると、このことは曲らしさ値がしきい値以上であり、この時点に曲らしさを検出した処理単位データ(以下、これを特に曲らしさ検出処理単位データと呼ぶ)が楽曲データの一部である可能性が高いことを表している。従って中央処理ユニット10は、このときステップSP35に移る。
ステップSP35において中央処理ユニット10は、現在、楽曲判別情報を「Not Music」に設定しているか否かを判別する。このステップSP35において肯定結果が得られると、このことは楽曲判別情報を「Not Music」に設定していることで、曲らしさ検出処理単位データがラジオ番組の中で楽曲が放送され始めた時点のデータである可能性が高いことを表している。従って中央処理ユニット10は、このときステップSP36に移る。そしてステップSP36において中央処理ユニット10は、楽曲判別情報を「Not Music」から、処理単位データが楽曲データの一部であることを表す「Music」に変更して設定する。また中央処理ユニット10は、「Music」に設定した楽曲判別情報を、番組音声データにおける曲らしさ検出処理単位データの先頭位置(すなわち、楽曲データの一部ではないと判別した処理単位データと楽曲データの一部でなると判別した処理単位データとの境界位置)を示す時刻情報(すなわち、タイムコード)と共に、RAM14又はハードディスクドライブ13に記録して、次のステップSP37に移る。因みに曲らしさ検出処理単位データの先頭位置を示す時刻情報は、ラジオ番組がその放送に合わせてリアルタイムで録音されているため、現在時刻から曲らしさ検出処理単位データに対する曲らしさ検出処理に要した遅延時間を減じた時刻である。ステップSP37において中央処理ユニット10は、番組音声データ全体の処理単位データについて楽曲データの一部であるか否かの判別が終了したか否かを判別する。このステップSP37において否定結果が得られると、このことはラジオ番組を録音している途中であることを表している。従って中央処理ユニット10は、このときステップSP32に戻る。
ところで上述したステップSP34において否定結果が得られると、このことは曲らしさ値がしきい値よりも小さいことで、曲らしさ検出処理単位データが楽曲データの一部ではない可能性が高いことを表している。従って中央処理ユニット10は、このときステップSP38に移る。ステップSP38において中央処理ユニット10は、現在、楽曲判別情報を「Music」に設定しているか否かを判別する。このステップSP38において肯定結果が得られると、このことは楽曲判別情報を「Music」に設定していることで、曲らしさ検出処理単位データがラジオ番組の中で楽曲の放送が終了された直後のデータである可能性が高いことを表している。従って中央処理ユニット10は、このときステップSP39に移る。そしてステップSP39において中央処理ユニット10は、楽曲判別情報を「Music」から「Not Music」に変更して設定する。また中央処理ユニット10は、「Not Music」に設定した楽曲判別情報を、番組音声データにおける曲らしさ検出処理単位データの先頭位置(すなわち、楽曲データの一部でなると判別した処理単位データと楽曲データの一部ではないと判別した処理単位データとの境界位置)を示す時刻情報(すなわち、タイムコード)と共に、RAM14又はハードディスクドライブ13に記録して、次のステップSP37に移る。
また上述したステップSP35において否定結果が得られると、このことは楽曲判別情報を「Music」に設定していることで、曲らしさ検出処理単位データがラジオ番組の中で放送されている楽曲の途中のデータである可能性が高いことを表している。従って中央処理ユニット10は、このときステップSP32に戻る。またステップSP38において否定結果が得られると、このことは楽曲判別情報を「Not Music」に設定していることで、曲らしさ検出処理単位データがラジオ番組の中で流れているディスクジョッキーによる楽曲紹介の音声やコマーシャルメッセージによる広告用の音声の途中のデータである可能性が高いことを表している。従って中央処理ユニット10は、このときステップSP32に戻る。
このようにして中央処理ユニット10は、ハードディスクドライブ13に対しラジオ番組の番組音声データを記録している間、これと並行して上述のステップSP32乃至ステップSP39の処理を適宜実行する。これにより中央処理ユニット10は、かかる番組音声データ全体の処理単位データについてそれぞれ楽曲データの一部であるか否かを判別し、その判別内容の切り換りを示す楽曲判別情報及び時刻情報(すなわち、タイムコード)を記録する。この後ステップSP39において肯定結果が得られると、このことはラジオ番組の録音が終了し、番組音声データ全体の処理単位データについて楽曲データの一部であるか否かの判別も終了したことを表している。従って中央処理ユニット10は、このときステップSP40に移り、かかる楽曲判別処理手順RT3を終了する。
そして図9に示すように、中央処理ユニット10は、ラジオ番組の録音が終了したとき、例えばラジオ番組のテーマ曲TMで始まり、ディスクジョッキーのトーク(楽曲の紹介等も含む)TK1及びTK2や楽曲M1乃至Mm、コマーシャルメッセージCM1及びCM2等を所望の順番で放送するように編成されたラジオ番組の番組音声データD1をハードディスクドライブ13に記録している。因みにかかる番組音声データD1は、番組音声ファイル内でラジオ番組の放送の経過時間に従って(すなわち、編成内容に従って)テーマ曲TMの楽曲データや、ディスクジョッキーのトークTK1及びTK2の音声データ、楽曲M1乃至Mmの楽曲データ及びコマーシャルメッセージCM1及びCM2の音声データが並べられて構成されている。
また図10(A)に示すように、中央処理ユニット10は、上述した楽曲判別処理の実行により記録した楽曲判別情報及び時刻情報に基づき、番組音声データD1において楽曲データの候補であると想定される区間(以下、これを曲候補区間と呼ぶ)MC1乃至MCmを特定する。この場合、中央処理ユニット10は、「Music」に設定した楽曲判別情報と共に記録している時刻情報を曲候補区間MC1乃至MCmの開始時刻(以下、これを区間開始時刻と呼ぶ)としている。また中央処理ユニット10は、「Not Music」に設定した楽曲判別情報と共に記録している時刻情報を曲候補区間MC1乃至MCmの終了時刻(以下、これを区間終了時刻と呼ぶ)としている。
ところで中央処理ユニット10は、曲らしさ検出器37による上述した一方又は他方の曲らしさ検出手法に従った曲らしさの検出結果に応じて楽曲データであるか否かを判別している。従って中央処理ユニット10は、ラジオ番組の中で放送されたテーマ曲TMやバックグランドミュージックと共に流されたコマーシャルメッセージCM1の部分も曲候補区間MC1及びMC3として特定する場合がある。また図10(B)に示すように、中央処理ユニット10は、ラジオ番組の中で例えばラップミュージックのように、曲中に楽器の音を抑えて台詞を挿入しているような楽曲M2が放送された場合、番組音声データD1の中で当該楽曲M2の楽曲データ部分を少なくとも2つの曲候補区間MC41及びMC42に分けて特定することもある。すなわち中央処理ユニット10は、かかる楽曲M2の楽曲データ部分を、楽曲データの候補ではないと想定される少なくとも1つの介在区間NC1を介在させた少なくとも2つの曲候補区間MC41及びMC42として特定する場合もある。
そして図11(A)に示すように、中央処理ユニット10は、例えば図10(A)について上述したように、曲候補区間MC1乃至MCmを特定した場合、当該特定した曲候補区間MC1乃至MCmを示すデータテーブル(以下、これを曲候補区間テーブルと呼ぶ)MCT1を生成する。因みに中央処理ユニット10は、例えば図10(B)について上述したように曲候補区間MC1乃至MCmを特定した場合、図11(B)に示すような曲候補区間テーブルMCT2を生成する。かかる曲候補区間テーブルMCT1及びMCT2は、ラジオ番組を放送したラジオ局3の放送局名を示す放送局名情報RNと、曲候補区間MC1乃至MCmを示す曲候補区間情報MCと、これら曲候補区間MC1乃至MCmに対し任意に付した区間名を示す区間名情報ANとを格納して構成されている。
ここで中央処理ユニット10は、例えば複数のラジオ局3の放送局名RNと、各ラジオ局3にそれぞれ割り当てられたラジオ放送波の放送周波数とを対応付けてハードディスクドライブ13に記憶している。従って中央処理ユニット10は、ラジオ番組の録音用にチューナ19に対して設定した抽出対象の放送周波数に応じて、その録音したラジオ番組を放送しているラジオ局3の放送局名を特定する。そして中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2に対し、その特定した放送局名を放送局名情報RNとし曲候補区間MC1乃至MCm毎に対応付けて格納している。また中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2に対し、番組音声データD1の中で曲候補区間MC1乃至MCmが示す部分データ(すなわち、曲候補区間データ)の放送日と、これら曲候補区間MC1乃至MCmの区間開始時刻及び区間終了時刻(すなわち、曲候補区間MC1乃至MCmを特定した際の時刻情報であり、時、分、秒の単位で記述している)とを曲候補区間情報MCとして格納している。さらに中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2に対し、曲候補区間MC1乃至MCmをそれぞれ個別に識別可能なID(IDentification)や連番等でなる区間名を区間名情報ANとして格納している。
中央処理ユニット10は、このように曲候補区間テーブルMCT1及びMCT2を生成すると、当該生成した曲候補区間テーブルMCT1及びMCT2を用いて番組音声データD1の中から楽曲データを抽出する。その際、中央処理ユニット10は、2種類の楽曲抽出手法のうち例えばユーザにより選択された何れか一方に従い、かかる楽曲抽出処理を実行している。ここで2種類の楽曲抽出手法のうち一方の楽曲抽出手法は、曲候補区間テーブルMCT1及びMCT2と共に、図2及び図3について上述したラジオ放送情報配信サーバ4の配信する放送楽曲テーブルOATを利用するものである。また他方の楽曲抽出手法は、曲候補区間テーブルMCT1及びMCT2と共に、図2について上述した楽曲情報検索サーバ5の提供する提供楽曲情報を利用するものである。このため以下には、これら2種類の楽曲抽出手法による楽曲抽出処理を順番に説明する。
まず中央処理ユニット10は、一方の楽曲抽出手法が選択されている場合、曲候補区間テーブルMCT1及びMCT2を生成すると、録音したラジオ番組を放送していたラジオ局3の管理するラジオ放送情報配信サーバ4に対し、通信処理部16を介して、そのラジオ番組に対応する放送楽曲テーブルOATを要求する。その結果、中央処理ユニット10は、かかるラジオ放送情報配信サーバ4から放送楽曲テーブルOATが送信されると、これを通信処理部16を介して受信する。中央処理ユニット10は、放送楽曲テーブルOAT内の放送日時情報OTI1と、曲候補区間テーブルMCT1及びMCT2内の曲候補区間情報MCとを比較するようにして、番組音声データD1の中の複数の曲候補区間MC1乃至MCmのうち、ラジオ番組の中で放送された楽曲の楽曲データに対応する曲候補区間MC2、MC4及びMCmを判別する。これにより中央処理ユニット10は、その判別した曲候補区間MC2、MC4及びMCmを番組音声データD1の中における楽曲データの区間(以下、これを特に曲区間と呼ぶ)に決定する。因みに中央処理ユニット10は、図10(B)及び図11(B)について上述したように、番組音声データD1の中で本来は1つの楽曲データの区間であるのに、その区間を少なくとも2つの曲候補区間MC41及びMC42に分けて特定していた場合でも、放送楽曲テーブルOATの放送日時情報OTI1と、曲候補区間テーブルMCT1及びMCT2の曲候補区間情報MCとを比較することで、これら少なくとも2つの曲候補区間MC41及びMC42を介在区間NC1と統合して(すなわち、1つにまとめて)1つの曲区間(すなわち、曲候補区間MC4に相当)に決定し得るようになされている。
そして図12に示すように、中央処理ユニット10は、曲区間を示す曲候補区間情報MC内の区間開始時刻及び区間終了時刻を新たな放送開始時刻及び放送終了時刻として、放送楽曲テーブルOATの各放送日時情報OTI1内に代入する。すなわち中央処理ユニット10は、これら各放送日時情報OTI1内の元の放送開始時刻及び放送終了時刻をこれよりも単位の細かい新たな放送開始時刻(すなわち、区間開始時刻)及び放送終了時刻(すなわち、区間終了時刻)に変更する。このようにして中央処理ユニット10は、放送楽曲テーブルOATを元にして、楽曲の放送開始時刻及び放送終了時刻のみを補正した放送日時情報OTI2を有する時刻補正放送楽曲テーブルROATを生成する。
これにより中央処理ユニット10は、かかる時刻補正放送楽曲テーブルROAT内の放送日時情報OTI2に基づき、ハードディスクドライブ13に記録している番組音声データD1の中から曲区間を楽曲データとして切り出して抽出し、当該抽出した楽曲データをハードディスクドライブ13に記録する。また中央処理ユニット10は、時刻補正放送楽曲テーブルROAT内の楽曲タイトルMT、アーティスト名ARN及びジャンル名JNを対応付け楽曲情報(すなわち、この場合は放送楽曲情報OAM1乃至OAMnの一部である)として、その抽出した楽曲データ(すなわち、切り出した曲区間)に対応付けてハードディスクドライブ13に記録する。因みに中央処理ユニット10は、この際、元の番組音声データD1については、例えばユーザに消去するか否かを問合せ、消去が要求されたときには、ハードディスクドライブ13から番組音声データD1を消去し、消去しないように要求されたときにはハードディスクドライブ13に対し番組音声データD1を記録したままとする。これにより中央処理ユニット10は、ハードディスクドライブ13に対し番組音声データD1の中の楽曲データを改めて記録することで、番組音声データD1を消去したときにはハードディスクドライブ13の記録用の空領域が無駄に消費されることを回避することができる。また中央処理ユニット10は、番組音声データD1を消去しないときには、その中の楽曲データとは別に番組音声データD1を再生してユーザにラジオ番組を聴取させることができる。
実際上、中央処理ユニット10は、一方の楽曲抽出手法による楽曲抽出処理を楽曲抽出プログラムに従って実行している。すなわち中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2を生成すると、楽曲抽出プログラムに従い図13及び図14に示す楽曲抽出処理手順RT4を開始する。中央処理ユニット10は、かかる楽曲抽出処理手順RT4を開始すると、ステップSP51においてラジオ放送情報配信サーバ4から放送楽曲テーブルOATを取得する。そして中央処理ユニット10は、放送楽曲テーブルOAT内の放送開始時刻及び放送終了時刻の単位(すなわち、分単位)を、曲候補区間テーブルMCT1及びMCT2内の区間開始時刻及び区間終了時刻の単位(すなわち、秒単位)に合わせて変更する。また中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2内において曲候補区間情報MCの参照位置を、時間的に最も過去の(すなわち、番組音声データD1において最も先頭側に位置する)曲候補区間情報MCに合わせて初期化する。さらに中央処理ユニット10は、放送楽曲テーブルOAT内において放送日時情報OTI1の参照位置も時間的に最も過去の(すなわち、ラジオ番組内で最も速い時点に放送された楽曲に対応する)放送日時情報OTI1に合わせて初期化して、次のステップSP52に移る。
ステップSP52において中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2内の参照位置に、参照すべき曲候補区間情報MCが存在するか否かを判別する。このステップSP52において肯定結果が得られると、このことは未だ曲候補区間テーブルMCT1及びMCT2内の全ての曲候補区間情報MCを参照し終えてはいないことで、当該曲候補区間テーブルMCT1及びMCT2内の参照位置に曲候補区間情報MCが存在することを表している。従って中央処理ユニット10は、このときステップSP53に移る。ステップSP53において中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2の中から参照位置の曲候補区間情報MCを取得して、次のステップSP54に移る。
ステップSP54において中央処理ユニット10は、放送楽曲テーブルOAT内の参照位置に、参照すべき放送日時情報OTI1が存在するか否かを判別する。このステップSP54において肯定結果が得られると、このことは未だ放送楽曲テーブルOAT内の全ての放送日時情報OTI1を参照し終えてはいないことで、当該放送楽曲テーブルOAT内の参照位置に放送日時情報OTI1が存在することを表している。従って中央処理ユニット10は、このときステップSP55に移る。ステップSP55において中央処理ユニット10は、放送楽曲テーブルOATの中から参照位置の放送日時情報OTI1を取得して、次のステップSP56に移る。
ステップSP56において中央処理ユニット10は、現在参照中の曲候補区間情報MC内の区間終了時刻が、現在参照中の放送日時情報OTI1内の放送開始時刻よりも時間的に後であるか否かを判別する。このステップSP56において肯定結果が得られると、このことは曲候補区間情報MCが示す曲候補区間MC2乃至MCmの一部又は全部が、放送日時情報OTI1内の放送開始時刻から放送終了時刻までの区間(以下、これを曲放送推定区間と呼ぶ)の一部又は全部と時間的に重なっている可能性があることを表している。従って中央処理ユニット10は、このときステップSP57に移る。ステップSP57において中央処理ユニット10は、現在参照中の曲候補区間情報MC内の区間開始時刻が、現在参照中の放送日時情報OTI1内の放送終了時刻よりも時間的に前であるか否かを判別する。このステップSP57において肯定結果が得られると、このことは曲候補区間情報MCが示す曲候補区間MC2、MC4、MC41、MC42、MCmの一部又は全部と、放送日時情報OTI1が示す曲放送推定区間の一部又は全部とが時間的に重なっていることを表している。従って中央処理ユニット10は、このときステップSP58に移る。
ステップSP58において中央処理ユニット10は、現在参照中の曲候補区間情報MC内の区間開始時刻が、現在参照中の放送日時情報OTI1内の放送開始時刻を中心とした例えば前後にそれぞれ数分(例えば、前後にそれぞれ1分)の開始時刻補正判別範囲内であるか否かを判別する。このステップSP58において肯定結果が得られると、このことは曲候補区間情報MCが示す曲候補区間MC2、MC4、MC41、MCmの少なくとも先頭部分と、放送日時情報OTI1が示す曲放送推定区間の先頭部分とが時間的にほぼ重なっている(又は完全に重なっている)ことを表している。従って中央処理ユニット10は、このときステップSP59に移る。これによりステップSP59において中央処理ユニット10は、現在参照中の放送日時情報OTI1内の放送開始時刻を、現在参照中の曲候補区間情報MC内の区間開始情報でなる新たな放送開始時刻に変更して、次のステップSP60に移る。
ステップSP60において中央処理ユニット10は、現在参照中の曲候補区間情報MC内の区間終了時刻が、現在参照中の放送日時情報OTI1内の放送終了時刻を中心とした例えば前後にそれぞれ数分(例えば、前後にそれぞれ1分)の終了時刻補正判別範囲内であるか否かを判別する。このステップSP60において肯定結果が得られると、このことは曲候補区間情報MCが示す曲候補区間MC2、MC4、MC42、MCmの少なくとも後尾部分と、放送日時情報OTI1が示す曲放送推定区間の後尾部分とが時間的にほぼ重なっている(又は完全に重なっている)ことを表している。従って中央処理ユニット10は、このときステップSP61に移る。これによりステップSP61において中央処理ユニット10は、現在参照中の放送日時情報OTI1内の放送終了時刻を、現在参照中の曲候補区間情報MC内の区間終了情報でなる新たな放送終了時刻に変更して、次のステップSP62に移る。
ここで上述のステップSP58において否定結果が得られると、このことは曲候補区間情報MCの示す曲候補区間MC42が、放送日時情報OTI1の示す曲放送推定区間に対応する複数の曲候補区間MC41及びMC42のうちの1つであることを表している。すなわちかかる否定結果は、曲候補区間MC42の一部又は全部と、曲放送推定区間とが時間的に重なっているものの、当該曲候補区間MC42の先頭部分については曲放送推定区間の先頭部分から時間的に離れており、重なっているとは判断し難いことを表している。従って中央処理ユニット10は、このときステップSP59の処理を飛ばしてステップSP60に移る。また上述のステップSP60において否定結果が得られると、このことは曲候補区間情報MCの示す曲候補区間MC41が、放送日時情報OTI1の示す曲放送推定区間に対応する複数の曲候補区間MC41及びMC42のうちの1つであることを表している。すなわちかかる否定結果は、曲候補区間MC41の一部又は全部と、曲放送推定区間とが時間的に重なっているものの、当該曲候補区間MC41の後尾部分については曲放送推定区間の後尾部分から時間的に離れており、重なっているとは判断し難いことを表している。従って中央処理ユニット10は、このときステップSP61及びステップSP62の処理を飛ばしてステップSP63に移る。
従ってステップSP62において中央処理ユニット10は、放送日時情報OTI1内の放送開始時刻及び放送終了時刻の変更に用いた1又は2つの曲候補区間情報MC内の区間開始時刻から区間終了時刻までを曲区間に決定して、次のステップSP63に移る。すなわち中央処理ユニット10は、放送日時情報OTI1内の放送開始時刻及び放送終了時刻の変更に、1つの曲候補区間情報MC内の区間開始時刻及び区間終了時刻を用いた場合、当該1つの曲候補区間情報MCが示す曲候補区間MC2、MC4、MCmをそのまま曲区間に決定する。また中央処理ユニット10は、放送日時情報OTI1内の放送開始時刻及び放送終了時刻の変更に、2つの曲候補区間情報MC内の区間開始時刻及び区間終了時刻を用いた場合、1つの曲放送推定区間に対応する少なくとも2つの曲候補区間MC41及びMC42をその間に介在する介在区間NC1と統合するようにして、これら区間開始時刻から区間終了時刻までを曲区間に決定する。
そしてステップSP63において中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2内の参照位置を、この時点に参照対象の曲候補区間情報MCから時間的に次の曲候補区間情報MC側に進めて、ステップSP52に戻る。ところで上述したステップSP56において否定結果が得られると、このことは曲候補区間情報MCの示す曲候補区間MC1及びMC3が、放送日時情報OTI1の示す曲放送推定区間よりも時間的に前に位置して全く重なってはいないことを表している。従って中央処理ユニット10は、このときステップSP63に移る。また上述したステップSP57において否定結果が得られると、このことは曲候補区間情報MCの示す曲候補区間MC2乃至MCmが、放送日時情報OTI1の示す曲放送推定区間よりも時間的に後に位置して全く重なってはいないことを表している。従って中央処理ユニット10は、このときステップSP64に移る。そしてステップSP64において中央処理ユニット10は、放送楽曲テーブルOAT内の参照位置を、この時点の放送日時情報OTI1から時間的に次の放送日時情報OTI1側に進めて、ステップSP54に戻る。このようにして中央処理ユニット10は、この後、ステップSP52又はステップSP54において否定結果が得られるまでの間、ステップSP52乃至ステップSP64の処理を循環的に繰り返し実行する。これにより中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2内の複数の曲候補区間情報MCが示す曲候補区間MC1乃至MCmのうち放送楽曲テーブルOAT内の放送日時情報OTI1が示す曲放送推定区間に対応する曲候補区間MC2、MC4、MCmを曲区間に決定する。
この後、上述したステップSP52において否定結果が得られると、このことは曲候補区間テーブルMCT1及びMCT2内の全ての曲候補区間情報MCを参照し終えたことを表している。従って中央処理ユニット10は、このときステップSP65に移る。また上述したステップSP54において否定結果が得られると、このことは放送楽曲テーブルOAT内の全ての放送日時情報OTI1を参照し終えたことを表している。従って中央処理ユニット10は、このときもステップSP65に移る。ステップSP65において中央処理ユニット10は、曲区間の決定に合わせて生成した時刻補正放送楽曲テーブルROAT内の放送日時情報OTI2に基づき、ハードディスクドライブ13内の番組音声データD1の中から曲区間を楽曲データとして抽出すると共に、当該時刻補正放送楽曲テーブルROAT内の楽曲タイトルMT、アーティスト名ARN及びジャンル名JNを対応付け楽曲情報として、その抽出した楽曲データに対応付けてハードディスクドライブ13に記録して、次のステップSP66に移る。これによりステップSP66において中央処理ユニット10は、一方の楽曲抽出手法に従った楽曲抽出処理手順RT4を終了する。
また中央処理ユニット10は、他方の楽曲抽出手法が選択されている場合、曲候補区間テーブルMCT1及びMCT2を生成すると、データ処理部17のデータ解析回路35を制御する。これによりデータ解析回路35は、入力切換器36及び出力切換器39により、曲らしさ検出器37と曲指紋生成器38とのうち曲指紋生成器38の入力端及び出力端をそれぞれバス11に接続する。そして中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2内の曲候補区間情報MCに従いハードディスクドライブ13から番組音声データD1の中の曲候補区間データを読み出し、これをデータ解析回路35に送出する。従ってデータ解析回路35は、中央処理ユニット10から与えられた曲候補区間データを、入力切換器36を介して曲指紋生成器38に取り込む。そして曲指紋生成器38は、例えば曲候補区間データのアナログ音声波形を分析し、その分析結果に基づいて当該曲候補区間データを個別に識別するための装置提示曲指紋情報を生成する。これにより曲指紋生成器38は、かかる装置提示曲指紋情報を、出力切換器39を介して中央処理ユニット10に送出する。
中央処理ユニット10は、曲指紋生成器38から装置提示曲指紋情報が与えられると、その装置提示曲指紋情報と共に提供楽曲情報の検索要求を、通信処理部16を介して楽曲情報検索サーバ5に送信する。その結果、中央処理ユニット10は、楽曲情報検索サーバ5から装置提示曲指紋情報により検索された提供楽曲情報が送信されると、これを通信処理部16を介して受信する。そして図15(A)及び(B)に示すように、中央処理ユニット10は、曲候補区間テーブルMCT1に対し提供楽曲情報を曲候補区間情報MCに対応付けて登録することで、その曲候補区間情報MCの示す曲候補区間MC1、MC2、MC4、MCmを曲区間に決定する。因みに中央処理ユニット10は、例えばラジオ番組内のテーマ曲TMに対応する曲候補区間MC1等でも、提供楽曲情報を取得して対応付けることができれば、かかる曲候補区間MC1を曲区間に決定する。しかしながら中央処理ユニット10は、例えばラジオ番組の中でバックグランドミュージックと共に、ナレータ等の音声が同時に流れるコマーシャルメッセージに対応する曲候補区間MC3の曲候補区間データから装置提示曲指紋情報を生成したことで、楽曲情報検索サーバ5に対し検索を要求しても提供楽曲情報を取得し得なかったときには、曲候補区間情報MCに対する提供楽曲情報の対応付けをみおくり、当該曲候補区間情報MCの示す曲候補区間MC3を曲区間に決定しないようにする。
このようにして中央処理ユニット10は、曲候補区間テーブルMCT1をもとに、これに提供楽曲情報を加えた楽曲抽出テーブルMETを生成する。因みに中央処理ユニット10は、時間的に隣接する曲候補区間情報MC同士に異なる提供楽曲情報を対応付けたときには、提供楽曲情報を加えた曲候補区間テーブルMCT1をそのまま楽曲抽出テーブルMETとする(図15(A))。これに対して中央処理ユニット10は、図10(B)及び図11(B)について上述したように、番組音声データD1の中で本来は1つの楽曲データの区間であるのに、その区間を少なくとも2つの曲候補区間MC41及びMC42に分けて特定していたことで、時間的に隣接する曲候補区間情報MC同士に同一の提供楽曲情報を対応付けたときには(図15(B))、これら曲候補区間情報MCが示す曲候補区間MC41及びMC42を間の介在区間NC1と共に統合して1つの曲区間(すなわち、曲候補区間MC4に相当)に決定し、楽曲抽出テーブルMETを生成する(図15(A))。
これにより中央処理ユニット10は、かかる楽曲抽出テーブルMET内の曲候補区間情報MCに基づき、ハードディスクドライブ13に記録している番組音声データD1の中から曲区間MC1、MC2、MC4及びMCmを楽曲データとして切り出して抽出し、当該抽出した楽曲データをハードディスクドライブ13に記録する。また中央処理ユニット10は、楽曲抽出テーブルMET内の楽曲タイトルMT、アーティスト名ARN及びジャンル名JNを対応付け楽曲情報(すなわち、この場合は提供楽曲情報である)として、その抽出した楽曲データ(すなわち、切り出した曲区間MC1、MC2、MC4及びMCm)に対応付けてハードディスクドライブ13に記録する。因みに中央処理ユニット10は、この際にも、元の番組音声データD1については、例えばユーザに消去するか否かを問合せ、その問合せ結果に応じて、ハードディスクドライブ13から番組音声データD1を消去し、又は消去しないようにする。
実際上、中央処理ユニット10は、他方の楽曲抽出手法による楽曲抽出処理を楽曲抽出プログラムに従って実行している。すなわち中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2を生成すると、楽曲抽出プログラムに従い図16に示す楽曲抽出処理手順RT5を開始する。中央処理ユニット10は、かかる楽曲抽出処理手順RT5を開始すると、ステップSP71において曲候補区間テーブルMCT1及びMCT2内で曲候補区間情報MCの参照位置を上述と同様に初期化して、次のステップSP72に移る。
ステップSP72において中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2内の参照位置に、参照すべき曲候補区間情報MCが存在するか否かを判別する。このステップSP72において肯定結果が得られると、このことは未だ曲候補区間テーブルMCT1及びMCT2内の全ての曲候補区間情報MCを参照し終えてはいないことで、当該曲候補区間テーブルMCT1及びMCT2内の参照位置に曲候補区間情報MCが存在することを表している。従って中央処理ユニット10は、このときステップSP73に移る。ステップSP73において中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2の中から参照位置の曲候補区間情報MCを取得して、次のステップSP74に移る。
ステップSP74において中央処理ユニット10は、曲候補区間情報MCに基づきハードディスクドライブ13から番組音声データD1の中の曲候補区間データを読み出し、これを曲指紋生成器38に送出することにより、装置提示曲指紋情報を生成する。そして中央処理ユニット10は、かかる装置提示曲指紋情報を用いて楽曲情報検索サーバ5に対し提供楽曲情報を要求して、次のステップSP75に移る。ステップSP75において中央処理ユニット10は、楽曲情報検索サーバ5から提供楽曲情報を取得したか否かを判別する。このステップSP75において肯定結果が得られると、このことは曲候補区間情報MCの示す曲候補区間MC1、MC2、MC4、MCmが番組音声データD1の中の楽曲データに対応しており、提供楽曲情報を取得して当該曲候補区間情報MCに対応付けたことを表している。従って中央処理ユニット10は、このときステップSP76に移る。
ステップSP76において中央処理ユニット10は、現在参照中の曲候補区間情報MCが示す曲候補区間MC1、MC2、MC4、MC41、MC42、MCmよりも時間的に1つ前の曲候補区間MC1、MC2、MC4、MC41、MC42、MCmを示す曲候補区間情報MCに、この時点に取得した提供楽曲情報と同一の提供楽曲情報を対応付けているか否かを判別する。このステップSP76において肯定結果が得られると、このことは現在参照中の曲候補区間情報MCの示す曲候補区間MC42が、番組音声データD1の中の1つの楽曲データに対応する複数の曲候補区間MC41及びMC42のうちの1つであり、時間的に1つ前の曲候補区間MC41を示す曲候補区間情報MCに対応付けたものと同一の提供楽曲情報を対応付けたことを表している。従って中央処理ユニット10は、このときステップSP77に移る。
ステップSP77において中央処理ユニット10は、時間的に1つ前の曲候補区間MC41を示す曲候補区間情報MC内の区間開始時刻、及び現在参照中の曲候補区間情報MC内の区間終了時刻のみを用いて、これら曲候補区間MC41及びMC42を統合した新たな曲候補区間MC4を示す曲候補区間情報MCを生成すると共に、当該新たな曲候補区間情報MCに、この時点に取得した提供楽曲情報を対応付け直して、次のステップSP78に移る。これによりステップSP78において中央処理ユニット10は、提供楽曲情報を対応付けた曲候補区間情報MCの示す曲候補区間MC1、MC2、MC4、MCmを曲区間に決定して、次のステップSP79に移る。ステップSP79において中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2内の参照位置を、この時点に参照対象の曲候補区間情報MCから時間的に次の曲候補区間情報MC側に進めて、ステップSP72に戻る。ところで上述したステップSP75において否定結果が得られると、このことは曲候補区間情報MCの示す曲候補区間MC3が番組音声データD1の中の楽曲データに対応してはいないため、提供楽曲情報を取得し得なかったことを表している。従って中央処理ユニット10は、このときステップSP79に移る。また上述したステップSP76において否定結果が得られると、このことは現在参照中の曲候補区間情報MCの示す曲候補区間MC1、MC2、MC4、MCmが、番組音声データD1の中の1つの楽曲データに対応する唯一の曲候補区間MC1、MC2、MC4、MCmを示すものであることを表している。従って中央処理ユニット10は、このときステップSP78に移る。
このようにして中央処理ユニット10は、この後、ステップSP72において否定結果が得られるまでの間、ステップSP72乃至ステップSP79の処理を循環的に繰り返し実行する。これにより中央処理ユニット10は、曲候補区間テーブルMCT1及びMCT2内の複数の曲候補区間情報MCに対しそれぞれ曲候補区間MC1、MC2、MC4、MCmが楽曲データであることを示す提供楽曲情報を対応付けて、かかる曲候補区間MC1、MC2、MC4、MCmを曲区間に決定する。そしてこの後、上述したステップSP72において否定結果が得られると、このことは曲候補区間テーブルMCT1及びMCT2内の全ての曲候補区間情報MCを参照し終えたことを表している。従って中央処理ユニット10は、このときステップSP80に移る。ステップSP80において中央処理ユニット10は、曲区間の決定に合わせて生成した楽曲抽出テーブルMET内の曲候補区間情報MCに基づき、ハードディスクドライブ13内の番組音声データD1の中から曲区間を楽曲データとして抽出すると共に、当該楽曲抽出テーブルMET内の楽曲タイトルMT、アーティスト名ARN及びジャンル名JNを対応付け楽曲情報として、その抽出した楽曲データに対応付けてハードディスクドライブ13に記録した後、次のステップSP81に移る。これによりステップSP81において中央処理ユニット10は、他方の楽曲抽出手法に従った楽曲抽出処理手順RT5を終了する。
因みに中央処理ユニット10は、ユーザにより一方の楽曲抽出手法が選択されているものの、ラジオ放送情報配信サーバ4にアクセスしたとき、例えばラジオ放送情報配信サーバ4がメンテナンス中であり、放送楽曲テーブルOATを取得し得なかった場合には、自動的に他方の楽曲抽出手法に切り換えて楽曲抽出処理を実行する。また中央処理ユニット10は、ユーザにより他方の楽曲抽出手法が選択されているものの、楽曲情報検索サーバ5にアクセスしたとき、例えば楽曲情報検索サーバ5がメンテナンス中であり、提供楽曲情報を取得し得なかった場合には、自動的に一方の楽曲抽出手法に切り換えて楽曲抽出処理を実行する。これにより中央処理ユニット10は、ユーザの要求に応じて楽曲をほぼ確実に抽出することができる。
中央処理ユニット10は、楽曲抽出処理の実行により時刻補正放送楽曲テーブルROATや楽曲抽出テーブルMETを生成した場合、その時刻補正放送楽曲テーブルROATや楽曲抽出テーブルMETに基づき、ハードディスクドライブ13における、番組音声データD1の中から抽出した楽曲データの記録位置を示す記録位置情報と、楽曲タイトルMT、アーティスト名ARN及びジャンル名JNからなる対応付け楽曲情報とを対応付け、その楽曲データの再生順序を規定した再生リスト(図示せず)を生成している。そして中央処理ユニット10は、ユーザにより操作キー15を介してその再生リストに従った楽曲データの再生が要求されると、当該再生リストに従いハードディスクドライブ13から、番組音声データD1の中から抽出した楽曲データを順次読み出してデータ処理部17で再生処理することにより、ユーザにラジオ番組の中で放送された楽曲部分のみを連続的に聴取させ得るようになされている。
ところでラジオ番組の中で放送される楽曲は、その先頭部分や後尾部分にディスクジョッキーによる楽曲紹介の音声がかぶり、又は曲の途中で強制的に音量をさげてフェードアウトされ、1曲全体が完全な状態では放送されない場合がある。またラジオ番組の中で放送される楽曲は、ラジオ局3によるラジオ放送波の放送方式(すなわち、周波数変調や振幅変調)によっては、音質が劣化している場合もある。このため中央処理ユニット10は、かかる楽曲データの再生中にユーザにより購入が要求されると、これに応じて楽曲配信サーバ6から、当該再生中の楽曲データと同一の楽曲データを購入形式で取得(すなわち、ダウンロード)し得るようになされている。そして中央処理ユニット10は、楽曲配信サーバ6から楽曲データを取得すると、これをハードディスクドライブ13に記録すると共に、番組音声データD1から抽出した同一の楽曲データを例えば消去して再生し得ないようにする。このようにして中央処理ユニット10は、番組音声データD1の中から抽出した楽曲データを、1曲全体が完全な状態でかつ音質の劣化していない楽曲データに置き換えることができるようになされている。
実際上、中央処理ユニット10は、かかる楽曲購入処理を楽曲抽出プログラムに従って実行している。すなわち中央処理ユニット10は、ユーザにより、再生リストに従った楽曲データの再生が要求されると、楽曲抽出プログラムに従い図17に示す楽曲購入処理手順RT6を開始する。中央処理ユニット10は、かかる楽曲購入処理手順RT6を開始すると、ステップSP91において再生リストの参照位置を、再生順序に従い最初に再生する楽曲データの記録位置情報及び対応付け楽曲情報(以下、これらをまとめて項目と呼ぶ)に合わせて初期化して、次のステップSP92に移る。ステップSP92において中央処理ユニット10は、再生リストに従い未だ再生してはいない楽曲データが存在するか否かを判別する。このステップSP92において肯定結果が得られると、このことは再生リストに従い未だ全ての楽曲データを再生し終えてはいない、又はユーザにより強制的に再生の終了が要求されてはいないことを表している。従って中央処理ユニット10は、このときステップSP93に移る。ステップSP93において中央処理ユニット10は、再生リスト内で現在参照中の項目に従いハードディスクドライブ13から楽曲データを読み出してデータ処理部17で再生処理し、次のステップSP94に移る。
ステップSP94において中央処理ユニット10は、ユーザに対し再生処理中の楽曲データに基づく楽曲が気に入られたか否かを問合せる。その結果、中央処理ユニット10は、ユーザにより操作キー15を介して楽曲の気に入られたことが通知されると、次のステップSP95に移る。ステップSP95において中央処理ユニット10は、現在参照中の項目に含まれる対応付け楽曲情報を楽曲配信サーバ6に提示して、次のステップSP96に移る。ステップSP96において中央処理ユニット10は、楽曲配信サーバ6から対応付け楽曲情報に対応する試聴データがストリーミング形式で送信されると、これを受信してデータ処理部17で再生処理することにより、ユーザに対し対応付け楽曲情報に対応する楽曲を試聴させて、次のステップSP97に移る。因みに中央処理ユニット10は、ハードディスクドライブ13から楽曲データを読み出し再生処理している途中で、楽曲配信サーバ6から送信された試聴データを受信したときには、かかる楽曲データの再生処理を停止して試聴データを再生処理する。
ステップSP97において中央処理ユニット10は、ユーザに対し試聴中の楽曲の楽曲データを購入するか否かを問合せる。その結果、中央処理ユニット10は、ユーザにより操作キー15を介して楽曲データの購入が要求されると、次のステップSP98に移る。ステップSP98において中央処理ユニット10は、楽曲配信サーバ6に対応付け楽曲情報に対応する楽曲データの購入を要求する。その結果、中央処理ユニット10は、楽曲配信サーバ6から楽曲データに対する購入処理が実行され、かかる楽曲データが送信されると、これを受信して、次のステップSP99に移る。ステップSP99において中央処理ユニット10は、受信した楽曲データをハードディスクドライブ13に記録すると共にその楽曲データに対応付け楽曲情報を対応付ける。また中央処理ユニット10は、このとき再生処理していた楽曲データ(すなわち、番組音声データD1の中から抽出した楽曲データ)を削除して、次のステップSP100に移る。ステップSP100において中央処理ユニット10は、再生リスト内の参照位置を再生順序に従い次の項目側に進めて、ステップSP92に戻る。
ところで上述したステップSP94において中央処理ユニット10は、楽曲が気に入られないことで、ユーザにより操作キー15を介して次の楽曲データを再生するように要求されると、ステップSP100に移る。また上述したステップSP97において中央処理ユニット10は、ユーザにより楽曲データの購入が断念されたことで、操作キー15を介して次の楽曲データを再生するように要求されると、このときもステップSP100に移る。
このようにして中央処理ユニット10は、この後、ステップSP92において否定結果が得られるまでの間、ステップSP92乃至ステップSP100の処理を循環的に繰り返し実行する。これにより中央処理ユニット10は、再生リストに従い楽曲データを順次再生処理しながら、ユーザの要求に応じて楽曲データを購入し、当該購入した楽曲データを、番組音声データD1の中から抽出した楽曲データから置き換えるように記録する。そしてこの後、上述したステップSP92において否定結果が得られると、このことは再生リストに従い全ての楽曲データを再生し終えた、又はユーザにより強制的に再生の終了が要求されたことを表している。従って中央処理ユニット10は、このときステップSP101に移り、かかる楽曲購入処理手順RT6を終了する。
以上の構成において、データ記録装置2の中央処理ユニット10は、ラジオ局3により放送されているラジオ番組を録音する場合、ハードディスクドライブ13に当該ラジオ番組の番組音声データD1を記録しながら、その番組音声データD1の順次処理単位に対し曲らしさを検出する。また中央処理ユニット10は、曲らしさの検出結果に応じて番組音声データD1の中で曲候補区間MC1乃至MCmを特定する。さらに中央処理ユニット10は、外部のラジオ放送情報配信サーバ4から取得した放送楽曲テーブルOATに含まれる放送楽曲情報OAM1乃至OAMn、又は外部の楽曲情報検索サーバ5から取得した提供楽曲情報と、曲候補区間MC1乃至MCmとに基づき、番組音声データD1の中から曲区間を決定する。そして中央処理ユニット10は、番組音声データD1の中から曲区間を楽曲データとして抽出すると共に、対応付け楽曲情報をその楽曲データに対応付けてハードディスクドライブ13に記録する。
すなわちデータ記録装置2は、単に放送楽曲テーブルOATを用いてラジオ番組の番組音声データD1の中から曲区間を決定するわけではなく、番組音声データD1の中で曲候補区間MC1乃至MCmを特定したうえで、かかる曲候補区間MC1乃至MCmと、放送楽曲情報OAM1乃至OAMn又は提供楽曲情報とに基づいて当該番組音声データD1の中で曲区間を決定している。従ってデータ記録装置2は、番組音声データD1の中で楽曲データの前後の楽曲紹介の音声データやコマーシャルメッセージの音声データ等を除いて曲区間を決定することができる。
以上の構成によれば、ハードディスクドライブ13に対し番組音声データD1を記録する一方、当該番組音声データD1の処理単位毎に曲らしさを検出し、その曲らしさの検出結果に応じて、番組音声データD1の中で曲候補区間MC1乃至MCmを特定し、その曲候補区間MC1乃至MCmと、放送楽曲情報OAM1乃至OAMn又は提供楽曲情報とに基づき、番組音声データD1の中で曲区間を決定し、ハードディスクドライブ13に対し対応付け楽曲情報を当該曲区間に対応付けて記録するようにした。これによりデータ記録装置2は、番組音声データD1の中で楽曲データの前後の楽曲紹介の音声データやコマーシャルメッセージの音声データ等の余分な部分を除いて曲区間を決定することができる。よってデータ記録装置2は、番組音声データD1の中からの楽曲データの抽出精度を向上することができる。
ところでデータ記録装置2は、曲区間を決定する場合、ラジオ放送情報配信サーバ4の配信する放送楽曲テーブルOAT内の放送楽曲情報OAM1乃至OAMnを利用している。このためデータ記録装置2は、番組音声データD1の中から、ラジオ番組の中で放送された楽曲の楽曲データの部分のみを的確に曲区間として決定することができる。またデータ記録装置2は、曲区間を決定する場合、番組音声データD1の中で特定した全ての曲候補区間MC1乃至MCmの曲候補区間データについて装置提示曲指紋情報を生成し、その装置提示曲指紋情報の提示に応じて楽曲情報検索サーバ5の提供する提供楽曲情報も利用している。このためデータ記録装置2は、番組音声データD1の中から、ラジオ番組の中で放送された楽曲の楽曲データの部分に加えて、ラジオ番組のテーマ曲TM等の部分も曲区間として決定することができる。従ってデータ記録装置2は、番組音声データD1の中から抽出した楽曲データを再生処理した場合、ユーザに対しラジオ番組の中で放送された楽曲のみならず、ラジオ番組のテーマ曲TM等も聴かせることができる。
さらにデータ記録装置2は、番組音声データD1の中から抽出した楽曲データを再生処理して聴かせた場合、ユーザにより当該再生処理して聴かせた楽曲の購入が要求されると、これに応じて楽曲配信サーバ6にアクセスするようにした。従ってデータ記録装置2は、番組音声データD1の中から抽出した楽曲データに基づく楽曲の一部が欠けていたり、音質が劣化している場合に、1曲全体が完全な状態でかつ音質の劣化していない楽曲データを購入することができる。そしてデータ記録装置2は、このように楽曲データを購入した場合、番組音声データD1の中から抽出していた元の楽曲データを消去することで、ハードディスクドライブ13の空領域が無駄に消費されることを回避することができる。
(3)他の実施の形態
なお上述した実施の形態においては、中央処理ユニット10が番組音声データD1の中から曲区間を切り出して抽出するようにした場合について述べたが、本発明はこれに限らず、中央処理ユニット10がハードディスクドライブ13内のFAT(File Allocation Table )と呼ばれる管理情報の内容を変更することで、当該番組音声データD1の中で曲区間のみを再生可能な状態にして当該番組音声データD1の中から曲区間を抽出するようにしても良い。
なお上述した実施の形態においては、中央処理ユニット10が番組音声データD1の中から曲区間を切り出して抽出するようにした場合について述べたが、本発明はこれに限らず、中央処理ユニット10がハードディスクドライブ13内のFAT(File Allocation Table )と呼ばれる管理情報の内容を変更することで、当該番組音声データD1の中で曲区間のみを再生可能な状態にして当該番組音声データD1の中から曲区間を抽出するようにしても良い。
また上述した実施の形態においては、番組音声データD1の中から抽出した楽曲データを楽曲配信サーバ6から購入した際、元の楽曲データを消去するようにした場合について述べたが、本発明はこれに限らず、中央処理ユニット10がハードディスクドライブ13内のFAT(File Allocation Table )と呼ばれる管理情報の内容を変更し、番組音声データD1の中から抽出した楽曲データを単に再生不可能な状態にするようにしても良い。
さらに上述した実施の形態においては、番組音声データD1の中で曲区間を決定する際に、いわゆるオンエアリスト情報と呼ばれる放送楽曲テーブルOATを利用するようにした場合について述べたが、本発明はこれに限らず、ラジオ番組の放送中に番組音声データD1を記録しながら曲候補区間MC1乃至MCmを特定しつつ、当該ラジオ番組の中で楽曲が放送される毎に提供される、いわゆるナウオンエア情報と呼ばれる今現在放送中の楽曲の楽曲情報を利用して番組音声データD1の中で曲区間を決定するようにしても良い。
さらに上述した実施の形態においては、番組音声データD1を記録しながら曲らしさを検出するようにした場合について述べたが、本発明はこれに限らず、番組音声データD1を一旦ハードディスクドライブ13に記録した後、例えばユーザの要求に応じて当該ハードディスクドライブ13から番組音声データD1を読み出して曲らしさを検出するようにしても良い。このようにしても上述した実施の形態と同様の効果を得ることができる。
さらに上述した実施の形態においては、楽曲判別処理手順RT3を実行した際に楽曲判別情報と時刻情報とを記録するようにした場合について述べたが、本発明はこれに限らず、楽曲判別処理手順RT3を実行した際に番組音声データD1に対し楽曲判別情報をポインタとして付加するようにしても良い。このようにすれば楽曲判別処理手順RT3を実行した際に楽曲判別情報と時刻情報とを記録することなく、番組音声データD1を走査することで曲候補区間MC1乃至MCmを特定することができる。
さらに上述した実施の形態においては、番組音声データD1の中で曲候補区間MC1乃至MCmを秒単位で特定するようにした場合について述べたが、本発明はこれに限らず、放送日時情報OTI1内の時刻単位よりも細かければ、処理単位データのサイズを小さくして曲らしさを検出することで、番組音声データD1の中で曲候補区間MC1乃至MCmをミリ秒単位で特定するようにしても良い。このようにすれば、上述した実施の形態に比べて、放送情報からの楽曲の抽出精度をさらに向上させることができる。
さらに上述した実施の形態においては、ラジオ番組の番組音声データD1の中から楽曲データを抽出するようにした場合について述べたが、本発明はこれに限らず、テレビジョン番組の番組音声データの中から楽曲データを抽出するようにしても良い。
さらに上述した実施の形態においては、番組音声データD1全体に亘り、曲らしさを検出するようにした場合について述べたが、本発明はこれに限らず、本発明を従来の引用文献2に示す発明と組み合せ、ナウオンエア情報の受信に応じて番組音声データを保存用としてハードディスクドライブ13に記録した際に、当該番組音声データの先頭部分及び後尾部分についてのみ曲らしさを検出するようにしても良い。このようにすれば、曲らしさ検出器37の処理負荷を大幅に低減させることができる。
さらに上述した実施の形態においては、本発明によるデータ記録装置を、図1乃至図17について上述した楽曲抽出装置100及びデータ記録装置2に適用するようにした場合について述べたが、本発明はこれに限らず、ラジオ番組やテレビジョン番組の受信機能を有するコンピュータや携帯電話機、PDA(Personal Digital Assistance )等の情報処理装置、DVD(Digital Versatile Disc)レコーダやハードディスクレコーダ等の記録再生装置等のように、この他種々の構成の楽曲抽出装置に広く適用することができる。
さらに上述した実施の形態においては、本発明による楽曲抽出プログラムを、図1乃至図17について楽曲抽出プログラムに適用し、中央処理ユニット10がその楽曲抽出プログラムに従って図8、図13、図14、図16、図17について上述した楽曲判別処理手順RT3、楽曲抽出処理手順RT4及びRT5、楽曲購入処理手順RT6を実行するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成の楽曲抽出プログラムを適用し、その楽曲抽出プログラムが格納されたプログラム格納媒体をデータ記録装置2にインストールすることにより楽曲判別処理手順RT3、楽曲抽出処理手順RT4及びRT5、楽曲購入処理手順RT6を実行するようにしても良い。ところで楽曲抽出プログラムについては、例えば上述した曲らしさ検出器37の実行する曲らしさ検出処理や曲指紋生成器38の実行する曲指紋生成処理も、中央処理ユニット10に対し、楽曲判別処理や楽曲抽出処理の一環として実行させるように構成することもできる。
さらに上述した実施の形態においては、放送情報を記録する記録媒体として、図1乃至図17について上述した楽曲抽出装置100の記録媒体102や、データ記録装置2のハードディスクドライブ13を適用するようにした場合について述べたが、本発明はこれに限らず、データ記録装置2に着脱可能に設けられる半導体メモリや光ディスク等の記録媒体、またデータ記録装置2に内蔵された半導体メモリ等のように、この他種々の記録媒体を広く適用することができる。
さらに上述した実施の形態においては、記録媒体に記録する放送情報として、図1乃至図17について上述したラジオ番組の番組音声データD1を適用するようにした場合について述べたが、本発明はこれに限らず、テレビジョン番組の番組音声データのように、この他種々の放送情報を広く適用することができる。
さらに上述した実施の形態においては、記録媒体に放送情報を記録する放送情報記録部として、図1乃至図17について上述した楽曲抽出装置100の放送情報記録部101や、データ記録装置2の中央処理ユニット10を適用するようにした場合について述べたが、本発明はこれに限らず、記録媒体に放送情報を記録するハードウェア構成の放送情報記録回路等のように、この他種々の放送情報記録部を広く適用することができる。
さらに上述した実施の形態においては、曲らしさ検出部による曲らしさの検出結果に応じて、記録媒体に記録された放送情報の中で曲候補区間を特定する曲候補区間特定部として、図1乃至図17について上述した楽曲抽出装置100の曲候補区間特定部104や、データ記録装置2の中央処理ユニット10を適用するようにした場合について述べたが、本発明はこれに限らず、曲らしさ検出部による曲らしさの検出結果に応じて、記録媒体に記録された放送情報の中で曲候補区間を特定するハードウェア構成の曲候補区間特定回路等のように、この他種々の曲候補区間特定部を広く適用することができる。
さらに上述した実施の形態においては、外部サーバとして、図1乃至図17について上述した外部サーバ106、ラジオ放送情報配信サーバ4、楽曲情報検索サーバ5を適用するようにした場合について述べたが、本発明はこれに限らず、テレビジョン放送情報配信サーバ等のように、この他種々の外部サーバを広く適用することができる。
さらに上述した実施の形態においては、外部サーバから楽曲情報を取得する楽曲情報取得部として、図1乃至図17について上述した楽曲抽出装置100の楽曲情報取得部105や、データ記録装置2の中央処理ユニット10及び通信処理部16を適用するようにした場合について述べたが、本発明はこれに限らず、外部サーバから楽曲情報を取得するハードウェア構成の楽曲情報取得回路等のように、この他種々の楽曲情報取得部を広く適用することができる。
さらに上述した実施の形態においては、曲候補区間特定部により特定された曲候補区間と、楽曲情報取得部により取得された楽曲情報とに基づき、記録媒体に記録された放送情報の中で曲区間を決定する曲区間決定部として、図1乃至図17について上述した楽曲抽出装置100の曲区間決定部107や、データ記録装置2の中央処理ユニット10を適用するようにした場合について述べたが、本発明はこれに限らず、曲候補区間特定部により特定された曲候補区間と、楽曲情報取得部により取得された楽曲情報とに基づき、記録媒体に記録された放送情報の中で曲区間を決定するハードウェア構成の曲区間決定回路等のように、この他種々の曲区間決定部を広く適用することができる。
さらに上述した実施の形態においては、記録媒体に楽曲情報を曲区間に対応付けて記録する楽曲情報記録部として、図1乃至図17について上述した楽曲抽出装置100の楽曲情報記録部108や、データ記録装置2の中央処理ユニット10を適用するようにした場合について述べたが、本発明はこれに限らず、記録媒体に楽曲情報を曲区間に対応付けて記録するハードウェア構成の楽曲情報記録回路等のように、この他種々の楽曲情報記録部を広く適用することができる。
本発明は、ラジオ放送やテレビジョン放送を受信して録音し得るパーソナルコンピュータや携帯電話機、ミュージックプレイヤ等の楽曲抽出装置に利用することができる。
2……データ記録装置、3……ラジオ局、4……ラジオ放送情報配信サーバ、5……楽曲情報検索サーバ、6……楽曲配信サーバ、10……中央処理ユニット、13……ハードディスクドライブ、16……通信処理部、37……曲らしさ検出器、38……曲指紋生成器、100……楽曲抽出装置、101……放送情報記録部、102……記録媒体、103……曲らしさ検出部、104……曲候補区間特定部、105……楽曲情報取得部、106……外部サーバ、107……曲区間決定部、108……楽曲情報記録部、ARN……アーティスト名、D1……番組音声データ、JN……ジャンル名、MC……曲候補区間情報、MC1乃至MCm……曲候補区間、MCT……曲候補区間テーブル、MET……楽曲抽出テーブル、MT……楽曲タイトル、OAM1乃至OAMn……放送楽曲情報、OAT……放送楽曲テーブル、OTI1、OTI2……放送日時情報、ROAT……時刻補正放送楽曲テーブル。
Claims (7)
- コンピュータに対し、
記録媒体に放送情報を記録する一方、当該放送情報の処理単位毎に曲らしさを検出する曲らしさ検出ステップと、
上記曲らしさの検出結果に応じて、上記記録媒体に記録した上記放送情報の中で曲候補区間を特定する曲候補区間特定ステップと、
上記曲候補区間と、外部サーバから取得した楽曲情報とに基づき、上記記録媒体に記録した上記放送情報の中で曲区間を決定する曲区間決定ステップと、
上記記録媒体に上記楽曲情報を上記曲区間に対応付けて記録する楽曲情報記録ステップと
を実行させるための楽曲抽出プログラム。 - 上記外部サーバから、上記放送情報に対応する曲タイトル及び当該曲タイトルに対応する放送日時情報を有する上記楽曲情報を取得する楽曲情報取得ステップ
を上記コンピュータに実行させ、
上記曲区間決定ステップは、
上記曲候補区間と、上記楽曲情報内の上記放送日時情報とに基づき上記放送情報の中で上記曲区間を決定する
ことを上記コンピュータに実行させるための請求項1に記載の楽曲抽出プログラム。 - 上記曲候補区間毎に上記放送情報の中で当該曲候補区間が示す部分放送情報に基づき識別情報を生成し、当該生成した識別情報を上記外部サーバに送信する識別情報送信ステップと、
上記識別情報に応じて上記外部サーバから送信された、楽曲タイトルを含む上記楽曲情報を取得する楽曲情報取得ステップと
を上記コンピュータに実行させ、
上記曲区間決定ステップは、
上記曲候補区間と、上記楽曲情報内の上記楽曲タイトルとに基づき、同一の上記楽曲タイトルの上記曲候補区間をまとめて1つの上記曲区間とするようにして上記放送情報の中で最終的な上記曲区間を決定する
ことを上記コンピュータに実行させるための請求項1に記載の楽曲抽出プログラム。 - 上記記録媒体から、上記放送情報の中で上記楽曲情報を対応付けた上記曲区間が示す部分放送情報を再生する再生ステップと、
上記曲区間が示す上記部分放送情報を再生している途中に、楽曲の購入が指示されると、楽曲提供サーバに対し、当該曲区間と対応付けた上記楽曲情報が示す楽曲データを購入要求する購入要求ステップと
を上記コンピュータに実行させるための請求項1に記載の楽曲抽出プログラム。 - 上記楽曲提供サーバから上記楽曲データのダウンロードが完了すると、上記記録媒体から、当該楽曲データの上記楽曲情報と対応付けた上記曲区間が示す上記部分放送情報を再生し得ないようにする
ことを上記コンピュータに実行させるための請求項4に記載の楽曲抽出プログラム。 - 記録媒体に放送情報を記録する放送情報記録部と、
上記放送情報の処理単位毎に曲らしさを検出する曲らしさ検出部と、
上記曲らしさ検出部による上記曲らしさの検出結果に応じて、上記記録媒体に記録された上記放送情報の中で曲候補区間を特定する曲候補区間特定部と、
外部サーバから楽曲情報を取得する楽曲情報取得部と、
上記曲候補区間特定部により特定された上記曲候補区間と、上記楽曲情報取得部により取得された上記楽曲情報とに基づき、上記記録媒体に記録された上記放送情報の中で曲区間を決定する曲区間決定部と、
上記記録媒体に上記楽曲情報を上記曲区間に対応付けて記録する楽曲情報記録部と
を具えることを特徴とする楽曲抽出装置。 - 記録媒体に放送情報を記録する一方、当該放送情報の処理単位毎に曲らしさを検出する曲らしさ検出ステップと、
上記曲らしさの検出結果に応じて、上記記録媒体に記録した上記放送情報の中で曲候補区間を特定する曲候補区間特定ステップと、
上記曲候補区間と、外部サーバから取得した楽曲情報とに基づき、上記記録媒体に記録した上記放送情報の中で曲区間を決定する曲区間決定ステップと、
上記記録媒体に上記楽曲情報を上記曲区間に対応付けて記録する楽曲情報記録ステップと
を具えることを特徴とする楽曲抽出方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006039985A JP2007219178A (ja) | 2006-02-16 | 2006-02-16 | 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法 |
US11/670,529 US7453038B2 (en) | 2006-02-16 | 2007-02-02 | Musical piece extraction program, apparatus, and method |
EP07102137A EP1821225A1 (en) | 2006-02-16 | 2007-02-12 | Musical piece extraction program, apparatus, and method |
KR1020070015195A KR20070082529A (ko) | 2006-02-16 | 2007-02-14 | 악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법 |
CNA2007100849174A CN101025985A (zh) | 2006-02-16 | 2007-02-16 | 音乐作品提取程序、装置和方法 |
US12/134,502 US7531735B2 (en) | 2006-02-16 | 2008-06-06 | Musical piece extraction program, apparatus, and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006039985A JP2007219178A (ja) | 2006-02-16 | 2006-02-16 | 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007219178A true JP2007219178A (ja) | 2007-08-30 |
Family
ID=37995878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006039985A Abandoned JP2007219178A (ja) | 2006-02-16 | 2006-02-16 | 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US7453038B2 (ja) |
EP (1) | EP1821225A1 (ja) |
JP (1) | JP2007219178A (ja) |
KR (1) | KR20070082529A (ja) |
CN (1) | CN101025985A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010266865A (ja) * | 2009-05-13 | 2010-11-25 | Sony Computer Entertainment America Llc | オーディオストリームのセグメントの整合性保護 |
JP2011096335A (ja) * | 2009-11-02 | 2011-05-12 | Onkyo Sound & Vision Corp | コンテンツ特定装置およびそのプログラム |
WO2013183078A1 (ja) * | 2012-06-04 | 2013-12-12 | 三菱電機株式会社 | 自動記録装置 |
WO2014155526A1 (ja) * | 2013-03-26 | 2014-10-02 | 株式会社 東芝 | 情報処理装置及び情報処理方法 |
JP2014228720A (ja) * | 2013-05-23 | 2014-12-08 | ヤマハ株式会社 | 楽曲解析装置 |
US8966557B2 (en) | 2001-01-22 | 2015-02-24 | Sony Computer Entertainment Inc. | Delivery of digital content |
US9483405B2 (en) | 2007-09-20 | 2016-11-01 | Sony Interactive Entertainment Inc. | Simplified run-time program translation for emulating complex processor pipelines |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0904113D0 (en) * | 2009-03-10 | 2009-04-22 | Intrasonics Ltd | Video and audio bookmarking |
CN102340598A (zh) * | 2011-09-28 | 2012-02-01 | 上海摩软通讯技术有限公司 | 具有广播音乐捕捉功能的移动终端及其音乐捕捉方法 |
US9384272B2 (en) | 2011-10-05 | 2016-07-05 | The Trustees Of Columbia University In The City Of New York | Methods, systems, and media for identifying similar songs using jumpcodes |
JP2013117688A (ja) * | 2011-12-05 | 2013-06-13 | Sony Corp | 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム |
US20130226957A1 (en) * | 2012-02-27 | 2013-08-29 | The Trustees Of Columbia University In The City Of New York | Methods, Systems, and Media for Identifying Similar Songs Using Two-Dimensional Fourier Transform Magnitudes |
CN102982819A (zh) * | 2012-11-21 | 2013-03-20 | 广东欧珀移动通信有限公司 | 一种蓝光播放机及播放多媒体文件的方法 |
CN103440330A (zh) * | 2013-09-03 | 2013-12-11 | 网易(杭州)网络有限公司 | 一种音乐节目信息获取方法和设备 |
US9565245B1 (en) * | 2013-11-25 | 2017-02-07 | Twitter, Inc. | Promoting time-based content through social networking systems |
JP2016200779A (ja) * | 2015-04-14 | 2016-12-01 | カシオ計算機株式会社 | コンテンツ再生装置、コンテンツ再生システム、コンテンツ再生方法及びプログラム |
US9715870B2 (en) | 2015-10-12 | 2017-07-25 | International Business Machines Corporation | Cognitive music engine using unsupervised learning |
JP6701776B2 (ja) * | 2016-02-15 | 2020-05-27 | 船井電機株式会社 | 録画装置、録画方法 |
CN105893460B (zh) * | 2016-03-22 | 2019-11-29 | 无锡五楼信息技术有限公司 | 一种基于人工智能技术的音乐自动创作方法及装置 |
CN107797893A (zh) * | 2016-09-07 | 2018-03-13 | 华为数字技术(成都)有限公司 | 一种计算硬盘处理读写命令的时长的方法及设备 |
CN113782059B (zh) * | 2021-09-24 | 2024-03-22 | 苏州声通信息科技有限公司 | 乐器音频评测方法及装置、非瞬时性存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5712953A (en) * | 1995-06-28 | 1998-01-27 | Electronic Data Systems Corporation | System and method for classification of audio or audio/video signals based on musical content |
KR100607210B1 (ko) * | 1998-02-19 | 2006-08-01 | 소니 가부시끼 가이샤 | 기록재생장치, 기록재생방법 및 데이터처리장치 |
US7174293B2 (en) | 1999-09-21 | 2007-02-06 | Iceberg Industries Llc | Audio identification system and method |
US6941275B1 (en) * | 1999-10-07 | 2005-09-06 | Remi Swierczek | Music identification system |
JP2002091451A (ja) * | 2000-09-13 | 2002-03-27 | Yamaha Corp | 楽曲評価システムに用いられるサーバ |
US7087829B2 (en) * | 2000-09-13 | 2006-08-08 | Yamaha Corporation | Method, system and recording medium for viewing/listening evaluation of musical performance |
DE02717175T1 (de) * | 2001-04-17 | 2004-07-08 | Kabushiki Kaisha Kenwood | System zum transferieren von informationen über attribut zum beispiel einer cd |
JP4035993B2 (ja) | 2002-01-08 | 2008-01-23 | ソニー株式会社 | データ処理装置及び方法 |
JP4313563B2 (ja) * | 2002-12-04 | 2009-08-12 | パイオニア株式会社 | 楽曲検索装置及び方法 |
EP1489765A3 (en) * | 2003-06-17 | 2005-12-14 | Matsuhita Electric Industrial Co., Ltd. | Music selection apparatus and music delivery system |
US7592534B2 (en) * | 2004-04-19 | 2009-09-22 | Sony Computer Entertainment Inc. | Music composition reproduction device and composite device including the same |
JP4171987B2 (ja) | 2004-05-19 | 2008-10-29 | ソニー株式会社 | 記録装置、記録方法及び記録プログラム |
US7120576B2 (en) * | 2004-07-16 | 2006-10-10 | Mindspeed Technologies, Inc. | Low-complexity music detection algorithm and system |
KR20060046263A (ko) * | 2004-08-04 | 2006-05-17 | 도쿄파츠고교 가부시키가이샤 | 편평형 진동모터를 내장시킨 전자음향변환기 |
JP2006106818A (ja) * | 2004-09-30 | 2006-04-20 | Toshiba Corp | 音楽検索装置、音楽検索方法及び音楽検索プログラム |
-
2006
- 2006-02-16 JP JP2006039985A patent/JP2007219178A/ja not_active Abandoned
-
2007
- 2007-02-02 US US11/670,529 patent/US7453038B2/en not_active Expired - Fee Related
- 2007-02-12 EP EP07102137A patent/EP1821225A1/en not_active Withdrawn
- 2007-02-14 KR KR1020070015195A patent/KR20070082529A/ko not_active Application Discontinuation
- 2007-02-16 CN CNA2007100849174A patent/CN101025985A/zh active Pending
-
2008
- 2008-06-06 US US12/134,502 patent/US7531735B2/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8966557B2 (en) | 2001-01-22 | 2015-02-24 | Sony Computer Entertainment Inc. | Delivery of digital content |
US9483405B2 (en) | 2007-09-20 | 2016-11-01 | Sony Interactive Entertainment Inc. | Simplified run-time program translation for emulating complex processor pipelines |
JP2010266865A (ja) * | 2009-05-13 | 2010-11-25 | Sony Computer Entertainment America Llc | オーディオストリームのセグメントの整合性保護 |
KR101494479B1 (ko) * | 2009-05-13 | 2015-02-17 | 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 | 오디오 스트림 세그먼트의 완전성 보존 시스템 및 방법 |
JP2011096335A (ja) * | 2009-11-02 | 2011-05-12 | Onkyo Sound & Vision Corp | コンテンツ特定装置およびそのプログラム |
WO2013183078A1 (ja) * | 2012-06-04 | 2013-12-12 | 三菱電機株式会社 | 自動記録装置 |
WO2014155526A1 (ja) * | 2013-03-26 | 2014-10-02 | 株式会社 東芝 | 情報処理装置及び情報処理方法 |
JP2014228720A (ja) * | 2013-05-23 | 2014-12-08 | ヤマハ株式会社 | 楽曲解析装置 |
Also Published As
Publication number | Publication date |
---|---|
US20080236367A1 (en) | 2008-10-02 |
US20070186751A1 (en) | 2007-08-16 |
CN101025985A (zh) | 2007-08-29 |
US7453038B2 (en) | 2008-11-18 |
US7531735B2 (en) | 2009-05-12 |
KR20070082529A (ko) | 2007-08-21 |
EP1821225A1 (en) | 2007-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007219178A (ja) | 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法 | |
US7953504B2 (en) | Method and apparatus for selecting an audio track based upon audio excerpts | |
US20040143349A1 (en) | Personal audio recording system | |
US6748360B2 (en) | System for selling a product utilizing audio content identification | |
JP6151426B2 (ja) | Djステムシステム及び方法 | |
US8688248B2 (en) | Method and system for content sampling and identification | |
JP2007533274A (ja) | コンテントのサンプリングおよび識別のための方法およびシステム | |
JP2008504741A (ja) | 2つのメディア・セグメントの重なりを特徴付ける方法 | |
JP2008047269A (ja) | 再生装置、再生方法及び再生プログラム | |
US20080065393A1 (en) | Playback of compressed media files without quantization gaps | |
CN101166033B (zh) | 数据记录设备、数据记录方法、以及数据记录程序 | |
WO2003091899A2 (en) | Apparatus and method for identifying audio | |
JP2007213772A (ja) | 記録転送プログラム、記録転送装置及び記録転送方法 | |
US10819884B2 (en) | Method and device for processing multimedia data | |
JP4053399B2 (ja) | 音楽情報記録再生装置 | |
JP2008026662A (ja) | データ記録装置、データ記録方法及びデータ記録プログラム | |
GB2537035A (en) | Digitising analog audio data | |
JP2008079047A (ja) | データ再生装置、データ再生方法及びデータ再生プログラム | |
JP2005148775A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
KR100798524B1 (ko) | 매체 신호 검색 및 레코딩 방법 및 장치 | |
JP2008026664A (ja) | 再生装置、再生方法及び再生プログラム | |
WO2005059915A1 (en) | Recording songs from radio | |
KR20150018749A (ko) | 음원 추천 방법, 장치, 시스템 및 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090205 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20090821 |