[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4640463B2 - 再生装置、表示方法および表示プログラム - Google Patents

再生装置、表示方法および表示プログラム Download PDF

Info

Publication number
JP4640463B2
JP4640463B2 JP2008181037A JP2008181037A JP4640463B2 JP 4640463 B2 JP4640463 B2 JP 4640463B2 JP 2008181037 A JP2008181037 A JP 2008181037A JP 2008181037 A JP2008181037 A JP 2008181037A JP 4640463 B2 JP4640463 B2 JP 4640463B2
Authority
JP
Japan
Prior art keywords
noise
music
content
classification
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008181037A
Other languages
English (en)
Other versions
JP2010020133A (ja
Inventor
志朗 鈴木
千智 劔持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008181037A priority Critical patent/JP4640463B2/ja
Priority to US12/498,547 priority patent/US8106284B2/en
Priority to EP09251757A priority patent/EP2144242A1/en
Priority to CN2009101593075A priority patent/CN101625863B/zh
Publication of JP2010020133A publication Critical patent/JP2010020133A/ja
Application granted granted Critical
Publication of JP4640463B2 publication Critical patent/JP4640463B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10037A/D conversion, D/A conversion, sampling, slicing and digital quantisation or adjusting parameters thereof
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data
    • G11B2020/10555Audio or video recording specifically adapted for audio data wherein the frequency, the amplitude, or other characteristics of the audio signal is taken into account
    • G11B2020/10564Audio or video recording specifically adapted for audio data wherein the frequency, the amplitude, or other characteristics of the audio signal is taken into account frequency

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

この発明は、現在の環境騒音に対して適した楽曲を提示する再生装置、再生装置の表示方法および表示プログラムに関する。
近年、楽曲を種々のカテゴリに自動的に分類し、ユーザがカテゴリを選択することによって、選択されたカテゴリに対応する楽曲を自動的に選択して再生する再生装置が実用化されている。このような再生装置では、楽曲のテンポやコード進行など、それぞれの楽曲が有する特徴量を検出し、検出された特徴量に基づき楽曲を種々のカテゴリに自動的に分類する楽曲分類方法が用いられている。
例えば、下記の特許文献1には、楽曲の解析を行い、テンポやスピード感などの特徴量を検出する方法が記載されている。また、例えば、下記の特許文献2には、オーディオ信号における各音程の信号成分を解析する方法が記載されている。
特開2005−274708号公報 特開2005−275068号公報
また、最近では、外出先や屋外等において楽曲の再生が可能な携帯型再生装置が広く普及している。携帯型再生装置においても、上述した楽曲分類方法を用いて楽曲を自動的に分類することができる。例えば、ユーザによって所定の分類が選択されると、携帯型再生装置は選択された分類に対応する楽曲を再生するようにされている。
しかしながら、このような携帯型再生装置は、様々な環境下で使用されることが考えられるので、周囲の状況によって環境騒音状態が異なると考えられる。すなわち、環境によって周囲の環境騒音レベルが異なる。そのため、ユーザによって選択された楽曲分類が必ずしも現在の環境騒音下において適しているとは限らない。
また、移動中などに携帯型再生装置を使用して楽曲を聴取している場合には、周囲の環境騒音が変化する。そのため、例えば、楽曲を聴取した当初に周囲の環境騒音に対して適した楽曲分類が選択されていた場合であっても、ユーザが移動することによって周囲の環境騒音が変化し、移動先の環境騒音下では、選択されている楽曲分類が現在の環境騒音には適さない場合もあった。
そこで、このような問題を解決するため、環境騒音に対して適した楽曲を自動的に選択して再生することが可能な再生装置が提案されている。このような再生装置では、環境騒音および楽曲それぞれに対して上述したような特徴量の抽出を行い、検出されたそれぞれの特徴量に基づき楽曲を自動的に選択するようにされている。
図22は、従来の再生装置101の一例の使用形態を示す。図22に示す例では、携帯型再生装置などの再生装置101に対してマイクロフォン103(以下、マイク103と適宜称する)およびヘッドフォン102が接続され、ユーザがヘッドフォン102を介して、再生装置101に記録された楽曲を聴取している状態を示す。マイク103は、例えばヘッドフォン102の内部に設けられ、ユーザがヘッドフォン102を装着した状態での耳の位置で聞こえる環境騒音を収音する。
再生装置101は、マイク103によって収音された環境騒音に対して所定の解析を行い、特徴量を抽出する。また、再生装置101は、再生装置101に記録された楽曲に対して、環境騒音の特徴量の抽出方法と同一の方法を用いて所定の解析を行い、特徴量を抽出する。そして、再生装置101は、環境騒音の特徴量と楽曲の特徴量とを比較し、現在の環境騒音下で最も聴きやすい楽曲を自動的に選択する。
現在の環境騒音に対して適した楽曲を自動的に選択する方法としては、例えば、環境騒音および楽曲から複数種類の特徴量を抽出し、抽出した特徴量に基づき環境騒音および楽曲の特徴量が互いに類似している楽曲を選択する方法が考えられる。例えば、図23は、環境騒音および楽曲のそれぞれから抽出した2種類の特徴量に基づく環境騒音および楽曲の分類結果の一例を示す。左側のグラフは、環境騒音の分類結果を示し、右側のグラフは、楽曲の分類結果を示す。
図23に示すように、環境騒音および楽曲は、それぞれの特徴量に基づき、2つの特徴量を示す2つの評価軸AおよびBからなる2次元平面上にマッピングされる。この場合において、マッピングされた各々の分類間の位置(距離)が近い程、環境騒音および楽曲の分類が似た特徴を有していることを示す。
ここで、例えばうるさい環境騒音下では賑やかな「ロック」が聴きやすく、静かな環境騒音下ではゆっくりとした「クラシック」が聴きやすい、という誰にでも理解しやすい実例を挙げることができる。つまり、騒音と楽曲とが類似していることで、楽曲が騒音にマスクされない可能性が高くなって聴きやすくなる。うるさい環境騒音下では、ゆっくりとした「クラシック」が聴きにくいのは直感的に理解できるが、これは、騒音と楽曲との特徴量が大きく異なるためである。一方、静かな環境騒音下で「ロック」を聴いても聴きにくい訳ではないので、騒音と楽曲との特徴量が大きく異なっていても必ずしも聴きにくい訳ではないが、この場合には、ヘッドフォンからの音漏れなどによって周囲に迷惑をかけてしまう場合があるという問題がある。
すなわち、現在の環境騒音の特徴に似た楽曲分類が、現在の環境騒音下において聴きやすい楽曲分類であるとすると、現在の環境騒音がマッピングされた位置に近いところにある楽曲分類が「聴きやすい楽曲分類」であるということになる。したがって、例えば、現在の環境騒音が分類bに分類された場合には、分類1〜7にマッピングされた楽曲分類のうち、分類bの位置に最も近い位置にマッピングされた分類2に分類された楽曲分類が選択される。
なお、必ずしも環境騒音と特徴の似た楽曲分類が現在の環境騒音下において聴きやすい楽曲分類であるとしなければいけない訳ではない。評価軸としてどのような特徴量を用いるかによって、騒音と楽曲との対応・選択方法を変えても構わないが、ここでは、説明の簡略化のため、現在の環境騒音の特徴に似た楽曲分類が、現在の環境騒音下において聴きやすい楽曲分類であるとして説明する。
従来の楽曲選択方法の処理の流れについて、図24に示すフローチャートを参照して概略的に説明する。ステップS101において、再生装置101の電源がONとされる。ステップS102において、周囲の環境騒音に応じた楽曲の再生が指示されると、ステップS103において、再生装置101に記録された全ての楽曲について、特徴量が抽出されているか否かが判断される。全ての楽曲について特徴量を抽出していないと判断された場合には、処理がステップS104に移行し、特徴量抽出の対象となる楽曲が選択される。一方、全ての楽曲について特徴量を抽出したと判断された場合には、処理がステップS107に移行する。
ステップS105では、選択された楽曲の特徴量が抽出される。ステップS106では、特徴量抽出の対象となった全ての楽曲について、特徴量を抽出したか否かが判断される。全ての楽曲の特徴量を抽出したと判断された場合には、処理がステップS107に移行する。一方、特徴量抽出の対象となった全ての楽曲の特徴量を抽出していないと判断された場合には、処理がステップS104に戻り、特徴量抽出の対象となる別の楽曲が選択される。
次に、ステップS107において、マイク103を介して環境騒音が収音され、ステップS108において、収音された環境騒音の特徴量が抽出される。ステップS109では、環境騒音の特徴量と楽曲の特徴量とが比較される。そして、環境騒音の特徴量に最も近い特徴量を有する楽曲分類が現在の環境騒音下で聴きやすい楽曲分類として選択され、選択された楽曲分類に分類された楽曲が再生される。
ステップS110では、音楽を聴取し続けるか否かが判断される。音楽を聴取し続けると判断した場合には、処理がステップS107に戻り、マイク103を介して再度、環境騒音の収音が行われる。一方、音楽を聴取し続けないと判断した場合には、処理がステップS111に移行し、ユーザによって再生装置101の電源がOFFとされ、一連の処理が終了する。
このように、従来の再生装置101では、環境騒音および楽曲の特徴量を抽出し、抽出したそれぞれの特徴量に基づき、現在の環境騒音下において聴きやすい楽曲を自動的に選択して再生するようにしていた。
ところで、このような再生装置における楽曲選択方法は、予め決められたアルゴリズムを用いて設計され、製造段階で再生装置に搭載された状態でユーザに提供される。そのため、再生装置に搭載された楽曲選択方法のアルゴリズム等をユーザが自身の好みなどに応じて切り替えて使用することはできない。
すなわち、この楽曲選択方法によって自動的に選択された楽曲が、大多数の場面において大多数のユーザが納得できるものであっても、あらゆる場面においてあらゆるユーザが納得できるものとは限らない。そのため、ユーザ自身が必要に応じて個別に聴きたい楽曲を最終的に選択できるようにもしたいという問題点があった。
したがって、この発明の目的は、現在の環境騒音に対して従来よりも適した楽曲をユーザに対して提示することが可能な再生装置、再生装置の表示方法および表示プログラムを提供することにある。
上述した課題を解決するために、第1の発明は、周囲の環境の騒音データを収音する収音部と、
収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析部と、
抽出された騒音データの特徴量に基づき騒音データを環境毎に分類する騒音分類部と、
記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースと、
コンテンツ分類データベースを参照して、環境に適する複数のコンテンツ分類を選択するコンテンツ分類選択部と、
選択された複数のコンテンツ分類を表示する表示部とを備え、
表示部は、
コンテンツデータの特徴量を軸とした平面上に、複数のコンテンツ分類を表示する再生装置である。
また、周囲の環境の騒音データを収音する収音部と、
収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析部と、
抽出された騒音データの特徴量に基づき騒音データを環境毎に分類する騒音分類部と、
記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースと、
コンテンツ分類データベースを参照して、環境に適する複数のコンテンツ分類を選択するコンテンツ分類選択部と、
選択された複数のコンテンツ分類を表示する表示部とを備え、
表示部は、
騒音データの特徴量を軸とした平面上に、騒音データを解析した結果により分類される環境をさらに表示する再生装置である。
また、第2の発明は、周囲の環境の騒音データを収音する収音ステップと、
収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析ステップと、
抽出された騒音データの特徴量に基づき騒音データを環境毎に分類する騒音分類ステップと、
記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースを参照して、環境に適する複数のコンテンツ分類を選択するコンテンツ分類選択ステップと、
選択された複数のコンテンツ分類を表示する表示ステップとを有し、
表示ステップは、
コンテンツデータの特徴量を軸とした平面上に、複数のコンテンツ分類を表示する再生装置の表示方法である。
また、周囲の環境の騒音データを収音する収音ステップと、
収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析ステップと、
抽出された騒音データの特徴量に基づき騒音データを環境毎に分類する騒音分類ステップと、
記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースを参照して、環境に適する複数のコンテンツ分類を選択するコンテンツ分類選択ステップと、
選択された複数のコンテンツ分類を表示する表示ステップとを有し、
表示ステップは、
騒音データの特徴量を軸とした平面上に、騒音データを解析した結果により分類される環境をさらに表示する再生装置の表示方法である。
また、第3の発明は、周囲の環境の騒音データを収音する収音ステップと、
収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析ステップと、
抽出された騒音データの特徴量に基づき騒音データを環境毎に分類する騒音分類ステップと、
記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースを参照して、環境に適する複数のコンテンツ分類を選択するコンテンツ分類選択ステップと、
選択された複数のコンテンツ分類を表示する表示ステップとを有し、
表示ステップは、
コンテンツデータの特徴量を軸とした平面上に、複数のコンテンツ分類を表示する再生装置の表示方法をコンピュータ装置に実行させる表示プログラムである。
また、周囲の環境の騒音データを収音する収音ステップと、
収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析ステップと、
抽出された騒音データの特徴量に基づき騒音データを環境毎に分類する騒音分類ステップと、
記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースを参照して、環境に適する複数のコンテンツ分類を選択するコンテンツ分類選択ステップと、
選択された複数のコンテンツ分類を表示する表示ステップとを有し、
表示ステップは、
騒音データの特徴量を軸とした平面上に、騒音データを解析した結果により分類される環境をさらに表示する再生装置の表示方法をコンピュータ装置に実行させる表示プログラムである。

上述したように、第1、第2および第3の発明では、周囲の環境の騒音データを収音し、収音された騒音データに対する解析を行い、騒音データの特徴を示す特徴量を抽出し、抽出された騒音データの特徴量に基づき騒音データを分類し、騒音データの分類結果に基づき、記録媒体に記録されたコンテンツデータとコンテンツデータの特徴量に基づく分類とが対応付けられたコンテンツ分類データベースを参照して、記録媒体に記録され分類されたコンテンツデータの中から複数のコンテンツデータの分類を選択し、選択された複数のコンテンツデータの分類を表示部に表示するようにしているため、現在の環境騒音下において適したコンテンツを選択できる。
この発明によれば、現在の環境騒音に対して適したコンテンツデータの分類をユーザに対して提示することができる。
以下、この発明の実施の第1の形態について、図面を参照して説明する。この発明の実施の第1の形態では、環境騒音およびコンテンツの特徴量を抽出し、抽出したそれぞれの特徴量に基づき、環境騒音およびコンテンツを分類する。そして、現在の環境騒音の分類結果に基づいて、現在の環境騒音下において適したコンテンツの分類の候補を複数選択し、現在の環境騒音の状態と選択されたコンテンツの分類の候補とを表示するようにしている。
図1は、この発明の実施の第1の形態に適用可能な再生装置1の一例の使用形態を示す。図1に示す例では、携帯型再生装置などの再生装置1に対してヘッドフォン2およびマイクロフォン3(以下、マイク3と適宜称する)が接続され、ユーザがヘッドフォン2を介して、再生装置1内の記録媒体に記録されたコンテンツとしての楽曲を聴取している状態を示す。マイク3は、例えばヘッドフォン2の内部に設けられ、ユーザがヘッドフォン2を装着した状態での耳の位置で聞こえる環境騒音を収音する。なお、マイク3は、ヘッドフォン2の外部や再生装置1に設けるようにしてもよい。
再生装置1には表示部4が設けられ、再生中の楽曲のタイトルや再生時間などの楽曲に関する情報や各種メニュー等が表示される。ユーザにより環境騒音に応じた楽曲分類の提示が指示された場合には、環境騒音の分類結果や現在の環境騒音下において聴きやすい楽曲分類の候補が表示される。また、再生装置1には操作部5が設けられ、楽曲の再生や停止、選択等の各種操作を行うことができる。
ユーザが操作部5を操作し、再生装置1に対して環境騒音に応じた楽曲分類の提示を指示すると、再生装置1は、マイク3で収音された環境騒音に対して所定の解析を行い、環境騒音の特徴を示す特徴量を抽出する。そして、この抽出された特徴量に基づき、現在の環境騒音を、例えば「電車」や「喫茶店」などの環境に分類する。また、再生装置1は、再生装置1に記録された楽曲に対して、例えば環境騒音の解析と同一の方法(解析方法)を用いて所定の解析を行い、楽曲の特徴を示す特徴量を抽出する。そして、抽出された特徴量に基づき、楽曲を、例えば「ロック」や「ジャズ」、「クラシック」などのカテゴリに分類する。なお、環境騒音および楽曲に対する解析方法としては、従来の方法を用いることができるので、ここでは説明を省略する。
再生装置1は、このようにして分類された環境騒音の分類結果に基づき、現在の環境騒音下において聴きやすい楽曲分類の候補を複数選択し、現在の環境騒音の分類結果と選択された楽曲分類の候補とを表示部4に表示させる。
表示部4には、例えば図2に示すように、環境騒音の分類結果と、環境騒音の分類結果に基づき選択可能な楽曲分類の候補とが表示される。表示部4に対する表示の詳細については、後述する。このとき表示部4に表示される楽曲分類の候補は、ユーザが操作部5を操作することによって選択可能とされている。楽曲分類の候補が表示部4に表示された状態で、ユーザが操作部5を操作して楽曲分類の候補から所望の楽曲分類を選択することにより、選択された楽曲分類に分類された楽曲が再生される。
環境騒音および楽曲の特徴量について説明する。周囲の環境から聞こえてくる騒音は、電車・バスの車内や喫茶店など、その環境によってそれぞれ異なる。これらの環境騒音は、例えば、可聴周波数帯における低域のパワーが大きい場合や、高域のパワーが大きい場合など、環境によって異なる特徴を有している。
図3A、図3Bおよび図3Cは、それぞれ「喫茶店」、「電車」および「バス」において収音された環境騒音の周波数特性の一例を示す。この例は、収音された環境騒音の0.5秒程度の時間データに対してFFT(Fast Fourier Transform)により周波数解析を行った際の周波数特性である。これらの図において、横軸が周波数[Hz]を示し、縦軸がパワー[dB]を示す。図3A〜図3Cによれば、様々な環境において、各周波数におけるパワーの値が大きく異なることが判断できる。したがって、このような特徴を抽出することにより、ユーザがどのような環境にいるのかを判断することができる。
ところで、FFTによる周波数解析では、解析される時間データのサンプル数をx個とすると、パワーとして得られる周波数データは、x/2本となる。このとき、環境騒音の解析の精度を高めるためには、周波数分解能を高くする必要がある。そのためには、サンプル数をある程度の大きさに設定する必要がある。例えば、時間データのサンプル数を32768個とした場合、得られる周波数データは、16384本となる。
このようにして得られる環境騒音の周波数特性に基づき、例えば、各周波数におけるデータを特徴量として用いることができると考えられる。しかしながら、この16384本の周波数データを環境騒音の特徴量として用いた場合、データが膨大となってしまうため、処理に時間を要してしまう。また、周波数データの時間的な変動も大きくなってしまうため、実用的ではない。
そこで、例えば、図4A、図4Bおよび図4Cに示すように、それぞれの環境における周波数データのエンベロープの傾き(図4において、点線で示す部分)およびエンベロープで囲まれた面積(図4において、斜線の部分)に注目する。例えば、電車やバスの車内では、喫茶店と比較して、低域のパワーが大きい。そのため、電車やバスの車内における騒音の周波数特性は、喫茶店における騒音の周波数特性と比較して、エンベロープの傾きが大きく、エンベロープで囲まれた部分の面積が大きくなることが判断できる。
したがって、この発明の実施の第1の形態では、この環境騒音の周波数領域におけるエンベロープの傾きと、エンベロープに囲まれた面積で示されるパワーの総和とを、環境騒音の特徴量として算出する。そして、算出したこれらの特徴量に基づき、環境騒音を分類する。
楽曲についても、環境騒音と同様に、低域のパワーが大きい楽曲や、中域のパワーが大きい楽曲など、例えばカテゴリ毎に異なる特徴を有している。したがって、このような特徴を抽出することにより、再生する楽曲がどのカテゴリに属する楽曲であるかを判断することができる。
したがって、この発明の実施の第1の形態では、環境騒音の特徴量と同様に、楽曲の周波数領域におけるエンベロープの傾きと、エンベロープに囲まれた面積で示されるパワーの総和とを、楽曲の特徴量として算出する。そして、算出したこれらの特徴量に基づき、楽曲を分類する。
なお、環境騒音および楽曲から抽出される特徴量としては、上述の例に限られず、種々の解析によって得られる情報を特徴量として用いることもできる。例えば、平均音量や周波数スペクトラム、自己相関係数、零軸公差率、パワー、過渡特性、シャープネス、ラウドネス、スペクトルの重心、MFCC(Mel Frequency Cepstrum Coefficient)、音の大きさ(Sone)、ケプストラムなどを特徴量として用いることも可能である。
さらに、時間軸データをある一定のサンプル毎、例えばフレームと呼ばれるようなNサンプル毎に区切り、各フレーム単位で特徴量を抽出し、前後フレーム間における特徴量の比率や差分をとった値を特徴量として用いることも考えられる。また、数フレーム分の特徴量を用いて得られる平均や分散を特徴量として用いることも考えられる。
このようにして算出された環境騒音および楽曲の特徴量に基づき、現在の環境騒音に対して適した楽曲分類を選択する方法について、図5を参照して説明する。この例では、環境騒音に対する解析として、環境騒音の周波数領域におけるエンベロープおよびパワーの解析を行い、これらの解析結果を環境騒音の特徴量として算出する場合について説明する。
マイク3によって収音された環境騒音の騒音データNTが特徴量抽出部21に供給される。特徴量抽出部21は、供給された騒音データNTから特徴量を抽出し、騒音分類部22に供給する。特徴量抽出部21は、例えば、周波数分析部31、エンベロープ解析部32およびパワー解析部33で構成されている。
特徴量抽出部21に供給された騒音データNTは、周波数分析部31に供給される。周波数分析部31は、入力された騒音データNTの所定時間、例えば0.5秒間程度の短い時間長を有する騒音データを用いて、騒音データNTに対してFFT分析やOctave分析などの周波数分析を施し、周波数情報NSを取得する。この取得した周波数情報NSは、エンベロープ解析部32およびパワー解析部33に供給される。
エンベロープ解析部32は、入力された周波数情報NSに基づき、騒音データNTの周波数領域におけるエンベロープの解析を行い、例えば所定の周波数帯域におけるエンベロープを所定に数値化したエンベロープ情報NPeを算出する。この例では、エンベロープ情報NPeとして、エンベロープの傾きの値が用いられる。算出したエンベロープ情報NPeは、騒音分類部22に供給される。
パワー解析部33は、入力された周波数情報NSに基づき、騒音データNTの周波数領域におけるパワーの解析を行い、例えば所定の周波数帯域におけるパワーを所定に数値化したパワー情報NPpを算出する。この例では、パワー情報NPpとして、例えば所定の周波数帯域におけるエンベロープで囲まれた部分の面積、すなわち所定の周波数帯域におけるパワーの総和の値が用いられる。算出したパワー情報NPpは、騒音分類部22に供給される。
騒音分類部22は、エンベロープ解析部32から供給されたエンベロープ情報NPeおよびパワー解析部33から供給されたパワー情報NPpに基づき、騒音特徴量データベース23を参照することによって環境騒音を分類する。そして、分類結果を示す騒音分類情報を生成する。生成された騒音分類情報は、楽曲分類選択部28に供給される。
騒音特徴量データベース23は、様々な環境における騒音データから抽出された特徴量に基づき、騒音データを環境毎に分類する際に用いられるデータベースである。この例では、環境騒音の特徴量として、エンベロープ情報およびNPeパワー情報NPpが用いられ、これらの特徴量に基づき、比較対象となる環境騒音が分類される。例えば、騒音特徴量データベース23に基づき、環境騒音が「電車」や「喫茶店」などに分類される。
一方、再生装置1に記録された楽曲の楽曲データMTが特徴量抽出部24に供給される。特徴量抽出部24は、供給された楽曲データMTから特徴量を抽出し、楽曲分類部25に供給する。特徴量抽出部24は、例えば、周波数分析部34、エンベロープ解析部35およびパワー解析部36で構成されている。
特徴量抽出部24に供給された楽曲データMTは、周波数分析部34に供給される。周波数分析部34は、入力された楽曲データMTの所定時間、例えば0.5秒間程度の短い時間長を有する楽曲データを用いて、楽曲データMTに対してFFT分析やOctave分析などの周波数分析を施し、周波数情報MSを取得する。取得した周波数情報MSは、エンベロープ解析部35およびパワー解析部36に供給される。
エンベロープ解析部35は、入力された周波数情報MSに基づき、楽曲データMTの周波数領域におけるエンベロープの解析を行い、例えば所定の周波数帯域におけるエンベロープを所定に数値化したエンベロープ情報MPeを算出する。この例では、エンベロープ情報MPeとして、エンベロープの傾きの値が用いられる。算出したエンベロープ情報MPeは、楽曲分類部25に供給される。
パワー解析部36は、入力された周波数情報MSに基づき、楽曲データMTの周波数領域におけるパワーの解析を行い、例えば所定の周波数帯域におけるパワーを所定に数値化したパワー情報MPpを算出する。この例では、パワー情報MPpとして、例えば所定の周波数帯域におけるエンベロープで囲まれた部分の面積、すなわち所定の周波数帯域におけるパワーの総和の値が用いられる。算出したパワー情報MPpは、楽曲分類部25に供給される。
楽曲分類部25は、エンベロープ解析部35から供給されたエンベロープ情報MPeおよびパワー解析部36から供給されたパワー情報MPpに基づき、楽曲特徴量データベース26を参照することによって楽曲を分類する。そして、楽曲分類部25は、この分類結果を示す楽曲分類情報を生成する。生成された楽曲分類情報は、楽曲分類データベース27に供給される。
楽曲特徴量データベース26は、様々な楽曲データから抽出された特徴量に基づき、楽曲データを分類する際に用いられるデータベースである。この例では、楽曲の特徴量として、エンベロープ情報およびMPeパワー情報MPpが用いられ、これらの特徴量に基づき、比較対象となる楽曲がカテゴリ毎に分類される。例えば、楽曲特徴量データベース26に基づき、楽曲が「ロック」や「クラシック」などのカテゴリに分類される。
楽曲分類データベース27は、楽曲分類部25から供給された楽曲分類情報に基づき、特徴量の算出が行われた楽曲データと、特徴量に基づく分類結果とを対応付けて記録する。このようにして、楽曲分類データベース27には、再生装置1に記録された全ての楽曲データの分類結果が記録される。
楽曲分類選択部28は、騒音分類部22から供給された騒音分類情報に基づき、楽曲分類データベース27を参照して、現在の環境騒音の分類結果に応じて適していると判断される楽曲分類の候補を選択する。例えば、現在の環境騒音の分類結果の特徴量に近い特徴量を有する楽曲分類から上位の複数、例えば2〜3種類の楽曲分類を選択する。
ここで、騒音特徴量データベース23について説明する。騒音特徴量データベース23には、予め収音した様々な環境における環境騒音の特徴量に基づく環境毎の境界線が設定されており、この境界線によって現在の環境騒音を分類することができる。
騒音特徴量データベース23を作成する場合には、図6Aに示すように、先ず、様々な環境において、実際に収音された環境騒音の騒音データを環境毎に分類する。この例では、例えば、収音された騒音データNTを「電車」および「喫茶店」などの環境毎の騒音データに分類する。そして、これらの騒音データNTを周波数分析部41に供給する。
周波数分析部41は、供給されたそれぞれの騒音データNTに対して周波数分析を施し、周波数情報NSを取得する。この取得した周波数情報NSは、エンベロープ解析部42およびパワー解析部43に供給される。エンベロープ解析部42は、周波数情報NSに基づき、それぞれの騒音データNTにおけるエンベロープ情報NPeを算出する。また、パワー解析部43は、周波数情報NSに基づき、それぞれの騒音データNTにおけるパワー情報NPpを算出する。
次に、図6Bに示すように、算出されたエンベロープ情報NPeおよびパワー情報NPpに基づき、それぞれの騒音データNTをエンベロープ情報NPeおよびパワー情報NPpの2次元平面上にマッピングする。「電車」や「喫茶店」などの環境毎に分類された騒音データNTをマッピングすることにより、2次元平面上には、騒音データNTの分類毎に境界が形成されるので、この分類毎の境界を示す境界線を設定する。
このようにして設定された境界線の情報と、特徴量に基づく2次元平面のデータとを騒音特徴量データベース23として設定する。したがって、楽曲を再生する際に収音された騒音データNTの特徴量に基づき、この騒音特徴量データベース23を参照することにより、収音された環境騒音を分類することができる。例えば、収音された騒音データNTのエンベロープ情報NPeおよびパワー情報NPpに基づき環境特徴量データベース23を参照する。そして、収音された騒音データNTが境界線の上側にあれば、環境騒音が「電車」に分類され、境界線の下側にあれば、環境騒音が「喫茶店」に分類される。
なお、分類毎の境界が明確である場合には、人の判断によって境界線を設定してもよい。しかしながら、分類毎の境界が明確でない場合や、特徴量が3次元以上である場合には、人の判断による境界の設定が困難となるため、例えば数学的な手法を用いて、分類毎の境界線を設定すると好ましい。
また、ここでは、環境騒音を「電車」および「喫茶店」の2つの環境に分類した場合を例にとって説明したが、これはこの例に限られない。例えば、環境騒音を3つ以上の環境に分類する場合についても同様に環境毎の境界線を設定することにより、環境騒音を3つ以上に分類することができる。
楽曲特徴量データベース26について説明する。楽曲特徴量データベース26には、様々なカテゴリに分類された楽曲の特徴量に基づくカテゴリ毎の境界線が設定されており、この境界線によって楽曲を分類することができる。
楽曲特徴量データベース26は、騒音特徴量データベース23と同様の作成方法を用いることにより作成することができる。先ず、カテゴリが既に判別している楽曲の楽曲データをカテゴリ毎に分類する。この例では、例えば、楽曲データMTを「ロック」および「クラシック」などのカテゴリ毎の楽曲データに分類する。そして、これらの楽曲データMTに対して周波数分析を行うことによって得られる周波数情報MSに基づき、それぞれの楽曲データMTにおけるエンベロープ情報MPeおよびパワー情報MPpを算出する。
次に、算出されたエンベロープ情報MPeおよびパワー情報MPpに基づき、それぞれの楽曲データMTをエンベロープ情報MPeおよびパワー情報MPpの2次元平面上にマッピングする。「ロック」や「クラシック」などのカテゴリ毎に分類された楽曲データMTをマッピングすることにより、2次元平面上には、楽曲データMTの分類毎に境界が形成されるので、この分類毎の境界を示す境界線を設定する。
このようにして設定された境界線の情報と、特徴量に基づく2次元平面のデータとを騒音特徴量データベース23として設定する。したがって、再生装置1に記録された楽曲データMTの特徴量に基づき、この楽曲特徴量データベース26を参照することにより、再生装置1に記録された楽曲を分類することができる。例えば、楽曲データMTのエンベロープ情報MPeおよびパワー情報MPpに基づき楽曲特徴量データベース26を参照し、楽曲データMTが境界線の上側にあれば、楽曲が「ロック」に分類され、境界線の下側にあれば、楽曲が「クラシック」に分類される。
なお、上述のように、楽曲を「ロック」および「クラシック」の2つのカテゴリに分類する場合に限られず、例えば、楽曲を3つ以上のカテゴリに分類する場合についても同様にカテゴリ毎の境界線を設定することにより、楽曲を3つ以上に分類することができる。
次に、表示部4における表示の一例について、図2を参照して説明する。この発明の実施の第1の形態では、表示部4の表示領域のうち、所定の領域に環境騒音の分類結果が表示され、環境騒音の分類結果を表示する領域とは別の領域に、環境騒音の分類結果に基づいて選択された楽曲分類の候補が表示される。
例えば、表示部4の左側の領域には、環境騒音の分類結果を示す2次元平面が表示され、右側の領域には、環境騒音の分類結果に基づいて選択された楽曲分類の候補を示す2次元平面が表示される。これらの2次元平面は、環境騒音および楽曲から抽出された特徴量を示す評価軸Aおよび評価軸Bによって形成されている。評価軸Aおよび評価軸Bとしては、例えばパワー情報およびエンベロープ情報を用いることができる。
ユーザによって環境騒音に応じた楽曲分類の候補の提示が指示されると、マイク3によって収音された現在の環境騒音から抽出された特徴量に基づき環境騒音が分類される。そして、分類結果が左側の2次元平面にマッピングされ、分類結果を示す分類名が表示される。図2に示す例では、環境騒音が「分類b」に分類され、2次元平面上に表示される。なお、これ以外の分類結果を示す「分類a」、「分類c」および「分類d」は、表示されない。また、分類結果の表示は、分類名を表示せず、分類が判断できるような図形等を表示させるようにしてもよい。
また、再生装置1内の記録媒体に記録された楽曲から抽出された特徴量に基づき楽曲が分類され、それぞれの楽曲の特徴量に基づき、分類結果が右側の2次元平面にマッピングされる。例えば、記録媒体に記録されたそれぞれの楽曲が「分類1」〜「分類7」に分類され、2次元平面上にマッピングされる。
このとき、環境騒音および楽曲の分類結果は、それぞれの特徴量に基づいてマッピングされるため、マッピングされた環境騒音の分類および楽曲分類の位置が近い程、環境騒音および楽曲が似た特徴を有していることを示す。ここで、上記に説明したように、現在の環境騒音の特徴に似た特徴を有する楽曲分類が、現在の環境騒音下において聴きやすい楽曲分類であるとすると、現在の環境騒音がマッピングされた位置に近い楽曲分類が聴きやすい楽曲分類であると考えられる。
したがって、マッピングされた楽曲分類の中から環境騒音の分類結果に近い位置の楽曲分類が、聴きやすい楽曲分類の候補として楽曲分類選択部28で選択され、分類結果を示す分類名が右側の2次元平面上に表示される。この例では、環境騒音の分類結果である「分類b」に近い位置の楽曲分類として、図2に示す環境騒音の分類結果の位置を中心とした点線の円で囲まれた「分類1」、「分類2」および「分類3」が、現在の環境騒音下において聴きやすい楽曲分類の候補として選択され、所謂「おすすめ」の楽曲分類として、2次元平面上に表示される。なお、選択されなかった楽曲分類を示す「分類4」〜「分類7」については、表示されない。
そして、ユーザは、右側の2次元平面上に表示された「分類1」〜「分類3」の中から所望の楽曲分類を選択することにより、選択された楽曲分類に分類された楽曲を聴取することができる。このとき再生される楽曲は、例えば、選択された楽曲分類に分類された楽曲の中からランダムに選択されるようにしてもよいし、環境騒音の特徴量に最も近い特徴量を有する楽曲が選択されるようにしてもよい。また、例えば、選択された楽曲分類に分類された楽曲の一覧を表示させ、表示された楽曲一覧の中から、ユーザが聴取したい楽曲を選択するようにしてもよい。
なお、楽曲分類の候補を表示する際に、例えば、点線の円で囲まれた部分に対して、円の中心から円周方向に向かって色合いが薄くなるようなグラデーションなどによる表示を行うようにすると好ましい。こうすることにより、円の中心付近が最も「おすすめ度合いが高い」といった視覚的な効果を得ることができ、表示の効果を高めることができるためである。
この発明の実施の第1の形態に適用可能な再生装置1の一例の構成について、図7を参照して説明する。なお、図7では、この発明の実施の第1の形態と関係のない部分については図示せず、説明を省略する。再生装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、音声信号処理部14、記録再生制御部15、入力処理部16、表示部4および操作部5がバス10を介して接続されている。
CPU11は、RAM13をワークメモリとして用い、ROM12に予め記憶されたプログラムに従いこの再生装置1の全体の動作を制御する。例えば、CPU11は、バス10を介して各部とコマンドやデータのやりとりを行い、各部を制御する。また、CPU11は、操作部5に対する操作に応じて、記録媒体18に記録された楽曲データの再生を制御する。
CPU11は、図5に示す環境騒音に基づく楽曲分類の選択を行う。CPU11は、マイク3で収音された環境騒音の騒音データを入力処理部16を介して受け取り、騒音データの解析を行い、この解析結果に応じて環境騒音を所定に分類する。また、CPU11は、後述する音声信号処理部14からディジタル音声信号に変換された楽曲データを受け取り、楽曲データの解析を行って楽曲を分類し、楽曲データと楽曲分類結果とを対応付けて楽曲分類データベース27に記録する。そして、楽曲分類データベース27を参照して、環境騒音の分類結果に応じた楽曲分類を所定に選択し、この選択された楽曲分類に分類された楽曲データの再生を制御する。なお、楽曲分類データベース27は、例えば後述する記録媒体18に記録される。
音声信号処理部14には、音声出力部17が接続される。音声信号処理部14は、再生対象である楽曲データを、後述する記録媒体18から記録再生制御部15を介して受け取り、楽曲データに対してD/A(Digital/Analog)変換等の各種処理を施し、アナログ音声信号に変換する。また、楽曲データが圧縮されている場合には、所定の圧縮方式を用いて伸長処理を施す。そして、音声信号処理部14は、ディジタル音声信号をCPU11に供給する。また、音声信号処理部14は、このアナログ音声信号を、音声出力部17を介して出力する。音声出力部17としては、例えばヘッドフォン2やスピーカを用いることができる。
記録再生制御部15には、記録媒体18が接続される。記録再生制御部15は、記録媒体18に対するデータの記録制御や、記録媒体18に記録されたデータの再生制御を行う。記録媒体18には、楽曲データや、CPU11における騒音データの解析の際に参照される騒音特徴量データベース24が記録されている。記録媒体18としては、例えば着脱可能な不揮発性メモリや、着脱可能または再生装置1に内蔵されるハードディスク等を用いることができる。
入力処理部16には、マイク3が接続される。マイク3は、環境騒音を収音し、環境騒音の騒音データをアナログ音声信号に変換して入力処理部16に供給する。入力処理部16は、マイク3から供給されたアナログ音声信号に対してA/D(Analog/Digital)変換等の各種処理を施し、ディジタルの騒音データに変換する。変換された騒音データは、CPU11に供給される。
表示部4は、再生された楽曲のタイトル名やアーティスト名、再生時間等の再生中の楽曲に関する情報を表示することができる。また、表示部4は、環境騒音の分類結果や、環境騒音の分類結果に応じて選択可能な楽曲分類の候補を表示する。
操作部5は、この再生装置1を操作するために用いられる各種の操作子が設けられ、各操作子に対する操作に応じた制御信号を出力する。例えば、楽曲データを再生/停止するための再生キーや停止キー、環境騒音に応じた楽曲分類の候補を自動的に選択するための操作子などが設けられている。また、操作部5としては、例えば表示部4に積層されるタッチパネルを用いてもよい。
この発明の実施の第1の形態における楽曲分類の提示処理の流れについて、図8および図9に示すフローチャートを参照して説明する。なお、特別な記載がない限り、以下の処理は、CPU11の制御の下で行われるものとする。
ステップS1において、ユーザによって再生装置1の電源がONとされ、ステップS2において、操作部5に設けられた、環境騒音に応じた楽曲分類の提示を指示するための操作子がユーザによって操作される。
ステップS3では、再生装置1に記録された全ての楽曲について、特徴量が算出され楽曲分類データベース27に登録されているか否かが判断される。全ての楽曲について、特徴量が算出されていないと判断された場合には、処理がステップS4に移行する。ステップS4では、特徴量算出の対象となる楽曲が選択され、ステップS5において、選択された楽曲の楽曲データMTに対して周波数分析が施され、周波数情報MSに基づき、楽曲の特徴量であるエンベロープ情報MPeおよびパワー情報MPpが算出される。ステップS6では、算出されたエンベロープ情報MPeおよびパワー情報MPpに基づき、楽曲特徴量データベース26を参照して楽曲が分類される。
ステップS7において、特徴量算出の対象となった全ての楽曲について、特徴量が算出されたか否かが判断される。全ての楽曲について特徴量を算出したと判断された場合には、処理がステップS8に移行し、特徴量算出の対象となる楽曲とその特徴量とが対応づけられて楽曲分類データベース27に記録される。また、全ての楽曲について特徴量を算出していないと判断された場合には、処理がステップS4に戻り、特徴量算出の対象となる別の楽曲が選択される。
一方、ステップS3において、全ての楽曲について特徴量が算出され楽曲分類データベース27に登録されていると判断された場合には、処理がステップS9に移行する。ステップS9では、マイク3を介して環境騒音が収音され、環境騒音の騒音データNTがCPU11に供給される。
ステップS10では、環境騒音の騒音データNTに対して周波数分析が施され、周波数情報NSに基づき、環境騒音の特徴量であるエンベロープ情報NPeおよびパワー情報NPpが算出される。そして、ステップS11において、算出されたエンベロープ情報NPeおよびパワー情報NPpに基づき騒音特徴量データベース23を参照して現在の環境騒音が分類される。
ステップS12で現在の環境騒音の分類結果が表示部4に表示され、ステップS13で現在の環境騒音の分類結果に応じた楽曲分類の複数の候補が表示部4に表示される。ステップS14では、ユーザによる操作部5に対する操作により、表示部4に表示された楽曲分類の候補の中から所定の楽曲分類が選択される。
ステップS15では、選択された楽曲分類に分類された楽曲の中から所定の楽曲が選択され、対応する楽曲データが記録媒体18から読み出されて再生される。ここで再生される楽曲は、例えば、選択された楽曲分類に分類された楽曲の中からランダムに選択されるようにしてもよいし、環境騒音の特徴量に最も近い特徴量を有する楽曲が選択されるようにしてもよい。 また、例えば、選択された楽曲分類に分類された楽曲の一覧を表示させ、表示された楽曲の一覧から、ユーザが聴取したい楽曲を選択するようにしてもよい。
ステップS16では、音楽を聴取し続けるか否かが判断される。音楽を聴取し続けると判断された場合には、処理がステップS15に戻り、楽曲の再生が継続される。また、再生された楽曲が終了した場合には、同一の楽曲分類に分類された楽曲が選択され、再生される。このとき、一度再生された楽曲を所定回数選択されないようにしたり、同一の楽曲が連続して選択されないように、別の楽曲が選択されるようにすると好ましい。
一方、音楽の再生を終了すると判断された場合には、処理がステップS17に移行し、現在の環境騒音を再度解析するか否かが判断される。環境騒音を解析すると判断された場合には、処理がステップS9に戻り、マイク3によって現在の環境騒音が収音される。また、環境騒音を解析しないと判断された場合には、ステップS18において、ユーザによって再生装置1の電源がOFFとされ、一連の処理が終了する。
なお、ステップS4からステップS8における楽曲の分類および楽曲分類データベースの構築(場合によっては更新)は、環境騒音の分類結果に応じた楽曲分類の提示が指示された段階で行ってもよいし、楽曲データが記録媒体18に記録された段階で行うようにしてもよい。また、これに限られず、再生装置1の外部で予め楽曲分類がなされた状態で、楽曲データを記録媒体18に記録するようにしてもよい。この場合には、ステップS5およびS6の処理を省略することができ、予めなされた楽曲分類の結果に従って、ステップS8における楽曲分類データベースの構築を行えばよい。
このように、この発明の実施の第1の形態では、環境騒音の分類結果に基づき現在の環境騒音に対して適した楽曲分類を複数選択してユーザに対して提示するようにしている。そして、最終的な楽曲分類の選択がユーザによって行われるため、ユーザの嗜好に合った楽曲分類を選択することができる。
次に、この発明の実施の第1の形態の変形例について説明する。上述した実施の第1の形態では、環境騒音の分類結果と、環境騒音の分類結果に基づき選択可能な楽曲分類の候補とを、それぞれ独立した平面上に表示させるようにしていた。しかしながら、例えば、再生装置に設けられた表示部の表示領域が小さい場合に、環境騒音および楽曲の分類結果を独立して表示させてしまうと、表示が見づらくなってしまうおそれがある。そこで、この発明の実施の第1の形態の変形例では、環境騒音の分類結果と、楽曲分類の候補とを同一の平面上に表示させるようにしている。
図10は、この発明の実施の第1の形態の変形例による表示部における表示の一例を示す。この発明の実施の第1の形態の変形例では、特徴量としてのパワー情報およびエンベロープ情報を用いた評価軸Aおよび評価軸Bからなる同一の2次元平面上に、環境騒音の分類結果と環境騒音の分類結果に基づいて選択された楽曲分類の候補とが表示される。
ユーザによって環境騒音に応じた楽曲分類の候補の提示が指示されると、現在の環境騒音から抽出された特徴量に基づき環境騒音が分類される。そして、環境騒音の分類結果が2次元平面にマッピングされ、分類結果を示す分類名が表示される。現在の環境騒音の分類結果は、例えば図10の斜線部分で示されるように表示される。
また、再生装置1内の記録媒体18に記録された楽曲から抽出された特徴量に基づき、楽曲が例えば「分類1」〜「分類7」に分類され、2次元平面にマッピングされる。現在の環境騒音の特徴に似た特徴を有する楽曲分類が、現在の環境騒音下において聴きやすい楽曲分類であるとした場合には、マッピングされた楽曲分類の中から環境騒音の分類結果に近い位置の楽曲分類が、聴きやすい楽曲分類の候補として楽曲分類選択部28で選択され、分類結果を示す分類名が2次元平面上に表示される。
この例では、図10に示す環境騒音の分類結果を中心とした点線の円で囲まれた「分類1」、「分類2」および「分類3」が、現在の環境騒音下において聴きやすい楽曲分類の候補として選択され、2次元平面上に表示される。選択されなかった楽曲分類を示す「分類4」〜「分類7」については、表示されない。そして、ユーザは、2次元平面上に表示された「分類1」〜「分類3」の中から所望の楽曲分類を選択することにより、選択された楽曲分類に分類された楽曲を聴取することができる。
このとき、環境騒音の分類結果と、選択可能な楽曲分類の結果とが同一平面上に表示されるため、両方の分類名をそのまま表示してしまうと、表示が煩雑となってしまう。そのため、環境騒音の分類結果と楽曲分類の結果とを区別できるように、楽曲分類名のみを表示させ、環境騒音の分類結果を示す表示を点や円といった図形などで表示させると好ましい。また、環境騒音の分類結果を示す記号を点滅させるなどして表示させるとより好ましい。
なお、上述した実施の第1の形態と同様に、楽曲分類の候補を表示する際に、点線の円で囲まれた部分に対してグラデーションなどを用いた視覚的な表示を行うようにすると好ましい。
このように、この発明の実施の第1の形態の変形例では、環境騒音の分類結果と、選択可能な楽曲分類の候補とを、同一平面上に表示させるようにしているため、現在の環境騒音に対して適した楽曲分類を直感的に判断することができる。
この発明の実施の第2の形態について説明する。この発明の実施の第2の形態は、上述の実施の第1の形態と同様にして現在の環境騒音に応じた楽曲分類の候補を選択した後、楽曲分類の再生頻度に応じて、楽曲分類の候補の中から再生頻度の高い楽曲分類を抽出し、限定的に提示するものである。
現在の環境騒音に対して適した楽曲分類を限定的に提示する方法について、図11を参照して説明する。なお、上述した実施の第1の形態において説明した図5と共通する部分については、同一の符号を付し、詳細な説明を省略する。また、ここでは、マイク3によって収音された騒音データNTから、騒音分類部22に供給されるエンベロープ情報NPeおよびパワー情報NPpを生成する部分については、上述した実施の第1の形態と同様であるため、説明を省略する。
騒音分類部22は、エンベロープ解析部32から供給されたエンベロープ情報NPeおよびパワー解析部33から供給されたパワー情報NPpに基づき、騒音特徴量データベース23を参照することによって環境騒音を分類する。そして、分類結果を示す騒音分類情報を生成する。生成された騒音分類情報は、楽曲分類選択部28に供給される。
楽曲分類選択部28は、騒音分類部22から供給された騒音分類情報に基づき、楽曲分類データベース27を参照して、現在の環境騒音の分類結果に応じて適していると判断される楽曲分類の候補を選択する。例えば、現在の環境騒音の分類結果の特徴量に近い特徴量を有する楽曲分類から上位の複数、例えば3種類の楽曲分類を選択する。そして、楽曲分類選択部28は、選択された楽曲分類を示す楽曲分類選択情報を生成し、限定部51に供給する。
限定部51は、楽曲分類選択部28から供給された楽曲分類選択情報に基づき、再生頻度データベース52を参照して、楽曲分類選択情報で示される選択された楽曲分類の候補の中から再生頻度の高い楽曲分類順に複数、例えば2種類の楽曲分類を選択するような限定を行う。
再生頻度データベース52は、楽曲分類とその楽曲分類が過去に再生された履歴に基づく再生頻度とが対応付けられて記録されたデータベースである。再生頻度データベース52は、楽曲が再生された際の再生履歴を示す再生情報を受け取り、再生された楽曲の分類と再生履歴とを対応付けて記録する。そして、図12に示すように、再生頻度データベース52には、各楽曲分類の再生履歴に基づく再生頻度が段階的に記録される。この例では、各楽曲分類の再生頻度を5段階で示し、“☆”マークの数が多いほど、その楽曲分類の再生頻度が高いことを示す。例えば、「分類1」の楽曲分類の再生頻度が最も高く、「分類3」の楽曲分類の再生頻度が最も低い。
ここで、例えば図12に示すような再生頻度データベース52が構築されており、楽曲分類選択部28において「分類1」、「分類2」および「分類3」の楽曲分類が選択された場合について考える。限定部51は、楽曲分類選択部28から「分類1」、「分類2」および「分類3」の楽曲分類が選択されたことを示す楽曲分類選択情報を受け取ると、図12に示す再生頻度データベース52を参照する。
限定部51は、データベースの参照の結果、「分類1」〜「分類3」の楽曲分類のうち「分類3」の楽曲分類の再生頻度が低いと判断し、「分類1」〜「分類3」の楽曲分類の中から「分類3」を除いた「分類1」および「分類2」の楽曲分類を選択する。そして、表示部4には、限定部51で選択された「分類1」および「分類2」の楽曲分類が表示される。
この発明の実施の第2の形態における表示部4の表示の一例について説明する。図13は、環境騒音の分類結果と、環境騒音の分類結果に基づき選択可能な楽曲分類の候補とを、それぞれ独立した平面上に表示させる場合の一例を示す。
図13に示される左側の2次元平面には、現在の環境騒音から抽出された特徴量に基づく環境騒音の分類結果がマッピングされ、分類結果を示す分類名が表示される。この例では、例えば環境騒音が「分類b」に分類されて表示される。
一方、右側の2次元平面には、再生装置1内の記録媒体18に記録された楽曲から抽出された特徴量に基づく楽曲の分類結果がマッピングされる。例えば、記録媒体に記録されたそれぞれの楽曲が「分類1」〜「分類7」に分類されてマッピングされる。マッピングされた楽曲分類の中から環境騒音の分類結果に近い位置の楽曲分類が、聴きやすい楽曲分類の候補として楽曲分類選択部28で選択される。
ここで、この発明の実施の第2の形態では、選択された楽曲分類の複数の候補の中から、再生頻度に基づいて選択可能な楽曲分類の候補をさらに選択するようにしている。そのため、限定部51において、再生頻度データベース52に基づく再生頻度の判断が行われ、再生頻度が低いと判断された楽曲分類が除外され、選択された楽曲分類の候補の中から再生頻度の高い楽曲分類のみが所定数、例えば2〜3種類だけ限定的に選択される。このようにして選択された楽曲分類の候補の分類名が右側の2次元平面上に表示される。
この例では、環境騒音の分類結果である「分類b」に近い位置の楽曲分類として、図13に示す環境騒音の分類結果の位置を中心とした点線の円で囲まれた「分類1」、「分類2」および「分類3」が聴きやすい楽曲分類、所謂「おすすめ」の楽曲分類の候補として選択される。そして、限定部51において、再生頻度データベース52に基づく再生頻度の判断が行われ、「分類3」の再生頻度が低いと判断されて楽曲分類の候補から除外される。したがって、右側の2次元平面上には、「分類1」および「分類2」のみが「おすすめ」の楽曲分類の候補として表示される。「分類3」の楽曲分類は、再生頻度が低く候補から除外されるため、点線の円で示される領域内に含まれていても表示されない。
また、「分類3」の楽曲分類は、再生頻度が低く候補から除外されるが、点線の円で示される領域に表示しても構わない。しかしながらこの場合、「分類3」の楽曲分類は、他の「分類1」や「分類2」とは異なり、表示部4上で薄く表示される等、他の分類と識別して表示されるようにすると好ましい。
環境騒音の分類結果と、環境騒音の分類結果に基づき選択可能な楽曲分類の候補とを同一の平面上に表示させる場合には、図14に示すように、現在の環境騒音の分類結果が、斜線部分で示されるような図形で表示される。
また、「分類1」〜「分類7」に分類された楽曲分類がマッピングされ、環境騒音の分類結果に近い位置の楽曲分類が、聴きやすい楽曲分類の候補として楽曲分類選択部28で選択される。そして、限定部51において、再生頻度データベース52に基づく再生頻度の判断が行われ、選択された楽曲分類の候補の中から再生頻度の高い楽曲分類のみが所定数だけ限定的に選択されて2次元平面上に表示される。
この例では、図14に示す環境騒音の分類結果を中心とした点線の円で囲まれた「分類1」、「分類2」および「分類3」が、現在の環境騒音下において聴きやすい楽曲分類の候補として選択される。そして、限定部51において、再生頻度データベース52に基づく再生頻度の判断が行われ、「分類3」の再生頻度が低いと判断されて楽曲分類の候補から除外され、「分類1」および「分類2」のみが「おすすめ」の楽曲分類の候補として表示される。「分類3」の楽曲分類は、図13に示す例と同様に、表示されない。
また、「分類3」の楽曲分類は、再生頻度が低く候補から除外されるが、点線の円で示される領域に表示しても構わない。しかしながらこの場合、「分類3」の楽曲分類は、他の「分類1」や「分類2」とは異なり、表示部4上で薄く表示される等、他の分類と識別して表示されるようにすると好ましい。
この発明の実施の第2の形態における楽曲分類の提示処理の流れについて、図15に示すフローチャートを参照して説明する。なお、特別な記載がない限り、以下の処理は、CPU11の制御の下で行われるものとする。また、上述の実施の第1の形態において説明した図8および図9と共通する部分については、同一の符号を付し、詳細な説明を省略する。ステップS1からステップS12までの処理は、図8に示す処理と同様であるため、説明を省略する。
ステップS21では、ステップS11で得られた現在の環境騒音の分類結果に応じた楽曲分類の複数の候補が選択される。ステップS22では、限定部51において、選択された楽曲分類の複数の候補を示す楽曲分類選択情報に基づき、再生頻度データベース52を参照して、楽曲分類の候補として再生頻度が上位である楽曲分類が所定数だけ限定的に選択される。そして、ステップS23において、限定的に選択された楽曲分類の候補が表示部4に表示される。
ステップS24では、ユーザによる操作部5に対する操作により、表示部4に表示された楽曲分類の候補の中から所定の楽曲分類が選択され、ステップS25において、選択された楽曲分類に分類された楽曲の中から所定の楽曲が再生される。
ステップS26では、音楽を聴取し続けるか否かが判断される。音楽を聴取し続けると判断された場合には、処理がステップS25に戻り、楽曲の再生が継続される。また、再生された楽曲が終了した場合には、同一の楽曲分類に分類された別の楽曲が選択されて再生される。
一方、音楽の再生を終了すると判断された場合には、ステップS27において、現在の環境騒音を再度解析するか否かが判断される。環境騒音を解析すると判断された場合には、処理がステップS9に戻る。また、環境騒音を解析しないと判断された場合には、ステップS28において、ユーザによって再生装置1の電源がOFFとされ、一連の処理が終了する。
このように、この発明の実施の第2の形態では、このように、ユーザが普段からあまり聴取しないような再生頻度の低い楽曲分類の優先度を下げ、聴取する頻度の高い楽曲分類に限定し、現在の環境騒音に対して適した楽曲分類の候補を表示させるようにしている。こうすることにより、よりユーザの嗜好に合った楽曲分類を選択することができる。
この発明の実施の第3の形態について説明する。この発明の実施の第3の形態は、ノイズキャンセリング機能を有する再生装置に対して、ユーザが体感する環境騒音に応じた楽曲分類の候補を提示する処理を適用するものである。
ノイズキャンセリング機能は、収音した環境騒音に基づき、環境騒音を打ち消す逆位相の信号を発生させ、この信号成分を再生音に付加することによりユーザが体感する環境騒音を低減させるものである。
例えば、マイク3がヘッドフォン2の内部に設けられている場合、楽曲を再生する際にユーザが体感する環境騒音は、ノイズキャンセリング機能によって騒音が低減された環境騒音である。また、マイク3によって収音される環境騒音も、ノイズキャンセリング機能によって騒音が低減された環境騒音である。
この場合、ユーザが体感する環境騒音とマイク3によって収音される環境騒音とが同一であるので、マイク3によって収音された環境騒音をそのまま解析・分類し、環境騒音の分類結果に応じて現在の環境騒音に対して適した楽曲分類の候補を提示すればよい。すなわち、マイク3がヘッドフォン2の内部に設けられている場合には、上述した実施の第1の形態と同様の処理を行うことにより、ユーザが体感する環境騒音に対して適した楽曲分類の候補を提示することができる。
一方、マイク3がヘッドフォン2の外部に設けられている場合、ユーザが体感する環境騒音は、ノイズキャンセリング機能によって騒音が低減された環境騒音である。また、マイク3によって収音される環境騒音は、ノイズキャンセリング機能によって騒音が低減された環境騒音ではなく、実際の環境騒音そのものである。
この場合、ユーザが体感する環境騒音とマイク3によって収音される環境騒音とが同一ではない。そのため、マイク3によって収音された環境騒音に対して解析・分類を行い、環境騒音の分類結果に応じた楽曲分類の候補を提示しても、ユーザが体感する環境騒音に対して適した楽曲分類の候補を提示することができない。
そこで、この発明の実施の第3の形態では、マイク3がヘッドフォン2の外部に設けられている場合に、マイク3によって収音された環境騒音に対してノイズキャンセル機能がONである場合と同等の処理を施し、騒音が低減された環境騒音を生成する。そして、騒音が低減された環境騒音に対して解析・分類を行い、分類結果に応じて現在の環境騒音に対して適した楽曲分類の候補を提示する。
図16は、マイク3がヘッドフォン2の外部に設けられた場合において、現在の環境騒音に対して適した楽曲分類を選択する方法について説明するためのブロック図である。この例では、環境騒音に対する解析として、環境騒音の周波数領域におけるエンベロープおよびパワーの解析を行い、これらの解析結果を環境騒音の特徴量として算出する場合について説明する。なお、上述した図5と共通する部分については、同一の符号を付し、詳細な説明を省略する。
マイク3によって収音された環境騒音の騒音データNTが特徴量抽出部21の周波数分析部31に供給される。周波数分析部31は、入力された騒音データNTに対して所定の周波数分析を施し、周波数情報NSを取得する。取得した周波数情報NSは、スイッチ61に供給される。
スイッチ61は、入力端子61a、出力端子61bおよび61cを備える。スイッチ61は、ユーザによる操作部5に対する操作に基づくノイズキャンセリング機能のON/OFFに応じて、入力端子61aに入力された周波数情報NSを出力端子61bおよび61cのいずれか一方の出力端子から選択的に出力する。
ノイズキャンセリング機能がONとされている場合には、出力端子61bが選択され、入力端子61aに供給された周波数情報NSを出力端子61bから出力し、等価フィルタ62に供給する。一方、ノイズキャンセリング機能がOFFとされている場合には、出力端子61cが選択され、周波数情報NSを出力端子61cから出力し、エンベロープ解析部32およびパワー解析部33に供給する。
等価フィルタ62は、収音された環境騒音の騒音データNTにおける周波数情報NSに対して、ノイズキャンセル機能を用いた際に得られる低減効果と同等の効果が得られる処理を施し、騒音が低減された場合と同等の騒音データの周波数情報TNSを生成する。生成された周波数情報TNSは、エンベロープ解析部32およびパワー解析部33に供給される。
エンベロープ解析部32は、スイッチ61を介して周波数分析部31から供給された周波数情報NSまたは、等価フィルタ62から供給された周波数情報TNSに基づきエンベロープの解析を行い、エンベロープ情報NPeまたはTNPeを算出する。算出されたエンベロープ情報NPeまたはTNPeは、騒音分類部22に供給される。
パワー解析部33は、スイッチ61を介して周波数分析部31から供給された周波数情報NSまたは、等価フィルタ62から供給された周波数情報TNSに基づきパワーの解析を行い、パワー情報NPpまたはTNPpを算出する。算出されたパワー情報NPpまたはTNPpは、騒音分類部22に供給される。
騒音分類部22は、エンベロープ情報NPe/TNPeおよびパワー情報NPp/TNPpに基づき、騒音特徴量データベース23を参照することによって環境騒音を分類し、騒音分類情報を生成する。生成された騒音分類情報は、楽曲分類選択部28に供給される。
楽曲分類選択部28は、騒音分類部22から供給された騒音分類情報に基づき、楽曲分類データベース27を参照して、ユーザが体感する環境騒音に対して適した楽曲分類の候補を選択する。例えば、ユーザが体感する環境騒音の分類結果の特徴量に近い特徴量を有する楽曲分類から上位の複数、例えば2〜3種類の楽曲分類を選択する。
なお、等価フィルタ61による騒音データNTに対する低減効果は、ノイズキャンセル機能による低減効果と必ずしも完全に一致させる必要はない。ここでは、低減された環境騒音を正確に再現する必要はなく、ノイズキャンセル機能によって環境騒音の特徴量が大局的にどのように変化したかが判断できる程度でよい。
この発明の実施の第3の形態における楽曲分類の提示処理の流れについて、図17に示すフローチャートを参照して説明する。なお、特別な記載がない限り、以下の処理は、CPU11の制御の下で行われるものとする。また、上述の実施の第1の形態において説明した図8および図9と共通する部分については、同一の符号を付し、詳細な説明を省略する。ステップS1からステップS9までの処理は、図8に示す処理と同様であるため、説明を省略する。
ステップS9において、マイク3を介して環境騒音が収音された後、ステップS31では、ノイズキャンセル機能がONであるか否かが判断される。ノイズキャンセル機能がONであると判断された場合には、処理がステップS32に移行する。ステップS32では、収音された環境騒音の騒音データNTの周波数情報NSに対してノイズキャンセルを施した際に得られる低減効果と同等の効果が得られる処理が施され、騒音が低減された環境騒音の周波数情報TNSが生成される。
一方、ステップS31において、ノイズキャンセル機能がOFFであると判断された場合には、処理がステップS33に移行する。ステップS33では、ステップS9において収音された環境騒音の騒音データNTに対して周波数分析が施され、周波数情報NS/TNSに基づき、環境騒音の特徴量であるエンベロープ情報NPe/TNPeおよびパワー情報NPp/TNPpが算出される。そして、ステップS34において、算出されたエンベロープ情報NPe/TNPeおよびパワー情報NPp/TNPpに基づき騒音特徴量データベース23を参照してユーザが体感する環境騒音が分類される。
ステップS35でユーザが体感する環境騒音の分類結果が表示部4に表示され、ステップS36で環境騒音の分類結果に応じた楽曲分類の複数の候補が表示部4に表示される。ステップS37では、ユーザによる操作部5に対する操作により、表示部4に表示された楽曲分類の候補の中から所定の楽曲分類が選択され、ステップS38において、選択された楽曲分類に分類された楽曲の中から所定の楽曲が再生される。
ステップS39では、音楽を聴取し続けるか否かが判断される。音楽を聴取し続けると判断された場合には、処理がステップS38に戻り、楽曲の再生が継続される。また、再生された楽曲が終了した場合には、同一の楽曲分類に分類された別の楽曲が選択されて再生される。
一方、音楽の再生を終了すると判断された場合には、ステップS40において、現在の環境騒音を再度解析するか否かが判断される。環境騒音を解析すると判断された場合には、処理がステップS9に戻る。また、環境騒音を解析しないと判断された場合には、ステップS41において、ユーザによって再生装置1の電源がOFFとされ、一連の処理が終了する。
また、この発明の実施の第3の形態に対して上述の実施の第2の形態を適用することもできる。例えば、ノイズキャンセリング機能を有する再生装置に対して、ユーザが体感する環境騒音に応じた楽曲分類の候補を複数選択し、選択された楽曲分類の複数の候補の中から、再生頻度の高い楽曲分類の候補をさらに選択して提示する。
上述したように、マイク3がヘッドフォン2の内部に設けられている場合には、ユーザが体感する環境騒音を収音するため、実施の第2の形態で説明した図5および図11に示す処理を行うことによって実現可能である。
一方、マイク3がヘッドフォン2の外部に設けられている場合には、ユーザが体感する環境騒音と収音される環境騒音とが異なるため、この実施の第3の形態で説明した図16および図11に示す処理を行う。
具体的には、ノイズキャンセリング機能がONとされている場合には、マイク3によって収音された環境騒音の騒音データNTから得られる周波数情報NSがスイッチ61を介して等価フィルタ62に供給される。等価フィルタ62は、収音された環境騒音の騒音データNTにおける周波数情報NSに対して、ノイズキャンセル機能と同等の効果が得られる処理を施し、騒音が低減された低減騒音データの周波数情報TNSを生成する。
エンベロープ解析部32およびパワー解析部33は、周波数情報TNSに基づきエンベロープ情報TNPeおよびパワー情報TNPpを算出する。騒音分類部22は、エンベロープ情報TNPeおよびパワー情報TNPpに基づき、騒音特徴量データベース23を参照することによって環境騒音を分類し、騒音分類情報を生成する。
楽曲分類選択部28は、騒音分類情報に基づき、楽曲分類データベース27を参照して、ユーザが体感する環境騒音に対して適した楽曲分類の複数の候補を選択し、選択された楽曲分類を示す楽曲分類選択情報を生成する。限定部51は、楽曲分類選択情報に基づき、再生頻度データベース52を参照して、楽曲分類選択情報で示される選択された楽曲分類の候補の中から再生頻度の高い楽曲分類をさらに所定数、例えば2〜3種類だけ選択する。
図18に示すフローチャートは、この場合の楽曲分類の提示処理の流れの一例を示す。なお、特別な記載がない限り、以下の処理は、CPU11の制御の下で行われるものとする。また、上述の実施の第1の形態において説明した図8および図9と共通する部分については、同一の符号を付し、詳細な説明を省略する。ステップS1からステップS9までの処理は、図8に示す処理と同様であるため、説明を省略する。
ステップS9において、マイク3を介して環境騒音が収音された後、ステップS51では、ノイズキャンセル機能がONであるか否かが判断される。ノイズキャンセル機能がONであると判断された場合には、処理がステップS52に移行する。ステップS52では、等価フィルタ62により、収音された環境騒音の騒音データNTの周波数情報NSに対して等価フィルタ62による処理が施され、騒音が低減されたユーザが体感する環境騒音の周波数情報TNSが生成される。
一方、ステップS51において、ノイズキャンセル機能がOFFであると判断された場合には、処理がステップS53に移行する。ステップS53では、ステップS9において収音された環境騒音の騒音データNTに対して周波数分析が施され、周波数情報NS/TNSに基づき、環境騒音の特徴量であるエンベロープ情報NPe/TNPeおよびパワー情報NPp/TNPpが算出される。そして、ステップS54において、算出されたエンベロープ情報NPe/TNPeおよびパワー情報NPp/TNPpに基づき騒音特徴量データベース23を参照してユーザが体感する環境騒音が分類される。
ステップS55では、ユーザが体感する環境騒音の分類結果が表示部4に表示される。ステップS56では、ステップS54で得られたユーザが体感する環境騒音の分類結果に応じた楽曲分類の複数の候補が選択される。ステップS57では、限定部51において、選択された楽曲分類の複数の候補を示す楽曲分類選択情報に基づき、再生頻度データベース52を参照して、楽曲分類の候補として再生頻度が上位である楽曲分類が所定数だけ限定的に選択される。そして、ステップS58において、限定的に選択された楽曲分類の候補が表示部4に表示される。
ステップS59では、ユーザによる操作部5に対する操作により、表示部4に表示された楽曲分類の候補の中から所定の楽曲分類が選択され、ステップS60において、選択された楽曲分類に分類された楽曲の中から所定の楽曲が再生される。
ステップS61では、音楽を聴取し続けるか否かが判断される。音楽を聴取し続けると判断された場合には、処理がステップS60に戻り、楽曲の再生が継続される。また、再生された楽曲が終了した場合には、同一の楽曲分類に分類された別の楽曲が選択されて再生される。
一方、音楽の再生を終了すると判断された場合には、ステップS62において、現在の環境騒音を再度解析するか否かが判断される。環境騒音を解析すると判断された場合には、処理がステップS9に戻る。また、環境騒音を解析しないと判断された場合には、ステップS63において、ユーザによって再生装置1の電源がOFFとされ、一連の処理が終了する。
このように、この発明の実施の第3の形態では、マイク3によって収音された環境騒音に対してノイズキャンセリング機能による低減効果と同等の低減効果を有する等価フィルタを用いることによって生成された環境騒音の分類を行う。そして、分類結果に応じてユーザが体感する環境騒音に対して適した楽曲分類の候補を提示するようにしている。そのため、ノイズキャンセリング機能を有する場合でも、騒音が低減された環境騒音に対して適した楽曲分類の候補を提示することができる。
また、ユーザが体感する環境騒音に対して適した楽曲分類の候補を選択し、その中からユーザが聴取する頻度の高い楽曲分類に限定した楽曲分類の候補を表示させるようにしている。こうすることにより、よりユーザの嗜好に合った楽曲分類を選択することができる。
以上、この発明の実施の第1の形態、第1の形態の変形例、第2の形態および第3の形態について説明したが、この発明は、上述したこの発明の実施の第1の形態、第1の形態の変形例、第2の形態および第3の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。環境騒音および楽曲の分類方法は、この例に限られず、従来の分類方法を用いてもよい。また、環境騒音および楽曲の分類方法は、それぞれ別の方法を用いてもよい。
特に、全般的に現在の環境騒音の特徴に似た楽曲分類が、現在の環境騒音下において聴きやすい楽曲分類であるとして説明してきたが、必ずしも環境騒音と特徴の似た楽曲分類が、現在の環境騒音下において聴きやすい楽曲分類であるとしなければならない訳ではない。環境騒音および楽曲の分類方法によっては、逆に類似していない方が聴きやすい場合も考えられる。具体的には、例えば、環境騒音と楽曲とが似ていない(類似度が低い)方が、楽曲が騒音にマスクされる可能性が減るために聴きやすいということも十分考えられる。つまり、評価軸としてどのような特徴量を用いるかによって、環境騒音に適した楽曲分類の選択方法は変わり得るということである。
また、この例では、楽曲を「ロック」や「クラシック」などの「カテゴリ」毎に分類した場合について説明したが、これに限られず、例えば、楽曲の速さを示す「テンポ」や曲調を示す「ムード」等に楽曲を分類するようにしてもよい。
さらに、この発明の実施の形態では、環境騒音に対応して提示されるコンテンツが楽曲である場合について説明したが、これはこの例に限られない。例えば、提示されるコンテンツとして「動画」を用いた場合にも、この発明の実施の形態を適用することができる。
この場合には、動画の音声データ部分に対して上述と同様の楽曲分類処理を行うことにより音声データの特徴量を抽出し、特徴量に基づき動画を分類する。動画の分類としては、例えば、「バラエティ番組」や「ニュース番組」等のジャンル毎に分類することができる。なお、動画の分類方法としては、これに限られず、他の分類方法を適用してもよい。
そして、図19に示すように、環境騒音の分類結果と現在の環境騒音に適した動画分類の候補とを表示部4に表示させる。具体的には、例えば、騒音レベルが高い環境騒音下においては、視聴する動画の分類結果として「バラエティ番組」を提示することができる。また、騒音レベルが低い環境騒音下においては、「ニュース番組」を提示することができる。
また、提示されるコンテンツとして「イコライザ特性」を用いることもできる。この場合には、例えば、環境騒音から低域のパワーおよび高域のパワーを特徴量として抽出し、抽出された特徴量に基づき環境騒音を分類する。また、様々なイコライザ特性から、低域のブースト量および高域のブースト量を特徴量として抽出し、抽出された特徴量に基づきイコライザ特性を分類する。なお、イコライザ特性の分類方法としては、これに限られず、他の分類方法を適用してもよい。
そして、図20に示すように、環境騒音の分類結果と現在の環境騒音に適したイコライザ分類の候補とを表示部4に表示させる。具体的には、例えば、低域にエネルギーが集中しているような環境騒音下においては、低域のブースト量が大きいイコライザ特性を提示することができる。また、高域にエネルギーが集中しているような環境騒音下においては、高域のブースト量が大きいイコライザ特性を提示することができる。
さらに、提示されるコンテンツとして「ノイズキャンセル特性」を用いることも可能である。この場合には、例えば、環境騒音から低域のパワーおよび高域のパワーを特徴量として抽出し、抽出された特徴量に基づき環境騒音を分類する。また、様々なノイズキャンセル特性から、低域のキャンセル量および中域のキャンセル量を特徴量として抽出し、抽出された特徴量に基づきノイズキャンセル特性を分類する。なお、ノイズキャンセル特性の分類方法としては、これに限られず、他の分類方法を適用してもよい。
そして、図21に示すように、環境騒音の分類結果と現在の環境騒音に適したノイズキャンセル分類の候補とを表示部4に表示させる。具体的には、例えば、低域にエネルギーが集中しているような環境騒音下においては、低域のキャンセル量が大きいノイズキャンセル特性を提示することができる。また、中域にエネルギーが集中しているような環境騒音下においては、中域のキャンセル量が大きいノイズキャンセル特性を提示することができる。
この発明の実施の第1の形態に適用可能な再生装置の一例の使用形態を示す略線図である。 表示部における表示について説明するための略線図である。 環境騒音の周波数特性の一例を示す略線図である。 環境騒音の特徴量について説明するための略線図である。 環境騒音に基づく楽曲分類の選択方法について説明するためブロック図である。 騒音特徴量データベースの構築(作成、更新も含む)方法について説明するための略線図である。 この発明の実施の第1の形態に適用可能な再生装置の一例の構成を示すブロック図である。 この発明の実施の第1の形態における楽曲分類の提示処理の流れについて説明するためのフローチャートである。 この発明の実施の第1の形態における楽曲分類の提示処理の流れについて説明するためのフローチャートである。 この発明の実施の第1の形態の変形例による表示部における表示の一例を示す略線図である。 この発明の実施の第2の形態における楽曲分類の限定的な選択方法について説明するためのブロック図である。 再生頻度データベースについて説明するための略線図である。 この発明の実施の第2の形態による表示部における表示の一例を示す略線図である。 この発明の実施の第2の形態による表示部における別の表示の一例を示す略線図である。 この発明の実施の第2の形態における楽曲分類の提示処理の流れについて説明するためのフローチャートである。 この発明の実施の第3の形態における、環境騒音に基づく楽曲分類の選択方法について説明するためのブロック図である。 この発明の実施の第3の形態における楽曲分類の提示処理の流れについて説明するためのフローチャートである。 この発明の実施の第3の形態における楽曲分類の提示処理の流れについて説明するためのフローチャートである。 コンテンツとして動画を用いた場合における、環境騒音に適した分類結果の表示の一例を示す略線図である。 コンテンツとしてイコライザ特性を用いた場合における、環境騒音に適した分類結果の表示の一例を示す略線図である。 コンテンツとしてノイズキャンセル特性を用いた場合における、環境騒音に適した分類結果の表示の一例を示す略線図である。 従来の再生装置の一例の使用形態を示す略線図である。 環境騒音および楽曲のそれぞれから抽出した2種類の特徴量に基づく環境騒音および楽曲の分類結果の一例を示す略線図である。 従来の再生装置における楽曲の選択方法について説明するためのフローチャートである。
符号の説明
1 再生装置
2 ヘッドフォン
3 マイクロフォン
4 表示部
5 操作部
11 CPU
17 音声出力部
18 記録媒体
21 特徴量抽出部
22 騒音分類部
23 騒音特徴量データベース
24 特徴量抽出部
25 楽曲分類部
26 楽曲特徴量データベース
27 楽曲分類データベース
28 楽曲分類選択部
31,34,41 周波数分析部
32,35,42 エンベロープ解析部
33,36,43 パワー解析部
51 限定部
52 再生頻度データベース
61 スイッチ
62 等価フィルタ

Claims (8)

  1. 周囲の環境の騒音データを収音する収音部と、
    上記収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析部と、
    抽出された上記騒音データの特徴量に基づき上記騒音データを環境毎に分類する騒音分類部と、
    記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースと、
    上記コンテンツ分類データベースを参照して、上記環境に適する複数の上記コンテンツ分類を選択するコンテンツ分類選択部と、
    上記選択された複数の上記コンテンツ分類を表示する表示部とを備え、
    上記表示部は、
    上記コンテンツデータの特徴量を軸とした平面上に、上記複数のコンテンツ分類を表示する再生装置。
  2. 周囲の環境の騒音データを収音する収音部と、
    上記収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析部と、
    抽出された上記騒音データの特徴量に基づき上記騒音データを環境毎に分類する騒音分類部と、
    記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースと、
    上記コンテンツ分類データベースを参照して、上記環境に適する複数の上記コンテンツ分類を選択するコンテンツ分類選択部と、
    上記選択された複数の上記コンテンツ分類を表示する表示部とを備え、
    上記表示部は、
    上記騒音データの特徴量を軸とした平面上に、上記騒音データを解析した結果により分類される環境をさらに表示する再生装置。
  3. 上記表示部は、
    上記騒音データを解析した結果により分類される環境を、上記複数のコンテンツ分類を表示する領域と別の領域に表示する請求項2に記載の再生装置。
  4. 上記表示部は、
    上記騒音データを解析した結果により分類される環境を、上記複数のコンテンツ分類を表示する領域と同一の領域に表示する請求項2に記載の再生装置。
  5. 周囲の環境の騒音データを収音する収音ステップと、
    上記収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析ステップと、
    抽出された上記騒音データの特徴量に基づき上記騒音データを環境毎に分類する騒音分類ステップと、
    記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースを参照して、上記環境に適する複数の上記コンテンツ分類を選択するコンテンツ分類選択ステップと、
    上記選択された複数の上記コンテンツ分類を表示する表示ステップとを有し、
    上記表示ステップは、
    上記コンテンツデータの特徴量を軸とした平面上に、上記複数のコンテンツ分類を表示する再生装置の表示方法。
  6. 周囲の環境の騒音データを収音する収音ステップと、
    上記収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析ステップと、
    抽出された上記騒音データの特徴量に基づき上記騒音データを環境毎に分類する騒音分類ステップと、
    記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースを参照して、上記環境に適する複数の上記コンテンツ分類を選択するコンテンツ分類選択ステップと、
    上記選択された複数の上記コンテンツ分類を表示する表示ステップとを有し、
    上記表示ステップは、
    上記騒音データの特徴量を軸とした平面上に、上記騒音データを解析した結果により分類される環境をさらに表示する再生装置の表示方法。
  7. 周囲の環境の騒音データを収音する収音ステップと、
    上記収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析ステップと、
    抽出された上記騒音データの特徴量に基づき上記騒音データを環境毎に分類する騒音分類ステップと、
    記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースを参照して、上記環境に適する複数の上記コンテンツ分類を選択するコンテンツ分類選択ステップと、
    上記選択された複数の上記コンテンツ分類を表示する表示ステップとを有し、
    上記表示ステップは、
    上記コンテンツデータの特徴量を軸とした平面上に、上記複数のコンテンツ分類を表示する再生装置の表示方法をコンピュータ装置に実行させる表示プログラム。
  8. 周囲の環境の騒音データを収音する収音ステップと、
    上記収音部により収音された騒音データに対する解析を行い、該騒音データの特徴を示す特徴量を抽出する騒音解析ステップと、
    抽出された上記騒音データの特徴量に基づき上記騒音データを環境毎に分類する騒音分類ステップと、
    記録媒体に記録されたコンテンツデータと該コンテンツデータの特徴量に基づくコンテンツ分類とが対応付けられたコンテンツ分類データベースを参照して、上記環境に適する複数の上記コンテンツ分類を選択するコンテンツ分類選択ステップと、
    上記選択された複数の上記コンテンツ分類を表示する表示ステップとを有し、
    上記表示ステップは、
    上記騒音データの特徴量を軸とした平面上に、上記騒音データを解析した結果により分類される環境をさらに表示する再生装置の表示方法をコンピュータ装置に実行させる表示プログラム。
JP2008181037A 2008-07-11 2008-07-11 再生装置、表示方法および表示プログラム Expired - Fee Related JP4640463B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008181037A JP4640463B2 (ja) 2008-07-11 2008-07-11 再生装置、表示方法および表示プログラム
US12/498,547 US8106284B2 (en) 2008-07-11 2009-07-07 Playback apparatus and display method
EP09251757A EP2144242A1 (en) 2008-07-11 2009-07-08 Playback apparatus and display method.
CN2009101593075A CN101625863B (zh) 2008-07-11 2009-07-13 回放装置和显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008181037A JP4640463B2 (ja) 2008-07-11 2008-07-11 再生装置、表示方法および表示プログラム

Publications (2)

Publication Number Publication Date
JP2010020133A JP2010020133A (ja) 2010-01-28
JP4640463B2 true JP4640463B2 (ja) 2011-03-02

Family

ID=41078355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008181037A Expired - Fee Related JP4640463B2 (ja) 2008-07-11 2008-07-11 再生装置、表示方法および表示プログラム

Country Status (4)

Country Link
US (1) US8106284B2 (ja)
EP (1) EP2144242A1 (ja)
JP (1) JP4640463B2 (ja)
CN (1) CN101625863B (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029928A1 (en) * 2009-07-31 2011-02-03 Apple Inc. System and method for displaying interactive cluster-based media playlists
JP5644268B2 (ja) * 2010-08-30 2014-12-24 大日本印刷株式会社 秘匿化データ生成装置、秘匿化データ生成方法、秘匿化装置、秘匿化方法及びプログラム
CN103379205B (zh) * 2012-04-16 2017-06-20 富泰华工业(深圳)有限公司 行车通话提示装置及方法
WO2013179469A1 (ja) * 2012-05-31 2013-12-05 富士通株式会社 運用プロセス作成プログラム、運用プロセス作成方法、及び情報処理装置
TW201411601A (zh) * 2012-09-13 2014-03-16 Univ Nat Taiwan 以情緒為基礎的自動配樂方法
US10877717B2 (en) * 2013-10-16 2020-12-29 Nokia Technologies Oy Method and apparatus for providing a visual user interface for audio equalization
CN104601764A (zh) * 2013-10-31 2015-05-06 中兴通讯股份有限公司 移动终端的噪音处理方法、装置及系统
CN103606372A (zh) * 2013-11-08 2014-02-26 四川长虹电器股份有限公司 基于智能家居的噪音消除方法及系统
WO2015091899A1 (de) * 2013-12-20 2015-06-25 Schott Ag Optischer filter
CN106328152B (zh) * 2015-06-30 2020-01-31 芋头科技(杭州)有限公司 一种室内噪声污染自动识别监测系统
CN105335507A (zh) * 2015-10-29 2016-02-17 维沃移动通信有限公司 一种推送歌曲的方法及装置
US9864568B2 (en) 2015-12-02 2018-01-09 David Lee Hinson Sound generation for monitoring user interfaces
WO2017101067A1 (zh) * 2015-12-17 2017-06-22 华为技术有限公司 一种对周围环境音的处理方法及设备
CN106802943B (zh) * 2017-01-03 2020-06-09 海信集团有限公司 基于影视信息的音乐推荐方法及装置
CN107452378A (zh) * 2017-08-15 2017-12-08 北京百度网讯科技有限公司 基于人工智能的语音交互方法和装置
CN109361933B (zh) * 2018-11-13 2019-11-05 仲恺农业工程学院 一种音视频信息处理方法
US20220172720A1 (en) * 2019-04-12 2022-06-02 Sony Group Corporation Information processing device and information processing method
US11030479B2 (en) * 2019-04-30 2021-06-08 Sony Interactive Entertainment Inc. Mapping visual tags to sound tags using text similarity

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274164A (ja) * 1993-03-18 1994-09-30 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
JPH09116361A (ja) * 1995-10-19 1997-05-02 Matsushita Electric Ind Co Ltd 自動音量制御装置
JPH10207479A (ja) * 1997-01-22 1998-08-07 Yamaha Corp カラオケ装置
JP2000059876A (ja) * 1998-08-13 2000-02-25 Sony Corp 音響装置およびヘッドホン
JP2001188599A (ja) * 1999-10-19 2001-07-10 Matsushita Electric Ind Co Ltd オーディオ信号復号装置
JP2003244785A (ja) * 2002-02-14 2003-08-29 Alpine Electronics Inc 音量補正装置
JP2004236245A (ja) * 2003-02-03 2004-08-19 Casio Comput Co Ltd 電子メールシステムおよびプログラム
JP2004335065A (ja) * 2003-05-12 2004-11-25 Sony Corp ディスク再生装置
JP2005031644A (ja) * 2003-06-17 2005-02-03 Matsushita Electric Ind Co Ltd 楽曲選曲装置および楽曲配信システム
JP2006301890A (ja) * 2005-04-20 2006-11-02 Sharp Corp 楽曲管理システムおよび楽曲管理方法
JP2006311395A (ja) * 2005-04-28 2006-11-09 Sharp Corp テレビ受像装置、及びその冷却ファン回転速度調節方法
JP2007041979A (ja) * 2005-08-05 2007-02-15 Fujitsu Ten Ltd 情報処理装置、及び情報処理方法
JP2007097087A (ja) * 2005-09-30 2007-04-12 Olympus Imaging Corp 音量調整装置
JP2007266803A (ja) * 2006-03-28 2007-10-11 Nec Saitama Ltd 着信メロディ機能付通信機
JP2008123576A (ja) * 2006-11-09 2008-05-29 Nec Corp ポータブルコンテンツ再生装置、再生システム、コンテンツ再生方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2972431B2 (ja) * 1992-01-29 1999-11-08 株式会社河合楽器製作所 音響発生装置
JP3381074B2 (ja) * 1992-09-21 2003-02-24 ソニー株式会社 音響構成装置
AU743455B2 (en) 1998-12-11 2002-01-24 Canon Kabushiki Kaisha Environment adaptive multimedia presentation
DE10064754A1 (de) * 2000-12-22 2002-07-04 Daimler Chrysler Ag Verfahren und Anordnung zur Bestimmung eines Geräuschsignals einer Geräuschquelle
EP1241588A3 (en) 2001-01-23 2006-01-04 Matsushita Electric Industrial Co., Ltd. Audio information provision system
EP1378912A3 (en) * 2002-07-02 2005-10-05 Matsushita Electric Industrial Co., Ltd. Music search system
JP2004361845A (ja) * 2003-06-06 2004-12-24 Mitsubishi Electric Corp 移動体における自動選曲システム
US20050129252A1 (en) * 2003-12-12 2005-06-16 International Business Machines Corporation Audio presentations based on environmental context and user preferences
JP2005252467A (ja) * 2004-03-02 2005-09-15 Sony Corp 音響再生方法、音響再生装置および記録メディア
JP4650662B2 (ja) * 2004-03-23 2011-03-16 ソニー株式会社 信号処理装置および信号処理方法、プログラム、並びに記録媒体
JP4649859B2 (ja) 2004-03-25 2011-03-16 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
US7813921B2 (en) * 2004-03-31 2010-10-12 Pioneer Corporation Speech recognition device and speech recognition method
JP2006084749A (ja) 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
US7542816B2 (en) * 2005-01-27 2009-06-02 Outland Research, Llc System, method and computer program product for automatically selecting, suggesting and playing music media files
JP2006244002A (ja) * 2005-03-02 2006-09-14 Sony Corp コンテンツ再生装置およびコンテンツ再生方法
CN101228587A (zh) 2005-07-20 2008-07-23 皇家飞利浦电子股份有限公司 内容的非线性呈现
JP2008181037A (ja) 2007-01-26 2008-08-07 Seiko Epson Corp 液晶装置、その製造方法、及び電子機器
JP4623124B2 (ja) * 2008-04-07 2011-02-02 ソニー株式会社 楽曲再生装置、楽曲再生方法および楽曲再生プログラム

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274164A (ja) * 1993-03-18 1994-09-30 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
JPH09116361A (ja) * 1995-10-19 1997-05-02 Matsushita Electric Ind Co Ltd 自動音量制御装置
JPH10207479A (ja) * 1997-01-22 1998-08-07 Yamaha Corp カラオケ装置
JP2000059876A (ja) * 1998-08-13 2000-02-25 Sony Corp 音響装置およびヘッドホン
JP2001188599A (ja) * 1999-10-19 2001-07-10 Matsushita Electric Ind Co Ltd オーディオ信号復号装置
JP2003244785A (ja) * 2002-02-14 2003-08-29 Alpine Electronics Inc 音量補正装置
JP2004236245A (ja) * 2003-02-03 2004-08-19 Casio Comput Co Ltd 電子メールシステムおよびプログラム
JP2004335065A (ja) * 2003-05-12 2004-11-25 Sony Corp ディスク再生装置
JP2005031644A (ja) * 2003-06-17 2005-02-03 Matsushita Electric Ind Co Ltd 楽曲選曲装置および楽曲配信システム
JP2006301890A (ja) * 2005-04-20 2006-11-02 Sharp Corp 楽曲管理システムおよび楽曲管理方法
JP2006311395A (ja) * 2005-04-28 2006-11-09 Sharp Corp テレビ受像装置、及びその冷却ファン回転速度調節方法
JP2007041979A (ja) * 2005-08-05 2007-02-15 Fujitsu Ten Ltd 情報処理装置、及び情報処理方法
JP2007097087A (ja) * 2005-09-30 2007-04-12 Olympus Imaging Corp 音量調整装置
JP2007266803A (ja) * 2006-03-28 2007-10-11 Nec Saitama Ltd 着信メロディ機能付通信機
JP2008123576A (ja) * 2006-11-09 2008-05-29 Nec Corp ポータブルコンテンツ再生装置、再生システム、コンテンツ再生方法

Also Published As

Publication number Publication date
EP2144242A1 (en) 2010-01-13
JP2010020133A (ja) 2010-01-28
CN101625863A (zh) 2010-01-13
US20100011024A1 (en) 2010-01-14
US8106284B2 (en) 2012-01-31
CN101625863B (zh) 2012-03-14

Similar Documents

Publication Publication Date Title
JP4640463B2 (ja) 再生装置、表示方法および表示プログラム
TWI433027B (zh) 適應性使用者介面
KR101669302B1 (ko) 제어 장치
JP4795934B2 (ja) パラメータで表示された時間特性の分析
US7908338B2 (en) Content retrieval method and apparatus, communication system and communication method
US20080160943A1 (en) Method and apparatus to post-process an audio signal
KR101915120B1 (ko) 인공신경망을 이용한 오디오의 이퀄라이징 시스템
JP4623124B2 (ja) 楽曲再生装置、楽曲再生方法および楽曲再生プログラム
WO2014112206A1 (ja) 記憶制御装置、再生制御装置および記録媒体
JP2023527473A (ja) オーディオ再生方法、装置、コンピュータ可読記憶媒体及び電子機器
JP2007534995A (ja) 音声信号を分類する方法及びシステム
CN113781989B (zh) 一种音频的动画播放、节奏卡点识别方法及相关装置
JP2007271977A (ja) 評価基準判定装置、制御方法及びプログラム
US20240314499A1 (en) Techniques for audio track analysis to support audio personalization
JP2006202127A (ja) 推奨情報提示装置及び推奨情報提示方法等
JP2007256619A (ja) 評価装置、制御方法及びプログラム
JP4903791B2 (ja) 楽曲検索装置、楽曲検索方法、楽曲検索プログラムおよび楽曲検索プログラムを記録した記録媒体
JP5126281B2 (ja) 楽曲再生装置
JP4933330B2 (ja) 楽曲再生制御装置および再生リスト作成方法
Fenton Audio Dynamics: Towards a Perceptual Model of'punch'.
JP2006023524A (ja) 音響信号の分析装置および再生装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101115

R151 Written notification of patent or utility model registration

Ref document number: 4640463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees