[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2020208811A1 - 再生制御装置、プログラムおよび再生制御方法 - Google Patents

再生制御装置、プログラムおよび再生制御方法 Download PDF

Info

Publication number
WO2020208811A1
WO2020208811A1 PCT/JP2019/015982 JP2019015982W WO2020208811A1 WO 2020208811 A1 WO2020208811 A1 WO 2020208811A1 JP 2019015982 W JP2019015982 W JP 2019015982W WO 2020208811 A1 WO2020208811 A1 WO 2020208811A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing section
music
voice processing
lyrics
control device
Prior art date
Application number
PCT/JP2019/015982
Other languages
English (en)
French (fr)
Inventor
貫太 香田
明秀 長谷川
渡辺 実
祐多 石井
英輝 宮田
Original Assignee
AlphaTheta株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AlphaTheta株式会社 filed Critical AlphaTheta株式会社
Priority to PCT/JP2019/015982 priority Critical patent/WO2020208811A1/ja
Priority to JP2021513138A priority patent/JP7197688B2/ja
Publication of WO2020208811A1 publication Critical patent/WO2020208811A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis

Definitions

  • the present invention relates to a reproduction control device, a program, and a reproduction control method.
  • Patent Document 1 describes lyrics synchronized with music reproduction by embedding a synchronization signal in the audio file so that text can be synchronized and output when the audio file is reproduced. The technology that enables the display is described. Further, Patent Document 2 describes a synchronized lyrics distribution system in which music data acquisition costs are not duplicated when a client already owns a music file.
  • lyrics when playing music.
  • certain lyrics may not be suitable for playback.
  • lyrics that have no problem when played in a private place may not be suitable for playing in a public place.
  • lyrics that are not a problem in one country or region may not be suitable for playback in another country or region.
  • DJ Disc Jockey
  • an object of the present invention is to provide a reproduction control device, a program, and a reproduction control method capable of preventing inappropriate words or phrases from being heard by using lyrics data associated with a musical piece. ..
  • voice processing for determining a voice processing section in a music corresponding to a specific word or phrase included in the lyrics of the music is based on the lyrics data associated with the playback position information of the music.
  • a playback control device including a section determination unit and a voice processing unit that processes the sound of the music in the voice processing section when the voice data of the music is reproduced is provided.
  • a program configured to function a computer as the above-mentioned playback control device is provided.
  • the voice processing section in the music corresponding to a specific word or phrase included in the lyrics of the music is determined based on the lyrics data associated with the playback position information of the music.
  • a reproduction control method including a step and a step of processing the sound of the music in the sound processing section when the sound data of the music is reproduced is provided.
  • FIG. 1 is a block diagram showing a schematic functional configuration of the reproduction control device according to the first embodiment of the present invention.
  • the reproduction control device 100 includes a lyrics data acquisition unit 110, a voice processing section determination unit 120, a voice data acquisition unit 130, a voice reproduction unit 140, and a voice processing unit 150.
  • the functions of the above-mentioned parts are realized, for example, in a reproduction control device having a computer hardware configuration, by operating the processor according to a program. The functions of each part will be further described below.
  • the lyrics data acquisition unit 110 acquires the lyrics data 111 of the music. More specifically, the lyrics data acquisition unit 110 reads the lyrics data 111 from the storage device.
  • the storage device may be provided in an external device, in which case the lyrics data acquisition unit 110 receives the lyrics data 111 by wired or wireless communication.
  • the lyrics data 111 is, for example, data in which lyrics are described as text, and is associated with music reproduction position information 111T in word units or phrase units.
  • the format of the lyrics data 111 is not particularly limited as long as the words or phrases included in the lyrics can be identified.
  • the voice processing section determination unit 120 determines the voice processing section in the music corresponding to a specific word or phrase included in the lyrics of the music based on the lyrics data 111. More specifically, in the present embodiment, the voice processing section determination unit 120 determines the voice processing section by referring to the predefined inappropriate term list 121.
  • the inappropriate term list 121 may allow the user to add or remove arbitrary words.
  • the inappropriate term list 121 defines, for example, words and phrases that are not suitable for reproduction in a public place.
  • the voice processing section determination unit 120 in the music based on the playback position information 111T associated with the word or phrase. Determine the voice processing section.
  • the voice data acquisition unit 130 acquires the voice data 131 of the music. More specifically, the voice data acquisition unit 130 reads the voice data 131 from the storage device. Similar to the lyrics data 111, the storage device may be provided in an external device, in which case the voice data acquisition unit 130 receives the voice data 131 by wired or wireless communication. The lyrics data 111 and the voice data 131 may be stored in different storage devices. For example, the lyrics data acquisition unit 110 may receive the lyrics data 111 from an external device, and the voice data acquisition unit 130 may read the voice data 131 from the storage device of the reproduction control device 100.
  • the audio reproduction unit 140 reproduces the audio data 131 of the music. Specifically, the audio reproduction unit synthesizes an audio signal based on the audio data 131, and outputs the synthesized audio signal to an output device 141 such as a speaker.
  • the output device 141 may be provided in an external device, in which case the audio signal output by the audio reproduction unit 140 is transmitted to the output device 141 by wired or wireless communication.
  • the voice processing unit 150 processes the sound of the music in the voice processing section specified by the voice processing section determination unit 120.
  • the voice processing unit 150 processes the voice of the music so that the words or phrases of the lyrics included in the voice processing section (that is, the words or phrases included in the inappropriate term list 121) cannot be heard. ..
  • words and phrases can be heard by applying a filter that cuts the frequency band of vocals, adding reverberation so strong that the lyrics cannot be heard, or replacing the sound of a song with another sound.
  • the voice can be processed so that it does not exist.
  • the voice reproduction unit 140 may select the type of voice processing as described above according to, for example, the length of the voice processing section.
  • FIG. 2 is a diagram showing a specific first example of a voice processing section by the reproduction control device shown in FIG.
  • the music reproduction position information 111T to which the lyrics data 111 is associated includes the ID of the segment obtained by dividing the music reproduction section and the time stamp of the start point of each segment.
  • the word or phrase included in the lyrics data 111 is associated with any of the segments. In the part without the lyrics of the music, there may be a segment that cannot be associated with the word or phrase.
  • the playback position information 111T associated with the lyrics data 111 including the lyrics "What the hell is this?" Is the segment S1 associated with the word "What" (starting point is the time stamp "00'09".
  • segment S2 associated with the phrase “the hell” (starting point is time stamp “00'10” 00 ")
  • segment S3 not associated with a word or phrase starting point is time stamp” 00'10 " "50”
  • segment S4 starting point is the time stamp "00'13” 10 " associated with the phrase” is this? ".
  • the voice processing section determination unit 120 detects the word “hell” included in the lyrics data 111 by searching with reference to the inappropriate term list 121, and further, the phrase “the hell” including "hell” in the reproduction position information 111T.
  • the segment S2 associated with the above is specified as a voice processing section.
  • the voice processing unit 150 sets the voice of the music in the segment S2, that is, in the section from the time stamps “00'10” 00 ”to“ 00'10 ”50”. (Shown as "EFFECT").
  • FIG. 3 is a diagram showing a specific second example of the voice processing section by the reproduction control device shown in FIG.
  • the music reproduction position information 111T to which the lyrics data 111 is associated includes the time stamp of the start point of the word or phrase included in the lyrics.
  • the playback position information 111T associated with the lyrics data 111 including the lyrics "What the hell is this?" Is the time stamp "00'09” 30 "associated with the word” What ". Includes a time stamp "00'10” 00 “corresponding to the phrase” the hell "and a time stamp” 00'13 "10” associated with the phrase "is this?”.
  • the voice processing section determination unit 120 detects the word “hell” included in the lyrics data 111 by searching with reference to the inappropriate term list 121, and further, the phrase “the hell” including "hell” in the reproduction position information 111T.
  • the voice processing section starting from the time stamp "00'10" 00 "corresponding to” is determined.
  • the voice processing section determination unit 120 since the end point of the section corresponding to the word or phrase is not specified in the reproduction position information 111T of the example of FIG. 3, for example, the voice processing section determination unit 120 has a predetermined duration from the start point specified by the time stamp.
  • the speech processing interval is determined.
  • the duration may be set longer when the phrase is associated with the time stamp of the start point than when it is a word. Further, the duration may be set to be longer according to the number of words included in the phrase.
  • the voice processing unit 150 may set the time stamp “00”. The sound of the music is processed in the section from '10' 00'to 0'50, that is, from' 00'10' 50' (shown as" EFFECT ").
  • the voice processing section determination unit 120 determines the voice processing section of a predetermined duration from the time stamp of the start point as in the example shown in FIG. 3, for example, when the lyrics are stretched for a long time and pronounced, the voice is heard.
  • the processed section does not necessarily include the entire word or phrase. However, even in such a case, for example, if a part of a word or phrase cannot be heard, it is difficult to grasp the meaning of the word or phrase as a whole, so that an effect of preventing an inappropriate word or phrase from being heard is obtained. be able to.
  • FIG. 4 is a block diagram showing a schematic functional configuration of the reproduction control device according to the second embodiment of the present invention.
  • the reproduction control device 200 shown in FIG. 4 includes a lyrics data acquisition unit 110, a voice data acquisition unit 130, a voice reproduction unit 140, and a voice processing unit 150, which are the same as those in the first embodiment.
  • the voice processing section determination unit 220 determines the voice processing section according to the operation of designating a word or phrase acquired by the touch screen display 221.
  • the touch screen display 221 accepts a lyrics display unit that displays the lyrics of a song based on the lyrics data 111 acquired by the lyrics data acquisition unit 110, and an operation of designating a word or phrase included in the displayed lyrics. This is an example of the operation unit.
  • the voice processing section determination unit 220 uses a word or phrase included in the lyrics by the user who refers to the image displaying the lyrics instead of referring to the predefined list as in the first embodiment.
  • the voice processing section is determined according to the operation of specifying. Therefore, it is not necessary to define a list in advance, and it is possible to control the lyrics in detail according to the situation in which the music is played.
  • the voice processing section determination unit refers to a predefined list and determines the voice processing section according to the user's operation. You may. In this case, for example, it is possible to prevent additional words or phrases that are not on the list from being heard, or to enable listening even if the words or phrases are on the list in some situations.
  • Playback control device 110 ... Lyrics data acquisition unit, 111 ... Lyrics data, 111T ... Playback position information, 120, 220 ... Voice processing section determination unit, 121 ... Inappropriate term list, 130 ... Voice data acquisition Unit, 131 ... Audio data, 140 ... Audio reproduction unit, 141 ... Output device, 150 ... Audio processing unit, 221 ... Touch screen display, 350 ... Lyrics image generation unit, 351 ... Output device, 360 ... Lyrics image processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

再生制御装置(100)は、楽曲の再生位置情報(111T)に対応付けられた歌詞データ(111)に基づいて、楽曲の歌詞に含まれる特定の単語またはフレーズに対応する楽曲内の音声加工区間を決定する音声加工区間決定部(120)と、楽曲の音声データ(131)を再生するときに、音声加工区間において楽曲の音声を加工する音声加工部(150)とを備える。

Description

再生制御装置、プログラムおよび再生制御方法
 本発明は、再生制御装置、プログラムおよび再生制御方法に関する。
 楽曲の歌詞をテキストデータとして提供することは一般的である。歌詞のテキストデータは、例えば楽曲の再生に同期して当該楽曲の歌詞を表示させるために用いられる。このような技術の例として、特許文献1には、オーディオファイルの再生時にテキストを同期化させて出力できるようにするための同期信号をオーディオファイルに埋め込むことによって、楽曲の再生に同期した歌詞の表示を可能にする技術が記載されている。また、特許文献2には、クライアントが既に音楽ファイルを所有している場合に音楽データの取得費用が重複して発生することのない同期歌詞配信システムが記載されている。
特開2004-318162号公報 特開2008-112158号公報
 上記のような技術は、専ら楽曲の再生時に歌詞を表示するために用いられる。その一方で、楽曲が再生される状況によって、特定の歌詞が再生に適さないことがありうる。具体的には、プライベートな場で再生する場合には問題がない歌詞であっても、公共の場で再生するのには適さない場合がある。また、ある国や地域では問題がない歌詞であっても、他の国や地域で再生するのには適さない場合がある。例えば放送局で楽曲を再生する場合には、編集機材を用いて予め楽曲の音声を加工して問題のある歌詞を聴取不能にすることができるが、例えばDJ(Disc Jockey)がリアルタイムで楽曲を再生する場合、上記のような対処は困難である。
 そこで、本発明は、楽曲に対応付けられた歌詞データを用いて不適切な単語またはフレーズが聴取されないようにすることが可能な再生制御装置、プログラムおよび再生制御方法を提供することを目的とする。
 本発明のある観点によれば、楽曲の再生位置情報に対応付けられた歌詞データに基づいて、楽曲の歌詞に含まれる特定の単語またはフレーズに対応する楽曲内の音声加工区間を決定する音声加工区間決定部と、楽曲の音声データを再生するときに、音声加工区間において楽曲の音声を加工する音声加工部とを備える再生制御装置が提供される。
 本発明の別の観点によれば、上記の再生制御装置としてコンピュータを機能させるように構成されたプログラムが提供される。
 本発明のさらに別の観点によれば、楽曲の再生位置情報に対応付けられた歌詞データに基づいて、楽曲の歌詞に含まれる特定の単語またはフレーズに対応する楽曲内の音声加工区間を決定するステップと、楽曲の音声データを再生するときに、音声加工区間において楽曲の音声を加工するステップとを含む再生制御方法が提供される。
本発明の第1の実施形態に係る再生制御装置の概略的な機能構成を示すブロック図である。 図1に示す再生制御装置による音声加工区間の特定の第1の例を示す図である。 図1に示す再生制御装置による音声加工区間の特定の第2の例を示す図である。 本発明の第2の実施形態に係る再生制御装置の概略的な機能構成を示すブロック図である。
 以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態に係る再生制御装置の概略的な機能構成を示すブロック図である。図1に示されるように、再生制御装置100は、歌詞データ取得部110と、音声加工区間決定部120と、音声データ取得部130と、音声再生部140と、音声加工部150とを含む。上記の各部の機能は、例えばコンピュータのハードウェア構成を備える再生制御装置において、プロセッサがプログラムに従って動作することによって実現される。以下、各部の機能についてさらに説明する。
 歌詞データ取得部110は、楽曲の歌詞データ111を取得する。より具体的には、歌詞データ取得部110は、記憶装置から歌詞データ111を読み込む。記憶装置は外部装置に備えられていてもよく、その場合、歌詞データ取得部110は有線または無線の通信によって歌詞データ111を受信する。歌詞データ111は、例えば歌詞をテキストとして記述したデータであり、単語単位またはフレーズ単位で楽曲の再生位置情報111Tに対応付けられている。なお、歌詞に含まれる単語またはフレーズを識別することが可能であれば、歌詞データ111の形式は特に限定されない。
 音声加工区間決定部120は、歌詞データ111に基づいて、楽曲の歌詞に含まれる特定の単語またはフレーズに対応する楽曲内の音声加工区間を決定する。より具体的には、本実施形態において、音声加工区間決定部120は、予め定義された不適切用語リスト121を参照することによって音声加工区間を決定する。不適切用語リスト121は、ユーザーにより任意の単語を追加または削除することが可能であってもよい。不適切用語リスト121には、例えば公共の場で再生するのには適さない単語やフレーズが規定されている。音声加工区間決定部120は、歌詞の中に不適切用語リスト121に含まれる単語またはフレーズが検出された場合に、当該単語またはフレーズに対応付けられた再生位置情報111Tに基づいて、楽曲内の音声加工区間を決定する。
 音声データ取得部130は、楽曲の音声データ131を取得する。より具体的には、音声データ取得部130は、記憶装置から音声データ131読み込む。歌詞データ111と同様に、記憶装置は外部装置に備えられていてもよく、その場合、音声データ取得部130は有線または無線の通信によって音声データ131を受信する。なお、歌詞データ111と音声データ131とは、それぞれ異なる記憶装置に格納されていてもよい。例えば、歌詞データ取得部110が歌詞データ111を外部装置から受信し、音声データ取得部130が再生制御装置100の記憶装置から音声データ131を読み込んでもよい。
 音声再生部140は、楽曲の音声データ131を再生する。具体的には、音声再生部は、音声データ131に基づいて音声信号を合成し、合成された音声信号をスピーカーなどの出力装置141に出力する。出力装置141は外部装置に備えられていてもよく、その場合、音声再生部140が出力した音声信号は有線または無線の通信によって出力装置141に送信される。
 音声加工部150は、音声再生部140が音声データ131を再生するときに、音声加工区間決定部120によって特定された音声加工区間において楽曲の音声を加工する。本実施形態において、音声加工部150は、音声加工区間に含まれる歌詞の単語やフレーズ(すなわち、不適切用語リスト121に含まれる単語またはフレーズ)が聴き取れないように、楽曲の音声を加工する。例えば、ヴォーカルの周波数帯域をカットするフィルタをかけたり、または歌詞が聴き取れない程度に強く残響音を付加したり、楽曲の音声を別の音声に差し替えたりすることによって、単語やフレーズが聴き取れないように音声を加工することができる。音声再生部140は、例えば音声加工区間の長さに応じて、上記のような音声の加工の種類を選択してもよい。
 図2は、図1に示す再生制御装置による音声加工区間の特定の第1の例を示す図である。図示された例において、歌詞データ111が対応付けられる楽曲の再生位置情報111Tは、楽曲の再生区間を分割したセグメントのIDと、各セグメントの始点のタイムスタンプとを含む。歌詞データ111に含まれる単語またはフレーズは、いずれかのセグメントに対応付けられている。楽曲の歌詞がない部分では、単語またはフレーズに対応付けられないセグメントがあってもよい。図示された例では、「What the hell is this?」という歌詞を含む歌詞データ111に対応付けられる再生位置情報111Tは、単語「What」に対応付けられるセグメントS1(始点はタイムスタンプ「00’09”30」)と、フレーズ「the hell」に対応付けられるセグメントS2(始点はタイムスタンプ「00’10”00」)、単語またはフレーズに対応付けられないセグメントS3(始点はタイムスタンプ「00’10”50」)と、フレーズ「is this?」に対応付けられるセグメントS4(始点はタイムスタンプ「00’13”10」)とを含む。
 ここで、例えば、図1に示した不適切用語リスト121に「hell」という単語が含まれていたとする。この場合、音声加工区間決定部120は、不適切用語リスト121を参照した検索によって歌詞データ111に含まれる単語「hell」を検出し、さらに再生位置情報111Tにおいて「hell」を含むフレーズ「the hell」に対応付けられたセグメントS2を音声加工区間として特定する。音声加工部150は、音声再生部140が楽曲の音声データ131を再生するときに、セグメントS2、すなわちタイムスタンプ「00’10”00」から「00’10”50」までの区間において楽曲の音声を加工する(「EFFECT」として図示)。
 図3は、図1に示す再生制御装置による音声加工区間の特定の第2の例を示す図である。図示された例において、歌詞データ111が対応付けられる楽曲の再生位置情報111Tは、歌詞に含まれる単語またはフレーズの始点のタイムスタンプを含む。図示された例では、「What the hell is this?」という歌詞を含む歌詞データ111に対応付けられる再生位置情報111Tは、単語「What」に対応付けられるタイムスタンプ「00’09”30」と、フレーズ「the hell」に対応付けられるタイムスタンプ「00’10”00」と、フレーズ「is this?」に対応付けられるタイムスタンプ「00’13”10」とを含む。
 ここで、例えば、上記の例と同様に、不適切用語リスト121に「hell」という単語が含まれていたとする。この場合、音声加工区間決定部120は、不適切用語リスト121を参照した検索によって歌詞データ111に含まれる単語「hell」を検出し、さらに再生位置情報111Tにおいて「hell」を含むフレーズ「the hell」に対応付けられたタイムスタンプ「00’10”00」を始点とする音声加工区間を決定する。ここで、図3の例の再生位置情報111Tでは単語またはフレーズに対応する区間の終点が明示されていないため、例えば音声加工区間決定部120は、タイムスタンプによって特定される始点から所定の継続時間(Duration:図示された例では0”50)の音声加工区間を決定する。継続時間は、始点のタイムスタンプに対応付けられるのが単語の場合よりもフレーズの場合に長く設定されてもよい。また、継続時間は、フレーズに含まれる語数に応じて長くなるように設定されてもよい。音声加工部150は、音声再生部140が楽曲の音声データ131を再生するときに、タイムスタンプ「00’10”00」から0”50後、すなわち「00’10”50」までの区間において楽曲の音声を加工する(「EFFECT」として図示)。
 なお、図3に示した例のように音声加工区間決定部120が始点のタイムスタンプから所定の継続時間の音声加工区間を決定する場合、例えば歌詞が長く引き伸ばされて発音されていると、音声加工区間は必ずしも単語またはフレーズの全体を含まない。しかしながら、そのような場合においても、例えば単語またはフレーズの一部分が聴き取れなければ、全体として単語またはフレーズの意味は把握されにくいため、不適切な単語またはフレーズが聴取されないようにするという効果を得ることができる。
 (第2の実施形態)
 図4は、本発明の第2の実施形態に係る再生制御装置の概略的な機能構成を示すブロック図である。図4に示される再生制御装置200は、上記の第1の実施形態と同様の歌詞データ取得部110と、音声データ取得部130と、音声再生部140と、音声加工部150とを含む。第1の実施形態との相違として、再生制御装置200において、音声加工区間決定部220は、タッチスクリーンディスプレイ221で取得される、単語またはフレーズを指定する操作に従って音声加工区間を決定する。ここで、タッチスクリーンディスプレイ221は、歌詞データ取得部110が取得した歌詞データ111に基づいて楽曲の歌詞を表示する歌詞表示部、および表示された歌詞に含まれる単語またはフレーズを指定する操作を受け付ける操作部の例である。
 本実施形態の場合、音声加工区間決定部220は、第1の実施形態のように予め定義されたリストを参照する代わりに、歌詞を表示する画像を参照したユーザーが歌詞に含まれる単語またはフレーズを指定する操作に従って音声加工区間を決定する。従って、予めリストを定義する必要がなく、また楽曲が再生される状況により細かく対応した歌詞の制御が可能である。
 なお、他の例では、上記の第1の実施形態と第2の実施形態とを組み合わせ、音声加工区間決定部が、予め定義されたリストを参照するとともにユーザーの操作に従って音声加工区間を決定してもよい。この場合、例えば、リストにはない単語またはフレーズを追加で聴取されないようにしたり、リストにある単語またはフレーズであっても状況によっては聴取を可能にしたりすることができる。
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範囲内において、各種の変形例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
 100,200,300…再生制御装置、110…歌詞データ取得部、111…歌詞データ、111T…再生位置情報、120,220…音声加工区間決定部、121…不適切用語リスト、130…音声データ取得部、131…音声データ、140…音声再生部、141…出力装置、150…音声加工部、221…タッチスクリーンディスプレイ、350…歌詞画像生成部、351…出力装置、360…歌詞画像加工部。
 

Claims (9)

  1.  楽曲の再生位置情報に対応付けられた歌詞データに基づいて、前記楽曲の歌詞に含まれる特定の単語またはフレーズに対応する前記楽曲内の音声加工区間を決定する音声加工区間決定部と、
     前記楽曲の音声データを再生するときに、前記音声加工区間において前記楽曲の音声を加工する音声加工部と
     を備える再生制御装置。
  2.  前記音声加工区間決定部は、予め定義された単語またはフレーズのリストを参照することによって前記音声加工区間を決定する、請求項1に記載の再生制御装置。
  3.  前記予め定義された単語またはフレーズのリストは、ユーザーにより追加または削除することが可能である、請求項2に記載の再生制御装置。
  4.  前記音声加工区間決定部は、前記歌詞データに基づいて表示された前記歌詞に含まれる単語またはフレーズを指定する操作に従って前記音声加工区間を決定する、請求項1に記載の再生制御装置。
  5.  前記再生位置情報は、前記楽曲の再生区間を分割したセグメントのIDを含み、
     前記音声加工区間決定部は、前記特定の単語またはフレーズに対応付けられた前記セグメントを前記音声加工区間として特定する、請求項1から請求項4のいずれか1項に記載の再生制御装置。
  6.  前記再生位置情報は、前記歌詞に含まれる単語またはフレーズに対応付けられたタイムスタンプを含み、
     前記音声加工区間決定部は、前記特定の単語またはフレーズに対応付けられた前記タイムスタンプを始点とする所定の継続時間の前記音声加工区間を決定する、請求項1から請求項4のいずれか1項に記載の再生制御装置。
  7.  前記音声加工部は、前記音声加工区間の長さに応じて加工の種類を選択する、請求項1から請求項6のいずれか1項に記載の再生制御装置。
  8.  請求項1から請求項7のいずれか1項に記載の再生制御装置としてコンピュータを機能させるように構成されたプログラム。
  9.  楽曲の再生位置情報に対応付けられた歌詞データに基づいて、前記楽曲の歌詞に含まれる特定の単語またはフレーズに対応する前記楽曲内の音声加工区間を決定するステップと、
     前記楽曲の音声データを再生するときに、前記音声加工区間において前記楽曲の音声を加工するステップと
     を含む再生制御方法。
     
PCT/JP2019/015982 2019-04-12 2019-04-12 再生制御装置、プログラムおよび再生制御方法 WO2020208811A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/015982 WO2020208811A1 (ja) 2019-04-12 2019-04-12 再生制御装置、プログラムおよび再生制御方法
JP2021513138A JP7197688B2 (ja) 2019-04-12 2019-04-12 再生制御装置、プログラムおよび再生制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/015982 WO2020208811A1 (ja) 2019-04-12 2019-04-12 再生制御装置、プログラムおよび再生制御方法

Publications (1)

Publication Number Publication Date
WO2020208811A1 true WO2020208811A1 (ja) 2020-10-15

Family

ID=72750507

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/015982 WO2020208811A1 (ja) 2019-04-12 2019-04-12 再生制御装置、プログラムおよび再生制御方法

Country Status (2)

Country Link
JP (1) JP7197688B2 (ja)
WO (1) WO2020208811A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991285A (ja) * 1995-09-25 1997-04-04 Toshiba Corp 機械翻訳装置及び処理対象語取得方法
JP2002318580A (ja) * 2001-04-23 2002-10-31 Sony Corp 音声再生装置、音声再生方法、音声再生プログラム、音声再生プログラム格納媒体、およびデータ格納媒体
JP2004007344A (ja) * 2002-03-25 2004-01-08 Sanyo Electric Co Ltd 光ディスク再生装置
JP2007102949A (ja) * 2005-10-05 2007-04-19 Funai Electric Co Ltd ディスク装置
JP2009037458A (ja) * 2007-08-02 2009-02-19 Toyota Motor Corp 応答システム、及び応答内容制御方法
US20180197532A1 (en) * 2017-01-10 2018-07-12 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Audio content censoring in vehicle infotainment system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050119817A (ko) * 2004-06-17 2005-12-22 삼성전자주식회사 서브타이틀 데이터를 제한하는 광재생장치 및 그 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991285A (ja) * 1995-09-25 1997-04-04 Toshiba Corp 機械翻訳装置及び処理対象語取得方法
JP2002318580A (ja) * 2001-04-23 2002-10-31 Sony Corp 音声再生装置、音声再生方法、音声再生プログラム、音声再生プログラム格納媒体、およびデータ格納媒体
JP2004007344A (ja) * 2002-03-25 2004-01-08 Sanyo Electric Co Ltd 光ディスク再生装置
JP2007102949A (ja) * 2005-10-05 2007-04-19 Funai Electric Co Ltd ディスク装置
JP2009037458A (ja) * 2007-08-02 2009-02-19 Toyota Motor Corp 応答システム、及び応答内容制御方法
US20180197532A1 (en) * 2017-01-10 2018-07-12 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Audio content censoring in vehicle infotainment system

Also Published As

Publication number Publication date
JPWO2020208811A1 (ja) 2021-12-16
JP7197688B2 (ja) 2022-12-27

Similar Documents

Publication Publication Date Title
US9601029B2 (en) Method of presenting a piece of music to a user of an electronic device
JPWO2018096954A1 (ja) 再生装置、再生方法、情報処理装置、情報処理方法、およびプログラム
JP4174940B2 (ja) カラオケ装置
CN112119456B (zh) 任意信号插入方法以及任意信号插入系统
JP6201460B2 (ja) ミキシング管理装置
JP2004157260A (ja) ミキシング記録装置およびその制御方法を実現するためのプログラム
JPH1152966A (ja) 音楽演奏システム
WO2020208811A1 (ja) 再生制御装置、プログラムおよび再生制御方法
JP2000099050A (ja) 複数のボーカルパートを選択的に再生出力するカラオケ装置
JP4994890B2 (ja) 録音した自分の歌声と模範歌唱とを厳しく比較できるカラオケ装置
JP2008505430A (ja) データサポート上で音響データを記録、再生及び操作する方法
US7385129B2 (en) Music reproducing system
JP2007199574A (ja) 楽曲再生装置、楽曲テロップ検索サーバ
JP2022139888A (ja) 情報処理装置
JP6474292B2 (ja) カラオケ装置
JP2013047746A (ja) カラオケ装置
WO2023195353A1 (ja) 音処理装置及びカラオケシステム
KR20100072476A (ko) 객체 기반 오디오 컨텐츠 생성/재생 방법 및 그 장치
JP2018112725A (ja) 音楽コンテンツ送信装置、音楽コンテンツ送信プログラムおよび音楽コンテンツ送信方法
JP6924119B2 (ja) カラオケ装置
JP2018112724A (ja) 演奏ガイド装置、演奏ガイドプログラムおよび演奏ガイド方法
JP3363667B2 (ja) カラオケ装置
JPH1195770A (ja) カラオケ装置及びカラオケ再生方法
JP4267513B2 (ja) カラオケ録音装置
JP5510435B2 (ja) カラオケ装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19923949

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021513138

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19923949

Country of ref document: EP

Kind code of ref document: A1