KR20230071524A - Electronic apparatus and method for controlling thereof - Google Patents
Electronic apparatus and method for controlling thereof Download PDFInfo
- Publication number
- KR20230071524A KR20230071524A KR1020210157811A KR20210157811A KR20230071524A KR 20230071524 A KR20230071524 A KR 20230071524A KR 1020210157811 A KR1020210157811 A KR 1020210157811A KR 20210157811 A KR20210157811 A KR 20210157811A KR 20230071524 A KR20230071524 A KR 20230071524A
- Authority
- KR
- South Korea
- Prior art keywords
- music
- playlist
- information
- detailed information
- music included
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000004891 communication Methods 0.000 claims abstract description 45
- 238000003062 neural network model Methods 0.000 claims description 19
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4825—End-user interface for program selection using a list of items to be played back in a given order, e.g. playlists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
- H04N21/8113—Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrotherapy Devices (AREA)
Abstract
Description
본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는, 재생목록에 포함된 음악을 재생하면서 라디오를 듣는 것처럼 음악에 대한 설명을 사용자에게 함께 제공하는 전자 장치 및 이의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device and a method for controlling the same, which provide a user with a description of music as if listening to a radio while playing music included in a playlist. .
음악을 감상하는 방식은 전자 장치 또는 서버에 저장된 재생목록에 포함된 음악을 재생하거나 라디오를 청취하는 방식으로 나누어진다. A method of enjoying music is divided into a method of playing music included in a playlist stored in an electronic device or a server or listening to a radio.
전자 장치 또는 서버에 저장된 재생목록은 개인의 기호에 따라 스스로 음악을 선정하여 편성한 것이거나, 제3자가 편성하여 온라인 상으로 공유된 것이거나, 음악 스트리밍 서비스 제공 업체에서 기간 별, 장르 별, 국가 별 인기 순으로 정렬된 음악 차트일 수 있다. 사용자는 전자 장치 또는 서버에 저장된 재생목록에 포함된 음악을 전자 장치에 다운로드 받아 재생하거나, 온라인 상으로 실시간 스트리밍을 통해 음악을 감상할 수 있다. 이 경우, 사용자는 원하는 음악을 기호에 맞게 선별적으로 감상할 수 있지만 음악에 대한 설명을 별도로 들을 수 없어 음악에 대한 정보를 얻기 위해 개인이 스스로 웹 검색을 통해 정보를 찾아야만 한다는 단점이 있다.Playlists stored on electronic devices or servers are those that have been selected and organized by themselves according to individual preferences, those that are organized by a third party and shared online, or those that are shared online by music streaming service providers by period, genre, and country. It could be a music chart sorted by star popularity. A user may download and play music included in a playlist stored in an electronic device or a server to an electronic device, or enjoy music through online real-time streaming. In this case, the user can selectively listen to the desired music according to his or her taste, but cannot separately listen to the music description, so the individual has to find the information through a web search to obtain information about the music.
이와 달리 라디오를 통해 음악을 감상하는 경우, 전자 장치를 통해 라디오 신호를 수신하여 브로드캐스팅되는 라디오 방송을 청취한다. 라디오 방식으로 음악을 감상하는 경우, 라디오 방송 진행자가 음악에 대한 설명을 함께 전달해주어 음악의 아티스트, 명성, 배경지식을 들을 수 있으나, 개인이 듣고 싶지 않은 음악도 들어야 한다는 불편함이 있다.Unlike this, when listening to music through a radio, a radio signal is received through an electronic device to listen to a broadcasted radio broadcast. In the case of listening to music in a radio manner, a radio broadcaster delivers an explanation of the music together so that the artist, reputation, and background knowledge of the music can be heard, but there is an inconvenience that the individual has to listen to the music that he or she does not want to hear.
따라서, 개인의 선호도에 맞게 선별적으로 음악을 감상하면서도 마치 라디오를 청취하는 것처럼 감상하는 음악에 관련된 정보를 함께 들을 수 있는 방법의 모색이 요청된다.Therefore, there is a demand for a method of selectively listening to music according to individual preference and listening to information related to the music as if listening to a radio.
본 개시는 상술한 문제를 해결하기 위해 고안된 것으로, 본 개시의 목적은 재생목록에 포함된 음악을 감상하면서 동시에 음악에 대한 설명을 각 음악의 재생 전후에 함께 제공하는 전자 장치 및 이의 제어 방법을 제공함에 있다.The present disclosure has been devised to solve the above-described problems, and an object of the present disclosure is to provide an electronic device and a control method thereof for simultaneously listening to music included in a playlist and simultaneously providing a description of the music before and after playing each piece of music. is in
상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는, 사용자 인터페이스, 통신 인터페이스, 스피커, 메모리 및 프로세서를 포함하고, 상기 프로세서는, 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하고, 상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하고, 상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하고, 상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하고, 상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 상세 정보를 수신하고, 상기 획득된 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력할 수 있다.An electronic device according to the present embodiment for achieving the above object includes a user interface, a communication interface, a speaker, a memory, and a processor, and the processor operates in a radio mode when a preset user command is input. When entering and entering the radio mode, meta information about music included in the playlist is obtained, keywords included in the obtained meta information are extracted, and detailed information about the music is extracted based on the keywords. To obtain information, the extracted keyword is transmitted to a search server, detailed information on music included in the playlist is received from the search server, and music included in the playlist is received based on the obtained detailed information. A description of and music included in the playlist can be output.
한편, 상기 프로세서는, 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 상세 정보를 수신할 수 있다.Meanwhile, the processor may receive a description of the music included in the playlist and detailed information about a plurality of pieces of music included in the playlist before starting to output the music included in the playlist.
한편, 상기 프로세서는, 상기 수신된 상세 정보를 자연어 합성 신경망 모델에 입력하여 상기 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하고, 상기 합성된 텍스트 형식의 자연어를 음성으로 변환하여 출력할 수 있다.Meanwhile, the processor inputs the received detailed information into a natural language synthesis neural network model to synthesize a description of music included in the playlist into a natural language in text format, converts the synthesized natural language in text format into voice, can be printed out.
한편, 상기 프로세서는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하고, 상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하고, 상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나일 수 있다.On the other hand, the processor identifies the type of voice to be output based on the genre of the music extracted from the meta information on the music included in the playlist, and converts the synthesized text-type natural language to the identified type of voice. , and the type of voice may be one of a male voice, a female voice, and a celebrity voice.
한편, 상기 프로세서는, 상기 수신된 상세 정보 중 기 출력된 상세 정보를 식별하고, 상기 식별된 기 출력된 상세 정보와 상이한 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력할 수 있다.Meanwhile, the processor identifies previously output detailed information among the received detailed information, and provides a description of music included in the playlist and the playlist based on detailed information different from the identified previously output detailed information. The music contained in can be output.
한편, 상기 프로세서는, 상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입할 수 있다.Meanwhile, when the preset user command is input while outputting the first music included in the playlist, the processor may enter the radio mode from second music to be output next to the first music.
한편, 상기 키워드는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드일 수 있다.Meanwhile, the keyword may be a keyword related to at least one of a song title, a singer name, a genre, and a release year extracted from meta information about music included in the playlist.
한편, 상기 상세 정보는, 상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보일 수 있다.Meanwhile, the detailed information may be information on at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하는 단계, 상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하는 단계, 상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하는 단계, 상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하는 단계, 상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 상세 정보를 수신하는 단계 및 상기 획득된 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는 단계를 포함할 수 있다.A method for controlling an electronic device according to an embodiment of the present disclosure includes: entering a radio mode when a preset user command is input; Obtaining information, extracting a keyword included in the acquired meta information, transmitting the extracted keyword to a search server to obtain detailed information on the music based on the keyword, Receiving detailed information about the music included in the playlist from the search server, and outputting a description of the music included in the playlist and the music included in the playlist based on the obtained detailed information. can include
한편, 상기 상세 정보를 수신하는 단계는, 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 상세 정보를 수신하는 단계를 포함할 수 있다.Meanwhile, the receiving of the detailed information may include receiving detailed information on a plurality of pieces of music included in the playlist before starting a description of the music included in the playlist and an output of the music included in the playlist. steps may be included.
한편, 상기 출력하는 단계는, 상기 수신된 상세 정보를 자연어 합성 신경망 모델에 입력하여 상기 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하는 단계 및 상기 합성된 텍스트 형식의 자연어를 음성으로 변환하여 출력하는 단계를 포함할 수 있다.Meanwhile, the outputting may include inputting the received detailed information to a natural language synthesis neural network model to synthesize a description of music included in the playlist in a natural language in a text format, and the synthesized natural language in a text format as a voice. It may include converting to and outputting.
한편, 상기 출력하는 단계는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하는 단계 및 상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하는 단계를 포함하고, 상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나일 수 있다.Meanwhile, the outputting may include identifying the type of voice to be output based on the genre of the music extracted from the meta information about the music included in the playlist, and the synthesized natural language in text format as the identified and outputting the converted voice into a type of voice, and the type of the voice may be one of a male voice, a female voice, and a celebrity voice.
한편, 상기 출력하는 단계는, 상기 수신된 상세 정보 중 기 출력된 상세 정보를 식별하는 단계 및 상기 식별된 기 출력된 상세 정보와 상이한 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는 단계를 포함할 수 있다.On the other hand, the outputting may include identifying detailed information previously output from among the received detailed information, and a description of music included in the playlist based on detailed information different from the identified detailed information previously output, and and outputting music included in the playlist.
한편, 상기 라디오 모드로 진입하는 단계는, 상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는 단계;를 포함하는, 제어 방법.Meanwhile, in the step of entering the radio mode, if the preset user command is input while outputting the first music included in the playlist, the second music to be output next to the first music enters the radio mode. A control method comprising the; step of doing.
한편, 상기 키워드는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드일 수 있다.Meanwhile, the keyword may be a keyword related to at least one of a song title, a singer name, a genre, and a release year extracted from meta information about music included in the playlist.
한편, 상기 상세 정보는, 상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보일 수 있다.Meanwhile, the detailed information may be information on at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
개인의 선호도에 맞게 선별적으로 음악을 감상하면서도 마치 라디오를 청취하는 것처럼 감상하는 음악에 관련된 정보를 음악 재생 전후에 함께 들을 수 있다.While listening to music selectively according to individual preference, you can listen to information related to the music you are listening to before and after playing the music as if you were listening to a radio.
도 1은 본 개시의 일 실시 예에 따른, 전자 장치와 서버를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른, 전자 장치의 구성요소를 설명하기 위한 블록도이다.
도 3은 본 개시의 다양한 실시 예에 따른, 음악 데이터에 포함되어 있는 메타 정보를 설명하기 위한 도면이다.
도 4는 본 개시의 다양한 실시 예에 따른, 자연어 합성 신경망 모델을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른, 텍스트 형식의 자연어로 합성된 재생목록에 포함된 음악에 대한 설명을 나타낸 도면이다.
도 6은 본 개시의 일 실시 예에 따른, 전자 장치의 동작을 설명하기 위한 흐름도이다.1 is a diagram for explaining an electronic device and a server according to an embodiment of the present disclosure.
2 is a block diagram for explaining components of an electronic device according to an embodiment of the present disclosure.
3 is a diagram for explaining meta information included in music data according to various embodiments of the present disclosure.
4 is a diagram for explaining a natural language synthesis neural network model according to various embodiments of the present disclosure.
FIG. 5 is a diagram illustrating a description of music included in a playlist synthesized in text format in natural language according to an embodiment of the present disclosure.
6 is a flowchart illustrating an operation of an electronic device according to an embodiment of the present disclosure.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Since the present embodiments can apply various transformations and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to the specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives of the embodiments of the present disclosure. In connection with the description of the drawings, like reference numerals may be used for like elements.
본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. In describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present disclosure, a detailed description thereof will be omitted.
덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.In addition, the following embodiments may be modified in many different forms, and the scope of the technical idea of the present disclosure is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the spirit of the disclosure to those skilled in the art.
본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms used in this disclosure are only used to describe specific embodiments, and are not intended to limit the scope of rights. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In the present disclosure, expressions such as “has,” “can have,” “includes,” or “can include” indicate the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this disclosure, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as "first," "second," "first," or "second," used in the present disclosure may modify various elements regardless of order and/or importance, and may refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that an element may be directly connected to another element, or may be connected through another element (eg, a third element).
반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 어떤 구성요소와 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.On the other hand, when an element (eg, a first element) is referred to as being "directly connected" or "directly connected" to another element (eg, a second element), it is referred to as a component different from a component. It may be understood that there are no other components (eg, third components) between the elements.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. The expression “configured to (or configured to)” as used in this disclosure means, depending on the situation, for example, “suitable for,” “having the capacity to.” ," "designed to," "adapted to," "made to," or "capable of." The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware.
대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or configured) to perform A, B, and C" may include a dedicated processor (eg, embedded processor) to perform the operation, or by executing one or more software programs stored in a memory device. , may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment, a 'module' or 'unit' performs at least one function or operation, and may be implemented with hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented by at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.
한편, 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다. Meanwhile, various elements and areas in the drawings are schematically drawn. Therefore, the technical spirit of the present invention is not limited by the relative size or spacing drawn in the accompanying drawings.
이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, with reference to the accompanying drawings, an embodiment according to the present disclosure will be described in detail so that those skilled in the art can easily implement it.
본 개시의 일 실시 예에 따른 전자 장치(200)는 모바일 기기, 웨어러블 기기, 스마트 폰, CD 플레이어, DVD 플레이어, 카세트 플레이어, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 데스크톱 컴퓨터, 랩톱 컴퓨터, 태블릿, 스피커, TV 등과 같이 오디오 미디어 컨텐츠를 제공할 수 있는 다양한 장치로 구현될 수 있다. 전자 장치(200)는 상술한 기기에 한정되지 않으며, 전자 장치(200)는 상술한 기기들의 둘 이상의 기능을 갖춘 전자 장치(200)로 구현될 수 있다. The
또한, 전자 장치(200)는 다른 외부 장치 등과 연결되어 하나 이상의 기능 수행을 위한 동작을 할 수 있다.In addition, the
도 1은 본 개시의 일 실시 예에 따른, 전자 장치와 서버를 설명하기 위한 도면이다.1 is a diagram for explaining an electronic device and a server according to an embodiment of the present disclosure.
도 1을 참조하면, 전자 장치(200)는 서버(100)와 통신 연결을 수행하여 정보를 송신 또는 수신하여 하나 이상의 기능을 수행할 수 있으며, 서버는 검색 서버일 수 있다. 예를 들어, 전자 장치(200)는 음악에 대한 상세 정보를 획득하기 위해 음악에 포함되어 있는 메타 정보로부터 추출한 키워드를 서버(100)로 전송하여 웹 검색 동작을 수행할 수 있다. 전자 장치(100)는 서버(100)로부터 음악에 대한 상세 정보를 수신할 수 있다. 다만, 상술한 실시 예에 국한되지 않고, 전자 장치(200)는 웹 검색 결과 획득된 음악에 대한 상세 정보에 기초하여 서버(100)에서 텍스트 형식의 자연어로 합성된 음악에 대한 상세 설명 데이터를 수신할 수도 있다.Referring to FIG. 1 , the
도 2는 본 개시의 일 실시 예에 따른, 전자 장치의 구성요소를 설명하기 위한 블록도이다.2 is a block diagram for explaining components of an electronic device according to an embodiment of the present disclosure.
사용자 인터페이스(210)는 버튼(button), 레버(lever), 스위치(switch), 터치(Touch)형 인터페이스 등을 포함할 수 있고, 터치형 인터페이스는 정전 용량 변화를 감지하는 스위치, 레버 등일 수 있고, 디스플레이(미도시) 화면 상에서 사용자의 터치로 입력을 받는 방식으로도 구현될 수 있다. 또한, 사용자 인터페이스(210)는 사용자의 신체와 전자 장치(200) 사이의 직접적인 접촉이 없는 경우라도 사용자의 제스처를 인식하여 사용자 명령을 입력 받는 식으로 이루어질 수 있다.The
프로세서(250)는 사용자 인터페이스(210)를 통해 라디오 모드와 관련된 일체의 동작에 대한 사용자 명령을 입력 받을 수 있다. 구체적으로, 프로세서(250)는 사용자 인터페이스(210)를 통해 사용자 입력을 수신하여 라디오 모드로 진입하거나 라디오 모드를 해제할 수 있고, 라디오 모드를 일시적으로 정지시킬 수 있다.The
통신 인터페이스(220)는 무선 통신 인터페이스, 유선 통신 인터페이스 또는 입력 인터페이스를 포함할 수 있다. 무선 통신 인터페이스는, 무선 통신 기술이나 이동 통신 기술을 이용하여 각종 외부 장치와 통신을 수행할 수 있다. 이러한 무선 통신 기술로는, 예를 들어, 블루투스(Bluetooth), 저전력 블루투스(Bluetooth Low Energy), 캔(CAN) 통신, 와이 파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 초광대역 통신(UWB, ultrawide band), 지그비(zigbee), 적외선 통신(IrDA, infrared Data Association) 또는 엔에프씨(NFC, Near Field Communication) 등이 포함될 수 있으며, 이동 통신 기술 로는, 3GPP, 와이맥스(Wi-Max), LTE(Long Term Evolution), 5G 등이 포함될 수 있다. 무선 통신 인터페이스는 전자기파를 외부로 송신하거나 또는 외부에서 전달된 전자기파를 수신할 수 있는 안테나, 통신 칩 및 기판 등을 이용하여 구현될 수 있다. The
유선 통신 인터페이스는 유선 통신 네트워크를 기반으로 각종 외부 장치와 통신을 수행할 수 있다. 여기서, 유선 통신 네트워크는, 예를 들어, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 이더넷(Ethernet) 케이블 등 물리적인 케이블을 이용하여 구현될 수 있다.The wired communication interface may perform communication with various external devices based on a wired communication network. Here, the wired communication network may be implemented using a physical cable such as, for example, a pair cable, a coaxial cable, an optical fiber cable, or an Ethernet cable.
무선 통신 인터페이스 및 유선 통신 인터페이스는 실시 예에 따라 어느 하나가 생략될 수도 있다. 따라서, 전자 장치(200)는 무선 통신 인터페이스 만을 포함하거나 유선 통신 인터페이스 만을 포함할 수 있다. 뿐만 아니라, 전자 장치(200)는 무선 통신 인터페이스에 의한 무선 접속과 유선 통신 인터페이스에 의한 유선 접속을 모두 지원하는 통합된 통신 인터페이스를 구비할 수도 있다.Either one of the wireless communication interface and the wired communication interface may be omitted according to embodiments. Accordingly, the
전자 장치(200)는 한 가지 방식의 통신 연결을 수행하는 한 개의 통신 인터페이스(220)를 포함하는 경우에 국한되지 않고, 복수의 통신 인터페이스(220)를 포함할 수 있다.The
본 개시의 다양한 실시 예에 따른 프로세서(250)는 통신 인터페이스(220)를 통해 서버 또는 외부 전자 장치와 통신을 수행할 수 있다.The
구체적으로, 프로세서(250)는 통신 인터페이스(220)를 통해 서버(100)와 통신 연결을 수행할 수 있으며, 서버(100)는 검색 서버일 수 있다. 프로세서(250)는 통신 인터페이스(220)를 통해 음악에 대한 상세 정보를 획득하기 위해 음악에 포함되어 있는 메타 정보로부터 추출한 키워드를 서버(100)로 전송하여 웹 검색 동작을 수행할 수 있다. 전자 장치(100)는 서버(100)로부터 음악에 대한 상세 정보를 수신할 수 있다. 다만, 상술한 실시 예에 국한되지 않고, 프로세서(250)는 웹 검색 결과 획득된 음악에 대한 상세 정보에 기초하여 서버(100)에서 텍스트 형식의 자연어로 합성된 음악에 대한 상세 설명 데이터를 수신할 수도 있다.Specifically, the
프로세서(250)는 통신 인터페이스(220)를 통해 외부 전자 장치(미도시)와 통신 연결을 수행하여 정보를 전송하거나 수신할 수 있다. 구체적으로, 프로세서(250)는 통신 인터페이스(220)를 통해 하나 이상의 외부 컴퓨터, TV, 스피커 등과 통신 연결을 수행하여 재생목록에 포함된 음악 소리 또는 음악에 대한 상세 정보에 기초하여 획득되는 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명을 출력할 수 있다.The
스피커(230)는 고음역대 소리 재생을 위한 트위터, 중음역대 소리 재생을 위한 미드레인지, 저음역대 소리 재생을 위한 우퍼, 극저음역대 소리 재생을 위한 서브우퍼, 공진을 제어하기 위한 인클로저, 스피커에 입력되는 전기 신호 주파수를 대역 별로 나누는 크로스오버 네트워크 등으로 이루어질 수 있다.The
스피커(230)는, 음향 신호를 전자 장치(200)의 외부로 출력할 수 있다. 스피커(230)는 멀티미디어 재생, 녹음 재생, 각종 알림음, 음성 메시지 등을 출력할 수 있다. 전자 장치(200)는 스피커(230)와 같은 오디오 출력 장치를 포함할 수 있으나, 오디오 출력 단자와 같은 출력 장치를 포함할 수 있다. 특히, 스피커(230)는 획득한 정보, 획득한 정보에 기초하여 가공·생산한 정보, 사용자 음성에 대한 응답 결과 또는 동작 결과 등을 음성 형태로 제공할 수 있다.The
프로세서(250)는 스피커(230)를 통해 재생목록에 포함된 음악 소리 또는 음악에 대한 상세 정보에 기초하여 획득되는 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명을 출력할 수 있다.The
메모리(240)는 각종 프로그램이나 데이터를 일시적 또는 비일시적으로 저장하고, 프로세서(120)의 호출에 따라서 저장된 정보를 프로세서(250)에 전달한다. 또한, 메모리(240)는, 프로세서(250)의 연산, 처리 또는 제어 동작 등에 필요한 각종 정보를 전자적 포맷으로 저장할 수 있다.The
메모리(240)는, 예를 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 롬은, 예를 들어, 통상적인 롬, 이피롬(EPROM), 이이피롬(EEPROM) 및/또는 마스크롬(MASK-ROM) 등을 포함할 수 있다. 램은 예를 들어, 디램(DRAM) 및/또는 에스램(SRAM) 등을 포함할 수 있다. 보조기억장치는, 플래시 메모리 장치, SD(Secure Digital) 카드, 솔리드 스테이트 드라이브(SSD, Solid State Drive), 하드 디스크 드라이브(HDD, Hard Disc Drive), 자기 드럼, 컴팩트 디스크(CD), 디브이디(DVD) 또는 레이저 디스크 등과 같은 광 기록 매체(optical media), 자기테이프, 광자기 디스크 및/또는 플로피 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.The
메모리(240)는 재생목록에 포함된 음악, 음악에 대한 메타 정보, 음악에 대한 메타 정보로부터 추출된 키워드, 음악에 대한 상세 정보, 자연어 합성 신경망 모델, 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명 데이터를 저장할 수 있다.The
프로세서(250)는 전자 장치(200)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(160)는 상술한 바와 메모리(240)를 포함하는 전자 장치(200)의 구성과 연결되며, 상술한 바와 같은 메모리(240)에 저장된 적어도 하나의 인스트럭션을 실행함으로써, 전자 장치(200)의 동작을 전반적으로 제어할 수 있다. 특히, 프로세서(250)는 하나의 프로세서(250)로 구현될 수 있을 뿐만 아니라 복수의 프로세서(250)로 구현될 수 있다.The
프로세서(250)는 다양한 방식으로 구현될 수 있다. 예를 들어, 프로세서(250)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 임베디드 프로세서, 마이크로 프로세서, 하드웨어 컨트롤 로직, 하드웨어 유한 상태 기계(hardware Finite State Machine, FSM), 디지털 신호 프로세서(Digital Signal Processor, DSP) 중 적어도 하나로 구현될 수 있다.
한편, 본 개시에서 프로세서(250)는 디지털 신호를 처리하는 중앙처리장치 (central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(160)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형 태로 구현될 수도 있다. 프로세서(250)는 메모리(240)에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 다양한 기능을 수행할 수 있다. 뿐만 아니라, 프로세서(250)는 인공지능 기능을 수행하기 위하여, 별도의 AI 전용 프로세서인 GPU(graphics-processing unit), NPU(Neural Processing Unit), VPU(Visual Processing UniT) 중 적어도 하나를 포함할 수 있다.Meanwhile, in the present disclosure, the
구체적인 프로세서(250)의 전자 장치(200)의 제어 방법은 도 3 내지 5와 함께 구체적으로 설명한다.A method of controlling the
프로세서(250)는 사용자 인터페이스(210)를 통해 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입할 수 있다.When a preset user command is input through the
여기서 라디오 모드란 음악을 재생하면서 마치 라디오를 듣는 것처럼 음악에 대한 정보를 자연어의 형태로 음악 재생 전후에 함께 출력하는 동작 모드이다.Here, the radio mode is an operation mode in which music information is output in the form of natural language before and after music reproduction as if listening to a radio while playing music.
프로세서(250)는 기 설정된 사용자 명령이 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 제1 음악 다음으로 출력할 제2 음악부터 라디오 모드로 진입하도록 전자 장치(200)를 제어할 수 있다.If a preset user command is input while outputting the first music included in the playlist, the
라디오 모드로 진입되면, 프로세서(250)는 재생목록에 포함된 음악에 대한 메타 정보를 획득할 수 있다.Upon entering the radio mode, the
도 3은 본 개시의 다양한 실시 예에 따른, 음악 데이터에 포함되어 있는 메타 정보를 설명하기 위한 도면이다.3 is a diagram for explaining meta information included in music data according to various embodiments of the present disclosure.
도 3을 참조하면, 음악 데이터(300)에는 음악의 제목을 나타내는 곡명(310), 음악의 가수명(320), 음악의 장르(330)(예: 발라드, 힙합, 락, 소울, 동요, 클래식, 오페라, 재즈) 및 음악의 발표년도(340) 등에 관한 메타 정보가 포함될 수 있으나, 이에 국한되지 않고 음악과 관련된 다양한 메타 정보를 포함할 수 있다.Referring to FIG. 3,
프로세서(250)는 획득된 메타 정보에 포함된 키워드를 추출할 수 있다. 메타 정보로부터 추출된 키워드는 곡명(310), 음악의 가수명(320), 음악의 장르(330)(예: 발라드, 힙합, 락, 소울, 동요, 클래식, 오페라, 재즈) 및 음악의 발표년도(340) 중 적어도 하나에 관련된 것일 수 있다.The
예를 들어, 프로세서(250)는 음악에 대한 메타 정보 중 곡명(310)인 "Hey Jude" 가수명(320)인 "Beatles", 발표년도(340)인 "1968년"로부터 키워드를 추출할 수 있다.For example, the
프로세서(250)는 추출된 키워드에 기초하여 음악에 대한 상세 정보를 획득하기 위해 통신 인터페이스(220)를 통해 검색 서버(100)와 통신 연결을 수행하여 추출된 키워드를 검색 서버(100)에 전송할 수 있다. 프로세서(250)는 통신 인터페이스(220)를 통해 검색 서버(100)와 통신 연결을 수행하여 키워드에 기초한 검색을 통해 획득된 음악에 대한 상세 정보를 검색 서버(100)로부터 수신할 수 있다.The
상세 정보는, 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나일 수 있다.The detailed information may be at least one of music title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information.
예를 들어, 획득된 상세 정보는 문어체 형태로 이루어지거나 단어의 나열 형태로 이루어진 "1968년 8월 26일"이라는 발매 날짜 정보, "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보,"대중 음악 역사상 가장 위대한 명곡 중 하나"라는 역사 정보일 수 있다.For example, the obtained detailed information includes release date information of "August 26, 1968" in written form or a list of words, album information of "single track", lyricist and composer information of "Paul McCartney" , may be historical information that "one of the greatest masterpieces in the history of popular music".
여기서, 프로세서(250)는 라디오 모드인 상태에서 음악이 재생되는 동안 실시간으로 재생목록에 포함된 개개의 음악에 대한 상세 정보를 획득할 수 있다. 다만 이에 국한되지 않고, 프로세서(250)는 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악의 출력을 시작하기 전에 재생목록에 포함된 복수의 음악 또는 재생목록에 포함된 전체 음악에 대한 상세 정보를 수신할 수 있다. 이 경우 음악의 재생이 시작되기 전에 미리 음악에 대한 상세 정보를 획득할 수 있기 때문에 음악 재생 중 정보 처리로 인한 딜레이가 발생하는 현상을 방지할 수 있다.Here, the
예를 들어, 프로세서(250)는 "Hey Jude", "My heart will go on", "Let it be"로 이루어진 재생목록에 포함된 음악을 재생하는 동안 실시간으로 개개의 음악에 대한 상세 정보 획득 동작을 수행할 수 있지만, 재생목록에 포함된 음악 재생 및 음악에 대한 설명 출력을 시작하기 전에 재생목록에 포함된 "Hey Jude", "My heart will go on", "Let it be"모든 곡에 대한 상세 정보를 사전에 획득할 수도 있다.For example, the
프로세서(250)는 수신된 음악에 대한 상세 정보를 자연어 합성 신경망 모델에 입력하여 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성할 수 있다.The
도 4는 본 개시의 다양한 실시 예에 따른, 자연어 합성 신경망 모델을 설명하기 위한 도면이며, 도 5는 본 개시의 일 실시 예에 따른, 텍스트 형식의 자연어로 합성된 재생목록에 포함된 음악에 대한 설명을 나타낸 도면이다.4 is a diagram for explaining a natural language synthesis neural network model according to various embodiments of the present disclosure, and FIG. 5 is a diagram for music included in a playlist synthesized with natural language in text format according to an embodiment of the present disclosure. It is a drawing showing the explanation.
도 4를 참조하면, 프로세서(250)는 음악에 대한 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 실제 라디오 DJ가 방송을 통해 청취자에게 전달해주는 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다.Referring to FIG. 4 , the
예를 들어, 프로세서(250)는 문어체 형태로 이루어지거나 단어의 나열 형태로 이루어진 "1968년 8월 26일"이라는 발매 날짜 정보, "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보, 대중 음악 역사상 가장 위대한 명곡 중 하나"라는 역사 정보 등의 음악 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다. 다만, 이에 국한되지 않고, 프로세서(250)는 음악 데이터(300)로부터 획득한 메타정보인 "Hey Jude"라는 곡명 정보, "Beatles"라는 가수명 정보를 상세 정보(410)와 함께 자연어 합성 신경망 모델(420)에 입력하여 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다.For example, the
구체적으로 도 5를 참조하면, 프로세서(250)는 자연어 합성 신경망 모델(420)을 통해 "이번 곡은 Beatles의 Hey Jude 입니다."(510), "으로"(520), "했습니다."(530), "이 곡은"(540), "자주 꼽힙니다."(550) 등의 구어체 표현이 포함된 텍스트 형식으로 이루어진 자연어 형태의 음악에 대한 설명 데이터를 획득할 수 있다.Specifically, referring to FIG. 5, the
여기서, 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다. 인공 지능 모델은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다. 인공 지능 모델은, 일 예로, 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공 지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.Here, the neural network model can be designed to simulate the human brain structure on a computer. The artificial intelligence model may include a plurality of network nodes having weights that simulate neurons of a human neural network. A plurality of network nodes may form a connection relationship, respectively, to simulate synaptic activity in which neurons transmit and receive signals through synapses. The artificial intelligence model may include, for example, a neural network model or a deep learning model developed from a neural network model. In the deep learning model, a plurality of network nodes may exchange data according to a convolution connection relationship while being located at different depths (or layers). For example, a model such as a deep neural network (DNN), a recurrent neural network (RNN), or a bidirectional recurrent deep neural network (BRDNN) may be used as an artificial intelligence model, but is not limited thereto.
구체적으로, 신경망 모델은 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.Specifically, the neural network model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples. The artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
신경망 모델은 학습 알고리즘을 포함할 수 있다. 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다.A neural network model may include a learning algorithm. For example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning may be included, but is not limited to the above examples. The artificial intelligence model may include a plurality of artificial neural network layers.
또한 본 개시에 따른 자연어 합성 신경망 모델(420)은 자연어 처리(NLP, Natural Language Processing)를 위한 ELMo(Embedding from Language Model), BERT(Bidirectional Encoder Representation of Transformer)일 수 있다.In addition, the natural language synthesis
프로세서(250)는 상술한 바와 같이 상세 정보(410)에 기초하여 획득된 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 음성으로 변환하여 재생하는 음악 출력 전후에 함께 출력할 수 있다.As described above, the
여기서, 프로세서(250)는 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 음악의 장르(330)에 기초하여, 남성의 목소리, 여성의 목소리, 연예인 목소리 등과 같은 출력할 음성의 종류를 식별할 수 있고, 합성된 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 식별된 종류의 음성으로 변환하여 출력할 수 있다. Here, the
예를 들어, 프로세서(250)는 음악의 장르(330)가 "발라드"인 경우, 음성의종류를 중저음의 남자 연예인 목소리로 식별할 수 있고, 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 중저음의 남자 연예인 목소리로 출력할 수 있다.For example, when the genre of
다만, 이에 국한되지 않고 프로세서(250)는 사용자 인터페이스(210)를 통해 사용자 명령을 입력 받아 출력할 음성의 종류를 식별하여 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 식별된 종류의 음성으로 변환하여 출력할 수 있음은 물론이다.However, it is not limited thereto, and the
본 개시의 또 다른 실시 예에 따른 프로세서(250)는 수신된 상세 정보(410) 중 텍스트 형식의 자연어(430)로 기 출력된 상세 정보(410)를 식별하고, 식별된 기 출력된 상세 정보(410)와 상이한 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다.The
예를 들어, 프로세서(250)는"싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보가 기 출력된 상세 정보(410)인지 여부를 식별할 수 있다.For example, the
여기서, 프로세서(250)는 기 출력된 상세 정보(410)에 기초한 음악에 대한 설명을 메모리(240) 또는 서버(100)에 저장하도록 제어하고, 저장된 기 출력된 상세 정보(410)에 기초하여 현재 출력할 음악에 대한 설명이 기 출력된 상세 정보(410)에 대한 것인지 식별할 수 있다.Here, the
"싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보가 이전에 기 출력된 상세 정보(410)인 것으로 식별되면 프로세서(250)는 "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보를 출력하지 않고 그와 상이한 상세 정보(410)에 기초하여 획득된 음악에 대한 설명을 출력함으로써 같은 내용을 반복하여 사용자에게 제공하여 사용자에게 피로감을 주는 문제점을 방지할 수 있다.When the album information of “single track” and the lyricist and composer information of “Paul McCartney” are identified as previously output
상술한 바와 같이 프로세서(250)는 재생목록에 포함된 음악 및 음악에 대한 설명을 함께 출력함으로써 사용자의 선호도에 맞춰 편성된 재생목록에 포함된 음악을 마치 라디오를 청취하면서 듣는 것과 같은 체험을 제공할 수 있다.As described above, the
도 6은 본 개시의 일 실시 예에 따른, 전자 장치의 동작을 설명하기 위한 흐름도이다.6 is a flowchart illustrating an operation of an electronic device according to an embodiment of the present disclosure.
전자 장치(200)는 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입할 수 있다(S610). 여기서, 전자 장치(100)는 기 설정된 사용자 명령이 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 제1 음악 다음으로 출력할 제2 음악부터 라디오 모드로 진입할 수 있다.When a preset user command is input, the
라디오 모드로 진입되면, 전자 장치(200)는 재생목록에 포함된 음악에 대한 메타 정보를 획득할 수 있다(S620).Upon entering the radio mode, the
전자 장치(200)는 획득된 메타 정보에 포함된 키워드(Keyword)를 추출할 수 있다(S630). 여기서, 키워드는, 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명(310), 가수명(320), 장르(330) 및 발표년도(340) 중 적어도 하나에 관련된 키워드일 수 있다.The
전자 장치(200)는 키워드에 기초하여 음악에 대한 상세 정보(410)를 획득하기 위해 추출된 키워드를 검색 서버(100)에 전송할 수 있다(S640).The
전자 장치(200)는 검색 서버(100)로부터 재생목록에 포함된 음악에 대한 상세 정보(410)를 수신할 수 있다(S650). 여기서, 전자 장치(200)는 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악의 출력을 시작하기 전에 재생목록에 포함된 복수의 음악에 대한 상세 정보(410)를 수신할 수 있다.The
전자 장치(200)는 획득된 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다(S660). 여기서 전자 장치(200)는 수신된 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하고, 합성된 텍스트 형식의 자연어(430)를 음성으로 변환하여 출력할 수 있다. 또한 전자 장치(200)는 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 음악의 장르(330)에 기초하여, 남성 목소리, 여성 목소리, 연예인 목소리 등과 같은 출력할 음성의 종류를 식별하고, 합성된 텍스트 형식의 자연어(430)를 식별된 종류의 음성으로 변환하여 출력할 수 있다. 전자 장치(200)는 수신된 상세 정보(410) 중 기 출력된 상세 정보(410)를 식별하고, 식별된 기 출력된 상세 정보(410)와 상이한 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다.The
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones. In the case of online distribution, at least a part of a computer program product (eg, a downloadable app) is stored on a device-readable storage medium such as a memory of a manufacturer's server, an application store server, or a relay server. It can be temporarily stored or created temporarily.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and is common in the technical field belonging to the present disclosure without departing from the gist of the present disclosure claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present disclosure.
200: 전자 장치
210: 사용자 인터페이스
220: 통신 인터페이스
230: 스피커
240: 메모리
250: 프로세서200: electronic device
210: user interface
220: communication interface
230: speaker
240: memory
250: processor
Claims (16)
사용자 인터페이스;
통신 인터페이스;
스피커;
메모리; 및
프로세서;를 포함하고,
상기 프로세서는,
기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하고,
상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하고,
상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하고,
상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하고,
상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 상세 정보를 수신하고,
상기 획득된 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는, 전자 장치.In electronic devices,
user interface;
communication interface;
speaker;
Memory; and
Including; processor;
the processor,
When a preset user command is input, the radio mode is entered,
When entering the radio mode, obtaining meta information about music included in the playlist;
Extracting a keyword included in the obtained meta information,
Transmitting the extracted keyword to a search server to obtain detailed information on the music based on the keyword;
receiving detailed information about music included in the playlist from the search server;
An electronic device that outputs a description of music included in the playlist and music included in the playlist based on the obtained detailed information.
상기 프로세서는,
상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 상세 정보를 수신하는, 전자 장치.According to claim 1,
the processor,
An electronic device that receives a description of music included in the playlist and detailed information about a plurality of pieces of music included in the playlist before starting output of the music included in the playlist.
상기 프로세서는,
상기 수신된 상세 정보를 자연어 합성 신경망 모델에 입력하여 상기 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하고,
상기 합성된 텍스트 형식의 자연어를 음성으로 변환하여 출력하는, 전자 장치.According to claim 1,
the processor,
Inputting the received detailed information to a natural language synthesis neural network model to synthesize a description of music included in the playlist in text format natural language;
An electronic device that converts the synthesized text-type natural language into voice and outputs it.
상기 프로세서는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하고,
상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하고,
상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나인, 전자 장치.According to claim 3,
the processor,
Based on the genre of the music extracted from the meta information about the music included in the playlist, the type of voice to be output is identified;
converting the synthesized text-type natural language into the identified type of voice and outputting it;
The type of voice is one of a male voice, a female voice, and a celebrity voice, the electronic device.
상기 프로세서는,
상기 수신된 상세 정보 중 기 출력된 상세 정보를 식별하고,
상기 식별된 기 출력된 상세 정보와 상이한 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는, 전자 장치.According to claim 1,
the processor,
Identifying previously output detailed information among the received detailed information;
An electronic device that outputs a description of music included in the playlist and music included in the playlist based on detailed information different from the identified detailed information previously output.
상기 프로세서는,
상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는, 전자 장치.According to claim 1,
the processor,
If the preset user command is input while outputting the first music included in the playlist, second music to be output next to the first music enters the radio mode.
상기 키워드는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드인, 전자 장치.According to claim 1,
The keyword is
The electronic device, which is a keyword related to at least one of a song title, a singer name, a genre, and a release year extracted from meta information about music included in the playlist.
상기 상세 정보는,
상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보인, 전자 장치.According to claim 1,
The above detailed information,
Information on at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하는 단계;
상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하는 단계;
상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하는 단계;
상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하는 단계;
상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 상세 정보를 수신하는 단계; 및
상기 획득된 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는 단계;를 포함하는 제어 방법. In the control method of an electronic device,
If a preset user command is input, entering a radio mode;
obtaining meta information about music included in a playlist when entering the radio mode;
extracting a keyword included in the obtained meta information;
transmitting the extracted keyword to a search server to obtain detailed information on the music based on the keyword;
receiving detailed information about music included in the playlist from the search server; and
and outputting a description of the music included in the playlist and the music included in the playlist based on the obtained detailed information.
상기 상세 정보를 수신하는 단계는,
상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 상세 정보를 수신하는 단계;를 포함하는 제어 방법.According to claim 9,
Receiving the detailed information,
and receiving a description of the music included in the playlist and detailed information about a plurality of pieces of music included in the playlist before starting to output the music included in the playlist.
상기 출력하는 단계는,
상기 수신된 상세 정보를 자연어 합성 신경망 모델에 입력하여 상기 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하는 단계; 및
상기 합성된 텍스트 형식의 자연어를 음성으로 변환하여 출력하는 단계;를 포함하는, 제어 방법.According to claim 9,
The outputting step is
inputting the received detailed information into a natural language synthesis neural network model to synthesize a description of the music included in the playlist into a natural language in text format; and
Containing, the control method comprising converting and outputting the synthesized natural language in text format into voice.
상기 출력하는 단계는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하는 단계; 및
상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하는 단계;를 포함하고,
상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나인, 제어 방법.According to claim 11,
The outputting step is
identifying a type of audio to be output, based on the genre of the music extracted from meta information about the music included in the playlist; and
Converting the synthesized text-type natural language into the identified type of voice and outputting it;
The control method of claim 1 , wherein the type of voice is one of a male voice, a female voice, and a celebrity voice.
상기 출력하는 단계는,
상기 수신된 상세 정보 중 기 출력된 상세 정보를 식별하는 단계; 및
상기 식별된 기 출력된 상세 정보와 상이한 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는 단계;를 포함하는 제어 방법.According to claim 9,
The outputting step is
identifying previously output detailed information among the received detailed information; and
and outputting a description of the music included in the playlist and the music included in the playlist based on the identified detailed information different from the previously output detailed information.
상기 라디오 모드로 진입하는 단계는,
상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는 단계;를 포함하는, 제어 방법.According to claim 9,
Step of entering the radio mode,
and entering the radio mode from second music to be output next to the first music when the preset user command is input while outputting the first music included in the playlist.
상기 키워드는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드인, 제어 방법.According to claim 9,
The keyword is
A keyword related to at least one of a song name, a singer name, a genre, and a release year extracted from meta information about music included in the playlist.
상기 상세 정보는,
상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보인, 제어 방법.
According to claim 9,
The above detailed information,
Information on at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210157811A KR102598242B1 (en) | 2021-11-16 | 2021-11-16 | Electronic apparatus and method for controlling thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210157811A KR102598242B1 (en) | 2021-11-16 | 2021-11-16 | Electronic apparatus and method for controlling thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230071524A true KR20230071524A (en) | 2023-05-23 |
KR102598242B1 KR102598242B1 (en) | 2023-11-03 |
Family
ID=86544189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210157811A KR102598242B1 (en) | 2021-11-16 | 2021-11-16 | Electronic apparatus and method for controlling thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102598242B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120076482A (en) * | 2010-11-26 | 2012-07-09 | 삼성전자주식회사 | Method and apparatus for searching contents in a communication system |
KR20170028716A (en) * | 2015-09-04 | 2017-03-14 | 삼성전자주식회사 | Display arraratus, background music providing method thereof and background music providing system |
KR20200037884A (en) * | 2016-01-04 | 2020-04-09 | 그레이스노트, 인코포레이티드 | Generating and distributing playlists with related music and stories |
KR20200127836A (en) * | 2019-05-02 | 2020-11-11 | 엘지전자 주식회사 | Artificial intelligence device and method for providing image information |
-
2021
- 2021-11-16 KR KR1020210157811A patent/KR102598242B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120076482A (en) * | 2010-11-26 | 2012-07-09 | 삼성전자주식회사 | Method and apparatus for searching contents in a communication system |
KR20170028716A (en) * | 2015-09-04 | 2017-03-14 | 삼성전자주식회사 | Display arraratus, background music providing method thereof and background music providing system |
KR20200037884A (en) * | 2016-01-04 | 2020-04-09 | 그레이스노트, 인코포레이티드 | Generating and distributing playlists with related music and stories |
KR20200127836A (en) * | 2019-05-02 | 2020-11-11 | 엘지전자 주식회사 | Artificial intelligence device and method for providing image information |
Also Published As
Publication number | Publication date |
---|---|
KR102598242B1 (en) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10966044B2 (en) | System and method for playing media | |
US10318637B2 (en) | Adding background sound to speech-containing audio data | |
JP6214780B2 (en) | Software applications and zones | |
US11570564B2 (en) | Grouping and transport of audio objects | |
US20190018644A1 (en) | Soundsharing capabilities application | |
KR20180115628A (en) | Management layer for multiple intelligent personal assistant services | |
WO2020113733A1 (en) | Animation generation method and apparatus, electronic device, and computer-readable storage medium | |
US20110066438A1 (en) | Contextual voiceover | |
WO2014085005A1 (en) | Collaborative sound system | |
MX2008015096A (en) | Mobile wireless communication terminals, systems, methods, and computer program products for publishing, sharing and accessing media files. | |
KR20190093492A (en) | Smart speaker with music recognition | |
JP2019091014A (en) | Method and apparatus for reproducing multimedia | |
CN110120955A (en) | The access of moving source media content | |
US20120308014A1 (en) | Audio playback device and method | |
US11862187B2 (en) | Systems and methods for jointly estimating sound sources and frequencies from audio | |
WO2005017892A2 (en) | Method for reproducing audio documents with the aid of an interface comprising document groups and associated reproducing device | |
US20210165628A1 (en) | Systems and methods for selecting and sharing audio presets | |
KR102598242B1 (en) | Electronic apparatus and method for controlling thereof | |
JP2023550441A (en) | Playing generated media content | |
Razlogova | Provincializing Spotify: Radio, algorithms and conviviality | |
Laing | Recorded Music | |
WO2023010949A1 (en) | Method and apparatus for processing audio data | |
US20170039026A1 (en) | Auditory Transition System | |
US20240267416A1 (en) | Content discovery though prompts | |
Costa et al. | Internet of Musical Things Environments and Pure Data: A Perfect Match? |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |