KR102598242B1 - Electronic apparatus and method for controlling thereof - Google Patents
Electronic apparatus and method for controlling thereof Download PDFInfo
- Publication number
- KR102598242B1 KR102598242B1 KR1020210157811A KR20210157811A KR102598242B1 KR 102598242 B1 KR102598242 B1 KR 102598242B1 KR 1020210157811 A KR1020210157811 A KR 1020210157811A KR 20210157811 A KR20210157811 A KR 20210157811A KR 102598242 B1 KR102598242 B1 KR 102598242B1
- Authority
- KR
- South Korea
- Prior art keywords
- music
- information
- playlist
- detailed information
- voice
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000004891 communication Methods 0.000 claims abstract description 42
- 238000003062 neural network model Methods 0.000 claims description 19
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4825—End-user interface for program selection using a list of items to be played back in a given order, e.g. playlists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
- H04N21/8113—Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Electrotherapy Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
본 발명은 전자 장치 및 이의 제어 방법에 관한 것으로, 사용자 인터페이스, 통신 인터페이스, 스피커, 메모리 및 프로세서를 포함하고, 프로세서는, 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하고, 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하고, 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하고, 키워드에 기초하여 음악에 대한 상세 정보를 획득하기 위해 추출된 키워드를 검색 서버에 전송하고, 검색 서버로부터 재생목록에 포함된 음악에 대한 상세 정보를 수신하고, 획득된 상세 정보에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력한다.The present invention relates to an electronic device and a control method thereof, including a user interface, a communication interface, a speaker, a memory, and a processor, where the processor enters a radio mode when a preset user command is input, and the radio When entering the mode, meta information about the music included in the playlist is obtained, keywords included in the obtained meta information are extracted, and keywords extracted to obtain detailed information about the music based on the keywords is sent to the search server, detailed information about the music included in the playlist is received from the search server, and a description of the music included in the playlist and the music included in the playlist are output based on the obtained detailed information. .
Description
본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는, 재생목록에 포함된 음악을 재생하면서 라디오를 듣는 것처럼 음악에 대한 설명을 사용자에게 함께 제공하는 전자 장치 및 이의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a control method thereof, and more specifically, to an electronic device and a control method thereof that provide a description of the music to the user as if listening to the radio while playing music included in a playlist. .
음악을 감상하는 방식은 전자 장치 또는 서버에 저장된 재생목록에 포함된 음악을 재생하거나 라디오를 청취하는 방식으로 나누어진다. Methods of listening to music include playing music included in a playlist stored on an electronic device or server or listening to the radio.
전자 장치 또는 서버에 저장된 재생목록은 개인의 기호에 따라 스스로 음악을 선정하여 편성한 것이거나, 제3자가 편성하여 온라인 상으로 공유된 것이거나, 음악 스트리밍 서비스 제공 업체에서 기간 별, 장르 별, 국가 별 인기 순으로 정렬된 음악 차트일 수 있다. 사용자는 전자 장치 또는 서버에 저장된 재생목록에 포함된 음악을 전자 장치에 다운로드 받아 재생하거나, 온라인 상으로 실시간 스트리밍을 통해 음악을 감상할 수 있다. 이 경우, 사용자는 원하는 음악을 기호에 맞게 선별적으로 감상할 수 있지만 음악에 대한 설명을 별도로 들을 수 없어 음악에 대한 정보를 얻기 위해 개인이 스스로 웹 검색을 통해 정보를 찾아야만 한다는 단점이 있다.Playlists stored on electronic devices or servers may be music that has been selected and organized by individuals according to their preferences, organized by a third party and shared online, or organized by a music streaming service provider by period, genre, or country. It could be a music chart sorted by star popularity. Users can download and play music included in a playlist stored on an electronic device or server on an electronic device, or listen to music online through real-time streaming. In this case, the user can selectively listen to the music they want according to their preference, but there is a disadvantage that the individual cannot listen to a separate explanation of the music, so to obtain information about the music, the individual must find the information through a web search on their own.
이와 달리 라디오를 통해 음악을 감상하는 경우, 전자 장치를 통해 라디오 신호를 수신하여 브로드캐스팅되는 라디오 방송을 청취한다. 라디오 방식으로 음악을 감상하는 경우, 라디오 방송 진행자가 음악에 대한 설명을 함께 전달해주어 음악의 아티스트, 명성, 배경지식을 들을 수 있으나, 개인이 듣고 싶지 않은 음악도 들어야 한다는 불편함이 있다.In contrast, when listening to music through the radio, radio signals are received through an electronic device and the broadcasted radio broadcast is listened to. When listening to music through the radio, the radio broadcaster provides an explanation of the music so you can hear about the artist, reputation, and background knowledge of the music. However, there is the inconvenience of having to listen to music that the individual does not want to listen to.
따라서, 개인의 선호도에 맞게 선별적으로 음악을 감상하면서도 마치 라디오를 청취하는 것처럼 감상하는 음악에 관련된 정보를 함께 들을 수 있는 방법의 모색이 요청된다.Therefore, there is a need to find a way to selectively listen to music according to individual preferences while simultaneously listening to information related to the music being listened to as if listening to the radio.
본 개시는 상술한 문제를 해결하기 위해 고안된 것으로, 본 개시의 목적은 재생목록에 포함된 음악을 감상하면서 동시에 음악에 대한 설명을 각 음악의 재생 전후에 함께 제공하는 전자 장치 및 이의 제어 방법을 제공함에 있다.The present disclosure is designed to solve the above-described problem, and the purpose of the present disclosure is to provide an electronic device and a control method for the same that provide a description of the music before and after playing each piece of music while listening to music included in a playlist. It is in
상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는, 사용자 인터페이스, 통신 인터페이스, 스피커, 메모리 및 프로세서를 포함하고, 상기 프로세서는, 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하고, 상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하고, 상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하고, 상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하고, 상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 상세 정보를 수신하고, 상기 획득된 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력할 수 있다.The electronic device according to this embodiment for achieving the above-described purpose includes a user interface, a communication interface, a speaker, a memory, and a processor, and the processor switches to radio mode when a preset user command is input. When entering the radio mode, meta information about music included in the playlist is obtained, keywords included in the obtained meta information are extracted, and detailed information about the music is based on the keywords. Transmitting the extracted keyword to a search server to obtain information, receiving detailed information about music included in the playlist from the search server, and music included in the playlist based on the obtained detailed information A description of and music included in the playlist can be output.
한편, 상기 프로세서는, 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 상세 정보를 수신할 수 있다.Meanwhile, the processor may receive a description of the music included in the playlist and detailed information about a plurality of pieces of music included in the playlist before starting to output the music included in the playlist.
한편, 상기 프로세서는, 상기 수신된 상세 정보를 자연어 합성 신경망 모델에 입력하여 상기 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하고, 상기 합성된 텍스트 형식의 자연어를 음성으로 변환하여 출력할 수 있다.Meanwhile, the processor inputs the received detailed information into a natural language synthesis neural network model to synthesize descriptions of music included in the playlist into natural language in text format, and converts the synthesized natural language in text format into voice. Can be printed.
한편, 상기 프로세서는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하고, 상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하고, 상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나일 수 있다.Meanwhile, the processor identifies the type of voice to be output based on the genre of the music extracted from the meta information about the music included in the playlist, and converts the natural language in the synthesized text format into the identified type of voice. It is converted and output, and the type of voice may be one of a male voice, a female voice, and a celebrity voice.
한편, 상기 프로세서는, 상기 수신된 상세 정보 중 기 출력된 상세 정보를 식별하고, 상기 식별된 기 출력된 상세 정보와 상이한 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력할 수 있다.Meanwhile, the processor identifies previously output detailed information among the received detailed information, and provides a description of music included in the playlist and the playlist based on detailed information different from the identified previously output detailed information. You can output music included in .
한편, 상기 프로세서는, 상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입할 수 있다.Meanwhile, if the preset user command is input while outputting the first music included in the playlist, the processor may enter the radio mode starting with the second music to be output after the first music.
한편, 상기 키워드는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드일 수 있다.Meanwhile, the keyword may be a keyword related to at least one of the song name, singer name, genre, and release year extracted from meta information about music included in the playlist.
한편, 상기 상세 정보는, 상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보일 수 있다.Meanwhile, the detailed information may be information about at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하는 단계, 상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하는 단계, 상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하는 단계, 상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하는 단계, 상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 상세 정보를 수신하는 단계 및 상기 획득된 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는 단계를 포함할 수 있다.A method of controlling an electronic device according to an embodiment of the present disclosure includes the steps of entering a radio mode when a preset user command is input, and when entering the radio mode, metadata for music included in a playlist. Obtaining information, extracting a keyword included in the obtained meta information, transmitting the extracted keyword to a search server to obtain detailed information about the music based on the keyword, Receiving detailed information about music included in the playlist from the search server and outputting a description of the music included in the playlist and the music included in the playlist based on the obtained detailed information. may include.
한편, 상기 상세 정보를 수신하는 단계는, 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 상세 정보를 수신하는 단계를 포함할 수 있다.Meanwhile, the step of receiving the detailed information includes receiving a description of the music included in the playlist and detailed information about a plurality of music included in the playlist before starting to output the music included in the playlist. It may include steps.
한편, 상기 출력하는 단계는, 상기 수신된 상세 정보를 자연어 합성 신경망 모델에 입력하여 상기 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하는 단계 및 상기 합성된 텍스트 형식의 자연어를 음성으로 변환하여 출력하는 단계를 포함할 수 있다.Meanwhile, the output step includes inputting the received detailed information into a natural language synthesis neural network model to synthesize a description of music included in the playlist into natural language in text format, and converting the synthesized natural language in text format into voice. It may include the step of converting and outputting.
한편, 상기 출력하는 단계는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하는 단계 및 상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하는 단계를 포함하고, 상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나일 수 있다.Meanwhile, the output step includes identifying the type of voice to be output based on the genre of the music extracted from meta information about the music included in the playlist, and converting the natural language in the synthesized text format into the identified It includes the step of converting and outputting a type of voice, and the type of voice may be one of a male voice, a female voice, and a celebrity voice.
한편, 상기 출력하는 단계는, 상기 수신된 상세 정보 중 기 출력된 상세 정보를 식별하는 단계 및 상기 식별된 기 출력된 상세 정보와 상이한 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는 단계를 포함할 수 있다.Meanwhile, the output step includes identifying previously output detailed information among the received detailed information, and a description of music included in the playlist based on detailed information different from the identified previously output detailed information. It may include outputting music included in the playlist.
한편, 상기 라디오 모드로 진입하는 단계는, 상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는 단계;를 포함하는, 제어 방법.Meanwhile, in the step of entering the radio mode, if the preset user command is input while outputting the first music included in the playlist, the radio mode is entered starting from the second music to be output after the first music. A control method comprising:
한편, 상기 키워드는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드일 수 있다.Meanwhile, the keyword may be a keyword related to at least one of the song name, singer name, genre, and release year extracted from meta information about music included in the playlist.
한편, 상기 상세 정보는, 상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보일 수 있다.Meanwhile, the detailed information may be information about at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
개인의 선호도에 맞게 선별적으로 음악을 감상하면서도 마치 라디오를 청취하는 것처럼 감상하는 음악에 관련된 정보를 음악 재생 전후에 함께 들을 수 있다.While listening to music selectively according to individual preferences, you can also listen to information related to the music you are listening to before and after playing the music, just like listening to the radio.
도 1은 본 개시의 일 실시 예에 따른, 전자 장치와 서버를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른, 전자 장치의 구성요소를 설명하기 위한 블록도이다.
도 3은 본 개시의 다양한 실시 예에 따른, 음악 데이터에 포함되어 있는 메타 정보를 설명하기 위한 도면이다.
도 4는 본 개시의 다양한 실시 예에 따른, 자연어 합성 신경망 모델을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른, 텍스트 형식의 자연어로 합성된 재생목록에 포함된 음악에 대한 설명을 나타낸 도면이다.
도 6은 본 개시의 일 실시 예에 따른, 전자 장치의 동작을 설명하기 위한 흐름도이다.1 is a diagram for explaining an electronic device and a server according to an embodiment of the present disclosure.
FIG. 2 is a block diagram for explaining components of an electronic device according to an embodiment of the present disclosure.
FIG. 3 is a diagram for explaining meta information included in music data according to various embodiments of the present disclosure.
FIG. 4 is a diagram illustrating a natural language synthesis neural network model according to various embodiments of the present disclosure.
FIG. 5 is a diagram illustrating a description of music included in a playlist synthesized in natural language in text format, according to an embodiment of the present disclosure.
FIG. 6 is a flowchart for explaining the operation of an electronic device according to an embodiment of the present disclosure.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Since these embodiments can be modified in various ways and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives to the embodiments of the present disclosure. In connection with the description of the drawings, similar reference numbers may be used for similar components.
본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. In describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present disclosure, the detailed description thereof will be omitted.
덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.In addition, the following examples may be modified into various other forms, and the scope of the technical idea of the present disclosure is not limited to the following examples. Rather, these embodiments are provided to make the present disclosure more faithful and complete and to completely convey the technical idea of the present disclosure to those skilled in the art.
본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in this disclosure are merely used to describe specific embodiments and are not intended to limit the scope of rights. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In the present disclosure, expressions such as “have,” “may have,” “includes,” or “may include” refer to the presence of the corresponding feature (e.g., component such as numerical value, function, operation, or part). , and does not rule out the existence of additional features.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In the present disclosure, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” includes (1) at least one A, (2) at least one B, or (3) it may refer to all cases including both at least one A and at least one B.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as “first,” “second,” “first,” or “second,” used in the present disclosure can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as “connected to,” it should be understood that a certain component can be connected directly to another component or connected through another component (e.g., a third component).
반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 어떤 구성요소와 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.On the other hand, when a component (e.g., a first component) is said to be "directly connected" or "directly connected" to another component (e.g., a second component), It may be understood that no other components (e.g., third components) exist between the elements.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. The expression “configured to” used in the present disclosure may mean, for example, “suitable for,” “having the capacity to,” depending on the situation. ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware.
대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or as a combination of hardware and software. Additionally, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented with at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.
한편, 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다. Meanwhile, various elements and areas in the drawing are schematically drawn. Accordingly, the technical idea of the present invention is not limited by the relative sizes or spacing drawn in the attached drawings.
이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, with reference to the attached drawings, embodiments according to the present disclosure will be described in detail so that those skilled in the art can easily implement them.
본 개시의 일 실시 예에 따른 전자 장치(200)는 모바일 기기, 웨어러블 기기, 스마트 폰, CD 플레이어, DVD 플레이어, 카세트 플레이어, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 데스크톱 컴퓨터, 랩톱 컴퓨터, 태블릿, 스피커, TV 등과 같이 오디오 미디어 컨텐츠를 제공할 수 있는 다양한 장치로 구현될 수 있다. 전자 장치(200)는 상술한 기기에 한정되지 않으며, 전자 장치(200)는 상술한 기기들의 둘 이상의 기능을 갖춘 전자 장치(200)로 구현될 수 있다. The
또한, 전자 장치(200)는 다른 외부 장치 등과 연결되어 하나 이상의 기능 수행을 위한 동작을 할 수 있다.Additionally, the
도 1은 본 개시의 일 실시 예에 따른, 전자 장치와 서버를 설명하기 위한 도면이다.1 is a diagram for explaining an electronic device and a server according to an embodiment of the present disclosure.
도 1을 참조하면, 전자 장치(200)는 서버(100)와 통신 연결을 수행하여 정보를 송신 또는 수신하여 하나 이상의 기능을 수행할 수 있으며, 서버는 검색 서버일 수 있다. 예를 들어, 전자 장치(200)는 음악에 대한 상세 정보를 획득하기 위해 음악에 포함되어 있는 메타 정보로부터 추출한 키워드를 서버(100)로 전송하여 웹 검색 동작을 수행할 수 있다. 전자 장치(100)는 서버(100)로부터 음악에 대한 상세 정보를 수신할 수 있다. 다만, 상술한 실시 예에 국한되지 않고, 전자 장치(200)는 웹 검색 결과 획득된 음악에 대한 상세 정보에 기초하여 서버(100)에서 텍스트 형식의 자연어로 합성된 음악에 대한 상세 설명 데이터를 수신할 수도 있다.Referring to FIG. 1, the
도 2는 본 개시의 일 실시 예에 따른, 전자 장치의 구성요소를 설명하기 위한 블록도이다.FIG. 2 is a block diagram for explaining components of an electronic device according to an embodiment of the present disclosure.
사용자 인터페이스(210)는 버튼(button), 레버(lever), 스위치(switch), 터치(Touch)형 인터페이스 등을 포함할 수 있고, 터치형 인터페이스는 정전 용량 변화를 감지하는 스위치, 레버 등일 수 있고, 디스플레이(미도시) 화면 상에서 사용자의 터치로 입력을 받는 방식으로도 구현될 수 있다. 또한, 사용자 인터페이스(210)는 사용자의 신체와 전자 장치(200) 사이의 직접적인 접촉이 없는 경우라도 사용자의 제스처를 인식하여 사용자 명령을 입력 받는 식으로 이루어질 수 있다.The
프로세서(250)는 사용자 인터페이스(210)를 통해 라디오 모드와 관련된 일체의 동작에 대한 사용자 명령을 입력 받을 수 있다. 구체적으로, 프로세서(250)는 사용자 인터페이스(210)를 통해 사용자 입력을 수신하여 라디오 모드로 진입하거나 라디오 모드를 해제할 수 있고, 라디오 모드를 일시적으로 정지시킬 수 있다.The
통신 인터페이스(220)는 무선 통신 인터페이스, 유선 통신 인터페이스 또는 입력 인터페이스를 포함할 수 있다. 무선 통신 인터페이스는, 무선 통신 기술이나 이동 통신 기술을 이용하여 각종 외부 장치와 통신을 수행할 수 있다. 이러한 무선 통신 기술로는, 예를 들어, 블루투스(Bluetooth), 저전력 블루투스(Bluetooth Low Energy), 캔(CAN) 통신, 와이 파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 초광대역 통신(UWB, ultrawide band), 지그비(zigbee), 적외선 통신(IrDA, infrared Data Association) 또는 엔에프씨(NFC, Near Field Communication) 등이 포함될 수 있으며, 이동 통신 기술 로는, 3GPP, 와이맥스(Wi-Max), LTE(Long Term Evolution), 5G 등이 포함될 수 있다. 무선 통신 인터페이스는 전자기파를 외부로 송신하거나 또는 외부에서 전달된 전자기파를 수신할 수 있는 안테나, 통신 칩 및 기판 등을 이용하여 구현될 수 있다.
유선 통신 인터페이스는 유선 통신 네트워크를 기반으로 각종 외부 장치와 통신을 수행할 수 있다. 여기서, 유선 통신 네트워크는, 예를 들어, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 이더넷(Ethernet) 케이블 등 물리적인 케이블을 이용하여 구현될 수 있다.The wired communication interface can communicate with various external devices based on a wired communication network. Here, the wired communication network may be implemented using physical cables such as, for example, a pair cable, a coaxial cable, an optical fiber cable, or an Ethernet cable.
무선 통신 인터페이스 및 유선 통신 인터페이스는 실시 예에 따라 어느 하나가 생략될 수도 있다. 따라서, 전자 장치(200)는 무선 통신 인터페이스 만을 포함하거나 유선 통신 인터페이스 만을 포함할 수 있다. 뿐만 아니라, 전자 장치(200)는 무선 통신 인터페이스에 의한 무선 접속과 유선 통신 인터페이스에 의한 유선 접속을 모두 지원하는 통합된 통신 인터페이스를 구비할 수도 있다.Either the wireless communication interface or the wired communication interface may be omitted depending on the embodiment. Accordingly, the
전자 장치(200)는 한 가지 방식의 통신 연결을 수행하는 한 개의 통신 인터페이스(220)를 포함하는 경우에 국한되지 않고, 복수의 통신 인터페이스(220)를 포함할 수 있다.The
본 개시의 다양한 실시 예에 따른 프로세서(250)는 통신 인터페이스(220)를 통해 서버 또는 외부 전자 장치와 통신을 수행할 수 있다.The
구체적으로, 프로세서(250)는 통신 인터페이스(220)를 통해 서버(100)와 통신 연결을 수행할 수 있으며, 서버(100)는 검색 서버일 수 있다. 프로세서(250)는 통신 인터페이스(220)를 통해 음악에 대한 상세 정보를 획득하기 위해 음악에 포함되어 있는 메타 정보로부터 추출한 키워드를 서버(100)로 전송하여 웹 검색 동작을 수행할 수 있다. 전자 장치(100)는 서버(100)로부터 음악에 대한 상세 정보를 수신할 수 있다. 다만, 상술한 실시 예에 국한되지 않고, 프로세서(250)는 웹 검색 결과 획득된 음악에 대한 상세 정보에 기초하여 서버(100)에서 텍스트 형식의 자연어로 합성된 음악에 대한 상세 설명 데이터를 수신할 수도 있다.Specifically, the
프로세서(250)는 통신 인터페이스(220)를 통해 외부 전자 장치(미도시)와 통신 연결을 수행하여 정보를 전송하거나 수신할 수 있다. 구체적으로, 프로세서(250)는 통신 인터페이스(220)를 통해 하나 이상의 외부 컴퓨터, TV, 스피커 등과 통신 연결을 수행하여 재생목록에 포함된 음악 소리 또는 음악에 대한 상세 정보에 기초하여 획득되는 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명을 출력할 수 있다.The
스피커(230)는 고음역대 소리 재생을 위한 트위터, 중음역대 소리 재생을 위한 미드레인지, 저음역대 소리 재생을 위한 우퍼, 극저음역대 소리 재생을 위한 서브우퍼, 공진을 제어하기 위한 인클로저, 스피커에 입력되는 전기 신호 주파수를 대역 별로 나누는 크로스오버 네트워크 등으로 이루어질 수 있다.The
스피커(230)는, 음향 신호를 전자 장치(200)의 외부로 출력할 수 있다. 스피커(230)는 멀티미디어 재생, 녹음 재생, 각종 알림음, 음성 메시지 등을 출력할 수 있다. 전자 장치(200)는 스피커(230)와 같은 오디오 출력 장치를 포함할 수 있으나, 오디오 출력 단자와 같은 출력 장치를 포함할 수 있다. 특히, 스피커(230)는 획득한 정보, 획득한 정보에 기초하여 가공·생산한 정보, 사용자 음성에 대한 응답 결과 또는 동작 결과 등을 음성 형태로 제공할 수 있다.The
프로세서(250)는 스피커(230)를 통해 재생목록에 포함된 음악 소리 또는 음악에 대한 상세 정보에 기초하여 획득되는 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명을 출력할 수 있다.The
메모리(240)는 각종 프로그램이나 데이터를 일시적 또는 비일시적으로 저장하고, 프로세서(120)의 호출에 따라서 저장된 정보를 프로세서(250)에 전달한다. 또한, 메모리(240)는, 프로세서(250)의 연산, 처리 또는 제어 동작 등에 필요한 각종 정보를 전자적 포맷으로 저장할 수 있다.The
메모리(240)는, 예를 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 롬은, 예를 들어, 통상적인 롬, 이피롬(EPROM), 이이피롬(EEPROM) 및/또는 마스크롬(MASK-ROM) 등을 포함할 수 있다. 램은 예를 들어, 디램(DRAM) 및/또는 에스램(SRAM) 등을 포함할 수 있다. 보조기억장치는, 플래시 메모리 장치, SD(Secure Digital) 카드, 솔리드 스테이트 드라이브(SSD, Solid State Drive), 하드 디스크 드라이브(HDD, Hard Disc Drive), 자기 드럼, 컴팩트 디스크(CD), 디브이디(DVD) 또는 레이저 디스크 등과 같은 광 기록 매체(optical media), 자기테이프, 광자기 디스크 및/또는 플로피 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.The
메모리(240)는 재생목록에 포함된 음악, 음악에 대한 메타 정보, 음악에 대한 메타 정보로부터 추출된 키워드, 음악에 대한 상세 정보, 자연어 합성 신경망 모델, 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명 데이터를 저장할 수 있다.The
프로세서(250)는 전자 장치(200)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(160)는 상술한 바와 메모리(240)를 포함하는 전자 장치(200)의 구성과 연결되며, 상술한 바와 같은 메모리(240)에 저장된 적어도 하나의 인스트럭션을 실행함으로써, 전자 장치(200)의 동작을 전반적으로 제어할 수 있다. 특히, 프로세서(250)는 하나의 프로세서(250)로 구현될 수 있을 뿐만 아니라 복수의 프로세서(250)로 구현될 수 있다.The
프로세서(250)는 다양한 방식으로 구현될 수 있다. 예를 들어, 프로세서(250)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 임베디드 프로세서, 마이크로 프로세서, 하드웨어 컨트롤 로직, 하드웨어 유한 상태 기계(hardware Finite State Machine, FSM), 디지털 신호 프로세서(Digital Signal Processor, DSP) 중 적어도 하나로 구현될 수 있다.
한편, 본 개시에서 프로세서(250)는 디지털 신호를 처리하는 중앙처리장치 (central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(160)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형 태로 구현될 수도 있다. 프로세서(250)는 메모리(240)에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 다양한 기능을 수행할 수 있다. 뿐만 아니라, 프로세서(250)는 인공지능 기능을 수행하기 위하여, 별도의 AI 전용 프로세서인 GPU(graphics-processing unit), NPU(Neural Processing Unit), VPU(Visual Processing UniT) 중 적어도 하나를 포함할 수 있다.Meanwhile, in the present disclosure, the
구체적인 프로세서(250)의 전자 장치(200)의 제어 방법은 도 3 내지 5와 함께 구체적으로 설명한다.A specific method of controlling the
프로세서(250)는 사용자 인터페이스(210)를 통해 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입할 수 있다.When a preset user command is input through the
여기서 라디오 모드란 음악을 재생하면서 마치 라디오를 듣는 것처럼 음악에 대한 정보를 자연어의 형태로 음악 재생 전후에 함께 출력하는 동작 모드이다.Here, the radio mode is an operation mode that outputs information about the music in the form of natural language before and after playing the music, as if listening to the radio.
프로세서(250)는 기 설정된 사용자 명령이 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 제1 음악 다음으로 출력할 제2 음악부터 라디오 모드로 진입하도록 전자 장치(200)를 제어할 수 있다.If a preset user command is input while outputting the first music included in the playlist, the
라디오 모드로 진입되면, 프로세서(250)는 재생목록에 포함된 음악에 대한 메타 정보를 획득할 수 있다.When entering the radio mode, the
도 3은 본 개시의 다양한 실시 예에 따른, 음악 데이터에 포함되어 있는 메타 정보를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining meta information included in music data according to various embodiments of the present disclosure.
도 3을 참조하면, 음악 데이터(300)에는 음악의 제목을 나타내는 곡명(310), 음악의 가수명(320), 음악의 장르(330)(예: 발라드, 힙합, 락, 소울, 동요, 클래식, 오페라, 재즈) 및 음악의 발표년도(340) 등에 관한 메타 정보가 포함될 수 있으나, 이에 국한되지 않고 음악과 관련된 다양한 메타 정보를 포함할 수 있다.Referring to FIG. 3, the
프로세서(250)는 획득된 메타 정보에 포함된 키워드를 추출할 수 있다. 메타 정보로부터 추출된 키워드는 곡명(310), 음악의 가수명(320), 음악의 장르(330)(예: 발라드, 힙합, 락, 소울, 동요, 클래식, 오페라, 재즈) 및 음악의 발표년도(340) 중 적어도 하나에 관련된 것일 수 있다.The
예를 들어, 프로세서(250)는 음악에 대한 메타 정보 중 곡명(310)인 "Hey Jude" 가수명(320)인 "Beatles", 발표년도(340)인 "1968년"로부터 키워드를 추출할 수 있다.For example, the
프로세서(250)는 추출된 키워드에 기초하여 음악에 대한 상세 정보를 획득하기 위해 통신 인터페이스(220)를 통해 검색 서버(100)와 통신 연결을 수행하여 추출된 키워드를 검색 서버(100)에 전송할 수 있다. 프로세서(250)는 통신 인터페이스(220)를 통해 검색 서버(100)와 통신 연결을 수행하여 키워드에 기초한 검색을 통해 획득된 음악에 대한 상세 정보를 검색 서버(100)로부터 수신할 수 있다.The
상세 정보는, 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나일 수 있다.The detailed information may be at least one of music song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information.
예를 들어, 획득된 상세 정보는 문어체 형태로 이루어지거나 단어의 나열 형태로 이루어진 "1968년 8월 26일"이라는 발매 날짜 정보, "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보,"대중 음악 역사상 가장 위대한 명곡 중 하나"라는 역사 정보일 수 있다.For example, the details obtained include release date information such as "August 26, 1968" in written form or in the form of a list of words, album information "Single Track", and lyricist and composer information "Paul McCartney". ,It could be historical information,"one of the greatest songs in the history of popular music."
여기서, 프로세서(250)는 라디오 모드인 상태에서 음악이 재생되는 동안 실시간으로 재생목록에 포함된 개개의 음악에 대한 상세 정보를 획득할 수 있다. 다만 이에 국한되지 않고, 프로세서(250)는 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악의 출력을 시작하기 전에 재생목록에 포함된 복수의 음악 또는 재생목록에 포함된 전체 음악에 대한 상세 정보를 수신할 수 있다. 이 경우 음악의 재생이 시작되기 전에 미리 음악에 대한 상세 정보를 획득할 수 있기 때문에 음악 재생 중 정보 처리로 인한 딜레이가 발생하는 현상을 방지할 수 있다.Here, the
예를 들어, 프로세서(250)는 "Hey Jude", "My heart will go on", "Let it be"로 이루어진 재생목록에 포함된 음악을 재생하는 동안 실시간으로 개개의 음악에 대한 상세 정보 획득 동작을 수행할 수 있지만, 재생목록에 포함된 음악 재생 및 음악에 대한 설명 출력을 시작하기 전에 재생목록에 포함된 "Hey Jude", "My heart will go on", "Let it be"모든 곡에 대한 상세 정보를 사전에 획득할 수도 있다.For example, the
프로세서(250)는 수신된 음악에 대한 상세 정보를 자연어 합성 신경망 모델에 입력하여 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성할 수 있다.The
도 4는 본 개시의 다양한 실시 예에 따른, 자연어 합성 신경망 모델을 설명하기 위한 도면이며, 도 5는 본 개시의 일 실시 예에 따른, 텍스트 형식의 자연어로 합성된 재생목록에 포함된 음악에 대한 설명을 나타낸 도면이다.FIG. 4 is a diagram illustrating a natural language synthesis neural network model according to various embodiments of the present disclosure, and FIG. 5 is a diagram for music included in a playlist synthesized in natural language in text format according to an embodiment of the present disclosure. This is a drawing showing the explanation.
도 4를 참조하면, 프로세서(250)는 음악에 대한 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 실제 라디오 DJ가 방송을 통해 청취자에게 전달해주는 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다.Referring to FIG. 4, the
예를 들어, 프로세서(250)는 문어체 형태로 이루어지거나 단어의 나열 형태로 이루어진 "1968년 8월 26일"이라는 발매 날짜 정보, "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보, 대중 음악 역사상 가장 위대한 명곡 중 하나"라는 역사 정보 등의 음악 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다. 다만, 이에 국한되지 않고, 프로세서(250)는 음악 데이터(300)로부터 획득한 메타정보인 "Hey Jude"라는 곡명 정보, "Beatles"라는 가수명 정보를 상세 정보(410)와 함께 자연어 합성 신경망 모델(420)에 입력하여 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다.For example, the
구체적으로 도 5를 참조하면, 프로세서(250)는 자연어 합성 신경망 모델(420)을 통해 "이번 곡은 Beatles의 Hey Jude 입니다."(510), "으로"(520), "했습니다."(530), "이 곡은"(540), "자주 꼽힙니다."(550) 등의 구어체 표현이 포함된 텍스트 형식으로 이루어진 자연어 형태의 음악에 대한 설명 데이터를 획득할 수 있다.Specifically, referring to FIG. 5, the
여기서, 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다. 인공 지능 모델은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다. 인공 지능 모델은, 일 예로, 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공 지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.Here, a neural network model can be designed to simulate the human brain structure on a computer. An artificial intelligence model may include a plurality of network nodes with weights that simulate neurons of a human neural network. A plurality of network nodes can each form a connection relationship to simulate synaptic activity in which neurons send and receive signals through synapses. The artificial intelligence model may include, for example, a neural network model or a deep learning model developed from a neural network model. In a deep learning model, multiple network nodes are located at different depths (or layers) and can exchange data according to convolutional connections. For example, models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN) may be used as artificial intelligence models, but are not limited thereto.
구체적으로, 신경망 모델은 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.Specifically, the neural network model may include multiple artificial neural network layers. Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. In addition to hardware structures, artificial intelligence models may additionally or alternatively include software structures.
신경망 모델은 학습 알고리즘을 포함할 수 있다. 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다.A neural network model may include a learning algorithm. For example, it may include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. An artificial intelligence model may include multiple artificial neural network layers.
또한 본 개시에 따른 자연어 합성 신경망 모델(420)은 자연어 처리(NLP, Natural Language Processing)를 위한 ELMo(Embedding from Language Model), BERT(Bidirectional Encoder Representation of Transformer)일 수 있다.Additionally, the natural language synthesis
프로세서(250)는 상술한 바와 같이 상세 정보(410)에 기초하여 획득된 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 음성으로 변환하여 재생하는 음악 출력 전후에 함께 출력할 수 있다.As described above, the
여기서, 프로세서(250)는 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 음악의 장르(330)에 기초하여, 남성의 목소리, 여성의 목소리, 연예인 목소리 등과 같은 출력할 음성의 종류를 식별할 수 있고, 합성된 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 식별된 종류의 음성으로 변환하여 출력할 수 있다. Here, the
예를 들어, 프로세서(250)는 음악의 장르(330)가 "발라드"인 경우, 음성의종류를 중저음의 남자 연예인 목소리로 식별할 수 있고, 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 중저음의 남자 연예인 목소리로 출력할 수 있다.For example, if the genre of
다만, 이에 국한되지 않고 프로세서(250)는 사용자 인터페이스(210)를 통해 사용자 명령을 입력 받아 출력할 음성의 종류를 식별하여 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 식별된 종류의 음성으로 변환하여 출력할 수 있음은 물론이다.However, not limited to this, the
본 개시의 또 다른 실시 예에 따른 프로세서(250)는 수신된 상세 정보(410) 중 텍스트 형식의 자연어(430)로 기 출력된 상세 정보(410)를 식별하고, 식별된 기 출력된 상세 정보(410)와 상이한 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다.The
예를 들어, 프로세서(250)는"싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보가 기 출력된 상세 정보(410)인지 여부를 식별할 수 있다.For example, the
여기서, 프로세서(250)는 기 출력된 상세 정보(410)에 기초한 음악에 대한 설명을 메모리(240) 또는 서버(100)에 저장하도록 제어하고, 저장된 기 출력된 상세 정보(410)에 기초하여 현재 출력할 음악에 대한 설명이 기 출력된 상세 정보(410)에 대한 것인지 식별할 수 있다.Here, the
"싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보가 이전에 기 출력된 상세 정보(410)인 것으로 식별되면 프로세서(250)는 "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보를 출력하지 않고 그와 상이한 상세 정보(410)에 기초하여 획득된 음악에 대한 설명을 출력함으로써 같은 내용을 반복하여 사용자에게 제공하여 사용자에게 피로감을 주는 문제점을 방지할 수 있다.If the album information called "Single Track" and the lyricist and composer information called "Paul McCartney" are identified as previously printed
상술한 바와 같이 프로세서(250)는 재생목록에 포함된 음악 및 음악에 대한 설명을 함께 출력함으로써 사용자의 선호도에 맞춰 편성된 재생목록에 포함된 음악을 마치 라디오를 청취하면서 듣는 것과 같은 체험을 제공할 수 있다.As described above, the
도 6은 본 개시의 일 실시 예에 따른, 전자 장치의 동작을 설명하기 위한 흐름도이다.FIG. 6 is a flowchart for explaining the operation of an electronic device according to an embodiment of the present disclosure.
전자 장치(200)는 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입할 수 있다(S610). 여기서, 전자 장치(100)는 기 설정된 사용자 명령이 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 제1 음악 다음으로 출력할 제2 음악부터 라디오 모드로 진입할 수 있다.When a preset user command is input, the
라디오 모드로 진입되면, 전자 장치(200)는 재생목록에 포함된 음악에 대한 메타 정보를 획득할 수 있다(S620).When entering the radio mode, the
전자 장치(200)는 획득된 메타 정보에 포함된 키워드(Keyword)를 추출할 수 있다(S630). 여기서, 키워드는, 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명(310), 가수명(320), 장르(330) 및 발표년도(340) 중 적어도 하나에 관련된 키워드일 수 있다.The
전자 장치(200)는 키워드에 기초하여 음악에 대한 상세 정보(410)를 획득하기 위해 추출된 키워드를 검색 서버(100)에 전송할 수 있다(S640).The
전자 장치(200)는 검색 서버(100)로부터 재생목록에 포함된 음악에 대한 상세 정보(410)를 수신할 수 있다(S650). 여기서, 전자 장치(200)는 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악의 출력을 시작하기 전에 재생목록에 포함된 복수의 음악에 대한 상세 정보(410)를 수신할 수 있다.The
전자 장치(200)는 획득된 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다(S660). 여기서 전자 장치(200)는 수신된 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하고, 합성된 텍스트 형식의 자연어(430)를 음성으로 변환하여 출력할 수 있다. 또한 전자 장치(200)는 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 음악의 장르(330)에 기초하여, 남성 목소리, 여성 목소리, 연예인 목소리 등과 같은 출력할 음성의 종류를 식별하고, 합성된 텍스트 형식의 자연어(430)를 식별된 종류의 음성으로 변환하여 출력할 수 있다. 전자 장치(200)는 수신된 상세 정보(410) 중 기 출력된 상세 정보(410)를 식별하고, 식별된 기 출력된 상세 정보(410)와 상이한 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다.The
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been shown and described, but the present disclosure is not limited to the specific embodiments described above, and may be used in the technical field pertaining to the disclosure without departing from the gist of the disclosure as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical ideas or perspectives of the present disclosure.
200: 전자 장치
210: 사용자 인터페이스
220: 통신 인터페이스
230: 스피커
240: 메모리
250: 프로세서200: electronic device
210: User interface
220: communication interface
230: speaker
240: memory
250: processor
Claims (16)
사용자 인터페이스;
통신 인터페이스;
스피커;
메모리; 및
프로세서;를 포함하고,
상기 프로세서는,
기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하고,
상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하고,
상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하고,
상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하고,
상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 텍스트 형식의 제1 상세 정보를 수신하고,
상기 제1 상세 정보를 자연어 합성 신경망 모델에 입력하여, 상기 재생목록에 포함된 상기 음악에 대한 설명을 문장 형식의 제2 상세 정보로 합성하고,
상기 제2 상세 정보를 음성으로 변환한 결과인 상기 음악에 대한 음성 설명 및 상기 재생목록에 포함된 상기 음악을 동시에 출력하는, 전자 장치.In electronic devices,
user interface;
communication interface;
speaker;
Memory; and
Including a processor;
The processor,
When a preset user command is entered, it enters Radio Mode,
When entering the radio mode, obtain meta information about music included in the playlist,
Extract keywords included in the obtained meta information,
Transmitting the extracted keywords to a search server to obtain detailed information about the music based on the keywords,
Receiving first detailed information in text format about music included in the playlist from the search server,
Inputting the first detailed information into a natural language synthesis neural network model to synthesize the description of the music included in the playlist into second detailed information in the form of a sentence,
An electronic device that simultaneously outputs a voice description of the music, which is a result of converting the second detailed information into voice, and the music included in the playlist.
상기 프로세서는,
상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 텍스트 형식의 제1 상세 정보를 수신하는, 전자 장치.According to paragraph 1,
The processor,
An electronic device that receives a description of the music included in the playlist and first detailed information in text format about a plurality of pieces of music included in the playlist before starting to output the music included in the playlist.
상기 프로세서는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하고,
상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하고,
상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나인, 전자 장치.According to claim 1,
The processor,
Identifying the type of voice to be output based on the genre of the music extracted from meta information about the music included in the playlist,
Converting and outputting the natural language in the synthesized text format into the identified type of voice,
The type of voice is one of a male voice, a female voice, and a celebrity voice.
상기 프로세서는,
상기 수신된 제1 상세 정보 중 기 출력된 상세 정보를 식별하고,
상기 기 출력된 상세 정보를 제외한 제1 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 상기 음성 설명 및 상기 재생목록에 포함된 음악을 동시에 출력하는, 전자 장치.According to paragraph 1,
The processor,
Identify previously output detailed information among the received first detailed information,
An electronic device that simultaneously outputs the audio description of music included in the playlist and the music included in the playlist based on first detailed information excluding the previously output detailed information.
상기 프로세서는,
상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는, 전자 장치.According to paragraph 1,
The processor,
If the preset user command is input while outputting the first music included in the playlist, the electronic device enters the radio mode starting with the second music to be output after the first music.
상기 키워드는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드인, 전자 장치.According to paragraph 1,
The above keywords are,
An electronic device that is a keyword related to at least one of the song name, singer name, genre, and release year extracted from meta information about music included in the playlist.
상기 텍스트 형식의 제1 상세 정보는,
상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보인, 전자 장치.According to paragraph 1,
The first detailed information in the text format is,
An electronic device that is information about at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하는 단계;
상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하는 단계;
상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하는 단계;
상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하는 단계;
상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 텍스트 형식의 제1 상세 정보를 수신하는 단계;
상기 제1 상세 정보를 자연어 합성 신경망 모델에 입력하여, 상기 재생목록에 포함된 상기 음악에 대한 설명을 문장 형식의 제2 상세 정보로 합성하는 단계; 및
상기 제2 상세 정보를 음성으로 변환한 결과인 상기 음악에 대한 음성 설명 및 상기 재생목록에 포함된 음악을 동시에 출력하는 단계;를 포함하는 제어 방법. In a method of controlling an electronic device,
Entering a radio mode when a preset user command is input;
Upon entering the radio mode, obtaining meta information about music included in the playlist;
Extracting keywords included in the obtained meta information;
transmitting the extracted keyword to a search server to obtain detailed information about the music based on the keyword;
Receiving first detailed information in text format about music included in the playlist from the search server;
Inputting the first detailed information into a natural language synthesis neural network model to synthesize the description of the music included in the playlist into second detailed information in the form of a sentence; and
A control method comprising simultaneously outputting a voice description of the music, which is a result of converting the second detailed information into voice, and music included in the playlist.
상기 상세 정보를 수신하는 단계는,
상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 텍스트 형식의 제1 상세 정보를 수신하는 단계;를 포함하는 제어 방법.According to clause 9,
The step of receiving the detailed information is,
Receiving a description of the music included in the playlist and first detailed information in text format about a plurality of music included in the playlist before starting to output the music included in the playlist; comprising: Control method.
상기 출력하는 단계는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하는 단계; 및
상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하는 단계;를 포함하고,
상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나인, 제어 방법.According to clause 9,
The output step is,
identifying a type of voice to be output based on the genre of the music extracted from meta information about the music included in the playlist; and
Converting the natural language in the synthesized text format into the identified type of voice and outputting it,
The type of voice is one of a male voice, a female voice, and a celebrity voice.
상기 출력하는 단계는,
상기 수신된 제1 상세 정보 중 기 출력된 상세 정보를 식별하는 단계; 및
상기 기 출력된 상세 정보를 제외한 제1 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 상기 음성 설명 및 상기 재생목록에 포함된 음악을 동시에 출력하는 단계;를 포함하는 제어 방법.According to clause 9,
The output step is,
identifying previously output detailed information among the received first detailed information; and
A control method comprising simultaneously outputting the audio description of the music included in the playlist and the music included in the playlist based on first detailed information excluding the previously output detailed information.
상기 라디오 모드로 진입하는 단계는,
상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는 단계;를 포함하는, 제어 방법.According to clause 9,
The step of entering the radio mode is,
If the preset user command is input while outputting the first music included in the playlist, entering the radio mode starting with the second music to be output after the first music.
상기 키워드는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드인, 제어 방법.According to clause 9,
The above keywords are,
A control method that is a keyword related to at least one of the song name, singer name, genre, and release year extracted from meta information about music included in the playlist.
상기 텍스트 형식의 제1 상세 정보는,
상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보인, 제어 방법.
According to clause 9,
The first detailed information in the text format is,
A control method, which is information about at least one of song name information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210157811A KR102598242B1 (en) | 2021-11-16 | 2021-11-16 | Electronic apparatus and method for controlling thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210157811A KR102598242B1 (en) | 2021-11-16 | 2021-11-16 | Electronic apparatus and method for controlling thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230071524A KR20230071524A (en) | 2023-05-23 |
KR102598242B1 true KR102598242B1 (en) | 2023-11-03 |
Family
ID=86544189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210157811A KR102598242B1 (en) | 2021-11-16 | 2021-11-16 | Electronic apparatus and method for controlling thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102598242B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120076482A (en) * | 2010-11-26 | 2012-07-09 | 삼성전자주식회사 | Method and apparatus for searching contents in a communication system |
KR102369985B1 (en) * | 2015-09-04 | 2022-03-04 | 삼성전자주식회사 | Display arraratus, background music providing method thereof and background music providing system |
US10261964B2 (en) * | 2016-01-04 | 2019-04-16 | Gracenote, Inc. | Generating and distributing playlists with music and stories having related moods |
KR102221963B1 (en) * | 2019-05-02 | 2021-03-04 | 엘지전자 주식회사 | Artificial intelligence device and method for providing image information |
-
2021
- 2021-11-16 KR KR1020210157811A patent/KR102598242B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20230071524A (en) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10318637B2 (en) | Adding background sound to speech-containing audio data | |
US10381016B2 (en) | Methods and apparatus for altering audio output signals | |
WO2020113733A1 (en) | Animation generation method and apparatus, electronic device, and computer-readable storage medium | |
US20210272569A1 (en) | Voice feedback for user interface of media playback device | |
KR20180115628A (en) | Management layer for multiple intelligent personal assistant services | |
JP2017054121A (en) | Apparatus and method for controlling sound, and apparatus and method for training genre recognition model | |
US20170060520A1 (en) | Systems and methods for dynamically editable social media | |
JP2019091014A (en) | Method and apparatus for reproducing multimedia | |
US11915687B1 (en) | Systems and methods for generating labeled data to facilitate configuration of network microphone devices | |
KR20190093492A (en) | Smart speaker with music recognition | |
WO2022160603A1 (en) | Song recommendation method and apparatus, electronic device, and storage medium | |
JP2023527473A (en) | AUDIO PLAYING METHOD, APPARATUS, COMPUTER-READABLE STORAGE MEDIUM AND ELECTRONIC DEVICE | |
KR20170136200A (en) | Method and system for generating playlist using sound source content and meta information | |
JP2011003193A (en) | Multimedia identification system and method | |
KR102598242B1 (en) | Electronic apparatus and method for controlling thereof | |
US20210165628A1 (en) | Systems and methods for selecting and sharing audio presets | |
US20230410793A1 (en) | Systems and methods for media segmentation | |
KR20130103243A (en) | Method and apparatus for providing music selection service using speech recognition | |
Razlogova | Provincializing Spotify: Radio, algorithms and conviviality | |
US20170039026A1 (en) | Auditory Transition System | |
WO2023010949A1 (en) | Method and apparatus for processing audio data | |
KR102480265B1 (en) | Electronic apparatus for performing equalization according to genre of audio sound | |
CN108062353A (en) | Play the method and electronic equipment of multimedia file | |
US20240331682A1 (en) | Systems and methods for real-time concert transcription and user-captured video tagging | |
US20230376760A1 (en) | Steering for Unstructured Media Stations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |