[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100849848B1 - 음성 출력 장치 및 방법 - Google Patents

음성 출력 장치 및 방법 Download PDF

Info

Publication number
KR100849848B1
KR100849848B1 KR1020060119988A KR20060119988A KR100849848B1 KR 100849848 B1 KR100849848 B1 KR 100849848B1 KR 1020060119988 A KR1020060119988 A KR 1020060119988A KR 20060119988 A KR20060119988 A KR 20060119988A KR 100849848 B1 KR100849848 B1 KR 100849848B1
Authority
KR
South Korea
Prior art keywords
information
voice
time
key
synthesized
Prior art date
Application number
KR1020060119988A
Other languages
English (en)
Other versions
KR20080049438A (ko
Inventor
유병인
김연배
김성운
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060119988A priority Critical patent/KR100849848B1/ko
Priority to US11/980,525 priority patent/US8050927B2/en
Publication of KR20080049438A publication Critical patent/KR20080049438A/ko
Application granted granted Critical
Publication of KR100849848B1 publication Critical patent/KR100849848B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 음성 출력 장치 및 방법에 관한 것으로서, 인터넷과 같은 네트워크상에 존재하는 정보 중 사용자의 취향에 부합하는 정보를 텍스트 형태로 수신하여 이를 음성으로 변환한 후 출력하는 음성 출력 장치 및 방법에 관한 것이다.
본 발명의 실시예에 따른 음성 출력 장치는 네트워크상에 존재하는 정보 중 기 설정된 종류에 대응하는 적어도 하나 이상의 제 1 정보를 검색하는 단계와, 기 설정된 재생 시간에 대응되도록 상기 제 1 정보에서 핵심 단어를 포함하는 핵심 정보를 추출하는 단계와, 상기 핵심 정보를 음성으로 변환하는 단계와, 상기 변환된 음성이 출력되는 동안 재생시키고자 하는 배경 음악을 선택하는 단계, 및 상기 변환된 음성 및 상기 선택된 배경 음악을 출력하는 단계를 포함하되, 상기 핵심 단어는 상기 제1 정보 내에서의 출현 빈도수가 큰 단어 또는 사용자로부터 입력된 내용에 포함된 단어로부터 결정되는 것을 특징으로 한다.
핵심 정보, 음성, 재생 시간, 배경 음악

Description

음성 출력 장치 및 방법{Apparatus and method for outputting voice}
도 1은 본 발명의 실시예에 따른 음성 출력 시스템을 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 음성 출력 장치를 나타낸 블록도이다.
도 3은 도 2의 정보 처리부에 대한 세부 구성을 나타낸 블록도이다.
도 4는 본 발명의 실시예에 따라 후처리된 정보를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 기 설정된 재생 시간에 대응되도록 음성의 출력 시간이 설정되는 것을 나타낸 도면이다.
도 6a는 본 발명의 실시예에 따른 핵심 정보가 추출되는 것을 나타낸 도면이다.
도 6b는 도 6a의 제 1 정보에 포함된 핵심 단어의 출현 빈도를 나타낸 테이블이다.
도 7a 내지 도 7c는 본 발명의 실시예에 따른 음성과 배경 음악의 출력 형태를 나타낸 예시도이다.
도 8은 본 발명의 실시예에 따라 음성이 출력되는 과정을 나타낸 흐름도이다.
도 9는 본 발명의 실시예에 따라 정보가 처리되는 것을 나타낸 흐름도이다.
<도면의 주요 부분에 관한 부호의 설명>
210 : 통신부 220 : 정보 검색부
230 : 음성 생성부 240 : 입력부
250 : 배경 음악 선택부 260 : 배경 음악 재생부
270 : 오디오 합성부 280 : 저장부
290 : 출력부 300 : 정보 처리부
본 발명은 음성 출력 장치 및 방법에 관한 것으로서, 더욱 상세하게는 인터넷과 같은 네트워크상에 존재하는 정보 중 사용자의 취향에 부합하는 정보를 텍스트 형태로 수신하여 이를 음성으로 변환한 후 출력하는 음성 출력 장치 및 방법에 관한 것이다.
1969년 미국 국방성의 지원으로 미국의 4개 대학을 연결하기 위해 구축된 알파넷(ARPANET)이 1990년대 인터넷으로 대중화됨으로써, 사용자는 인터넷을 통하여 정보를 공유할 수 있게 되었다. 한편, 인터넷상에 존재하는 정보는 너무나 방대하기 때문에 사용자는 그 검색이 용이하지 못하였는데 이에 따라, 웹 기반의 검색 사이트 및 포털 사이트가 등장하게 되었다.
그러나, 이와 같은 검색 사이트 또는 포털 사이트는 검색된 컨텐츠 또는 제공하고자 하는 컨텐츠를 일률적으로 제공하므로 모든 사용자는 동일한 형태의 컨텐츠를 제공받게 된다. 즉, 사용자들은 자신의 취향과 무관하게 동일한 컨텐츠를 제 공받게 되는 것이다.
휴대용 컴퓨터 장치로는 PDA(Personal Digital Assistant) 및 랩톱(Laptop)이 있었으나, 휴대 전화의 기능이 다양해지면서 휴대 전화 또한 하나의 휴대용 컴퓨터 장치의 역할을 수행하게 되었다. 또한, 게임, 네비게이션, 디지털 멀티미디어 방송(Digital Multimedia Broadcasting) 또는 멀티미디어 컨텐츠 재생 등의 서비스를 제공하는 휴대용 장치가 등장하게 되었는데, 이러한 장치들은 자체적인 기능을 제공할 뿐만 아니라 무선 통신 수단을 이용하여 네트워크상의 정보를 제공하기도 한다.
휴대용 장치의 보급이 증가하고 있음에도 불구하고, 전술한 바와 같이 모든 사용자는 특정 정보에 대한 일률적인 정보만을 제공받으므로, 자신의 취향에 부합하는 정보보다는 일반적인 사용자의 취향에 부합하는 정보를 제공받게 된다.
또한, 휴대용 장치는 휴대성을 강조하기 위하여 표시창이 크지 않는 것이 특징인데, 이러한 이유로 인하여 사용자는 네트워크를 통하여 전달받은 정보를 표시창에 표시된 텍스트의 형태로 제공받음에 있어서 불편함을 느낄 수 있다.
따라서, 네트워크상에 존재하는 방대한 정보 중 사용자의 취향에 부합하는 정보를 보다 간편한 방식으로 사용자에게 전달하는 발명의 등장이 요구된다.
본 발명은 네트워크상에 존재하는 정보 중 사용자의 취향에 부합하는 정보를 텍스트 형태로 수신하는데 그 목적이 있다.
또한, 본 발명은 수신된 텍스트를 음성으로 변환하고 이를 출력하는데 그 목 적이 있다.
또한, 본 발명은 수신된 텍스트를 음성으로 변환함에 있어서, 기 설정된 시간 동안 해당 정보가 출력될 수 있도록 음성의 재생 경과 시간을 고려하여 음성을 변환하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 음성 출력 장치는 네트워크상에 존재하는 정보 중 기 설정된 종류에 대응하는 적어도 하나 이상의 제 1 정보를 검색하는 정보 검색부와, 기 설정된 재생 시간에 대응되도록 상기 제 1 정보에서 핵심 단어를 포함하는 핵심 정보를 추출하는 정보 처리부와, 상기 핵심 정보를 음성으로 변환하는 음성 생성부와, 상기 변환된 음성이 출력되는 동안 재생시키고자 하는 배경 음악을 선택하는 배경 음악 선택부, 및 상기 변환된 음성 및 상기 선택된 배경 음악을 출력하는 출력부를 포함하되, 상기 핵심 단어는 상기 제1 정보 내에서의 출현 빈도수가 큰 단어 또는 사용자로부터 입력된 내용에 포함된 단어로부터 결정되는 것을 특징으로 한다.
본 발명의 실시예에 따른 음성 출력 방법은 네트워크상에 존재하는 정보 중 기 설정된 종류에 대응하는 적어도 하나 이상의 제 1 정보를 검색하는 단계와, 기 설정된 재생 시간에 대응되도록 상기 제 1 정보에서 핵심 단어를 포함하는 핵심 정보를 추출하는 단계와, 상기 핵심 정보를 음성으로 변환하는 단계와, 상기 변환된 음성이 출력되는 동안 재생시키고자 하는 배경 음악을 선택하는 단계, 및 상기 변환된 음성 및 상기 선택된 배경 음악을 출력하는 단계를 포함하되, 상기 핵심 단어는 상기 제1 정보 내에서의 출현 빈도수가 큰 단어 또는 사용자로부터 입력된 내용에 포함된 단어로부터 결정되는 것을 특징으로 한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 음성 출력 시스템을 나타낸 개념도로서, 음성 출력 시스템은 네트워크상에서 각종 정보를 제공하는 정보 제공 서버(101, 102, 103)와 정보 제공 서버(101, 102, 103)로부터 수신된 정보를 음성으로 출력하는 음성 출력 장치(201, 202, 203, 204)를 포함하여 구성된다.
각 음성 출력 장치(201, 202, 203, 204)는 적어도 하나 이상의 정보 제공 서버(101, 102, 103)로부터 정보를 제공받을 수 있는데, 정보 제공 서버(101, 102, 103)는 포털 서비스 또는 검색 서비스를 제공하는 서버뿐만 아니라 그 하위에 존재하는 각종 URL(Uniform Resource Locator)을 포함한다. 예를 들어, 최근 각종 포털 사이트는 회원들에 의하여 생성된 그룹을 위한 홈페이지를 제공하는데, 정보 제공 서버(101, 102, 103)에는 이와 같은 홈페이지도 포함되는 것이다.
또한, 개인에게 할당되어 네트워크상의 모든 사용자들로부터의 접근을 허용 한 모든 서버가 정보 제공 서버(101, 102, 103)에 해당될 수도 있다.
음성 출력 장치(201, 202, 203, 204)는 정보 제공 서버(101, 102, 103)로부터 정보를 제공 받고, 이를 음성으로 변환한 후 출력하는 역할을 한다.
음성 출력 장치(201, 202, 203, 204)의 종류로는 도 1에 도시된 바와 같이 랩톱(Laptop)(201), PDA(Personal Digital Assistant)(202), 데스크톱(Desktop)(203) 및 태블릿 컴퓨터(Tablet Computer)(204)과 같은 컴퓨터 장치가 포함될 수 있으며, 휴대 전화, PMP(Personal Multimedia Player) 및 네비게이션 기기(Navigation Tool)와 같은 휴대 장치가 포함될 수 있다. 또한, 홈 패드(Home-Pad) 및 월 패드(Wall-Pad)와 같은 가정용 기기가 음성 출력 장치에 포함될 수도 있다.
음성 출력 장치(201, 202, 203, 204)에 의하여 검색되는 정보의 종류로는 뉴스, 쇼핑, 이메일 및 지역 방송이 포함될 수 있는데 여기서, 음성 출력 장치(201, 202, 203, 204)는 사용자에 의하여 지정된 종류의 정보만을 검색할 수 있다. 즉, 사용자가 뉴스 및 스포츠에 관련된 정보만을 검색하도록 음성 출력 장치(201, 202, 203, 204)에 정보의 종류를 입력한 경우, 음성 출력 장치(201, 202, 203, 204)는 적어도 하나 이상의 정보 제공 서버(101, 102, 103)를 검색하여 최근 뉴스 및 최근 스포츠에 관련된 정보만을 검색하는 것이다. 또한, 사용자가 정보의 종류로서 부동산 및 증권을 입력한 경우, 음성 출력 장치(201, 202, 203, 204)는 최근 뉴스 중 해당 종류의 정보만을 검색하거나 특정 전문 사이트에 접속하여 최근 정보를 검색할 수도 있다.
정보 제공 서버(101, 102, 103)와 음성 출력 장치(201, 202, 203, 204)간의 통신 수단으로는 유선 또는 무선이 이용될 수 있다. 한편, 정보 제공 서버(101, 102, 103)로부터 제공되는 정보는 텍스트, HTML(HyperText Markup Language), XML(eXtensible Markup Language) 또는 RSS(RDF Site Summary)의 형식으로 구성된 것을 포함하는데, 이와 같은 형식의 정보는 멀티미디어 컨텐츠와 같이 용량이 크지 않으므로 무선 방식의 통신 수단을 통해서도 송수신이 용이하게 수행될 수 있다.
검색된 정보에 대한 음성을 출력함에 있어서, 음성 출력 장치(201, 202, 203, 204)는 기 설정된 재생 시간으로 검색된 정보의 크기를 조절할 수 있는데, 이는 검색된 정보에서 핵심 정보를 추출함으로써 수행될 수 있다.
음성 출력 장치(201, 202, 203, 204)에 의하여 출력되는 음성은 검색된 정보에 대한 것뿐만 아니라 광고가 포함될 수도 있다. 즉, 음성 출력 장치(201, 202, 203, 204)는 정보를 검색하면서 광고에 관련된 텍스트 등을 수신할 수 있는데, 수신된 광고 관련 텍스트를 음성으로 변환하고 이를 출력하는 것이다.
여기서, 광고 관련 텍스트는 정보 제공 서버(101, 102, 103)로부터 제공될 수 있으며, 광고 관련 텍스트만을 제공하는 별도의 서버(이하, 광고 제공 서버라 한다)로부터 제공될 수도 있다. 이 때, 광고 제공 서버로부터 광고 관련 텍스트를 제공받기 위하여 음성 출력 장치(201, 202, 203, 204)에는 광고 제공 서버의 URL이 저장되어 있을 수 있다.
도 2는 본 발명의 실시예에 따른 음성 출력 장치를 나타낸 블록도로서, 음성 출력 장치(200)는 통신부(210), 정보 검색부(220), 정보 처리부(300), 음성 생성 부(230), 입력부(240), 배경 음악 선택부(250), 배경 음악 재생부(260), 오디오 합성부(270), 저장부(280) 및 출력부(290)를 포함하여 구성된다.
입력부(240)는 음성 재생 시간을 입력받는다. 음성 재생 시간은 출력부(290)를 통하여 출력되는 음성에 대한 재생 지속 시간을 의미하는 것으로서, 사용자에 의하여 입력될 수 있다. 예를 들어, 사용자는 20분이라는 음성 재생 시간을 입력할 수 있는데 이에 따라, 후술하는 정보 처리부(300)는 수집된 정보를 20분의 분량으로 정리하고, 이에 대한 음성은 출력부(290)를 통하여 출력되는 것이다.
또한, 음성 재생 시간은 특정 시간 간격으로 설정될 수도 있는데 예를 들어, 13시 20분부터 14시 10분까지와 같이 음성 출력의 시작 시간과 종료 시간이 입력부(240)를 통하여 입력될 수 있는 것이다.
또한, 음성 재생 시간은 입력부(240)를 통하여 입력된 위치 정보가 참조되어 변환된 음성의 재생 지속 시간 또는 시간 간격일 수도 있는데 예를 들어, 사용자가 입력부(240)를 통하여 출발지인 A지점의 위치 정보와 목적지인 B 지점의 위치 정보를 입력한 경우, A 지점에서 B지점으로 이동하는데 소요되는 예상 시간이 음성 재생 시간으로 설정될 수 있는 것이다.
입력부(240)는 정보의 종류를 입력받을 수도 있다. 예를 들어, 뉴스, 스포츠, 엔터테인먼트 또는 쇼핑 등의 정보를 입력받는 것으로서, 이를 위하여 입력부(240)에는 버튼, 휠, 터치 패드 또는 터치 스크린 등의 입력 수단이 구비될 수 있으며, 사용자의 음성을 수신하는 음성 입력 수단이 구비될 수도 있다.
또한, 입력부(240)는 키워드를 입력받을 수도 있다. 예를 들어, 네트워크, 네비게이션과 같은 키워드를 입력받을 수 있는 것인데 이에 따라, 정보 검색부(220)는 정보의 종류가 아닌 입력된 키워드에 따른 검색을 수행할 수 있으며, 정보의 종류와 키워드가 동시에 입력된 경우 둘 모두를 이용한 검색을 수행할 수 있게 된다.
통신부(210)는 정보 제공 서버와 통신하여 정보를 수신하는 역할을 한다. 통신부(210)와 정보 제공 서버간의 통신 방식은 이더넷, USB, IEEE 1394, 직렬 통신(serial communication) 및 병렬 통신(parallel communication)과 같은 유선 통신 방식이 사용될 수 있으며, 적외선 통신, 블루투스, 홈 RF 및 무선 랜과 같은 무선 통신 방식이 사용될 수도 있다.
정보 검색부(220)는 네트워크상에 존재하는 정보를 검색하는 역할을 한다. 여기서, 네트워크상에 존재하는 정보는 정보 제공 서버에 의하여 제공되는 정보를 포함하는데, 이를 위하여 정보 검색부(220)는 정보 제공 서버의 URL을 이용할 수 있다. 정보 제공 서버의 URL은 저장부(280)에 저장되어 있을 수 있으며 사용자에 의하여 직접 입력될 수도 있다.
정보를 검색함에 있어서, 정보 검색부(220)는 기 설정된 종류에 대응하는 정보(이하, 제 1 정보라 한다)를 검색할 수 있다. 여기서, 기 설정된 종류란 사용자에 의하여 설정된 정보의 종류로서, 사용자는 적어도 하나 이상의 종류를 입력할 수 있다.
정보 검색부(220)는 정보 제공 서버에 저장된 정보 중 멀티미디어 컨텐츠 등 큰 용량의 정보를 제외한 텍스트, HTML, XML 또는 RSS 형태의 정보만을 검색할 수 있는데, 이에 따라 통신부(210)는 작은 크기의 대역폭을 이용하여 제 1 정보를 수신할 수 있게 된다.
정보 처리부(300)는 음성 재생 시간에 대응되도록 제 1 정보에서 핵심 정보를 추출하는 역할을 한다. 예를 들어, 음성 재생 시간이 20분이고, 제 1 정보를 음성으로 변환한 후 출력되는 예상 재생 시간이 30분인 경우, 변환된 음성의 출력 지속 시간이 20분이 될 수 있도록 제 1 정보에서 핵심이 되는 정보만을 추출하는 것이다. 핵심 정보 추출에 대한 자세한 설명은 도 6a 내지 도 6b를 통하여 후술하기로 한다.
정보 처리부(300)에 대한 자세한 구성은 도 3에 도시되어 있는데, 정보 처리부(300)는 전처리부(310), 정보 분석부(320), 핵심 정보 생성부(330), 정보 합성부(340), 재생 시간 제어부(350) 및 후처리부(360)를 포함하여 구성된다.
전처리부(310)는 제 1 정보에서 텍스트 정보를 추출하는 역할을 한다. 예를 들어, HTML 또는 XML 파일로 제 1 정보가 제공되는 경우 제 1 정보에는 텍스트 정보뿐만 아니라 태그 및 부가 정보 등이 포함될 수 있는데, 전처리부(310)는 이러한 태그 및 부가 정보가 제거된 텍스트 정보만을 추출하는 것이다.
정보 분석부(320)는 입력된 제 1 정보를 단어 단위로 구분해 내고 제 1 정보에 포함된 핵심 단어를 추출하는 역할을 한다. 여기서, 핵심 단어는 제 1 정보에 포함된 단어 중 출현 빈도 수가 다른 단어보다 큰 것을 의미한다. 핵심 단어는 적어도 하나 이상 추출될 수 있는데, 그 빈도 수에 따라 정렬된 후 핵심 정보 생성부(330)로 전달된다.
또한, 정보 분석부(320)는 사용자로부터 입력된 키워드를 참조하여 핵심 단어를 추출할 수도 있다. 즉, 정보 분석부(320)는 제 1 정보에 포함된 단어 중 키워드에 해당하는 단어를 핵심 단어로 결정하고, 출현 빈도 수에 따라 정렬한 후 이를 추출하는 것이다. 그리고, 정보 분석부(320)는 핵심 단어가 포함된 문장의 수를 핵심 단어별로 정렬하고 그 수를 확인한다. 이 때, 정보 분석부(320)는 도 6b와 같은 테이블(650)을 작성할 수 있다.
핵심 정보 생성부(330)는 핵심 단어가 포함된 핵심 정보를 생성하는 역할을 한다. 핵심 정보의 생성은 제 1 정보에서 핵심 단어가 포함된 문장을 분석하여 문장을 재작성하는 것으로 수행될 수 있으며, 도 6a에 도시된 바와 같이 제 1 정보에 포함된 문장 중 핵심 단어의 빈도가 높은 문장을 핵심 정보로 결정하는 것으로 수행될 수도 있다. 이 때, 핵심 정보 생성부(330)는 음성 재생 시간에 대응되도록 정보 합성부(340)의 요청에 따라 적어도 하나 이상의 핵심 정보를 생성할 수 있다.
핵심 정보 생성부(330)는 정보 분석부(320)로부터 전달받은 정보 예를 들면 도 6b에 도시된 테이블(650)을 전달받아 핵심 정보를 생성할 수 있는데, 핵심 단어의 출현 빈도 및 핵심 단어가 사용된 문장의 수가 많은 제 1 단락을 핵심 정보로 결정할 수 있다.
정보 합성부(340)는 핵심 정보 생성부(330)로부터 전달받은 핵심 정보와 또 다른 정보(이하, 제 2 정보라 한다)를 합성하는 역할을 한다. 여기서, 제 2 정보는 광고일 수 있으며, 소정의 안내 정보일 수 있다. 안내 정보란, 정보 제공 서버 또는 광고 제공 서버의 사용 허용 시간 및 사용 가능 서비스의 종류 등을 포함한다.
광고 및 안내 정보는 정보 제공 서버 또는 광고 제공 서버로부터 제공될 수 있는데, 사용자의 선택에 따라 핵심 정보와 제 2 정보의 합성 여부가 결정될 수 있다. 또한, 합성 여부는 정보 제공 서버에 의하여 결정될 수도 있는데 예를 들어, 정보 제공 서버로부터 정보를 제공 받기 위하여 사용자가 요금을 부과하여야 하는 경우, 요금을 부과한 음성 출력 장치(200)의 정보 합성부(340)는 핵심 정보와 제 2 정보의 합성을 수행하지 않고, 요금을 부과하지 않은 음성 출력 장치(200)의 정보 합성부(340)는 핵심 정보와 제 2 정보의 합성을 수행하는 것이다. 이를 위하여, 핵심 정보에는 정보 제공 서버에 의하여 설정된 요금 부과 여부에 관한 플래그가 포함될 수 있다.
재생 시간 제어부(350)는 사용자에 의하여 설정된 음성 재생 시간의 크기와 제 1 정보에 대한 음성의 재생 예상 시간의 크기를 비교하여 핵심 정보의 재생성 여부를 결정하는 역할을 한다. 예를 들어, 제 1 정보에 대한 음성의 재생 예상 시간의 크기가 음성 재생 시간의 크기보다 크면 핵심 정보가 재생성되도록 결정하고, 작으면 핵심 정보가 재생성되지 않는 것으로 결정하는 것이다. 재생 시간 제어부(350)에 의한 결정 결과는 핵심 정보 생성부(330)로 전달된다.
핵심 정보의 재생성 여부를 결정하기 위하여 재생 시간 제어부(350)는 다음 수학식을 이용할 수 있다.
Ch 1 ≤ (Δt / t avg) - Ch 2
여기서, Ch 1는 핵심 정보에 포함된 문자의 수를 나타내고, Ch 2는 제 2 정보 에 포함된 문자의 수를 나타내고, Δt 는 음성 재생 시간(지속 시간)을 나타내며, t avg 는 하나의 문자에 대하여 음성이 출력되는 평균 시간을 나타낸다. 여기서, 주어진 시간 Δt 이내에 더 많은 수의 문자에 대한 음성을 출력하기 위하여 t avg 의 크기를 작게 설정할 수 있는데, t avg 의 크기가 작게 설정됨에 따라 음성 재생의 속도가 빨라지게 된다.
즉, 재생 시간 제어부(350)는 주어진 시간 안에 출력될 수 있는 문자의 수에서 제 2 정보에 포함된 문자의 수를 제거함으로써, 핵심 정보에 포함된 문자의 수를 산출하는 것이다. 그리고, 재생 시간 제어부(350)는 이렇게 산출된 문자의 수와 핵심 정보 생성부(330)에 의하여 생성된 핵심 정보의 문자 수를 비교하여 산출된 문자의 수가 핵심 정보 생성부(330)에 의하여 생성된 핵심 정보의 문자 수보다 클 때까지 핵심 정보 생성부(330)로 하여금 핵심 정보가 재생성되도록 한다. 이 때, 재생 시간 제어부(350)는 경성 실시간 시스템(Hard-Realtime System) 또는 연성 실시간 시스템(Soft-Realtime System)일 수 있는데, 경성 실시간 시스템인 경우 핵심 정보의 문자 수를 엄격하게 제한하고, 연성 실시간 시스템인 경우 핵심 정보의 문자 수에 대한 일정 범위의 오차를 허용한다.
후처리부(360)는 후술하는 음성 생성부(230)에 의하여 처리될 수 있도록 합성된 정보를 가공하는 역할을 한다. 예를 들어, 후처리부(360)는 합성된 정보에 요금 부과에 대한 플래그와 같은 서비스 관련 정보가 포함되어 있는 경우 이를 제거하고, 핵심 정보와 제 2 정보를 구별하기 위한 태그 등을 삽입하는 것이다.
후처리된 정보는 도 4와 같이 핵심 정보(410), 제 2 정보(420) 및 배경 음악(430)이 태그로 구분된 것으로 구성될 수 있다. 한편, 도 4는 핵심 정보(410), 제 2 정보(420) 및 배경 음악(430)이 각각 하나씩 존재하는 것을 나타내고 있는데, 각 정보는 복수 개 존재할 수 있으며, 각 정보의 재생 시간이 후처리된 정보에 포함될 수도 있다.
다시 도 2를 설명하면, 음성 생성부(230)는 정보 처리부(300)로부터 전달받은 정보에 대한 음성을 생성하는 역할을 한다. 여기서, 전달받은 정보에는 텍스트 형식의 정보뿐만 아니라, 음성 생성에 있어서 필요한 부가 정보가 포함될 수도 있는데, 음성 생성부(230)는 텍스트 형식의 정보만을 음성으로 생성하는 것이다.
즉, 음성 생성부(230)는 핵심 정보 및 제 2 정보에 대한 음성을 생성하는 것으로서, 전술한 바와 같이 사용자의 선택 또는 정보 제공 서버의 선택에 따라 제 2 정보에 대한 음성 생성은 수행되지 않을 수도 있다.
저장부(280)는 음악 파일을 저장한다. 여기서, 음악 파일의 형식은 MP3, OGG, WMA와 같은 압축 형식일 수 있으며, WAV와 같이 압축되지 않은 형식일 수도 있다.
또한, 저장부(280)는 정보 제공 서버 또는 광고 제공 서버의 URL을 저장할 수 있다. 여기서, 정보 제공 서버 및 광고 제공 서버의 URL은 적어도 하나 이상 저장되어 있을 수 있는데, 그 배열 순서는 사용자에 의하여 설정된 우선 순위에 따를 수 있다.
또한, 저장부(280)는 입력부(240)를 통하여 입력된 정보의 종류를 저장하고 있을 수도 있는데 이에 따라, 정보 검색부(220), 정보 처리부(300) 및 배경 음악 선택부(250)는 입력부(240)를 통하여 실시간으로 입력된 정보의 종류뿐만 아니라 저장부(280)에 기 저장된 정보의 종류를 참조하여 각 기능을 수행할 수도 있다.
저장부(280)는 하드 디스크, 플래시 메모리, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC(Multimedia Card) 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 모듈로서 음성 출력 장치(200)의 내부에 구비되어 있을 수도 있고, 별도의 장치에 구비되어 있을 수도 있다.
배경 음악 선택부(250)는 음성 생성부(230)에 의하여 생성된 음성이 출력되는 동안 재생시키고자 하는 배경 음악을 저장부(280)에 저장된 음악 파일 중에서 선택하는 역할을 한다.
배경 음악을 선택함에 있어서, 배경 음악 선택부(250)는 입력부(240)를 통하여 입력된 정보의 종류에 대응되도록 배경 음악을 선택할 수 있다. 예를 들어, 정보의 종류가 뉴스인 경우 일반적인 빠르기의 템포를 갖는 음악 파일이 선택될 수 있으며, 정보의 종류가 스포츠 또는 엔터테인먼트인 경우 빠른 템포를 갖는 음악 파일이 선택될 수 있는 것이다. 또한, 배경 음악 선택부(250)는 템포뿐만 아니라 음악 파일의 장르, 음악가, 제목, 가사, 발행 연도와 같은 부가 정보를 참조하여 배경 음악 선택을 수행할 수도 있는데, 부가 정보는 ID3와 같이 음악 파일에 포함된 정보일 수 있다.
배경 음악 재생부(260)는 배경 음악 선택부(250)에 의하여 선택된 배경 음악 을 재생하는 역할을 한다. 즉, 선택된 음악 파일이 압축된 형식의 음악 파일인 경우 압축을 해제하고 파일 형식에 맞게 디코딩하여 재생을 수행하는 것이다.
오디오 합성부(270)는 음성 생성부(230)에 의하여 생성된 음성과 배경 음악을 합성하는 역할을 한다.
음성과 배경 음악을 합성함에 있어서, 오디오 합성부(270)는 음성에 따라 재생되는 배경 음악의 음량을 조절할 수 있다. 예를 들어, 오디오 합성부(270)는 정보 제공 서버로부터 제공된 음성이 출력되는 도중에는 배경 음악의 음량을 작게 설정하고, 하나의 정보에 대한 음성과 또 다른 정보에 대한 음성간의 간격 동안에는 배경 음악의 음량을 크게 설정하는 것이다.
출력부(290)는 오디오 합성부(270)에서 합성된 오디오 신호를 출력하는 역할을 한다. 즉, 음성 정보가 포함된 전기 신호를 진동판의 진동으로 바꾸어 공기에 소밀파를 발생시킴으로써 음파를 복사하는 것으로서, 일반적으로 스피커(speaker)가 출력부(290)의 역할을 수행할 수 있다.
출력부(290)는 동전형, 전자기형, 정전형, 유전체형 또는 자기왜형 등의 방법을 이용하여 전기 신호를 음파로 변환할 수 있다.
도 5는 본 발명의 실시예에 따른 기 설정된 재생 시간에 대응되도록 음성의 출력 시간이 설정되는 것을 나타낸 도면이다.
이동을 계획하고 있는 사용자는 자신이 이동하고자 하는 경로에서의 개략적인 이동 시간을 알 수 있다. 이에 따라, 사용자는 입력부(240)를 통하여 음성 재생 시간(500)을 입력할 수 있는데, 여기서 음성 재생 시간(500)은 20분과 같은 하나의 지속 시간일 수 있으며, 13시 20분부터 14시 10분까지와 같은 특정 시간 간격일 수도 있다. 이하, 음성 재생 시간(500)으로서 특정 시간 간격이 입력되는 것을 가정한다.
도 5에서 A1(501)및 A2(502)는 각각 음성 재생 시간(500)의 시작 시간 및 종료 시간에 해당한다. 또한, 제 1 재생 시간(510)은 하나의 합성 정보(제 1 정보 및 제 2 정보가 합성된 것)에 대한 음성의 출력 예상 시간을 의미한다. 즉, 도시된 바와 같이 B1 시간(511)에서 B2 시간(512) 동안인 제 1 재생 시간(510)의 크기가 음성 재생 시간의 크기보다 크므로, 핵심 정보 생성부(330)는 합성 정보에 포함된 제 1 정보에서 핵심 정보를 추출하여 합성 정보에 대한 음성의 출력 예상 시간이 음성 재생 시간(500)에 대응되도록 한다.
또한, 제 2 재생 시간(520)은 두 개의 합성 정보에 대한 음성의 출력 예상 시간을 의미한다. 여기서, 각 합성 정보에 대한 음성의 출력 예상 시간의 크기는 음성 재생 시간(500)의 크기보다 작으나 두 개의 합성 정보에 대한 음성의 출력 예상 시간의 합은 음성 재생 시간(500)보다 큰 것을 알 수 있다. 따라서, 핵심 정보 생성부(330)는 각 합성 정보에 포함된 제 1 정보에서 핵심 정보를 추출하는데, 합성 정보의 크기 또는 합성 정보의 사용자에 의한 선호도에 따라 음성 재생 시간(500) 안에 할당되는 시간의 크기를 결정한다. 즉, C1 시간(521)에서 C2 시간(522) 동안에 출력될 것으로 예상되는 합성 정보(이하, 제 1 합성 정보라 한다)의 크기가 D1 시간(523)에서 D2 시간(524) 동안에 출력될 것으로 예상되는 합성 정 보(이하, 제 2 합성 정보라 한다)의 크기보다 크므로 음성 재생 시간 안에 할당되는 시간의 크기는 제 2 합성 정보보다 제 1 합성 정보에게 더 크게 할당되도록 A3(503)가 결정되는 것이다.
여기서, 사용자에 의한 선호도는 정보의 종류에 대한 우선 순위 또는 키워드의 빈도 수 등에 따라 결정될 수 있다.
도 6a는 본 발명의 실시예에 따른 핵심 정보가 추출되는 것을 나타낸 도면으로서, 정보 검색부(220)에 의하여 검색된 제 1 정보(600)에서 핵심 정보가 추출되는 것을 나타낸 도면이다.
여기서, 제 1 정보(600)는 3개의 단락(601, 602, 603)으로 구성되어 있는데, 각 단락(601, 602, 603)에는 핵심 단어가 포함되어 있다. 핵심 단어 여부는 전체 문장에서 등장하는 빈도 수에 따라 결정되거나 사용자에 의하여 입력된 키워드와의 유사 여부에 따라 결정될 수도 있다.
도 6a에 도시된 바와 같이, 네트워크라는 핵심 단어(611, 612, 613, 614)는 제 1 정보(600)에서 4회 등장하고, 교통이라는 핵심 단어(621, 622, 623)는 제 1 정보에서 3회 등장하며, 네비게이션이라는 핵심 단어(631, 632)는 2회 등장한다.
이에 따라, 네트워크, 교통 및 네비게이션 순으로 핵심 단어의 우선 순위가 결정되고, 핵심 정보 생성부(330)는 이렇게 결정된 우선 순위에 따라 단락에 대한 우선 순위를 결정한다. 즉, 네트워크라는 핵심 단어가 가장 많이 포함된 제 1 단락(601)에 1순위를 부여하고, 네트워크와 교통이라는 핵심 단어가 포함된 제 2 단 락(602)에는 2순위를 부여하며, 네트워크와 네비게이션이라는 핵심 단어가 각각 한 개씩 포함된 제 3 단락(603)에는 3순위를 부여하는 것이다.
따라서, 만일 음성 재생 시간보다 제 1 정보(600)에 대한 음성의 출력 예상 시간이 큰 경우 핵심 정보 생성부(330)는 우선 제 3 단락(603)을 제외한 제 1 단락(601) 및 제 2 단락(602)만을 포함한 핵심 정보를 재생 시간 제어부(350)로 전달하고, 재생 시간 제어부(350)의 제어 명령에 따라 차후에 제 2 단락(602)의 추가적인 제외를 수행한다.
도 6a는 핵심 단어의 빈도 수에 따라 음성 출력 대상이 되는 단락을 선택함으로써 음성 재생 시간과 합성 정보의 출력 예상 시간이 동기화되도록 하는 것을 보여주고 있는데, 음성 생성부(230)에 의한 음성 재생의 속도를 조절함으로써 음성 재생 시간과 합성 정보의 출력 예상 시간의 동기화가 수행될 수도 있다.
이와 같은 핵심 정보를 생성하기 위하여 도 6b에 도시된 테이블(650)이 이용될 수 있다. 테이블(650)은 핵심 단어 필드(651), 핵심 단어 출현 빈도 필드(652) 및 핵심 단어가 사용된 단락의 수 필드(653)를 포함하여 구성되는데, 핵심 정보 생성부(330)는 테이블(650)의 핵심 단어 출현 빈도 필드(652)를 참조하여 전술한 바와 같은 우선 순위를 각 단락에 부여할 수 있고, 테이블(650)의 핵심 단어가 사용된 단락의 수 필드(653)를 참조하여 각 단락에 우선 순위를 부여할 수도 있다. 즉, 네트워크, 교통 및 네비게이션이라는 핵심 단어가 포함된 제 1 단락(601)에 1순위를 부여하고, 네트워크 및 교통이라는 핵심 단어가 포함된 제 2 단락(602)과 네트워크 및 네비게이션이라는 핵심 단어가 포함된 제 3 단락(603)에 2순위를 부여할 수 있는 것이다.
도 7a 내지 도 7c는 본 발명의 실시예에 따른 음성과 배경 음악의 출력 형태를 나타낸 예시도로서, 도 7a는 제 1 정보 및 제 2 정보에 대한 음성(710a, 720a)이 출력되는 도중에 배경 음악(730a)이 출력되는 것을 나타내고 있다. 도 7a에서 제 1 정보 및 제 2 정보에 대한 음성(710a, 720a)은 일반적인 음량으로 출력되고 배경 음악(730a)은 낮은 음량으로 출력될 수 있다.
도 7b는 제 1 정보에 대한 음성(710b)이 출력된 후 소정 시간 동안 배경 음악(730b)이 출력되며, 배경 음악(730b)의 출력이 완료된 후 다시 제 2 정보에 대한 음성(720b)이 출력되는 것을 나타낸 도면이다. 도 7b에서 제 1 정보에 대한 음성(710b), 제 2 정보에 대한 음성(720b) 및 배경 음악(730b)의 음량은 모두 일반적인 크기의 음량일 수 있다.
도 7c는 제 1 정보에 대한 음성(710c)이 출력되는 도중에 제 1 배경 음악(731c)이 출력되고, 그 이후 제 2 배경 음악(732c)이 출력되며, 제 2 배경 음악(732c)의 출력이 완료된 후 제 2 정보에 대한 음성(720c)과 동시에 제 3 배경 음악(733c)이 출력되는 것을 나타낸 도면이다. 여기서, 제 1 정보에 대한 음성(710c), 제 2 정보에 대한 음성(720c) 및 제 2 배경 음악(732c)의 음량은 모두 일반적인 크기의 음량일 수 있으며, 제 1 배경 음악(731c) 및 제 3 배경 음악(733c)의 음량은 낮게 설정된 것일 수 있다.
도 8은 본 발명의 실시예에 따라 음성이 출력되는 과정을 나타낸 흐름도이다.
음성을 출력하기 위하여 음성 출력 장치(200)의 정보 검색부(220)는 우선 사용자에 의하여 입력된 정보의 종류를 참조하여 네트워크상에 존재하는 제 1 정보를 검색한다(S810).
검색된 정보는 배경 음악 선택부(250) 및 정보 처리부(300)로 전달되는데 이에 따라, 배경 음악 선택부(250)는 정보의 종류에 대응되도록 배경 음악을 선택하고(S820), 정보 처리부(300)는 음성 재생 시간에 대응되도록 제 1 정보에서 핵심 정보를 추출한다(S830). 핵심 정보를 추출함에 있어서, 정보 처리부(300)는 제 1 정보와 제 2 정보를 합성하고, 합성된 정보에 대한 음성의 출력 예상 시간이 음성 재생 시간에 대응되도록 핵심 정보를 추출할 수도 있다.
추출된 핵심 정보 및 제 2 정보는 음성 생성부(230)로 전달되고, 음성 생성부(230)는 전달받은 정보에 대한 음성을 생성한다(S840).
그리고, 오디오 생성부는 음성 생성부(230)로부터 전달받은 음성과 배경 음악 재생부(260)로부터 전달받은 배경 음악을 합성하고(S850), 합성된 오디오 신호는 출력부(290)를 통하여 출력된다(S860).
도 9는 본 발명의 실시예에 따라 정보가 처리되는 것을 나타낸 흐름도이다.
정보 처리부(300)의 전처리부(310)는 제 1 정보에 대한 전처리를 수행한다(S910). 즉, 제 1 정보에서 텍스트 정보를 추출하는 것으로서, 제 1 정보에 포함된 태그 정보 및 부가 정보 등을 제거하는 것이다.
전처리된 제 1 정보는 정보 분석부(320)로 전달되고, 정보 분석부(320)는 제 1 정보에서 핵심 단어를 추출한다(S920).
그리고, 핵심 정보 생성부(330)는 핵심 단어가 포함된 핵심 정보를 생성하고(S930), 정보 합성부(340)는 핵심 정보와 제 2 정보를 합성한다(S940).
합성된 정보는 재생 시간 제어부(350)로 전달되는데, 재생 시간 제어부(350)는 합성된 정보에 대한 음성의 재생 예상 시간의 크기와 음성 재생 시간의 크기를 비교하여(S950) 합성된 정보의 재생 예상 시간이 음성 재생 시간보다 큰 경우 핵심 정보 생성부(330) 및 정보 합성부(340)로 하여금 핵심 정보의 재생성(S930) 및 정보의 재합성(S940)이 수행되도록 할 수 있다.
한편, 합성된 정보의 재생 예상 시간이 음성 재생 시간보다 작거나 같은 경우 후처리부(360)는 합성된 정보가 음성 생성부(230)에 의하여 처리될 수 있도록 가공한다(S960).
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
상기한 바와 같은 본 발명의 음성 출력 장치 및 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 네트워크상에 존재하는 정보 중 사용자의 취향에 부합하는 정보를 텍스트 형태로 수신함으로써 네트워크 대역폭의 낭비를 감소시킬 수 있는 장점이 있 다.
둘째, 수신된 텍스트를 음성으로 변환하고 이를 출력함으로써 사용자에게 휴대의 간편함을 제공하는 장점도 있다.
셋째, 기 설정된 시간 동안 해당 정보가 출력될 수 있도록 음성의 재생 경과 시간을 고려하여 음성을 변환함으로써, 사용자에게 정보 전달의 간편함으로 제공하는 장점도 있습니다.

Claims (24)

  1. 네트워크상에 존재하는 정보 중 기 설정된 종류에 대응하는 적어도 하나 이상의 제 1 정보를 검색하는 정보 검색부;
    기 설정된 재생 시간에 대응하도록 상기 제 1 정보에서 핵심 단어를 포함하는 핵심 정보를 추출하는 정보 처리부;
    상기 핵심 정보를 음성으로 변환하는 음성 생성부;
    상기 변환된 음성이 출력되는 동안 재생시키고자 하는 배경 음악을 선택하는 배경 음악 선택부; 및
    상기 변환된 음성 및 상기 선택된 배경 음악을 출력하는 출력부를 포함하되,
    상기 핵심 단어는 상기 제1 정보 내에서의 출현 빈도수가 큰 단어 또는 사용자로부터 입력된 내용에 포함된 단어로부터 결정되는 음성 출력 장치.
  2. 제 1항에 있어서,
    상기 제 1 정보는 텍스트, HTML, XML 및 RSS 중 적어도 하나 이상의 형식으로 구성되는 음성 출력 장치.
  3. 제 1항에 있어서,
    상기 정보 처리부는
    상기 핵심 단어를 추출하는 정보 분석부;
    상기 핵심 정보를 생성하는 핵심 정보 생성부; 및
    상기 제 1 정보에 대한 음성의 재생 예상 시간과 상기 재생 시간의 크기를 비교하여 상기 핵심 정보의 재생성 여부를 결정하는 재생 시간 제어부 중 적어도 하나를 포함하는 음성 출력 장치.
  4. 제 3항에 있어서,
    상기 핵심 정보와 상기 네트워크 상에 존재하는 제 2 정보를 합성하는 정보 합성부를 더 포함하는 음성 출력 장치.
  5. 제 4항에 있어서,
    상기 재생 시간 제어부는 상기 합성된 정보에 대한 음성의 재생 예상 시간과 상기 재생 시간의 크기를 비교하여 상기 합성된 정보의 재생성 여부를 결정하는 음성 출력 장치.
  6. 제 4항에 있어서,
    상기 제 2 정보는 광고 또는 안내 정보 중 적어도 하나를 포함하되,
    상기 안내 정보는 상기 네트워크 상에서 각종 정보를 제공하는 기기의 사용 허용 시간 및 사용 가능 서비스의 종류 중 적어도 하나를 포함하는 음성 출력 장치.
  7. 제 4항에 있어서,
    상기 합성된 정보의 형식은 텍스트를 포함하는 음성 출력 장치.
  8. 제 4항에 있어서,
    상기 핵심 정보 생성부는
    상기 합성된 정보가 복수개인 경우, 상기 재생 시간 중에서 상기 각 합성된 정보에 할당되는 시간을 상기 각 합성된 정보의 크기 또는 사용자의 선호도에 따라 결정하는 음성 출력 장치.
  9. 제 1항에 있어서,
    상기 배경 음악 선택부는 상기 종류에 대응되도록 상기 배경 음악을 선택하는 음성 출력 장치.
  10. 제 4항에 있어서,
    상기 음성 생성부는 상기 합성된 정보에 대한 음성을 생성하는 음성 출력 장치.
  11. 제 1항에 있어서,
    상기 재생 시간은 시작 시간과 종료 시간이 입력된 경우 상기 시작 시간과 상기 종료 시간간의 시간 간격을 포함하는 음성 출력 장치.
  12. 제 1항에 있어서,
    상기 재생 시간은 출발지의 위치 정보와 목적지의 위치 정보가 입력된 경우, 상기 출발지에서 상기 목적지로 이동하는데 소요되는 예상 시간을 포함하는 음성 출력 장치.
  13. (a) 네트워크상에 존재하는 정보 중 기 설정된 종류에 대응하는 적어도 하나 이상의 제 1 정보를 검색하는 단계;
    (b) 기 설정된 재생 시간에 대응하도록 상기 제 1 정보에서 핵심 단어를 포함하는 핵심 정보를 추출하는 단계;
    (c) 상기 핵심 정보를 음성으로 변환하는 단계;
    (d) 상기 변환된 음성이 출력되는 동안 재생시키고자 하는 배경 음악을 선택하는 단계; 및
    (e) 상기 변환된 음성 및 상기 선택된 배경 음악을 출력하는 단계를 포함하되,
    상기 핵심 단어는 상기 제1 정보 내에서의 출현 빈도수가 큰 단어 또는 사용자로부터 입력된 내용에 포함된 단어로부터 결정되는 음성 출력 방법.
  14. 제 13항에 있어서,
    상기 제 1 정보는 텍스트, HTML, XML 및 RSS 중 적어도 하나 이상의 형식으로 구성되는 음성 출력 방법.
  15. 제 13항에 있어서,
    상기 (b) 단계는
    상기 핵심 단어를 추출하는 단계;
    상기 핵심 정보를 생성하는 단계; 및
    상기 제 1 정보에 대한 음성의 재생 예상 시간과 상기 재생 시간의 크기를 비교하여 상기 핵심 정보의 재생성 여부를 결정하는 단계 중 적어도 하나를 포함하는 음성 출력 방법.
  16. 제 15항에 있어서,
    상기 핵심 정보와 상기 네트워크 상에 존재하는 제 2 정보를 합성하는 단계를 더 포함하는 음성 출력 방법.
  17. 제 16항에 있어서,
    상기 핵심 정보의 재생성 여부를 결정하는 단계는 상기 합성된 정보에 대한 음성의 재생 예상 시간과 상기 재생 시간의 크기를 비교하여 상기 합성된 정보의 재생성 여부를 결정하는 단계를 포함하는 음성 출력 방법.
  18. 제 16항에 있어서,
    상기 제 2 정보는 광고 또는 안내 정보 중 적어도 하나를 포함하되,
    상기 안내 정보는 상기 네트워크 상에서 각종 정보를 제공하는 기기의 사용 허용 시간 및 사용 가능 서비스의 종류 중 적어도 하나를 포함하는 음성 출력 방법.
  19. 제 16항에 있어서,
    상기 합성된 정보의 형식은 텍스트를 포함하는 음성 출력 방법.
  20. 제 16항에 있어서,
    상기 핵심 정보를 생성하는 단계는
    상기 합성된 정보가 복수개인 경우, 상기 재생 시간 중에서 상기 각 합성된 정보에 할당되는 시간을 상기 각 합성된 정보의 크기 또는 사용자의 선호도에 따라 결정하는 단계를 포함하는 음성 출력 방법.
  21. 제 13항에 있어서,
    상기 (d) 단계는 상기 종류에 대응되도록 상기 배경 음악을 선택하는 단계를 포함하는 음성 출력 방법.
  22. 제 16항에 있어서,
    상기 (c) 단계는 상기 합성된 정보에 대한 음성을 생성하는 단계를 포함하는 음성 출력 방법.
  23. 제 13항에 있어서,
    상기 재생 시간은 시작 시간과 종료 시간이 입력된 경우 상기 시작 시간과 상기 종료 시간간의 시간 간격을 포함하는 음성 출력 방법.
  24. 제 13항에 있어서,
    상기 재생 시간은 출발지의 위치 정보와 목적지의 위치 정보가 입력된 경우, 상기 출발지에서 상기 목적지로 이동하는데 소요되는 예상 시간을 포함하는 음성 출력 방법.
KR1020060119988A 2006-11-30 2006-11-30 음성 출력 장치 및 방법 KR100849848B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060119988A KR100849848B1 (ko) 2006-11-30 2006-11-30 음성 출력 장치 및 방법
US11/980,525 US8050927B2 (en) 2006-11-30 2007-10-31 Apparatus and method for outputting voice relating to the preferences of a user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060119988A KR100849848B1 (ko) 2006-11-30 2006-11-30 음성 출력 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20080049438A KR20080049438A (ko) 2008-06-04
KR100849848B1 true KR100849848B1 (ko) 2008-08-01

Family

ID=39585204

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060119988A KR100849848B1 (ko) 2006-11-30 2006-11-30 음성 출력 장치 및 방법

Country Status (2)

Country Link
US (1) US8050927B2 (ko)
KR (1) KR100849848B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101138874B1 (ko) * 2011-07-21 2012-05-14 액세스모바일 (주) 전화망을 이용한 멀티미디어 메시지 서비스 제공 시스템 및 그를 이용한 멀티미디어 메시지 서비스 제공 방법
JP7287826B2 (ja) * 2019-04-22 2023-06-06 任天堂株式会社 音声処理プログラム、音声処理システム、音声処理装置、および音声処理方法
CN113257236B (zh) * 2020-04-30 2022-03-29 浙江大学 一种基于核心帧筛选的模型得分优化方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000051460A (ko) * 1999-01-22 2000-08-16 이세제 텍스트/음성 변환을 이용한 인터넷 시스템 및 인터넷 데이터 서비스 방법
KR20030069472A (ko) * 2002-02-20 2003-08-27 주식회사 엘지이아이 보이스 웹 브라우저 구현 장치 및 방법
KR20050040638A (ko) * 2003-10-29 2005-05-03 한국전자통신연구원 음성지원 브라우저의 웹 문서 본문 추출방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006241A (en) * 1997-03-14 1999-12-21 Microsoft Corporation Production of a video stream with synchronized annotations over a computer network
US7664864B2 (en) * 1998-11-13 2010-02-16 Verisign, Inc. Meta content distribution network
KR100388777B1 (ko) * 2000-02-10 2003-06-25 아이티이 주식회사 통신망에서 음성 콘텐츠를 이용한 타겟 광고방법 및 그시스템
KR20010008385A (ko) * 2000-11-30 2001-02-05 홍순기 디지털 무선 통신망을 이용한 음성맞춤정보 제공방법,음성맞춤정보 제공시스템 및 음성맞춤정보 수신단말기
JP2003131700A (ja) * 2001-10-23 2003-05-09 Matsushita Electric Ind Co Ltd 音声情報出力装置及びその方法
US8307273B2 (en) * 2002-12-30 2012-11-06 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive network sharing of digital video content
US20050033657A1 (en) * 2003-07-25 2005-02-10 Keepmedia, Inc., A Delaware Corporation Personalized content management and presentation systems
JP4629560B2 (ja) * 2004-12-01 2011-02-09 本田技研工業株式会社 対話型情報システム
US20060143665A1 (en) * 2004-12-27 2006-06-29 Bellsouth Intellectual Property Corporation Features of VCR-type controls for interactive media
US7613690B2 (en) * 2005-10-21 2009-11-03 Aol Llc Real time query trends with multi-document summarization
US20070260460A1 (en) * 2006-05-05 2007-11-08 Hyatt Edward C Method and system for announcing audio and video content to a user of a mobile radio terminal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000051460A (ko) * 1999-01-22 2000-08-16 이세제 텍스트/음성 변환을 이용한 인터넷 시스템 및 인터넷 데이터 서비스 방법
KR20030069472A (ko) * 2002-02-20 2003-08-27 주식회사 엘지이아이 보이스 웹 브라우저 구현 장치 및 방법
KR20050040638A (ko) * 2003-10-29 2005-05-03 한국전자통신연구원 음성지원 브라우저의 웹 문서 본문 추출방법

Also Published As

Publication number Publication date
US8050927B2 (en) 2011-11-01
KR20080049438A (ko) 2008-06-04
US20080162139A1 (en) 2008-07-03

Similar Documents

Publication Publication Date Title
US10229669B2 (en) Apparatus, process, and program for combining speech and audio data
US10776422B2 (en) Dual sound source audio data processing method and apparatus
US7953504B2 (en) Method and apparatus for selecting an audio track based upon audio excerpts
US20100082328A1 (en) Systems and methods for speech preprocessing in text to speech synthesis
CN101496094B (zh) 浏览音乐的方法和系统
KR100676863B1 (ko) 음악 검색 서비스 제공 시스템 및 방법
JP2002358092A (ja) 音声合成システム
JP2000081892A (ja) 効果音付加装置および効果音付加方法
CN107247768A (zh) 语音点歌方法、装置、终端及存储介质
CN106888154B (zh) 音乐分享方法及系统
KR101156934B1 (ko) 키워드가 삽입된 녹음파일 생성 및 재생 방법과 그 휴대기기
KR20030059503A (ko) 사용자별 선호도에 따른 맞춤형 음악 서비스 시스템 및 방법
KR100849848B1 (ko) 음성 출력 장치 및 방법
KR20060091063A (ko) 음악 컨텐츠 분류 방법 그리고 이를 이용한 음악 컨텐츠 제공 시스템 및 그 방법
JPH11282857A (ja) 音声検索装置および記録媒体
KR101100191B1 (ko) 멀티미디어 재생장치와 이를 이용한 멀티미디어 자료검색방법
KR20090021041A (ko) 감성이 유사한 음악들을 제공하는 서비스 방법 및 시스템
Goto et al. PodCastle and Songle: Crowdsourcing-Based Web Services for Retrieval and Browsing of Speech and Music Content.
JP2010086273A (ja) 楽曲検索装置、楽曲検索方法、および楽曲検索プログラム
CN110400559A (zh) 一种音频合成的方法、装置及设备
KR20150112351A (ko) 음원 추천 장치 및 방법
KR20070048484A (ko) 음악파일 자동 분류를 위한 특징 데이터베이스 생성 장치및 그 방법과, 그를 이용한 재생 목록 자동 생성 장치 및그 방법
Borjian A survey on query-by-example based music information retrieval
JP6393219B2 (ja) 音声入力装置及びコンピュータプログラム
KR20180063814A (ko) 청각적인 수단을 이용하여 메타데이터를 제공하는 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130627

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140627

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150629

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160629

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20170629

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190627

Year of fee payment: 12