KR20170086814A - 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법 - Google Patents
음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법 Download PDFInfo
- Publication number
- KR20170086814A KR20170086814A KR1020160006292A KR20160006292A KR20170086814A KR 20170086814 A KR20170086814 A KR 20170086814A KR 1020160006292 A KR1020160006292 A KR 1020160006292A KR 20160006292 A KR20160006292 A KR 20160006292A KR 20170086814 A KR20170086814 A KR 20170086814A
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- electronic device
- determined
- signal
- function
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000004044 response Effects 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims description 194
- 230000015654 memory Effects 0.000 claims description 76
- 238000004891 communication Methods 0.000 claims description 71
- 230000009471 action Effects 0.000 claims description 18
- 230000003213 activating effect Effects 0.000 claims description 9
- 230000003542 behavioural effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 53
- 238000010586 diagram Methods 0.000 description 15
- 230000001960 triggered effect Effects 0.000 description 10
- 230000001413 cellular effect Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000008103 glucose Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- -1 electricity Substances 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
- Artificial Intelligence (AREA)
Abstract
전자 장치의 동작 방법이 개시된다. 일 실시예에 의한 전자 장치의 동작 방법은 상기 적어도 하나의 외부 장치로부터, 음성 인식을 트리거하기 위한 요청을 포함하는 제1 신호를 수신하는 동작, 제1 신호에 응답하여, 음성 인식을 지원하는 프로그램을 트리거하는 동작, 사용자의 음성에 대응하는 음성 데이터를 포함하는 제2 신호를 수신하는 동작, 수신된 음성 데이터를 음성 인식하는 동작, 인식된 음성에 대응하는 동작을 결정하는 동작, 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하는 동작 및 결정된 적어도 하나의 수행 장치가 결정된 동작을 수행하도록 하는 동작을 포함할 수 있다.
이외에도 다양한 다른 실시예들이 가능하다.
이외에도 다양한 다른 실시예들이 가능하다.
Description
본 발명의 다양한 실시예들은 전자 장치 및 그 동작 방법에 관한 것으로, 예를 들면, 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법에 관한 것이다.
휴대용 컴퓨팅 단말의 확산과 휴대용 컴퓨팅 단말을 지원해주는 클라우드 인프라의 확충에 맞물려서, 음성 인식 기술이 활용되고 있다.
음성 인식(voice recognition)이란 사람이 말하는 음성신호를 컴퓨터가 인식하고, 해석하는 기술이다. 그리고 음성 인식 기술은 텍스트 입력 장치 대신 음성으로 문자를 입력하는 방식으로 많이 사용되고 있다.
최근에는 음성 인식이 사람이 말하는 음성 언어를 텍스트로 바꾸는 것을 넘어서서, 음성 언어를 통해 명령을 수행하도록 할 수 있다.
음성 인식 기능을 제공하는 전자 장치는 다양한 외부 장치와 통신하여 동작할 수 있고, 음성 명령에 대응하는 기능이나 동작을 제공할 수 있다. 하지만, 전자 장치는 음성 명령에 따른 기능이나 동작을 전자 장치의 상태나 전자 장치와 통신하는 외부 장치의 상태를 고려하지 않고 수행하므로, 상황에 따른 적절한 동작을 제공하기 어려울 수 있다.
또한, 전자 장치와 통신하는 블루투스 장치와 같은 외부 장치를 통해 음성 명령을 수행하기 위해서는, 음성 인식 기능을 실행하기 위한 트리거 음성과 별도의 음성 명령을 각각 수신해야 할 수 있다. 예를 들어, 블루투스 장치의 물리적 버튼 등을 통해 음성 인식 기능을 실행하기 위한 트리거 음성 인식 후, 음성 인식 기능이 활성화되었다는 응답이 수신되면, 그 이후에 별도의 과정을 통해 음성 명령을 발화해야 할 수 있다. 사용자는 전자 장치의 음성 인식 기능을 활용하기까지 오랜 시간이 소요하게 되며, 반복되는 동작을 통해 번거로움을 느낄 수 있다.
본 발명의 다양한 실시예에서는, 전자 장치 및 외부 장치의 상태에 따라, 음성 명령에 대응하는 적절한 수행 장치를 판단할 수 있어서 음성 명령에 대응하는 적절한 기능이나 동작을 효과적으로 제공할 수 있다.
또한, 본 발명의 다양한 실시예에서는, 전자 장치의 음성 명령을 통해 기기를 제어하는 기능을 활용하기까지의 소요 시간을 단축시킬 수 있다.
본 발명의 다양한 실시예에서, 전자 장치는, 하우징; 상기 하우징 내에 위치하는 무선 통신 모듈; 마이크; 스피커; 상기 하우징의 적어도 일부를 통해 노출되는 디스플레이; 메모리; 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 메모리는 음성 인식을 지원하는 프로그램을 저장하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 무선 통신 모듈을 통해, 상기 음성 인식을 트리거하기 위한 요청을 포함하는 제1 신호를 수신하고, 상기 제1 신호에 응답하여, 상기 음성 인식을 지원하는 프로그램을 트리거하고, 상기 무선 통신 모듈을 통해, 사용자의 발화에 대응하는 음성 데이터를 포함하는 제2 신호를 수신하고, 상기 발화는 적어도 하나의 동사를 포함하나 상기 동사와 관련된 대상을 포함하지 않고, 상기 수신된 음성 데이터에 포함된 음성을 음성 인식하고, 상기 동사의 적어도 일부를 기초로, 상기 인식된 음성에 대응하는 동작을 결정하고, 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하고, 상기 결정된 적어도 하나의 수행 장치가 상기 결정된 동작을 수행하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 전자 장치의 동작 방법은, 적어도 하나의 외부 장치로부터, 음성 인식을 트리거하기 위한 요청을 포함하는 제1 신호를 수신하는 동작; 상기 제1 신호에 응답하여, 상기 음성 인식을 지원하는 프로그램을 트리거하는 동작; 사용자의 음성에 대응하는 음성 데이터를 포함하는 제2 신호를 수신하는 동작; 상기 수신된 음성 데이터를 음성 인식하는 동작; 상기 인식된 음성에 대응하는 동작을 결정하는 동작; 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하는 동작; 및 상기 결정된 적어도 하나의 수행 장치가 상기 결정된 동작을 수행하도록 하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에서, 전자 장치는, 메모리; 적어도 하나의 외부 장치와 통신하는 무선 통신 모듈; 및 상기 메모리 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 무선 통신 모듈을 통해 상기 적어도 하나의 외부 장치로부터, 트리거 음성 및 명령 음성을 포함하는 음성 신호를 수신하고, 상기 트리거 음성을 기초로 음성 기능을 활성화하고, 상기 활성화된 음성 기능을 기초로, 상기 명령 음성을 인식하고, 상기 인식된 명령 음성에 대응하는 기능을 판단하고, 상기 판단된 기능을 수행하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 전자 장치의 동작 방법은, 적어도 하나의 외부 장치로부터, 트리거 음성 및 명령 음성을 포함하는 음성 신호를 수신하는 동작; 상기 트리거 음성을 기초로 음성 기능을 활성화하는 동작; 상기 활성화된 음성 기능을 기초로, 상기 명령 음성을 인식하는 동작; 상기 인식된 명령 음성에 대응하는 기능을 판단하는 동작; 및 상기 판단된 기능을 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따라, 전자 장치 및 외부 장치의 상태에 따라 음성 명령에 대응하는 적절한 기능이나 동작을 효과적으로 제공할 수 있다. 이에 따라 음성 명령에 따른 피드백을 효율적으로 제공할 수 있다.
또한, 본 발명은 전자 장치의 음성 인식 기능을 활용하기까지 소요되는 소요 시간을 단축시켜 사용자 편의성을 증가시킬 수 있다.
또한, 본 발명은 전자 장치와 통신하는 외부 장치를 효과적으로 활용하여 음성 인식 기능을 제공할 수 있다.
또한, 본 발명은 사용자의 음성 발화에 따른 음성 인식률을 향상시킬 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자 장치 및 네트워크의 블록도를 도시한다.
도 2는 본 발명의 다양한 실시예에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 다양한 실시예에 따른 프로그램 모듈의 블록도이다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치와 연결되는 오디오 장치의 구성을 나타내는 블록도이다.
도 5a 내지 도 5c는 본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 6은 본 발명의 다양한 실시예에 따른 수행 장치 판단에 대한 흐름도이다.
도 7은 본 발명의 다양한 실시예에 따른 판단된 수행 장치에 따른 동작의 예시도이다.
도 8은 본 발명의 다양한 실시예에 따른 판단된 수행 장치에 따른 동작의 예시도이다.
도 9는 본 발명의 다양한 실시예에 따른 수행 장치 판단에 대한 흐름도이다.
도 10은 본 발명의 다양한 실시예에 따른 음성 인식 모델 업데이트에 대한 흐름도이다.
도 11은 본 발명의 다양한 실시예에 따른 전자 장치의 인식 가능한 음성을 획득하기 위한 동작 방법에 대한 흐름도이다.
도 2는 본 발명의 다양한 실시예에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 다양한 실시예에 따른 프로그램 모듈의 블록도이다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치와 연결되는 오디오 장치의 구성을 나타내는 블록도이다.
도 5a 내지 도 5c는 본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 6은 본 발명의 다양한 실시예에 따른 수행 장치 판단에 대한 흐름도이다.
도 7은 본 발명의 다양한 실시예에 따른 판단된 수행 장치에 따른 동작의 예시도이다.
도 8은 본 발명의 다양한 실시예에 따른 판단된 수행 장치에 따른 동작의 예시도이다.
도 9는 본 발명의 다양한 실시예에 따른 수행 장치 판단에 대한 흐름도이다.
도 10은 본 발명의 다양한 실시예에 따른 음성 인식 모델 업데이트에 대한 흐름도이다.
도 11은 본 발명의 다양한 실시예에 따른 전자 장치의 인식 가능한 음성을 획득하기 위한 동작 방법에 대한 흐름도이다.
이하, 본 문서의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어(operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1을 참조하여, 다양한 실시예에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 모듈(170)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(110)는, 예를 들면, 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(120)는, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(application programming interface(API))(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템(operating system(OS))으로 지칭될 수 있다.
커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다.
또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여할 수 있다. 예컨대, 미들웨어(143)는 적어도 하나에 부여된 우선 순위에 따라 하나 이상의 작업 요청들을 처리함으로써, 하나 이상의 작업 요청들에 대한 스케쥴링 또는 로드 밸런싱 등을 수행할 수 있다.
API(145)는, 예를 들면, 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스(150)는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 모듈(170)은, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 모듈(170)은 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용할 수 있다. 또한, 무선 통신은, 예를 들면, 근거리 통신(164)을 포함할 수 있다. 근거리 통신(164)은, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), 또는 GNSS(global navigation satellite system) 등 중 적어도 하나를 포함할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system 중 적어도 하나를 포함할 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 혼용되어 사용(interchangeably used)될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(462)는 통신 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 망(telephone network) 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 한 실시예에 따르면, 서버(106)는 하나 또는 그 이상의 서버들의 그룹을 포함할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(201)의 블록도이다. 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP(application processor))(210), 통신 모듈(220), 가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다.
프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210)는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈(220)은, 도 1의 통신 모듈(170)과 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(228) 및 RF(radio frequency) 모듈(229)를 포함할 수 있다.
셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈(240)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(touch panel)(252),(디지털) 펜 센서(pen sensor)(254), 키(key)(256), 또는 초음파(ultrasonic) 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 포함할 수 있다. 패널(262)은, 도 1의 디스플레이(160)와 동일 또는 유사한 구성을 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 디스플레이(260)는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스(270)는, 예를 들면, HDMI(high-definition multimedia interface)(272), USB(universal serial bus)(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 모듈(170)에 포함될 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(150)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치(201)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다. 한 실시예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제(operating system(OS)) 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.
프로그램 모듈(310)은 커널(320), 미들웨어(330), 어플리케이션 프로그래밍 인터페이스(application programming interface (API))(360), 및/또는 어플리케이션(370)을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드(preload) 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드(download) 가능하다.
커널(320)(예: 커널(141))은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다.
미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330)(예: 미들웨어(143))는 런타임 라이브러리(335), 어플리케이션 매니저(application manager)(341), 윈도우 매니저(window manager)(342), 멀티미디어 매니저(multimedia manager)(343), 리소스 매니저(resource manager)(344), 파워 매니저(power manager)(345), 데이터베이스 매니저(database manager)(346), 패키지 매니저(package manager)(347), 연결 매니저(connectivity manager)(348), 통지 매니저(notification manager)(349), 위치 매니저(location manager)(350), 그래픽 매니저(graphic manager)(351), 또는 보안 매니저(security manager)(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.
어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370) 중 적어도 하나의 어플리케이션의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370) 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.
파워 매니저(345)는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저(346)는 어플리케이션(370) 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.
연결 매니저(348)는, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저(349)는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저(350)는 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시예에 따르면, 전자 장치(예: 전자 장치(101))가 전화 기능을 포함한 경우, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.
미들웨어(330)는 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 미들웨어(330)는 차별화된 기능을 제공하기 위해 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.
API(360)(예: API(145))는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)(예: 어플리케이션 프로그램(147))은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 또는 시계(384), 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 수행할 수 있는 하나 이상의 어플리케이션을 포함할 수 있다.
한 실시예에 따르면, 어플리케이션(370)은 전자 장치(예: 전자 장치(101))와 외부 전자 장치(예: 전자 장치(102, 104)) 사이의 정보 교환을 지원하는 어플리케이션(이하, 설명의 편의 상, "정보 교환 어플리케이션")을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션, 또는 환경 정보 어플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치(예: 전자 장치(102, 104))로 전달하는 기능을 포함할 수 있다. 또한, 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치(예: 전자 장치(102, 104))의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 외부 전자 장치에서 동작하는 어플리케이션 또는 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스 등)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.
한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치(예: 전자 장치(102, 104))의 속성(에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션 등)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치(예: 서버(106) 또는 전자 장치(102, 104))로부터 수신된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 프리로드 어플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 어플리케이션(third party application)을 포함할 수 있다. 도시된 실시예에 따른 프로그램 모듈(310)의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다.
다양한 실시예에 따르면, 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 프로그램 모듈(310)의 적어도 일부는, 예를 들면, 프로세서(예: 프로세서(210))에 의해 구현(implement)(예: 실행)될 수 있다. 프로그램 모듈(310)의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치와 연결되는 오디오 장치의 구성을 나타내는 블록도이다.
도 4를 참조하면, 전자 장치(101)는 레벨 서비스 모듈(401), 음성 처리 모듈(403), 제어 모듈(405) 및 통신 모듈(407)을 포함할 수 있다.
레벨 서비스 모듈(401)은 오디오 장치(400)와 같은 외부 장치로부터 수신된 음성에서 트리거 음성과 음성 명령을 구분할 수 있고, 구분된 트리거 음성 및 명령 음성 각각이 인식될 수 있도록 후술할 음성 처리 모듈(403) 또는 제어 모듈(405)에 전달할 수 있다. 예를 들면, 레벨 서비스 모듈(401)은 음성 처리 모듈(403)이 음성 기능을 활성화하도록 트리거 음성을 전달한 후, 전달된 트리거 음성에 따라 음성 기능이 활성화되면, 명령 음성을 전달할 수 있다. 이에 대해서는 후술한다.
음성 처리 모듈(403)은 전달된 음성을 기초로, 음성 기능을 활성화할 수 있고, 명령 음성을 인식할 수 있다. 그리고 음성 처리 모듈(403)은 인식된 명령 음성에 대응하는 명령을 제어 모듈(405)에 전달할 수 있다.
제어 모듈(405)은 전달된 명령에 대응하는 기능을 판단할 수 있고, 판단된 기능에 대응하는 수행 장치도 판단할 수 있다. 또한, 제어 모듈(405)은 판단된 기능을 수행하기 위한 제어 신호인 피드백 신호를 생성할 수 있고, 생성된 피드백 신호를 수행 장치에 전달하도록 할 수 있다. 한편, 상술한 기능은 동작을 의미할 수도 있으며, 이에 따라 수행 장치는 판단된 기능에 대응하는 동작을 수행할 수도 있다.
통신 모듈(407)은 다른 장치, 예를 들면 오디오 장치(400), 서버(106)와 통신할 수 있다. 통신 모듈(407)은 상술한 통신 모듈(170, 220)에 대응할 수 있다.
레벨 서비스 모듈(401), 음성 처리 모듈(403), 제어 모듈(405) 각각은 하나의 프로세서로 구성될 수도 있고, 복수의 프로세서로 구성될 수도 있다. 또한, 레벨 서비스 모듈(401), 음성 처리 모듈(403), 제어 모듈(405)은 하나의 프로세서로 구성될 수도 있다.
전자 장치(101)와 연결되는 오디오 장치(400)는 마이크(410), 프로세서(430), 통신 모듈(450), 메모리(460) 및 스피커(470)을 포함할 수 있다. 여기서 오디오 장치(400)는 상술한 외부 전자 장치(102, 104)일 수 있다.
마이크(410)는 음성 또는 오디오를 획득할 수 있다. 마이크(410)는 상술한 마이크(288)에 대응할 수 있다. 마이크(410)는 동작에 따라 항상 턴-온 될 수도 있고, 입력 또는 조건에 따라 턴-온 될 수도 있다.
프로세서(430)는 오디오 장치(400)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 프로세서(430)는 상술한 프로세서(120, 210)에 대응할 수 있다.
통신 모듈(450)은 오디오 장치(400)와 전자 장치(101) 간의 통신을 설정할 수 있다. 예를 들면 통신 모듈(450)은 무선 통신 또는 유선 통신을 통해 전자 장치(101)와 통신할 수 있다. 통신 모듈(450)은 상술한 통신 모듈(220)에 대응할 수 있고, 상술한 통신 모듈(170)과 동일 또는 유사한 구성을 가질 수 있다.
메모리(460)는 다양한 데이터를 저장할 수 있다.
스피커(470)은 오디오를 출력할 수 있다. 스피커(470)는 상술한 스피커(282)에 대응할 수 있다.
다양한 실시예에 따른 전자 장치(101)는 오디오 장치(400)와 연결될 수 있고, 연결된 전자 장치(101)와 오디오 장치(400)는 서로 통신할 수 있다. 여기서 전자 장치(101)와 오디오 장치(400) 간의 연결은 무선 통신에 따른 연결을 의미할 수 있고, 유선 통신에 따른 연결을 의미할 수 있다. 이에 따라 전자 장치(101)와 오디오 장치(400) 각각은 다른 장치에 어떠한 기능이나 서비스를 요청할 수 있고, 요청된 기능이나 서비스를 수행할 수 있다.
예를 들면, 오디오 장치(400)는 전자 장치(101)로부터 수신된 오디오 신호를 기초로, 수신된 오디오 신호에 대응하는 오디오를 스피커(470)를 통해 출력할 수 있다. 다른 예로, 오디오 장치(400)는 마이크(410)를 통해 획득한 음성에 대한 음성 신호를 통신 모듈(450)을 통해 전자 장치(101)에 전송할 수 있다.
본 발명의 다양한 실시예에서, 전자 장치는, 하우징; 상기 하우징 내에 위치하는 무선 통신 모듈; 마이크; 스피커; 상기 하우징의 적어도 일부를 통해 노출되는 디스플레이; 메모리; 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 메모리는 음성 인식을 지원하는 프로그램을 저장하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 무선 통신 모듈을 통해, 상기 음성 인식을 트리거하기 위한 요청을 포함하는 제1 신호를 수신하고, 상기 제1 신호에 응답하여, 상기 음성 인식을 지원하는 프로그램을 트리거하고, 상기 무선 통신 모듈을 통해, 사용자의 발화에 대응하는 음성 데이터를 포함하는 제2 신호를 수신하고, 상기 발화는 적어도 하나의 동사를 포함하나 상기 동사와 관련된 대상을 포함하지 않고, 상기 수신된 음성 데이터에 포함된 음성을 음성 인식하고, 상기 동사의 적어도 일부를 기초로, 상기 인식된 음성에 대응하는 동작을 결정하고, 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하고, 상기 결정된 적어도 하나의 수행 장치가 상기 결정된 동작을 수행하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 동사와 관련된 대상은 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 동사의 특성에 대응하는 동작을 수행하는 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 결정된 동작의 특성에 대응하는 동작을 수행하는 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 수행 장치는 상기 전자 장치 및 상기 외부 장치 중 적어도 하나를 포함할 수 있고, 상기 외부 장치는 상기 제1 신호 및 제2 신호를 전송한 외부 장치 및 상기 제1 신호 및 제2 신호를 전송하지 않은 외부 장치 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 결정된 수행 장치는 상기 전자 장치이고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 디스플레이가 상기 결정된 동작에 대응하는 동작을 수행하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 결정된 수행 장치는 상기 제1 신호 및 제2 신호를 전송한 외부 장치이고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 제1 신호 및 제2 신호를 전송한 외부 장치에 오디오 데이터, 음성 데이터 중 적어도 하나를 포함하는 제3 신호를 전송하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 결정된 동작을 수행할 수 있는 복수의 후보 장치를, 상기 디스플레이, 상기 무선 통신 모듈 중 적어도 하나를 통해 제공하고, 상기 복수의 후보 장치 중 적어도 하나를 선택하는 입력을 획득하고, 상기 선택된 적어도 하나의 후보 장치 중에서, 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 전자 장치는, 메모리; 적어도 하나의 외부 장치와 통신하는 무선 통신 모듈; 및 상기 메모리 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 무선 통신 모듈을 통해 상기 적어도 하나의 외부 장치로부터, 트리거 음성 및 명령 음성을 포함하는 음성 신호를 수신하고, 상기 트리거 음성을 기초로 음성 기능을 활성화하고, 상기 활성화된 음성 기능을 기초로, 상기 명령 음성을 인식하고, 상기 인식된 명령 음성에 대응하는 기능을 판단하고, 상기 판단된 기능을 수행하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 판단된 기능을 수행하기 위한, 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 결정된 동작을 수행할 수 있는 복수의 후보 장치 중 상기 판단된 기능에 대응하는 적어도 하나의 후보 장치를 상기 적어도 하나의 수행 장치로 결정하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 결정된 동작을 수행할 수 있는 복수의 후보 장치 각각의 상태를 판단하고, 상기 판단된 복수의 후보 장치 각각의 상태를 기초로, 상기 판단된 기능을 수행하기 위한, 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에서, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 판단된 기능을 수행하도록 하는 피드백 신호를 상기 결정된 적어도 하나의 수행 장치에 전달하도록 하는 인스트럭션들을 저장할 수 있다.
도 5a 내지 도 5c를 참조하여 본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법을 설명한다.
도 5a는 본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 5a를 참조하면, 동작 511에서, 오디오 장치(400)는 사용자의 트리거 음성 및 명령 음성을 획득할 수 있다. 예를 들면, 오디오 장치(400)는 마이크(410)을 통해 사용자의 트리거 음성 및 명령 음성 신호를 획득할 수 있다. 여기서 트리거 음성 신호는 전자 장치(101)의 음성 기능을 활성화하기 위한 음성을 포함할 수 있다. 명령 음성 신호는 전자 장치(101), 외부 장치 중 적어도 하나가 어떠한 기능을 수행하도록 하기 위한 음성을 포함할 수 있다. 그리고 명령 음성은 명령과 관련된 대상, 예를 들면 명령에 따른 동작을 수행하는 외부 장치에 대한 내용을 포함하지 않을 수 있다.
동작 513에서, 오디오 장치(400)는 획득된 트리거 음성 및 명령 음성을 포함하는 음성 신호를 전자 장치(101)에 전송할 수 있다. 예를 들면, 오디오 장치(400)는 획득된 트리거 음성 및 명령 음성을 포함하는 음성 신호를 통신 모듈(450)을 통해 전자 장치(101)에 전송할 수 있다.
동작 515에서, 전자 장치(101)는, 예를 들면 레벨 서비스 모듈(401)은 전송된 음성에서 트리거 음성과 명령 음성을 구분할 수 있다. 예를 들면, 전자 장치(101)는 통신 모듈(220)을 통해 오디오 장치(400)가 전송한 음성 신호를 수신할 수 있다. 레벨 서비스 모듈(401)은 수신된 음성 신호에서 트리거 음성과 명령 음성을 구분할 수 있다. 한 실시예로, 레벨 서비스 모듈(401)은 트리거 음성 및 명령 음성을 포함하는 전체 음성에서, 미리 정해진 트리거 음성을 구분할 수 있고, 전체 음성 중 구분된 트리거 음성을 제외하여, 명령 음성을 구분할 수 있다.
동작 517에서, 전자 장치(101)는, 예를 들면 레벨 서비스 모듈(401)은 트리거 음성을 인식하도록, 트리거 음성을 음성 처리 모듈(403)에 전달할 수 있다. 예를 들면, 레벨 서비스 모듈(401)은 음성 처리 모듈(403)이 음성 기능을 활성화하도록, 트리거 음성을 음성 처리 모듈(403)에 전달할 수 있다.
동작 519에서, 전자 장치(101)는, 예를 들면 음성 처리 모듈(403)은 전달된 트리거 음성을 인식할 수 있다. 그리고 동작 521에서, 음성 처리 모듈(403)은 명령 음성을 인식할 수 있는 음성 기능을 활성화할 수 있다. 동작 523에서, 음성 처리 모듈(403)은 음성 인식이 가능함을 알리는 음성 인식 가능 응답 신호를 레벨 서비스 모듈(401)에 전달할 수 있다. 동작 525에서, 레벨 서비스 모듈(401)은 전달된 음성 인식 가능 응답 신호에 반응하여, 명령 음성을 음성 처리 모듈(403)에 전달할 수 있다.
동작 527에서, 음성 처리 모듈(403)은 전달된 명령 음성을 인식할 수 있다. 예를 들면, 음성 처리 모듈(403)은 전달된 명령 음성을 텍스트로 변환할 수 있고, 변환된 텍스트를 인식할 수 있다. 그리고 음성 처리 모듈(403)은 변환된 텍스트를 기초로, 명령 음성에 대응하는 명령을 인식할 수 있다. 동작 529에서, 음성 처리 모듈(403)은 인식된 명령을 제어 모듈(405)에 전달할 수 있다.
동작 531에서, 전자 장치(101)는, 예를 들면 제어 모듈(405)은 인식된 명령에 대응하는 기능을 판단할 수 있다. 예를 들면, 제어 모듈(405)은 음성 처리 모듈(403)으로부터 전달된, 인식된 명령에 대응하는 기능을 판단할 수 있다. 동작 533에서, 제어 모듈(405)은 판단된 기능에 대응하는 수행 장치를 판단할 수 있다. 예를 들면, 제어 모듈(405)은 판단된 기능을 수행할 수행 장치를 판단할 수 있다. 한 실시예로, 제어 모듈(405)은 판단된 기능을 수행할 수행 장치를 전자 장치(101), 오디오 장치(400)를 포함하는 외부 장치 중 하나 이상의 장치로 판단할 수 있다. 그리고 제어 모듈(405)는 판단된 기능을 수행할 장치를 인식된 명령에 포함된 동사의 특성, 판단된 기능 중 하나에 대응하는 동작을 수행할 수 있는 적어도 하나의 외부 장치로 판단할 수 있다.
동작 535에서, 전자 장치(101)는, 예를 들면 제어 모듈(405)은 판단된 기능에 대응하는 수행 장치에, 판단된 기능을 수행하도록 하기 위한 제어 신호인 피드백 신호를 전송할 수 있다. 한 실시예로, 제어 모듈(405)은 판단된 수행 장치가 오디오 장치(400)이면, 오디오 장치에 피드백 신호를 전송할 수 있다. 다른 실시예로, 제어 모듈(405)은 판단된 수행 장치가 전자 장치(101)이면, 판단된 기능에 대응하는 구성에 피드백 신호를 전달할 수 있다. 전자 장치(101)는 상술한 오디오 장치(400)이외에도, 판단된 기능을 수행하도록 하기 위한 피드백 신호를, 판단된 수행 장치인 외부 장치에 전송할 수 있다.
동작 537에서, 수행 장치인 오디오 장치(400)는 전송된 피드백 신호에 대응하는 기능인 오디오 출력을 수행할 수 있다. 한 실시예로, 오디오 장치(400)는 전송된 피드백 신호에 대응하여, 명령 음성에 대응하는 오디오를 출력할 수 있다.
한편, 판단된 수행 장치가 오디오 장치(400)가 아닌 경우, 상술한 바와 같이 판단된 수행 장치에 피드백 신호가 전송될 수 있고, 피드백 신호를 수신한 수행 장치는, 예를 들어 외부 장치는 전송된 피드백 신호에 대응하는 기능을 수행할 수 있다.
그리고 판단된 수행 장치가 전자 장치(101)인 경우, 상술한 바와 같이 판단된 기능에 대응하는 전자 장치(101)의 구성에 피드백 신호를 전달할 수 있고, 피드백 신호를 수신한 전자 장치(101)의 적어도 하나의 구성은 전송된 피드백 신호에 대응하는 기능을 수행할 수 있다.
도 5b는 본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 5b를 참조하면, 동작 541에서, 오디오 장치(400)는 사용자의 트리거 음성 및 명령 음성을 획득할 수 있다. 예를 들면, 오디오 장치(400)는 마이크(410)을 통해 사용자의 트리거 음성 및 명령 음성 신호를 획득할 수 있다. 여기서 트리거 음성신호는 전자 장치(101)의 음성 기능을 활성화하기 위한 음성을 포함할 수 있다. 명령 음성 신호는 전자 장치(101), 외부 장치 중 적어도 하나가 어떠한 기능을 수행하도록 하기 위한 음성을 포함할 수 있다.
동작 545에서, 오디오 장치(400)는, 예를 들면 프로세서(430)는 획득된 음성에서 트리거 음성과 명령 음성을 구분할 수 있다. 예를 들면, 프로세서(430)는 트리거 음성 및 명령 음성을 포함하는 전체 음성에서, 미리 정해진 트리거 음성을 구분할 수 있고, 전체 음성 중 구분된 트리거 음성을 제외하여, 명령 음성을 구분할 수 있다. 그리고 오디오 장치(400)는 구분된 트리거 음성, 명령 음성 중 적어도 하나에 대한 데이터를 메모리(460)에 저장할 수 있다. 예를 들면, 프로세서(430)는 구분된 트리거 음성, 명령 음성 중 적어도 하나에 대한 데이터를 메모리(460)에 저장할 수 있다.
동작 547에서, 오디오 장치(400)는 구분된 트리거 음성을 전자 장치(101)에 전송할 수 있다. 예를 들면, 오디오 장치(400)는 획득된 트리거 음성을 포함하는 제1 신호를 통신 모듈(450)을 통해 전자 장치(101)에 전송할 수 있다. 전송된 제1 신호는 전자 장치(101)의 통신 모듈(407)을 통해 음성 처리 모듈(403)에 전달될 수 있고, 레벨 서비스 모듈(401)을 거쳐서 음성 처리 모듈(403)에 전달될 수도 있다.
동작 549에서, 전자 장치(101)는, 예를 들면 음성 처리 모듈(403)은 전송된 제1 신호에 포함된 트리거 음성을 인식할 수 있다. 그리고 동작 551에서, 음성 처리 모듈(403)은 명령 음성을 인식할 수 있는 음성 기능을 활성화할 수 있다. 동작 553에서, 음성 처리 모듈(403)은 음성 인식이 가능함을 알리는 음성 인식 가능 응답 신호를 통신 모듈(407)을 통해 오디오 장치(400)에 전송할 수 있다.
동작 555에서, 오디오 장치(400)는 전송된 음성 인식 가능 응답 신호에 반응하여, 명령 음성을 전자 장치(101)에 전송할 수 있다. 예를 들면, 프로세서(430)는 통신 모듈(450)를 통해 전자 장치(101)의 음성 처리 모듈(403)에 명령 음성을 포함하는 제2 신호를 전송할 수 있다.
동작 557에서, 음성 처리 모듈(403)은 전송된 제2 신호에 포함된 명령 음성을 인식할 수 있다. 예를 들면, 음성 처리 모듈(403)은 전달된 명령 음성을 텍스트로 변환할 수 있고, 변환된 텍스트를 인식할 수 있다. 그리고 음성 처리 모듈(403)은 변환된 텍스트를 기초로, 명령 음성에 대응하는 명령을 인식할 수 있다. 동작 569에서, 음성 처리 모듈(403)은 인식된 명령을 제어 모듈(405)에 전달할 수 있다.
동작 561에서, 전자 장치(101)는, 예를 들면 제어 모듈(405)은 인식된 명령에 대응하는 기능을 판단할 수 있다. 예를 들면, 제어 모듈(405)은 음성 처리 모듈(403)으로부터 전달된, 인식된 명령에 대응하는 기능을 판단할 수 있다. 동작 563에서, 제어 모듈(405)은 판단된 기능에 대응하는 수행 장치를 판단할 수 있다. 예를 들면, 제어 모듈(405)은 판단된 기능을 수행할 수행 장치를 판단할 수 있다. 한 실시예로, 제어 모듈(405)은 판단된 기능을 수행할 수행 장치를 전자 장치(101), 오디오 장치(400)를 포함하는 외부 장치 중 하나 이상의 장치로 판단할 수 있다. 그리고 제어 모듈(405)는 판단된 기능을 수행할 장치를 인식된 명령에 포함된 동사의 특성, 판단된 기능 중 하나에 대응하는 동작을 수행할 수 있는 적어도 하나의 외부 장치로 판단할 수 있다.
동작 565에서, 전자 장치(101)는, 예를 들면 제어 모듈(405)은 판단된 기능에 대응하는 수행 장치에, 판단된 기능을 수행하도록 하기 위한 제어 신호인 피드백 신호를 전송할 수 있다. 한 실시예로, 제어 모듈(405)은 판단된 수행 장치가 오디오 장치(400)이면, 오디오 장치에 피드백 신호를 전송할 수 있다. 다른 실시예로, 제어 모듈(405)은 판단된 수행 장치가 전자 장치(101)이면, 판단된 기능에 대응하는 구성에 피드백 신호를 전달할 수 있다. 전자 장치(101)는 상술한 오디오 장치(400)이외에도, 판단된 기능을 수행하도록 하기 위한 피드백 신호를, 판단된 수행 장치인 외부 장치에 전송할 수 있다.
동작 567에서, 수행 장치인 오디오 장치(400)는 전송된 피드백 신호에 대응하는 기능인 오디오 출력을 수행할 수 있다. 한 실시예로, 오디오 장치(400)는 전송된 피드백 신호에 대응하여, 명령 음성에 대응하는 오디오를 출력할 수 있다.
한편, 판단된 수행 장치가 오디오 장치(400)가 아닌 경우, 상술한 바와 같이 판단된 수행 장치에 피드백 신호가 전송될 수 있고, 피드백 신호를 수신한 수행 장치는, 예를 들어 외부 장치는 전송된 피드백 신호에 대응하는 기능을 수행할 수 있다.
그리고 판단된 수행 장치가 전자 장치(101)인 경우, 상술한 바와 같이 판단된 기능에 대응하는 전자 장치(101)의 구성에 피드백 신호를 전달할 수 있고, 피드백 신호를 수신한 전자 장치(101)의 적어도 하나의 구성은 전송된 피드백 신호에 대응하는 기능을 수행할 수 있다.
도 5c는 본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 5c를 참조하면, 동작 571에서, 오디오 장치(400)는 사용자의 트리거 음성 및 명령 음성을 획득할 수 있다. 예를 들면, 오디오 장치(400)는 마이크(410)을 통해 사용자의 트리거 음성 및 명령 음성 신호를 획득할 수 있다. 여기서 트리거 음성신호는 전자 장치(101)의 음성 기능을 활성화하기 위한 음성을 포함할 수 있다. 명령 음성 신호는 전자 장치(101), 외부 장치 중 적어도 하나가 어떠한 기능을 수행하도록 하기 위한 음성을 포함할 수 있다.
동작 575에서, 오디오 장치(400)는, 예를 들면 프로세서(430)는 획득된 음성에서 트리거 음성과 명령 음성을 구분할 수 있다. 예를 들면, 프로세서(430)는 트리거 음성 및 명령 음성을 포함하는 전체 음성에서, 미리 정해진 트리거 음성을 구분할 수 있고, 전체 음성 중 구분된 트리거 음성을 제외하여, 명령 음성을 구분할 수 있다. 그리고 오디오 장치(400)는 구분된 트리거 음성, 명령 음성 중 적어도 하나에 대한 데이터를 메모리(460)에 저장할 수 있다. 예를 들면, 프로세서(430)는 구분된 트리거 음성, 명령 음성 중 적어도 하나에 대한 데이터를 메모리(460)에 저장할 수 있다.
동작 577에서, 오디오 장치(400)는 구분된 트리거 음성을 대응하는 트리거 신호를 전자 장치(101)에 전송할 수 있다. 예를 들면, 오디오 장치(400)는 획득된 트리거 음성에 대응하는 트리거 신호를 생성하여, 통신 모듈(450)을 통해 전자 장치(101)에 전송할 수 있다. 전송된 트리거 신호는 전자 장치(101)의 통신 모듈(407)을 통해 음성 처리 모듈(403)에 전달될 수 있고, 레벨 서비스 모듈(401)을 거쳐서 음성 처리 모듈(403)에 전달될 수도 있다. 여기서 트리거 신호는 제1 신호일 수 있거나, 제1 신호에 포함될 수 있다.
동작 581에서, 전자 장치(101)는, 예를 들면 음성 처리 모듈(403)은 전송된 트리거 음성을 기초로, 명령 음성을 인식할 수 있는 음성 기능을 활성화할 수 있다. 동작 583에서, 음성 처리 모듈(403)은 음성 인식이 가능함을 알리는 음성 인식 가능 응답 신호를 통신 모듈(407)을 통해 오디오 장치(400)에 전송할 수 있다.
동작 585에서, 오디오 장치(400)는 전송된 음성 인식 가능 응답 신호에 반응하여, 명령 음성을 전자 장치(101)에 전송할 수 있다. 예를 들면, 프로세서(430)는 통신 모듈(450)를 통해 전자 장치(101)의 음성 처리 모듈(403)에 명령 음성을 포함하는 제2 신호를 전송할 수 있다.
동작 587에서, 음성 처리 모듈(403)은 전송된 제2 신호에 포함된 명령 음성을 인식할 수 있다. 예를 들면, 음성 처리 모듈(403)은 전달된 명령 음성을 텍스트로 변환할 수 있고, 변환된 텍스트를 인식할 수 있다. 그리고 음성 처리 모듈(403)은 변환된 텍스트를 기초로, 명령 음성에 대응하는 명령을 인식할 수 있다. 동작 589에서, 음성 처리 모듈(403)은 인식된 명령을 제어 모듈(405)에 전달할 수 있다.
동작 591에서, 전자 장치(101)는, 예를 들면 제어 모듈(405)은 인식된 명령에 대응하는 기능을 판단할 수 있다. 예를 들면, 제어 모듈(405)은 음성 처리 모듈(403)으로부터 전달된, 인식된 명령에 대응하는 기능을 판단할 수 있다. 동작 593에서, 제어 모듈(405)은 판단된 기능에 대응하는 수행 장치를 판단할 수 있다. 예를 들면, 제어 모듈(405)은 판단된 기능을 수행할 수행 장치를 판단할 수 있다. 한 실시예로, 제어 모듈(405)은 판단된 기능을 수행할 수행 장치를 전자 장치(101), 오디오 장치(400)를 포함하는 외부 장치 중 하나 이상의 장치로 판단할 수 있다. 그리고 제어 모듈(405)는 판단된 기능을 수행할 장치를 인식된 명령에 포함된 동사의 특성, 판단된 기능 중 하나에 대응하는 동작을 수행할 수 있는 적어도 하나의 외부 장치로 판단할 수 있다.
동작 595에서, 전자 장치(101)는, 예를 들면 제어 모듈(405)은 판단된 기능에 대응하는 수행 장치에, 판단된 기능을 수행하도록 하기 위한 제어 신호인 피드백 신호를 전송할 수 있다. 한 실시예로, 제어 모듈(405)은 판단된 수행 장치가 오디오 장치(400)이면, 오디오 장치에 피드백 신호를 전송할 수 있다. 다른 실시예로, 제어 모듈(405)은 판단된 수행 장치가 전자 장치(101)이면, 판단된 기능에 대응하는 구성에 피드백 신호를 전달할 수 있다. 전자 장치(101)는 상술한 오디오 장치(400)이외에도, 판단된 기능을 수행하도록 하기 위한 피드백 신호를, 판단된 수행 장치인 외부 장치에 전송할 수 있다.
동작 597에서, 수행 장치인 오디오 장치(400)는 전송된 피드백 신호에 대응하는 기능인 오디오 출력을 수행할 수 있다. 한 실시예로, 오디오 장치(400)는 전송된 피드백 신호에 대응하여, 명령 음성에 대응하는 오디오를 출력할 수 있다.
한편, 판단된 수행 장치가 오디오 장치(400)가 아닌 경우, 상술한 바와 같이 판단된 수행 장치에 피드백 신호가 전송될 수 있고, 피드백 신호를 수신한 수행 장치는, 예를 들어 외부 장치는 전송된 피드백 신호에 대응하는 기능을 수행할 수 있다.
그리고 판단된 수행 장치가 전자 장치(101)인 경우, 상술한 바와 같이 판단된 기능에 대응하는 전자 장치(101)의 구성에 피드백 신호를 전달할 수 있고, 피드백 신호를 수신한 전자 장치(101)의 적어도 하나의 구성은 전송된 피드백 신호에 대응하는 기능을 수행할 수 있다.
도 6을 참조하여, 본원 발명의 다양한 실시예에 따른 전자 장치(101)의 판단된 기능에 대응하는 수행 장치 판단에 대해 상세히 설명한다.
도 6은 본 발명의 다양한 실시예에 따른 수행 장치 판단에 대한 흐름도이다.
도 6을 참조하면, 동작 610에서, 전자 장치(101)는 트리거 음성 및 명령 음성을 획득할 수 있다. 한 실시예로, 전자 장치(101)는 외부 장치, 예를 들면 오디오 장치(400)로부터 트리거 음성 및 명령 음성을 포함하는 음성 신호를 수신할 수 있고, 수신된 음성 신호를 기초로 트리거 음성 및 명령 음성을 획득할 수 있다. 다른 실시예로, 전자 장치(101)는 전자 장치(101)에 구비된 마이크(288)를 통해 트리거 음성 및 명령 음성을 획득할 수도 있다.
동작 630에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 획득된 음성에 대응하는 기능을 판단할 수 있다. 한 실시예로, 프로세서(120, 210)는 획득된 트리거 음성 및 명령 음성에서, 트리거 음성을 인식할 수 있고, 인식된 트리거 음성을 기초로 음성 기능을 활성화할 수 있다. 프로세서(120, 210)는 활성화된 음성 기능을 기초로, 획득된 명령 음성을 인식할 수 있다. 그리고 프로세서(120, 210)는 인식된 명령 음성의 명령에 대응하는 기능을 판단할 수 있다.
동작 650에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 복수의 수행 장치 중 판단된 기능에 대응하는 적어도 하나의 수행 장치를 판단할 수 있다. 예를 들면, 프로세서(120, 210)는 전자 장치(101), 외부 장치 중에서 적어도 하나를, 판단된 기능에 대응하는 적어도 하나의 수행 장치로 판단할 수 있다. 여기서 외부 장치는 전자 장치(101)와 통신할 수 있는 다양한 장치가 포함될 수 있다. 그리고 프로세서(120, 210)는 판단된 기능을 수행할 장치를 인식된 명령에 포함된 동사의 특성, 판단된 기능 중 하나에 대응하는 동작을 수행할 수 있는 적어도 하나의 외부 장치로 판단할 수 있다.
한 실시예로, 프로세서(120, 210)는 판단된 기능이 디스플레이 기능인 경우, 디스플레이를 구비한 장치를 수행 장치로 판단할 수 있다. 한 실시예로, 프로세서(120, 210)는 판단된 기능이 디스플레이에 표시하는 기능인 경우, 디스플레이(260)를 구비한 전자 장치(101)를 수행 장치로 판단할 수 있다.
또 다른 실시예로, 프로세서(120, 210)는 판단된 기능이 오디오 출력 기능인 경우, 스피커를 구비한 장치를 수행 장치로 판단할 수 있다. 한 실시예로, 프로세서(120, 210)는 판단된 기능이 오디오 출력 기능인 경우이고, 명령 음성이 오디오 장치(400)로부터 수신 경우, 오디오 장치(400)를 수행 장치로 판단할 수 있다. 다른 실시예로, 프로세서(120, 210)는 판단된 기능이 오디오 출력 기능인 경우이고, 전자 장치(101)의 마이크(288)를 통해 명령 음성을 획득한 경우, 전자 장치(101)를 수행 장치로 판단할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(101)는 결정된 동작을 수행할 수 있는 복수의 후보 장치 중 적어도 하나의 후보 장치를 선택하는 입력을 획득할 수 있다. 전자 장치(101)는 선택된 적어도 하나의 후보 장치 중에서, 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정할 수 있다. 예를 들면, 전자 장치(101)는 적어도 하나의 후보 장치 각각의 장치 정보를 획득하고, 획득된 장치 정보를 저장할 수 있다. 전자 장치(101)는 저장된 장치 정보를 기초로, 적어도 하나의 후보 장치 중에서, 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정할 수 있다. 여기서 장치 정보는 각각의 후보 장치와 관련된 다양한 정보를 포함할 수 있다. 예를 들면, 장치 정보는 후보 장치의 기능과 관련된 다양한 정보를 포함할 수 있다.
한 실시예로, 전자 장치(101)는 결정된 동작을 수행할 수 있는 복수의 후보 장치인 전자 장치(101) 및 오디오 장치(400) 중에서 적어도 하나의 후보 장치를 선택하는 입력을 획득할 수 있다. 전자 장치(101)는 획득된 입력을 기초로, 선택된 후보 장치 중에서, 결정된 동작을 수행하는 수행 장치를 결정할 수 있다. 예를 들어 전자 장치(101)는 선택된 후보 장치가 전자 장치(101)이면, 전자 장치를 결정된 동작을 수행하는 수행 장치로 결정할 수 있다.
동작 670에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 판단된 수행 장치에 판단된 기능을 수행하기 위한 제어 신호인 피드백 신호를 전달할 수 있다. 이에 따라 피드백 신호를 전달 받은 수행 장치는 피드백 신호에 대응하는 기능을 수행할 수 있다.
한 실시예로, 프로세서(120, 210)는 복수의 수행 장치 중 판단된 기능에 대응하는 적어도 하나의 수행 장치를 외부 장치인 오디오 장치(400)로 판단한 경우, 오디오 장치(400)에 판단된 기능을 수행하기 위한 제어 신호인 피드백 신호를 전송할 수 있다. 오디오 장치(400)는 전송된 피드백 신호에 대응하는 오디오를 출력할 수 있다.
다른 실시예로, 프로세서(120, 210)는 복수의 수행 장치 중 판단된 기능에 대응하는 적어도 하나의 수행 장치를 전자 장치(101)로 판단한 경우, 판단된 기능에 대응하는 전자 장치(101)의 구성에 판단된 기능을 수행하기 위한 제어 신호인 피드백 신호를 전달할 수 있다. 예를 들어, 프로세서(120, 210)는 판단된 기능이 디스플레이 기능인 경우, 디스플레이(260)에 판단된 기능에 대응하는 영상을 표시하도록 피드백 신호를 전달할 수 있다. 그리고 디스플레이(260)는 전달된 피드백 신호에 대응하는 영상을 표시할 수 있다.
판단된 수행 장치에 따른 동작을 도 7 내지 도 8을 참조하여 설명한다.
도 7은 본 발명의 다양한 실시예에 따른 판단된 수행 장치에 따른 동작의 예시도이다.
도 7을 참조하면, 전자 장치(101)는 "오늘 날씨 보여줘"라는 명령 음성을 획득한 경우, 획득된 명령 음성에 따른 기능을 디스플레이 기능으로 판단할 수 있다. 그리고 전자 장치(101)는 획득된 명령 음성에 대응하여, 오늘 날씨에 대한 정보를 획득할 수 있다. 전자 장치(101)의 프로세서(120, 210)는 디스플레이(260)이 오늘 날씨에 대한 영상(700)을 표시하도록 할 수 있다. 이에 따라 전자 장치(101)의 디스플레이(260)는 오늘 날씨에 대한 영상(700)을 표시할 수 있다.
도 8은 본 발명의 다양한 실시예에 따른 판단된 수행 장치에 따른 동작의 예시도이다.
도 8을 참조하면, 전자 장치(101)는 "오늘 날씨 들려줘"라는 명령 음성을 획득한 경우, 획득된 명령 음성에 따른 기능을 오디오 출력 기능으로 판단할 수 있다. 그리고 전자 장치(101)는 획득된 명령 음성에 대응하여, 오늘 날씨에 대한 정보를 획득할 수 있다. 전자 장치(101)의 프로세서(120, 210)는 오디오 장치(400)가 오늘 날씨에 대한 음성(810)을 출력할 수 있도록, 피드백 신호를 오디오 장치(400)에 전송할 수 있다. 오디오 장치(400)는 전송된 피드백 신호를 기초로, 오늘 날씨에 대한 음성(810)을 출력할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(101)는 적어도 하나의 수행 장치의 상태를 판단하여, 판단된 상태를 기초로 판단된 기능을 수행할 적어도 하나의 수행 장치를 판단할 수 있다. 이하, 도 9를 참조하여 설명한다.
도 9는 본 발명의 다양한 실시예에 따른 수행 장치 판단에 대한 흐름도이다.
도 9를 참조하면, 동작 910에서, 전자 장치(101)는 트리거 음성 및 명령 음성을 획득할 수 있다. 한 실시예로, 전자 장치(101)는 외부 장치, 예를 들면 오디오 장치(400)로부터 트리거 음성 및 명령 음성을 포함하는 음성 신호를 수신할 수 있고, 수신된 음성 신호를 기초로 트리거 음성 및 명령 음성을 획득할 수 있다. 다른 실시예로, 전자 장치(101)는 전자 장치(101)에 구비된 마이크(288)를 통해 트리거 음성 및 명령 음성을 획득할 수도 있다.
동작 930에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 획득된 음성에 대응하는 기능을 판단할 수 있다. 한 실시예로, 프로세서(120, 210)는 획득된 트리거 음성 및 명령 음성에서, 트리거 음성을 인식할 수 있고, 인식된 트리거 음성을 기초로 음성 기능을 활성화할 수 있다. 프로세서(120, 210)는 활성화된 음성 기능을 기초로, 획득된 명령 음성을 인식할 수 있다. 그리고 프로세서(120, 210)는 인식된 명령 음성의 명령에 대응하는 기능을 판단할 수 있다.
동작 950에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 명령 음성에 따른 기능을 수행할 수 있는 복수의 수행 장치 각각의 상태를 판단할 수 있다. 예를 들면, 프로세서(120, 210)는 복수의 수행 장치인 전자 장치(101), 외부 장치(예: 오디오 장치(400)) 각각의 상태를 판단할 수 있다.
한 실시예로, 프로세서(120, 210)는 전자 장치(101)의 커버(미도시)가 전자 장치(101)의 디스플레이(260)을 덮고 있는지 판단할 수 있다. 프로세서(120, 210)는 전자 장치(101)의 커버에 대응하는 센서를 통해 센싱한 센싱값을 기초로, 커버가 디스플레이(260)을 덮고 있는지 판단할 수 있다.
다른 예로, 프로세서(120, 210)는 전자 장치(101)와 오디오 장치(400) 간의 거리를 판단할 수 있다. 프로세서(120, 210)는 전자 장치(101)와 오디오 장치(400) 간의 수신된 신호 수신 감도, 예를 들면 RSSI(received signal strength indication)를 기초로, 전자 장치(101)와 오디오 장치(400) 간의 거리를 판단할 수 있다.
상술한 설명 이외에도 전자 장치(101)는 명령 음성에 따른 기능을 수행할 수 있는 복수의 수행 장치 각각과 관련된 다양한 상태를 판단할 수 있다.
동작 970에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 판단된 복수의 수행 장치 각각의 상태를 기초로, 판단된 기능을 수행할 적어도 하나의 수행 장치를 판단할 수 있다.
한 실시예로, 프로세서(120, 210)는 전자 장치(101)의 커버(미도시)가 전자 장치(101)의 디스플레이(260)을 덮고 있는 경우, 판단된 기능인 디스플레이 기능에 대응하여, 디스플레이를 구비한 외부 장치를 판단된 기능을 수행할 수행 장치로 판단할 수 있다. 또는 프로세서(120, 210)는 전자 장치(101)의 커버(미도시)가 전자 장치(101)의 디스플레이(260)를 덮고 있지 않은 경우, 판단된 기능인 디스플레이 기능에 대응하여, 디스플레이(260)를 구비한 전자 장치(101)를 수행 장치로 판단할 수 있다.
다른 실시예로, 프로세서(120, 210)는 전자 장치(101)와 오디오 장치(400) 간의 거리가 기준 거리 이내이면, 판단된 기능인 오디오 출력 기능에 대응하여, 전자 장치(101) 및 오디오 장치(400)를 수행 장치로 판단할 수 있다. 또는 프로세서(120, 210)는 전자 장치(101)와 오디오 장치(400) 간의 거리가 기준 거리 이상이면, 판단된 기능인 오디오 출력 기능에 대응하여, 오디오 장치(400)를 수행 장치로 판단할 수 있다.
상술한 설명 이외에도 전자 장치(101)는 판단된 복수의 수행 장치 각각의 상태를 기초로, 판단된 기능을 수행할 수행 장치를 판단할 수 있다.
동작 990에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 판단된 수행 장치에 판단된 기능을 수행하기 위한 제어 신호인 피드백 신호를 전달할 수 있다. 이에 따라 피드백 신호를 전달 받은 수행 장치는 피드백 신호에 대응하는 기능을 수행할 수 있다.
한 실시예로, 프로세서(120, 210)는 복수의 수행 장치 중 판단된 기능에 대응하는 적어도 하나의 수행 장치를 외부 장치인 오디오 장치(400)로 판단한 경우, 오디오 장치(400)에 판단된 기능을 수행하기 위한 제어 신호인 피드백 신호를 전송할 수 있다. 오디오 장치(400)는 전송된 피드백 신호에 대응하는 오디오를 출력할 수 있다.
또 다른 실시예로, 프로세서(120, 210)는 복수의 수행 장치 중 판단된 기능에 대응하는 적어도 하나의 수행 장치를 전자 장치(101)로 판단한 경우, 판단된 기능에 대응하는 전자 장치(101)의 구성에, 판단된 기능을 수행하기 위한 제어 신호인 피드백 신호를 전달할 수 있다. 예를 들어, 프로세서(120, 210)는 판단된 기능이 디스플레이 기능인 경우, 디스플레이(260)에 판단된 기능에 대응하는 영상을 표시하도록 피드백 신호를 전달할 수 있다. 그리고 디스플레이(260)는 전달된 피드백 신호에 대응하는 영상을 표시할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(101)는 음성 인식과 관련된 정보를 포함하는 음성 인식 모델 업데이트 정보를 획득할 수 있고, 획득된 음성 인식 모델 업데이트 정보를 오디오 장치(400)에 전송할 수 있다. 이에 따라 전자 장치(101)는 통신하는 오디오 장치(400)가 음성 인식 모델 정보를 업데이트하도록 할 수 있다. 이에 대해 도 10을 참조하여 설명한다.
도 10은 본 발명의 다양한 실시예에 따른 음성 인식 모델 업데이트에 대한 흐름도이다.
도 10을 참조하면, 동작 1010에서, 전자 장치(101)의 제어 모듈(405)은 음성 인식 모델 업데이트 정보를 수신할 수 있다. 예를 들면, 제어 모듈(405)은 통신 모듈(220)을 통해 서버(106)으로부터 음성 인식 모델 업데이트 정보를 획득할 수 있다. 여기서 음성 인식 모델 업데이트 정보는 음성 인식 모델을 업데이트하기 위한 정보를 의미할 수 있다. 그리고 음성 인식 모델은 트리거 음성, 명령 음성에 대한 정보, 음성 인식 알고리즘 중 적어도 하나를 포함할 수 있다. 예를 들면 음성 인식 모델은 어쿠스틱 모델(acoustic model)을 포함할 수 있다. 다른 예로, 제어 모듈(405)은 음성 처리 모듈(403)로부터 음성 인식 모델 업데이트 정보를 수신할 수도 있다. 예를 들면, 음성 처리 모듈(403)은 마이크(288)를 통해 수신된 음성을 기초로 음성 인식 모델 업데이트 정보를 생성할 수 있고, 생성된 음성 인식 모델 업데이트 정보를 제어 모듈(405)에 전달할 수 있다.
동작 1012에서, 전자 장치(101)의 제어 모듈(405)는 수신된 음성 인식 모델 업데이트 정보를 레벨 서비스 모듈(401)에 전달할 수 있다.
동작 1014에서, 레벨 서비스 모듈(401)은 오디오 장치(400)에 음성 인식 모델 정보를 요청할 수 있다. 예를 들면, 레벨 서비스 모듈(401)은 오디오 장치(400)에 적용된 음성 인식 모델에 대한 정보를 요청하기 위한 요청 신호를 통신 모듈(220)를 통해 오디오 장치(400)에 전송할 수 있다.
동작 1016에서, 오디오 장치(400)는 수신된 요청 신호에 대응하는 응답 신호를 생성할 수 있다. 예를 들어, 오디오 장치(400)는 수신된 요청 신호에 대응하여, 오디오 장치(400)에 적용된 음성 인식 모델에 대한 정보를 포함하는 응답 신호를 생성할 수 있다. 동작 1018에서, 오디오 장치(400)는 생성된 응답 신호를 전자 장치(101)에 전송할 수 있다.
동작 1020에서, 전자 장치(101)의 레벨 서비스 모듈(510)은 전송된 응답 신호를 기초로, 음성 인식 모델 업데이트 수행 여부를 판단할 수 있다. 예를 들어, 레벨 서비스 모듈(510)은 오디오 장치(400)로부터 전송된 응답 신호를 기초로, 수신된 음성 인식 모델 업데이트 정보가 오디오 장치(400)에 적용된 음성 인식 모델보다 새로운 정보인지 판단할 수 있다. 그리고 레벨 서비스 모듈(510)은 수신된 음성 인식 모델 업데이트 정보가 오디오 장치(400)에 적용된 음성 인식 모델보다 새로운 정보이면, 오디오 장치(400)의 음성 인식 모델 업데이트가 필요한 것으로 판단할 수 있다. 레벨 서비스 모듈(510)은 수신된 음성 인식 모델 업데이트 정보가 오디오 장치(400)에 적용된 음성 인식 모델보다 새로운 정보가 아니면, 오디오 장치(400)의 음성 인식 모델 업데이트가 필요하지 않은 것으로 판단할 수 있다.
한편, 상술한 음성 인식 모델 정보 요청 및 응답 신호 수신에 대한 내용은 생략될 수 있으며, 전자 장치(101)의 레벨 서비스 모듈(510)은 메모리에 저장된, 오디오 장치(400)에 적용된 음성 인식 모델에 대한 정보를 기초로 음성 인식 모델 업데이트 수행 여부를 판단할 수도 있다. 예를 들면, 메모리(130, 230)은 오디오 장치(400)에 적용된 음성 인식 모델에 대한 정보를 저장할 수 있고, 저장된 정보를 레벨 서비스 모듈(510)에 제공할 수 있다. 이에 따라 레벨 서비스 모듈(510)은 저장된 음성 인식 모델 정보와 전달된 음성 인식 모델 업데이트 정보를 비교할 수 있다.
동작 1022에서, 전자 장치(101)의 레벨 서비스 모듈(401)은 업데이트 필요로 판단된 경우, 음성 인식 모델 업데이트 정보를 오디오 장치(400)에 전송할 수 있다. 레벨 서비스 모듈(401)은 전달된 음성 인식 모델 업데이트 정보를 오디오 장치(400)에 전달하기 위해 음성 인식 모델 업데이트 정보에 따른 음성 인식 모델을 변환 또는 변경할 수 있고, 오디오 장치(400)에서 업데이트를 수행할 수 있도록 음성 인식 모델 업데이트 정보에 따른 음성 인식 모델을 변환 또는 변경할 수 있다.
동작 1024에서, 오디오 장치(400)는 전송된 음성 인식 모델 업데이트 정보를 기초로, 음성 인식 모델을 업데이트할 수 있다. 이에 따라 오디오 장치(400)는 업데이트된 음성 인식 모델을 적용하여 동작할 수 있다.
한편, 오디오 장치(400)은 음성 인식 모델 업데이트 정보를 직접 수신하여 업데이트할 수도 있다. 전자 장치(101)의 처리 능력이 오디오 장치(400)의 처리 능력보다 높은 처리 능력을 가진 경우에는 상술한 바와 같이, 오디오 장치(400)는 전자 장치(101)로부터 음성 인식 모델 업데이트 정보를 수신하여 음성 인식 모델을 업데이트할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(101)는 획득된 트리거 음성 및 명령 음성 중 적어도 하나의 음성이 인식 가능한지 여부에 따라, 인식 가능한 음성을 획득하기 위한 정보를 출력할 수 있다. 이에 대해 도 11을 참조하여 설명한다.
도 11은 본 발명의 다양한 실시예에 따른 전자 장치의 인식 가능한 음성을 획득하기 위한 동작 방법에 대한 흐름도이다.
도 11을 참조하면, 동작 1110에서, 전자 장치(101)는 트리거 음성 및 명령 음성 중 적어도 하나를 획득할 수 있다. 한 실시예로, 전자 장치(101)는 외부 장치, 예를 들면 오디오 장치(400)로부터 트리거 음성 및 명령 음성 중 적어도 하나를 포함하는 음성 신호를 수신할 수 있고, 수신된 음성 신호를 기초로 트리거 음성 및 명령 음성을 획득할 수 있다. 다른 실시예로, 전자 장치(101)는 전자 장치(101)에 구비된 마이크(288)를 통해 트리거 음성 및 명령 음성 중 적어도 하나를 획득할 수도 있다. 또 다른 실시예로, 전자 장치(101)는 외부 장치 및 마이크(288) 각각을 통해 트리거 음성 및 명령 음성 중 적어도 하나를 획득하고, 외부 장치 및 마이크(288) 각각을 통해 획득된 음성을 선택 또는 조합하여, 트리거 음성 및 명령 음성 중 적어도 하나를 획득할 수도 있다.
동작 1120에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 획득된 음성에서 트리거 음성을 인식할 수 있다. 또한, 음성 처리 모듈(403)이 획득된 음성에서 트리거 음성을 인식할 수도 있다.
동작 1130에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 트리거 음성을 인식하면, 획득된 음성에서 명령 음성을 인식할 수 있다. 그리고 프로세서(120, 210)는 인식된 명령 음성에 대응하는 기능을 수행할 수 있다. 전자 장치(101)의 명령 음성 인식 및 기능 수행에 대해서는 상술한 바 있어 자세한 설명은 생략한다.
동작 1140에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 트리거 음성을 인식하지 못하면, 트리거 음성을 발화한 발화 횟수가 기준 횟수 이상인지 판단할 수 있다. 한 실시예로, 프로세서(120, 210)는 사용자가 발화한 횟수가 기준 횟수인 2회를 초과하는지 판단할 수 있다.
전자 장치(101)는 발화 횟수가 기준 횟수 미만이면, 다시 획득된 음성을 기초로 트리거 음성을 인식할 수 있다. 동작 1150에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 발화 횟수가 기준 횟수 이상이면, 획득된 음성에 대응하는 신호 대 잡음비가 기준값 이상인지 판단할 수 있다. 여기서 신호 대 잡음비는 획득된 음성에서, 사용자의 음성과 잡음(noise)의 비율을 의미할 수 있다. 예를 들면, 신호 대 잡음비는 SNR(signal to noise ratio)를 의미할 수 있다.
동작 1160에서, 전자 장치(101)는, 예를 들어 프로세서(120, 210)는 신호 대 잡음비가 기준값 이상이 아니면, 트리거 음성을 재등록하기 위한 동작을 수행할 수 있다. 한 실시예로, 전자 장치(101)는 트리거 음성을 재등록하기 위한 메뉴 화면을 디스플레이(160, 260)에 표시할 수 있고, 트리거 음성을 재등록하기 위한 안내 음성을 스피커(282), 오디오 장치(400) 중 하나 이상에 출력할 수 있다. 또한, 전자 장치(101)는 통신하는 다양한 외부 장치가 트리거 음성을 재등록하기 위한 메뉴 화면, 트리거 음성을 재등록하기 위한 안내 음성 중 적어도 하나를 출력하도록 할 수 있다.
동작 1170에서, 전자 장치(101)는 예를 들어 프로세서(120, 210)는 신호 대 잡음비가 기준값 이상이면, 트리거 음성 및 명령 음성 중 적어도 하나를 포함하는 음성을 발화하는 발화 장소를 변경하도록 하는 발화 장소 안내 화면을 표시할 수 있다. 한 실시예로, 전자 장치(101)는 발화 장소를 변경하도록 하는 발화 장소 안내 화면을 디스플레이(160, 260)에 표시할 수 있고, 발화 장소를 변경하도록 하는 발화 장소 안내 음성을 스피커(282), 오디오 장치(400) 중 하나 이상에 출력할 수 있다. 또한, 전자 장치(101)는 통신하는 다양한 외부 장치가 발화 장소 안내 화면, 발화 장소 안내 음성 중 적어도 하나를 출력하도록 할 수 있다. 또한, 전자 장치(101)는 발화 장소 변경에 대한 안내와 함께, 현재 발화되는 장소의 노이즈 값을 영상 또는 오디오 중 적어도 하나로 출력할 수도 있다.
상술한 바와 같이, 본 발명의 다양한 실시예에 따른 전자 장치(101)는 획득된 트리거 음성 및 명령 음성 중 적어도 하나의 인식 여부를 기초로, 음성 재등록 또는 발화 장소 변경 안내 동작을 수행할 수 있다.
본 발명의 다양한 실시예에서, 전자 장치의 동작 방법은, 적어도 하나의 외부 장치로부터, 음성 인식을 트리거하기 위한 요청을 포함하는 제1 신호를 수신하는 동작; 상기 제1 신호에 응답하여, 상기 음성 인식을 지원하는 프로그램을 트리거하는 동작; 사용자의 음성에 대응하는 음성 데이터를 포함하는 제2 신호를 수신하는 동작; 상기 수신된 음성 데이터를 음성 인식하는 동작; 상기 인식된 음성에 대응하는 동작을 결정하는 동작; 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하는 동작; 및 상기 결정된 적어도 하나의 수행 장치가 상기 결정된 동작을 수행하도록 하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 수행 장치는 상기 전자 장치 및 상기 외부 장치 중 적어도 하나를 포함할 수 있고, 상기 외부 장치는 상기 제1 신호 및 제2 신호를 전송한 외부 장치 및 상기 제1 신호 및 제2 신호를 전송하지 않은 외부 장치 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 결정된 수행 장치는 상기 전자 장치이고, 상기 결정된 동작을 수행하도록 하는 동작은 상기 전자 장치의 디스플레이가 상기 결정된 동작에 대응하는 동작을 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 결정된 수행 장치는 상기 제1 신호 및 제2 신호를 전송한 외부 장치이고, 상기 제1 신호 및 제2 신호를 전송한 외부 장치에 오디오 데이터, 음성 데이터 중 적어도 하나를 포함하는 제3 신호를 전송하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 적어도 하나의 수행 장치를 결정하는 동작은 상기 결정된 동작을 수행할 수 있는 복수의 후보 장치를, 상기 전자 장치의 디스플레이, 상기 적어도 하나의 외부 장치 중 적어도 하나를 통해 제공하는 동작과, 상기 복수의 후보 장치 중 적어도 하나를 선택하는 입력을 획득하는 동작과, 상기 선택된 적어도 하나의 후보 장치 중에서, 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에서, 전자 장치의 동작 방법은, 적어도 하나의 외부 장치로부터, 트리거 음성 및 명령 음성을 포함하는 음성 신호를 수신하는 동작; 상기 트리거 음성을 기초로 음성 기능을 활성화하는 동작; 상기 활성화된 음성 기능을 기초로, 상기 명령 음성을 인식하는 동작; 상기 인식된 명령 음성에 대응하는 기능을 판단하는 동작; 및 상기 판단된 기능을 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 판단된 기능을 수행하기 위한, 적어도 하나의 수행 장치를 결정하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 적어도 하나의 수행 장치를 결정하는 동작은 상기 결정된 동작을 수행할 수 있는 복수의 후보 장치 중 상기 판단된 기능에 대응하는 적어도 하나의 후보 장치를 상기 적어도 하나의 수행 장치로 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 적어도 하나의 수행 장치를 결정하는 동작은 상기 결정된 동작을 수행할 수 있는 복수의 후보 장치 각각의 상태를 판단하는 동작과, 상기 판단된 복수의 후보 장치 각각의 상태를 기초로, 상기 판단된 기능을 수행하기 위한, 적어도 하나의 수행 장치를 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에서, 상기 판단된 기능을 수행하도록 하는 피드백 신호를 상기 결정된 적어도 하나의 수행 장치에 전달하는 동작을 더 포함할 수 있다.
상술한 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면,"모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 명령어는, 프로세서(예: 프로세서(120))에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리(130)가 될 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 개시의 범위를 한정하는 것은 아니다. 따라서, 본 개시의 범위는, 본 개시의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.
Claims (23)
- 전자 장치에 있어서,
하우징;
상기 하우징 내에 위치하는 무선 통신 모듈;
마이크;
스피커;
상기 하우징의 적어도 일부를 통해 노출되는 디스플레이;
메모리; 및
상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
상기 메모리는 음성 인식을 지원하는 프로그램을 저장하고,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 무선 통신 모듈을 통해, 상기 음성 인식을 트리거하기 위한 요청을 포함하는 제1 신호를 수신하고,
상기 제1 신호에 응답하여, 상기 음성 인식을 지원하는 프로그램을 트리거하고,
상기 무선 통신 모듈을 통해, 사용자의 발화에 대응하는 음성 데이터를 포함하는 제2 신호를 수신하고, 상기 발화는 적어도 하나의 동사를 포함하나 상기 동사와 관련된 대상을 포함하지 않고,
상기 수신된 음성 데이터에 포함된 음성을 음성 인식하고,
상기 동사의 적어도 일부를 기초로, 상기 인식된 음성에 대응하는 동작을 결정하고,
상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하고,
상기 결정된 적어도 하나의 수행 장치가 상기 결정된 동작을 수행하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제1항에 있어서,
상기 동사와 관련된 대상은,
상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 포함하는
전자 장치.
- 제1항에 있어서,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 동사의 특성에 대응하는 동작을 수행하는 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제1항에 있어서,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 결정된 동작의 특성에 대응하는 동작을 수행하는 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제1항에 있어서,
상기 수행 장치는 상기 전자 장치 및 상기 외부 장치 중 적어도 하나를 포함할 수 있고,
상기 외부 장치는 상기 제1 신호 및 제2 신호를 전송한 외부 장치 및 상기 제1 신호 및 제2 신호를 전송하지 않은 외부 장치 중 적어도 하나를 포함하는
전자 장치.
- 제5항에 있어서,
상기 결정된 수행 장치는 상기 전자 장치이고,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 디스플레이가 상기 결정된 동작에 대응하는 동작을 수행하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제5항에 있어서,
상기 결정된 수행 장치는 상기 제1 신호 및 제2 신호를 전송한 외부 장치이고,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 제1 신호 및 제2 신호를 전송한 외부 장치에 오디오 데이터, 음성 데이터 중 적어도 하나를 포함하는 제3 신호를 전송하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제1항에 있어서,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 결정된 동작을 수행할 수 있는 복수의 후보 장치를, 상기 디스플레이, 상기 무선 통신 모듈 중 적어도 하나를 통해 제공하고,
상기 복수의 후보 장치 중 적어도 하나를 선택하는 입력을 획득하고,
상기 선택된 적어도 하나의 후보 장치 중에서, 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 적어도 하나의 외부 장치와 통신하는 전자 장치의 동작 방법에 있어서,
상기 적어도 하나의 외부 장치로부터, 음성 인식을 트리거하기 위한 요청을 포함하는 제1 신호를 수신하는 동작;
상기 제1 신호에 응답하여, 상기 음성 인식을 지원하는 프로그램을 트리거하는 동작;
사용자의 음성에 대응하는 음성 데이터를 포함하는 제2 신호를 수신하는 동작;
상기 수신된 음성 데이터를 음성 인식하는 동작;
상기 인식된 음성에 대응하는 동작을 결정하는 동작;
상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하는 동작; 및
상기 결정된 적어도 하나의 수행 장치가 상기 결정된 동작을 수행하도록 하는 동작을 포함하는
동작 방법.
- 제9항에 있어서,
상기 수행 장치는 상기 전자 장치 및 상기 외부 장치 중 적어도 하나를 포함할 수 있고,
상기 외부 장치는 상기 제1 신호 및 제2 신호를 전송한 외부 장치 및 상기 제1 신호 및 제2 신호를 전송하지 않은 외부 장치 중 적어도 하나를 포함하는
동작 방법.
- 제10항에 있어서,
상기 결정된 수행 장치는 상기 전자 장치이고,
상기 결정된 동작을 수행하도록 하는 동작은
상기 전자 장치의 디스플레이가 상기 결정된 동작에 대응하는 동작을 수행하는 동작을 포함하는
동작 방법.
- 제10항에 있어서,
상기 결정된 수행 장치는 상기 제1 신호 및 제2 신호를 전송한 외부 장치이고,
상기 제1 신호 및 제2 신호를 전송한 외부 장치에 오디오 데이터, 음성 데이터 중 적어도 하나를 포함하는 제3 신호를 전송하는 동작을 더 포함하는
동작 방법.
- 제9항에 있어서,
상기 적어도 하나의 수행 장치를 결정하는 동작은
상기 결정된 동작을 수행할 수 있는 복수의 후보 장치를, 상기 전자 장치의 디스플레이, 상기 적어도 하나의 외부 장치 중 적어도 하나를 통해 제공하는 동작과,
상기 복수의 후보 장치 중 적어도 하나를 선택하는 입력을 획득하는 동작과,
상기 선택된 적어도 하나의 후보 장치 중에서, 상기 결정된 동작을 수행하는 적어도 하나의 수행 장치를 결정하는 동작을 포함하는
동작 방법.
- 전자 장치에 있어서,
메모리;
적어도 하나의 외부 장치와 통신하는 무선 통신 모듈; 및
상기 메모리 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 무선 통신 모듈을 통해 상기 적어도 하나의 외부 장치로부터, 트리거 음성 및 명령 음성을 포함하는 음성 신호를 수신하고,
상기 트리거 음성을 기초로 음성 기능을 활성화하고,
상기 활성화된 음성 기능을 기초로, 상기 명령 음성을 인식하고,
상기 인식된 명령 음성에 대응하는 기능을 판단하고,
상기 판단된 기능을 수행하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제14항에 있어서,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 판단된 기능을 수행하기 위한, 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제15항에 있어서,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 결정된 동작을 수행할 수 있는 복수의 후보 장치 중 상기 판단된 기능에 대응하는 적어도 하나의 후보 장치를 상기 적어도 하나의 수행 장치로 결정하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제15항에 있어서,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 결정된 동작을 수행할 수 있는 복수의 후보 장치 각각의 상태를 판단하고,
상기 판단된 복수의 후보 장치 각각의 상태를 기초로, 상기 판단된 기능을 수행하기 위한, 적어도 하나의 수행 장치를 결정하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 제14항에 있어서,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 판단된 기능을 수행하도록 하는 피드백 신호를 상기 결정된 적어도 하나의 수행 장치에 전달하도록 하는 인스트럭션들을 저장하는
전자 장치.
- 적어도 하나의 외부 장치와 통신하는 전자 장치의 동작 방법에 있어서,
상기 적어도 하나의 외부 장치로부터, 트리거 음성 및 명령 음성을 포함하는 음성 신호를 수신하는 동작;
상기 트리거 음성을 기초로 음성 기능을 활성화하는 동작;
상기 활성화된 음성 기능을 기초로, 상기 명령 음성을 인식하는 동작;
상기 인식된 명령 음성에 대응하는 기능을 판단하는 동작; 및
상기 판단된 기능을 수행하는 동작을 포함하는
동작 방법.
- 제19항에 있어서,
상기 판단된 기능을 수행하기 위한, 적어도 하나의 수행 장치를 결정하는 동작을 더 포함하는
동작 방법.
- 제20항에 있어서,
상기 적어도 하나의 수행 장치를 결정하는 동작은
상기 결정된 동작을 수행할 수 있는 복수의 후보 장치 중 상기 판단된 기능에 대응하는 적어도 하나의 후보 장치를 상기 적어도 하나의 수행 장치로 결정하는 동작을 포함하는
동작 방법.
- 제20항에 있어서,
상기 적어도 하나의 수행 장치를 결정하는 동작은
상기 결정된 동작을 수행할 수 있는 복수의 후보 장치 각각의 상태를 판단하는 동작과,
상기 판단된 복수의 후보 장치 각각의 상태를 기초로, 상기 판단된 기능을 수행하기 위한, 적어도 하나의 수행 장치를 결정하는 동작을 포함하는
동작 방법.
- 제19항에 있어서,
상기 판단된 기능을 수행하도록 하는 피드백 신호를 상기 결정된 적어도 하나의 수행 장치에 전달하는 동작을 더 포함하는
동작 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160006292A KR20170086814A (ko) | 2016-01-19 | 2016-01-19 | 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법 |
US15/399,373 US10283116B2 (en) | 2016-01-19 | 2017-01-05 | Electronic device and method for providing voice recognition function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160006292A KR20170086814A (ko) | 2016-01-19 | 2016-01-19 | 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170086814A true KR20170086814A (ko) | 2017-07-27 |
Family
ID=59314684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160006292A KR20170086814A (ko) | 2016-01-19 | 2016-01-19 | 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10283116B2 (ko) |
KR (1) | KR20170086814A (ko) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190021012A (ko) * | 2017-08-22 | 2019-03-05 | 네이버 주식회사 | 인공지능 기기에서의 연속 대화 기능 |
WO2019045183A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)휴맥스 | 음성 인식 영상 피드백 제공 시스템 및 방법 |
KR20190042931A (ko) * | 2017-10-17 | 2019-04-25 | 삼성전자주식회사 | 외부 장치를 이용하여 음성 기반 서비스를 제공하기 위한 전자 장치, 외부 장치 및 그의 동작 방법 |
KR20190058918A (ko) * | 2017-11-22 | 2019-05-30 | 현대자동차주식회사 | 차량의 음성 명령 처리 장치 및 방법 |
KR20190109916A (ko) * | 2018-03-19 | 2019-09-27 | 삼성전자주식회사 | 전자 장치 및 상기 전자 장치로부터 수신된 데이터를 처리하는 서버 |
KR20200038904A (ko) * | 2020-04-02 | 2020-04-14 | 네이버 주식회사 | 인공지능 기기에서의 연속 대화 기능 |
WO2021075736A1 (en) * | 2019-10-16 | 2021-04-22 | Samsung Electronics Co., Ltd. | Electronic device and method for sharing voice command thereof |
WO2021101276A1 (en) * | 2019-11-19 | 2021-05-27 | Samsung Electronics Co., Ltd. | Electronic device for providing intelligent assistance service and operating method thereof |
KR102547308B1 (ko) * | 2023-03-13 | 2023-06-23 | 주식회사 샘물정보통신 | 키오스크 사용에 대한 헬프서비스를 제공하는 키오스크 시스템 |
US11978458B2 (en) | 2019-07-15 | 2024-05-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for recognizing speech thereof |
WO2024101576A1 (ko) * | 2022-11-11 | 2024-05-16 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
WO2024143886A1 (ko) * | 2022-12-28 | 2024-07-04 | 주식회사 포지큐브 | 발화 보이스에 대한 레이블링 방법, 그리고 이를 구현하기 위한 장치 |
Families Citing this family (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9875081B2 (en) | 2015-09-21 | 2018-01-23 | Amazon Technologies, Inc. | Device selection for providing a response |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10097919B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Music service selection |
US10509626B2 (en) | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US10142754B2 (en) | 2016-02-22 | 2018-11-27 | Sonos, Inc. | Sensor on moving component of transducer |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10152969B2 (en) | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US9693164B1 (en) | 2016-08-05 | 2017-06-27 | Sonos, Inc. | Determining direction of networked microphone device relative to audio playback device |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9794720B1 (en) | 2016-09-22 | 2017-10-17 | Sonos, Inc. | Acoustic position measurement |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US9743204B1 (en) | 2016-09-30 | 2017-08-22 | Sonos, Inc. | Multi-orientation playback device microphones |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
US10599377B2 (en) | 2017-07-11 | 2020-03-24 | Roku, Inc. | Controlling visual indicators in an audio responsive electronic device, and capturing and providing audio using an API, by native and non-native computing devices and services |
KR102419374B1 (ko) * | 2017-07-21 | 2022-07-11 | 삼성전자주식회사 | 사용자 발화를 처리하는 전자 장치 및 그 전자 장치의 제어 방법 |
CN107438135A (zh) * | 2017-07-31 | 2017-12-05 | 上海爱优威软件开发有限公司 | 基于来电应答的任务处理方法 |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10482904B1 (en) * | 2017-08-15 | 2019-11-19 | Amazon Technologies, Inc. | Context driven device arbitration |
US10455322B2 (en) | 2017-08-18 | 2019-10-22 | Roku, Inc. | Remote control with presence sensor |
US11062702B2 (en) * | 2017-08-28 | 2021-07-13 | Roku, Inc. | Media system with multiple digital assistants |
US11062710B2 (en) | 2017-08-28 | 2021-07-13 | Roku, Inc. | Local and cloud speech recognition |
US10777197B2 (en) | 2017-08-28 | 2020-09-15 | Roku, Inc. | Audio responsive device with play/stop and tell me something buttons |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
KR102338376B1 (ko) | 2017-09-13 | 2021-12-13 | 삼성전자주식회사 | 디바이스 그룹을 지정하기 위한 전자 장치 및 이의 제어 방법 |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
KR102471493B1 (ko) * | 2017-10-17 | 2022-11-29 | 삼성전자주식회사 | 전자 장치 및 음성 인식 방법 |
KR102490376B1 (ko) * | 2017-11-06 | 2023-01-25 | 삼성전자 주식회사 | 전자 장치 및 전자 장치 간 음성으로 기능을 실행하는 방법 |
US10880650B2 (en) | 2017-12-10 | 2020-12-29 | Sonos, Inc. | Network microphone devices with automatic do not disturb actuation capabilities |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US11145298B2 (en) | 2018-02-13 | 2021-10-12 | Roku, Inc. | Trigger word detection with multiple digital assistants |
US11151991B2 (en) * | 2018-03-30 | 2021-10-19 | Verizon Media Inc. | Electronic message transmission |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10847178B2 (en) | 2018-05-18 | 2020-11-24 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
KR20200017293A (ko) * | 2018-08-08 | 2020-02-18 | 삼성전자주식회사 | 사용자 발화를 처리하는 전자 장치 및 그 전자 장치의 제어 방법 |
JP7055722B2 (ja) * | 2018-08-27 | 2022-04-18 | 京セラ株式会社 | 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US10878811B2 (en) | 2018-09-14 | 2020-12-29 | Sonos, Inc. | Networked devices, systems, and methods for intelligently deactivating wake-word engines |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
US10762893B2 (en) * | 2018-09-28 | 2020-09-01 | Comcast Cable Communications, Llc | Monitoring of one or more audio/video collection devices |
US11100923B2 (en) * | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
KR102599948B1 (ko) * | 2018-11-16 | 2023-11-09 | 삼성전자주식회사 | 전자 장치 및 그의 와이파이 연결 방법 |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
EP3709194A1 (en) | 2019-03-15 | 2020-09-16 | Spotify AB | Ensemble-based data comparison |
WO2020222539A1 (en) | 2019-05-02 | 2020-11-05 | Samsung Electronics Co., Ltd. | Hub device, multi-device system including the hub device and plurality of devices, and method of operating the same |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
CN112447174B (zh) * | 2019-08-29 | 2023-05-12 | 阿里巴巴集团控股有限公司 | 服务提供方法、装置和系统、计算设备和存储介质 |
US11094319B2 (en) | 2019-08-30 | 2021-08-17 | Spotify Ab | Systems and methods for generating a cleaned version of ambient sound |
US10827028B1 (en) * | 2019-09-05 | 2020-11-03 | Spotify Ab | Systems and methods for playing media content on a target device |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
CN110944056A (zh) * | 2019-11-29 | 2020-03-31 | 深圳传音控股股份有限公司 | 交互方法、移动终端及可读存储介质 |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
IN202041005143A (ko) * | 2020-02-06 | 2021-08-13 | Samsung Electronics Co Ltd | |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11308959B2 (en) | 2020-02-11 | 2022-04-19 | Spotify Ab | Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices |
US11328722B2 (en) | 2020-02-11 | 2022-05-10 | Spotify Ab | Systems and methods for generating a singular voice audio stream |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11551700B2 (en) | 2021-01-25 | 2023-01-10 | Sonos, Inc. | Systems and methods for power-efficient keyword detection |
US11664031B2 (en) | 2021-03-11 | 2023-05-30 | Apple Inc. | Multi-mode voice triggering for audio devices |
KR20230094769A (ko) * | 2021-12-21 | 2023-06-28 | 삼성전자주식회사 | 목적 장치의 식별 방법 및 이를 위한 전자 장치 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030093281A1 (en) * | 1999-05-21 | 2003-05-15 | Michael Geilhufe | Method and apparatus for machine to machine communication using speech |
US20060235701A1 (en) * | 2005-04-13 | 2006-10-19 | Cane David A | Activity-based control of a set of electronic devices |
US20070197164A1 (en) | 2006-02-23 | 2007-08-23 | Arnold Sheynman | Method and device for automatic bluetooth pairing |
US8099289B2 (en) | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
KR101344863B1 (ko) | 2011-07-21 | 2014-01-16 | 김쌍규 | 음성인식 다이얼링 헤드셋 장치 |
US8340975B1 (en) * | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
US20140118520A1 (en) | 2012-10-29 | 2014-05-01 | Motorola Mobility Llc | Seamless authorized access to an electronic device |
KR102179811B1 (ko) | 2012-12-03 | 2020-11-17 | 엘지전자 주식회사 | 포터블 디바이스 및 음성 인식 서비스 제공 방법 |
EP3014610B1 (en) * | 2013-06-28 | 2023-10-04 | Harman International Industries, Incorporated | Wireless control of linked devices |
KR102146462B1 (ko) * | 2014-03-31 | 2020-08-20 | 삼성전자주식회사 | 음성 인식 시스템 및 방법 |
-
2016
- 2016-01-19 KR KR1020160006292A patent/KR20170086814A/ko unknown
-
2017
- 2017-01-05 US US15/399,373 patent/US10283116B2/en active Active
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190021012A (ko) * | 2017-08-22 | 2019-03-05 | 네이버 주식회사 | 인공지능 기기에서의 연속 대화 기능 |
WO2019045183A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)휴맥스 | 음성 인식 영상 피드백 제공 시스템 및 방법 |
KR20190042931A (ko) * | 2017-10-17 | 2019-04-25 | 삼성전자주식회사 | 외부 장치를 이용하여 음성 기반 서비스를 제공하기 위한 전자 장치, 외부 장치 및 그의 동작 방법 |
WO2019078608A1 (ko) * | 2017-10-17 | 2019-04-25 | 삼성전자주식회사 | 외부 장치를 이용하여 음성 기반 서비스를 제공하기 위한 전자 장치, 외부 장치 및 그의 동작 방법 |
US11392346B2 (en) | 2017-10-17 | 2022-07-19 | Samsung Electronics Co., Ltd. | Electronic device for providing voice-based service using external device, external device and operation method thereof |
KR20190058918A (ko) * | 2017-11-22 | 2019-05-30 | 현대자동차주식회사 | 차량의 음성 명령 처리 장치 및 방법 |
KR20190109916A (ko) * | 2018-03-19 | 2019-09-27 | 삼성전자주식회사 | 전자 장치 및 상기 전자 장치로부터 수신된 데이터를 처리하는 서버 |
US11978458B2 (en) | 2019-07-15 | 2024-05-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for recognizing speech thereof |
US11662976B2 (en) | 2019-10-16 | 2023-05-30 | Samsung Electronics Co., Ltd | Electronic device and method for sharing voice command thereof |
WO2021075736A1 (en) * | 2019-10-16 | 2021-04-22 | Samsung Electronics Co., Ltd. | Electronic device and method for sharing voice command thereof |
WO2021101276A1 (en) * | 2019-11-19 | 2021-05-27 | Samsung Electronics Co., Ltd. | Electronic device for providing intelligent assistance service and operating method thereof |
US11557285B2 (en) | 2019-11-19 | 2023-01-17 | Samsung Electronics Co., Ltd. | Electronic device for providing intelligent assistance service and operating method thereof |
KR20200038904A (ko) * | 2020-04-02 | 2020-04-14 | 네이버 주식회사 | 인공지능 기기에서의 연속 대화 기능 |
WO2024101576A1 (ko) * | 2022-11-11 | 2024-05-16 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
WO2024143886A1 (ko) * | 2022-12-28 | 2024-07-04 | 주식회사 포지큐브 | 발화 보이스에 대한 레이블링 방법, 그리고 이를 구현하기 위한 장치 |
KR102547308B1 (ko) * | 2023-03-13 | 2023-06-23 | 주식회사 샘물정보통신 | 키오스크 사용에 대한 헬프서비스를 제공하는 키오스크 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US20170206896A1 (en) | 2017-07-20 |
US10283116B2 (en) | 2019-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170086814A (ko) | 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법 | |
KR102495523B1 (ko) | 음성 명령을 처리하는 방법 및 이를 제공하는 전자 장치 | |
KR20180022021A (ko) | 음성 인식 방법 및 이를 수행하는 전자 장치 | |
KR102324074B1 (ko) | 사운드 출력 제어 방법 및 전자 장치 | |
KR20160063068A (ko) | 전자 장치, 그 동작 방법 및 기록 매체 | |
KR102386309B1 (ko) | 전자 장치 및 전자 장치에서의 입출력 제어 방법 | |
KR20170092368A (ko) | 외부 전자 장치를 제어하기 위한 방법 및 전자 장치 | |
US20200214650A1 (en) | Electronic device for measuring biometric information and operation method thereof | |
KR20160137224A (ko) | 외부 장치를 제어하기 위한 장치 및 방법 | |
KR20160114930A (ko) | 모듈 인식 방법 및 이를 수행하는 전자 장치 | |
KR20170036198A (ko) | 통신 수행 방법 및 이를 지원하는 전자장치 | |
KR102304260B1 (ko) | 위치 결정 방법, 전자 장치 및 저장 매체 | |
KR20170010638A (ko) | 신호를 측정하는 방법 및 그 전자 장치 | |
KR20170019806A (ko) | 위치 정보 제공 방법 및 장치 | |
KR20170100309A (ko) | 음성 인식 제어를 제공하는 전자 장치 및 그 동작 방법 | |
KR20170066050A (ko) | 객체 알림 방법 및 이를 지원하는 전자 장치 | |
KR20150135072A (ko) | 실내 또는 실외에 배치되는지 여부를 판단하는 전자 장치 및 그 제어 방법 | |
KR20170081903A (ko) | 전자 장치 및 그 동작 방법 | |
KR20170004186A (ko) | 외부 전자 장치를 제어하기 위한 방법 및 그 방법을 처리하기 위한 전자 장치 | |
US10931322B2 (en) | Electronic device and operation method therefor | |
KR20170019804A (ko) | 전자 장치의 위치 정보 확인 방법 및 그 전자 장치 | |
KR20160031217A (ko) | 제어 방법 및 그 방법을 처리하는 전자장치 | |
KR20180059215A (ko) | 마이크 파라미터를 조절하는 전자 장치 | |
KR20170052003A (ko) | 복수의 디스플레이들을 갖는 전자 장치 및 그 동작 방법 | |
KR20180028696A (ko) | 결제 서비스를 제공하는 전자 장치 및 방법 |