KR20180012055A - 전자 장치 및 전자 장치의 동작 방법 - Google Patents
전자 장치 및 전자 장치의 동작 방법 Download PDFInfo
- Publication number
- KR20180012055A KR20180012055A KR1020160094821A KR20160094821A KR20180012055A KR 20180012055 A KR20180012055 A KR 20180012055A KR 1020160094821 A KR1020160094821 A KR 1020160094821A KR 20160094821 A KR20160094821 A KR 20160094821A KR 20180012055 A KR20180012055 A KR 20180012055A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- user
- voice
- signal
- control
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000011664 signaling Effects 0.000 claims abstract 2
- 230000005236 sound signal Effects 0.000 claims description 56
- 230000004044 response Effects 0.000 claims description 8
- 238000011017 operating method Methods 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
- H04N21/4415—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
Abstract
전자 장치의 동작 방법에 있어서, 제1 사용자의 제1 음성 신호를 수신하는 단계; 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계; 및 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 상기 전자 장치를 제어하는 단계를 포함할 수 있다.
Description
전자 장치 및 전자 장치의 동작 방법에 관한 것이다.
사용자는 전자 장치를 더욱 편리하게 사용하고자 한다. 이에 따라, 전자 장치를 용이하게 제어하는 기술은 점차 발달하는 추세이다. 즉, 전자 장치를 용이하게 제어하는 기술은 전자 장치에 부착된 입력부를 통해 전자 장치를 제어하던 방법에서 시작하여, 근거리에서도 제어 가능한 외부 리모트 컨트롤러(Remote Controller)를 이용하는 방법으로 발전하였다.
전자 장치에서 터치 패널을 구비하는 디스플레이부의 사용이 일반화됨에 따라, 터치 입력을 이용하여 전자 장치를 제어하는 기술이 보편적으로 사용된다. 또한, 전자 장치에서 음성 인식 기술을 이용하여 사용자의 음성을 인식하고, 전자 장치를 제어하는 기술도 사용된다. 이에 따라, 사용자가 음성을 통해 용이하게 전자 장치를 제어할 수 있는 기술에 대한 필요성이 인정된다.
외부 잡음 또는 복수의 사용자가 존재하는 경우에도 사용자가 음성을 통해 용이하게 전자 장치를 제어할 수 있는 방법 및 전자 장치를 제공한다.
일측에 따르면, 전자 장치의 동작 방법에 있어서, 제1 사용자의 제1 음성 신호를 수신하는 단계; 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계; 및 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 상기 전자 장치를 제어하는 단계를 포함할 수 있다.
다른 일측에 따르면, 전자 장치는 제1 사용자의 제1 음성 신호를 수신하는 수신부; 및 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 전자 장치를 제어할 수 있는 권한이 있는지를 인증하고, 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 전자 장치를 제어하는 프로세서를 포함할 수 있다.
또 다른 일측에 따르면, 상기 전자 장치의 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. 본 발명의 일실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
도 1은 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 개념도이다.
도 2는 일실시예에 따른 전자 장치의 구성을 나타낸 블록도이다.
도 3은 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 4는 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 5a 내지 도 5d는 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 6은 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 7은 또 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 8은 일실시예에 따라, 복수의 사용자로부터 복수의 음성 신호를 수신한 경우, 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 9는 일실시예에 따라, 본 발명과 관련된 전자 장치의 구성을 나타낸 블록도이다.
도 2는 일실시예에 따른 전자 장치의 구성을 나타낸 블록도이다.
도 3은 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 4는 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 5a 내지 도 5d는 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 6은 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 7은 또 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 8은 일실시예에 따라, 복수의 사용자로부터 복수의 음성 신호를 수신한 경우, 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 9는 일실시예에 따라, 본 발명과 관련된 전자 장치의 구성을 나타낸 블록도이다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
명세서 전체에서 "전자 장치"는 전기 에너지를 공급 받아 동작하는 장치를 의미한다. 명세서에서 "전자 장치"를 "TV"로 예시하여도 권리범위 해석에 있어서 " TV "에 한정되지 않고, 전기 에너지를 공급 받아 동작하는 장치에 적용될 수 있음은 통상의 지식을 가진 자라면 이해할 수 있다.
도 1은 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 개념도이다.
도 1에 도시된 바와 같이, 사용자(102)는 음성 신호를 이용하여, TV(100)와 같은 전자 장치를 제어할 수 있다. 사용자(102)는 음성 신호로 TV(100)를 제어하기 위해, 사용자 등록을 할 수 있다. 구체적으로, 사용자(102)가 "하이, TV(103)"와 같은 트리거 신호를 발성하면, TV(100)는 "하이, TV(103)"의 음성 신호를 수신하고, 사용자 등록 과정을 진행할 수 있다.
TV(100)는 사용자(102)의 음성 신호로부터 다른 사용자와 구분할 수 있는 음성 특징을 추출하고, 추출된 음성 특징을 기초로 사용자를 TV(100)를 제어할 수 있는 사용자로 설정할 수 있다. TV(100)를 제어할 수 있는 사용자로 등록되지 않은 사용자(102)는 음성을 통해 TV(100)를 제어할 수 없다. 사용자(102)의 음성 신호를 통해 전자 장치를 제어하는 내용은 도 2 내지 도 8에서 상세하게 설명한다.
또한, 전자 장치는 TV이나, 이는 일 실시예에 불과할 뿐, 음성 인식 기능을 포함하는 태블릿 PC, 디지털 카메라, 캠코더, 노트북 PC, PDA, 휴대폰 등과 같은 다양한 전자 장치로 구현될 수 있다.
도 2는 일실시예에 따른 전자 장치의 구성을 나타낸 블록도이다.
일실시예에 따르면, 전자 장치(200)는 수신부(210), 프로세서(220)를 포함할 수 있다. 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(200)가 구현될 수 있고, 그 보다 적은 구성 요소에 의해서도 전자 장치(200)가 구현될 수 있다. 이하 상기 구성 요소들에 대해 차례로 살펴본다.
수신부(210)는 외부로부터 사용자의 음성 신호를 수신할 수 있다. 수신부(210)는 사용자로부터 직접 음성 신호를 수신하거나, 외부 장치로부터 사용자의 음성 신호를 수신할 수 있다. 예를 들면, 사용자로부터 직접 음성 신호를 수신하는 경우, 프로세서(220)는 수신부(210)(예를 들면, 전자 장치(200)에 포함된 마이크로폰)가 사용자의 음성 신호를 수신하도록 제어할 수 있다. 또한, 외부 장치로부터 사용자의 음성 신호를 수신하는 경우, 프로세서(220)는 무선 네트워크를 통해 수신부(210)가 외부 장치로부터 사용자의 음성 신호를 수신하도록 제어할 수 있다. 무선 네트워크에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
수신부(210)는 사용자의 음성 신호를 수신하여 음성 데이터로 처리하고, 음성 데이터를 프로세서(220)로 전달할 수 있다. 구체적으로, 수신부(210)는 스피커 및 마이크로폰과 같은 하드웨어로 구성될 수 있다. 스피커 및 마이크로폰은 음성 인식, 음성 복제, 디지털 레코딩(recording) 및 전화 기능과 같은 오디오 스트림의 입력과 출력을 담당할 수 있다. 즉, 스피커 및 마이크로폰은 음성신호를 전기신호로 변환하거나 전기신호를 음성신호로 변환할 수 있다. 또한, 탈부착 가능한(attachable and detachable) 이어폰(earphone), 헤드폰(head phone) 또는 헤드셋(head set)이 외부포트를 통해 전자 장치(200)에 연결될 수 있다.
프로세서(220)는 적어도 하나의 소프트웨어 프로그램을 실행하여 전자 장치(200)를 위한 여러 가지 기능을 수행할 수 있다. 프로세서(220)는 음성 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 또한, 프로세서(220)는 외부 메모리 또는 내부 메모리에 저장되어 있는 특정 소프트웨어 모듈을 실행하여 모듈에 대응하는 특정 기능을 수행할 수 있다. 프로세서(220)는 외부 메모리 또는 내부 메모리에 저장된 소프트웨어 모듈들과 연동하여 본 개시에 따른 전자 장치(200)의 동작을 수행할 수 있다.
프로세서(220)는 제1 사용자의 제1 음성 신호에 기초하여, 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 프로세서(220)는 인증 결과에 기초하여, 제1 음성 신호에 대응하는 명령을 결정하고, 명령에 따라 전자 장치(200)를 제어할 수 있다.
또한, 프로세서(220)는 제2 음성 신호에 트리거 신호가 포함되었는지를 결정할 수 있다. 트리거 신호는 전자 장치(200)를 제어할 수 있는 사용자를 설정하기 위한 동작을 수행하기 위해 미리 설정된 신호일 수 있다. 제2 음성 신호에 트리거 신호가 포함된 경우, 프로세서(220)는 제1 사용자의 음성 신호에 의하여 전자 장치(200)가 제어되도록 제2 음성 신호에 기초하여, 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 설정할 수 있다. 구체적으로, 프로세서(220)는 제2 음성 신호로부터 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출하고, 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 적어도 하나의 음성 파라미터의 기준값으로 저장할 수 있다. 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어하는 사용자로 등록할 수 있다. 추후, 수신부(210)를 통해 음성 신호를 수신할 수 있다. 프로세서(220)는 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 음성 신호에 대한 제1 음성 파라미터의 값과 저장된 제1 음성 파라미터의 기준값을 비교하여, 사용자 인증을 수행할 수 있다.
여기서, 적어도 하나의 음성 파라미터는 사용자의 음성 에너지, 주파수 대역폭, 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나일 수 있다. 상기 언급된 음성 파라미터의 예시 이외에 다른 음성 파라미터가 사용자를 인증하는 데에 이용되는 음성 파라미터에 속할 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
제1 사용자의 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 프로세서(220)는 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 구체적으로, 프로세서(220)는 제2 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 추출된 제1 음성 파라미터의 값을 기저장된 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제2 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값과 일치하면, 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다. 또한, 제2 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값을 기준으로 일정 범위 이내이면, 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는 것으로 결정된 경우, 프로세서(220)는 제1 음성 신호에 대응하여, 전자 장치(200)의 제1 기능을 수행할 수 있는 제1 명령을 결정하고, 제1 명령에 따라 전자 장치(200)의 제1 기능을 수행할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 없는 것으로 결정된 경우, 프로세서(220)는 제1 음성 신호에 대응하여, 제1 음성 신호를 바이패스 하는 명령을 결정하고, 제1 음성 신호를 바이패스 할 수 있다.
또한, 수신부(210)는 복수의 사용자로부터 복수의 음성 신호를 수신할 수 있다. 프로세서(220)는 복수의 음성 신호 각각에서 음성 특징을 추출하고, 복수의 음성 신호에서 추출된 각각의 음성 특징 중 기준 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 특징을 검출할 수 있다. 여기서, 기준 음성 특징은 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 특징일 수 있다. 사용자의 음성의 크기, 사용자의 성별, 나이 등에 따른 주파수 대역 분포, 전자 장치(200)의 위치에 따라 달라지는 사용자 음성의 울림값, 음성 신호 대 잡음비가 사용자의 음성 특징에 해당될 수 있다. 프로세서(220)는, 제3 음성 신호에 대응하는 제3 명령을 결정하고, 제3 명령에 따라 전자 장치(200)를 제어할 수 있다.
전자 장치(200)를 제어할 수 있는 권한이 있는 사용자가 복수이고, 권한이 있는 복수의 사용자로부터 음성 신호를 수신한 경우, 프로세서(220)는 미리 설정된 기준에 따라 복수의 사용자 중 제2 사용자의 음성 신호에 대응하는 제2 명령을 우선적으로 결정하고, 제2 명령에 따라 전자 장치(200)를 제어할 수 있다.
여기서, 미리 설정된 기준은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 또는 기설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여된 것일 수 있다. 전자 장치(200)의 사용 패턴은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 이용하여 획득되는 것일 수 있다. 상기 언급된 예시 이외에 다른 예시에 의해 전자 장치(200)의 사용 패턴이 결정될 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 또한, 기설정된 순서는 전자 장치(200)에 미리 설정될 수 있다.
전자 장치(200)는 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시)를 더 포함할 수 있다. 메모리(미도시)는 트리거 신호, 외부로부터 수신된 음성 신호, 음성 신호로부터 추출된 음성 파라미터의 값, 전자 장치(200)를 제어할 수 있는 사용자에 대한 정보를 저장할 수 있다. 전자 장치(200)를 제어할 수 있는 사용자에 대한 정보는, 권한 있는 사용자의 음성 신호로부터 추출된 음성 파라미터의 기준값을 포함할 수 있다.
또한, 메모리(미도시)는 전자 장치(200)를 제어할 수 있는 권한이 있는 복수의 사용자에 대한 정보를 저장할 수 있다. 복수의 사용자들에 대한 정보는, 복수의 사용자 각각의 음성 신호로부터 추출된 음성 파라미터의 값, 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 정보를 포함할 수 있다. 사용 패턴 정보는 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 포함할 수 있다.
메모리(미도시)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(SD, XD 메모리 등), 램(RAM; Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM; Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
디스플레이(미도시)는 제1 사용자의 음성 신호에 기초하여 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 설정하는 결과 화면을 표시할 수 있다. 또한, 디스플레이(미도시)는 제1 음성 신호를 수신하고, 제1 음성 신호에 대한 사용자 인증 결과 화면(예를 들면, 사용자 인증 성공 또는 사용자 인증 실패에 대한 정보)을 표시 할 수 있다. 또한, 디스플레이(미도시)는 제1 음성 신호에 대응하여 전자 장치(200)를 제어하는 명령(예를 들면, 지도 검색)을 실행하고, 실행된 결과(예를 들면, 지도 검색에 대한 결과)를 표시할 수 있다.
사용자 인터페이스(미도시)는 전자 장치(200)를 제어하기 위한 데이터를 입력 받는 장치를 의미한다. 사용자 인터페이스(미도시)는 키패드, 마우스, 터치 패널, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나, 이에 한정되는 것은 아니다. 구체적으로, 사용자 인터페이스(미도시)는 전자 장치(200)를 제어할 수 있는 사용자를 설정에 필요한 데이터를 터치 스크린을 통해 입력 받을 수 있다. 또한, 메모리(200)는 복수의 사용자 각각에 대한 우선 순위가 설정된 정보를 저장할 수 있다.
전자 장치(200)는 중앙 연산 프로세서를 구비하여, 수신부(210), 프로세서(220), 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시)의 동작을 총괄적으로 제어할 수 있다. 중앙 연산 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
이하에서는, 전자 장치(200)가 수행하는 다양한 동작이나 응용들이 설명되는데, 수신부(210), 프로세서(220), 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시) 중 어느 구성을 특정하지 않더라도 본 발명의 기술분야에 대한 통상의 기술자가 명확하게 이해하고 예상할 수 있는 정도의 내용은 통상의 구현으로 이해될 수 있으며, 본 발명의 권리범위가 특정한 구성의 명칭이나 물리적/논리적 구조에 의해 제한되는 것은 아니다.
도 3은 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 3의 단계 S310에서, 전자 장치(200)는 제1 사용자의 제1 음성 신호를 수신할 수 있다. 제1 음성 신호는 전자 장치(200)를 제어하기 위한 명령을 포함할 수 있다. 전자 장치(200)는 제1 사용자의 제1 음성 신호를 마이크로폰을 통해 수신할 수 있다. 제1 음성 신호는 전자 장치(200)에서 제공하는 다양한 기능을 실행하기 위한 명령을 포함할 수 있고 명령은, 전자 장치(200)의 온/오프, 동영상 재생, 음악 재생, 파일 관리, 인터넷 검색 등과 같은 명령을 포함할 수 있다.
단계 S320에서, 전자 장치(200)는 제1 음성 신호에 기초하여 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다.
구체적으로, 전자 장치(200)는 제1 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 신호에 대한 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값을 비교하여, 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 여기서, 기준값은 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 신호로부터 획득된 음성 파라미터의 값이다. 제1 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값을 기준으로 일정 범위 이내이면, 전자 장치(200)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다.
음성 파라미터는 사용자의 음성 에너지, 주파수 대역폭, 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나일 수 있고, 이에 한정되지 않는다.
단계 S330에서, 전자 장치(200)는 인증 결과에 기초하여 제1 음성 신호에 대응하는 명령을 결정하고, 명령에 따라 전자 장치(200)를 제어할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는 것으로 결정된 경우, 전자 장치(200)는 제1 음성 신호에 기초하여 전자 장치(200)의 제1 기능을 수행할 수 있는 제1 명령을 결정할 수 있다. 전자 장치(200)는 제1 명령에 따라 전자 장치(200)의 제1 기능을 수행할 수 있다. 예를 들면, 전자 장치(200)는 전자 장치(200)의 동작 시간을 예약하는 명령을 포함하는 제1 사용자의 제1 음성 신호를 수신하고, 제1 음성 신호로부터 전자 장치(200)의 동작 시간을 예약하는 명령을 검출하고, 명령에 따라 전자 장치(200)의 동작 시간을 제어할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 없는 것으로 결정된 경우, 전자 장치(200)는 제1 음성 신호에 대응하여, 제1 음성 신호를 바이패스 하는 명령을 결정하고, 제1 음성 신호를 바이패스 할 수 있다.
도 4는 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 4의 단계 S410에서, 전자 장치는 제1 사용자의 제2 음성 신호를 수신할 수 있다.
단계 S420에서, 전자 장치(200)는 제2 음성 신호에 트리거 신호가 포함되었는지를 결정할 수 있다. 트리거 신호는 전자 장치(200)를 제어할 수 있는 사용자를 설정하기 위한 동작을 수행하기 위해 미리 설정된 신호일 수 있다. 제2 음성 신호에 트리거 신호가 포함된 경우, 전자 장치(200)는 단계 S430에 따른 동작을 수행할 수 있다. 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 전자 장치(200)는 단계 S440에 따른 동작을 수행할 수 있다.
단계 S430에서, 전자 장치(200)는 제2 음성 신호에 기초하여, 제1 사용자의 음성 신호에 의하여 전자 장치(200)가 제어되도록 설정할 수 있다. 구체적으로, 전자 장치(200)는 제2 음성 신호로부터 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출할 수 있다. 전자 장치(200)는 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 적어도 하나의 음성 파라미터의 기준값으로 저장할 수 있다. 전자 장치(200)는 저장된 기준값을 기준으로, 제1 사용자를 전자 장치(200)를 제어하는 사용자로 등록할 수 있다.
단계 S440에서, 전자 장치(200)는 제2 음성 신호에 기초하여, 제1 사용자를 전자 장치의 제어 권한이 있는지를 인증하고, 인증 결과에 따라 전자 장치를 제어할 수 있다. 단계 S440은 도 3에 도시된 단계 S320과 단계 S330과 대응될 수 있다.
도 5a 내지 도 5d는 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 5a를 참고하면, 제1 사용자(501)는 TV(200)를 음성으로 제어하기 위해 사용자 등록 과정을 수행할 수 있다. 제1 사용자(501)가 "헬로우"라고 발언하면, TV(200)는 "헬로우" 음성 신호를 수신할 수 있다. 여기서, "헬로우" 음성 신호는 TV(200)를 제어하는 사용자를 설정하는 프로세스를 수행하기 위한 트리거 신호로 미리 설정될 수 있다. TV(200)는 제1 사용자(501)의 "헬로우" 음성 신호를 수신하고, 수신한 결과를 화면 상에 표시할 수 있다. 도 5a에 도시된 바와 같이, TV(200)는 외부로부터 음성 신호를 수신한 경우, "음성 인식 중입니다"와 같은 문구를 화면 상에 디스플레이 할 수 있다. 외부로부터 수신한 음성 신호가 트리거 신호가 아니면, TV(200)는 음성 신호에 의해 전자 장치가 제어될 수 있는지에 대한 인증 과정을 수행할 수 있다.
도 5b를 참고하면, 외부로부터 수신한 음성 신호가 트리거 신호이면, TV(200)는 음성 신호를 이용하여 전자 장치를 제어할 수 있는 사용자 등록 과정을 수행할 수 있다.
TV(200)는 제1 음성 신호로부터 제1 사용자(501)에 대한 제1 음성 파라미터의 값을 추출할 수 있다. TV(200)는 제1 음성 신호로부터 추출된 제1 음성 파라미터의 값을 제1 음성 파라미터의 기준값으로 결정하고, 제1 사용자(501)를 전자 장치를 제어할 수 있는 사용자로 등록할 수 있다. 도 5b에 도시된 바와 같이, TV(200)는 사용자 등록 과정 중에, "사용자 등록 중입니다"와 같은 문구를 화면 상에 디스플레이 할 수 있다.
도 5c를 참고하면, 제1 사용자(501)는 음성으로 TV(200)를 제어할 수 있는 사용자로 등록한 후, 음성을 통해 TV(200)를 제어할 수 있다. 제1 사용자(501)가 TV(200)의 채널 변경을 위해 "채널 42"라고 발언하면, TV(200)는 제1 사용자(501)의 "채널 42"의 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 일치되면, TV(200)는 기존의 채널을 채널 42로 변경할 수 있다.
도 5d를 참고하면, 음성으로 TV(200)를 제어할 수 있는 사용자로 등록되지 않은 제2 사용자(502)는 음성으로 TV(200)를 제어할 수 없다. 제2 사용자(502)가 TV(200)의 채널 변경을 위해 "채널 10"라고 발언하면, TV(200)는 제2 사용자(502)의 "채널 10"의 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제2 사용자(502)에 대한 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 일치되지 않으므로, TV(200)는 기존의 채널을 채널 10으로 변경하지 않고, 기존 채널을 유지하게 된다. 이 경우, TV(200)는 "사용자 인증이 되지 않았습니다"와 같은 문구를 화면 상에 표시할 수 있다.
도 6은 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 6의 단계 S610에서, 전자 장치(200)는 복수의 사용자로부터 복수의 음성 신호를 수신할 수 있다.
단계 S620에서, 전자 장치(200)는 복수의 음성 신호 각각에서 음성 특징을 추출할 수 있다. 음성 특징은 사용자의 음성의 크기, 사용자의 성별, 나이 등에 따른 주파수 대역 분포, 전자 장치(200)의 위치에 따라 달라지는 사용자 음성의 울림값, 음성 신호 대 잡음비 중 어느 하나에 해당될 수 있고, 이에 한정되지 않는다.
단계 S630에서, 전자 장치(200)는 복수의 음성 신호 각각에서 추출된 음성 특징 중 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 신호를 검출할 수 있다.
구체적으로, 전자 장치(200)는 복수의 음성 신호 각각에서 제1 음성 파라미터의 값을 추출할 수 있다. 전자 장치(200)는 추출된 제1 음성 파라미터의 값 각각을 미리 설정된 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과 전자 장치(200)는 제1 음성 파라미터의 기준값과 대응되는 제1 음성 파라미터의 값을 포함하는 제3 음성 신호를 검출할 수 있다.
단계 S640에서, 전자 장치(200)는 제3 음성 신호에 대응하는 제3 명령을 결정하고, 제3 명령에 기초하여 전자 장치(200)를 제어할 수 있다.
도 7은 또 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 7의 단계 S710에서, 전자 장치(200)는 전자 장치(200)를 제어할 수 있는 권한이 있는 복수의 사용자로부터 음성 신호를 수신할 수 있다.
단계 S720에서, 전자 장치(200)는 미리 설정된 기준에 따라 복수의 사용자 중 제1 사용자를 선택할 수 있다. 여기서 미리 설정된 기준은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 또는 기설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여된 것일 수 있다. 전자 장치(200)의 사용 패턴은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 이용하여 획득된 것일 수 있다. 전자 장치는 복수의 사용자 각각에 대한 우선 순위가 설정된 정보를 입력 받고, 복수의 사용자 중 제1 사용자를 선택할 수 있다.
구체적으로, 특정 시간 대에 제1 사용자가 다른 사용자들보다 전자 장치(200)를 사용한 횟수가 많다고 가정한다. 전자 장치(200)가 특정 시간 대에 제1 사용자를 포함한 복수의 사용자로부터 음성 신호를 수신한 경우, 전자 장치(200)는 우선적으로 제1 사용자에 대한 음성 신호를 제어 신호로 결정할 수 있다.
단계 S730에서, 전자 장치(200)는 제1 사용자의 음성 신호에 대응하는 명령을 결정하고, 결정된 명령에 따라 전자 장치(200)를 제어할 수 있다.
도 8은 일실시예에 따라, 복수의 사용자로부터 복수의 음성 신호를 수신한 경우, 전자 장치의 동작 방법을 설명하기 위한 도면이다.
일개시에 따르면, 제1 사용자(501)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 있고, 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 없다고 가정한다. TV(200)는 외부로부터 제1 음성 신호(801), 잡음 신호(802) 및 제2 음성 신호(803)를 수신할 수 있다. 구체적으로, TV(200)는 제1 사용자(501)로부터 "채널 42"라는 제1 음성 신호(801)를 수신하고, 제2 사용자(502)로부터 "채널 10"이라는 제2 음성 신호(803)를 수신할 수 있다. TV(200)는 제1 음성 신호(801) 및 제2 음성 신호(803) 각각에 대하여 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, TV(200)는 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 서로 일치하는 제1 음성 신호(801)에 대응하는 명령을 수행할 수 있다. 즉, TV(200)는 제1 사용자(501)의 제1 음성 신호(801)로부터 기존 채널을 "채널 42"로 변경하라는 명령을 결정하고, 결정된 명령에 따라 기존 채널을 "채널 42"로 변경할 수 있다. 또한, 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한을 설정하고, 음성 신호를 이용하여 TV(200)를 제어할 수 있다.
다른 일개시에 따르면, 제1 사용자(501) 및 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 있다고 가정한다. TV(200)는 외부로부터 제1 음성 신호(801), 잡음 신호(802) 및 제2 음성 신호(803)를 수신할 수 있다. 구체적으로, TV(200)는 제1 사용자(501)로부터 "채널 42"라는 제1 음성 신호(801)를 수신하고, 제2 사용자(502)로부터 "채널 10"이라는 제2 음성 신호(803)를 수신할 수 있다. 이 경우, TV(200)는 제1 사용자(501) 및 제2 사용자(502) 중 한 명의 사용자의 음성 신호에만 대응하는 명령에 따라 동작을 수행할 수 있다. TV(200)는 미리 설정된 기준에 따라 복수의 사용자 중 어느 한 명의 사용자의 음성 신호에 대응하는 명령을 우선적으로 결정하고, 결정된 명령에 따라 TV(200) 동작을 수행할 수 있다. 미리 설정된 기준은 복수의 사용자 각각에 대한 TV(200)의 사용 패턴 또는 미리 설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여되어 설정될 수 있다. 여기서, TV(200)의 사용 패턴 뿐만 아니라, 다른 요소에 의하여 복수의 사용자 각각에 대하여 우선 순위가 부여될 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 9는 일실시예에 따라, 본 발명과 관련된 전자 장치의 구성을 나타낸 블록도이다.
도 9에 도시된 전자 장치(1000)는 도 2의 전자 장치(200)과 동일 대응될 수 있다. 구체적으로, 도 9의 제어부(3300)는 도 2의 프로세서(220)과 동일 대응될 수 있고, 도 9의 통신부(3500)는 도 2의 전자 장치(200)의 통신부(210)와 동일 대응될 수 있고, 도 9의 저장부(3700)는 도 2의 전자 장치(200)의 메모리(미도시)와 동일 대응될 수 있고, 도 9의 입력부(3100)는 도 2의 전자 장치(200)의 사용자 인터페이스(미도시)와 동일 대응될 수 있다.
입력부(3100)는 사용자가 전자 장치(1000)을 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력부(3100)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
출력부(3200)는 오디오 신호, 비디오 신호 또는 진동 신호를 출력할 수 있다. 출력부(3200)는 음향 출력부(3220), 및 진동 모터(3230)를 포함할 수 있다.
터치스크린(3210)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 전자 장치(1000)의 구현 형태에 따라 전자 장치(1000)는 터치스크린(3210)을 2개 이상 포함할 수도 있다. 이때, 2개 이상의 터치스크린(3210)은 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(3220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(3220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(3220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(3230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(3230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(3230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
제어부(3300)는 전자 장치(1000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(3300)는 메모리(1700)에 저장된 프로그램을 실행함으로써, 전자 장치(1000)에 포함된 구성요소들이 동작하도록 제어할 수 있다.
센싱부(3400)는 사용자의 신체 접촉을 감지하고, 감지된 신체 접촉에 기초하여 생체 정보를 획득할 수 있다. 센싱부(3400)는, 지자기 센서(3410), 무게 센서(3411), 모션 센서(3412), 가속도 센서(3420), 온/습도 센서(3430), 적외선 센서(3440), 자이로스코프 센서(3450), 위치 센서(3460), 기압 센서(3470), 근접 센서(3480) 및 RGB 센서(3490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(3500)는 전자 장치(1000)와 외부 기기(미도시) 간의 통신을 수행하기 위한 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(3500)는, 근거리 통신부(3510), 이동 통신부(3520), 방송 수신부(3530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(3510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(3520)는, 이동 통신망 상에서 기지국, 외부의 전자 장치(1000), 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(3530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(3530)를 포함하지 않을 수도 있다.
A/V(Audio/Video) 입력부(3600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(3300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(3610)에서 처리된 화상 프레임은 메모리(3700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(3610)는 전자 장치(1000)기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(3620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(3620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(3620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(3700)는, 제어부(3300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(3700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(3700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, 터치 스크린 모듈(3710), UI(User Interface) 모듈(3720), 알림 모듈(3730) 등으로 분류될 수 있다.
터치 스크린 모듈(3710)과 관련하여, 터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
UI 모듈(3720)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI(Graphic User Interface) 등을 제공할 수 있다. 터치 스크린 모듈은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(3300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
알림 모듈(3730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 메시지 발생, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(3720)은 디스플레이부(3210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(3200)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(3230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.
처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.
이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.
소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
Claims (20)
- 전자 장치의 동작 방법에 있어서,
제1 사용자의 제1 음성 신호를 수신하는 단계;
상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계; 및
상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 상기 전자 장치를 제어하는 단계를 포함하는 전자 장치의 동작 방법. - 제1항에 있어서,
상기 제1 사용자의 제2 음성 신호를 수신하고, 상기 제2 음성 신호에 트리거 신호가 포함되었는지를 결정하는 단계; 및
상기 제2 음성 신호에 상기 트리거 신호가 포함된 경우, 상기 제1 사용자의 음성 신호에 의하여 상기 전자 장치가 제어되도록 상기 제2 음성 신호에 기초하여, 상기 제1 사용자를 상기 전자 장치를 제어할 수 있는 사용자로 설정하는 단계를 더 포함하는 전자 장치의 동작 방법. - 제2항에 있어서,
상기 제2 음성 신호에 기초하여, 상기 제1 사용자를 상기 전자 장치를 제어할 수 있는 사용자로 설정하는 단계는,
상기 제2 음성 신호로부터 상기 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출하는 단계; 및
상기 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 적어도 하나의 음성 파라미터의 기준값으로 저장하고, 상기 제1 사용자를 상기 전자 장치를 제어하는 사용자로 등록하는 단계를 포함하는, 전자 장치의 동작 방법. - 제3항에 있어서,
상기 적어도 하나의 음성 파라미터는,
상기 제1 사용자의 음성 에너지, 주파수 대역폭, 상기 제1 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나인 것을 특징으로 하는, 전자 장치의 동작 방법. - 제2항에 있어서,
상기 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 상기 제2 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계를 수행하는 것을 특징으로 하는, 전자 장치의 동작 방법. - 제1항에 있어서,
상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는 경우,
상기 전자 장치를 제어하는 단계는,
상기 제1 음성 신호에 대응하여 상기 전자 장치의 제1 기능을 수행할 수 있는 제1 명령을 결정하는 단계; 및
상기 제1 명령에 따라 상기 전자 장치의 제1 기능을 수행하는 단계를 포함하는, 전자 장치의 동작 방법. - 제1항에 있어서,
상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 없는 경우,
상기 전자 장치를 제어하는 단계는,
상기 제1 음성 신호에 대응하여, 상기 제1 음성 신호를 바이패스 하는 명령을 결정하고, 상기 제1 음성 신호를 바이패스 하는 단계를 포함하는, 전자 장치의 동작 방법. - 제1항에 있어서,
복수의 사용자로부터 복수의 음성 신호를 수신하는 단계;
상기 복수의 음성 신호 각각에서 음성 특징을 추출하는 단계;
상기 복수의 음성 신호 각각에서 추출된 음성 특징 중 상기 전자 장치를 제어할 수 있는 권한이 있는 사용자의 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 신호를 검출하는 단계; 및
상기 제3 음성 신호에 대응하는 제3 명령을 결정하고, 상기 제3 명령에 기초하여 상기 전자 장치를 제어하는 단계를 포함하는, 전자 장치의 동작 방법. - 제1항에 있어서,
상기 전자 장치를 제어할 수 있는 권한이 있는 사용자가 복수이고, 상기 권한이 있는 복수의 사용자로부터 음성 신호를 수신한 경우,
미리 설정된 기준에 따라 상기 복수의 사용자 중 제2 사용자의 음성 신호에 대응하는 제2 명령을 우선적으로 결정하고, 상기 제2 명령에 따라 상기 전자 장치를 제어하는 단계를 더 포함하는, 전자 장치의 동작 방법. - 제9항에 있어서,
상기 미리 설정된 기준은, 상기 복수의 사용자 각각에 대한 상기 전자 장치의 사용 패턴 또는 기설정된 순서에 따라 상기 복수의 사용자 각각에 대하여 우선 순위가 부여된 것을 특징으로 하는, 전자 장치의 동작 방법. - 제10항에 있어서,
상기 전자 장치의 사용 패턴은,
상기 복수의 사용자 각각에 대한 상기 전자 장치의 사용 횟수 및 상기 전자 장치의 사용 시간 중 적어도 하나를 이용하여 획득되는, 전자 장치의 동작 방법. - 제1 사용자의 제1 음성 신호를 수신하는 수신부; 및
상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 전자 장치를 제어할 수 있는 권한이 있는지를 인증하고, 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 전자 장치를 제어하는 프로세서를 포함하는 전자 장치. - 제12항에 있어서,
상기 수신부는 상기 제1 사용자의 제2 음성 신호를 수신하고,
상기 프로세서는, 상기 제2 음성 신호에 트리거 신호가 포함되었는지를 결정하고, 상기 제2 음성 신호에 상기 트리거 신호가 포함된 경우,
상기 프로세서는, 상기 제1 사용자의 음성 신호에 의하여 상기 전자 장치가 제어되도록 상기 제2 음성 신호에 기초하여, 상기 제1 사용자를 상기 전자 장치를 제어할 수 있는 사용자로 설정하는 전자 장치. - 제13항에 있어서,
상기 프로세서는, 상기 제2 음성 신호로부터 상기 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출하고, 상기 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 상기 적어도 하나의 음성 파라미터의 기준값으로 저장하고, 상기 제1 사용자를 상기 전자 장치를 제어하는 사용자로 등록하는, 전자 장치. - 제13항에 있어서,
상기 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 상기 프로세서는 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는, 전자 장치. - 제12항에 있어서,
상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는 경우,
상기 프로세서는, 상기 제1 음성 신호에 대응하여, 상기 전자 장치의 제1 기능을 수행할 수 있는 제1 명령을 결정하고, 상기 제1 명령에 따라 상기 전자 장치의 제1 기능을 수행하는, 전자 장치. - 제12항에 있어서,
상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 없는 경우,
상기 프로세서는, 상기 제1 음성 신호에 대응하여, 상기 제1 음성 신호를 바이패스 하는 명령을 결정하고, 상기 제1 음성 신호를 바이패스하는, 전자 장치. - 제12항에 있어서,
상기 수신부는, 복수의 사용자로부터 복수의 음성 신호를 수신하고,
상기 프로세서는, 상기 복수의 음성 신호 각각에서 음성 특징을 추출하고, 상기 복수의 음성 신호 각각에서 추출된 음성 특징 중 상기 전자 장치를 제어할 수 있는 권한이 있는 사용자의 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 신호를 검출하고, 상기 제3 음성 신호에 대응하는 제3 명령에 따라 상기 전자 장치를 제어하는, 전자 장치. - 제12항에 있어서,
상기 전자 장치를 제어할 수 있는 권한이 있는 사용자가 복수이고, 상기 권한이 있는 복수의 사용자로부터 음성 신호를 수신한 경우,
상기 프로세서는, 미리 설정된 기준에 따라 상기 복수의 사용자 중 제2 사용자의 음성 신호에 대응하는 제2 명령을 우선적으로 결정하고, 상기 제2 명령에 따라 상기 전자 장치를 제어하는, 전자 장치. - 제19항에 있어서,
상기 미리 설정된 기준은, 상기 복수의 사용자 각각에 대한 상기 전자 장치의 사용 패턴에 따라 상기 복수의 사용자 각각에 대하여 우선 순위가 부여된 것을 특징으로 하는, 전자 장치.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160094821A KR102575634B1 (ko) | 2016-07-26 | 2016-07-26 | 전자 장치 및 전자 장치의 동작 방법 |
US15/441,977 US10762904B2 (en) | 2016-07-26 | 2017-02-24 | Electronic device and method of operating the same |
US16/901,651 US11404067B2 (en) | 2016-07-26 | 2020-06-15 | Electronic device and method of operating the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160094821A KR102575634B1 (ko) | 2016-07-26 | 2016-07-26 | 전자 장치 및 전자 장치의 동작 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180012055A true KR20180012055A (ko) | 2018-02-05 |
KR102575634B1 KR102575634B1 (ko) | 2023-09-06 |
Family
ID=61009940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160094821A KR102575634B1 (ko) | 2016-07-26 | 2016-07-26 | 전자 장치 및 전자 장치의 동작 방법 |
Country Status (2)
Country | Link |
---|---|
US (2) | US10762904B2 (ko) |
KR (1) | KR102575634B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11355127B2 (en) | 2018-12-14 | 2022-06-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
US11769503B2 (en) | 2021-01-07 | 2023-09-26 | Samsung Electronics Co., Ltd. | Electronic device and method for processing user utterance in the electronic device |
US11961508B2 (en) | 2019-11-15 | 2024-04-16 | Samsung Electronics Co., Ltd. | Voice input processing method and electronic device supporting same |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11064250B2 (en) | 2013-03-15 | 2021-07-13 | Google Llc | Presence and authentication for media measurement |
US10719591B1 (en) | 2013-03-15 | 2020-07-21 | Google Llc | Authentication of audio-based input signals |
US10541997B2 (en) | 2016-12-30 | 2020-01-21 | Google Llc | Authentication of packetized audio signals |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9826306B2 (en) | 2016-02-22 | 2017-11-21 | Sonos, Inc. | Default playback device designation |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9811314B2 (en) | 2016-02-22 | 2017-11-07 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10580405B1 (en) * | 2016-12-27 | 2020-03-03 | Amazon Technologies, Inc. | Voice control of remote device |
US11183181B2 (en) * | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
WO2019107145A1 (ja) * | 2017-11-28 | 2019-06-06 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
US10672380B2 (en) * | 2017-12-27 | 2020-06-02 | Intel IP Corporation | Dynamic enrollment of user-defined wake-up key-phrase for speech enabled computer system |
WO2019152722A1 (en) | 2018-01-31 | 2019-08-08 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
EP3553775B1 (en) * | 2018-04-12 | 2020-11-25 | Spotify AB | Voice-based authentication |
CN108597513A (zh) * | 2018-05-04 | 2018-09-28 | 深圳创维-Rgb电子有限公司 | 基于5.8GHz无线传输电视远场语音识别系统及方法 |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
CN108922528B (zh) * | 2018-06-29 | 2020-10-23 | 百度在线网络技术(北京)有限公司 | 用于处理语音的方法和装置 |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
RU2744063C1 (ru) | 2018-12-18 | 2021-03-02 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система определения говорящего пользователя управляемого голосом устройства |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
CN114270361A (zh) * | 2019-07-29 | 2022-04-01 | 三星电子株式会社 | 用于注册用于语音助理服务的设备的系统和方法 |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
WO2021051403A1 (zh) * | 2019-09-20 | 2021-03-25 | 深圳市汇顶科技股份有限公司 | 一种语音控制方法、装置、芯片、耳机及系统 |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11893985B2 (en) * | 2021-01-15 | 2024-02-06 | Harman International Industries, Incorporated | Systems and methods for voice exchange beacon devices |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11311993A (ja) * | 1998-04-30 | 1999-11-09 | Toshiba Tec Corp | 音声認識装置及びこの装置で使用される記憶媒体 |
US20080253549A1 (en) * | 2000-02-11 | 2008-10-16 | Microsoft Corporation | Distributed conference bridge and voice authentication for access to networked computer resources |
US20130179681A1 (en) * | 2012-01-10 | 2013-07-11 | Jpmorgan Chase Bank, N.A. | System And Method For Device Registration And Authentication |
KR20150087025A (ko) * | 2014-01-21 | 2015-07-29 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
KR20160014465A (ko) * | 2014-07-29 | 2016-02-11 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
KR20160055162A (ko) * | 2013-08-26 | 2016-05-17 | 삼성전자주식회사 | 음성 인식을 위한 전자 장치 및 방법 |
US20160155443A1 (en) * | 2014-11-28 | 2016-06-02 | Microsoft Technology Licensing, Llc | Device arbitration for listening devices |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU6049298A (en) * | 1997-01-31 | 1998-08-25 | T-Netix, Inc. | System and method for detecting a recorded voice |
US5913192A (en) * | 1997-08-22 | 1999-06-15 | At&T Corp | Speaker identification with user-selected password phrases |
US6978238B2 (en) * | 1999-07-12 | 2005-12-20 | Charles Schwab & Co., Inc. | Method and system for identifying a user by voice |
US8121649B2 (en) * | 2001-09-05 | 2012-02-21 | Vocera Communications, Inc. | Voice-controlled communications system and method having an access device |
US20030210770A1 (en) * | 2002-05-10 | 2003-11-13 | Brian Krejcarek | Method and apparatus for peer-to-peer voice communication using voice recognition and proper noun identification |
US7386448B1 (en) * | 2004-06-24 | 2008-06-10 | T-Netix, Inc. | Biometric voice authentication |
US20060080432A1 (en) * | 2004-09-03 | 2006-04-13 | Spataro Jared M | Systems and methods for collaboration |
US20060106605A1 (en) * | 2004-11-12 | 2006-05-18 | Saunders Joseph M | Biometric record management |
US8635243B2 (en) * | 2007-03-07 | 2014-01-21 | Research In Motion Limited | Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application |
KR20120034755A (ko) * | 2009-03-06 | 2012-04-12 | 인터디지탈 패튼 홀딩스, 인크 | 무선 장치들의 플랫폼 입증 및 관리 |
US20120089392A1 (en) * | 2010-10-07 | 2012-04-12 | Microsoft Corporation | Speech recognition user interface |
KR20130104470A (ko) * | 2012-03-14 | 2013-09-25 | 주식회사 포스뱅크 | Pos 시스템에서 음성 인식을 이용한 서비스 제공 방법 및 장치 |
US9638537B2 (en) * | 2012-06-21 | 2017-05-02 | Cellepathy Inc. | Interface selection in navigation guidance systems |
US9275642B2 (en) * | 2012-11-13 | 2016-03-01 | Unified Computer Intelligence Corporation | Voice-operated internet-ready ubiquitous computing device and method thereof |
US9112984B2 (en) * | 2013-03-12 | 2015-08-18 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US20140380445A1 (en) * | 2013-03-17 | 2014-12-25 | David Tunnell | Universal Authentication and Data Exchange Method, System and Service |
ES2907259T3 (es) * | 2013-12-06 | 2022-04-22 | The Adt Security Corp | Aplicación activada por voz para dispositivos móviles |
GB2524222B (en) * | 2013-12-18 | 2018-07-18 | Cirrus Logic Int Semiconductor Ltd | Activating speech processing |
US10157272B2 (en) * | 2014-02-04 | 2018-12-18 | Qualcomm Incorporated | Systems and methods for evaluating strength of an audio password |
US20150365750A1 (en) * | 2014-06-16 | 2015-12-17 | Mediatek Inc. | Activating Method and Electronic Device Using the Same |
US9318107B1 (en) * | 2014-10-09 | 2016-04-19 | Google Inc. | Hotword detection on multiple devices |
US9812128B2 (en) * | 2014-10-09 | 2017-11-07 | Google Inc. | Device leadership negotiation among voice interface devices |
US10257179B1 (en) * | 2015-01-26 | 2019-04-09 | Microstrategy Incorporated | Credential management system and peer detection |
KR102371697B1 (ko) * | 2015-02-11 | 2022-03-08 | 삼성전자주식회사 | 음성 기능 운용 방법 및 이를 지원하는 전자 장치 |
US10157350B2 (en) * | 2015-03-26 | 2018-12-18 | Tata Consultancy Services Limited | Context based conversation system |
US9940934B2 (en) * | 2015-11-18 | 2018-04-10 | Uniphone Software Systems | Adaptive voice authentication system and method |
-
2016
- 2016-07-26 KR KR1020160094821A patent/KR102575634B1/ko active IP Right Grant
-
2017
- 2017-02-24 US US15/441,977 patent/US10762904B2/en not_active Expired - Fee Related
-
2020
- 2020-06-15 US US16/901,651 patent/US11404067B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11311993A (ja) * | 1998-04-30 | 1999-11-09 | Toshiba Tec Corp | 音声認識装置及びこの装置で使用される記憶媒体 |
US20080253549A1 (en) * | 2000-02-11 | 2008-10-16 | Microsoft Corporation | Distributed conference bridge and voice authentication for access to networked computer resources |
US20130179681A1 (en) * | 2012-01-10 | 2013-07-11 | Jpmorgan Chase Bank, N.A. | System And Method For Device Registration And Authentication |
KR20160055162A (ko) * | 2013-08-26 | 2016-05-17 | 삼성전자주식회사 | 음성 인식을 위한 전자 장치 및 방법 |
KR20150087025A (ko) * | 2014-01-21 | 2015-07-29 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
KR20160014465A (ko) * | 2014-07-29 | 2016-02-11 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
US20160155443A1 (en) * | 2014-11-28 | 2016-06-02 | Microsoft Technology Licensing, Llc | Device arbitration for listening devices |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11355127B2 (en) | 2018-12-14 | 2022-06-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
US11961508B2 (en) | 2019-11-15 | 2024-04-16 | Samsung Electronics Co., Ltd. | Voice input processing method and electronic device supporting same |
US11769503B2 (en) | 2021-01-07 | 2023-09-26 | Samsung Electronics Co., Ltd. | Electronic device and method for processing user utterance in the electronic device |
Also Published As
Publication number | Publication date |
---|---|
US20200312335A1 (en) | 2020-10-01 |
KR102575634B1 (ko) | 2023-09-06 |
US20180033438A1 (en) | 2018-02-01 |
US11404067B2 (en) | 2022-08-02 |
US10762904B2 (en) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20180012055A (ko) | 전자 장치 및 전자 장치의 동작 방법 | |
US10353495B2 (en) | Personalized operation of a mobile device using sensor signatures | |
CN110798790B (zh) | 麦克风异常检测方法、装置及存储介质 | |
US11574009B2 (en) | Method, apparatus and computer device for searching audio, and storage medium | |
EP3160151B1 (en) | Video display device and operation method therefor | |
US20200194027A1 (en) | Method and apparatus for displaying pitch information in live webcast room, and storage medium | |
US9500739B2 (en) | Estimating and tracking multiple attributes of multiple objects from multi-sensor data | |
CN111477225B (zh) | 语音控制方法、装置、电子设备及存储介质 | |
WO2021135678A1 (zh) | 生成剪辑模板的方法、装置、电子设备及存储介质 | |
KR102374584B1 (ko) | 영상을 디스플레이 하는 방법 및 디바이스 | |
US11315534B2 (en) | Method, apparatus, terminal and storage medium for mixing audio | |
WO2021098676A1 (zh) | 控制方法和电子设备 | |
US9772815B1 (en) | Personalized operation of a mobile device using acoustic and non-acoustic information | |
CN105843503B (zh) | 应用开启方法、装置和终端设备 | |
US20190362709A1 (en) | Offline Voice Enrollment | |
CN106354266A (zh) | 终端的控制方法、装置及终端 | |
CN103916689A (zh) | 电子装置及控制电子装置的方法 | |
US20200020330A1 (en) | Detecting voice-based attacks against smart speakers | |
CN112614507B (zh) | 检测噪声的方法和装置 | |
CN108966094B (zh) | 发声控制方法、装置、电子装置及计算机可读介质 | |
US20210076122A1 (en) | Information processing apparatus, information processing method, and program | |
CN106341548B (zh) | 展示设备管理方法及装置 | |
CN113380248B (zh) | 语音控制方法、装置、设备及存储介质 | |
CN113380249B (zh) | 语音控制方法、装置、设备及存储介质 | |
CN111049970B (zh) | 操作设备的方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |