[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20180012055A - 전자 장치 및 전자 장치의 동작 방법 - Google Patents

전자 장치 및 전자 장치의 동작 방법 Download PDF

Info

Publication number
KR20180012055A
KR20180012055A KR1020160094821A KR20160094821A KR20180012055A KR 20180012055 A KR20180012055 A KR 20180012055A KR 1020160094821 A KR1020160094821 A KR 1020160094821A KR 20160094821 A KR20160094821 A KR 20160094821A KR 20180012055 A KR20180012055 A KR 20180012055A
Authority
KR
South Korea
Prior art keywords
electronic device
user
voice
signal
control
Prior art date
Application number
KR1020160094821A
Other languages
English (en)
Other versions
KR102575634B1 (ko
Inventor
아마드 아부샤리아
아나스 토마
하디 자달라
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160094821A priority Critical patent/KR102575634B1/ko
Priority to US15/441,977 priority patent/US10762904B2/en
Publication of KR20180012055A publication Critical patent/KR20180012055A/ko
Priority to US16/901,651 priority patent/US11404067B2/en
Application granted granted Critical
Publication of KR102575634B1 publication Critical patent/KR102575634B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

전자 장치의 동작 방법에 있어서, 제1 사용자의 제1 음성 신호를 수신하는 단계; 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계; 및 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 상기 전자 장치를 제어하는 단계를 포함할 수 있다.

Description

전자 장치 및 전자 장치의 동작 방법{ELECTRONIC DEVICE AND METHOD FOR OPERATING THE SAME}
전자 장치 및 전자 장치의 동작 방법에 관한 것이다.
사용자는 전자 장치를 더욱 편리하게 사용하고자 한다. 이에 따라, 전자 장치를 용이하게 제어하는 기술은 점차 발달하는 추세이다. 즉, 전자 장치를 용이하게 제어하는 기술은 전자 장치에 부착된 입력부를 통해 전자 장치를 제어하던 방법에서 시작하여, 근거리에서도 제어 가능한 외부 리모트 컨트롤러(Remote Controller)를 이용하는 방법으로 발전하였다.
전자 장치에서 터치 패널을 구비하는 디스플레이부의 사용이 일반화됨에 따라, 터치 입력을 이용하여 전자 장치를 제어하는 기술이 보편적으로 사용된다. 또한, 전자 장치에서 음성 인식 기술을 이용하여 사용자의 음성을 인식하고, 전자 장치를 제어하는 기술도 사용된다. 이에 따라, 사용자가 음성을 통해 용이하게 전자 장치를 제어할 수 있는 기술에 대한 필요성이 인정된다.
외부 잡음 또는 복수의 사용자가 존재하는 경우에도 사용자가 음성을 통해 용이하게 전자 장치를 제어할 수 있는 방법 및 전자 장치를 제공한다.
일측에 따르면, 전자 장치의 동작 방법에 있어서, 제1 사용자의 제1 음성 신호를 수신하는 단계; 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계; 및 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 상기 전자 장치를 제어하는 단계를 포함할 수 있다.
다른 일측에 따르면, 전자 장치는 제1 사용자의 제1 음성 신호를 수신하는 수신부; 및 상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 전자 장치를 제어할 수 있는 권한이 있는지를 인증하고, 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 전자 장치를 제어하는 프로세서를 포함할 수 있다.
또 다른 일측에 따르면, 상기 전자 장치의 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. 본 발명의 일실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
도 1은 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 개념도이다.
도 2는 일실시예에 따른 전자 장치의 구성을 나타낸 블록도이다.
도 3은 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 4는 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 5a 내지 도 5d는 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 6은 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 7은 또 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 8은 일실시예에 따라, 복수의 사용자로부터 복수의 음성 신호를 수신한 경우, 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 9는 일실시예에 따라, 본 발명과 관련된 전자 장치의 구성을 나타낸 블록도이다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
명세서 전체에서 "전자 장치"는 전기 에너지를 공급 받아 동작하는 장치를 의미한다. 명세서에서 "전자 장치"를 "TV"로 예시하여도 권리범위 해석에 있어서 " TV "에 한정되지 않고, 전기 에너지를 공급 받아 동작하는 장치에 적용될 수 있음은 통상의 지식을 가진 자라면 이해할 수 있다.
도 1은 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 개념도이다.
도 1에 도시된 바와 같이, 사용자(102)는 음성 신호를 이용하여, TV(100)와 같은 전자 장치를 제어할 수 있다. 사용자(102)는 음성 신호로 TV(100)를 제어하기 위해, 사용자 등록을 할 수 있다. 구체적으로, 사용자(102)가 "하이, TV(103)"와 같은 트리거 신호를 발성하면, TV(100)는 "하이, TV(103)"의 음성 신호를 수신하고, 사용자 등록 과정을 진행할 수 있다.
TV(100)는 사용자(102)의 음성 신호로부터 다른 사용자와 구분할 수 있는 음성 특징을 추출하고, 추출된 음성 특징을 기초로 사용자를 TV(100)를 제어할 수 있는 사용자로 설정할 수 있다. TV(100)를 제어할 수 있는 사용자로 등록되지 않은 사용자(102)는 음성을 통해 TV(100)를 제어할 수 없다. 사용자(102)의 음성 신호를 통해 전자 장치를 제어하는 내용은 도 2 내지 도 8에서 상세하게 설명한다.
또한, 전자 장치는 TV이나, 이는 일 실시예에 불과할 뿐, 음성 인식 기능을 포함하는 태블릿 PC, 디지털 카메라, 캠코더, 노트북 PC, PDA, 휴대폰 등과 같은 다양한 전자 장치로 구현될 수 있다.
도 2는 일실시예에 따른 전자 장치의 구성을 나타낸 블록도이다.
일실시예에 따르면, 전자 장치(200)는 수신부(210), 프로세서(220)를 포함할 수 있다. 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(200)가 구현될 수 있고, 그 보다 적은 구성 요소에 의해서도 전자 장치(200)가 구현될 수 있다. 이하 상기 구성 요소들에 대해 차례로 살펴본다.
수신부(210)는 외부로부터 사용자의 음성 신호를 수신할 수 있다. 수신부(210)는 사용자로부터 직접 음성 신호를 수신하거나, 외부 장치로부터 사용자의 음성 신호를 수신할 수 있다. 예를 들면, 사용자로부터 직접 음성 신호를 수신하는 경우, 프로세서(220)는 수신부(210)(예를 들면, 전자 장치(200)에 포함된 마이크로폰)가 사용자의 음성 신호를 수신하도록 제어할 수 있다. 또한, 외부 장치로부터 사용자의 음성 신호를 수신하는 경우, 프로세서(220)는 무선 네트워크를 통해 수신부(210)가 외부 장치로부터 사용자의 음성 신호를 수신하도록 제어할 수 있다. 무선 네트워크에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
수신부(210)는 사용자의 음성 신호를 수신하여 음성 데이터로 처리하고, 음성 데이터를 프로세서(220)로 전달할 수 있다. 구체적으로, 수신부(210)는 스피커 및 마이크로폰과 같은 하드웨어로 구성될 수 있다. 스피커 및 마이크로폰은 음성 인식, 음성 복제, 디지털 레코딩(recording) 및 전화 기능과 같은 오디오 스트림의 입력과 출력을 담당할 수 있다. 즉, 스피커 및 마이크로폰은 음성신호를 전기신호로 변환하거나 전기신호를 음성신호로 변환할 수 있다. 또한, 탈부착 가능한(attachable and detachable) 이어폰(earphone), 헤드폰(head phone) 또는 헤드셋(head set)이 외부포트를 통해 전자 장치(200)에 연결될 수 있다.
프로세서(220)는 적어도 하나의 소프트웨어 프로그램을 실행하여 전자 장치(200)를 위한 여러 가지 기능을 수행할 수 있다. 프로세서(220)는 음성 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 또한, 프로세서(220)는 외부 메모리 또는 내부 메모리에 저장되어 있는 특정 소프트웨어 모듈을 실행하여 모듈에 대응하는 특정 기능을 수행할 수 있다. 프로세서(220)는 외부 메모리 또는 내부 메모리에 저장된 소프트웨어 모듈들과 연동하여 본 개시에 따른 전자 장치(200)의 동작을 수행할 수 있다.
프로세서(220)는 제1 사용자의 제1 음성 신호에 기초하여, 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 프로세서(220)는 인증 결과에 기초하여, 제1 음성 신호에 대응하는 명령을 결정하고, 명령에 따라 전자 장치(200)를 제어할 수 있다.
또한, 프로세서(220)는 제2 음성 신호에 트리거 신호가 포함되었는지를 결정할 수 있다. 트리거 신호는 전자 장치(200)를 제어할 수 있는 사용자를 설정하기 위한 동작을 수행하기 위해 미리 설정된 신호일 수 있다. 제2 음성 신호에 트리거 신호가 포함된 경우, 프로세서(220)는 제1 사용자의 음성 신호에 의하여 전자 장치(200)가 제어되도록 제2 음성 신호에 기초하여, 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 설정할 수 있다. 구체적으로, 프로세서(220)는 제2 음성 신호로부터 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출하고, 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 적어도 하나의 음성 파라미터의 기준값으로 저장할 수 있다. 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어하는 사용자로 등록할 수 있다. 추후, 수신부(210)를 통해 음성 신호를 수신할 수 있다. 프로세서(220)는 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 음성 신호에 대한 제1 음성 파라미터의 값과 저장된 제1 음성 파라미터의 기준값을 비교하여, 사용자 인증을 수행할 수 있다.
여기서, 적어도 하나의 음성 파라미터는 사용자의 음성 에너지, 주파수 대역폭, 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나일 수 있다. 상기 언급된 음성 파라미터의 예시 이외에 다른 음성 파라미터가 사용자를 인증하는 데에 이용되는 음성 파라미터에 속할 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
제1 사용자의 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 프로세서(220)는 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 구체적으로, 프로세서(220)는 제2 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 추출된 제1 음성 파라미터의 값을 기저장된 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제2 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값과 일치하면, 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다. 또한, 제2 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값을 기준으로 일정 범위 이내이면, 프로세서(220)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는 것으로 결정된 경우, 프로세서(220)는 제1 음성 신호에 대응하여, 전자 장치(200)의 제1 기능을 수행할 수 있는 제1 명령을 결정하고, 제1 명령에 따라 전자 장치(200)의 제1 기능을 수행할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 없는 것으로 결정된 경우, 프로세서(220)는 제1 음성 신호에 대응하여, 제1 음성 신호를 바이패스 하는 명령을 결정하고, 제1 음성 신호를 바이패스 할 수 있다.
또한, 수신부(210)는 복수의 사용자로부터 복수의 음성 신호를 수신할 수 있다. 프로세서(220)는 복수의 음성 신호 각각에서 음성 특징을 추출하고, 복수의 음성 신호에서 추출된 각각의 음성 특징 중 기준 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 특징을 검출할 수 있다. 여기서, 기준 음성 특징은 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 특징일 수 있다. 사용자의 음성의 크기, 사용자의 성별, 나이 등에 따른 주파수 대역 분포, 전자 장치(200)의 위치에 따라 달라지는 사용자 음성의 울림값, 음성 신호 대 잡음비가 사용자의 음성 특징에 해당될 수 있다. 프로세서(220)는, 제3 음성 신호에 대응하는 제3 명령을 결정하고, 제3 명령에 따라 전자 장치(200)를 제어할 수 있다.
전자 장치(200)를 제어할 수 있는 권한이 있는 사용자가 복수이고, 권한이 있는 복수의 사용자로부터 음성 신호를 수신한 경우, 프로세서(220)는 미리 설정된 기준에 따라 복수의 사용자 중 제2 사용자의 음성 신호에 대응하는 제2 명령을 우선적으로 결정하고, 제2 명령에 따라 전자 장치(200)를 제어할 수 있다.
여기서, 미리 설정된 기준은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 또는 기설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여된 것일 수 있다. 전자 장치(200)의 사용 패턴은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 이용하여 획득되는 것일 수 있다. 상기 언급된 예시 이외에 다른 예시에 의해 전자 장치(200)의 사용 패턴이 결정될 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 또한, 기설정된 순서는 전자 장치(200)에 미리 설정될 수 있다.
전자 장치(200)는 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시)를 더 포함할 수 있다. 메모리(미도시)는 트리거 신호, 외부로부터 수신된 음성 신호, 음성 신호로부터 추출된 음성 파라미터의 값, 전자 장치(200)를 제어할 수 있는 사용자에 대한 정보를 저장할 수 있다. 전자 장치(200)를 제어할 수 있는 사용자에 대한 정보는, 권한 있는 사용자의 음성 신호로부터 추출된 음성 파라미터의 기준값을 포함할 수 있다.
또한, 메모리(미도시)는 전자 장치(200)를 제어할 수 있는 권한이 있는 복수의 사용자에 대한 정보를 저장할 수 있다. 복수의 사용자들에 대한 정보는, 복수의 사용자 각각의 음성 신호로부터 추출된 음성 파라미터의 값, 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 정보를 포함할 수 있다. 사용 패턴 정보는 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 포함할 수 있다.
메모리(미도시)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(SD, XD 메모리 등), 램(RAM; Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM; Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
디스플레이(미도시)는 제1 사용자의 음성 신호에 기초하여 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 설정하는 결과 화면을 표시할 수 있다. 또한, 디스플레이(미도시)는 제1 음성 신호를 수신하고, 제1 음성 신호에 대한 사용자 인증 결과 화면(예를 들면, 사용자 인증 성공 또는 사용자 인증 실패에 대한 정보)을 표시 할 수 있다. 또한, 디스플레이(미도시)는 제1 음성 신호에 대응하여 전자 장치(200)를 제어하는 명령(예를 들면, 지도 검색)을 실행하고, 실행된 결과(예를 들면, 지도 검색에 대한 결과)를 표시할 수 있다.
사용자 인터페이스(미도시)는 전자 장치(200)를 제어하기 위한 데이터를 입력 받는 장치를 의미한다. 사용자 인터페이스(미도시)는 키패드, 마우스, 터치 패널, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나, 이에 한정되는 것은 아니다. 구체적으로, 사용자 인터페이스(미도시)는 전자 장치(200)를 제어할 수 있는 사용자를 설정에 필요한 데이터를 터치 스크린을 통해 입력 받을 수 있다. 또한, 메모리(200)는 복수의 사용자 각각에 대한 우선 순위가 설정된 정보를 저장할 수 있다.
전자 장치(200)는 중앙 연산 프로세서를 구비하여, 수신부(210), 프로세서(220), 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시)의 동작을 총괄적으로 제어할 수 있다. 중앙 연산 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
이하에서는, 전자 장치(200)가 수행하는 다양한 동작이나 응용들이 설명되는데, 수신부(210), 프로세서(220), 메모리(미도시), 디스플레이(미도시) 및 사용자 인터페이스(미도시) 중 어느 구성을 특정하지 않더라도 본 발명의 기술분야에 대한 통상의 기술자가 명확하게 이해하고 예상할 수 있는 정도의 내용은 통상의 구현으로 이해될 수 있으며, 본 발명의 권리범위가 특정한 구성의 명칭이나 물리적/논리적 구조에 의해 제한되는 것은 아니다.
도 3은 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 3의 단계 S310에서, 전자 장치(200)는 제1 사용자의 제1 음성 신호를 수신할 수 있다. 제1 음성 신호는 전자 장치(200)를 제어하기 위한 명령을 포함할 수 있다. 전자 장치(200)는 제1 사용자의 제1 음성 신호를 마이크로폰을 통해 수신할 수 있다. 제1 음성 신호는 전자 장치(200)에서 제공하는 다양한 기능을 실행하기 위한 명령을 포함할 수 있고 명령은, 전자 장치(200)의 온/오프, 동영상 재생, 음악 재생, 파일 관리, 인터넷 검색 등과 같은 명령을 포함할 수 있다.
단계 S320에서, 전자 장치(200)는 제1 음성 신호에 기초하여 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다.
구체적으로, 전자 장치(200)는 제1 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 신호에 대한 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값을 비교하여, 제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는지를 인증할 수 있다. 여기서, 기준값은 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 신호로부터 획득된 음성 파라미터의 값이다. 제1 음성 신호로부터 추출된 제1 음성 파라미터의 값이 제1 음성 파라미터의 기준값을 기준으로 일정 범위 이내이면, 전자 장치(200)는 제1 사용자를 전자 장치(200)를 제어할 수 있는 사용자로 결정할 수 있다.
음성 파라미터는 사용자의 음성 에너지, 주파수 대역폭, 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나일 수 있고, 이에 한정되지 않는다.
단계 S330에서, 전자 장치(200)는 인증 결과에 기초하여 제1 음성 신호에 대응하는 명령을 결정하고, 명령에 따라 전자 장치(200)를 제어할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 있는 것으로 결정된 경우, 전자 장치(200)는 제1 음성 신호에 기초하여 전자 장치(200)의 제1 기능을 수행할 수 있는 제1 명령을 결정할 수 있다. 전자 장치(200)는 제1 명령에 따라 전자 장치(200)의 제1 기능을 수행할 수 있다. 예를 들면, 전자 장치(200)는 전자 장치(200)의 동작 시간을 예약하는 명령을 포함하는 제1 사용자의 제1 음성 신호를 수신하고, 제1 음성 신호로부터 전자 장치(200)의 동작 시간을 예약하는 명령을 검출하고, 명령에 따라 전자 장치(200)의 동작 시간을 제어할 수 있다.
제1 사용자가 전자 장치(200)를 제어할 수 있는 권한이 없는 것으로 결정된 경우, 전자 장치(200)는 제1 음성 신호에 대응하여, 제1 음성 신호를 바이패스 하는 명령을 결정하고, 제1 음성 신호를 바이패스 할 수 있다.
도 4는 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 4의 단계 S410에서, 전자 장치는 제1 사용자의 제2 음성 신호를 수신할 수 있다.
단계 S420에서, 전자 장치(200)는 제2 음성 신호에 트리거 신호가 포함되었는지를 결정할 수 있다. 트리거 신호는 전자 장치(200)를 제어할 수 있는 사용자를 설정하기 위한 동작을 수행하기 위해 미리 설정된 신호일 수 있다. 제2 음성 신호에 트리거 신호가 포함된 경우, 전자 장치(200)는 단계 S430에 따른 동작을 수행할 수 있다. 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 전자 장치(200)는 단계 S440에 따른 동작을 수행할 수 있다.
단계 S430에서, 전자 장치(200)는 제2 음성 신호에 기초하여, 제1 사용자의 음성 신호에 의하여 전자 장치(200)가 제어되도록 설정할 수 있다. 구체적으로, 전자 장치(200)는 제2 음성 신호로부터 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출할 수 있다. 전자 장치(200)는 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 적어도 하나의 음성 파라미터의 기준값으로 저장할 수 있다. 전자 장치(200)는 저장된 기준값을 기준으로, 제1 사용자를 전자 장치(200)를 제어하는 사용자로 등록할 수 있다.
단계 S440에서, 전자 장치(200)는 제2 음성 신호에 기초하여, 제1 사용자를 전자 장치의 제어 권한이 있는지를 인증하고, 인증 결과에 따라 전자 장치를 제어할 수 있다. 단계 S440은 도 3에 도시된 단계 S320과 단계 S330과 대응될 수 있다.
도 5a 내지 도 5d는 일실시예에 따라, 사용자의 음성 신호를 통해 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 5a를 참고하면, 제1 사용자(501)는 TV(200)를 음성으로 제어하기 위해 사용자 등록 과정을 수행할 수 있다. 제1 사용자(501)가 "헬로우"라고 발언하면, TV(200)는 "헬로우" 음성 신호를 수신할 수 있다. 여기서, "헬로우" 음성 신호는 TV(200)를 제어하는 사용자를 설정하는 프로세스를 수행하기 위한 트리거 신호로 미리 설정될 수 있다. TV(200)는 제1 사용자(501)의 "헬로우" 음성 신호를 수신하고, 수신한 결과를 화면 상에 표시할 수 있다. 도 5a에 도시된 바와 같이, TV(200)는 외부로부터 음성 신호를 수신한 경우, "음성 인식 중입니다"와 같은 문구를 화면 상에 디스플레이 할 수 있다. 외부로부터 수신한 음성 신호가 트리거 신호가 아니면, TV(200)는 음성 신호에 의해 전자 장치가 제어될 수 있는지에 대한 인증 과정을 수행할 수 있다.
도 5b를 참고하면, 외부로부터 수신한 음성 신호가 트리거 신호이면, TV(200)는 음성 신호를 이용하여 전자 장치를 제어할 수 있는 사용자 등록 과정을 수행할 수 있다.
TV(200)는 제1 음성 신호로부터 제1 사용자(501)에 대한 제1 음성 파라미터의 값을 추출할 수 있다. TV(200)는 제1 음성 신호로부터 추출된 제1 음성 파라미터의 값을 제1 음성 파라미터의 기준값으로 결정하고, 제1 사용자(501)를 전자 장치를 제어할 수 있는 사용자로 등록할 수 있다. 도 5b에 도시된 바와 같이, TV(200)는 사용자 등록 과정 중에, "사용자 등록 중입니다"와 같은 문구를 화면 상에 디스플레이 할 수 있다.
도 5c를 참고하면, 제1 사용자(501)는 음성으로 TV(200)를 제어할 수 있는 사용자로 등록한 후, 음성을 통해 TV(200)를 제어할 수 있다. 제1 사용자(501)가 TV(200)의 채널 변경을 위해 "채널 42"라고 발언하면, TV(200)는 제1 사용자(501)의 "채널 42"의 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 일치되면, TV(200)는 기존의 채널을 채널 42로 변경할 수 있다.
도 5d를 참고하면, 음성으로 TV(200)를 제어할 수 있는 사용자로 등록되지 않은 제2 사용자(502)는 음성으로 TV(200)를 제어할 수 없다. 제2 사용자(502)가 TV(200)의 채널 변경을 위해 "채널 10"라고 발언하면, TV(200)는 제2 사용자(502)의 "채널 10"의 음성 신호로부터 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, 제2 사용자(502)에 대한 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 일치되지 않으므로, TV(200)는 기존의 채널을 채널 10으로 변경하지 않고, 기존 채널을 유지하게 된다. 이 경우, TV(200)는 "사용자 인증이 되지 않았습니다"와 같은 문구를 화면 상에 표시할 수 있다.
도 6은 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 6의 단계 S610에서, 전자 장치(200)는 복수의 사용자로부터 복수의 음성 신호를 수신할 수 있다.
단계 S620에서, 전자 장치(200)는 복수의 음성 신호 각각에서 음성 특징을 추출할 수 있다. 음성 특징은 사용자의 음성의 크기, 사용자의 성별, 나이 등에 따른 주파수 대역 분포, 전자 장치(200)의 위치에 따라 달라지는 사용자 음성의 울림값, 음성 신호 대 잡음비 중 어느 하나에 해당될 수 있고, 이에 한정되지 않는다.
단계 S630에서, 전자 장치(200)는 복수의 음성 신호 각각에서 추출된 음성 특징 중 전자 장치(200)를 제어할 수 있는 권한이 있는 사용자의 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 신호를 검출할 수 있다.
구체적으로, 전자 장치(200)는 복수의 음성 신호 각각에서 제1 음성 파라미터의 값을 추출할 수 있다. 전자 장치(200)는 추출된 제1 음성 파라미터의 값 각각을 미리 설정된 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과 전자 장치(200)는 제1 음성 파라미터의 기준값과 대응되는 제1 음성 파라미터의 값을 포함하는 제3 음성 신호를 검출할 수 있다.
단계 S640에서, 전자 장치(200)는 제3 음성 신호에 대응하는 제3 명령을 결정하고, 제3 명령에 기초하여 전자 장치(200)를 제어할 수 있다.
도 7은 또 다른 일실시예에 따라, 전자 장치의 동작 방법을 나타낸 흐름도이다.
도 7의 단계 S710에서, 전자 장치(200)는 전자 장치(200)를 제어할 수 있는 권한이 있는 복수의 사용자로부터 음성 신호를 수신할 수 있다.
단계 S720에서, 전자 장치(200)는 미리 설정된 기준에 따라 복수의 사용자 중 제1 사용자를 선택할 수 있다. 여기서 미리 설정된 기준은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 패턴 또는 기설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여된 것일 수 있다. 전자 장치(200)의 사용 패턴은 복수의 사용자 각각에 대한 전자 장치(200)의 사용 횟수 및 전자 장치(200)의 사용 시간 중 적어도 하나를 이용하여 획득된 것일 수 있다. 전자 장치는 복수의 사용자 각각에 대한 우선 순위가 설정된 정보를 입력 받고, 복수의 사용자 중 제1 사용자를 선택할 수 있다.
구체적으로, 특정 시간 대에 제1 사용자가 다른 사용자들보다 전자 장치(200)를 사용한 횟수가 많다고 가정한다. 전자 장치(200)가 특정 시간 대에 제1 사용자를 포함한 복수의 사용자로부터 음성 신호를 수신한 경우, 전자 장치(200)는 우선적으로 제1 사용자에 대한 음성 신호를 제어 신호로 결정할 수 있다.
단계 S730에서, 전자 장치(200)는 제1 사용자의 음성 신호에 대응하는 명령을 결정하고, 결정된 명령에 따라 전자 장치(200)를 제어할 수 있다.
도 8은 일실시예에 따라, 복수의 사용자로부터 복수의 음성 신호를 수신한 경우, 전자 장치의 동작 방법을 설명하기 위한 도면이다.
일개시에 따르면, 제1 사용자(501)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 있고, 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 없다고 가정한다. TV(200)는 외부로부터 제1 음성 신호(801), 잡음 신호(802) 및 제2 음성 신호(803)를 수신할 수 있다. 구체적으로, TV(200)는 제1 사용자(501)로부터 "채널 42"라는 제1 음성 신호(801)를 수신하고, 제2 사용자(502)로부터 "채널 10"이라는 제2 음성 신호(803)를 수신할 수 있다. TV(200)는 제1 음성 신호(801) 및 제2 음성 신호(803) 각각에 대하여 제1 음성 파라미터의 값을 추출하고, 제1 음성 파라미터의 기준값과 비교할 수 있다. 비교 결과, TV(200)는 제1 음성 파라미터의 값과 제1 음성 파라미터의 기준값이 서로 일치하는 제1 음성 신호(801)에 대응하는 명령을 수행할 수 있다. 즉, TV(200)는 제1 사용자(501)의 제1 음성 신호(801)로부터 기존 채널을 "채널 42"로 변경하라는 명령을 결정하고, 결정된 명령에 따라 기존 채널을 "채널 42"로 변경할 수 있다. 또한, 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한을 설정하고, 음성 신호를 이용하여 TV(200)를 제어할 수 있다.
다른 일개시에 따르면, 제1 사용자(501) 및 제2 사용자(502)는 음성 신호로 TV(200)를 제어할 수 있는 권한이 있다고 가정한다. TV(200)는 외부로부터 제1 음성 신호(801), 잡음 신호(802) 및 제2 음성 신호(803)를 수신할 수 있다. 구체적으로, TV(200)는 제1 사용자(501)로부터 "채널 42"라는 제1 음성 신호(801)를 수신하고, 제2 사용자(502)로부터 "채널 10"이라는 제2 음성 신호(803)를 수신할 수 있다. 이 경우, TV(200)는 제1 사용자(501) 및 제2 사용자(502) 중 한 명의 사용자의 음성 신호에만 대응하는 명령에 따라 동작을 수행할 수 있다. TV(200)는 미리 설정된 기준에 따라 복수의 사용자 중 어느 한 명의 사용자의 음성 신호에 대응하는 명령을 우선적으로 결정하고, 결정된 명령에 따라 TV(200) 동작을 수행할 수 있다. 미리 설정된 기준은 복수의 사용자 각각에 대한 TV(200)의 사용 패턴 또는 미리 설정된 순서에 따라 복수의 사용자 각각에 대하여 우선 순위가 부여되어 설정될 수 있다. 여기서, TV(200)의 사용 패턴 뿐만 아니라, 다른 요소에 의하여 복수의 사용자 각각에 대하여 우선 순위가 부여될 수 있음은 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 9는 일실시예에 따라, 본 발명과 관련된 전자 장치의 구성을 나타낸 블록도이다.
도 9에 도시된 전자 장치(1000)는 도 2의 전자 장치(200)과 동일 대응될 수 있다. 구체적으로, 도 9의 제어부(3300)는 도 2의 프로세서(220)과 동일 대응될 수 있고, 도 9의 통신부(3500)는 도 2의 전자 장치(200)의 통신부(210)와 동일 대응될 수 있고, 도 9의 저장부(3700)는 도 2의 전자 장치(200)의 메모리(미도시)와 동일 대응될 수 있고, 도 9의 입력부(3100)는 도 2의 전자 장치(200)의 사용자 인터페이스(미도시)와 동일 대응될 수 있다.
입력부(3100)는 사용자가 전자 장치(1000)을 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력부(3100)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
출력부(3200)는 오디오 신호, 비디오 신호 또는 진동 신호를 출력할 수 있다. 출력부(3200)는 음향 출력부(3220), 및 진동 모터(3230)를 포함할 수 있다.
터치스크린(3210)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 전자 장치(1000)의 구현 형태에 따라 전자 장치(1000)는 터치스크린(3210)을 2개 이상 포함할 수도 있다. 이때, 2개 이상의 터치스크린(3210)은 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(3220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(3220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(3220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(3230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(3230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(3230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
제어부(3300)는 전자 장치(1000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(3300)는 메모리(1700)에 저장된 프로그램을 실행함으로써, 전자 장치(1000)에 포함된 구성요소들이 동작하도록 제어할 수 있다.
센싱부(3400)는 사용자의 신체 접촉을 감지하고, 감지된 신체 접촉에 기초하여 생체 정보를 획득할 수 있다. 센싱부(3400)는, 지자기 센서(3410), 무게 센서(3411), 모션 센서(3412), 가속도 센서(3420), 온/습도 센서(3430), 적외선 센서(3440), 자이로스코프 센서(3450), 위치 센서(3460), 기압 센서(3470), 근접 센서(3480) 및 RGB 센서(3490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(3500)는 전자 장치(1000)와 외부 기기(미도시) 간의 통신을 수행하기 위한 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(3500)는, 근거리 통신부(3510), 이동 통신부(3520), 방송 수신부(3530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(3510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(3520)는, 이동 통신망 상에서 기지국, 외부의 전자 장치(1000), 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(3530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(3530)를 포함하지 않을 수도 있다.
A/V(Audio/Video) 입력부(3600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(3300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(3610)에서 처리된 화상 프레임은 메모리(3700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(3610)는 전자 장치(1000)기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(3620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(3620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(3620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(3700)는, 제어부(3300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(3700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(3700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, 터치 스크린 모듈(3710), UI(User Interface) 모듈(3720), 알림 모듈(3730) 등으로 분류될 수 있다.
터치 스크린 모듈(3710)과 관련하여, 터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
UI 모듈(3720)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI(Graphic User Interface) 등을 제공할 수 있다. 터치 스크린 모듈은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(3300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
알림 모듈(3730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 메시지 발생, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(3720)은 디스플레이부(3210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(3200)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(3230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.
처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.
이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.
소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 전자 장치의 동작 방법에 있어서,
    제1 사용자의 제1 음성 신호를 수신하는 단계;
    상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계; 및
    상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 상기 전자 장치를 제어하는 단계를 포함하는 전자 장치의 동작 방법.
  2. 제1항에 있어서,
    상기 제1 사용자의 제2 음성 신호를 수신하고, 상기 제2 음성 신호에 트리거 신호가 포함되었는지를 결정하는 단계; 및
    상기 제2 음성 신호에 상기 트리거 신호가 포함된 경우, 상기 제1 사용자의 음성 신호에 의하여 상기 전자 장치가 제어되도록 상기 제2 음성 신호에 기초하여, 상기 제1 사용자를 상기 전자 장치를 제어할 수 있는 사용자로 설정하는 단계를 더 포함하는 전자 장치의 동작 방법.
  3. 제2항에 있어서,
    상기 제2 음성 신호에 기초하여, 상기 제1 사용자를 상기 전자 장치를 제어할 수 있는 사용자로 설정하는 단계는,
    상기 제2 음성 신호로부터 상기 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출하는 단계; 및
    상기 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 적어도 하나의 음성 파라미터의 기준값으로 저장하고, 상기 제1 사용자를 상기 전자 장치를 제어하는 사용자로 등록하는 단계를 포함하는, 전자 장치의 동작 방법.
  4. 제3항에 있어서,
    상기 적어도 하나의 음성 파라미터는,
    상기 제1 사용자의 음성 에너지, 주파수 대역폭, 상기 제1 사용자 음성의 발화 시의 울림값 및 음성 신호 대 잡음비 중 적어도 하나인 것을 특징으로 하는, 전자 장치의 동작 방법.
  5. 제2항에 있어서,
    상기 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 상기 제2 음성 신호에 기초하여, 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는 단계를 수행하는 것을 특징으로 하는, 전자 장치의 동작 방법.
  6. 제1항에 있어서,
    상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는 경우,
    상기 전자 장치를 제어하는 단계는,
    상기 제1 음성 신호에 대응하여 상기 전자 장치의 제1 기능을 수행할 수 있는 제1 명령을 결정하는 단계; 및
    상기 제1 명령에 따라 상기 전자 장치의 제1 기능을 수행하는 단계를 포함하는, 전자 장치의 동작 방법.
  7. 제1항에 있어서,
    상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 없는 경우,
    상기 전자 장치를 제어하는 단계는,
    상기 제1 음성 신호에 대응하여, 상기 제1 음성 신호를 바이패스 하는 명령을 결정하고, 상기 제1 음성 신호를 바이패스 하는 단계를 포함하는, 전자 장치의 동작 방법.
  8. 제1항에 있어서,
    복수의 사용자로부터 복수의 음성 신호를 수신하는 단계;
    상기 복수의 음성 신호 각각에서 음성 특징을 추출하는 단계;
    상기 복수의 음성 신호 각각에서 추출된 음성 특징 중 상기 전자 장치를 제어할 수 있는 권한이 있는 사용자의 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 신호를 검출하는 단계; 및
    상기 제3 음성 신호에 대응하는 제3 명령을 결정하고, 상기 제3 명령에 기초하여 상기 전자 장치를 제어하는 단계를 포함하는, 전자 장치의 동작 방법.
  9. 제1항에 있어서,
    상기 전자 장치를 제어할 수 있는 권한이 있는 사용자가 복수이고, 상기 권한이 있는 복수의 사용자로부터 음성 신호를 수신한 경우,
    미리 설정된 기준에 따라 상기 복수의 사용자 중 제2 사용자의 음성 신호에 대응하는 제2 명령을 우선적으로 결정하고, 상기 제2 명령에 따라 상기 전자 장치를 제어하는 단계를 더 포함하는, 전자 장치의 동작 방법.
  10. 제9항에 있어서,
    상기 미리 설정된 기준은, 상기 복수의 사용자 각각에 대한 상기 전자 장치의 사용 패턴 또는 기설정된 순서에 따라 상기 복수의 사용자 각각에 대하여 우선 순위가 부여된 것을 특징으로 하는, 전자 장치의 동작 방법.
  11. 제10항에 있어서,
    상기 전자 장치의 사용 패턴은,
    상기 복수의 사용자 각각에 대한 상기 전자 장치의 사용 횟수 및 상기 전자 장치의 사용 시간 중 적어도 하나를 이용하여 획득되는, 전자 장치의 동작 방법.
  12. 제1 사용자의 제1 음성 신호를 수신하는 수신부; 및
    상기 제1 음성 신호에 기초하여, 상기 제1 사용자가 전자 장치를 제어할 수 있는 권한이 있는지를 인증하고, 상기 인증 결과에 기초하여, 상기 제1 음성 신호에 대응하는 명령을 결정하고, 상기 명령에 따라 전자 장치를 제어하는 프로세서를 포함하는 전자 장치.
  13. 제12항에 있어서,
    상기 수신부는 상기 제1 사용자의 제2 음성 신호를 수신하고,
    상기 프로세서는, 상기 제2 음성 신호에 트리거 신호가 포함되었는지를 결정하고, 상기 제2 음성 신호에 상기 트리거 신호가 포함된 경우,
    상기 프로세서는, 상기 제1 사용자의 음성 신호에 의하여 상기 전자 장치가 제어되도록 상기 제2 음성 신호에 기초하여, 상기 제1 사용자를 상기 전자 장치를 제어할 수 있는 사용자로 설정하는 전자 장치.
  14. 제13항에 있어서,
    상기 프로세서는, 상기 제2 음성 신호로부터 상기 제1 사용자에 대한 적어도 하나의 음성 파라미터의 값을 추출하고, 상기 제2 음성 신호로부터 추출된 적어도 하나의 음성 파라미터의 값을 상기 적어도 하나의 음성 파라미터의 기준값으로 저장하고, 상기 제1 사용자를 상기 전자 장치를 제어하는 사용자로 등록하는, 전자 장치.
  15. 제13항에 있어서,
    상기 제2 음성 신호에 트리거 신호가 포함되지 않은 경우, 상기 프로세서는 상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는지를 인증하는, 전자 장치.
  16. 제12항에 있어서,
    상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 있는 경우,
    상기 프로세서는, 상기 제1 음성 신호에 대응하여, 상기 전자 장치의 제1 기능을 수행할 수 있는 제1 명령을 결정하고, 상기 제1 명령에 따라 상기 전자 장치의 제1 기능을 수행하는, 전자 장치.
  17. 제12항에 있어서,
    상기 제1 사용자가 상기 전자 장치를 제어할 수 있는 권한이 없는 경우,
    상기 프로세서는, 상기 제1 음성 신호에 대응하여, 상기 제1 음성 신호를 바이패스 하는 명령을 결정하고, 상기 제1 음성 신호를 바이패스하는, 전자 장치.
  18. 제12항에 있어서,
    상기 수신부는, 복수의 사용자로부터 복수의 음성 신호를 수신하고,
    상기 프로세서는, 상기 복수의 음성 신호 각각에서 음성 특징을 추출하고, 상기 복수의 음성 신호 각각에서 추출된 음성 특징 중 상기 전자 장치를 제어할 수 있는 권한이 있는 사용자의 음성 특징과 일치되는 음성 특징을 포함하는 제3 음성 신호를 검출하고, 상기 제3 음성 신호에 대응하는 제3 명령에 따라 상기 전자 장치를 제어하는, 전자 장치.
  19. 제12항에 있어서,
    상기 전자 장치를 제어할 수 있는 권한이 있는 사용자가 복수이고, 상기 권한이 있는 복수의 사용자로부터 음성 신호를 수신한 경우,
    상기 프로세서는, 미리 설정된 기준에 따라 상기 복수의 사용자 중 제2 사용자의 음성 신호에 대응하는 제2 명령을 우선적으로 결정하고, 상기 제2 명령에 따라 상기 전자 장치를 제어하는, 전자 장치.
  20. 제19항에 있어서,
    상기 미리 설정된 기준은, 상기 복수의 사용자 각각에 대한 상기 전자 장치의 사용 패턴에 따라 상기 복수의 사용자 각각에 대하여 우선 순위가 부여된 것을 특징으로 하는, 전자 장치.
KR1020160094821A 2016-07-26 2016-07-26 전자 장치 및 전자 장치의 동작 방법 KR102575634B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160094821A KR102575634B1 (ko) 2016-07-26 2016-07-26 전자 장치 및 전자 장치의 동작 방법
US15/441,977 US10762904B2 (en) 2016-07-26 2017-02-24 Electronic device and method of operating the same
US16/901,651 US11404067B2 (en) 2016-07-26 2020-06-15 Electronic device and method of operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160094821A KR102575634B1 (ko) 2016-07-26 2016-07-26 전자 장치 및 전자 장치의 동작 방법

Publications (2)

Publication Number Publication Date
KR20180012055A true KR20180012055A (ko) 2018-02-05
KR102575634B1 KR102575634B1 (ko) 2023-09-06

Family

ID=61009940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160094821A KR102575634B1 (ko) 2016-07-26 2016-07-26 전자 장치 및 전자 장치의 동작 방법

Country Status (2)

Country Link
US (2) US10762904B2 (ko)
KR (1) KR102575634B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11355127B2 (en) 2018-12-14 2022-06-07 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11769503B2 (en) 2021-01-07 2023-09-26 Samsung Electronics Co., Ltd. Electronic device and method for processing user utterance in the electronic device
US11961508B2 (en) 2019-11-15 2024-04-16 Samsung Electronics Co., Ltd. Voice input processing method and electronic device supporting same

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11064250B2 (en) 2013-03-15 2021-07-13 Google Llc Presence and authentication for media measurement
US10719591B1 (en) 2013-03-15 2020-07-21 Google Llc Authentication of audio-based input signals
US10541997B2 (en) 2016-12-30 2020-01-21 Google Llc Authentication of packetized audio signals
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9826306B2 (en) 2016-02-22 2017-11-21 Sonos, Inc. Default playback device designation
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US9811314B2 (en) 2016-02-22 2017-11-07 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10580405B1 (en) * 2016-12-27 2020-03-03 Amazon Technologies, Inc. Voice control of remote device
US11183181B2 (en) * 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
WO2019107145A1 (ja) * 2017-11-28 2019-06-06 ソニー株式会社 情報処理装置、及び情報処理方法
US10672380B2 (en) * 2017-12-27 2020-06-02 Intel IP Corporation Dynamic enrollment of user-defined wake-up key-phrase for speech enabled computer system
WO2019152722A1 (en) 2018-01-31 2019-08-08 Sonos, Inc. Device designation of playback and network microphone device arrangements
EP3553775B1 (en) * 2018-04-12 2020-11-25 Spotify AB Voice-based authentication
CN108597513A (zh) * 2018-05-04 2018-09-28 深圳创维-Rgb电子有限公司 基于5.8GHz无线传输电视远场语音识别系统及方法
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
CN108922528B (zh) * 2018-06-29 2020-10-23 百度在线网络技术(北京)有限公司 用于处理语音的方法和装置
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
RU2744063C1 (ru) 2018-12-18 2021-03-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и система определения говорящего пользователя управляемого голосом устройства
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
CN114270361A (zh) * 2019-07-29 2022-04-01 三星电子株式会社 用于注册用于语音助理服务的设备的系统和方法
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
WO2021051403A1 (zh) * 2019-09-20 2021-03-25 深圳市汇顶科技股份有限公司 一种语音控制方法、装置、芯片、耳机及系统
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
US11893985B2 (en) * 2021-01-15 2024-02-06 Harman International Industries, Incorporated Systems and methods for voice exchange beacon devices

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11311993A (ja) * 1998-04-30 1999-11-09 Toshiba Tec Corp 音声認識装置及びこの装置で使用される記憶媒体
US20080253549A1 (en) * 2000-02-11 2008-10-16 Microsoft Corporation Distributed conference bridge and voice authentication for access to networked computer resources
US20130179681A1 (en) * 2012-01-10 2013-07-11 Jpmorgan Chase Bank, N.A. System And Method For Device Registration And Authentication
KR20150087025A (ko) * 2014-01-21 2015-07-29 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
KR20160014465A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
KR20160055162A (ko) * 2013-08-26 2016-05-17 삼성전자주식회사 음성 인식을 위한 전자 장치 및 방법
US20160155443A1 (en) * 2014-11-28 2016-06-02 Microsoft Technology Licensing, Llc Device arbitration for listening devices

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU6049298A (en) * 1997-01-31 1998-08-25 T-Netix, Inc. System and method for detecting a recorded voice
US5913192A (en) * 1997-08-22 1999-06-15 At&T Corp Speaker identification with user-selected password phrases
US6978238B2 (en) * 1999-07-12 2005-12-20 Charles Schwab & Co., Inc. Method and system for identifying a user by voice
US8121649B2 (en) * 2001-09-05 2012-02-21 Vocera Communications, Inc. Voice-controlled communications system and method having an access device
US20030210770A1 (en) * 2002-05-10 2003-11-13 Brian Krejcarek Method and apparatus for peer-to-peer voice communication using voice recognition and proper noun identification
US7386448B1 (en) * 2004-06-24 2008-06-10 T-Netix, Inc. Biometric voice authentication
US20060080432A1 (en) * 2004-09-03 2006-04-13 Spataro Jared M Systems and methods for collaboration
US20060106605A1 (en) * 2004-11-12 2006-05-18 Saunders Joseph M Biometric record management
US8635243B2 (en) * 2007-03-07 2014-01-21 Research In Motion Limited Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application
KR20120034755A (ko) * 2009-03-06 2012-04-12 인터디지탈 패튼 홀딩스, 인크 무선 장치들의 플랫폼 입증 및 관리
US20120089392A1 (en) * 2010-10-07 2012-04-12 Microsoft Corporation Speech recognition user interface
KR20130104470A (ko) * 2012-03-14 2013-09-25 주식회사 포스뱅크 Pos 시스템에서 음성 인식을 이용한 서비스 제공 방법 및 장치
US9638537B2 (en) * 2012-06-21 2017-05-02 Cellepathy Inc. Interface selection in navigation guidance systems
US9275642B2 (en) * 2012-11-13 2016-03-01 Unified Computer Intelligence Corporation Voice-operated internet-ready ubiquitous computing device and method thereof
US9112984B2 (en) * 2013-03-12 2015-08-18 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US20140380445A1 (en) * 2013-03-17 2014-12-25 David Tunnell Universal Authentication and Data Exchange Method, System and Service
ES2907259T3 (es) * 2013-12-06 2022-04-22 The Adt Security Corp Aplicación activada por voz para dispositivos móviles
GB2524222B (en) * 2013-12-18 2018-07-18 Cirrus Logic Int Semiconductor Ltd Activating speech processing
US10157272B2 (en) * 2014-02-04 2018-12-18 Qualcomm Incorporated Systems and methods for evaluating strength of an audio password
US20150365750A1 (en) * 2014-06-16 2015-12-17 Mediatek Inc. Activating Method and Electronic Device Using the Same
US9318107B1 (en) * 2014-10-09 2016-04-19 Google Inc. Hotword detection on multiple devices
US9812128B2 (en) * 2014-10-09 2017-11-07 Google Inc. Device leadership negotiation among voice interface devices
US10257179B1 (en) * 2015-01-26 2019-04-09 Microstrategy Incorporated Credential management system and peer detection
KR102371697B1 (ko) * 2015-02-11 2022-03-08 삼성전자주식회사 음성 기능 운용 방법 및 이를 지원하는 전자 장치
US10157350B2 (en) * 2015-03-26 2018-12-18 Tata Consultancy Services Limited Context based conversation system
US9940934B2 (en) * 2015-11-18 2018-04-10 Uniphone Software Systems Adaptive voice authentication system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11311993A (ja) * 1998-04-30 1999-11-09 Toshiba Tec Corp 音声認識装置及びこの装置で使用される記憶媒体
US20080253549A1 (en) * 2000-02-11 2008-10-16 Microsoft Corporation Distributed conference bridge and voice authentication for access to networked computer resources
US20130179681A1 (en) * 2012-01-10 2013-07-11 Jpmorgan Chase Bank, N.A. System And Method For Device Registration And Authentication
KR20160055162A (ko) * 2013-08-26 2016-05-17 삼성전자주식회사 음성 인식을 위한 전자 장치 및 방법
KR20150087025A (ko) * 2014-01-21 2015-07-29 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
KR20160014465A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
US20160155443A1 (en) * 2014-11-28 2016-06-02 Microsoft Technology Licensing, Llc Device arbitration for listening devices

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11355127B2 (en) 2018-12-14 2022-06-07 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11961508B2 (en) 2019-11-15 2024-04-16 Samsung Electronics Co., Ltd. Voice input processing method and electronic device supporting same
US11769503B2 (en) 2021-01-07 2023-09-26 Samsung Electronics Co., Ltd. Electronic device and method for processing user utterance in the electronic device

Also Published As

Publication number Publication date
US20200312335A1 (en) 2020-10-01
KR102575634B1 (ko) 2023-09-06
US20180033438A1 (en) 2018-02-01
US11404067B2 (en) 2022-08-02
US10762904B2 (en) 2020-09-01

Similar Documents

Publication Publication Date Title
KR20180012055A (ko) 전자 장치 및 전자 장치의 동작 방법
US10353495B2 (en) Personalized operation of a mobile device using sensor signatures
CN110798790B (zh) 麦克风异常检测方法、装置及存储介质
US11574009B2 (en) Method, apparatus and computer device for searching audio, and storage medium
EP3160151B1 (en) Video display device and operation method therefor
US20200194027A1 (en) Method and apparatus for displaying pitch information in live webcast room, and storage medium
US9500739B2 (en) Estimating and tracking multiple attributes of multiple objects from multi-sensor data
CN111477225B (zh) 语音控制方法、装置、电子设备及存储介质
WO2021135678A1 (zh) 生成剪辑模板的方法、装置、电子设备及存储介质
KR102374584B1 (ko) 영상을 디스플레이 하는 방법 및 디바이스
US11315534B2 (en) Method, apparatus, terminal and storage medium for mixing audio
WO2021098676A1 (zh) 控制方法和电子设备
US9772815B1 (en) Personalized operation of a mobile device using acoustic and non-acoustic information
CN105843503B (zh) 应用开启方法、装置和终端设备
US20190362709A1 (en) Offline Voice Enrollment
CN106354266A (zh) 终端的控制方法、装置及终端
CN103916689A (zh) 电子装置及控制电子装置的方法
US20200020330A1 (en) Detecting voice-based attacks against smart speakers
CN112614507B (zh) 检测噪声的方法和装置
CN108966094B (zh) 发声控制方法、装置、电子装置及计算机可读介质
US20210076122A1 (en) Information processing apparatus, information processing method, and program
CN106341548B (zh) 展示设备管理方法及装置
CN113380248B (zh) 语音控制方法、装置、设备及存储介质
CN113380249B (zh) 语音控制方法、装置、设备及存储介质
CN111049970B (zh) 操作设备的方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right