KR20200074635A - 디스플레이장치 및 그 제어방법 - Google Patents
디스플레이장치 및 그 제어방법 Download PDFInfo
- Publication number
- KR20200074635A KR20200074635A KR1020180163251A KR20180163251A KR20200074635A KR 20200074635 A KR20200074635 A KR 20200074635A KR 1020180163251 A KR1020180163251 A KR 1020180163251A KR 20180163251 A KR20180163251 A KR 20180163251A KR 20200074635 A KR20200074635 A KR 20200074635A
- Authority
- KR
- South Korea
- Prior art keywords
- voice command
- guide information
- display device
- display
- keyword
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000004891 communication Methods 0.000 claims abstract description 37
- 230000004044 response Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 36
- 230000006870 function Effects 0.000 description 34
- 230000001276 controlling effect Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000002041 carbon nanotube Substances 0.000 description 1
- 229910021393 carbon nanotube Inorganic materials 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000002159 nanocrystal Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 컨텐트의 영상이 표시되도록 디스플레이를 제어하고, 영상이 표시되는 컨텐트의 키워드를 획득하고, 획득된 키워드를 상기 통신부를 통하여 외부장치로 전송하고, 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고, 수신된 정보에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어하고, 가이드정보의 표시에 따라 상기 수신부를 통해 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행할 수 있는 디스플레이장치에 관한 발명이다.
Description
본 발명은 디스플레이장치 및 그 제어방법에 관한 발명으로서, 상세하게는, 컨텐트의 영상에 대한 음성명령을 추천하는 디스플레이장치 및 그 제어방법에 관한 발명이다.
근래의 디스플레이장치는 사용자의 음성명령에 따라 다양한 동작을 수행하는 음성인식 기능을 갖는다. 일 예로, TV는 전원 온/오프, 채널 업/다운, 볼륨 업/다운 등에 대한 음성명령을 인식하고, 인식한 대로 전원 온/오프, 채널 업/다운, 볼륨 업/다운 등의 기본적인 동작을 수행하는 음성인식 기능을 수행할 수 있다.
디스플레이장치는 음성인식 기능에 대한 사용자의 편의성 및 접근성을 더욱 향상시키기 위해서 음성명령을 추천할 수 있다. 즉, 디스플레이장치는 수행 가능한 동작에 대한 음성명령을 추천하거나 예시하고, 사용자가 추천되거나 예시된 음성명령을 발화하도록 유도할 수 있다. 일 예로, TV는 A배우가 출연하는 B드라마의 영상을 표시하는 동안, "A배우가 출연한 영화 찾아줘", "B드라마 줄거리 알려줘" 등과 같이 TV가 인식하여 수행 가능한 동작에 대한 음성명령을 추천할 수 있다. 사용자는 추천된 음성명령을 통해 TV가 어떤 음성명령을 인식하고, 어떤 동작을 수행할 수 있는지 용이하게 알 수 있으므로, 쉽고 편리하게 TV의 음성인식 기능을 사용할 수 있다.
그러나, 종래의 디스플레이장치는 사용자의 의도에 기초하여 사용자가 발화할 만한 음성명령을 추천하지 못하였기 때문에, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 오히려 저하시키는 문제점을 초래하였다. 일 예로, TV는 A배우가 출연하는 B드라마의 영상을 표시하는 동안, "A배우가 출연한 영화 찾아줘", "B드라마 줄거리 알려줘" 등의 음성명령을 추천할 수 있는데, 이러한 음성명령의 추천은 B드라마를 녹화하기 위한 음성명령을 발화하고자 하는 사용자에게는 불필요하거나 무용한 추천이 될 수 있다.
따라서, 사용자가 발화할 만한 음성명령을 추천함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 방안이 요청되고 있다.
본 발명의 목적은, 사용자가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있는 디스플레이장치 및 그 제어방법을 제공하는 것이다.
상기한 본 발명의 목적은, 디스플레이, 통신부, 수신부, 및 컨텐트의 영상이 표시되도록 상기 디스플레이를 제어하고, 상기 영상이 표시되는 컨텐트의 키워드를 획득하고, 상기 획득된 키워드를 상기 통신부를 통하여 외부장치로 전송하고, 상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고, 상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어하고, 상기 가이드정보의 표시에 따라 상기 수신부를 통해 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 프로세서를 포함하는 디스플레이장치에 의해 달성될 수 있다.
여기서, 상기 프로세서는, 복수의 상기 음성명령의 우선순위가 나타나도록 상기 가이드정보를 표시할 수 있다.
여기서, 상기 프로세서는, 상기 우선순위에 따라 상기 각 음성명령의 가이드정보의 컬러를 구별하여 표시할 수 있다.
여기서, 상기 음성명령은, 2이상의 단어를 포함하고, 상기 프로세서는, 상기 2이상의 단어 중 다른 단어로 대체하여 발화할 수 있는 단어가 구별되도록 상기 가이드정보를 표시할 수 있다.
여기서, 상기 프로세서는, 상기 가이드정보를 요청하는 사용자입력에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어할 수 있다.
여기서, 상기 프로세서는, 상기 통신부를 통하여 외부 디스플레이장치로 상기 가이드정보의 신호를 전송하여, 상기 외부 디스플레이장치가 상기 가이드정보를 표시하도록 할 수 있다.
여기서, 상기 프로세서는, 상기 컨텐트의 영상, 사운드, EPG 또는 캡션정보 중 적어도 하나에 기초하여 상기 키워드를 획득할 수 있다.
또한, 상기한 본 발명의 목적은, 통신부, 및 상기 통신부를 통하여 수신되는 복수의 제1외부장치의 요청에 대응하여: 상기 복수의 제1외부장치의 복수의 사용자가 발화한 음성명령의 인식을 수행하고, 상기 인식된 음성명령 및 상기 인식된 음성명령에 대응하는 동작의 정보를 상기 복수의 제1외부장치로 전송하고, 상기 통신부를 통하여 제2외부장치로부터 수신되는 키워드에 대응하여, 상기 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 상기 제2외부장치로 송신하는 프로세서를 포함하는 전자장치에 의해서도 달성될 수 있다.
또한, 상기한 본 발명의 목적은 컨텐트의 영상을 표시하는 단계; 상기 영상이 표시되는 컨텐트의 키워드를 획득하는 단계; 상기 획득된 키워드를 외부장치로 전송하는 단계; 상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하는 단계; 상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계; 및 상기 가이드정보의 표시에 따라 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 단계를 포함하는 디스플레이장치의 제어방법에 의해서도 달성될 수 있다.
여기서, 상기 가이드정보를 표시하는 단계는, 복수의 상기 음성명령의 우선순위가 나타나도록 상기 가이드정보를 표시하는 단계를 포함할 수 있다.
여기서, 상기 가이드정보를 표시하는 단계는, 상기 우선순위에 따라 상기 각 음성명령의 가이드정보의 컬러를 구별하여 표시하는 단계를 포함할 수 있다.
여기서, 상기 음성명령은, 2이상의 단어를 포함하고, 상기 가이드정보를 표시하는 단계는, 상기 2이상의 단어 중 다른 단어로 대체하여 발화할 수 있는 단어가 구별되도록 상기 가이드정보를 표시하는 단계를 포함할 수 있다.
여기서, 상기 가이드정보를 표시하는 단계는, 상기 가이드정보를 요청하는 사용자입력에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계를 포함할 수 있다.
여기서, 상기 가이드정보를 표시하는 단계는, 외부 디스플레이장치로 상기 가이드정보의 신호를 전송하여, 상기 외부 디스플레이장치가 상기 가이드정보를 표시하도록 하는 단계를 포함할 수 있다.
여기서, 상기 획득하는 단계는, 상기 컨텐트의 영상, 사운드, EPG 또는 캡션정보 중 적어도 하나에 기초하여 상기 키워드를 획득하는 단계를 포함할 수 있다.
또한, 상기한 본 발명의 목적은, 복수의 제1외부장치로부터 수신되는 요청에 대응하여: 상기 복수의 제1외부장치의 복수의 사용자가 발화한 음성명령의 인식을 수행하는 단계; 및,
상기 인식된 음성명령 및 상기 인식된 음성명령에 대응하는 동작의 정보를 상기 복수의 제1외부장치로 전송하는 단계; 제2외부장치로부터 수신되는 키워드에 대응하여, 상기 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 상기 제2외부장치로 송신하는 단계를 포함하는 전자장치의 제어방법에 의해서도 달성될 수 있다.
또한, 상기한 본 발명의 목적은, 컴퓨터가 읽을 수 있는 코드로서 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 컨텐트의 영상을 표시하는 단계; 상기 영상이 표시되는 컨텐트의 키워드를 획득하는 단계; 상기 획득된 키워드를 외부장치로 전송하는 단계; 상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하는 단계; 상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계; 및 상기 가이드정보의 표시에 따라 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 단계를 포함하는 디스플레이장치의 제어방법을 포함하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체에 의해서도 달성될 수 있다.
본 발명에 의하면, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있는 디스플레이장치 및 그 제어방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 디스플레이장치의 일 예를 도시한다.
도 2는 도 1의 디스플레이장치가 가이드정보를 표시하는 일 예를 도시한다.
도 3은 도 1의 디스플레이장치 및 제1전자장치의 구성을 도시한다.
도 4는 도 3의 디스플레이장치의 제어방법을 도시한다.
도 5는 도 3의 제1전자장치의 제어방법을 도시한다.
도 6은 도 4의 동작 S15와 관련하여, 음성명령의 우선순위가 나타나도록 가이드정보를 표시하는 일 예를 도시한다.
도 7은 도 4의 동작 S15와 관련하여, 대체하여 발화 가능한 단어가 구별되도록 가이드정보를 표시하는 일 예를 도시한다.
도 8은 도 4의 동작 S12와 관련하여, 사용자입력에 기초하여 키워드를 획득하는 제어방법에 관한 일 예를 도시한다.
도 9는 도 4의 동작 S15와 관련하여, 제2전자장치에서 음성명령의 가이드정보를 표시하는 일 예를 도시한다.
도 10은 도 4의 S12 및 S15와 관련하여 키워드의 획득 범위 및 가이드정보의 표시 범위를 설정하는 일 예를 도시한다.
도 11은 도 4의 S12 및 S15와 관련하여 가이드정보의 표시 범위를 설정하는 다른 예를 도시한다.
도 2는 도 1의 디스플레이장치가 가이드정보를 표시하는 일 예를 도시한다.
도 3은 도 1의 디스플레이장치 및 제1전자장치의 구성을 도시한다.
도 4는 도 3의 디스플레이장치의 제어방법을 도시한다.
도 5는 도 3의 제1전자장치의 제어방법을 도시한다.
도 6은 도 4의 동작 S15와 관련하여, 음성명령의 우선순위가 나타나도록 가이드정보를 표시하는 일 예를 도시한다.
도 7은 도 4의 동작 S15와 관련하여, 대체하여 발화 가능한 단어가 구별되도록 가이드정보를 표시하는 일 예를 도시한다.
도 8은 도 4의 동작 S12와 관련하여, 사용자입력에 기초하여 키워드를 획득하는 제어방법에 관한 일 예를 도시한다.
도 9는 도 4의 동작 S15와 관련하여, 제2전자장치에서 음성명령의 가이드정보를 표시하는 일 예를 도시한다.
도 10은 도 4의 S12 및 S15와 관련하여 키워드의 획득 범위 및 가이드정보의 표시 범위를 설정하는 일 예를 도시한다.
도 11은 도 4의 S12 및 S15와 관련하여 가이드정보의 표시 범위를 설정하는 다른 예를 도시한다.
이하에서는 첨부도면을 참조하여 본 발명에 따른 실시예들에 관해 상세히 설명한다. 이하 실시예들의 설명에서는 첨부된 도면들에 기재된 사항들을 참조하는 바, 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 동작을 수행하는 구성요소를 나타낸다. 본 명세서에서의 복수의 구성 중 적어도 하나(at least one)는, 복수의 구성 전부뿐만 아니라, 복수의 구성 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.
도 1은 본 발명의 일 실시예에 따른 디스플레이장치(1)의 일 예를 도시한다. 도 1에 도시된 바와 같이, 본 실시예에 따른 디스플레이장치(1)는 컨텐트의 영상(16)을 표시할 수 있다. 도 1은 디스플레이장치(1)을 TV로 도시하지만, 이에 한정되는 것은 아니므로, 디스플레이장치(1)는 영상을 표시할 수 있는 스마트폰, 태블릿, 퍼스널 컴퓨터, 스마트 워치와 같은 웨어러블 디바이스, 멀티미디어 재생기, 전자액자, 냉장고와 같은 가전 기기 등으로 구현될 수 있다. 다만, 이하에서는 설명의 편의를 위해 디스플레이장치(1)는 TV로 구현된 경우를 가정하여 설명한다.
디스플레이장치(1)는 제1전자장치(4)를 통해 음성인식 기능을 제공할 수 있다. 여기서, 제1전자장치(4)는 디스플레이장치(1)와 제2전자장치(5)에 서비스를 제공하는 서버를 포함할 수 있으며, 제2전자장치(5)는 디스플레이장치(1)의 제1사용자(30)와 다른 제2사용자(50)가 사용하는 장치로서, TV와 같은 디스플레이장치, 스마트폰, 태블릿, 스마트 워치와 같은 웨어러블 디바이스, 멀티미디어 재생기, 전자액자, 냉장고와 같은 가전 기기 등을 포함할 수 있다.
이하에서는, 도 1을 참조하여 제1전자장치(4)를 통한 디스플레이장치(1)의 음성인식 기능에 대해 구체적으로 설명한다. 디스플레이장치(1)는 제1사용자(30)가 발화한 음성명령을 수신하고, 수신한 음성명령을 제1전자장치(4)로 전송할 수 있다. 마찬가지로, 제2전자장치(5)는 제2사용자(50)가 발화한 음성명령을 수신하여 제1전자장치(4)로 전송할 수 있다. 제1사용자(30)와 제2사용자(50)가 발화한 음성명령은, 디스플레이장치(1)와 제2전자장치(5)가 소정 동작의 수행하도록 지시하는 음성명령이 될 수 있으며, 일 예로, 전원 온/오프, 채널 업/다운, 볼륨 업/다운 등과 같은 TV의 기본적인 동작에 대한 음성명령뿐만 아니라, 컨텐트 선택/실행/종료, 인터넷 검색, 홈쇼핑, 전화, 화상통화, SNS(Social Network Service), 노래방 등과 같은 동작에 대한 음성명령을 포함할 수 있다.
제1전자장치(4)는 디스플레이장치(1)와 제2전자장치(5)로부터 수신한 음성명령에 대해 음성인식을 수행하고, 인식 결과를 디스플레이장치(1)와 제2전자장치(5)로 전송할 수 있다. 인식 결과는 음성인식에 의해 인식된 음성명령 및 인식된 음성명령에 대응하는 동작의 정보 중 적어도 하나를 포함할 수 있다. 인식된 음성명령에 대응하는 동작의 정보는 디스플레이장치(1)와 제2전자장치(5)가 인식된 음성명령에 대응하는 동작을 수행할 수 있도록 하는 제어 코드를 포함할 수 있다. 따라서, 디스플레이장치(1)와 제2전자장치(5)는 제1전자장치(4)로부터 수신한 인식 결과에 따라 동작함으로써, 제1사용자(30)와 제2사용자(50)가 발화한 음성명령에 따른 음성인식 기능을 수행할 수 있다.
특히, 제1전자장치(4)는 디스플레이장치(1)가 음성명령 추천기능을 수행할 수 있도록 추천 음성명령에 관한 정보를 제공할 수 있다. 이를 위해, 제1전자장치(4)는 제1사용자(30)와 제2사용자(50)가 발화한 복수의 음성명령을 수집하고, 복수의 발화한 음성명령 중 인식에 성공한 음성명령을 분류할 수 있다. 여기서, 인식에 성공한 경우는, 제1사용자(30)와 제2사용자(50)가 발화한 음성명령에 대해 인식에 성공한 경우뿐만 아니라, 인식 결과에 따라 디스플레이장치(1)와 제2전자장치(5)가 대응하는 동작을 수행한 경우를 포함할 수 있다.
그리고, 제1전자장치(4)는 디스플레이장치(1)로부터 컨텐트의 키워드를 수신하면, 수신된 키워드와 관련된 음성명령으로서, 인식에 성공한 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. 여기서, 디스플레이장치(1)로부터 수신되는 키워드는, 디스플레이장치(1)가 표시하는 영상(16)의 컨텐트에 대한 키워드로서, 컨텐트의 EPG(Electronic Program Guide), 영상(16), 사운드, 또는 캡션 중 적어도 하나로부터 획득한 키워드를 포함할 수 있다.
디스플레이장치(1)는 제1전자장치(4)로부터 수신한 정보에 기초하여 컨텐트에 대한 추천 음성명령을 갖는 가이드정보(2)을 표시함으로써, 제1사용자(30)가 가이드정보(2)에 따라 추천 음성명령을 발화하도록 유도할 수 있다. 이에 대해서는, 도 2를 참조하여 자세히 설명하기로 한다.
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 발화한 음성명령에 대응하는 동작이 수행된 음성명령의 가이드정보(2)를 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
도 2는 도 1의 디스플레이장치(1)가 가이드정보(2)를 표시하는 일 예를 도시한다. 도 2에 도시된 바와 같이, 디스플레이장치(1)는 소정 컨텐트의 영상(16)을 표시하고, 영상(16)의 컨텐트로부터 키워드를 획득하고, 획득된 키워드를 제1전자장치(4)로 전송할 수 있다. 일 예로, 디스플레이장치(1)는 작품명이 B인 드라마 컨텐트의 영상(16)을 표시하고, 영상(16)에는 이름이 A인 배우(17)가 출연하는 것으로 가정한다. 디스플레이장치(1)는 영상(16)에 대한 영상인식을 통해 A배우(17)의 이름 및 B드라마의 작품명을 키워드로 획득하고, 획득한 키워드인 A배우(17)의 이름 및 B드라마의 작품명을 제1전자장치(4)로 전송할 수 있다. 다만, 키워드는 영상(16)으부터 획득되는 것에 한정되지 않으므로, 컨텐트의 EPG, 사운드, 캡션 등으로부터 획득될 수 있다. 또한, 키워드가 A배우(17)의 이름 및 B드라마의 작품명으로 한정되는 것은 아니므로, 컨텐트의 EPG, 사운드, 캡션 등으로부터 다양한 키워드가 획득될 수 있다.
제1전자장치(4)는 디스플레이장치(1)로부터 수신한 키워드에 기초하여, 복수의 발화한 음성명령 중 키워드에 관련되고, 발화한 음성명령에 대응하는 동작이 수행된 음성명령, 즉, 인식에 성공한 음성명령을 식별하고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. 일 예로, 제1전자장치(4)는 디스플레이장치(1)로부터 수신한 키워드인 A배우(17)의 이름 및 B드라마의 작품명과 관련되는 음성명령으로서, "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), "B드라마 24화 검색해줘"(24), 및 "B드라마 제작사 알려줘"를 식별할 수 있다. 이 중에서 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)에 대한 동작이 수행된 반면에, "B드라마 제작사 알려줘"에 대한 동작이 수행되지 않은 경우, 제1전자장치(4)는 대응하는 동작이 수행된 바 있는 음성명령인 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 식별할 수 있고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)로 전송할 수 있다.
디스플레이장치(1)는 제1전자장치(4)로부터 수신한 정보에 기초하여 추천 음성명령을 포함하는 가이드정보(2)를 표시할 수 있다. 일 예로, 디스플레이장치(1)는 제1전자장치(4)로부터 수신한 정보에 기초하여 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 포함하는 가이드정보(2)를 표시할 수 있다.
디스플레이장치(1)는 가이드정보(2)에 기초하여 제1사용자(30)가 하나의 음성명령, 예를 들면, "A배우가 출연한 영화 찾아줘"(21)를 따라서 발화하면, 수신부(13)를 통하여 발화한 음성명령(31)을 수신하고, 인식된 음성명령(31)에 대응하는 동작인 A배우가 출연한 영화에 대한 정보를 제공할 수 있다.
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 발화한 음성명령에 대응하는 동작이 수행된 음성명령의 가이드정보(2)를 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
도 3은 도 1의 디스플레이장치(1) 및 제1전자장치(4)의 구성을 도시한다. 먼저, 도 3을 참조하여, 도 1의 디스플레이장치(1)의 구성에 대해 설명한다. 디스플레이장치(1)는 디스플레이(11), 통신부(12), 수신부(13), 및 프로세서(14)를 포함할 수 있다.
디스플레이(11)는 처리된 영상의 신호/데이터에 기초하여 영상을 표시할 수 있다. 일 예로, 디스플레이(11)는 튜닝된 방송신호에 기초하여 방송영상을 표시할 수 있다. 디스플레이(11)는 액정(Liquid Crystal), 플라즈마(Plasma), 발광 다이오드(Lightemitting Diode), 유기발광 다이오드(Organic Light-emitting Diode), 탄소 나노 튜브(Carbon Nano-Tube), 나노 크리스탈(Nano-Crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있으며, 이에 한정되는 것은 아니다.
통신부(12)는 제1전자장치(4) 또는 제2전자장치(5) 중 적어도 하나와 와 유선 또는 무선 통신을 통하여 신호/데이터를 송수신할 수 있다. 여기서, 각 전자장치는 디스플레이장치(1)에 대하여 외부장치가 될 수 있다. 통신부(13)는 제1전자장치(4) 또는 제2전자장치(5) 중 적어도 하나와 유선 또는 무선으로 통신하기 위해 유무선 랜(LAN, Local Area Network), WiHD(Wireless HD), WiGig(Wireless Gigabit Alliance), 4G (4th-Generation) 통신, 5G (5th-Generation) 통신, BT(Bluetooth), BLE(Bluetooth Low Energy), 적외선 통신(IrDA, infrared Data Association), 와이파이(Wi-Fi), 지그비, WFD((Wi-Fi Direct), UWB(Ultra-Wideband), NFC(Near Field Communication) 등 중 적어도 하나를 포함할 수 있다. 통신부(12)는 유선 또는 무선 통신을 수행하기 위해 2이상의 유무선 통신 모듈 또는 하나의 통합 모듈로 구현될 수 있다.
수신부(13)는 제1사용자(30)로부터 음성명령을 수신할 수 있다. 일 예로, 수신부(13)는 디스플레이장치(1)에 마련되어 제1사용자(30)의 음성명령을 수신할 수 있다. 이 경우, 수신부(13)는 음성명령을 수신하기 위한 적어도 하나의 마이크(Microphone)으로 구현될 수 있다. 다른 예로, 제1사용자(30)의 음성명령이 제2전자장치(5)로 수신되는 경우, 수신부(13)는 제1사용자(30)의 음성명령에 관한 신호를 제2전자장치(5)로부터 수신할 수 있다. 일 예로, 제2전자장치(5)가 리모컨을 포함하는 경우, 수신부(13)는 리모컨으로부터 제1사용자(30)의 음성명령의 신호를 수신하기 위한 리모컨신호 수신부를 더 포함할 수 있다.
프로세서(14)는 디스플레이장치(1)의 구성 전반을 제어할 수 있다. 일 예로, 프로세서(14)는 음성인식 기능을 수행할 수 있다. 구체적으로, 프로세서(14)는 수신부(13)를 통하여 수신된 제1사용자(30)의 음성명령을 제1전자장치(4)로 전송하고, 통신부(12)를 통해 제1전자장치(4)로부터 인식 결과를 수신할 수 있다. 프로세서(14)는 수신한 인식 결과에 기초하여 제1사용자(30)의 음성명령에 대응하는 동작을 수행할 수 잇다.
다른 예로, 프로세서(14)는 음성명령 추천기능을 수행할 수 있다. 구체적으로, 프로세서(14)는 컨텐트의 영상(16)이 표시되도록 디스플레이(11)를 제어하고, 영상(16)이 표시되는 컨텐트의 키워드를 획득하여, 통신부(12)를 통하여 제1전자장치(4)로 전송할 수 있다. 이 경우, 프로세서(14)는 획득된 키워드들 간의 동일성, 유사성, 연관성 등에 기초하여 식별된 키워드를 제1전자장치(4)로 전송할 수 있다. 일 예로, 프로세서(14)는 영상(16)에 대한 영상인식을 통해 획득한 키워드가 EPG의 키워드와 동일하거나 유사한 것으로 식별된 경우, 획득된 키워드를 제1전자장치(4)로 전송할 수 있다. 그리고, 프로세서(14)는 제1전자장치(4)로부터 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고, 수신된 정보에 기초하여 음성명령의 가이드정보(2)가 표시되도록 디스플레이(11)를 제어할 수 있다. 프로세서(14)는 가이드정보(2)의 표시에 따라 수신부(13)를 통해 수신되는 사용자의 음성명령(31)에 대응하여, 수신된 음성명령(31)에 따른 동작을 수행할 수 있다.
프로세서(14)는 디스플레이장치(1)의 구성 전반에 대한 제어를 수행할 수 있도록 하는 제어프로그램(혹은 인스트럭션)과, 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어프로그램을 실행하는 적어도 하나의 프로세서 혹은 CPU(Central Processing Unit)를 포함할 수 있다. 또한, 이와 같은 제어프로그램은, 디스플레이장치(1) 이외의 제2전자장치(5)에도 저장될 수 있다.
제어프로그램은 BIOS, 디바이스 드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 디스플레이장치(1)의 제조 시에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 설치될 수 있다. 응용프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 서버로부터 다운로드될 수도 있다. 이와 같은 서버는, 컴퓨터프로그램제품의 일 예이나, 이에 한정되는 것은 아니다.
한편, 디스플레이장치(1)의 구성은 도 3에 한정되지 않으므로, 디스플레이장치(1)는 도 3에 도시된 구성 중 일부 구성을 배제하거나 도 3에 도시되지 않는 구성을 포함할 수 있다. 일 예로, 디스플레이장치(1)는 영상신호 수신부, 영상신호 처리부, 사용자입력부, 전원부, 또는 저장부 중 적어도 하나를 더 포함할 수 있다.
영상신호 수신부는 외부로부터 영상신호를 수신할 수 있다. 영상신호 수신부가 수신한 영상신호의 종류는 제한이 없으므로, 방송 영상신호, 케이블 영상신호, 또는 위성 영상신호 등을 수신할 수 있다. 영상신호 처리부는 영상신호 수신부가 수신한 영상신호를 디스플레이(11)에 표시 가능하도록 처리할 수 있다.
사용자입력부는 사용자입력을 수신하도록 마련될 수 있다. 사용자입력부는 사용자의 터치입력을 수신하기 위한 터치 패널, 디스플레이장치(1)의 전면에 마련된 메뉴버튼, 리모컨으로부터 리모컨신호를 수신하는 리모컨신호 수신부 중 적어도 하나를 포함할 수 있다.
전원부는 프로세서(14)의 제어에 따라 외부로부터 전원을 공급받아 디스플레이장치(1)의 각 구성들에 필요한 공급하거나, 공급받은 전원을 저장할 수 있다. 저장부는 디스플레이장치(1)를 제어하기 위한 명령어, 프로그램, 어플리케이션, 또는 다양한 컨텐트에 관한 사운드신호 등을 저장할 수 있다. 일 예로, 저장부는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
이하에서는, 도 3을 참조하여, 제1전자장치(4)의 구성에 대해 설명한다. 제1전자장치(4)는 네트워크를 통해 디스플레이장치(1) 또는 제2전자장치(5) 중 적어도 하나와 통신할 수 있으며, 서버로 구현될 수 있다. 제1전자장치(4)는 통신부(42), 저장부(43), 및 프로세서(44)를 포함할 수 있다.
제1전자장치(4)의 통신부(42)는 디스플레이장치(1) 및 제2전자장치(5)와 유선 또는 무선으로 신호/데이터를 송수신할 수 있다. 여기서, 디스플레이장치(1)와 제2전자장치(5)는 제1전자장치(4)에 대하여 외부장치가 될 수 있다. 통신부(42)는 디스플레이장치(1) 및 제2전자장치(5)와 유선 또는 무선으로 통신하기 위해 유무선 랜, WiHD, WiGig, 4G 통신, 5G 통신, BT, BLE, 적외선 통신, 와이파이, 지그비, WFD, UWB, NFC 등 중 적어도 하나를 포함할 수 있다. 통신부(42)는 유선 또는 무선 통신을 수행하기 위해 2이상의 유무선 통신 모듈 또는 하나의 통합 모듈로 구현될 수 있다
저장부(43)는 제1전자장치(4)를 제어하기 위한 명령어, 프로그램, 어플리케이션, 또는 다양한 컨텐트에 관한 사운드신호 등을 저장할 수 있다. 일 예로, 저장부(43)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
프로세서(44)는 제1전자장치(4)의 구성 전반을 제어할 수 있다. 일 예로, 프로세서(44)는 디스플레이장치(1)와 제2전자장치(5)로부터 제1사용자(30)와 제2사용자(50)가 발화한 음성명령을 수신하고, 수신한 음성명령에 대한 음성인식을 수행하여, 인식 결과를 디스플레이장치(1)와 제2전자장치(5)로 전송할 수 있다.
프로세서(44)는 음성명령을 수집할 수 있다. 프로세서(44)가 수집하는 복수의 음성명령은, 제조 시에 미리 정해지거나 저장부(43)에 저장된 음성명령, 규칙 기반 또는 인공지능 알고리즘으로서 기계학습, 신경망, 딥러닝 알고리즘 중 적어도 하나를 이용하여 학습한 음성명령 등을 포함할 수 있다.
특히, 프로세서(44)는 제1사용자(30)와 제2사용자(50)가 발화한 음성명령을 수집하고, 대응하는 동작이 수행된 바 있는, 즉 인식에 성공한 음성명령을 분류할 수 있다. 일 예로, 디스플레이장치(1)와 제2전자장치(5)로부터 수신한 제1사용자(30)와 제2사용자(50)의 음성명령이 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), "B드라마 24화 검색해줘"(24), 및 "B드라마 제작사 알려줘"인 경우를 가정한다. 만일, 프로세서(44)가 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)에 대해서는 인식에 성공하거나, 인식의 성공에 따라 디스플레이장치(1)와 제2전자장치(5)가 대응하는 동작을 수행한 반면에, "B드라마 제작사 알려줘"에 대해서는 인식에 실패하거나, 인식의 실패에 따라 디스플레이장치(1)와 제2전자장치(5)가 대응하는 동작을 수행하지 않은 경우, 프로세서(44)는 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 인식에 성공한 음성명령으로 분류할 수 있다.
프로세서(44)는 디스플레이장치(1)로부터 키워드를 수신하는 경우, 복수의 발화한 음성명령 중 키워드와 관련되고, 인식에 성공한 음성명령을 식별하여, 식별된 음성명령에 관한 정보를 디스플레이장치(1)로 전송함으로써, 디스플레이장치(1)가 음성명령 추천기능을 수행할 수 있도록 한다. 일 예로, 디스플레이장치(1)로부터 수신한 키워드가 A배우(17)의 이름 및 B드라마의 작품명인 것으로 가정한다. 프로세서(44)는 인식에 성공한 음성명령 중 A배우(17)의 이름 및 B드라마의 작품명을 포함하는 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 식별하고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)로 전송할 수 있다. 디스플레이장치(1)는 제1전자장치(4)로부터 수신한 정보에 기초하여, "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 포함하는 가이드정보(2)를 표시할 수 있다.
다만, 프로세서(44)가 분류하는 음성명령은 인식 성공에 한정되는 것은 아니므로, 발화 빈도, 연속 발화, 현재 추천 등과 같은 팩터(factor)에 기초하여 음성명령을 분류할 수 있다. 일 예로, 프로세서(44)는 복수의 발화된 음성명령을 제1사용자(30) 및 제2사용자(50)에 의해 발화된 빈도가 높은 음성명령, 제1사용자(30) 및 제2사용자(50)에 의해 연속적으로 발화된 횟수가 많은 음성명령, 또는 현재 제2전자장치(5)에 추천되거나 웹 혹은 SNS 상의 검색 순위가 높은 음성명령 등으로 분류할 수도 있다. 그리고, 프로세서(44)는 디스플레이장치(1)로부터의 키워드와 관련되는 음성명령으로서, 인식에 성공하거나, 발화 빈도가 높거나, 연속적으로 발화된 횟수가 많거나, 또는 현재 제2전자장치(5)에 추천되거나 웹 혹은 SNS 상의 검색 순위가 높은 음성명령을 식별하고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다.
또한, 프로세서(44)는 키워드와 관련된 음성명령으로서, 상기한 적어도 하나의 팩터에 해당하는 음성명령에 점수를 부여하고, 총점이 높은 적어도 하나의 음성명령을 식별하여, 식별된 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. 프로세서(44)는 점수를 부여함에 있어서, 팩터에 우선순위 또는 가중치를 설정할 수 있으며, 우선순위 또는 가중치에 따른 총점이 높은 적어도 하나의 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다.
다만, 복수의 발화한 음성명령에 대한 팩터, 팩터의 우선순위 또는 가중치는 미리 설정되거나, 제1사용자(30)의 선택에 따를 수 있다. 제1사용자(30)의 선택에 의한 팩터, 팩터의 우선순위 또는 가중치에 의해 음성명령을 식별하는 실시예에 대해서는 도 10 및 11을 참조하여 자세히 설명한다.
또한, 프로세서(44)는 제1전자장치(4)의 구성 전반에 대한 제어를 수행할 수 있도록 하는 제어프로그램(혹은 인스트럭션)과, 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어프로그램을 실행하는 적어도 하나의 프로세서 혹은 CPU(Central Processing Unit)를 포함할 수 있다. 또한, 이와 같은 제어프로그램은, 제1전자장치(4) 이외의 디스플레이장치(1)와 제2전자장치(5)에도 저장될 수 있다.
제어프로그램은 BIOS, 디바이스 드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 제1전자장치(4)의 제조 시에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 설치될 수 있다. 응용프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 서버로부터 다운로드될 수도 있다. 이와 같은 서버는, 컴퓨터프로그램제품의 일 예이나, 이에 한정되는 것은 아니다.
다만, 제1전자장치(4)의 구성은 도 3에 한정되지 않으므로, 제1전자장치(4)는 도 3에 도시된 구성 중 일부 구성을 배제하거나 도 3에 도시되지 않는 구성을 포함할 수 있다.
도 4는 도 3의 디스플레이장치(1)의 제어방법을 도시한다. 본 실시예에 의한 제어방법은 디스플레이장치(1)의 프로세서(14)가 앞서 설명한 제어프로그램을 실행함으로써 수행될 수 있다. 이하, 설명의 편의상, 프로세서(14)가 제어프로그램을 실행하여 수행하는 동작을, 간략하게, 프로세서(14)의 동작인 것으로 설명할 수 있다.
도 4를 참조하면, 프로세서(14)는 컨텐트의 영상(16)을 표시하고(S11), 영상(16)이 표시되는 컨텐트의 키워드를 획득할 수 있다(S12). 일 예로, 컨텐트의 키워드는 컨텐트의 EPG, 영상(16), 사운드, 또는 캡션 중 적어도 하나에 기초하여 획득할 수 있다.
프로세서(14)는 키워드를 제1전자장치(4)로 전송하고(S13), 제1전자장치(4)로부터 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고(S14), 수신된 정보에 기초하여 음성명령의 가이드정보를 표시할 수 있다(S15).
프로세서(14)는 가이드정보(2)의 표시에 따라 수신되는 사용자의 음성명령(31)에 대응하여, 수신된 음성명령(31)에 따른 동작을 수행할 수 있다(S16).
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 발화한 음성명령에 대응하는 기능이 수행된 가이드정보(2)를 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
도 5는 도 3의 제1전자장치(4)의 제어방법을 도시한다. 본 실시예에 의한 제어방법은 제1전자장치(4)의 프로세서(44)가 앞서 설명한 제어프로그램을 실행함으로써 수행될 수 있다. 이하, 설명의 편의상, 프로세서(44)가 제어프로그램을 실행하여 수행하는 동작을, 간략하게, 프로세서(44)의 동작인 것으로 설명할 수 있다.
도 5를 참조하면, 프로세서(44)는 디스플레이장치(1) 또는 제2전자장치(5)로부터 수신되는 요청에 대응하여, 디스플레이장치(1) 또는 제2전자장치(5)의 복수의 사용자(30, 50)가 발화한 음성명령의 인식을 수행하고, 인식된 음성명령 및 인식된 음성명령에 대응하는 동작의 정보를 디스플레이장치(1) 또는 제2전자장치(5)로 전송할 수 있다(S21). 디스플레이장치(1) 및 제2전자장치(5)는 제1전자장치(4)에 대하여 외부장치가 될 수 있으며, 복수의 사용자(30, 50)는 디스플레이장치(1)의 제1사용자(30)와 제2전자장치(5)의 제2사용자(50)를 포함할 수 있다.
제1전자장치(4)는 디스플레이장치(1)로부터 수신되는 키워드에 대응하여, 복수의 사용자(30, 50)가 발화한 음성명령들 중에서 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 디스플레이장치(1)로 송신할 수 있다(S21).
이와 같이, 본 실시예에 따른 제1전자장치(4)는 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 발화한 음성명령에 관한 정보를 디스플레이장치(1)로 제공할 수 있다. 따라서, 디스플레이장치(1)는 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
도 6은 도 4의 동작 S15와 관련하여, 음성명령의 우선순위가 나타나도록 가이드정보(2)를 표시하는 일 예를 도시한다. 본 실시예에 따른 디스플레이장치(1)의 프로세서(14)는 제1전자장치(4)로부터 음성명령에 관한 정보 및 음성명령에 대한 우선순위에 관한 정보를 수신할 수 있다.
우선순위에 관한 정보는 제1전자장치(4)가 인식 성공률, 발화 빈도, 연속 발화, 또는 현재 추천 등과 같은 팩터에 기초하여 음성명령에 부여한 식별자에 관한 정보를 포함할 수 있다. 일 예로, 프로세서(14)는 제1전자장치(4)로부터 발화 빈도 순으로 식별자가 부여된 음성명령 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)에 관한 정보를 수신하는 경우, 발화 빈도 순으로 부여된 식별자에 기초하여 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)의 순서로 가이드정보(2)를 표시할 수 있다.
또한, 프로세서(14)는 우선순위가 높은 음성명령이 구별되도록 가이드정보(2)를 표시할 수 있다. 일 예로, 우선순위에 따라 음성명령의 컬러를 나머지 음성명령과 다르게 표시할 수 있다. 우선순위에 따라 구별되도록 표시하는 방법은 컬러를 다르게 표시하는 것에 한정되는 것은 아니므로, 우선순위에 따라 컬러, 명도, 채도 등에 그라데이션을 적용하거나 음성명령의 폰트, 크기, 기울기, 밑줄, 첨자 등 중 적어도 하나를 우선순위에 따라 다르게 표시할 수 있다.
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 가이드정보(2)의 음성명령에 우선순위가 나타나도록 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 직관적으로 인식하도록 함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
도 7은 도 4의 동작 S15와 관련하여, 대체하여 발화 가능한 단어가 구별되도록 가이드정보(2)를 표시하는 일 예를 도시한다. 본 실시예에 따른 디스플레이장치(1)의 프로세서(14)는 제1전자장치(4)로부터 복수의 단어로 이루어지는 음성명령에 관한 정보를 수신할 수 있다. 복수의 단어 각각은 서로 다른 종류의 특성을 가질 수 있다. 일 예로, 음성명령의 각 단어는, 컨텐트의 장르, 회차, 종류 등에 관한 단어, 또는 디스플레이장치(1)가 소정 동작을 수행하도록 지시하는 단어를 포함할 수 있다. 다만, 단어의 특성은 이에 한정되는 것은 아니므로, 각 단어는 다양한 의미를 갖는 다양한 표현으로 구성될 수 있다.
제1전자장치(4)는 제1사용자(30)가 단어군에 포함된 다른 단어로 대체하여 발화할 수 있는 복수의 단어를 하나의 단어군으로 분류할 수 있다. 단어군에 포함된 단어들은 상호 연관성, 관련성 등을 가질 수 있다. 제1전자장치(4)는 음성명령의 어느 하나의 단어가 단어군에 포함되는 다른 단어로 대체 가능함을 식별하고, 다른 단어로 대체 가능한 해당 단어에 식별자를 부여할 수 있다. 일 예로, 제1전자장치(4)는 "B드라마 24화를 재생해줘"(24)라는 음성명령에 대해서, B드라마가 A드라마 및 C드라마와 함께 하나의 단어군을 이루는 경우, B드라마(51)에 대해 대체 가능한 단어군을 갖는 식별자를 부여할 수 있다. 또는, B드라마가 다수의 회차로 이루진 경우, 24화(52)에 대해 대체 가능한 다수의 회차의 단어군을 갖는 식별자를 부여할 수 있다.
제1전자장치(4)는 식별자에 관한 정보를 디스플레이장치(1)로 전송할 수 있으며, 디스플레이장치(1)의 프로세서(14)는 제1전자장치(4)가 부여한 식별자에 기초하여, 음성명령의 복수의 단어 중 제1사용자(30)에 의해 대체되어 발화 가능한 단어가 식별되도록 가이드정보(2)를 표시할 수 있다. 일 예로, 프로세서(14)는 "B드라마 24화 검색해줘"(24)를 포함하는 가이드정보(2)를 표시하는 경우, 제1전자장치(4)로부터 수신한 식별자 정보에 기초하여 "B드라마 24화 검색해줘"(24)에 포함된 단어 중 B드라마(51) 및 24화(52)가 대체하여 발화할 수 있는 단어임을 표시할 수 있다. 경우에 따라서, 프로세서(14)는 B드라마(51) 및 24화(52)의 폰트, 크기, 기울기, 밑줄, 첨자 등 중 적어도 하나를 나머지 단어와 다르게 표시함으로써, B드라마(51) 및 24화(52)가 대체하여 발화 가능한 단어임을 표시할 수 있다.
제1사용자(30)는 B드라마(51) 및 24화(52)가 대체하여 발화할 수 있는 단어가 구별되도록 표시되어 있는 가이드정보(2)에 따라 B드라마(51) 및 24화(52)를 다른 단어로 대체한 음성명령(31)을 발화할 수 있다. 일 예로, 제1사용자(30)는 "B드라마 24화 검색해줘"(24)뿐만 아니라, "B드라마 23화 검색해줘", "A드라마 1화 검색해줘", "A드라마 2화 검색해줘" 등과 같이 B드라마(51) 및 24화(52)를 대체한 음성명령(31)을 발화할 수 있다.
한편, 디스플레이장치(1)의 프로세서(14)는 식별자 정보에 기초하여, 음성명령의 복수의 단어 중 대체 가능한 것으로 식별된 단어 대신에 단어군의 다른 단어가 표시되도록 가이드정보(2)를 표시할 수 있다. 일 예로, 프로세서(14)는 제1전자장치(4)로부터 수신한 정보에 기초하여 "B드라마 24화 검색해줘"(24)의 "B드라마" 및 "24화"가 대체 가능한 단어임을 식별하고, "B드라마 23화 검색해줘", "A드라마 1화 검색해줘", "A드라마 2화 검색해줘" 등과 같이 B드라마(51) 및 24화(52)를 대체한 음성명령(31)의 가이드정보(2)를 표시할 수 있다. 이 경우, "B드라마" 및 "24화"와 대체되는 단어인 "A드라마", "23화", "1화", 및 "2화"에 대한 정보는 제1전자장치(4)로부터 수신하거나, 프로세서(14)가 영상(16)의 컨텐트의 EPG 등으로부터 획득한 정보를 포함할 수 있다.
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 제1사용자(30)가 대체하여 발화 가능한 단어가 구별되도록 가이드정보(2)를 표시할 수 있으므로, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 더욱 향상시킬 수 있다.
도 8은 도 4의 동작 S12와 관련하여, 사용자입력에 기초하여 키워드를 획득하는 제어방법에 관한 일 예를 도시한다. 이하에서는, 도 4와 중복되는 동작에 관한 설명은 생략하고, 상이한 동작 위주로 설명한다.
도 8을 참조하면, 디스플레이장치(1)의 프로세서(14)는 컨텐트의 영상(16)을 표시하고(S61), 가이드정보(2)를 요청하는 사용자입력을 수신할 수 있다(S62). 일 예로, 가이드정보(2)를 요청하는 사용자입력은 리모컨, 터치 패널, 또는 메뉴버튼 중 적어도 하나를 통하여 수신할 수 있다. 리모컨을 통하여 가이드정보(2)를 요청하는 경우, 제1사용자(30)가 소정 리모컨 버튼을 1회 또는 수 회 클릭하면, 가이드정보(2)를 요청하는 리모컨신호를 디스플레이장치(1)로 전송하도록 설정할 수 있다.
프로세서(14)는 수신된 사용자입력에 기초하여 영상(16)이 표시되는 컨텐트의 키워드를 획득할 수 있다(S63). 일 예로, 프로세서(14)는 사용자입력이 수신되는 때에 컨텐트의 키워드를 획득할 수 있다. 즉, 프로세서(14)는 사용자입력에 대응하여 실시간으로 컨텐트의 키워드를 획득할 수 있다. 다른 예로, 제1사용자(30)가 가이드정보(2)를 요청하는 시점 및 컨텐트의 키워드를 획득하는 시점 간에서 시간적 차이를 고려하여, 사용자입력이 수신된 시점으로부터 소정 시간 이전에 표시된 영상(16)의 컨텐트로부터 키워드를 획득할 수 있다. 여기서, 소정 시간은 설계 방법에 따라 다양하게 미리 정해질 수 있다. 다만, 시간에만 한정되는 것은 아니므로, 프로세서(14)는 소정 프레임 또는 씬(Scene)에 기초하여 컨텐트의 키워드를 획득할 수 있다.
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 가이드정보(2)를 요청하는 사용자입력에 기초하여 가이드정보(2)를 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
도 9는 도 4의 동작 S15와 관련하여, 제2전자장치(5)에서 음성명령의 가이드정보(2)를 표시하는 일 예를 도시한다. 도 9에 도시된 바와 같이, 프로세서(14)는 음성명령에 관한 정보를 제2전자장치(5)로 전송하여 제2전자장치(5)가 가이드정보(2)를 표시하도록 할 수 있다. 일 예로, 제2전자장치(5)는 디스플레이장치(1)로부터 키워드인 A배우(17)의 이름 및 B드라마의 작품명과 관련되고, 대응하는 동작이 수행된 음성명령에 관한 정보를 수신한 경우, "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 포함하는 가이드정보(2)를 표시할 수 있다.
다른 예로, 프로세서(14)는 가이드정보(2)를 표시할 제2전자장치(5)를 미리 정할 수 있다. 일 예로, 제1사용자(30)에 의해 제2전자장치(5)가 정해진 경우, 프로세서(14)는 미리 정한 제2전자장치(5)에 관한 정보를 제1전자장치(4)에 전송할 수 있다. 이 경우, 제1전자장치(4)는 복수의 사용자가 발화한 음성명령 중에서 키워드와 관련되고, 대응하는 동작이 수행된 음성명령에 관한 정보를 제2전자장치(5)로 전송하여, 제2전자장치(5)가 수신한 정보에 기초하여 음성명령의 가이드정보(2)를 표시하도록 할 수 있다.
다른 예로, 프로세서(14)는 특정 상황에 따라 어느 장치에 가이드정보(2)를 표시할 것인지 선택할 수 있다. 프로세서(14)는 음성명령에 관한 가이드정보(2)를 표시하는 상황에서 기설정된 조건에 해당하는지 여부를 판단하여 가이드정보(2)를 표시할 장치를 디스플레이장치(1) 또는 외부장치 중에 선택할 수 있다. 디스플레이장치(1)가 아닌 외부장치, 예컨대 제2전자장치(5)에 가이드정보(2)를 표시하는 경우, 프로세서(14)는 디스플레이장치(1)와 연결된 외부장치의 존재를 확인하고, 통신부(12)를 제어하여 해당 외부장치에 가이드정보(2)를 전송할 수 있다. 가이드정보(2)를 외부장치에 전송하거나, 외부장치가 표시하는 경우에도, 프로세서(14)는 디스플레이장치(1)와 연결된 외부장치가 존재하지 않는 경우 가이드정보(2)를 디스플레이(11)에 표시할 수 있다.
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 제2전자장치(5)가 가이드정보(2)를 표시하도록 할 수 있으므로, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
도 10은 도 4의 S12 및 S15와 관련하여 키워드의 획득 범위 및 가이드정보(2)의 표시 범위를 설정하는 일 예를 도시한다. 도 10에 도시된 바와 같이, 디스플레이장치(1)는 키워드의 획득 범위 및 가이드정보(2)의 표시 범위를 설정하기 위한 사용자 인터페이스(User Interface, 이하, '설정UI'라 지칭)를 표시할 수 있다. 설정UI(90)는 리모컨, 터치 패널, 또는 메뉴 버튼 중 적어도 하나를 통한 사용자입력에 따라 표시될 수 있다.
설정UI(90)는 가이드정보 표시(91), 키워드 설정(92), 또는 가이드정보 표시 설정(93)을 위한 메뉴항목을 포함할 수 있다. 가이드정보 표시(91)를 위한 메뉴항목이 활성화된 경우, 가이드정보(2)를 요청하는 사용자입력에 대하여 디스플레이장치(1)는 가이드정보(2)를 표시할 수 있다.
키워드 설정(92)은 EPG로부터 키워드를 획득할 수 있도록 하는 EPG 키워드 획득, 인식된 영상에 기초하여 키워드를 획득할 수 있도록 하는 영상인식 키워드 획득, 인식된 음성에 기초하여 키워드를 획득할 수 있도록 하는 음성인식 키워드 획득, 또는 영상의 자막에 기초하여 키워드를 획득할 수 있도록 하는 캡션 키워드 획득의 메뉴항목을 포함할 수 있다. 일 예로, 디스플레이장치(1)는 영상인식 키워드 획득의 메뉴항목이 활성화된 경우 영상(16)에 대한 영상인식을 수행하고, 인식된 영상에 기초하여 키워드를 획득할 수 있지만, 비활성화된 경우 영상(16)에 대한 영상인식을 수행하지 않거나, 인식된 영상으로부터 키워드의 획득을 수행하지 않을 수 있다.
가이드정보 표시 설정(93)은 인식 성공, 발화 빈도, 연속 발화, 현재 추천, 관련 키워드 등과 같은 팩터의 메뉴항목을 포함할 수 있다. 인식 성공의 메뉴항목은, 음성명령에 대한 인식에 성공하거나, 음성명령에 대응하는 동작이 수행되었는지 여부에 따라 음성명령을 표시하도록 할 수 있다. 일 예로, 인식 성공의 메뉴항목이 활성화된 경우 디스플레이장치(1)는 키워드와 관련된 음성명령으로서, 인식에 성공하거나 대응하는 동작이 수행된 음성명령이 포함된 가이드정보(2)를 표시하지만, 비활성화된 경우 대응하는 동작이 수행되지 않은 음성명령도 포함하도록 가이드정보(2)를 표시할 수 있다.
한편, 제1전자장치(4)는 설정UI(90)를 통해 선택된 바에 따라 키워드와 관련된 음성명령을 식별할 수 있다. 일 예로, 제1전자장치(4)는 인식 성공의 메뉴항목이 활성화된 경우, 인식에 성공하거나 대응하는 동작이 수행된 음성명령을 식별하고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. 마찬가지로, 발화 빈도, 연속 발화, 현재 추천, 또는 관련 키워드의 메뉴항목 활성화된 경우, 제1전자장치(4)는 발화 빈도가 높거나, 연속 발화의 횟수가 많거나, 제2전자장치(5)에서 현재 추천되거나, 디스플레이장치(1)로부터 수신한 키워드와 관련된 키워드를 포함하는 음성명령의 정보를 디스플레이장치(1)에 전송할 수 있다.
마찬가지로, 가이드정보 표시 설정(93)에서 발화 빈도의 메뉴항목이 활성화된 경우, 디스플레이장치(1)는 키워드와 관련된 음성명령으로서, 발화 빈도가 높은 음성명령의 가이드정보(2)를 표시할 수 있으며, 연속 발화의 메뉴항목이 활성화된 경우, 연속적으로 발화한 횟수가 높은 음성명령의 가이드정보(2)를 표시할 수 있다. 또한, 현재 추천의 메뉴항목이 활성화된 경우, 디스플레이장치(1)는 키워드와 관련된 음성명령으로서, 제2전자장치(5)에서 음성명령의 추천 동작에 의해 추천되거나, 웹이나 SNS 상의 검색 순위가 높은 음성명령의 가이드정보(2)를 표시할 수 있으며, 관련 키워드의 메뉴항목이 활성화된 경우, 획득된 키워드와 관련된 키워드를 포함하는 음성명령의 가이드정보(2)를 표시할 수 있다.
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 키워드의 획득 범위 및 가이드정보의 표시 범위를 설정하기 위한 설정UI(90)를 표시하고, 설정UI(90)를 통한 사용자입력에 따라 키워드를 획득하고, 획득된 키워드에 기초한 음성명령의 가이드정보(2)를 표시할 수 있다. 따라서, 사용자에 최적화된 음성명령 추천기능을 제공함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
도 11은 도 4의 S12 및 S15와 관련하여 가이드정보의 표시 범위를 설정하는 다른 예를 도시한다. 제1전자장치(4)는 복수의 발화한 음성명령에 대한 팩터에 우선순위 또는 가중치에 기초하여 음성명령을 식별할 수 있다. 일 예로, 인식 성공, 발화 빈도, 연속 발화, 현재 추천, 관련 키워드 등의 팩터 중 인식 성공, 발화 빈도 등의 순으로 우선순위가 설정된 경우, 제1전자장치(4)는 각 팩터에 해당하는 음성명령에 차등적으로 점수를 부여하고, 총점이 높은 적어도 하나의 음성명령을 식별할 수 있다. 그리고, 제1전자장치(4)는 총점에 따라 적어도 하나의 음성명령을 재구성하여 재구성된 음성명령에 관한 정보를 디스플레이장치(1)로 전송하여, 디스플레이장치(1)가 인식 성공, 발화 빈도 등의 순서를 갖는 음성명령의 가이드정보(2)를 표시할 수 있도록 한다.
특히, 본 실시예에 따른 디스플레이장치(1)는 인식 성공, 발화 빈도, 연속 발화, 현재 추천, 관련 키워드 등의 팩터에 우선순위 또는 가중치를 설정하기 위한 우선순위 설정(94)을 포함하는 설정UI(90)를 표시할 수 있다. 즉, 우선순위 설정(94)은 사용자입력에 따라 인식 성공, 발화 빈도, 연속 발화, 현재 추천, 관련 키워드 등과 같은 가이드정보 표시 설정(93)의 팩터에 대한 우선순위를 설정하도록 한다. 도 11을 참조하여 예를 들면, 우선순위 설정(94)을 통해 인식 성공, 발화 빈도 등이 1순위, 2순위 등으로 설정된 경우를 가정한다. 디스플레이장치(1)는 가이드정보(2)를 표시함에 있어서, 키워드와 관련된 복수의 음성명령 중 인식에 성공하거나 대응하는 동작이 수행된 음성명령을 우선적으로 표시하고, 발화 빈도가 높은 음성명령을 차순위로 표시할 수 있다.
또한, 설정UI(90)는 가이드정보 표시 설정(93)의 각 팩터에 대한 가중치를 부여할 수 있는 가중치 설정(95)을 더 포함할 수 있다. 일 예로, 가중치 설정(95)을 통해 인식 성공에 10의 가중치가 부여되고, 발화 빈도에 3의 가중치가 부여된 경우, 제1전자장치(4)는 인식 성공에 해당하는 음성명령에 10점을 부여하고, 발화 빈도가 높은 음성명령에 3점을 부여할 수 있다. 이 경우, 디스플레이장치(1)는 가중치 설정(95)을 통해 설정한 가중치에 따라 재구성된 음성명령의 가이드정보(2)를 표시할 수 있다.
이와 같이, 본 실시예에 따른 디스플레이장치(1)는 우선순위 설정(94) 또는 가중치 설정(95)를 통한 사용자입력에 따라 우선순위를 갖는 음성명령의 가이드정보(2)를 표시할 수 있다. 따라서, 사용자에 최적화된 음성명령 추천기능을 제공함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.
1: 디스플레이장치
11: 디스플레이
12: 통신부
13: 수신부
14: 프로세서
11: 디스플레이
12: 통신부
13: 수신부
14: 프로세서
Claims (17)
- 디스플레이장치에 있어서,
디스플레이;
통신부;
수신부; 및
컨텐트의 영상이 표시되도록 상기 디스플레이를 제어하고,
상기 영상이 표시되는 컨텐트의 키워드를 획득하고,
상기 획득된 키워드를 상기 통신부를 통하여 외부장치로 전송하고,
상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고,
상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어하고,
상기 가이드정보의 표시에 따라 상기 수신부를 통해 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는
프로세서를 포함하는 디스플레이장치. - 제1항에 있어서,
상기 프로세서는, 복수의 상기 음성명령의 우선순위가 나타나도록 상기 가이드정보를 표시하는 디스플레이장치. - 제2항에 있어서,
상기 프로세서는, 상기 우선순위에 따라 상기 각 음성명령의 가이드정보의 컬러를 구별하여 표시하는 디스플레이장치. - 제1항에 있어서,
상기 음성명령은, 2이상의 단어를 포함하고,
상기 프로세서는, 상기 2이상의 단어 중 다른 단어로 대체하여 발화할 수 있는 단어가 구별되도록 상기 가이드정보를 표시하는 디스플레이장치. - 제1항에 있어서,
상기 프로세서는, 상기 가이드정보를 요청하는 사용자입력에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어하는 디스플레이장치. - 제1항에 있어서,
상기 프로세서는, 상기 통신부를 통하여 외부 디스플레이장치로 상기 가이드정보의 신호를 전송하여, 상기 외부 디스플레이장치가 상기 가이드정보를 표시하도록 하는 디스플레이장치. - 제1항에 있어서,
상기 프로세서는, 상기 컨텐트의 영상, 사운드, EPG 또는 캡션정보 중 적어도 하나에 기초하여 상기 키워드를 획득하는 디스플레이장치. - 전자장치에 있어서,
통신부; 및
상기 통신부를 통하여 수신되는 복수의 제1외부장치의 요청에 대응하여:
상기 복수의 제1외부장치의 복수의 사용자가 발화한 음성명령의 인식을 수행하고,
상기 인식된 음성명령 및 상기 인식된 음성명령에 대응하는 동작의 정보를 상기 복수의 제1외부장치로 전송하고,
상기 통신부를 통하여 제2외부장치로부터 수신되는 키워드에 대응하여, 상기 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 상기 제2외부장치로 송신하는 프로세서
를 포함하는 전자장치. - 디스플레이장치의 제어방법에 있어서,
컨텐트의 영상을 표시하는 단계;
상기 영상이 표시되는 컨텐트의 키워드를 획득하는 단계;
상기 획득된 키워드를 외부장치로 전송하는 단계;
상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하는 단계;
상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계; 및
상기 가이드정보의 표시에 따라 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 단계를 포함하는 디스플레이장치의 제어방법. - 제9항에 있어서,
상기 가이드정보를 표시하는 단계는, 복수의 상기 음성명령의 우선순위가 나타나도록 상기 가이드정보를 표시하는 단계를 포함하는 디스플레이장치의 제어방법. - 제10항에 있어서,
상기 가이드정보를 표시하는 단계는, 상기 우선순위에 따라 상기 각 음성명령의 가이드정보의 컬러를 구별하여 표시하는 단계를 포함하는 디스플레이장치의 제어방법. - 제9항에 있어서,
상기 음성명령은, 2이상의 단어를 포함하고,
상기 가이드정보를 표시하는 단계는, 상기 2이상의 단어 중 다른 단어로 대체하여 발화할 수 있는 단어가 구별되도록 상기 가이드정보를 표시하는 단계를 포함하는 디스플레이장치의 제어방법. - 제9항에 있어서,
상기 가이드정보를 표시하는 단계는, 상기 가이드정보를 요청하는 사용자입력에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계를 포함하는 디스플레이장치의 제어방법. - 제9항에 있어서,
상기 가이드정보를 표시하는 단계는, 외부 디스플레이장치로 상기 가이드정보의 신호를 전송하여, 상기 외부 디스플레이장치가 상기 가이드정보를 표시하도록 하는 단계를 포함하는 디스플레이장치의 제어방법. - 제9항에 있어서,
상기 획득하는 단계는, 상기 컨텐트의 영상, 사운드, EPG 또는 캡션정보 중 적어도 하나에 기초하여 상기 키워드를 획득하는 단계를 포함하는 디스플레이장치의 제어방법. - 전자장치의 제어방법에 있어서,
복수의 제1외부장치로부터 수신되는 요청에 대응하여:
상기 복수의 제1외부장치의 복수의 사용자가 발화한 음성명령의 인식을 수행하는 단계; 및,
상기 인식된 음성명령 및 상기 인식된 음성명령에 대응하는 동작의 정보를 상기 복수의 제1외부장치로 전송하는 단계; 및
제2외부장치로부터 수신되는 키워드에 대응하여, 상기 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 상기 제2외부장치로 송신하는 단계를 포함하는 전자장치의 제어방법. - 컴퓨터가 읽을 수 있는 코드로서 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은,
컨텐트의 영상을 표시하는 단계;
상기 영상이 표시되는 컨텐트의 키워드를 획득하는 단계;
상기 획득된 키워드를 외부장치로 전송하는 단계;
상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하는 단계;
상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계; 및
상기 가이드정보의 표시에 따라 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 단계를 포함하는 디스플레이장치의 제어방법을 포함하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180163251A KR20200074635A (ko) | 2018-12-17 | 2018-12-17 | 디스플레이장치 및 그 제어방법 |
PCT/KR2019/015175 WO2020130350A1 (ko) | 2018-12-17 | 2019-11-08 | 디스플레이장치 및 그 제어방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180163251A KR20200074635A (ko) | 2018-12-17 | 2018-12-17 | 디스플레이장치 및 그 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200074635A true KR20200074635A (ko) | 2020-06-25 |
Family
ID=71102898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180163251A KR20200074635A (ko) | 2018-12-17 | 2018-12-17 | 디스플레이장치 및 그 제어방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20200074635A (ko) |
WO (1) | WO2020130350A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023219191A1 (ko) * | 2022-05-13 | 2023-11-16 | 엘지전자 주식회사 | 멀티미디어 디바이스 및 그 제어 방법 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112511882B (zh) * | 2020-11-13 | 2022-08-30 | 海信视像科技股份有限公司 | 一种显示设备及语音唤起方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5424383B2 (ja) * | 2008-12-25 | 2014-02-26 | 三星電子株式会社 | 放送受信装置、キーワード検索方法及びプログラム |
KR101997448B1 (ko) * | 2013-01-09 | 2019-07-08 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기 제어방법 |
KR20160039830A (ko) * | 2014-10-02 | 2016-04-12 | 엘지전자 주식회사 | 멀티미디어 장치 및 그의 음성 가이드 제공방법 |
CN105204743A (zh) * | 2015-09-28 | 2015-12-30 | 百度在线网络技术(北京)有限公司 | 用于语音和视频通讯的交互控制方法及装置 |
KR102208822B1 (ko) * | 2016-12-13 | 2021-01-27 | 주식회사 케이티 | 음성 인식 장치, 방법 그리고 이를 위한 사용자 인터페이스 표시 방법 |
-
2018
- 2018-12-17 KR KR1020180163251A patent/KR20200074635A/ko unknown
-
2019
- 2019-11-08 WO PCT/KR2019/015175 patent/WO2020130350A1/ko active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023219191A1 (ko) * | 2022-05-13 | 2023-11-16 | 엘지전자 주식회사 | 멀티미디어 디바이스 및 그 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2020130350A1 (ko) | 2020-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10708645B2 (en) | Method and system for controlling a user receiving device using voice commands | |
US12105757B2 (en) | Systems and methods for updating search results based on a conversation | |
CN111433845A (zh) | 在会话的上下文中推荐内容的方法和系统 | |
JP2019525272A (ja) | 自然言語クエリのための近似的テンプレート照合 | |
US20150194167A1 (en) | Display apparatus which operates in response to voice commands and control method thereof | |
US11966442B2 (en) | Recommending language models for search queries based on user profile | |
JP2014132465A (ja) | ディスプレイ装置及びその制御方法 | |
WO2014130901A1 (en) | Method and system for improving responsiveness of a voice regognition system | |
US20160063894A1 (en) | Electronic apparatus having a voice guidance function, a system having the same, and a corresponding voice guidance method | |
EP3211810A1 (en) | Image processing apparatus and control method thereof | |
US11620340B2 (en) | Recommending results in multiple languages for search queries based on user profile | |
US20230142720A1 (en) | Smart interactive media content guide | |
KR102210933B1 (ko) | 음성 신호에 따라 컨텐츠 정보를 검색하여 제공하는 디스플레이 장치, 서버 장치 및 이들을 포함하는 음성 입력 시스템과, 그 방법들 | |
US20230401030A1 (en) | Selecting options by uttered speech | |
KR20200074635A (ko) | 디스플레이장치 및 그 제어방법 | |
CN112567757A (zh) | 具备通知功能的电子装置及电子装置的控制方法 | |
US12027168B2 (en) | Electronic device and method for providing assistant service with utterance list | |
KR20210029754A (ko) | 음성인식 시스템, 음성인식 서버 및 디스플레이장치의 제어방법 | |
KR102524180B1 (ko) | 디스플레이장치 및 그 제어방법 | |
EP4227940A1 (en) | Electronic device and method for controlling same | |
EP3625794B1 (en) | Recommending results in multiple languages for search queries based on user profile | |
CN115862615A (zh) | 一种显示设备、语音搜索方法及存储介质 | |
KR20230069475A (ko) | 전자장치 및 그 제어방법 |