KR102374054B1 - Method for recognizing voice and apparatus used therefor - Google Patents
Method for recognizing voice and apparatus used therefor Download PDFInfo
- Publication number
- KR102374054B1 KR102374054B1 KR1020210166682A KR20210166682A KR102374054B1 KR 102374054 B1 KR102374054 B1 KR 102374054B1 KR 1020210166682 A KR1020210166682 A KR 1020210166682A KR 20210166682 A KR20210166682 A KR 20210166682A KR 102374054 B1 KR102374054 B1 KR 102374054B1
- Authority
- KR
- South Korea
- Prior art keywords
- sound
- weight
- voice recognition
- multiplied
- input
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000004891 communication Methods 0.000 claims description 22
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 20
- 230000002452 interceptive effect Effects 0.000 description 18
- 239000000284 extract Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
- Telephonic Communication Services (AREA)
Abstract
일 실시예에 따른 음성 입력 방법은 음성 인식 장치에 의해 수행되며, 상기 음성 인식 장치의 제1 소리 입력부에 입력된 제1 소리의 크기를 도출하는 단계와, 타 기기의 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보가 상기 타 기기로부터 수신되면, 상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하는 단계와, 상기 비교 결과 상대적으로 크기가 큰 소리에 상대적으로 큰 값의 가중치를 곱하고 상대적으로 크기가 작은 소리에 상대적으로 작은 값의 가중치를 곱하는 단계와, 상기 가중치가 각각 곱해진 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 단계를 포함한다.A voice input method according to an embodiment is performed by a voice recognition apparatus, and includes the steps of deriving the volume of a first sound input to a first sound input unit of the voice recognition apparatus; Comparing the volume of the first sound with the volume of the second sound when information on the loudness of the second sound is received from the other device; The method includes multiplying a weight and multiplying a sound having a relatively small volume by a weight having a relatively small value, and controlling voice recognition to be performed on the first sound and the second sound multiplied by the weight, respectively.
Description
본 발명은 음성 인식 방법 및 이에 사용되는 장치에 관한 것이며, 보다 자세하게는 음성을 입력받는 타 기기와 연동하여서 음성을 인식하는 방법 및 이에 사용되는 장치에 관한 것이다.The present invention relates to a voice recognition method and an apparatus used therefor, and more particularly, to a method for recognizing a voice by interworking with another device receiving a voice input, and an apparatus used therefor.
음성 인식 기반의 대화형 디바이스는 복수 개의 음성 입력부(예컨대 마이크로폰)를 포함할 수 있다. 음성 입력부가 복수 개로 구비되면, 다양한 방향에서 발생되는 음성이 높은 인식률로 수집될 수 있다. 도 1은 복수 개의 음성 입력부(20)를 포함하는 대화형 디바이스(1)의 구성을 개념적으로 도시한 도면이다. 도 1을 참조하면, 대화형 디바이스(1)는 몸체를 구성하는 바디부(10) 그리고 이러한 바디부(10)에 실장되는 복수 개의 음성 입력부(20)를 포함할 수 있다. 복수 개의 음성 입력부(20)는 다양한 방향을 향하도록 지향적으로 배치될 수 있다.The voice recognition-based interactive device may include a plurality of voice input units (eg, microphones). When a plurality of voice input units are provided, voices generated in various directions may be collected at a high recognition rate. 1 is a diagram conceptually illustrating a configuration of an
도 2는 도 1에 도시된 복수 개의 음성 입력부(20)에 대한 블록도를 도시한 도면이다. 도 2를 참조하면, 복수 개의 음성 입력부(20) 각각은 증폭기(21)에 연결될 수 있고, 증폭기(21)는 마이크로프로세서(MCU, 22)에 연결될 수 있다. 복수 개의 음성 입력부(20) 각각을 통해 입력된 음성은 증폭기(21)에서 증폭된 뒤 마이크로프로세서(22)로 전달된다. 마이크로프로세서(22)는 각각의 증폭기(21)로부터 음성을 전달받은 후 음성 인식을 직접 수행할 수 있으며, 이와 달리 별도의 음성 인식 서버에서 음성 인식이 수행될 수 있도록 음성 인식 서버에게 음성을 전달할 수 있다.FIG. 2 is a diagram illustrating a block diagram of the plurality of
대화형 디바이스(1)는 특정 위치에 고정되어 사용되는 고정형 디바이스일 수 있다. 사용자가 대화형 디바이스(1)로부터 근거리만큼 이격된 위치에 있다면, 이러한 사용자가 발한 음성은 대화형 디바이스(1)에서 용이하게 인식 가능하다. 그러나, 사용자가 대화형 디바이스(1)로부터 원거리만큼 이격된 위치에 있다면, 이러한 사용자가 발한 음성은 대화형 디바이스(1)에서 용이하게 인식되기가 어렵다. 왜냐하면, 사용자가 발한 음성이 대화형 디바이스(1)까지 도달하는 과정에서 왜곡될 수 있기 때문이다. 이 밖에도 사용자의 음성에 의한 반향(echo), 잡음원이 발생하는 잡음(noise)에 의한 영향 또는 대화형 디바이스(1) 자체에서 출력되는 소리에 의한 반향 등은 사용자가 발한 음성에 왜곡을 가할 수 있다.The
이에 본 발명이 해결하고자 하는 과제는, 사용자가 음성 인식 장치로부터 원거리만큼 이격된 위치에 있거나 대화형 디바이스 부근에 잡음원이 존재하는 경우 음성 인식률을 개선하는 기술을 제공하는 것이다.Accordingly, an object of the present invention is to provide a technique for improving a voice recognition rate when a user is at a location far apart from a voice recognition apparatus or when a noise source exists in the vicinity of an interactive device.
또한, 음성 인식 장치가 자체적으로 출력하는 소리 또는 사용자의 음성에 의한 반향 영향 등을 제거 또는 감소시킴으로써 음성 인식률을 개선하는 기술을 제공하는 것이다.Another object of the present invention is to provide a technique for improving a voice recognition rate by removing or reducing an echo effect of a sound output by the voice recognition device or a user's voice.
다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.
일 실시예에 따른 음성 입력 방법은 음성 인식 장치에 의해 수행되며, 상기 음성 인식 장치의 제1 소리 입력부에 입력된 제1 소리의 크기를 도출하는 단계와, 타 기기의 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보가 상기 타 기기로부터 수신되면, 상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하는 단계와, 상기 비교 결과 상대적으로 크기가 큰 소리에 상대적으로 큰 값의 가중치를 곱하고 상대적으로 크기가 작은 소리에 상대적으로 작은 값의 가중치를 곱하는 단계와, 상기 가중치가 각각 곱해진 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 단계를 포함한다.A voice input method according to an embodiment is performed by a voice recognition apparatus, and includes the steps of deriving the volume of a first sound input to a first sound input unit of the voice recognition apparatus; Comparing the volume of the first sound with the volume of the second sound when information on the loudness of the second sound is received from the other device; The method includes multiplying a weight and multiplying a sound having a relatively small volume by a weight having a relatively small value, and controlling voice recognition to be performed on the first sound and the second sound multiplied by the weight, respectively.
일 실시예에 따른 음성 인식 장치는 제1 소리를 입력받는 제1 소리 입력부와, 상기 제1 소리의 크기를 도출하는 음성 인식부와, 제2 소리 입력부를 포함하는 타 기기로부터 상기 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보를 수신하는 통신부와, 상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하고, 상기 비교 결과 상대적으로 큰 소리에 곱해지는 가중치는 상대적으로 큰 값을 갖도록 산출하고 상대적으로 작은 소리에 곱해지는 가중치는 상대적으로 작은 값을 갖도록 산출하며, 상기 산출된 각각의 가중치가 곱해진 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 제어부를 포함한다.A voice recognition apparatus according to an embodiment includes a first sound input unit receiving a first sound, a voice recognition unit deriving the level of the first sound, and a second sound input unit from another device including a second sound input unit a communication unit for receiving information on the loudness of the second sound input to the , compares the loudness of the first sound with the loudness of the second sound, and as a result of the comparison, a weight multiplied by a relatively loud sound is a relatively large value and a control unit for controlling so that the first sound and the second sound multiplied by the calculated weights are calculated to have a relatively small weight and a weight multiplied by a relatively small sound is performed to perform voice recognition do.
일 실시예에 따르면, 복수 개의 장치 각각이 소리를 입력받을 때, 이러한 소리를 발하는 음원과 각각의 장치 간의 이격 거리가 고려되어서 각각의 소리가 다른 비율로 증폭될 수 있다. 따라서, 어느 하나의 장치가 음원과 원거리만큼 이격되어 있다고 하더라도 다른 장치가 음원과 근거리만큼 이격되어 있으면 이러한 다른 장치로 입력된 소리가 보다 크게 증폭되어서 합성될 수 있으므로, 해당 음원이 발하는 소리에 대한 인식률이 향상될 수 있다.According to an embodiment, when each of a plurality of devices receives a sound, the distance between the sound source emitting such a sound and each device is taken into consideration so that each sound may be amplified at a different rate. Therefore, even if one device is separated from the sound source by a distance, if the other device is spaced apart from the sound source by a short distance, the sound input to the other device can be amplified and synthesized, so the recognition rate for the sound emitted by the sound source This can be improved.
또한, 반향음에 의해 발생 가능한 소리의 왜곡이 경감되거나 제거될 수 있다.In addition, distortion of the sound that may be caused by the reflection sound can be reduced or eliminated.
도 1은 일반적인 대화형 음성 인식 장치의 구성을 개념적으로 도시한 도면이다.
도 2는 도 1에 도시된 대화형 음성 인식 장치의 음성 인식부에 대한 블록도를 도시한 도면이다.
도 3은 일 실시예에 따른 음성 인식 장치가 적용된 음성 인식 시스템의 구성을 개념적으로 도시한 도면이다.
도 4는 도 3에 도시된 타 기기의 구성을 개념적으로 도시한 도면이다.
도 5는 도 3에 도시된 일 실시예에 따른 음성 인식 장치의 구성을 개념적으로 도시한 도면이다.
도 6은 일 실시예에 따른 음성 인식 장치의 동작을 개념적으로 도시한 도면이다.
도 7은 일 실시예에 따른 음성 인식 장치가 동작하는 상황에 대한 제1 예를 개념적으로 도시한 도면이다.
도 8은 일 실시예에 따른 음성 인식 장치가 동작하는 상황에 대한 제2 예를 개념적으로 도시한 도면이다.
도 9는 일 실시예에 따른 음성 인식 장치가 동작하는 상황에 대한 제3 예를 개념적으로 도시한 도면이다.
도 10은 일 실시예에 따른 음성 인식 장치의 동작을 개념적으로 도시한 도면이다.1 is a diagram conceptually illustrating the configuration of a general interactive voice recognition apparatus.
FIG. 2 is a diagram illustrating a block diagram of a voice recognition unit of the interactive voice recognition apparatus shown in FIG. 1 .
3 is a diagram conceptually illustrating a configuration of a voice recognition system to which a voice recognition apparatus according to an embodiment is applied.
FIG. 4 is a diagram conceptually illustrating a configuration of another device shown in FIG. 3 .
FIG. 5 is a diagram conceptually illustrating a configuration of a voice recognition apparatus according to the embodiment shown in FIG. 3 .
6 is a diagram conceptually illustrating an operation of a voice recognition apparatus according to an exemplary embodiment.
7 is a diagram conceptually illustrating a first example of a situation in which a voice recognition apparatus operates according to an embodiment.
8 is a diagram conceptually illustrating a second example of a situation in which a voice recognition apparatus operates according to an embodiment.
9 is a diagram conceptually illustrating a third example of a situation in which a voice recognition apparatus operates according to an exemplary embodiment.
10 is a diagram conceptually illustrating an operation of a voice recognition apparatus according to an exemplary embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.
도 3은 일 실시예에 따른 음성 인식 장치(100)가 적용된 음성 인식 시스템(1000)의 구성을 개념적으로 도시한 도면이다. 다만, 도 3은 예시적인 것에 불과하므로, 음성 인식 장치(100)가 도 3에 도시된 음성 인식 시스템(1000)에만 한정 적용되는 것으로 해석되지는 않는다.3 is a diagram conceptually illustrating the configuration of a
도 3을 참조하면, 음성 인식 시스템(1000)은 음성 인식 서버(500), 음성 인식 장치(100) 그리고 적어도 하나의 타 기기(200,210)를 포함할 수 있다. 이 때, 이러한 음성 인식 시스템(1000)이 설치된 공간에는 잡음(noise)을 발하는 잡음원(300)이 배치될 수 있다. Referring to FIG. 3 , the
음성 인식 서버(500)는 소리로부터 음성을 추출하고 인식하는 기능을 수행하는 서버일 수 있다. 음성 인식 서버(500)에서 처리되는 소리는 음성 인식 장치(100)나 또는 타 기기(200,210)로부터 전달받은 소리일 수 있다. 여기서, 음성 인식 서버(500)는 소리로부터 음성을 추출하고 인식하기 위해 공지된 기술을 사용할 수 있는 바, 이에 대한 설명은 생략하기로 한다.The
타 기기(200,210)는 외부의 소리를 입력받는 기능을 구비하는 모든 기기를 총칭할 수 있다. 예컨대 이러한 타 기기(200,210)는 스마트폰, 스마트패드, 스마트시계, 소리 입력 기능이 구비된 리모콘 또는 소리 입력 기능이 구비된 스피커 등일 수 있다. 이러한 타 기기(200,210)는 음성 인식 시스템(1000)에서 적어도 한 개 이상 구비될 수 있다. 이러한 타 기기(200,210)에 대하여는 도 4를 참조하여 살펴보기로 한다. The
도 4는 도 3에 도시된 타 기기(200,210)에 대한 구성을 예시적으로 도시한 도면이다. 도 4를 참조하면, 타 기기(200,210)는 통신부(201), 적어도 하나의 스피커(202), 적어도 하나의 소리 입력부(203) 및 제어부(204) 중 적어도 하나를 포함할 수 있으며, 언급되지 않은 다른 구성을 포함할 수도 있다. FIG. 4 is a diagram exemplarily showing configurations of
통신부(201)는 무선 통신 모듈일 수 있다. 예컨대 통신부(201)는 블루투스 모듈, Wi-Fi 모듈 또는 적외선 통신 모듈 중 어느 하나일 수 있으나 이에 한정되는 것은 아니다. 통신부(201)를 통해서 타 기기(200,210)는 음성 인식 장치(100) 또는 음성 인식 서버(500)와 음성 또는 음성 관련 데이터를 주고받을 수 있다. The
스피커(202)는 외부를 향해 소리를 출력하는 구성이다. 이러한 타 기기(200,210)에 채용되는 스피커(202)는 회로 기판에 포함되는 일반적인 스피커일 수 있는 바, 이러한 스피커(202)에 대해서는 설명을 생략하기로 한다.The
소리 입력부(203)는 마이크로폰과 같이 소리를 입력받는 구성이며, 입력받은 소리를 증폭시키는 구성까지도 포함할 수 있다. 소리 입력부(203)가 입력받는 소리에는 사람의 음성, 사물로부터 발생되는 소리, 잡음원(300)이 발생시키는 잡음 등이 있을 수 있으며, 다만 이에 한정되는 것은 아니다.The
소리 입력부(203)는 복수 개가 타 기기(200,210)에 구비될 수 있다. 복수 개의 소리 입력부(203)는 다양한 방향을 향하도록 지향적으로 배치 및 동작될 수 있다. 복수 개의 소리 입력부(203)는 후술할 제어부(204)에 의해서 선택적으로 동작될 수 있다.A plurality of
제어부(204)는 이하에서 설명할 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의하여 구현 가능하다. 이하에서는 이러한 제어부(204)에 대하여 구체적으로 살펴보도록 한다.The
제어부(204)는 소리 입력부(203)가 복수 개로 구비된 경우, 이 중 적어도 하나를 선별적으로 동작시킬 수 있다. When a plurality of
또한, 제어부(204)는 소리 입력부(203)에 입력된 소리로부터 정보를 추출할 수 있다. 제어부(204)가 소리로부터 추출하는 정보에는 소리 입력부(203)에 소리가 입력된 시간 또는 소리 입력부(203)에 입력된 소리의 주파수나 크기 등이 포함될 수 있으나 이에 한정되는 것은 아니다.Also, the
또한, 제어부(204)는 소리에 잡음이 포함되어 있을 경우, 소리로부터 잡음을 추출하고 그 특성을 파악할 수 있으며 또한 이러한 특성을 기초로 잡음을 상쇄시키는 상쇄음을 생성할 수 있다. 다만, 제어부(204)가 소리로부터 잡음을 추출하고 잡음의 특성을 파악하며 이러한 잡음의 특성을 기초로 잡음에 대한 상쇄음을 생성하는 기술은 이미 공지된 기술을 이용하는 것이므로 이에 대한 설명은 생략하기로 한다.Also, when noise is included in the sound, the
잡음원(300)은 잡음을 발생시키는 음원을 지칭한다. 잡음에는 백색 소음 또는 기타 다른 소음 등이 포함될 수 있다.The
음성 인식 장치(100)는 사용자(400)가 발하는 음성을 인식하고, 인식된 음성에 대응하여서 대화형 서비스를 제공하는 장치일 수 있다. 또한, 음성 인식 장치(100)는 타 기기(200,210)를 제어함으로써, 이러한 타 기기(200,210)로 하여금 사용자(400)가 발하는 음성을 입력받도록 할 수 있다. 이하에서는 이러한 음성 인식 장치(100)의 구성에 대해서 살펴보도록 한다.The
도 5는 도 3에 도시된 음성 인식 장치(100)의 구성을 예시적으로 도시한 도면이다. 도 5를 참조하면, 음성 인식 장치(100)는 통신부(110), 스피커(120), 소리 입력부(130), 합성부(140), 저장부(150), 음성 인식부(160), 처리부(170) 및 제어부(180)를 포함할 수 있으며, 다만 도 5에 도시된 것과는 달리 이 중에서 적어도 하나를 포함하지 않거나 또는 도면에는 도시되지 않은 구성을 더 포함할 수도 있다.FIG. 5 is a diagram exemplarily illustrating the configuration of the
통신부(110)는 무선 통신 모듈일 수 있다. 예컨대 통신부(110)는 블루투스모듈, Wi-Fi 모듈 또는 적외선 통신 모듈 중 어느 하나일 수 있으나 이에 한정되는 것은 아니다. 이러한 통신부(110)를 통해서 음성 인식 장치(100)는 음성 인식 서버(500) 또는 타 기기(200,210)와 음성 또는 음성 관련 데이터를 주고받을 수 있다. The
스피커(120)는 외부를 향해 소리를 출력하는 구성이다. 음성 인식 장치(100)에 채용되는 스피커(120)는 일반적인 스피커일 수 있는 바, 이러한 스피커(120)에 대해서는 설명을 생략하기로 한다.The
소리 입력부(130)는 마이크와 같이 소리를 입력받는 구성이며, 입력받은 소리를 증폭시키는 구성까지도 포함하는 개념일 수 있다. 소리 입력부(130)가 입력받는 소리에는 사람의 음성, 사물로부터 발생되는 소리, 잡음원(300)이 발생시키는 잡음 등이 있을 수 있으며, 다만 이에 한정되는 것은 아니다.The
소리 입력부(130)는 복수 개가 음성 인식 장치(100)에 구비될 수 있다. 복수 개의 소리 입력부(130)는 다양한 방향을 향하도록 지향적으로 배치 및 동작될 수 있다. 복수 개의 소리 입력부(130)의 동작은 후술할 제어부(180)에 의해서 제어될 수 있다.A plurality of
합성부(140)는 복수 개의 소리를 합성하는 구성이며, 필터와 같이 일반적으로 공지된 구성을 포함할 수 있다. 합성부(140)는 음성 인식 장치(100)의 소리 입력부(130)로 입력되는 소리와, 타 기기(200,210)의 소리 입력부(203)로 입력되는 소리를 대상으로 합성할 수 있다. 만약, 음성 인식 장치(100)의 소리 입력부(130)가 복수 개로 구비되거나 타 기기(200)의 소리 입력부(203)가 복수 개로 구비되는 경우, 합성부(140)는 이들 복수 개의 소리 입력부(103,203)로 입력되는 소리를 합성할 수 있다.The
합성부(140)는 각각의 소리에 가중치(weight)를 곱할 수 있으며, 따라서 합성부(140)는 가중치가 곱해진 소리를 합성할 수 있다. 가중치는 양(+) 또는 음(-)의 값을 가질 수 있으며, 양의 값은 음성을 합성하기 위해서 해당 소리 입력부(203)의 음성 특성을 강화하는데 사용될 수 있고, 음의 값은 해당 소리 입력부(203)의 음성 특성을 약화하는데 사용될 수 있다. 합성부(140)에 의해서 소리에 가중치가 곱해진다는 것은 소리가 앰프 등을 통과한다는 것을 의미할 수 있으며, 이에 합성부(140)는 앰프 등을 구성요소로서 포함할 수 있다. 가중치가 곱해진 소리는 곱해진 가중치에 따라서 그 크기가 커지거나 줄어들 수 있다. 이러한 가중치는 후술할 제어부(180)로부터 전달받은 것일 수 있다.The synthesizing
저장부(150)는 데이터를 저장하는 구성이며, 메모리 등으로 구현 가능하다. 저장부(160)에 저장된 데이터에는 예컨대 웨이크업 신호, 소리 입력부(130,203)의 ID 또는 스피커(120)를 통해 출력되는 소리일 수 있으나 이에 한정되는 것은 아니다. 여기서, 웨이크업 신호는 미리 정해진 주파수 특성을 가질 수 있다. 웨이크업 신호가 음성 인식 장치(100)에서 인식되면, 그 이후에 사용자(400)가 발하는 음성은 명령으로 인식될 수 있다.The
음성 인식부(160)는 소리로부터 음성을 추출하여서 그 특성(예컨대 소리의 크기나 주파수, 소리가 입력된 시간 등)을 인식하는 구성이다. 음성 인식부(160)는 소리로부터 음성을 인식하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의하여 구현 가능하다.The
음성 인식부(160)에서 인식되는 소리는 소리 입력부(120)로 입력된 소리 또는 타 기기(200,210)로부터 전달받은 소리일 수 있다. The sound recognized by the
음성 인식부(160)는 소리로부터 전술한 웨이크업 신호를 소리로부터 추출하여서 인식할 수 있다. The
한편, 음성 인식부(160)는 웨이크업 신호 이외에 사용자(400)가 발하는 명령을 인식할 수도 있다. 다만, 이와 달리 음성 인식부(160)는 웨이크업 신호 이외에 사용자(400)가 발하는 명령을 인식하지 않을 수 있으며, 이 경우에 사용자의 명령 인식은 음성 인식 서버(500)에서 수행될 수 있다.Meanwhile, the
음성 인식부(160)는 소리로부터 잡음을 추출하여서 그 특성을 인식할 수 있다. 음성 인식부(160)가 소리로부터 잡음을 추출하여서 그 특성을 인식하는데 사용하는 알고리즘은 공지된 것이므로 이에 대한 설명은 생략하기로 한다.The
처리부(170)는 사용자(400)에게 대화형 서비스를 제공하는 구성이며, 이러한 처리부(170)는 대화형 서비스를 제공하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의하여 구현 가능하다. 여기서, 처리부(170)는 이미 공지된 알고리즘을 사용하여서 대화형 서비스를 제공하므로, 이에 대해서는 설명을 생략하기로 한다.The
한편, 실시예에 따라서 처리부(170)는 음성 인식 장치(100)에 포함되지 않을 수 있다. 이 경우, 사용자(400)에게 제공되는 대화형 서비스는 음성 인식 서버(500)가 생성한 것이 음성 인식 장치(100)에게 전달된 것일 수 있다. Meanwhile, according to an embodiment, the
제어부(180)는 이하에서 설명할 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의하여 구현 가능하다. 이하에서는 이러한 제어부(180)에 대하여 구체적으로 살펴보도록 한다.The
제어부(180)는 음성 인식 장치(100) 주변에 위치한 타 기기(200,210)를 탐색할 수 있다. 예컨대, 통신부(110)가 블루투스 모듈로 구현된 경우, 제어부(180)는 블루투스 연결 히스토리 등을 이용하여서 탐색의 진행을 제어할 수 있다.The
탐색이 완료된 경우, 제어부(180)는 탐색된 타 기기(200,210)와 음성 인식 장치(100)를 서로 연결시킬 수 있다. When the search is completed, the
통신이 연결되면, 제어부(180)는 통신이 연결된 타 기기(200,210) 각각에 포함된 적어도 하나의 소리 입력부(203)의 ID와, 음성 인식 장치(100)에 포함된 적어도 하나의 소리 입력부(130) 각각의 ID를 리스트 업(list up)할 수 있다. 이와 같이 리스트 업된 정보는 저장부(150)에 저장될 수 있다.When communication is connected, the
제어부(180)는 통신이 연결된 타 기기(200,210)에게 소리에 대한 정보를 요청할 수 있다. 이러한 요청에 대응하여서, 소리에 대한 정보가 통신부(110)를 통해 각각의 타 기기(200,210)로부터 수신될 수 있다. 소리에 대한 정보에는 소리가 소리 입력부(203)로 입력된 시간, 소리 입력부(203)로 입력된 소리의 주파수나 크기, 소리에 포함된 잡음의 크기나 주파수 등이 있을 수 있으며 다만 이에 한정되는 것은 아니다.The
제어부(180)는 합성부(140)에서 소리에 곱해지는 가중치를 산출할 수 있다. 제어부(180)에서 산출된 가중치는 합성부(140)에 전달되며, 합성부(140)는 이러한 가중치를 소리에 곱한 뒤 합성할 수 있다. 도 6은 소리 입력부(103a,b) 및 소리 입력부(203a,b) 각각으로 입력된 소리가 합성부(140)로 전달되고, 제어부(180)에 의해 산출된 가중치가 합성부(140)로 전달되면, 합성부(140)가 소리에 가중치를 곱한 뒤 이들을 합성하는 과정을 도시한 도면이다. 합성부(140)에 의해 합성된 소리는 음성 인식이 수행될 수 있도록 제어부(180)에 의해 제어될 수 있다. 예컨대, 합성부(140)에 의해 합성된 소리가 웨이크업 신호이면 음성 인식부(160)에서 인식될 수 있고, 합성부(140)에 의해 합성된 소리가 웨이크업 신호가 인식된 이후에 입력된 소리이면 통신부(110)를 통해서 음성 인식 서버(500)로 전달될 수도 있다.The
이하에서는 제어부(180)가 가중치를 산출하는 방법에 대해 예시를 들어서 설명하기로 한다.Hereinafter, a method for the
제어부(180)는 소리의 크기에 따라 가중치를 산출할 수 있다. 예컨대, 제어부(180)는 상대적으로 큰 크기의 소리에는 상대적으로 큰 값의 가중치가 곱해지도록 가중치를 산출하고, 상대적으로 작은 크기의 소리에는 상대적으로 작은 값의 가중치가 곱해지도록 가중치를 산출할 수 있다. 이에 대해서는 도 7을 참조하여서 보다 자세하게 살펴보기로 한다. The
도 7은 사용자(400)가 음성 입력 장치(100) 및 타 기기(200)와 각각 서로 상이한 거리만큼 이격되어 있는 상황을 도시한 도면이다. 도 7을 참조하면, 사용자(400)는 음성 입력 장치(100)보다 타 기기(200)에 상대적으로 가깝게 위치해 있다. 따라서, 사용자(400)가 발하는 음성은 음성 입력 장치(100)보다 타 기기(200)에서 보다 큰 크기로 입력될 것이다. 제어부(180)는 타 기기(200)와 음성 입력 장치(100)로 입력된 소리 중에서, 타 기기(200)로 입력된 소리에 곱해지는 가중치가 상대적으로 큰 값을 갖도록 산출할 것이다. 실시예에 따라서는 제어부(180)는 타 기기(200)의 소리 입력부(203a,b) 중에서도 사용자(400)를 향하는 소리 입력부(203b)에 대한 가중치를 가장 큰 값으로 산출할 수 있는데, 이는 소리 입력부(203a)보다는 소리 입력부(203b)에 입력된 소리의 크기가 가장 클 것이기 때문이다.7 is a diagram illustrating a situation in which the
즉, 일 실시예에 따르면 소리의 크기에 곱해지는 가중치를 산출할 때 서로 상이한 장치(음성 인식 장치(100)와 타 기기(200,210)) 각각에 입력되는 소리의 크기에 따라 상이한 가중치가 산출될 수 있으며, 실시예에 따라서는 하나의 기기에 구비된 복수 개의 소리 입력부에 대해서도 각각에 입력되는 소리의 크기에 따라 서로 상이한 가중치가 산출될 수 있다.That is, according to an embodiment, when calculating the weight multiplied by the loudness, different weights may be calculated according to the loudness of the sound input to each of different devices (the
따라서, 복수 개의 장치 각각이 소리를 입력받을 때, 이러한 소리를 발하는 음원과 각각의 장치 간의 이격 거리가 고려되어서 각각의 소리가 증폭될 수 있다. 따라서, 어느 하나의 장치가 음원과 원거리만큼 이격되어 있다고 하더라도 다른 장치가 음원과 근거리만큼 이격되어 있으면 이러한 다른 장치로 입력된 소리가 보다 증폭되어서 합성될 수 있으므로, 해당 음원이 발하는 소리에 대한 인식률이 향상될 수 있다. Accordingly, when each of the plurality of devices receives a sound, the respective sound may be amplified by considering the separation distance between the sound source emitting the sound and each device. Therefore, even if one device is separated from the sound source by a distance, if the other device is spaced apart from the sound source by a short distance, the sound input to the other device can be amplified and synthesized, so the recognition rate for the sound emitted by the sound source is lowered. can be improved
한편, 제어부(180)는 소리의 크기에 따라 가중치를 산출한 뒤, 아래와 같은 방법으로 이러한 가중치를 변경할 수 있다. Meanwhile, after calculating the weight according to the loudness of the sound, the
예컨대, 가중치를 변경하는 제1 방법으로서, 제어부(180)는 복수 개의 소리 입력부(130,203) 중에서 가장 늦게 소리를 입력받은 소리 입력부에 대해서는 가중치의 부호를 음(minus)으로 변경할 수 있다. 도 7을 다시 한번 살펴보면, 사용자(400)가 소리를 발하였을 때, 각각의 소리 입력부(203a,203b,130a,130b,130c,130d) 중에서 가장 늦게 소리가 도달한 소리 입력부를 식별번호 130a의 소리 입력부라고 가정하자. 이 때, 소리 입력부(130a)로 가장 늦게 소리가 입력된 이유는, 해당 소리가 반향음이기 때문일 수 있다. 즉, 소리 입력부(130a)를 제외한 다른 다른 소리 입력부(130b,130c,130d,203a,203b)에는 사용자(400)의 소리가 직접 전달되는 반면, 소리 입력부(130a)에는 사용자(400)의 소리가 주변(예컨대 벽이나 천장, 사물 등)에서 반사된 반향음이 입력되기 때문에 가장 늦게 입력될 수 있는 것이다. 제어부(180)는 가장 늦게 소리를 입력받은 소리 입력부(130a)에 대해서는 가중치의 부호를 양(plus)에서 음(minus)으로 변경할 수 있다. 음의 가중치가 곱해진 소리가 합성부(140)에서 합성될 경우, 해당 소리의 특성이 약화되기 때문에 반향음에 의한 왜곡이 경감 내지는 제거될 수 있다.For example, as a first method of changing the weight, the
이를 위해, 제어부(180)는 소리 입력부(130a,130b,130c,130d)로 소리가 입력된 시간과 소리의 주파수 등에 대한 정보를 획득할 수 있으며, 또한 타 기기(200,210)의 소리 입력부(203a,203b) 각각으로 소리가 입력된 시간과 소리의 주파수 등에 대한 정보를 획득할 수 있다. 제어부(180)는 이와 같이 획득된 정보를 기초로 동일한 소리에 대해서 어떤 소리 입력부로 가장 늦게 소리가 입력되었는지 여부를 판단할 수 있다.To this end, the
즉, 일 실시예에 따르면 동일한 소리에 대해서 가장 늦게 소리가 도달한 소리 입력부에는 음(minus)의 부호를 갖는 가중치가 곱해지도록 변경함으로써, 반향음에 의해 발생 가능한 소리의 왜곡이 경감되거나 제거되도록 할 수 있다.That is, according to an embodiment, by changing the weight having a minus sign to be multiplied by the sound input unit to which the sound arrives the latest for the same sound, the distortion of the sound that may be caused by the reverberation is reduced or eliminated. can
가중치를 변경하는 제2 방법으로서, 제어부(180)는 주변의 잡음원(300)이 발생시키는 잡음을 고려하여서 가중치를 변경할 수 있는데, 이러한 방법은 웨이크업 신호를 인식하는 과정에서 수행 가능하며, 도 8을 참조하여 살펴보기로 한다.As a second method of changing the weight, the
도 8은 사용자(400)가 음성 인식 장치(100)와 타 기기(200) 사이에 위치해 있고, 잡음원(300)은 음성 인식 장치(100)보다 타 기기(200)에 가까이에 위치해 있는 상황을 도시하고 있다. 도 8에서 음성 인식 장치(100)에 입력된 소리의 크기와 타 기기(200)에 입력된 소리의 크기가 동일하다고 가정하자. 이 경우, 전술한 바대로라면 제어부(180)는 음성 인식 장치(100)의 소리 입력부(130)와 타 기기(200)의 소리 입력부(203) 각각에 대해 동일한 값을 갖는 가중치를 산출해야 한다.8 illustrates a situation in which the
다만, 타 기기(200)에 입력된 소리에는 음성 인식 장치(100)에 입력된 소리보다 상대적으로 많은 잡음이 포함되어 있다. 왜냐하면, 타 기기(200)가 음성 인식 장치(100)보다 잡음원(300)에 상대적으로 가까이에 위치하기 때문이다. 따라서, 타 기기(200)에 입력된 소리보다는 음성 인식 장치(100)에 입력된 소리에 대해 음성 인식을 수행하는 것이 음성 인식률 면에서 유리하다.However, the sound input to the
이를 감안하여서, 웨이크업 신호를 인식하는 과정에서, 제어부(180)는 음성 인식 장치(100)의 소리 입력부(130)로 입력된 소리와 웨이크업 신호와의 유사도를 산출하고, 타 기기(200)의 소리 입력부(203)에 입력되는 소리와 웨이크업 신호와의 유사도를 산출한다. 아울러, 제어부(180)는 상대적으로 높은 유사도를 갖는 소리에 더 큰 값의 가중치가 곱해지도록 가중치를 산출하고 상대적으로 낮은 유사도를 갖는 소리에 더 작은 값의 가중치가 곱해지도록 가중치를 산출할 수 있다. In consideration of this, in the process of recognizing the wake-up signal, the
이에 따르면, 도 8에서 음성 인식 장치(100)의 소리 입력부(130)에 입력된 소리의 크기와 타 기기(200)의 소리 입력부(203)에 입력된 소리의 크기가 동일하지만, 소리 입력부(130) 입력된 소리에는 더 적은 양의 잡음이 포함되어 있는 반면 소리 입력부(203)에 입력된 소리에는 더 많은 양의 잡음이 포함되어 있다. 따라서, 제어부(180)는 소리 입력부(130)의 소리에 더 큰 값의 가중치가 곱해지도록 가중치를 산출하고, 소리 입력부(203)의 소리에 더 작은 값의 가중치가 곱해지도록 가중치를 산출할 수 있다. According to this, although the level of the sound input to the
즉, 일 실시예에 따르면 소리의 크기가 동일하더라도 그 안에 포함된 잡음의 양에 따라서 가중치가 달리 산출되어 적용될 수 있다.That is, according to an embodiment, even if the volume of the sound is the same, a weight may be calculated differently and applied according to the amount of noise included therein.
한편, 전술한 제2 방법에서, 제어부(180)는 음성 인식 장치(100) 및 타 기기(200) 중에서 잡음원(300)과 상대적으로 가까이에 있는 객체로 하여금 잡음을 상쇄시키는 상쇄음을 출력하도록 제어할 수 있으며, 도 8의 상황에서 이러한 객체는 타 기기(200)이다. 이를 위해, 음성 인식부(160)는 소리 인식부(130,203)로 입력된 소리로부터 잡음을 추출해서 그 특성을 인식할 수 있다. 제어부(180)는 이러한 잡음의 특성을 기초로 해당 잡음을 상쇄시킬 수 있는 상쇄음을 생성할 수 있고, 이러한 상쇄음이 스피커(120)를 통해 출력되도록 제어할 수 있다.Meanwhile, in the second method described above, the
이에 따르면, 음성 인식 장치(100)와 타 기기(200) 중에서 잡음원(300)과 상대적으로 먼 거리에 위치한 객체로 하여금 웨이크업 신호를 인식하도록 제어할 수 있으며, 뿐만 아니라 잡음원(300)과 상대적으로 가까운 거리에 위치한 객체에서는 잡음을 상쇄시키는 상쇄음을 발생시킬 수 있으므로, 잡음원(300)과 상대적으로 먼 거리에 위치한 객체에서 웨이크업 신호를 높은 인식률로 인식하도록 할 수 있다.According to this, it is possible to control an object located at a relatively distant distance from the
가중치를 변경하는 제3 방법으로서, 제어부(180)는 음성 입력 장치(100)의 스피커(120)가 소리를 출력하는 상황을 고려하여서 가중치를 변경할 수 있는데, 이러한 방법은 웨이크업 신호를 인식하는 과정에서 수행 가능하며, 도 9를 참조하여 살펴보기로 한다.As a third method of changing the weight, the
도 9는 음성 입력 장치(100)가 스피커(120)를 통해 소리를 출력하는 상황을 도시하고 있다. 도 9를 참조하면, 사용자(400)는 음성 인식 장치(100)와 타 기기(200) 사이에 위치해 있다. 도 9에서 음성 인식 장치(100)에 입력된 소리의 크기와 타 기기(200)에 입력된 소리의 크기가 동일하다고 가정하자.9 illustrates a situation in which the
이 경우, 전술한 바대로라면 제어부(180)는 음성 인식 장치(100)의 소리 입력부(130)와 타 기기(200)의 소리 입력부(203) 각각에 대해 동일한 값을 갖는 가중치를 산출해야 한다.In this case, as described above, the
다만, 음성 인식 장치(100)의 소리 입력부(130)에 입력된 소리에는 음성 인식 장치(100)의 스피커(120)가 출력하는 소리가 포함되어 있을 수 있다. 따라서, 음성 인식 장치(100)에 입력된 소리보다는 타 기기(200)에 입력된 소리에 대해 음성 인식을 수행하는 것이 음성 인식률 면에서 유리하다.However, the sound input to the
이를 감안하여서, 제어부(180)는 음성 인식 장치(100)의 스피커(120)가 소리를 출력하는 상황을 인지하고, 이를 기초로 음성 인식 장치(100)의 소리 출력부(130)로 입력되는 소리에는 더 작은 값의 가중치가 곱해지도록 가중치를 산출하고, 타 기기(210)의 소리 출력부(203)로 입력되는 소리에는 더 큰 값의 가중치가 곱해지도록 가중치를 산출할 수 있다. In consideration of this, the
한편, 제어부(180)가 제3 방법에 따라서 가중치를 산출한 이후, 제어부(180)는 상황에 따라서 스피커(120)가 출력하는 소리의 크기, 즉 볼륨을 기존보다 작게 조절할 수 있다. 볼륨을 기존보다 작게 하는 상황에는, 제3 방법에 따라서 가중치를 산출한 이후에, 예컨대 사용자(400)가 발한 음성이 음성 인식 장치(100)에서 타 기기(200)보다 크게 인식된 경우 등이 있을 수 있으나 이에 한정되는 것은 아니다 On the other hand, after the
즉, 이에 따르면 상황에 따라서 스피커의 소리가 기존보다 작게 조절될 수 있고, 이 경우 사용자가 발하는 향후의 명령이나 다른 사용자의 음성에 대한 인식률이 개선될 수 있다.That is, according to this, the sound of the speaker can be adjusted to be lower than before according to the situation, and in this case, the recognition rate of future commands issued by the user or the voices of other users can be improved.
한편, 전술한 제1 방법 내지 제3 방법은 어느 하나만이 사용되거나 또는 적어도 두 개 이상이 순차적으로 적용될 수도 있으며, 이는 사용자(400)에 의해 설정되거나 또는 기 정해진 알고리즘에 의해 주기적으로 변경될 수도 있다. On the other hand, any one of the first to third methods described above may be used or at least two or more may be sequentially applied, which may be set by the
도 10은 일 실시예에 따른 음성 인식 방법의 절차를 도시한 도면이다. 이러한 방법은 전술한 음성 인식 장치(100)에 의해 수행 가능하며, 다만 도 11에 도시된 절차 중 적어도 하나가 수행되지 않거나 도시된 절차의 순서와는 다르게 수행될 수 있으며, 또한 도시되지 않은 다른 절차가 수행될 수도 있다.10 is a diagram illustrating a procedure of a voice recognition method according to an embodiment. This method may be performed by the above-described
도 11을 참조하면, 먼저 음성 인식 장치(100)의 소리 입력부(130)를 통해서 제1 소리가 입력되면, 음성 인식부(160)는 제1 소리의 특성, 예컨대 제1 소리의 크기를 도출할 수 있다(S100). 다만, 단계 S100 이전에 도면에는 도시되지 않았지만 다음과 같은 단계들이 먼저 선행될 수 있다. 예컨대, 제어부(180)가 음성 인식 장치(100) 주변에 있는 타 기기(200,210)를 탐색하는 단계, 탐색이 완료되면 타 기기(200,210)와 음성 인식 장치(100)를 연결시키는 단계, 연결되면 제어부(180)가 타 기기(200,210) 각각에게 통신부(110)를 통해서 제1 소리의 특성을 요청하는 단계 등이 수행될 수 있다.Referring to FIG. 11 , first, when a first sound is input through the
한편, 통신부(110)를 통해 타 기기(200,210) 각각으로부터 제2 소리의 특성, 예컨대 소리의 크기가 수신되면, 제어부(180)는 제1 소리의 크기와 제2 소리의 크기를 비교할 수 있다(S200).On the other hand, when the characteristic of the second sound, for example, the loudness of the sound is received from each of the
비교 결과, 제어부(180)는 더 큰 크기의 소리에 더 큰 값의 가중치가 곱해지도록 가중치를 산출하고, 더 작은 크기의 소리에 더 작은 값의 가중치가 곱해지도록 산출할 수 있다(S300).As a result of the comparison, the
이 후, 제어부(180)는 단계 S300에서 산출된 가중치를 조절할 수 있다(S400). 예컨대, 제어부(180)는 소리 입력부(130,203)에 소리가 입력된 시간(제1 방안), 웨이크업 신호와 소리와의 유사도(제2 방안) 또는 스피커(120)를 통해 소리가 출력되는지 여부(제3 방안) 등을 고려하여서 가중치를 조절할 수 있다. 이 경우, 전술한 제1 방안 내지 제3 방안의 경우, 어느 하나가 선별적으로 고려되거나 또는 적어도 두 개 이상이 동시에 고려될 수도 있으며, 이는 사용자(400)에 의해 설정되거나 또는 기 정의된 알고리즘에 의해 변경될 수 있다.Thereafter, the
합성부(140)는 단계 S400에서 조절된 각각의 가중치를 각각의 소리에 곱한 뒤 합성할 수 있다(S500).The
제어부(180)는 단계 S500에서 합성된 소리에 대해 음성 인식이 수행되도록 제어할 수 있다(S600). 예컨대, 제어부(180)는 단계 S500에서 합성된 소리를 음성 인식 서버(500)에게 전달할 수 있다. 음성 인식 서버(500)로 전달된 소리는 이러한 음성 인식 서버(500)에서 음성 인식에 사용될 수 있다.The
이상에서 살펴본 바와 같이, 일 실시예에 따르면, 복수 개의 장치 각각이 소리를 입력받을 때, 이러한 소리를 발하는 음원과 각각의 장치 간의 이격 거리가 고려되어서 각각의 소리가 증폭될 수 있다. 따라서, 어느 하나의 장치가 음원과 원거리만큼 이격되어 있다고 하더라도 다른 장치가 음원과 근거리만큼 이격되어 있으면 이러한 다른 장치로 입력된 소리가 보다 증폭되어서 합성될 수 있으므로, 해당 음원이 발하는 소리에 대한 인식률이 향상될 수 있다.As described above, according to an embodiment, when each of a plurality of devices receives a sound, the respective sound may be amplified by considering the separation distance between the sound source emitting the sound and each device. Therefore, even if one device is separated from the sound source by a distance, if the other device is spaced apart from the sound source by a short distance, the sound input to the other device can be amplified and synthesized, so the recognition rate for the sound emitted by the sound source is lowered. can be improved
또한, 반향음에 의해 발생 가능한 소리의 왜곡이 경감되거나 제거될 수 있다.In addition, distortion of the sound that may be caused by the reflection sound can be reduced or eliminated.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.
일 실시예에 따르면, 사용자가 음성 인식 장치로부터 원거리에서 음성을 발화하더라도, 사용자와 음성 인식 장치 간의 원거리로 인해 발생 가능한 음성 왜곡이 발생하지 않을 수 있다. 또한, 음성 입력 시스템에 잡음원이 존재하더라도 이러한 잡음원이 음성 인식에 영향을 최소한으로 미치도록 할 수 있다According to an embodiment, even when a user utters a voice from a distance from the voice recognition device, possible voice distortion may not occur due to the distance between the user and the voice recognition device. In addition, even if noise sources exist in the voice input system, these noise sources can be minimized to affect speech recognition.
100: 음성 인식 장치
200, 210: 타 기기
300: 잡음원
400: 사용자100: speech recognition device
200, 210: other devices
300: noise source
400: user
Claims (6)
상기 음성 인식 장치의 제1 소리 입력부에 입력된 제1 소리의 크기를 도출하는 단계와,
타 기기의 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보가 상기 타 기기로부터 수신되면, 상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하는 단계와,
상기 비교 결과 상대적으로 크기가 큰 소리에 상대적으로 큰 값의 가중치를 곱하고 상대적으로 크기가 작은 소리에 상대적으로 작은 값의 가중치를 곱하는 단계와,
상기 가중치가 각각 곱해진 제1 소리 및 제2 소리를 합성하는 단계와,
상기 합성된 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 단계를 포함하고,
상기 가중치를 곱하는 단계는,
상기 음성 인식 장치에 포함된 스피커를 통해 제3 소리가 출력되는 경우, 상기 제3 소리가 출력되는 동안, 상기 제1 소리에 상대적으로 작은 값의 가중치가 곱해지도록 하고, 상기 제2 소리에 상대적으로 큰 값의 가중치가 곱해지도록 하는
음성 인식 방법.A voice recognition method performed by a voice recognition device, comprising:
deriving the volume of the first sound input to the first sound input unit of the voice recognition device;
Comparing the loudness of the first sound with the loudness of the second sound when information on the loudness of the second sound input to the second sound input unit of the other device is received from the other device;
Multiplying a relatively large sound by a weight of a relatively large value as a result of the comparison and multiplying a relatively small sound by a weight of a relatively small value;
synthesizing the first sound and the second sound each multiplied by the weight;
Controlling the voice recognition to be performed on the synthesized first sound and the second sound,
The step of multiplying the weight is
When a third sound is output through a speaker included in the voice recognition apparatus, while the third sound is output, the first sound is multiplied by a weight having a relatively small value, and relatively to the second sound to be multiplied by the weight of the larger value
Speech Recognition Method.
상기 제1 소리가 상기 제1 소리 입력부에 입력된 제1 시간 및 상기 제2 소리가 상기 제2 소리 입력부에 입력된 제2 시간을 검출하는 단계와,
상기 제1 소리와 상기 제2 소리가 동일 시간에 동일 음원으로부터 발생된 소리인지 여부를 판단하는 단계를 더 포함하며,
상기 가중치를 곱하는 단계는,
상기 제1 소리와 상기 제2 소리가 동일 시간에 동일 음원으로부터 발생된 소리라고 판단되면, 상기 제1 시간과 상기 제2 시간을 비교하여서 상기 제1 소리와 상기 제2 소리 중 더 늦게 입력된 소리에 음(minus)의 부호를 갖는 가중치가 더 곱해지도록 하는
음성 인식 방법.The method of claim 1,
detecting a first time at which the first sound is input to the first sound input unit and a second time at which the second sound is input to the second sound input unit;
Further comprising the step of determining whether the first sound and the second sound are sounds generated from the same sound source at the same time,
The step of multiplying the weight is
When it is determined that the first sound and the second sound are sounds generated from the same sound source at the same time, the first sound and the second sound are compared, and the later of the first sound and the second sound is input to be multiplied by a weight with a negative sign
Speech Recognition Method.
웨이크업 신호가 상기 음성 인식 장치에서 인식되기 전이면서 상기 제1 소리와 상기 제2 소리에 잡음원으로부터의 잡음이 포함된 경우, 상기 제1 소리 및 상기 제2 소리 각각에 대해 상기 웨이크업 신호와의 유사도를 도출하는 단계를 더 포함하며,
상기 가중치를 곱하는 단계는,
상기 도출된 유사도를 기초로, 상기 제1 소리 및 상기 제2 소리 중에서 상대적으로 낮은 유사도를 갖는 소리에 상대적으로 작은 값의 가중치가 더 곱해지도록 하고, 상대적으로 높은 유사도를 갖는 소리에 상대적으로 큰 값의 가중치가 더 곱해지도록 하는
음성 인식 방법.The method of claim 1,
Before the wake-up signal is recognized by the voice recognition device, when noise from a noise source is included in the first sound and the second sound, the first sound and the second sound are respectively associated with the wake-up signal. Further comprising the step of deriving a similarity,
The step of multiplying the weight is
Based on the derived similarity, a sound having a relatively low similarity among the first sound and the second sound is multiplied by a weight of a relatively small value, and a sound having a relatively high similarity is multiplied by a relatively large value to be multiplied by the weight of
Speech Recognition Method.
상기 잡음의 특성을 인식하는 단계와,
상기 음성 인식 장치와 상기 타 기기 중에서 상대적으로 낮은 유사도의 소리를 입력받은 객체로 하여금, 상기 인식된 잡음의 특성을 기초로 상기 잡음을 상쇄시키는 상쇄음을 생성하여서 출력하도록 하는 단계를 더 포함하는
음성 인식 방법.4. The method of claim 3,
recognizing the characteristics of the noise;
The method further comprising the step of causing an object receiving a sound having a relatively low similarity among the speech recognition apparatus and the other device to generate and output an offsetting sound for canceling the noise based on the characteristics of the recognized noise
Speech Recognition Method.
상기 제1 소리의 크기를 도출하는 음성 인식부와,
제2 소리 입력부를 포함하는 타 기기로부터 상기 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보를 수신하는 통신부와,
외부로 소리를 출력하는 스피커와,
상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하고, 상기 비교 결과 상대적으로 큰 소리에 곱해지는 가중치는 상대적으로 큰 값을 갖도록 산출하고 상대적으로 작은 소리에 곱해지는 가중치는 상대적으로 작은 값을 갖도록 산출하며, 상기 산출된 각각의 가중치가 곱해진 제1 소리 및 제2 소리를 합성하고, 상기 합성된 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 제어부를 포함하고,
상기 제어부는,
상기 스피커에서 제3 소리가 출력되는 경우, 상기 제3 소리가 출력되는 동안, 상기 제1 소리에 상대적으로 작은 값의 가중치가 곱해지도록 하고, 상기 제2 소리에 상대적으로 큰 값의 가중치가 곱해지도록 하는
음성 인식 장치.a first sound input unit for receiving a first sound;
a voice recognition unit for deriving the volume of the first sound;
a communication unit configured to receive information on the volume of the second sound input to the second sound input unit from another device including a second sound input unit;
a speaker that outputs sound to the outside; and
The loudness of the first sound and the loudness of the second sound are compared, and as a result of the comparison, a weight multiplied by a relatively loud sound is calculated to have a relatively large value, and a weight multiplied by a relatively low sound is a relatively small value. and a controller for synthesizing the first sound and the second sound multiplied by the calculated weights, and controlling the voice recognition to be performed on the synthesized first sound and the second sound,
The control unit is
When a third sound is output from the speaker, while the third sound is output, the first sound is multiplied by a relatively small weight, and the second sound is multiplied by a relatively large weight doing
speech recognition device.
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
제1 항 내지 제4 항 중 어느 한 항에 따른 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 프로그램.As a computer program stored in a computer-readable recording medium,
The computer program, when executed by a processor,
5. The method according to any one of claims 1 to 4, comprising instructions for causing the processor to perform
computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210166682A KR102374054B1 (en) | 2017-08-09 | 2021-11-29 | Method for recognizing voice and apparatus used therefor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170101309A KR102372327B1 (en) | 2017-08-09 | 2017-08-09 | Method for recognizing voice and apparatus used therefor |
KR1020210166682A KR102374054B1 (en) | 2017-08-09 | 2021-11-29 | Method for recognizing voice and apparatus used therefor |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170101309A Division KR102372327B1 (en) | 2017-08-09 | 2017-08-09 | Method for recognizing voice and apparatus used therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210148057A KR20210148057A (en) | 2021-12-07 |
KR102374054B1 true KR102374054B1 (en) | 2022-03-14 |
Family
ID=65528769
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170101309A KR102372327B1 (en) | 2017-08-09 | 2017-08-09 | Method for recognizing voice and apparatus used therefor |
KR1020210166682A KR102374054B1 (en) | 2017-08-09 | 2021-11-29 | Method for recognizing voice and apparatus used therefor |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170101309A KR102372327B1 (en) | 2017-08-09 | 2017-08-09 | Method for recognizing voice and apparatus used therefor |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102372327B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200141860A (en) | 2019-06-11 | 2020-12-21 | 삼성전자주식회사 | Electronic apparatus and the control method thereof |
KR20220071591A (en) * | 2020-11-24 | 2022-05-31 | 삼성전자주식회사 | Electronice device and control method thereof |
KR20240027914A (en) * | 2022-08-23 | 2024-03-05 | 한국전기연구원 | Cognitive ability assessment device, mobile terminal and utterance acquisition device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000188795A (en) | 1998-12-22 | 2000-07-04 | Matsushita Electric Ind Co Ltd | Microphone device and voice recognition device using same, car navigation system and automatic driving system for automobile |
JP2001359185A (en) | 2000-06-13 | 2001-12-26 | Matsushita Electric Ind Co Ltd | Hands-free device and audio signal processing method therefor |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8411880B2 (en) | 2008-01-29 | 2013-04-02 | Qualcomm Incorporated | Sound quality by intelligently selecting between signals from a plurality of microphones |
KR101233271B1 (en) * | 2008-12-12 | 2013-02-14 | 신호준 | Method for signal separation, communication system and voice recognition system using the method |
KR101043114B1 (en) * | 2009-07-31 | 2011-06-20 | 포항공과대학교 산학협력단 | Method of Restoration of Sound, Recording Media of the same and Apparatus of the same |
KR102351366B1 (en) * | 2015-01-26 | 2022-01-14 | 삼성전자주식회사 | Method and apparatus for voice recognitiionand electronic device thereof |
-
2017
- 2017-08-09 KR KR1020170101309A patent/KR102372327B1/en active IP Right Grant
-
2021
- 2021-11-29 KR KR1020210166682A patent/KR102374054B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000188795A (en) | 1998-12-22 | 2000-07-04 | Matsushita Electric Ind Co Ltd | Microphone device and voice recognition device using same, car navigation system and automatic driving system for automobile |
JP2001359185A (en) | 2000-06-13 | 2001-12-26 | Matsushita Electric Ind Co Ltd | Hands-free device and audio signal processing method therefor |
Also Published As
Publication number | Publication date |
---|---|
KR20190016851A (en) | 2019-02-19 |
KR20210148057A (en) | 2021-12-07 |
KR102372327B1 (en) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102374054B1 (en) | Method for recognizing voice and apparatus used therefor | |
US20080262849A1 (en) | Voice control system | |
KR20170046294A (en) | Electronic apparatus, speech recognizing method of thereof and non-transitory computer readable recording medium | |
US11437022B2 (en) | Performing speaker change detection and speaker recognition on a trigger phrase | |
JP7197992B2 (en) | Speech recognition device, speech recognition method | |
US20220238121A1 (en) | Authenticating received speech | |
JP2019028465A (en) | Speaker verification method and speech recognition system | |
WO2020240169A1 (en) | Detection of speech | |
WO2023004223A1 (en) | Noise suppression using tandem networks | |
JP3838159B2 (en) | Speech recognition dialogue apparatus and program | |
KR20170051994A (en) | speech recognition device and here of control Method | |
CN110941414B (en) | Control device, control method, control system, and computer-readable recording medium | |
JP2018045192A (en) | Voice interactive device and method of adjusting spoken sound volume | |
US20230126305A1 (en) | Method of identifying target device based on reception of utterance and electronic device therefor | |
KR102331234B1 (en) | Method for recognizing voice and apparatus used therefor | |
JP2004318026A (en) | Security pet robot and signal processing method related to the device | |
US11089420B2 (en) | Speech processing system and speech processing method | |
KR102071867B1 (en) | Device and method for recognizing wake-up word using information related to speech signal | |
US20220261218A1 (en) | Electronic device including speaker and microphone and method for operating the same | |
US11600275B2 (en) | Electronic device and control method thereof | |
WO2019175960A1 (en) | Voice processing device and voice processing method | |
US20240212681A1 (en) | Voice recognition device having barge-in function and method thereof | |
US11917386B2 (en) | Estimating user location in a system including smart audio devices | |
KR102279319B1 (en) | Audio analysis device and control method thereof | |
US11792570B1 (en) | Parallel noise suppression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |