KR102093369B1 - Control method, device and program of hearing aid system for optimal amplification for extended threshold level - Google Patents
Control method, device and program of hearing aid system for optimal amplification for extended threshold level Download PDFInfo
- Publication number
- KR102093369B1 KR102093369B1 KR1020200005754A KR20200005754A KR102093369B1 KR 102093369 B1 KR102093369 B1 KR 102093369B1 KR 1020200005754 A KR1020200005754 A KR 1020200005754A KR 20200005754 A KR20200005754 A KR 20200005754A KR 102093369 B1 KR102093369 B1 KR 102093369B1
- Authority
- KR
- South Korea
- Prior art keywords
- hearing aid
- hearing
- data
- frequency
- server
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/70—Adaptation of deaf aid to hearing loss, e.g. initial electronic fitting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/50—Customised settings for obtaining desired overall acoustical characteristics
- H04R25/505—Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/41—Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
Landscapes
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
본 발명은 확장역치레벨에 대한 최적증폭을 위한 보청기 시스템의 제어 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a control method, apparatus and program for a hearing aid system for optimal amplification for an extended threshold level.
보청기는 청각 저하 또는 상실 상태인 난청인이 소리를 들을 수 있도록 하기 위해 개발되었다. 이러한 보청기는 마이크로폰으로 들어온 음성 데이터를 증폭하여 리시버로 출력하여 난청인이 들을 수 없는 소리를 들을 수 있게 해주는 장치이다.Hearing aids were developed to help hearing impaired people who are deaf or deaf. This hearing aid is a device that amplifies the voice data coming into the microphone and outputs it to a receiver so that a hearing-impaired person can hear the inaudible sound.
마이크로폰으로 들어온 음성 데이터는 주파수 대역에 따라 구분된 각각의 채널에서 청력과 입력 음압에 따른 최적 이득(optimal gain)을 구하고, 최적 이득에 따라 음성 데이터를 증폭 시켜 어음인지능력을 향상시키는 것을 목적으로 한다. 이때, 각각의 주파수 대역 및 최대 이득을 구하기 위한 적합 공식을 구하는 것이 보청기의 성능 향상을 위해 중요하다.The purpose of this is to improve the speech recognition ability by obtaining the optimum gain according to the hearing and input sound pressure from each channel divided according to the frequency band, and then amplifying the speech data according to the optimum gain. . At this time, it is important to improve the performance of the hearing aid by finding a suitable formula for obtaining each frequency band and maximum gain.
그러나 현재의 보청기에서 사용되고 있는 적합 공식은 대부분 영어음의 특성과 인지 능력에 근거하여 개발되어 있는 것이 현실이다. 따라서, 한국어음과 한국인의 청각 해부학적인 특성 및 한국어음의 인지능력에 근거한 보청기 적합공식의 필요성이 증대되고 있으며, 나아가 보청기 사용자 각각에 최적화된 보청기의 보정 방법이 중요해지고 있다.However, it is a reality that most suitable formulas used in current hearing aids are developed based on the characteristics and cognitive abilities of English sounds. Accordingly, the necessity for a hearing aid fit formula based on the Korean anatomy and the hearing anatomical characteristics of Koreans and the cognitive abilities of Korean speech is increasing, and furthermore, a method of correcting a hearing aid optimized for each hearing aid user is becoming important.
본 발명이 해결하고자 하는 과제는 확장역치레벨에 대한 최적증폭을 위한 보청기 시스템의 제어 방법, 장치 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a control method, apparatus and program of a hearing aid system for optimal amplification for an extended threshold level.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 보청기 시스템의 제어 방법은 서버 및 보청기에 의해 수행되는 보청기 시스템의 제어 방법에 있어서, 상기 서버가, 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득하는 단계; 상기 서버가, 상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계; 상기 보청기가, 상기 획득된 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 바탕으로 상기 보청기를 1차 보정하는 단계; 상기 서버가, 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 획득하는 단계; 및 상기 보청기가, 상기 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 바탕으로 상기 1차 보정된 보청기를 2차 보정하는 단계; 를 포함한다.A control method of a hearing aid system according to an aspect of the present invention for solving the above-mentioned problems is a control method of a hearing aid system performed by a server and a hearing aid, wherein the server, based on the Korean voice data, a plurality of frequency bands Obtaining; Obtaining, by the server, a first frequency gain value and a first maximum output value for each of the plurality of frequency bands; The hearing aid performing a primary correction of the hearing aid based on a first frequency gain value and a first maximum output value for each of the obtained plurality of frequency bands; Acquiring data about the hearing state of the hearing aid user and voice data of the hearing aid user by the server; And the hearing aid performing a second correction of the first corrected hearing aid based on data on the hearing state of the hearing aid user and voice data of the hearing aid user. It includes.
이때, 상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계는, 상기 한국어 음성 데이터를 8개의 주파수 대역으로 분류하는 단계; 상기 분류된 8개의 주파수 대역 각각에 대한 정반응률을 획득하는 단계; 상기 획득된 정반응률에 기초하여 각각의 주파수 대역에 대한 각각의 가중치를 획득하는 단계 및 상기 가중치를 바탕으로 상기 제1 주파수 이득값 및 상기 제1 최대 출력값을 결정하는 단계; 를 포함할 수 있다.At this time, obtaining a first frequency gain value and a first maximum output value for each of the plurality of frequency bands includes: classifying the Korean speech data into eight frequency bands; Obtaining a positive response rate for each of the classified eight frequency bands; Obtaining respective weights for each frequency band based on the obtained positive response rate, and determining the first frequency gain value and the first maximum output value based on the weights; It may include.
이때, 상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계는, 상기 한국어 음성 데이터의 대화음 크기를 판단하는 단계; 상기 대화음 크기가 기 설정된 범위 이내인 경우, 압축역치(Compression Threshold), 압축비율(Compression Ratio), 확장역치(Extension Threshold), 확장비율(Extension Ratio) 및 상기 가중치를 바탕으로 제1 파라미터를 결정하고, 상기 결정된 제1 파라미터를 바탕으로 상기 제1 주파수 이득값 및 상기 제1 최대 출력값을 결정하는 단계;를 더 포함할 수 있다.At this time, obtaining a first frequency gain value and a first maximum output value for each of the plurality of frequency bands may include: determining a loudness of the conversational sound of the Korean speech data; When the conversation sound volume is within a preset range, a first parameter is determined based on the compression threshold, the compression ratio, the extension threshold, the extension ratio, and the weight The method may further include determining the first frequency gain value and the first maximum output value based on the determined first parameter.
이때, 상기 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득하는 단계는, 성인용 한국 표준 문장 목록 (KS-SL-A)에 포함된 텍스트를 방음부스 내부에서 생성하되, 한국어 음성 데이터의 발화자는 방음부스 중앙에 위치하고 상기 발화자의 정면 1M에 마이크가 위치하여, 상기 마이크를 통해 제1 음성 데이터를 획득하는 단계; 상기 제1 음성 데이터를 학습 데이터로 하여 인공지능 모델에 입력하여 한국어 음성 데이터에 대한 특징값을 추출하도록 상기 인공지능 모델을 학습시키는 단계; 노이즈가 포함된 제2 음성 데이터를 상기 학습된 인공지능 모델에 입력하여 상기 제2 음성 데이터에 대한 특징값을 추출하고, 추출된 특징값을 바탕으로 상기 제2 음성 데이터를 보정하는 단계; 및 상기 제1 음성 데이터 및 상기 보정된 제2 음성 데이터를 포함하는 상기 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득하는 단계;를 포함할 수 있다.At this time, the step of acquiring a plurality of frequency bands based on the Korean voice data, the text included in the Korean standard sentence list for adults (KS-SL-A) is generated inside the soundproof booth, but the speaker of the Korean voice data is soundproofed Located in the center of the booth, the microphone is located in front of the speaker 1M, obtaining the first voice data through the microphone; Learning the artificial intelligence model to extract feature values for Korean speech data by inputting the first speech data into the artificial intelligence model; Inputting second voice data including noise into the learned artificial intelligence model, extracting feature values for the second voice data, and correcting the second voice data based on the extracted feature values; And obtaining a plurality of frequency bands based on the Korean voice data including the first voice data and the corrected second voice data.
이때, 상기 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 획득하는 단계는, 상기 보청기 사용자의 청각 상태에 대한 데이터를 바탕으로, 복수개의 주파수 대역 각각에 대한 상기 주파수 이득값 및 상기 최대 출력값을 보정하여 제2 주파수 이득값 및 제2 최대 출력값을 획득하는 단계; 상기 보청기 사용자의 음성 데이터를 바탕으로 상기 보청기가 감지하는 음원의 파형을 보정하기 위한 특징값을 추출하는 단계;를 포함하고, 상기 2차 보정하는 단계는, 상기 제2 주파수 이득값, 상기 제2 최대 출력값 및 음원의 파형을 보정하기 위한 특징값을 바탕으로 상기 1차 보정된 보청기를 2차 보정하는 단계;를 포함할 수 있다.At this time, the step of acquiring data about the hearing state of the hearing aid user and the audio data of the hearing aid user is based on the data on the hearing state of the hearing aid user, the frequency gain value for each of a plurality of frequency bands and the Correcting the maximum output value to obtain a second frequency gain value and a second maximum output value; And extracting a feature value for correcting the waveform of the sound source sensed by the hearing aid based on the voice data of the hearing aid user, wherein the second correction step comprises: the second frequency gain value, the second And secondly correcting the primary corrected hearing aid based on a maximum output value and a feature value for correcting the waveform of the sound source.
이때, 상기 제어 방법은, 상기 보청기가, 상기 보청기로부터 입력되는 음성 데이터를 전자 장치로 전송하는 단계; 상기 전자 장치가, 상기 수신한 음성 데이터를 상기 서버로 전송하는 단계; 상기 서버가, 기 설정된 조건을 만족하면, 상기 수신한 음성 데이터를 바탕으로 상기 보청기를 3차 보정하기 위한 제3 주파수 이득값 및 제3 최대 출력값을 획득하는 단계; 및 상기 보청기가, 상기 제3 주파수 이득값 및 제3 최대 출력값을 바탕으로 상기 2차 보정된 보청기를 3차 보정하는 단계; 를 포함할 수 있다.At this time, the control method, the hearing aid, transmitting the voice data input from the hearing aid to the electronic device; Transmitting, by the electronic device, the received voice data to the server; If the server satisfies a preset condition, acquiring a third frequency gain value and a third maximum output value for the third correction of the hearing aid based on the received voice data; And thirdly correcting the second-corrected hearing aid based on the third frequency gain value and the third maximum output value. It may include.
이때, 상기 제어 방법은, 상기 보청기 사용자의 생활 공간에서의 배경 소음에 대한 정보, 상기 보청기 사용자의 발화 속도에 대한 정보 및 일반인의 평균 발화 속도에 대한 정보를 포함하는 배경정보를 수집하는 단계; 상기 수집된 배경정보를 바탕으로 청능훈련프로그램에 포함될 배경 소음 및 발화 속도를 결정하는 단계; 상기 결정된 배경 소음, 어음인지 정도 및 발화 속도를 바탕으로 청능훈련프로그램을 생성하는 단계; 상기 보청기 사용자로부터 상기 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 수신하는 단계; 및 상기 결과 데이터를 바탕으로 상기 보청기를 4차 보정하는 단계; 를 포함하고, 상기 4차 보정하는 단계는, 상기 결과 데이터 중 기 설정된 비율 이상의 오답률을 가지는 주파수 구간을 획득하는 단계; 상기 획득된 주파수 구간의 주파수 이득값을 상기 제3 주파수 이득값 이상으로 보정하는 단계;를 포함하고, 상기 생성된 청능훈련프로그램은 상기 보청기 사용자의 배경정보에 따라 시각단서, 음소, 단어 및 문장의 난이도, 문장 길이, 환경음 및 음악의 포함 여부가 결정될 수 있다.At this time, the control method may include: collecting background information including information about background noise in the living space of the hearing aid user, information about the speech speed of the hearing aid user, and information about the average speech speed of the general public; Determining a background noise and an utterance rate to be included in the hearing training program based on the collected background information; Generating a hearing training program based on the determined background noise, speech recognition level, and speech rate; Receiving result data for the hearing training program and hearing aid wearing from the hearing aid user; And fourthly correcting the hearing aid based on the result data. Including, and the fourth correction step, obtaining a frequency interval having a wrong answer rate above a predetermined ratio among the result data; Comprising the step of correcting the frequency gain value of the obtained frequency section to the third frequency gain value or more, The generated hearing training program includes the visual cues, phonemes, words and sentences according to the background information of the hearing aid user Difficulty, sentence length, environmental sound and whether to include music can be determined.
이때, 상기 청능훈련프로그램을 생성하는 단계는, 복수의 보청기 사용자의 배경정보, 설문문항에 대한 답변정보 및 상기 답변정보로부터 획득된 상세정보를 포함하는 복수의 제1 데이터를 상기 복수의 사용자 별로 저장하는 단계; 상기 복수의 보청기 사용자의 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 포함하는 복수의 제2 데이터를 상기 복수의 보청기 사용자 별로 저장하는 단계; 상기 복수의 제1 데이터를 클러스터링하여 복수의 제1 클러스터를 획득하는 단계; 상기 복수의 제2 데이터를 클러스터링하여 복수의 제2 클러스터를 획득하는 단계; 새로운 제1 보청기 사용자에 대한 배경정보 및 답변정보를 획득하는 단계; 상기 복수의 제1 클러스터 중 상기 획득한 제1 보청기 사용자에 대한 배경정보 및 답변정보와 관련된 제1-1 클러스터를 판단하는 단계; 상기 복수의 제2 클러스터 중 상기 제1-1 클러스터와 기 설정된 거리내에 존재하는 제2-1 클러스터를 판단하는 단계; 및 상기 제2-1 클러스터에 포함된 데이터를 바탕으로 상기 제1 보청기 사용자에 대한 청능훈련프로그램을 생성하는 단계; 를 포함할 수 있다.At this time, in the step of generating the hearing training program, a plurality of first data including background information of a plurality of hearing aid users, answer information on a questionnaire question, and detailed information obtained from the answer information are stored for each of the plurality of users To do; Storing a plurality of second data including the hearing aid training program of the plurality of hearing aid users and result data on wearing the hearing aid for each of the plurality of hearing aid users; Clustering the plurality of first data to obtain a plurality of first clusters; Clustering the plurality of second data to obtain a plurality of second clusters; Obtaining background information and response information for a new first hearing aid user; Determining a first-first cluster related to background information and answer information about the acquired first hearing aid user among the plurality of first clusters; Determining a 2-1 cluster existing within a predetermined distance from the 1-1 cluster among the plurality of second clusters; And generating a hearing training program for the first hearing aid user based on the data included in the 2-1 cluster. It may include.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific matters of the present invention are included in the detailed description and drawings.
상술한 본 발명의 다양한 실시예에 따라, 한국인에게 최적화된 보청기의 적합공식에 따라 보청기를 보정할 수 있는 효과가 있다.According to various embodiments of the present invention described above, it is possible to correct the hearing aid according to a suitable formula of a hearing aid optimized for a Korean.
나아가, 보청기 사용자 개개인에게 적합한 보청기의 보정 방법이 제공될 수 있다.Furthermore, a method of calibrating a hearing aid suitable for each individual hearing aid user may be provided.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 보청기 보정 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 한국어 음성 데이터를 복수개의 주파수 대역으로 분류하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 대화음의 크기에 따른 파라미터 획득 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 인공지능모델을 이용한 주파수 대역 획득 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 보청기를 2차 보정하는 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 보청기를 3차 보정하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 보청기를 4차 보정하는 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 보청기에 대한 사용 데이터를 획득하는 방법을 설명하기 위한 흐름도이다.
도 10 내지 도 14는 본 발명의 다양한 실시예에 따른 실험 데이터를 설명하기 위한 그래프이다.
도 15는 본 발명의 일 실시예에 따른 장치의 구성도이다.1 is a diagram illustrating a system according to an embodiment of the present invention.
2 is a flowchart illustrating a hearing aid correction method according to an embodiment of the present invention.
3 is a flowchart illustrating a method of classifying Korean voice data into a plurality of frequency bands according to an embodiment of the present invention.
4 is a flowchart for explaining a method of acquiring parameters according to the size of a conversation sound according to an embodiment of the present invention.
5 is a flowchart illustrating a method of acquiring a frequency band using an artificial intelligence model according to an embodiment of the present invention.
6 is a flowchart for explaining a method of secondaryly correcting a hearing aid according to an embodiment of the present invention.
7 is a flowchart for explaining a method of third-order correction of a hearing aid according to an embodiment of the present invention.
8 is a flowchart illustrating a method of fourth-order correction of a hearing aid according to an embodiment of the present invention.
9 is a flowchart illustrating a method of obtaining usage data for a hearing aid according to an embodiment of the present invention.
10 to 14 are graphs for explaining experimental data according to various embodiments of the present invention.
15 is a configuration diagram of an apparatus according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and are common in the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and / or “comprising” does not exclude the presence or addition of one or more other components other than the components mentioned. Throughout the specification, the same reference numerals refer to the same components, and “and / or” includes each and every combination of one or more of the components mentioned. Although "first", "second", etc. are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless explicitly defined.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "part" or "module" as used in the specification refers to a hardware component such as software, FPGA, or ASIC, and "part" or "module" performs certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The "unit" or "module" may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, "part" or "module" means components, processes, functions, attributes, such as software components, object-oriented software components, class components and task components. Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functionality provided within components and "parts" or "modules" can be combined into a smaller number of components and "parts" or "modules" or into additional components and "parts" or "modules" Can be further separated.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms “below”, “beneath”, “lower”, “above”, “upper”, etc., are as shown in the figure. It can be used to easily describe a correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components in use or operation in addition to the directions shown in the drawings. For example, if a component shown in the drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. Can be. Accordingly, the exemplary term “below” can include both the directions below and above. The component can also be oriented in other directions, so that spatially relative terms can be interpreted according to the orientation.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, the computer means all kinds of hardware devices including at least one processor, and may be understood as a meaning encompassing software configurations operating in the corresponding hardware device according to embodiments. For example, a computer may be understood as meaning including, but not limited to, a smart phone, a tablet PC, a desktop, a laptop, and a user client and application running on each device.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and according to an embodiment, at least some of the steps may be performed in different devices.
한편, 본 명세서에서 청각(hearing)이란 소리를 탐지, 변별, 확인 및 인지하는 과정을 의미한다. 난청인(hearing impaired)이란 한쪽 또는 양쪽 귀의 청력이 손상된 사람을 의미한다. 보청기(hearing aid)란 난청 보상을 목적으로 소리 신호의 처리를 위해 고안된 전기 음향적 착용 장치를 의미한다. 보청기 시스템(hearing aid system)이란 한쪽 또는 양쪽 보청기, 귀꽂이, 원격조종장치, 접속기 등 관련 구성요소로 구성된 개별 맞춤형 시스템을 의미한다. 보청기 전문가(hearing aid professional)란 난청인을 대상으로 전문적인 청각평가, 보청기의 선택, 조절, 검증, 청능훈련 등을 포함하는 보청기 적합관리 서비스를 제공할 수 있는 청각학적 역량을 갖춘 사람을 의미한다. 고객(client) 또는 보청기 사용자란 보청기 전문가 또는 보청기 적합관리 시스템이 제공하는 보청기 적합관리 서비스를 받는 사람을 의미한다. 보청기 적합관리(hearing aid fitting management)란 평가모듈, 적합모듈 및 후속조치모듈을 포함하는 종합적인 관리체계로 상담, 청각검사, 보청기 시험착용, 보청기 선택, 귀 인상채취, 보청기 조절, 검증, 고객교육, 청능훈련, 결과측정 및 종합보고서 작성의 11개 구성요소를 시행하여 보청기를 착용한 난청인의 가청력 개선, 어음지각 향상 및 보청기의 지속적 사용과 관리를 돕는 체계적인 과정을 의미한다. 청능재활(auditory rehabilitation)이란 보청기 조절, 상담, 교육 및 다양한 훈련을 통해 청각능력과 의사소통 기술을 향상시키는 체계적이고 포괄적인 과정을 의미한다. 평가모듈(assessment module)이란 보청기 적합 전 단계의 5개 구성요소인 상담, 청각검사, 보청기 시험착용, 보청기 선택 및 귀 인상채취와 구성요소 간의 절차를 포함하는 보청기 적합관리의 과정을 의미한다. 적합모듈(fitting module)이란 보청기 적합 단계의 3개 구성요소인 보청기 조절, 검증 및 고객교육과 구성요소 간의 절차를 포함하는 보청기 적합관리의 과정을 수행하기 위한 모듈을 의미한다. 후속조치모듈(follow-up module)이란 보청기 적합 후 단계의 3개 구성요소인 청능훈련, 결과측정 및 종합보고서 작성과 구성요소 간의 절차를 포함하는 보청기 적합관리의 과정을 수행하기 위한 모듈을 의미한다. 상담(counseling)이란 고객 또는 그 가족에게 고객의 난청상태, 난청으로 인한 어려움, 보청기 적합, 청능훈련 등에 대한 포괄적인 정보를 제공하고 지원하는 과정을 의미한다. 청각평가(hearing evaluation)란 보청기 선택 전에 청력역치 및 어음인지 능력을 측정하여 고객의 청력손실 형태와 정도 및 의사소통 정도를 파악하는 과정을 의미한다. 보청기 시험착용(hearing aid trial)이란 고객의 난청 상태에 적합한 보청기를 선택하기 위하여 보청기 선택 전 단계에서 고객의 청력 상태에 맞추어 조절한 보청기를 실제 경험하는 과정을 의미한다. 보청기 선택(hearing aid selection)이란 보청기 시험착용 결과, 청각 배경정보 등을 근거로 고객에게 적합한 보청기 종류를 결정하는 과정을 의미한다. 귀 인상 채취(ear impression)란 귀꽂이 또는 보청기 외형을 제작하기 위하여 외이도와 갑개 부분의 모양을 본 뜨는 과정을 의미한다. 보청기 조절(hearing aid adjustment)이란 보청기 착용시 물리적 편안함을 위하여 보청기의 외형적 특성 및 착용상태를 점검하여 필요시 변경하고, 또한 어음인지능력 향상과 음향적 편안함을 고려하여 청각평가 결과와 처방법을 근거로 보청기의 전기음향적 특징을 최적화하는 과정을 의미한다. 보청기 조절 검증(verification for hearing aid adjustment)이란 커플러 측정, 실이측정 또는 음장측정과 전기음향 및 심리음향적 측면의 설문지 응답을 통하여 보청기 조절 결과를 평가하는 과정을 의미한다. 고객교육(client education)이란 보청기 작동방법, 보청기 점검방법 및 보청기 사용시 발생가능한 문제 해결방법 등 보청기 사용과 관련된 정보와 보청기에 대한 고객의 현실적 기대치 확립에 필요한 정보를 제공하는 과정을 의미한다. 청능훈련(auditory training)이란 난청인의 의사소통능력 향상을 위한 일정 기간에 걸친 집중적이고 반복적인 듣기연습과 의사소통전략을 포함한 학습 과정을 의미한다. 착용 결과측정(outcome measurements)이란 음향 및 심리사회적 측면에서 보청기 사용자의 착용 결과를 다차원적으로 평가하는 과정으로 일반적으로 보청기 사용자의 어음지각 정도, 객관적 혜택, 소리의 질적 향상, 듣기 위한 노력 정도의 변화, 보청기 사용빈도, 만족도 등 객관적 평가와 주관적 평가를 모두 포함한다. 종합보고서(comprehensive report) 또는 결과 보고서란 보청기 적합관리의 전반적인 과정에서 발생하는 주요 정보를 반영하는 보고서를 의미한다. 귀꽂이(ear mold)란 개별적으로 제작하거나 선택한 보청기와 외이도 간의 기계음향적 연결장치를 의미한다. 고객 배경정보(client profile)란 고객의 청각적 배경정보뿐 아니라 청각기능, 사회적 상황, 활동 기회, 보청기의 필요성, 기대치 등을 포함하는 청각 관련 포괄적 정보를 의미한다. 적합 시스템(fitting system)이란 보청기 조절을 위해 사용하는 컴퓨터 및 적합 소프트웨어 등의 장비 세트를 의미한다. 보청기 초기설정(pre-setting of hearing aids)이란 적합공식 및 관련 청각 정보를 근거로 한 보청기 조절을 의미한다. 미세조율(fine-tuning)이란 개별 난청인의 필요 및 선호에 가장 잘 부합하도록 하는 보청기 시스템의 조율을 의미한다.Meanwhile, in the present specification, hearing means a process of detecting, discriminating, confirming, and recognizing sound. Hearing impaired means a person with hearing impairment in one or both ears. Hearing aid refers to an electroacoustic wear device designed for processing sound signals for the purpose of compensating for hearing loss. A hearing aid system means an individual customized system composed of related components such as one or both hearing aids, earplugs, remote control devices, and connectors. Hearing aid professional refers to a person who has hearing ability to provide hearing aid fitness management services including hearing aid selection, adjustment, verification, and hearing training for hearing impaired persons. . A client or a hearing aid user means a hearing aid expert or a person receiving a hearing aid conformity management service provided by a hearing aid conformance management system. Hearing aid fitting management is a comprehensive management system that includes an evaluation module, a fit module, and a follow-up module. Consultation, hearing test, hearing aid test wear, hearing aid selection, ear impression collection, hearing aid adjustment, verification, customer training It refers to a systematic process that helps elevate hearing aids wearing hearing aids, improve speech perception, and continuously use and manage hearing aids by performing 11 components of hearing training, result measurement, and comprehensive report preparation. Auditory rehabilitation refers to a systematic and comprehensive process of improving hearing skills and communication skills through hearing aid conditioning, counseling, education and various training. The assessment module refers to the process of hearing aid conformance management that includes the five components of all stages of hearing aid fitness: counseling, hearing testing, hearing aid trial wearing, hearing aid selection and ear impression collection and procedures between components. The fitting module refers to a module for performing the process of hearing aid fit management including the three components of the hearing aid fit phase, including hearing aid adjustment, verification, and customer training and procedures between components. The follow-up module means a module for performing the process of hearing aid fitness management including the three components of hearing aid fitness, hearing training, outcome measurement and overall report preparation and procedures between components. . Counseling refers to the process of providing and supporting comprehensive information about a customer's or their family's hearing loss status, difficulties caused by hearing loss, hearing aid fit, and hearing training. Hearing evaluation refers to the process of grasping the hearing loss type and degree and the degree of communication by measuring the hearing threshold and speech recognition ability before selecting a hearing aid. Hearing aid trial refers to the process of actually experiencing a hearing aid adjusted to the hearing condition of the customer in all stages of hearing aid selection in order to select a hearing aid suitable for the hearing loss condition of the customer. Hearing aid selection refers to the process of determining the type of hearing aid suitable for a customer based on hearing aid test results and hearing background information. Ear impression refers to the process of replicating the shape of the ear canal and the instep to create the shape of an earplug or hearing aid. Hearing aid adjustment refers to the hearing aid's external characteristics and wearing status for physical comfort when wearing it, and changes it if necessary. Also, it is based on hearing evaluation results and prescriptions in consideration of speech recognition ability improvement and acoustic comfort. This refers to the process of optimizing the electroacoustic characteristics of the hearing aid. Verification for hearing aid adjustment refers to the process of evaluating hearing aid adjustment results through coupler measurement, real ear measurement, or sound field measurement and questionnaire response of electroacoustic and psychoacoustic aspects. Client education refers to the process of providing information related to the use of hearing aids and information necessary to establish realistic expectations of customers for hearing aids, such as how to operate hearing aids, how to inspect hearing aids, and how to solve problems that may occur when using hearing aids. Auditory training (auditory training) refers to a learning process that includes intensive and repetitive listening exercises and communication strategies over a period of time to improve the communication skills of deaf people. Outcome measurements are the process of multi-dimensional evaluation of hearing aid users 'wearing results in terms of acoustic and psychosocial aspects. Generally speaking, hearing aid users' perception of speech, objective benefits, quality of sound, and improvement in hearing effort It includes both objective and subjective assessments such as frequency of hearing aid use and satisfaction. Comprehensive report or result report means a report that reflects key information arising from the overall process of hearing aid compliance management. An ear mold refers to a mechanically-acoustic connection device between a hearing aid and an external auditory meatus individually manufactured or selected. The client profile (client profile) refers to comprehensive information related to hearing, including not only the auditory background information of the customer, but also hearing function, social situation, activity opportunities, hearing aid needs, and expectations. A fitting system refers to a set of equipment such as computers and suitable software used to control a hearing aid. Pre-setting of hearing aids refers to hearing aid adjustments based on conformity formulas and relevant hearing information. Fine-tuning refers to the tuning of a hearing aid system that best meets the needs and preferences of individual hearing loss.
도 1은 본 발명의 일 실시예에 따른 시스템을 설명하기 위한 도면이다.1 is a view for explaining a system according to an embodiment of the present invention.
본 발명에 따른 시스템은 서버(10), 보청기(20) 및 전자 장치(30)로 구성될 수 있다.The system according to the present invention may consist of a
서버(10)는 전자 장치(30)로부터 다양한 데이터를 수신하여 분석하기 위한 구성이다. 서버(10)는 보청기를 보정하기 위한 다양한 데이터를 수집하고, 수집된 데이터를 바탕으로 보청기를 보청하기 위한 파라미터를 획득할 수 있다. The
전자 장치(30)는 보청기 사용자의 보청기 사용과 관련된 다양한 데이터를 서버(10)로 전송하기 위한 구성이다. 전자 장치(30)는 스마트 폰으로 구현되어 보청기 사용자에 대한 다양한 데이터를 서버(10)로 전송할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(30)는 보청기로 구현되며, 사용자 인터랙션에 따라 보청기 사용자의 데이터를 서버(10)로 전송할 수 있음은 물론이다.The
나아가, 본 발명의 다양한 실시예에 따라 전자 장치(30)는 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면 웨어러블 장치는 엑세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘텍트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체 형(예: 전자 의복), 신체 부착 형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식 형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.Furthermore, according to various embodiments of the present invention, the
또 다른 실시 예로, 전자 장치(30)는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어(Digital Video Disk player), 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.As another embodiment, the
또 다른 실시 예로, 전자 장치(30)는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.In another embodiment, the
도 2는 본 발명의 일 실시예에 따른 보청기 보정 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a hearing aid correction method according to an embodiment of the present invention.
단계 S100에서, 서버(10)는 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득할 수 있다.In step S100, the
단계 S200에서, 서버(10)는 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득할 수 있다.In step S200, the
단계 S300에서, 보청기(20)는 획득된 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 바탕으로 보청기(20)를 1차 보정할 수 있다.In step S300, the
일 실시예로, 제1 최대 출력값 및 후술하는 다양한 최대 출력값은, 최대 출력값을 바탕으로 증폭된 소리가 불쾌수준보다 크지 않으며, 보통 크기의 대화음 소리는 쾌적수준 범위에 있도록 설정될 수 있다. 따라서, 주파수 이득값에 의해 증폭된 소리가 최대 출력값 이상인 경우, 서버(10)는 주파수 이득값을 변경할 수 있다.In one embodiment, the first maximum output value and the various maximum output values described below may be set such that the sound amplified based on the maximum output value is not greater than the discomfort level, and the normal-sized dialogue sound is within the comfort level range. Therefore, when the sound amplified by the frequency gain value is greater than or equal to the maximum output value, the
단계 S400에서, 서버(10)는 보청기 사용자의 청각 상태에 대한 데이터 및 보청기 사용자의 음성 데이터를 획득할 수 있다.In step S400, the
단계 S500에서, 보청기(20)는, 획득된 보청기 사용자의 청각 상태에 대한 데이터 및 보청기 사용자의 음성 데이터를 바탕으로 1차 보정된 보청기(20)를 2차 보정할 수 있다.In step S500, the
즉, 서버(10)는 한국어 음성 데이터를 바탕으로 보청기(20)를 1차 보정하여 한국인에게 적합하도록 보청기(20)를 보정하고, 보청기 사용자에 대한 다양한 데이터를 바탕으로 보청기 사용자에게 적합하도록 보청기(20)를 2차 보정할 수 있다.That is, the
도 3은 본 발명의 일 실시예에 따른 한국어 음성 데이터를 복수개의 주파수 대역으로 분류하는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of classifying Korean voice data into a plurality of frequency bands according to an embodiment of the present invention.
단계 S210에서, 서버(10)는 한국어 음성 데이터를 8개의 주파수 대역으로 분류할 수 있다.In step S210, the
이때, 주파수 대역은 실험적으로 결정될 수 있다. 예를 들어, 주파수 단위는 만 19세~26세의 정상 청력인이 방음부스에서 녹음한 한국어 음성 데이터를 바탕으로 분류될 수 있다. 일 실시예로, 주파수 대역은, 224Hz 이하, 224Hz~447Hz, 447Hz~891Hz, 891Hz~1413Hz, 1413Hz~2239Hz, 2239Hz~3548Hz, 3548Hz~5623Hz, 5623Hz~11000Hz, 11000Hz 이상의 9개의 주파수 구간을 바탕으로 8개의 중심 주파수를 획득하고, 획득된 8개의 중심 주파수 각각에 대한 주파수 대역일 수 있다. 본 명세서에서, 8개의 중심 주파수는 250Hz, 500Hz, 800Hz, 1000Hz, 1600Hz, 2500Hz, 4000Hz, 6000Hz일 수 있으며, 8개의 주파수 대역은 중심 주파수로부터 기 설정된 범위 내의 주파수 대역일 수 있다.At this time, the frequency band can be determined experimentally. For example, the frequency unit may be classified based on Korean speech data recorded by a normal hearing person aged 19 to 26 years in a soundproof booth. In one embodiment, the frequency band is 224 Hz or less, 224 Hz to 447 Hz, 447 Hz to 891 Hz, 891 Hz to 1413 Hz, 1413 Hz to 2239 Hz, 2239 Hz to 3548 Hz, 3548 Hz to 5603 Hz, 5623 Hz to 11000 Hz, 11000 Hz or more, based on 9 frequency sections. Acquiring the number of center frequencies, and may be a frequency band for each of the obtained 8 center frequencies. In this specification, the eight center frequencies may be 250 Hz, 500 Hz, 800 Hz, 1000 Hz, 1600 Hz, 2500 Hz, 4000 Hz, 6000 Hz, and the eight frequency bands may be frequency bands within a preset range from the center frequency.
일 실시예로, 8개의 주파수 대역은 0Hz~400Hz, 350Hz~750Hz, 700Hz~950HZ, 900HZ~1500Hz, 1400HZ~2300Hz, 2200Hz~3600Hz, 3500Hz~5500HZ, 5000HZ~11000Hz일 수 있다.In one embodiment, the eight frequency bands may be 0 Hz to 400 Hz, 350 Hz to 750 Hz, 700 Hz to 950 HZ, 900 HZ to 1500 Hz, 1400 HZ to 2300 Hz, 2200 Hz to 3600 Hz, 3500 Hz to 5500 HZ, 5000 HZ to 11000 Hz.
단계 S220에서, 서버(10)는 분류된 8개의 주파수 대역 각각에 대한 정반응률을 획득할 수 있다. In step S220, the
일 실시예로, 한국어 음성 데이터 문장은 상술한 8개의 주파수 대역을 바탕으로 high-pass 또는 low-pass cutoff 시켰으며, 이 8개의 주파수 대역은 각각 10개의 문장으로 구성될 수 있다. 또한 한국어 음성 데이터 문장은 10개의 문장 중 핵심단어 40개에 대한 정반응을 확인하여 기록되었으며, 문장은 45 dB의 크기로 제시되며, 문장대비 소음의 크기를 달리하여 주파수 대역에 따른 정반응률을 획득할 수 있다.In one embodiment, the Korean voice data sentences are high-pass or low-pass cutoff based on the eight frequency bands described above, and these eight frequency bands may be composed of ten sentences each. In addition, Korean voice data sentences were recorded by confirming the correct response to 40 key words out of 10 sentences. The sentence is presented in the size of 45 dB, and the noise level is different from the sentence to obtain the positive response rate according to the frequency band. Can be.
구체적으로, 도 10 low-pass 필터에 대한 정반응률을, 도 11은 high-pass 필터에 대한 정반응률을 도시한 그래프이며, 도 10 및 도 11에 도시된 그래프는 하기 표의 내용과 동일하다.Specifically, FIG. 10 is a graph showing the positive response rate for the low-pass filter, FIG. 11 is a graph showing the positive response rate for the high-pass filter, and the graphs shown in FIGS. 10 and 11 are the same as the contents of the following table.
HzSNR
단계 S230에서, 서버(10)는 획득된 정반응률에 기초하여 각각의 주파수 대역에 대한 각각의 가중치를 획득할 수 있다.일 실시예로, 서버(10)는 상기 표 1에 근거하여, 2239Hz~3548Hz 의 주파수 대역, 447Hz~891Hz의 주파수 대역, 3548Hz~5623Hz의 주파수 대역, 1413Hz~2239Hz대의 주파수 대역, 891Hz~1413Hz대의 주파수 대역, 224Hz~447Hz대의 주파수 대역, 5623Hz~11000Hz대의 주파수 대역, 11000Hz 이상의 주파수 대역, 224Hz 이하의 주파수 대역의 순서로 가중치의 크기를 결정할 수 있다. 일 실시예로, 가중치는 BIF (band-importance function)를 바탕으로 결정될 수 있다. BIF (band-importance function)는 음성의 명료성에 대한 서로 다른 주파수의 중요도에 대한 값으로 0에서 1사이의 값으로 결정될 수 있다. 이때 BIF는 SII(Speech Intelligibility Index, 어음 명료도 지수)를 바탕으로 결정될 수 있다. SII란 음성 명료도를 예측하기 위한 인덱스로, 하기 수학식 1에 의해 결정될 수 있다.In step S230, the
이때, S는 percent correct score를 의미하며, 음성 데이터에 대한 정반응률과 관련된 값일 수 있다. P는 화자, 청취자의 숙련도 값을 의미하며, 정상인의 경우 1의 값을 가진다. Q 및 n는 피팅 상수를 의미할 수 있다.At this time, S means a percent correct score, and may be a value related to a positive response rate for speech data. P means the proficiency value of the speaker and listener, and 1 in the case of normal people. Q and n may mean fitting constants.
단계 S240에서, 서버(10)는 가중치를 바탕으로 상기 제1 주파수 이득값 및 상기 제1 최대 출력값을 결정할 수 있다.In step S240, the
도 4는 본 발명의 일 실시예에 따른 대화음의 크기에 따른 파라미터 획득 방법을 설명하기 위한 흐름도이다.4 is a flowchart for explaining a method of acquiring parameters according to the size of a conversation sound according to an embodiment of the present invention.
단계 S260에서, 서버(10)는 한국어 음성 데이터의 대화음 크기를 판단할 수 있다.In step S260, the
이때, 대화음의 크기는 방음부스 내부에서 측정된 실험데이터를 바탕으로 획득될 수 있다. 이때의 실험 데이터는 후술하는 제1 음성 데이터일 수 있다. At this time, the loudness of the dialogue sound can be obtained based on the experimental data measured inside the soundproof booth. The experimental data at this time may be first voice data to be described later.
구체적으로, 피검자는 기초청력검사를 거친 후, 피검자를 방음실 내의 중앙에 앉히고 피검자의 얼굴로부터 정면 1m 거리에 Sound Level Meter(SLM)를 설치. 피검자가 일반용 문장검사에 사용되는 문장을 읽는동안 검사자가 SLM을 사용하여 화자의 말소리 크기를 측정하고, 피검자는 3가지 강도(조용히 말할 때, 대화음 크기로 말할 때, 크게 말할 때)로 각각 말하게 하고 1/3옥타브 밴드의 주파수에 해당하는 LZeq값을 측정할 수 있다. 이에 대한 측정값은 하기 표 2와 같으며, 주파수 및 소리 강도에 따른 DB를 나타낸 그래프는 도 12와 같다.Specifically, after the subject undergoes a basic hearing test, the subject is seated in the center of the soundproofing room and a Sound Level Meter (SLM) is installed 1 m from the face of the subject. While the subject is reading the sentence used for the general sentence test, the tester uses the SLM to measure the speaker's speech volume, and the subject speaks each with three intensities (speaking quietly, speaking loudly, speaking loudly). And the LZeq value corresponding to the frequency of the 1/3 octave band can be measured. The measured values for this are shown in Table 2 below, and a graph showing a DB according to frequency and sound intensity is shown in FIG. 12.
Average
편차Standard
Deviation
단계 S270에서, 서버(10)는 대화음 크기가 기 설정된 범위 이내인 경우, 압축역치(Compression Threshold), 압축비율(Compression Ratio), 확장역치(Extension Threshold), 확장비율(Extension Ratio) 및 상기 가중치를 바탕으로 제1 파라미터를 결정하고, 상기 결정된 제1 파라미터를 바탕으로 제1 주파수 이득값 및 제1 최대 출력값을 결정할 수 있다.이때, 압축역치, 압축비율, 확장역치 및 확장비율은 비선형 증폭 방식을 이용하는 보청기에서 사용되는 것으로, 높은 강도의 대화음은 적게 변경하고 낮은 강도의 대화음은 높게 변경하기 위해 사용된다. 즉, 모든 강도의 대화음을 동일한 방법을 통해 증폭시키는 경우, 매우 작은 대화음이 충분히 증폭되지 않거나, 매우 큰 대화음은 과다하게 증폭되어 소리의 왜곡이 발생할 수 있으므로, 서버(10)는 대화음의 크기에 따라(압축역치에 따라) 대화음의 중폭 정도를 (압축비율을 이용하여)조절할 수 있다.구체적으로, 서버(10)는 대화음의 크기가 보통(normal) 대화음 크기인 경우에는 보청기 사용자의 개별 청력역치 및 상기에서 결정된 가중치를 바탕으로 제1 주파수 이득값 및 제1 최대 출력값을 결정할 수 있다.In step S270, the
그러나 서버(10)는 대화음의 크기가 보통(normal) 대화음 크기보다 작거나(Casual) 큰(Raised) 경우, 보청기 사용자의 개별 청력 역치 및 상기에서 결정된 가중치뿐만 아니라, 압축역치(Compression Threshold), 압축비율(Compression Ratio)를 더 고려하여 제1 주파수 이득값 및 제1 최대 출력값을 결정할 수 있다. 예를 들어, 2000Hz대에서의 LZeq가 45인 경우, 서버(10)는 대화음이 보통 대화음보다 큰 대화음으로 판단하고, 이에 대한 압축역치(Compression Threshold), 압축비율(Compression Ratio)를 고려하여 제1 주파수 이득값 및 제1 최대 출력값을 결정할 수 있다.However, the
상술한 방법을 통해 서버(10)는 한국인에게 적합한 보청기(20)의 보정 방법을 획득할 수 있다. 일 실시예로, 도 13 및 14는 50 dB flat 난청 성인에 대한 입력음압레벨(input)과 압축역치레벨(CT)에 따른 각 주파수 대역에서의 주파수 이득값의 그래프를 나타낸다. 도 13 및 도 14를 참조하면, CT31에 대한 압축역치에 대한 주파수 이득값은 30db까지 증가하고 30db 이후로는 감소할 수 있다. CT41에 대한 압축역치에 대한 주파수 이득값은 40db까지 증가하고 40db 이후로는 감소할 수 있다. CT51에 대한 압축역치에 대한 주파수 이득값은 50db 근방까지는 일정하게 유지되며 그 이후로는 감소할 수 있다. CT61에 대한 압축역치에 대한 주파수 이득값은 60db 근방까지는 일정하게 유지되며 그 이후로는 감소할 수 있다. CT71에 대한 압축역치에 대한 주파수 이득값은 70db 근방까지는 일정하게 유지되며 그 이후로는 감소할 수 있다. 각각의 압축역치에 대한 주파수 이득값은 상술한 도 3의 실시예에 의해 획득될 수 있다.Through the above-described method, the
한편, 본 발명의 일 실시예에 따라, 제1 파라미터는 각각의 조건에 따라 하기 공식이 적용되어 산출될 수 있다. 설명의 편의를 위해 X1은 HTL(Hearing Threshold Level), X2는 입력음의 크기, Y(XX)는 조건 XX에서의 제1 파라미터로 정의한다. 또한, 산출된 Y(XX)<0인 경우 Y(XX)=0으로 처리하는 것으로 가정한다. 또한, 상술한 8개의 주파수 대역은 중심 주파수 250Hz에 대한 제1 주파수 대역, 중심 주파수 500Hz에 대한 제2 주파수 대역, 중심 주파수 800Hz에 대한 제3 주파수 대역, 중심 주파수 1000Hz에 대한 제4 주파수 대역, 중심 주파수 1600Hz에 대한 제5 주파수 대역, 중심 주파수 2500Hz에 대한 제6 주파수 대역, 중심 주파수 4000Hz에 대한 제7 주파수 대역, 중심 주파수 6000Hz에 대한 제8 주파수 대역이라고 가정한다.Meanwhile, according to an embodiment of the present invention, the first parameter may be calculated by applying the following formula according to each condition. For convenience of explanation, X1 is defined as the HTL (Hearing Threshold Level), X2 is the volume of the input sound, and Y (XX) is defined as the first parameter in the condition XX. In addition, it is assumed that when the calculated Y (XX) <0, Y (XX) = 0. In addition, the eight frequency bands described above are the first frequency band for the center frequency of 250 Hz, the second frequency band for the center frequency of 500 Hz, the third frequency band for the center frequency of 800 Hz, the fourth frequency band for the center frequency of 1000 Hz, and the center. It is assumed that the fifth frequency band for the
제1 실시예로, 확장역치레벨(ET)이 ET30, X2=<30dB SPL(Sound Pressure Level)에서 각각의 주파수 대역에 대한 제1 파라미터 Y(ET30)은, 제1 주파수 대역에서 Y(ET30)=0.714X1 + 0.041X2 - 37.243, 제2 주파수 대역에서 Y(ET30)=0.630X1 + 0.201X2 - 20.364, 제3 주파수 대역에서 Y(ET30)=0.598X1 + 0.251X2 - 13.206, 제4 주파수 대역에서 Y(ET30)=0.566X1 + 0.288X2 - 3.016, 제5 주파수 대역에서 Y(ET30)=0.548X1 + 0.289X2 - 0.327, 제6 주파수 대역에서 Y(ET30)=0.513X1 + 0.289X2 + 2.934, 제7 주파수 대역에서 Y(ET30)=0.302X1 + 0.167X2 + 4.271, 제8 주파수 대역에서 Y(ET30)=0.240X1 + 0.128X2 + 1.266일 수 있다.In the first embodiment, the first parameter Y (ET30) for each frequency band in the extended threshold level (ET) is ET30, X2 = <30dB SPL (Sound Pressure Level), Y (ET30) in the first frequency band = 0.714X1 + 0.041X2-37.243, in the second frequency band Y (ET30) = 0.630X1 + 0.201X2-20.364, in the third frequency band Y (ET30) = 0.598X1 + 0.251X2-13.206, in the fourth frequency band Y (ET30) = 0.566X1 + 0.288X2-3.016, Y (ET30) = 0.548X1 + 0.289X2-0.327 in the 5th frequency band, Y (ET30) = 0.513X1 + 0.289X2 + 2.934, the 6th frequency band In the 7th frequency band, Y (ET30) = 0.302X1 + 0.167X2 + 4.271, and in the 8th frequency band, Y (ET30) = 0.240X1 + 0.128X2 + 1.266.
제2 실시예로, 확장역치레벨(ET)이 ET40, X2=<40dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(ET40)은, 제1 주파수 대역에서 Y(ET40)=0.714X1 + 0.016X2 - 37.243, 제2 주파수 대역에서 Y(ET40)=0.630X1 + 0.075X2 - 20.364, 제3 주파수 대역에서 Y(ET40)=0.598X1 + 0.094X2 - 13.206, 제4 주파수 대역에서 Y(ET40)=0.566X1 + 0.108X2 - 3.016, 제5 주파수 대역에서 Y(ET40)=0.548X1 + 0.108X2 - 0.327, 제6 주파수 대역에서 Y(ET40)=0.513X1 + 0.108X2 + 2.934, 제7 주파수 대역에서 Y(ET40)=0.302X1 + 0.063X2 + 4.271, 제8 주파수 대역에서 Y(ET40)=0.240X1 + 0.048X2 + 1.266일 수 있다.In the second embodiment, the first parameter Y (ET40) for each frequency band at the extended threshold level ET is ET40, X2 = <40dB SPL, Y (ET40) = 0.714X1 + 0.016 in the first frequency band. X2-37.243, Y (ET40) = 0.630X1 + 0.075X2-20.364 in the second frequency band, Y (ET40) = 0.598X1 + 0.094X2-13.206 in the third frequency band, Y (ET40) = in the fourth frequency band 0.566X1 + 0.108X2-3.016, Y (ET40) = 0.548X1 + 0.108X2-0.327 in 5th frequency band, Y (ET40) = 0.513X1 + 0.108X2 + 2.934 in 6th frequency band, Y in 7th frequency band (ET40) = 0.302X1 + 0.063X2 + 4.271, in the eighth frequency band, Y (ET40) = 0.240X1 + 0.048X2 + 1.266.
제3 실시예로, X2=<40dB SPL이고, 선형 증폭 방식을 이용하는 보청기에서 각각의 주파수 대역에 대한 제1 파라미터 Y(Lin1)은, In a third embodiment, X2 = <40dB SPL, and in a hearing aid using a linear amplification method, the first parameter Y (Lin1) for each frequency band is
제1 주파수 대역에서 Y(Lin1)=0.714X1 - 37.243, 제2 주파수 대역에서 Y(Lin1)=0.630X1 - 20.364, 제3 주파수 대역에서 Y(Lin1)=0.598X1 - 13.206, 제4 주파수 대역에서 Y(Lin1)=0.566X1 - 3.016, 제5 주파수 대역에서 Y(Lin1)=0.548X1 - 0.327, 제6 주파수 대역에서 Y(Lin1)=0.513X1 + 2.934, 제7 주파수 대역에서 Y(Lin1)=0.302X1 + 4.271, 제8 주파수 대역에서 Y(Lin1)=0.240X1 + 1.266일 수 있다.In the first frequency band Y (Lin1) = 0.714X1-37.243, in the second frequency band Y (Lin1) = 0.630X1-20.364, in the third frequency band Y (Lin1) = 0.598X1-13.206, in the fourth frequency band Y (Lin1) = 0.566X1-3.016, in the fifth frequency band Y (Lin1) = 0.548X1-0.327, in the sixth frequency band Y (Lin1) = 0.513X1 + 2.934, in the seventh frequency band Y (Lin1) = It may be 0.302X1 + 4.271, Y (Lin1) = 0.240X1 + 1.266 in the eighth frequency band.
제4 실시예로, X2=<50dB SPL이고, 선형 증폭 방식을 이용하는 보청기에서 각각의 주파수 대역에 대한 제1 파라미터 Y(Lin2)은, 제1 주파수 대역에서 Y(Lin2)=0.714X1 - 37.243, 제2 주파수 대역에서 Y(Lin2)=0.630X1 - 20.364, 제3 주파수 대역에서 Y(Lin2)=0.598X1 - 13.206, 제4 주파수 대역에서 Y(Lin2)=0.566X1 - 3.016, 제5 주파수 대역에서 Y(Lin2)=0.548X1 - 0.327, 제6 주파수 대역에서 Y(Lin2)=0.513X1 + 2.934, 제7 주파수 대역에서 Y(Lin2)=0.302X1 + 4.271, 제8 주파수 대역에서 Y(Lin2)=0.240X1 + 1.266일 수 있다.In a fourth embodiment, X2 = <50dB SPL, and the first parameter Y (Lin2) for each frequency band in a hearing aid using a linear amplification method is Y (Lin2) = 0.714X1-37.243 in the first frequency band. In the second frequency band Y (Lin2) = 0.630X1-20.364, in the third frequency band Y (Lin2) = 0.598X1-13.206, in the fourth frequency band Y (Lin2) = 0.566X1-3.016, in the fifth frequency band Y (Lin2) = 0.548X1-0.327, Y (Lin2) = 0.513X1 + 2.934 in 6th frequency band, Y (Lin2) = 0.302X1 + 4.271 in 7th frequency band, Y (Lin2) = in 8th frequency band 0.240X1 + 1.266.
제5 실시예로, X2=<60dB SPL이고, 선형 증폭 방식을 이용하는 보청기에서 각각의 주파수 대역에 대한 제1 파라미터 Y(Lin3)은, 제1 주파수 대역에서 Y(Lin3)=0.714X1 - 37.243, 제2 주파수 대역에서 Y(Lin3)=0.630X1 - 20.364, 제3 주파수 대역에서 Y(Lin3)=0.598X1 - 13.206, 제4 주파수 대역에서 Y(Lin3)=0.566X1 - 3.016, 제5 주파수 대역에서 Y(Lin3)=0.548X1 - 0.327, 제6 주파수 대역에서 Y(Lin3)=0.513X1 + 2.934, 제7 주파수 대역에서 Y(Lin3)=0.302X1 + 4.271, 제8 주파수 대역에서 Y(Lin3)=0.240X1 + 1.266일 수 있다.In a fifth embodiment, X2 = <60dB SPL, and the first parameter Y (Lin3) for each frequency band in a hearing aid using a linear amplification method is Y (Lin3) = 0.714X1-37.243 in the first frequency band. In the second frequency band Y (Lin3) = 0.630X1-20.364, in the third frequency band Y (Lin3) = 0.598X1-13.206, in the fourth frequency band Y (Lin3) = 0.566X1-3.016, in the fifth frequency band Y (Lin3) = 0.548X1-0.327, Y (Lin3) = 0.513X1 + 2.934 in 6th frequency band, Y (Lin3) = 0.302X1 + 4.271 in 7th frequency band, Y (Lin3) = in 8th frequency band 0.240X1 + 1.266.
제6 실시예로, 압축역치레벨(CT)이 CT31, X2>=31dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT31)은, 제1 주파수 대역에서 Y(CT31)=0.714X1 - 0.062X2 - 34.143, 제2 주파수 대역에서 Y(CT31)=0.630X1 - 0.301X2 - 5.314, 제3 주파수 대역에서 Y(CT31)=0.598X1 - 0.377X2 + 5.644, 제4 주파수 대역에서 Y(CT31)=0.566X1 - 0.432X2 + 18.584, 제5 주파수 대역에서 Y(CT31)=0.548X1 - 0.433X2 + 21.323, 제6 주파수 대역에서 Y(CT31)=0.513X1 - 0.433X2 + 24.584, 제7 주파수 대역에서 Y(CT31)=0.302X1 - 0.250X2 + 16.771, 제8 주파수 대역에서 Y(CT31)=0.240X1 - 0.192X2 + 10.866일 수 있다.In the sixth embodiment, the first parameter Y (CT31) for each frequency band at a compression threshold level (CT) CT31, X2> = 31dB SPL is Y (CT31) = 0.714X1-0.062 in the first frequency band. X2-34.143, Y (CT31) = 0.630X1-0.301X2-5.314 in the second frequency band, Y (CT31) = 0.598X1-0.377X2 + 5.644 in the third frequency band, Y (CT31) = in the fourth frequency band 0.566X1-0.432X2 + 18.584, Y (CT31) = 0.548X1-0.433X2 + 21.323 in 5th frequency band, Y (CT31) = 0.513X1-0.433X2 + 24.584 in 6th frequency band, Y in 7th frequency band (CT31) = 0.302X1-0.250X2 + 16.771, Y (CT31) = 0.240X1-0.192X2 + 10.866 in the eighth frequency band.
제7 실시예로, 압축역치레벨(CT)이 CT41, X2>=41dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT41)은, 제1 주파수 대역에서 Y(CT41)=0.714X1 - 0.062X2 - 34.143, 제2 주파수 대역에서 Y(CT41)=0.630X1 - 0.301X2 - 5.314, 제3 주파수 대역에서 Y(CT41)=0.598X1 - 0.377X2 + 5.644, 제4 주파수 대역에서 Y(CT41)=0.566X1 - 0.432X2 + 18.584, 제5 주파수 대역에서 Y(CT41)=0.548X1 - 0.433X2 + 21.323, 제6 주파수 대역에서 Y(CT41)=0.513X1 - 0.433X2 + 24.584, 제7 주파수 대역에서 Y(CT41)=0.302X1 - 0.250X2 + 16.771, 제8 주파수 대역에서 Y(CT41)=0.240X1 - 0.192X2 + 10.866일 수 있다.In the seventh embodiment, the first parameter Y (CT41) for each frequency band at a compression threshold level (CT) of CT41, X2> = 41dB SPL is Y (CT41) = 0.714X1-0.062 in the first frequency band. X2-34.143, Y (CT41) = 0.630X1-0.301X2-5.314 in the second frequency band, Y (CT41) = 0.598X1-0.377X2 + 5.644 in the third frequency band, Y (CT41) = in the fourth frequency band 0.566X1-0.432X2 + 18.584, Y (CT41) = 0.548X1-0.433X2 + 21.323 in 5th frequency band, Y (CT41) = 0.513X1-0.433X2 + 24.584 in 6th frequency band, Y in 7th frequency band (CT41) = 0.302X1-0.250X2 + 16.771, Y (CT41) = 0.240X1-0.192X2 + 10.866 in the eighth frequency band.
제8 실시예로, 압축역치레벨(CT)이 CT51, X2>=51dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT51)은, 제1 주파수 대역에서 Y(CT51)=0.714X1 - 0.062X2 - 34.143, 제2 주파수 대역에서 Y(CT51)=0.630X1 - 0.301X2 - 5.314, 제3 주파수 대역에서 Y(CT51)=0.598X1 - 0.377X2 + 5.644, 제4 주파수 대역에서 Y(CT51)=0.566X1 - 0.432X2 + 18.584, 제5 주파수 대역에서 Y(CT51)=0.548X1 - 0.433X2 + 21.323, 제6 주파수 대역에서 Y(CT51)=0.513X1 - 0.433X2 + 24.584, 제7 주파수 대역에서 Y(CT51)=0.302X1 - 0.250X2 + 16.771, 제8 주파수 대역에서 Y(CT51)=0.240X1 - 0.192X2 + 10.866일 수 있다.In the eighth embodiment, when the compression threshold level CT is CT51, X2> = 51 dB SPL, the first parameter Y (CT51) for each frequency band is Y (CT51) = 0.714X1-0.062 in the first frequency band. X2-34.143, Y (CT51) = 0.630X1-0.301X2-5.314 in the second frequency band, Y (CT51) = 0.598X1-0.377X2 + 5.644 in the third frequency band, Y (CT51) = in the fourth frequency band 0.566X1-0.432X2 + 18.584, Y (CT51) = 0.548X1-0.433X2 + 21.323 in 5th frequency band, Y (CT51) = 0.513X1-0.433X2 + 24.584 in 6th frequency band, Y in 7th frequency band (CT51) = 0.302X1-0.250X2 + 16.771, Y (CT51) = 0.240X1-0.192X2 + 10.866 in the eighth frequency band.
제9 실시예로, 압축역치레벨(CT)이 CT61, X2>=61dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT61)은, 제1 주파수 대역에서 Y(CT61)=0.714X1 - 0.078X2 - 33.507, 제2 주파수 대역에서 Y(CT61)=0.630X1 - 0.37625X2 +2.211, 제3 주파수 대역에서 Y(CT61)=0.598X1 - 0.47125X2 + 15.069, 제4 주파수 대역에서 Y(CT61)=0.566X1 - 0.540X2 + 29.384, 제5 주파수 대역에서 Y(CT61)=0.548X1 - 0.54125X2 + 32.148, 제6 주파수 대역에서 Y(CT61)=0.513X1 - 0.54125X2 + 35.409, 제7 주파수 대역에서 Y(CT61)=0.302X1 - 0.3125X2 + 23.021, 제8 주파수 대역에서 Y(CT61)=0.240X1 - 0.240X2 + 15.666일 수 있다.In the ninth embodiment, the first parameter Y (CT61) for each frequency band in which the compression threshold level (CT) is CT61, X2> = 61dB SPL, Y (CT61) = 0.714X1-0.078 in the first frequency band X2-33.507, Y (CT61) = 0.630X1-0.37625X2 +2.211 in the second frequency band, Y (CT61) = 0.598X1-0.47125X2 + 15.069 in the third frequency band, Y (CT61) = in the fourth frequency band 0.566X1-0.540X2 + 29.384, Y (CT61) = 0.548X1-0.54125X2 + 32.148 in 5th frequency band, Y (CT61) = 0.513X1-0.54125X2 + 35.409 in 6th frequency band, Y in 7th frequency band (CT61) = 0.302X1-0.3125X2 + 23.021, Y (CT61) = 0.240X1-0.240X2 + 15.666 in the eighth frequency band.
제10 실시예로, 압축역치레벨(CT)이 CT71, X2>=71dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT71)은, 제1 주파수 대역에서 Y(CT71)=0.714X1 - 0.103333X2 - 30.0097, 제2 주파수 대역에서 Y(CT71)=0.630X1 - 0.501667X2 +14.75267, 제3 주파수 대역에서 Y(CT71)=0.598X1 - 0.628333X2 + 30.77733, 제4 주파수 대역에서 Y(CT71)=0.566X1 - 0.720X2 + 47.384, 제5 주파수 대역에서 Y(CT71)=0.548X1 - 0.7217X2 + 50.192, 제6 주파수 대역에서 Y(CT71)=0.513X1 - 0.7217X2 + 53.453, 제7 주파수 대역에서 Y(CT71)=0.302X1 - 0.41667X2 + 33.43767, 제8 주파수 대역에서 Y(CT71)=0.240X1 - 0.320X2 + 23.666일 수 있다.In a tenth embodiment, the first parameter Y (CT71) for each frequency band in which the compression threshold level (CT) is CT71, X2> = 71dB SPL, Y (CT71) = 0.714X1-0.103333 in the first frequency band X2-30.0097, Y (CT71) = 0.630X1-0.501667X2 +14.75267 in the second frequency band, Y (CT71) = 0.598X1-0.628333X2 + 30.77733 in the third frequency band, Y (CT71) = in the fourth frequency band 0.566X1-0.720X2 + 47.384, Y (CT71) = 0.548X1-0.7217X2 + 50.192 in 5th frequency band, Y (CT71) = 0.513X1-0.7217X2 + 53.453 in 6th frequency band, Y in 7th frequency band (CT71) = 0.302X1-0.41667X2 + 33.43767, Y (CT71) = 0.240X1-0.320X2 + 23.666 in the eighth frequency band.
도 5는 본 발명의 일 실시예에 따른 인공지능모델을 이용한 주파수 대역 획득 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method of acquiring a frequency band using an artificial intelligence model according to an embodiment of the present invention.
단계 S211에서, 서버(10)는 제1 음성 데이터를 획득할 수 있다. 구체적으로 서버(10)는 성인용 한국 표준 문장 목록 (KS-SL-A)에 포함된 텍스트를 방음부스 내부에서 생성하되, 한국어 음성 데이터의 발화자는 방음부스 중앙에 위치하고 상기 발화자의 정면 1M에 마이크가 위치하여, 상기 마이크를 통해 제1 음성 데이터를 획득할 수 있다.In step S211, the
단계 S211에서 획득되는 제1 음성 데이터는 상술한 도 3 및 도 4에서의 제1 주파수 이득값 및 제1 최대 출력값을 획득하기 위한 데이터로 사용될 수 있다. 그러나 성인용 한국 표준 문장 목록 (KS-SL-A)에 포함된 텍스트만을 바탕으로 제1 주파수 이득값 및 제1 최대 출력값을 결정하는 것은 다양한 단어 및 문장을 포함하기 못하기 때문에, 서버(10)는 일상 생활에서 수집 가능한 다양한 한국어 음성 데이터를 수집하고 변환하여 제1 주파수 이득값 및 제1 최대 출력값을 결정하기 위한 데이터로 사용할 수 있다.The first voice data obtained in step S211 may be used as data for obtaining the first frequency gain value and the first maximum output value in FIGS. 3 and 4 described above. However, since determining the first frequency gain value and the first maximum output value based only on text included in the Korean standard sentence list for adults (KS-SL-A) does not include various words and sentences, the
이를 위해, 단계 S212에서, 서버(10)는 제1 음성 데이터를 학습 데이터로 하여 인공지능 모델에 입력하여 한국어 음성 데이터에 대한 특징값을 추출하도록 인공지능 모델을 학습시킬 수 있다.To this end, in step S212, the
*단계 S213에서, 서버(10)는 노이즈가 포함된 제2 음성 데이터를 학습된 인공지능 모델에 입력하여 제2 음성 데이터에 대한 특징값을 추출하고, 추출된 특징값을 바탕으로 제2 음성 데이터를 보정할 수 있다. 제2 음성 데이터는 한국어가 포함된 음성 데이터로, 다양한 환경에서 수집 가능한 음성 데이터일 수 있다. 예를 들어, 영상 컨텐츠에서 출력되는 음성 데이터, 거리에서 수집되는 음성 데이터 등 다양할 수 있다.* In step S213, the
즉, 서버(10)는 제1 음성 데이터를 바탕으로 학습된 인공지능모델에 제2 음성 데이터를 입력하여, 제2 음성 데이터를 보청기 보정에 적합한 제1 음성 데이터의 형식으로 보정할 수 있다. 구체적으로, 서버(10)는 제1 음성데이터의 특징값을 추출하고, 제2 음성 데이터의 특징값을 추출하여, 제1 음성데이터의 특징값을 바탕으로 제2 음성 데이터의 특징값을 보정하고, 보정된 제2 음성 데이터의 특징값을 바탕으로 제2 음성 데이터를 보정할 수 있다.That is, the
단계 S214에서, 서버(10)는 제1 음성 데이터 및 보정된 제2 음성 데이터를 포함하는 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득할 수 있다.In step S214, the
상술한 바와 같이 서버(10)는 다양한 한국어 음성 데이터를 획득하여, 한국인에게 더욱 적합한 보청기(20)의 보정 방법을 결정할 수 있으며, 나아가, 새롭게 발생하는 신조어, 은어, 줄임말 등 시대에 따른 다양한 단어 및 문장을 반영할 수 있는 효과가 존재한다.As described above, the
도 6은 본 발명의 일 실시예에 따른 보청기를 2차 보정하는 방법을 설명하기 위한 흐름도이다.6 is a flowchart for explaining a method of secondaryly correcting a hearing aid according to an embodiment of the present invention.
도 3 내지 도 5에서는 한국인이 사용하는 전반적인 한국어 음성 데이터에 따라 보청기(20)를 1차 보정하였으나, 보청기 사용자 각각에게 적합한 보청기를 2차 보정할 수 있는 방법이 필요할 수 있다.In FIGS. 3 to 5, the
따라서, 단계 S410에서, 서버(10)는 보청기 사용자의 청각 상태에 대한 데이터를 바탕으로, 복수개의 주파수 대역 각각에 대한 주파수 이득값 및 최대 출력값을 보정하여 제2 주파수 이득값 및 제2 최대 출력값을 획득할 수 있다. 이때, 사용자의 Accordingly, in step S410, the
단계 S420에서, 서버(10)는 보청기 사용자의 음성 데이터를 바탕으로 보청기(20)가 감지하는 음원의 파형을 보정하기 위한 특징값을 추출할 수 있다.In step S420, the
구체적으로, 보청기 사용자에 의해 생성되는 음성 데이터가 보청기(20)를 통과하여 보정된 경우, 보청기 사용자의 실제 목소리와 보청기 사용자의 귀에 들리는 목소리가 달라질 수 있다. 따라서, 서버(10)는 음성 데이터의 크기를 증폭시키는 것뿐만 아니라 음성 데이터의 파형을 실제 음성 데이터와 유사하게 보정하기 위하여 음원의 파형에 대한 특징값을 획득하여 음성 데이터를 보정할 수 있다.Specifically, when the voice data generated by the hearing aid user passes through the
단계 S510에서, 보청기(20)는 제2 주파수 이득값, 상기 제2 최대 출력값 및 음원의 파형을 보정하기 위한 특징값을 바탕으로 1차 보정된 보청기(20)를 2차 보정할 수 있다.In step S510, the
도 7은 본 발명의 일 실시예에 따른 보청기를 3차 보정하는 방법을 설명하기 위한 흐름도이다.7 is a flowchart for explaining a method of third-order correction of a hearing aid according to an embodiment of the present invention.
단계 S610에서, 보청기(20)는, 보청기(20)로 입력되는 음성 데이터를 전자 장치(30)로 전송할 수 있다. In step S610, the
구체적으로, 보청기(20)는 마이크로폰을 통해 감지되는 음성 데이터 및 리시버를 통해 출력되는 음성 데이터 모두를 전자 장치(30)로 전송할 수 있다. 이를 위해, 보청기(20)는 통신부 및 메모리를 더 포함할 수 있다. 보청기(20)와 전자 장치(30)는 블루투스로 연결될 수 있다. 또한, 보청기(20)의 메모리는 보청기(20)의 소형화를 위해 최소한의 데이터를 저장할 수 있으며, 저장 후 전자 장치(30)로 전송된 음성 데이터는 곧바로 삭제되어 다음 음성 데이터를 저장할 수 있다. 보청기(20)는 메모리의 저장 공간을 바탕으로 음성 데이터 전송 주기를 판단할 수 있다. 즉, 메모리 저장 공간이 기 설정된 비율 이상 차는 경우에 한하여, 보청기(20)는 음성 데이터를 전자 장치(30)로 전송할 수 있다. 상술한 방법을 통해 보청기(20)가 전자 장치(30)로 음성 데이터를 전송하는 횟수를 최소화 하여 보청기(20)의 불필요한 전력 소모를 방지할 수 있다.Specifically, the
또 다른 실시예로, 보청기(20)는 메모리 저장 공간이 기 설정된 비율 이상 차는 경우 전자 장치(30)와의 통신 연결을 수행하고, 음성 데이터 전송 후 통신 연결을 차단하여 보청기(20)의 불필요한 전력 소모를 방지할 수 있다.In another embodiment, the
또 다른 실시예로, 전자 장치(30)와의 통신 연결이 불가능하다고 판단한 경우, 보청기(20)는 마이크로폰 또는 리시버를 통해 획득된 음성 데이터를 메모리에 저장하지 않을 수 있다.In another embodiment, when it is determined that a communication connection with the
단계 S620에서, 전자 장치(30)는 수신한 음성 데이터를 서버(10)로 전송할 수 있다.In step S620, the
단계 S630에서, 서버(10)는 기 설정된 조건을 만족하면, 수신한 음성 데이터를 바탕으로 보청기(20)를 3차 보정하기 위한 제3 주파수 이득값 및 제3 최대 출력값을 획득할 수 있다.In step S630, the
이때, 기 설정된 조건이란, 수신한 음성데이터의 양에 기초한 조건일 수 있다. 즉, 서버(10)는 수신한 음성 데이터의 양이 기 설정된 양 이상인 경우, 수신한 음성 데이터를 바탕으로 보청기(20)를 3차 보정하기 위한 제3 주파수 이득값 및 제3 최대 출력값을 획득할 수 있다.In this case, the preset condition may be a condition based on the amount of voice data received. That is, when the amount of the received voice data is greater than or equal to a preset amount, the
단계 S640에서, 보청기(20)는 제3 주파수 이득값 및 제3 최대 출력값을 바탕으로 2차 보정된 보청기(20)를 3차 보정할 수 있다.In step S640, the
도 8은 본 발명의 일 실시예에 따른 보청기를 4차 보정하는 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method of fourth-order correction of a hearing aid according to an embodiment of the present invention.
단계 S710에서, 서버(10)는 보청기 사용자의 생활 공간에서의 배경 소음에 대한 정보, 상기 보청기 사용자의 발화 속도에 대한 정보 및 일반인의 평균 발화 속도에 대한 정보를 포함하는 배경정보를 수집할 수 있다.In step S710, the
단계 S720에서, 서버(10)는 수집된 배경정보를 바탕으로 상기 청능훈련프로그램에 포함될 배경 소음 및 발화 속도를 결정할 수 있다.In step S720, the
단계 S730에서, 서버(10)는 상기 결정된 배경 소음 및 발화 속도를 바탕으로 청능훈련프로그램을 생성할 수 있다. 이때, 생성된 청능훈련프로그램은 보청기 사용자의 배경정보에 따라 시각단서, 음소, 단어 및 문장의 난이도, 문장 길이, 환경음 및 음악의 포함 여부가 결정될 수 있다.In step S730, the
일 실시예로, 보청기 사용자의 발화 속도가 일반인의 평균 발화 속도보다 느린 경우, 서버(10)는 보청기 사용자의 발화 속도를 기준으로 청능훈련프로그램의 발화 속도를 결정하고, 점차적으로 청능훈련프로그램의 발화 속도를 일반인의 평균 발화 속도로 증가시킬 수 있다. 또는, 보청기 사용자의 발화 속도가 일반인의 평균 발화 속도보다 빠른 경우, 서버(10)는 일반인의 평균 발화 속도를 기준으로 청능훈련프로그램의 발화 속도를 결정하고, 점차적으로 청능훈련프로그램의 발화 속도를 보청기 사용자의 발화 속도로 증가시킬 수 있다.In one embodiment, when the speech rate of the hearing aid user is slower than the average speech rate of the general public, the
또 다른 실시예로, 서버(10)는 보청기 사용자의 주변 환경 정보를 바탕으로 청능훈련프로그램을 생성할 수 있다. 예를 들어, 서버(10)는 보청기 사용자의 댁내에서의 배경 소음 정보, 직장에서의 배경 소음 정보, 이동 경로에서의 배경 소음 정보를 획득하고, 획득된 배경 소음 정보를 바탕으로 청능훈련프로그램을 생성할 수 있다.In another embodiment, the
단계 S740에서, 서버(10)는 보청기 사용자로부터 상기 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 수신할 수 있다.In step S740, the
단계 S750에서, 서버(10)는 결과 데이터를 바탕으로 3차 보정된 보청기(20)를 4차 보정할 수 있다.In step S750, the
구체적으로, 단계 S751에서, 서버(10)는 청능훈련프로그램에 대한 결과 데이터 중 기 설정된 비율 이상의 오답률을 가지는 주파수 구간을 획득할 수 있다.Specifically, in step S751, the
단계 S752에서, 서버(10)는 획득된 주파수 구간의 주파수 이득값을 상기 제3 주파수 이득값 이상으로 보정할 수 있다.In step S752, the
즉, 서버(10)는 청능훈련프로그램에 대한 결과 데이터 중 오답률이 기 설정된 비율 이상되는 음성 데이터에 대한 주파수 대역을 획득하고, 획득된 주파수 대역의 소리를 증폭시킬 수 있다. 구체적으로, 서버(10)는 앞서 보정된 제3 주파수 이득값 이상으로 제4 주파수 이득값을 결정할 수 있다. 그러나, 제3 주파수 이득값에 의한 음성 데이터의 증폭값은 제3 최대 출력값 이하가 되도록 제4 주파수 이득값이 결정될 수 있음은 물론이다.That is, the
도 9는 본 발명의 일 실시예에 따른 보청기에 대한 사용 데이터를 획득하는 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a method of obtaining usage data for a hearing aid according to an embodiment of the present invention.
단계 S731에서, 서버(10)는 복수의 보청기 사용자 각각에 대한 복수의 제1 데이터를 저장할 수 있다. 이때 복수의 제1 데이터는 배경정보, 설문문항에 대한 답변정보 및 상기 답변정보로부터 획득된 상세정보를 포함할 수 있다. In step S731, the
나아가, 서버(10)는 배경정보, 배경정보를 기초로 획득된 기초정보, 기초정보를 바탕으로 생성된 설문문항, 설문문항에 대한 답변정보 및 답변정보로부터 생성된 결과정보 모두를 제1 데이터로 저장할 수 있음은 물론이다. 이때 서버(10)는 획득된 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보를 사용자별로 저장할 수 있다. 즉 저장된 제1 데이터는 제1 사용자에 대한 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보, 제2 사용자에 대한 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보정보 등으로 그룹화 될 수 있다.Furthermore, the
단계 S732에서, 서버(10)는 복수의 보청기 사용자에 대한 복수의 제2 데이터를 상기 복수의 사용자 별로 저장할 수 있다. 이때 제2 데이터는 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 포함할 수 있다.In step S732, the
단계 S733에서, 서버(10)는 복수의 제1 데이터를 클러스터링하여 복수의 제1 클러스터를 획득할 수 있다.In step S733, the
즉, 서버(10)는 복수의 보청기 사용자에 대한 데이터를 유사한 데이터끼리 그룹화 할 수 있다. That is, the
다만, 이에 한정되는 것은 아니며, 일 실시예로, 서버(10)는 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보에 대한 데이터 각각에 대하여 클러스터링을 수행할 수도 있음은 물론이다. 이 경우, 서버(10)는 복수의 배경정보 클러스터, 기초정보 클러스터, 설문문항 클러스터, 답변정보 클러스터 및 결과정보 클러스터를 각각 획득할 수 있다. 서버(10)는 각각의 배경정보 클러스터, 기초정보 클러스터, 설문문항 클러스터, 답변정보 클러스터 및 결과정보 클러스터를 매칭하여 저장할 수 있다. 구체적으로, 서버(10)는 제1 배경정보 클러스터와 연관된 제1 기초정보 클러스터, 제1 기초정보 클러스터와 연관된 제1 설문문항 클러스터, 제1 설문문항 클러스터와 연관된 제1 답변정보 클러스터 및 제1 답변정보 클러스터와 연관된 제1 결과정보 클러스터는 매칭하여 하나의 제1 그룹을 획득할 수 있다. 동일한 방법으로 서버(10)는 각각의 배경정보 클러스터, 기초정보 클러스터, 설문문항 클러스터, 답변정보 클러스터 및 결과정보 클러스터에 대한 모든 클러스터들을 매칭하여 그룹화 할 수 있다. 서버(10)는 그룹화된 복수의 그룹에 대한 데이터를 클러스터링하여 복수의 제1 클러스터를 획득할 수 있다.However, the present invention is not limited thereto, and in one embodiment, the
즉, 서버(10)는 제1 데이터에 포함된 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보를 각각 분류하고, 분류된 결과를 바탕으로 실제 사용자에 대한 데이터가 아닌 가상의 (이상적인)사용자에 대한 데이터를 획득할 수 있다. 예를 들어, 실제 사용자에 대한 제1 데이터를 바탕으로 클러스터링을 수행하는 경우에는, 실제 사용자가 설문문항에 대한 답변정보를 잘못 입력하여 정확한 상세정보가 획득되지 않는 경우 데이터 분류 및 분석에 오류가 있을 수 있다. 따라서, 각각의 사용자들이 획득한 정보만을 바탕으로 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보에 대한 그룹을 생성하는 경우, 상술한 오류를 줄일 수 있는 효과가 있다.That is, the
단계 S734에서, 서버(10)는 복수의 제2 데이터를 클러스터링하여 복수의 제2 클러스터를 획득할 수 있다.In step S734, the
단계 S735에서, 서버(10)는 새로운 제1 보청기 사용자에 대한 배경정보 및 답변정보를 획득할 수 있다.In step S735, the
나아가, 서버(10)는 제1 보청기 사용자로부터 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보 모두를 수신할 수 있음은 물론이다.Furthermore, of course, the
단계 S736에서, 서버(10)는 복수의 제1 클러스터 중 제1 보청기 사용자에 대한 배경정보 및 답변정보와 관련된 제1-1 클러스터를 판단할 수 있다. In step S736, the
단계 S737에서, 서버(10)는 복수의 제2 클러스터 중 제1-1 클러스터와 기 설정된 거리내에 존재하는 제2-1 클러스터를 판단할 수 있다.In step S737, the
단계 S738에서, 서버(10)는 제2-1 클러스터에 포함된 데이터를 바탕으로 제1 보청기 사용자에게 적합한 청능훈련프로그램을 생성할 수 있다.In step S738, the
즉, 제1 보청기 사용자는 제1-1 클러스터에 속한 보청기 사용자와 유사한 배경정보를 가질 것이다. 따라서, 서버(10)는 제1-1 클러스터의 사용자와 연관된 제2-1 클러스터를 획득하고, 제2-1클러스터를 획득하고, 획득된 제2-1 클러스터에 포함된 데이터를 바탕으로 제1 보청기 사용자에게 적합한 청능훈련프로그램을 생성할 수 있다.That is, the first hearing aid user will have background information similar to the hearing aid user belonging to the first-first cluster. Accordingly, the
다만, 본 발명의 다양한 실시예에 따라 서버(10)는 복수의 보청기 사용자의 시험착용데이터를 저장하고, 클러스터링하여 복수의 제3 클러스터를 생성할 수 있다. 이때, 시험착용데이터란, 복수의 보청기 사용자가 1차 보정된 보청기를 사용하여 획득된 데이터로서, 도 6에서 설명한 2차 보정을 위해 사용되는 데이터 또는 도 7에서 설명한 3차 보정을 위해 사용되는 데이터를 의미할 수 있다. 서버(10)는 복수의 제3 클러스터 중 제1-1 클러스터와 기 설정된 거리 내에 존재하는 제3-1 클러스터를 판단하고, 복수의 제2 클러스터 중 제3-1 클러스터와 기 설정된 거리 내에 존재하는 제2-1 클러스터를 판단할 수도 있음은 물론이다. 또는, 서버(10)는 제2-1 클러스터가 제1-1 클러스터 및 제3-1 클러스터 모두와 기 설정된 거리 이내가 되도록 제2-1 클러스터를 결정할 수도 있음은 물론이다.However, according to various embodiments of the present invention, the
도 15는 일 실시 예에 따른 장치의 구성도이다.15 is a configuration diagram of an apparatus according to an embodiment.
프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The
일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 9와 관련하여 설명된 방법을 수행한다.The
예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다. For example, the
한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. On the other hand, the
메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.Programs (one or more instructions) for processing and controlling the
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, a software module executed by hardware, or a combination thereof. The software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer readable recording medium well known in the art.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be implemented as a program (or application) to be executed in combination with a hardware computer, and stored in a medium. The components of the present invention can be implemented in software programming or software components, and similarly, embodiments include C, C ++, including various algorithms implemented in a combination of data structures, processes, routines or other programming components. , Can be implemented in programming or scripting languages such as Java, assembler, etc. Functional aspects can be implemented with algorithms running on one or more processors.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. The embodiments of the present invention have been described above with reference to the accompanying drawings, but a person skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive.
10: 서버
20: 보청기
30: 전자 장치10: Server
20: hearing aid
30: electronic device
Claims (1)
상기 서버가, 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득하는 단계;
상기 서버가, 상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계;
상기 보청기가, 상기 획득된 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 바탕으로 상기 보청기를 1차 보정하는 단계;
상기 서버가, 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 획득하는 단계; 및
상기 보청기가, 상기 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 바탕으로 상기 1차 보정된 보청기를 2차 보정하는 단계; 를 포함하고,
상기 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 획득하는 단계는,
상기 보청기 사용자의 청각 상태에 대한 데이터를 바탕으로, 복수개의 주파수 대역 각각에 대한 상기 주파수 이득값 및 상기 최대 출력값을 보정하여 제2 주파수 이득값 및 제2 최대 출력값을 획득하는 단계;
상기 보청기 사용자의 음성 데이터를 바탕으로 상기 보청기가 감지하는 음원의 파형을 보정하기 위한 특징값을 추출하는 단계;를 포함하고,
상기 2차 보정하는 단계는,
상기 제2 주파수 이득값, 상기 제2 최대 출력값 및 음원의 파형을 보정하기 위한 특징값을 바탕으로 상기 1차 보정된 보청기를 2차 보정하는 단계;를 포함하고,
상기 제어 방법은,
상기 보청기가, 상기 보청기로부터 입력되는 음성 데이터를 전자 장치로 전송하는 단계;
상기 전자 장치가, 수신한 상기 음성 데이터를 상기 서버로 전송하는 단계;
상기 서버가, 기 설정된 조건을 만족하면, 수신한 상기 음성 데이터를 바탕으로 상기 보청기를 3차 보정하기 위한 제3 주파수 이득값 및 제3 최대 출력값을 획득하는 단계; 및
상기 보청기가, 상기 제3 주파수 이득값 및 제3 최대 출력값을 바탕으로 상기 2차 보정된 보청기를 3차 보정하는 단계; 를 포함하고,
상기 제어 방법은,
상기 서버가, 상기 보청기 사용자의 생활 공간에서의 배경 소음에 대한 정보, 상기 보청기 사용자의 발화 속도에 대한 정보 및 일반인의 평균 발화 속도에 대한 정보를 포함하는 배경정보를 수집하는 단계;
상기 서버가, 상기 수집된 배경정보를 바탕으로 청능훈련프로그램에 포함될 배경 소음 및 발화 속도를 결정하는 단계;
상기 서버가, 상기 결정된 배경 소음 및 발화 속도를 바탕으로 청능훈련프로그램을 생성하는 단계;
상기 서버가, 상기 보청기 사용자로부터 상기 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 수신하는 단계; 및
상기 보청기가, 상기 결과 데이터를 바탕으로 상기 보청기를 4차 보정하는 단계; 를 포함하고,
상기 4차 보정하는 단계는,
상기 결과 데이터 중 기 설정된 비율 이상의 오답률을 가지는 주파수 구간을 획득하는 단계;
상기 획득된 주파수 구간의 주파수 이득값을 상기 제3 주파수 이득값 이상으로 보정하는 단계;를 포함하고,
상기 생성된 청능훈련프로그램은 상기 보청기 사용자의 배경정보에 따라 시각단서, 음소, 단어 및 문장의 난이도, 문장 길이, 환경음 및 음악의 포함 여부가 결정되고,
상기 청능훈련프로그램을 생성하는 단계는,
복수의 보청기 사용자의 배경정보, 설문문항에 대한 답변정보 및 상기 답변정보로부터 획득된 상세정보를 포함하는 복수의 제1 데이터를 상기 복수의 사용자 별로 저장하는 단계;
상기 복수의 보청기 사용자의 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 포함하는 복수의 제2 데이터를 상기 복수의 보청기 사용자 별로 저장하는 단계;
상기 복수의 제1 데이터를 클러스터링하여 복수의 제1 클러스터를 획득하는 단계;
상기 복수의 제2 데이터를 클러스터링하여 복수의 제2 클러스터를 획득하는 단계;
새로운 제1 보청기 사용자에 대한 배경정보 및 답변정보를 획득하는 단계;
상기 복수의 제1 클러스터 중 상기 획득한 제1 보청기 사용자에 대한 배경정보 및 답변정보와 관련된 제1-1 클러스터를 판단하는 단계;
상기 복수의 제2 클러스터 중 상기 제1-1 클러스터와 기 설정된 거리내에 존재하는 제2-1 클러스터를 판단하는 단계; 및
상기 제2-1 클러스터에 포함된 데이터를 바탕으로 상기 제1 보청기 사용자에 대한 청능훈련프로그램을 생성하는 단계; 를 포함하고,
상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계는,
상기 한국어 음성 데이터를 8개의 주파수 대역으로 분류하는 단계;
상기 분류된 8개의 주파수 대역 각각에 대한 정반응률을 획득하는 단계;
상기 획득된 정반응률에 기초하여 각각의 주파수 대역에 대한 각각의 가중치를 획득하는 단계 및
상기 가중치를 바탕으로 상기 제1 주파수 이득값 및 상기 제1 최대 출력값을 결정하는 단계; 를 포함하고,
상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계는,
상기 한국어 음성 데이터의 대화음 크기를 판단하는 단계;
상기 대화음 크기가 기 설정된 범위 이내인 경우, 압축역치(Compression Threshold), 압축비율(Compression Ratio), 확장역치(Extension Threshold), 확장비율(Extension Ratio) 및 상기 가중치를 바탕으로 제1 파라미터를 결정하고, 상기 결정된 제1 파라미터를 바탕으로 상기 제1 주파수 이득값 및 상기 제1 최대 출력값을 결정하는 단계;를 더 포함하고,
상기 제1 파라미터는,
확장역치레벨(ET)이 ET30, X2=<30dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(ET30)이고,
상기 Y(ET30)은 제1 주파수 대역에서 Y(ET30)=0.714X1 + 0.041X2 - 37.243, 제2 주파수 대역에서 Y(ET30)=0.630X1 + 0.201X2 - 20.364, 제3 주파수 대역에서 Y(ET30)=0.598X1 + 0.251X2 - 13.206, 제4 주파수 대역에서 Y(ET30)=0.566X1 + 0.288X2 - 3.016, 제5 주파수 대역에서 Y(ET30)=0.548X1 + 0.289X2 - 0.327, 제6 주파수 대역에서 Y(ET30)=0.513X1 + 0.289X2 + 2.934, 제7 주파수 대역에서 Y(ET30)=0.302X1 + 0.167X2 + 4.271, 제8 주파수 대역에서 Y(ET30)=0.240X1 + 0.128X2 + 1.266의 공식에 의해 결정되고,
X1은 HTL, X2는 입력음의 크기인 것을 특징으로 하는 제어 방법.In the control method of the hearing aid system performed by the server and the hearing aid,
Obtaining, by the server, a plurality of frequency bands based on Korean voice data;
Obtaining, by the server, a first frequency gain value and a first maximum output value for each of the plurality of frequency bands;
The hearing aid performing a primary correction of the hearing aid based on a first frequency gain value and a first maximum output value for each of the obtained plurality of frequency bands;
Acquiring data about the hearing state of the hearing aid user and voice data of the hearing aid user by the server; And
The hearing aid performing a second correction of the first corrected hearing aid based on data on the hearing state of the hearing aid user and voice data of the hearing aid user; Including,
The step of acquiring data about the hearing state of the hearing aid user and the voice data of the hearing aid user may include:
Obtaining a second frequency gain value and a second maximum output value by correcting the frequency gain value and the maximum output value for each of a plurality of frequency bands based on data on the hearing state of the hearing aid user;
And extracting a feature value for correcting a waveform of a sound source sensed by the hearing aid based on the voice data of the hearing aid user.
The second correction step,
And a second correction of the first corrected hearing aid based on the second frequency gain value, the second maximum output value, and a feature value for correcting the waveform of the sound source.
The control method,
The hearing aid transmitting the voice data input from the hearing aid to an electronic device;
The electronic device transmitting the received voice data to the server;
If the server satisfies a preset condition, acquiring a third frequency gain value and a third maximum output value for thirdly correcting the hearing aid based on the received voice data; And
The hearing aid performing a third correction of the second-corrected hearing aid based on the third frequency gain value and the third maximum output value; Including,
The control method,
Collecting, by the server, background information including information about background noise in the living space of the hearing aid user, information about the speech speed of the hearing aid user, and information about the average speech rate of the general public;
Determining, by the server, background noise and speech rate to be included in the hearing training program based on the collected background information;
Generating, by the server, a hearing training program based on the determined background noise and utterance speed;
Receiving, by the server, result data for the hearing training program and hearing aid wearing from the hearing aid user; And
The hearing aid, the fourth step of correcting the hearing aid based on the result data; Including,
The fourth correction step,
Obtaining a frequency section having a wrong answer rate of a preset ratio or higher among the result data;
Comprising the step of correcting the frequency gain value of the obtained frequency interval to more than the third frequency gain value; includes,
The generated hearing training program determines whether visual cues, phonemes, word and sentence difficulty, sentence length, environment sounds, and music are included according to the background information of the hearing aid user,
The step of generating the hearing training program,
Storing a plurality of first data for each of the plurality of users including background information of a plurality of hearing aid users, answer information on a questionnaire question, and detailed information obtained from the answer information;
Storing a plurality of second data including a hearing training program of the plurality of hearing aid users and result data on wearing the hearing aid for each of the plurality of hearing aid users;
Clustering the plurality of first data to obtain a plurality of first clusters;
Clustering the plurality of second data to obtain a plurality of second clusters;
Obtaining background information and response information for a new first hearing aid user;
Determining a first-first cluster related to background information and answer information about the acquired first hearing aid user among the plurality of first clusters;
Determining a 2-1 cluster existing within a predetermined distance from the 1-1 cluster among the plurality of second clusters; And
Generating a hearing training program for the first hearing aid user based on the data included in the 2-1 cluster; Including,
Obtaining a first frequency gain value and a first maximum output value for each of the plurality of frequency bands,
Classifying the Korean speech data into eight frequency bands;
Obtaining a positive response rate for each of the classified eight frequency bands;
Obtaining respective weights for each frequency band based on the obtained positive response rate, and
Determining the first frequency gain value and the first maximum output value based on the weight; Including,
Obtaining a first frequency gain value and a first maximum output value for each of the plurality of frequency bands,
Determining a conversation volume of the Korean voice data;
When the conversation sound volume is within a predetermined range, a first parameter is determined based on the compression threshold, compression ratio, extension threshold, extension ratio, and weight And determining the first frequency gain value and the first maximum output value based on the determined first parameter.
The first parameter,
The extended threshold level (ET) is the first parameter Y (ET30) for each frequency band at ET30, X2 = <30dB SPL,
The Y (ET30) is Y (ET30) = 0.714X1 + 0.041X2-37.243 in the first frequency band, Y (ET30) = 0.630X1 + 0.201X2-20.364 in the second frequency band, Y (ET30) in the third frequency band ) = 0.598X1 + 0.251X2-13.206, Y (ET30) = 0.566X1 + 0.288X2-3.016 in 4th frequency band, Y (ET30) = 0.548X1 + 0.289X2-0.327, 6th frequency band in 5th frequency band At Y (ET30) = 0.513X1 + 0.289X2 + 2.934, in the 7th frequency band Y (ET30) = 0.302X1 + 0.167X2 + 4.271, in the 8th frequency band Y (ET30) = 0.240X1 + 0.128X2 + 1.266 Determined by the formula,
X1 is HTL, X2 is the control method characterized in that the volume of the input sound.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200005754A KR102093369B1 (en) | 2020-01-16 | 2020-01-16 | Control method, device and program of hearing aid system for optimal amplification for extended threshold level |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200005754A KR102093369B1 (en) | 2020-01-16 | 2020-01-16 | Control method, device and program of hearing aid system for optimal amplification for extended threshold level |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190063256A Division KR102069893B1 (en) | 2019-05-29 | 2019-05-29 | Hearing aid system control method, apparatus and program for optimal amplification |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102093369B1 true KR102093369B1 (en) | 2020-05-13 |
Family
ID=70729828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200005754A KR102093369B1 (en) | 2020-01-16 | 2020-01-16 | Control method, device and program of hearing aid system for optimal amplification for extended threshold level |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102093369B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007098808A1 (en) * | 2006-03-03 | 2007-09-07 | Widex A/S | Hearing aid and method of utilizing gain limitation in a hearing aid |
KR100956167B1 (en) | 2008-01-28 | 2010-05-06 | 주식회사베토벤보청기 | Creation Method of channel of digital hearing-aid and Multi-channel digital hearing-aid |
US20170099550A1 (en) * | 2015-10-01 | 2017-04-06 | Bernafon A/G | Configurable hearing system |
EP3267695A1 (en) * | 2016-07-04 | 2018-01-10 | GN Hearing A/S | Automated scanning for hearing aid parameters |
WO2019086433A1 (en) * | 2017-10-31 | 2019-05-09 | Widex A/S | Method of operating a hearing aid system and a hearing aid system |
-
2020
- 2020-01-16 KR KR1020200005754A patent/KR102093369B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007098808A1 (en) * | 2006-03-03 | 2007-09-07 | Widex A/S | Hearing aid and method of utilizing gain limitation in a hearing aid |
KR100956167B1 (en) | 2008-01-28 | 2010-05-06 | 주식회사베토벤보청기 | Creation Method of channel of digital hearing-aid and Multi-channel digital hearing-aid |
US20170099550A1 (en) * | 2015-10-01 | 2017-04-06 | Bernafon A/G | Configurable hearing system |
EP3267695A1 (en) * | 2016-07-04 | 2018-01-10 | GN Hearing A/S | Automated scanning for hearing aid parameters |
WO2019086433A1 (en) * | 2017-10-31 | 2019-05-09 | Widex A/S | Method of operating a hearing aid system and a hearing aid system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Anderson et al. | Speech perception benefits of FM and infrared devices to children with hearing aids in a typical classroom | |
US11095995B2 (en) | Hearing assist device fitting method, system, algorithm, software, performance testing and training | |
Beechey et al. | Hearing impairment increases communication effort during conversations in noise | |
US12101604B2 (en) | Systems, devices and methods for fitting hearing assistance devices | |
Andreetta et al. | Evaluation of speech amplification devices in Parkinson's disease | |
CN104918536A (en) | Audiometric self-testing | |
Ooster et al. | Speech audiometry at home: automated listening tests via smart speakers with normal-hearing and hearing-impaired listeners | |
EP3864862A1 (en) | Hearing assist device fitting method, system, algorithm, software, performance testing and training | |
KR102069892B1 (en) | Control method, apparatus and program of hearing aid suitability management system | |
WO2020077348A1 (en) | Hearing assist device fitting method, system, algorithm, software, performance testing and training | |
KR102535005B1 (en) | Auditory training method and system in noisy environment | |
KR102093365B1 (en) | Control method, device, and program of the trial management data-based hearing aid compliance management system | |
KR102093369B1 (en) | Control method, device and program of hearing aid system for optimal amplification for extended threshold level | |
KR102093368B1 (en) | Control method, device and program of hearing aid system for optimal amplification specialized in Korean | |
KR102093370B1 (en) | Control method, device and program of hearing aid system for optimal amplification for compression threshold level | |
US20110207094A1 (en) | Method for training speech perception and training device | |
Humes et al. | A comparison of single-channel linear amplification and two-channel wide-dynamic-range-compression amplification by means of an independent-group design | |
KR102069893B1 (en) | Hearing aid system control method, apparatus and program for optimal amplification | |
John et al. | Evaluation of wideband frequency responses and nonlinear frequency compression for children with cookie-bite audiometric configurations | |
Schafer et al. | Verification and validation of remote-microphone technology on children and college-age adults who have autism spectrum disorder | |
KR20200137950A (en) | Control method, apparatus and program of hearing aid suitability management system | |
Jamaluddin | Development and evaluation of the digit triplet and auditory-visual matrix sentence tests in Malay | |
KR102093367B1 (en) | Control method, device and program of customized hearing aid suitability management system | |
KR102093366B1 (en) | Control method, device and program of hearing aid compliance management system managed based on ear impression information | |
KR102093364B1 (en) | Control method, device, and program of hearing aid conformity management system based on user background information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |