KR20190126552A - System and method for providing information for emotional status of pet - Google Patents
System and method for providing information for emotional status of pet Download PDFInfo
- Publication number
- KR20190126552A KR20190126552A KR1020180050589A KR20180050589A KR20190126552A KR 20190126552 A KR20190126552 A KR 20190126552A KR 1020180050589 A KR1020180050589 A KR 1020180050589A KR 20180050589 A KR20180050589 A KR 20180050589A KR 20190126552 A KR20190126552 A KR 20190126552A
- Authority
- KR
- South Korea
- Prior art keywords
- emotional state
- feature vector
- unit
- information
- client
- Prior art date
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 81
- 238000000034 method Methods 0.000 title claims description 40
- 239000013598 vector Substances 0.000 claims abstract description 76
- 238000004891 communication Methods 0.000 claims abstract description 38
- 238000004458 analytical method Methods 0.000 claims abstract description 16
- 238000010801 machine learning Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 241001465754 Metazoa Species 0.000 claims description 53
- 230000008451 emotion Effects 0.000 claims description 43
- 238000013528 artificial neural network Methods 0.000 claims description 33
- 230000000306 recurrent effect Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 12
- 238000001228 spectrum Methods 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008918 emotional behaviour Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Psychiatry (AREA)
- Pathology (AREA)
- Acoustics & Sound (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Evolutionary Computation (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Computational Linguistics (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
본 발명은 반려동물과의 교감을 위한 기술에 관한 것으로, 더욱 상세하게는 반려동물이 감정상태를 분석하여 이를 제공하기 위한 기술에 관한 것이다.The present invention relates to a technique for communicating with a companion animal, and more particularly, to a technology for providing a companion animal by analyzing an emotional state.
최근, 반려동물의 음성정보(스피치)로 반려동물의 감정이나 상태를 알고자 하는 연구가 진행되면서 반려 동물의 소리를 분석하는 장치 및 프로그램들이 등장하고는 있다. In recent years, as researches on the companion animal's voice information (speech) have been conducted to find out the emotions and conditions of the companion animal, devices and programs for analyzing the animal's sound have been introduced.
이때, 반려동물의 소리를 분석하는 방법은 주파수를 분석하여 분석하는 방법으로 이루어지고 있다. 이와 관련하여, 반려 동물의 소리로부터 주파수 특성을 분석하여 미리 설정된 특정 상태에 있다고 판단되는 경우 사용자 단말기로 자동으로 화상 전화 연결을 시도하며, 전자 기기 또는 표시부의 화면에 사용자 화상 정보를 출력시키되, 화상 정보 주위에 미리 설정된 주기로 변화하는 컬러 스펙트럼 영상을 함께 제공하는 기술 등이 개시되어 있다.At this time, the method of analyzing the sound of the companion animal is made by analyzing the frequency. In this regard, when it is determined that the frequency characteristics are determined from the sound of the companion animal and determined to be in a predetermined preset state, video call connection is automatically made to the user terminal, and the user image information is output on the screen of the electronic device or the display unit. Disclosed is a technique for providing a color spectrum image that changes at predetermined intervals around information.
그러나, 반려동물에 대한 소리를 분석한다고 하더도, 단순 감정을 파악하는 것일 뿐, 정확한 분석 방법이 제시되고 있지 않아 단지 호기심을 만족시키는데 그치고 있다.However, even if you analyze the sound of the pets, it is only to grasp the simple emotions, it is only to satisfy the curiosity because no accurate analysis method is proposed.
특히, 반려 동물의 음성 정보로부터 주파수 특성을 분석하는 경우, 주파수가 겹치는 감정에 따른 소리가 존재하는 경우에는 정확한 분석이 어렵다. 또한, 감정을 정확하게 분석하기 위해서는 주파수 뿐만 아니라 종별, 나이별, 신체정보별로 달라지는 주파수나 소리를 정규화하는 과정이 요구되는데, 이러한 과정이 포함되지 않아 정확한 분석이 용이하지 않다.In particular, when analyzing the frequency characteristics from the voice information of the companion animal, it is difficult to accurately analyze when there is a sound due to the overlapping emotion. In addition, in order to accurately analyze emotions, a process of normalizing frequencies or sounds that vary according to types, ages, and body information as well as frequencies is required. Since such processes are not included, accurate analysis is not easy.
본 발명이 해결하고자 하는 과제는 반려동물이 짖는 소리 즉, 음성정보(스피치)를 입력받아서, 기계학습을 통한 반복적인 학습을 통해 반려동물에 대한 감정상태를 파악하여, 각각의 클라이언트에게 제공할 수 있도록 하는 반려동물의 감정상태에 대한 정보 제공 시스템 및 방법에 관한 것이다.The problem to be solved by the present invention is to receive the barking sound of the pet, that is, voice information (speech), it is possible to grasp the emotional state of the companion animal through repetitive learning through the machine learning, it can be provided to each client The present invention relates to a system and method for providing information on the emotional state of a companion animal.
상기 과제를 해결하기 위한 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공 시스템은 반려동물의 음성정보를 수집하여 전송하는 클라이언트; 및 상기 클라이언트로부터 상기 수집된 음성정보를 수신하고, 상기 수신된 음성정보에 기초하여상기 반려동물의 감정상태정보를 분석하여 상기 클라이언트로 전송하는 통역 서버를 포함하고, 상기 통역 서버는, 상기 클라이언트로부터 전송된 상기 음성정보를 수신하는 통신부; 상기 수신된 음성정보에서 음성 특징벡터를 추출하는 특징벡터 추출부; 상기 특징벡터 추출부에서 추출된 상기 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 상기 반려동물에 대응하는 감정상태정보를 추출하는 감정상태 분석부; 상기 통신부, 상기 특징벡터 추출부, 상기 감정상태 분석부, 상기 상태정보 출력부의 동작을 제어하는 제어부; 및 상기 특징벡터 추출부, 상기 감정상태 분석부, 상기 상태정보 출력부 및 상기 제어부의 동작을 위한 데이터를 저장하는 저장부를 포함하고, 상기 통신부가 상기 제어부의 제어에 따라 상기 감정상태 분석부에서 분석된 상기 감정상태정보를 상기 클라이언트로 전송하는 것을 특징으로 한다.The system for providing information on the emotional state of the companion animal according to the present invention for solving the problem is to collect and transmit the voice information of the companion animal; And an interpreter server for receiving the collected voice information from the client and analyzing and transmitting the emotional state information of the companion animal to the client based on the received voice information. A communication unit for receiving the transmitted voice information; A feature vector extracting unit extracting a voice feature vector from the received voice information; An emotional state analyzing unit configured to extract the emotional state information corresponding to the companion animal by performing a machine learning using the voice feature vector extracted by the feature vector extracting unit as input data; A controller for controlling operations of the communication unit, the feature vector extracting unit, the emotional state analyzing unit, and the state information output unit; And a storage unit which stores data for operations of the feature vector extractor, the emotion state analyzer, the state information output unit, and the controller, wherein the communication unit analyzes the emotion state analyzer under control of the controller. The emotion state information is transmitted to the client.
상기 특징벡터 추출부는, 오토 엔코더(Auto-encoder) 및 MFCC(Mel Frequency Cepstral Coefficient) 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출하는 것을 특징으로 한다.The feature vector extractor extracts the speech feature vector using any one of an auto-encoder and a Mel Frequency Cepstral Coefficient (MFCC).
상기 감정상태 분석부는, DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출하는 것을 특징으로 한다.The emotional state analysis unit may extract the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.
상기 통신부는, 상기 감정상태정보를 유선 통신 또는 무선 통신을 이용해 상기 클라이언트로 전송하는 것을 특징으로 한다.The communication unit may transmit the emotion state information to the client through wired communication or wireless communication.
상기 과제를 해결하기 위한 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공방법은 클라이언트가 반려동물의 음성정보를 수집하여 통역 서버로 전송하는 단계; 상기 통역 서버가 상기 클라이언트로부터 전송된 음성정보에서 음성 특징벡터를 추출하는 단계; 상기 통역 서버가 상기 추출된 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 상기 반려동물에 대응하는 감정상태정보를 추출하는 단계; 및 상기 통역 서버가 상기 추출된 감정상태정보를 상기 클라이언트로 전송하는 단계; 및 상기 클라이언트가 상기 수신된 감정상태정보를 출력하는 단계를 포함하는 것을 특징으로 한다.The method for providing information on the emotional state of the companion animal according to the present invention for solving the above problems comprises the steps of collecting the voice information of the companion animal to transmit to the interpretation server; Extracting, by the interpreter server, a speech feature vector from the speech information transmitted from the client; Extracting, by the interpreter server, emotional state information corresponding to the companion animal by performing machine learning using the extracted voice feature vector as input data; And transmitting, by the interpreter server, the extracted emotional state information to the client. And outputting, by the client, the received emotional state information.
상기 음성 특징벡터를 추출하는 단계는, 오토 엔코더(Auto-encoder) 및 MFCC(Mel Frequency Cepstral Coefficient) 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출하는 것을 특징으로 한다.The extracting of the speech feature vector may include extracting the speech feature vector using any one of an auto-encoder and a Mel Frequency Cepstral Coefficient (MFCC).
상기 감정상태정보를 추출하는 단계는, DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출하는 것을 특징으로 한다.The extracting of the emotional state information may include extracting the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.
상기 감정상태정보를 전송하는 단계는, 상기 감정상태정보를 유선 통신 또는 무선 통신을 이용해 상기 클라이언트로 전송하는 것을 특징으로 한다.The transmitting of the emotional state information may include transmitting the emotional state information to the client through wired communication or wireless communication.
본 발명에 따르면, 반려동물의 음성정보(스피치)를 입력 데이터로 하여 반복적인 기계학습을 통해 반려동물에 대한 감정상태를 파악하고, 이를 각 클라이언트에게 제공함으로써, 반려동물의 보호자가 자신의 반려동물에 대한 감정상태를 정확히 인식할 수 있으며, 반려동물의 현재 상태를 정확히 파악할 수 있다. According to the present invention, by using the voice information (speech) of the companion animal as input data, the emotional state of the companion animal is identified through repeated machine learning and provided to each client, whereby the guardian of the companion animal has his or her companion animal. Can accurately recognize the emotional state of the, and can pinpoint the current state of the pet.
또한, 반려동물의 보호자가 반려동물의 감정 상태를 정확히 인식함으로써, 인식된 감정 상태에 대응하여 반려동물로 하여금 올바른 행동 또는 반응이 유도될 수 있도록 반려동물에 대한 적절한 명령을 제시할 수 있다. In addition, the caregiver of the pet can correctly recognize the emotional state of the pet, it is possible to present an appropriate command to the pet to allow the pet to induce the correct behavior or response in response to the recognized emotional state.
도 1은 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공 시스템을 설명하기 위한 일 실시예의 시스템 블록도이다.
도 2는 도 1에 도시된 통역 서버의 세부 구성요소를 설명하기 위한 일 실시예의 구성 블록도이다.
도 3은 특징벡터 추출부에 해당하는 오토 엔코더(Auto-encoder) 방식의 기본 동작 구조를 예시하는 참조도이다.
도 4는 특징벡터 추출부에 해당하는 MFCC(Mel Frequency Cepstral Coefficient) 방식에 의한 음성 특징벡터의 추출을 예시하는 참조도이다.
도 5는 감정상태 분석부에 해당하는 RNN(Recurrent Neural Network) 알고리즘의 기본 동작 구조를 예시하는 참조도이다.
도 6은 감정상태 분석부에 해당하는 DNN(Deep Neural Network) 알고리즘의 기본 동작 구조를 예시하는 참조도이다.
도 7은 감정상태 분석부가 저장부에 저장된 반려동물의 다양한 감정상태정보 중에서 클라이언트로부터 전송된 음성정보에 대응하는 감정상태정보를 추출하는 것을 예시하는 참조도이다.
도 8은 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공방법을 설명하기 위한 일 실시예의 플로차트이다.1 is a system block diagram of an embodiment for explaining a system for providing information on an emotional state of a companion animal according to the present invention.
FIG. 2 is a block diagram illustrating an exemplary embodiment for describing the detailed components of the interpreter server shown in FIG. 1.
3 is a reference diagram illustrating a basic operation structure of an auto-encoder method corresponding to a feature vector extracting unit.
4 is a reference diagram illustrating an extraction of a speech feature vector by a Mel Frequency Cepstral Coefficient (MFCC) method corresponding to a feature vector extractor.
5 is a reference diagram illustrating a basic operation structure of a Recurrent Neural Network (RNN) algorithm corresponding to an emotional state analyzer.
6 is a reference diagram illustrating a basic operation structure of a deep neural network (DNN) algorithm corresponding to an emotional state analyzer.
7 is a reference diagram illustrating that the emotion state analysis unit extracts the emotion state information corresponding to the voice information transmitted from the client from various emotion state information of the pet stored in the storage unit.
8 is a flowchart of an embodiment for explaining a method for providing information on an emotional state of a companion animal according to the present invention.
이하, 본 발명의 목적이 구체적으로 실현될 수 있는 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 아래의 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래의 실시예들로 한정되는 것은 아니다. 오히려, 이들 실시예는 본 개시를 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다. Embodiments of the present invention are provided to more fully explain the present invention to those skilled in the art, and the following embodiments may be modified in many different forms, the scope of the present invention It is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.
본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는"포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular forms "a", "an" and "the" may include the plural forms as well, unless the context clearly indicates otherwise. Also, as used herein, "comprise" and / or "comprising" specifies the presence of the mentioned shapes, numbers, steps, actions, members, elements and / or groups of these. It is not intended to exclude the presence or the addition of one or more other shapes, numbers, acts, members, elements and / or groups. As used herein, the term "and / or" includes any and all combinations of one or more of the listed items.
본 명세서에서 제1, 제2 등의 용어가 다양한 부재, 영역 및/또는 부위들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부위들은 이들 용어에 의해 한정되어서는 안됨은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역 또는 부위를 다른 부재, 영역 또는 부위와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역 또는 부위는 본 발명의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역 또는 부위를 지칭할 수 있다.Although the terms first, second, etc. are used herein to describe various members, regions, and / or portions, it is obvious that these members, components, regions, layers, and / or portions should not be limited by these terms. Do. These terms do not imply any particular order, up or down, or superiority, and are only used to distinguish one member, region or region from another member, region or region. Accordingly, the first member, region, or region described below may refer to the second member, region, or region without departing from the teachings of the present invention.
이하, 본 발명의 실시예들은 본 발명의 실시예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 제조 기술 및/또는 공차에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명의 실시예는 본 명세서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 되며, 예를 들면 제조상 초래되는 형상의 변화를 포함하여야 한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings schematically showing embodiments of the present invention. In the drawings, for example, variations in the shape shown may be expected, depending on manufacturing techniques and / or tolerances. Accordingly, embodiments of the present invention should not be construed as limited to the specific shapes of the regions shown herein, but should include, for example, changes in shape resulting from manufacturing.
도 1은 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공 시스템(10)을 설명하기 위한 일 실시예의 시스템 블록도이다.1 is a system block diagram of an embodiment for explaining the
도 1을 참조하면, 정보 제공 시스템(10)은 클라이언트(100) 및 통역 서버(200)를 포함한다. Referring to FIG. 1, the
클라이언트(100)는 반려동물의 음성정보를 수집하여 통역 서버(200)로 전송한다. The
클라이언트(100)는 반려동물의 음성 정보, 즉 짖는 소리 또는 스피치를 연속적으로 검출한다. 이를 위해, 클라이언트(100)는 음성정보 수집을 위한 마이크를 포함할 수 있다. 클라이언트(100)는 연속적으로 검출된 소리를 시간순서로 정렬하고, 1차 검출된 소리(sound1), 1차 검출된 소리와 2차 검출된 소리의 시간 간격(delay1), 2차 검출된 소리(sound2), 2차 검출된 소리와 3차 검출된 소리의 시간 간격(delay2), 3차 검출된 소리(sound3) 순으로 임의의 n차까지 계속적으로 소리를 벡터 형태로 저장할 수 있다. 클라이언트(100)에 의해 반려동물의 연속적인 짖는 소리로부터 반려동물의 소리를 실시간 검출하여 감정을 분석하기 때문에 단순히 한번의 짖는 소리로 감정을 분석하는 방법 보다 더욱 정확하게 반려동물의 감정을 분석하기 위한 정보를 수집할 수 있다.The
클라이언트(100)는 반려동물의 짖는 소리에 대한 소리 정보를 검출하기 위해 입력된 아날로그 신호를 디지털 신호로 변환한 다음, 변환된 디지털 신호로부터 짖는 소리와 소리 구간 사이의 시간 간격인 소리 정보를 검출한다. 그 후, 클라이언트(100)는 수집된 음성정보를 통신망(미도시)을 이용하여 통역 서버(200)로 전송한다. The
통신망은 클라이언트(100)와 통역 서버(200) 사이에서 데이터를 송수신하기 위한 유선 통신망 또는 무선 통신망을 포함한다. 그 후, 통신망은 통역 서버(200)로부터 반려동물에 대한 감정상태정보를 수신하면, 이를 클라이언트(100)로 전송한다.The communication network includes a wired communication network or a wireless communication network for transmitting and receiving data between the
클라이언트(100)는 통신망을 통해 수신된 감정상태정보를 출력한다. 클라이언트(100)는 감정상태정보를 음성 신호 및 영상 신호 중 어느 하나로 출력할 수 있다. 클라이언트(100)는 감정상태정보로서 반려동물의 감정동작과 대화문장, 대화음성을 출력할 수 있다. 클라이언트(100)는 2차원 이미지 파일형태를 연속적으로 플레이하여 3차원 동작 효과를 내거나 3차원 동작 애니메이션 파일을 구동시켜서 동작을 생성할 수 있다.The
클라이언트(100)는 현재 반려동물 감정과 현재 반려동물의 설정 환경에 의해 사람의 대화로 통역하게 되는데, 통역하는 방법은 현재 반려동물의 종류(Species), 성별(Sex), 나이(Age), 흥미(Interest), 성격(Character)과 같은 조건에 따라 대화를 설정한 대화 및 대화음성을 이용할 수 있다.The
상태정보 출력부(140)는 반려동물의 감정과 현재 반려동물의 설정 환경에 더하여, 현재시간이나 날씨 등의 다른 조건에 의해서 규칙기반으로 사람의 대화를 생성할 수 있다.The status information output unit 140 may generate a conversation of a person based on rules based on other conditions such as current time or weather, in addition to the pet's emotion and the current pet's setting environment.
통역 서버(200)는 클라이언트(100)로부터 제공된 음성정보를 수신하고, 상기 수신된 음성정보에 기초하여 상기 반려동물의 감정상태정보를 분석하여 상기 클라이언트(100)로 전송한다. The
도 2는 도 1에 도시된 통역 서버(200)의 세부 구성요소를 설명하기 위한 일 실시예의 구성 블록도이다.FIG. 2 is a block diagram illustrating an exemplary embodiment for describing the detailed components of the
도 2를 참조하면, 반려동물의 감정상태 분석장치(200)는 통신부(210), 특징벡터 추출부(220), 감정상태 분석부(230), 사용자 인터페이스부(240), 제어부(250), 저장부(260) 등을 포함할 수 있다.Referring to FIG. 2, the emotion
통신부(210)는 클라이언트(100)에서 제공된 음성정보를 수신할 수 있다. 이를 위해, 통신부는, 유선 통신망 또는 무선 통신망과 접속할 수 있는 유선 통신모듈 또는 무선 통신모듈을 포함할 수 있다. 유선 통신모듈은 유선 인터넷, LAN 등을 지원하는 모듈일 수 있다. 또한, 무선 통신모듈은 WiFi(wireless fidelity)와 같은 무선인터넷, WiBro(wireless broadband internet) 또는 WiMax(world interoperability for microwave access)와 같은 휴대인터넷, GSM(global system for mobile communication) 또는 CDMA(code division multiple access)와 같은 2G 이동통신망, WCDMA(wideband code division multiple access) 또는 CDMA2000과 같은 3G 이동통신망, HSDPA(high speed downlink packet access) 또는 HSUPA(high speed uplink packet access)와 같은 3.5G 이동통신망, LTE(long term evolution)망 또는 LTE-Advanced망과 같은 4G 이동통신망, 및 5G 이동통신망 등을 지원하는 모듈일 수 있다.The
특징벡터 추출부(220)는 통신부(210)에서 수신된 상기 음성정보에서 음성 특징벡터를 추출한다. 특징벡터 추출부(220)는 음성 인식을 위하여 가장 먼저 해야할 것은 입력된 신호에서 노이즈 및 배경 소리로부터 실제 유효한 소리의 특징을 추출한다.The
특징벡터 추출부(220)는 오토 엔코더(Auto-encoder) 방식 및 MFCC(Mel Frequency Cepstral Coefficient) 방식 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출할 수 있다. The
오토 엔코더(Auto-encoder) 방식은 입력값과 같은 결과값을 출력하는 과정에서 해당 데이터의 중요 특징들을 도출해내는 알고리즘이다. 도 3은 특징벡터 추출부(220)에 해당하는 오토 엔코더(Auto-encoder) 방식의 기본 동작 구조를 예시하는 참조도이다.The auto-encoder method is an algorithm that derives important features of the data in the process of outputting the same result as the input value. 3 is a reference diagram illustrating a basic operation structure of an auto-encoder method corresponding to the
MFCC(Mel Frequency Cepstral Coefficient) 방식은 소리의 특징을 추출하는 기법으로, 입력된 소리의 일정 구간(Short time)으로 나누어, 이 구간에 대한 스펙트럼을 분석하여 특징을 추출하는 기법이다. 도 4는 특징벡터 추출부(220)에 해당하는 MFCC(Mel Frequency Cepstral Coefficient) 방식에 의한 음성 특징벡터의 추출을 예시하는 참조도이다.The MFCC (Mel Frequency Cepstral Coefficient) method is a technique for extracting a feature of a sound. The MFCC is a technique for extracting a feature by dividing it into a short time of the input sound and analyzing the spectrum of the section. 4 is a reference diagram illustrating an extraction of a speech feature vector by a Mel Frequency Cepstral Coefficient (MFCC) method corresponding to the
특징벡터 추출부(220)는 MFCC의 수행을 위해, 다음의 과정을 수행할 수 있다. 예를 들어, 특징벡터 추출부(220)는 입력 시간 도메인의 소리 신호를 작은 크기 프레임으로 자른다. 그 후, 특징벡터 추출부(220)는 각 프레임에 대하여 Power Spectrum의 Periodogram estimate (Periodogram Spectral Estimate)를 계산한다. 그 후, 특징벡터 추출부(220)는 산출한 Power Spectrum 에 Mel Filter bank를 적용하고, 각 필터에 에너지를 합한다. 그 후, 특징벡터 추출부(220)는 모든 필터 뱅크 에너지의 Log를 취한후에 DCT를 취한다. 그 후, 특징벡터 추출부(220)는 DCT를 취한 값에 Coefficients 2~13 만 남기고 나머지는 버린다.The
특징벡터 추출부(220)는 반려동물의 짖는 소리가 들리면 현재 입력되는 반려동물의 소리를 주파수 형태(사운드 파형)로 연속적으로 표시한다. 이때, 특징벡터 추출부(220)는 저장부(270)로부터 감정에 대응하는 기준 음성 특징벡터정보를 이용하여 음성 특징벡터를 추출할 수 있다. The
반려동물이 한번 짖을 때마다 입력 파형은 거의 포물선 형태로 표시된다. 그러나, 반려동물이 한번 짖는 것만으로 반려동물의 감정을 구분하기는 현실적으로 거의 불가능하다. 반려동물의 감정을 제대로 구분하기 위해서는 반려동물이 짖는 소리와 짖는 소리 사이의 시간 간격(소리 정보)을 파악해야 되며, 클라이언트(100)으로부터 제공되는 반려동물의 음성은 다음과 같은 벡터로 구성된다. 이러한 음성 벡터는 음성정보의 끝점검출 조건에 따라 같은 입력 소리라도 다른 벡터로 표현될 수 있기 때문에, 가능한한 동일한 끝점검출 조건이 적용되어야 하며, 미리 저장되어 있는 저장부(270)에도 동일한 끝점 검출 조건에서 테스트한 샘플이 제공되어야 한다. 벡터 형태로 반려동물이 한 번 짖음을 프레임(Frame)별 영교차율(ZCR)과 에너지(Energy)의 벡터값 형태로 표시할 수 있다 Each time the pet barks, the input waveform is almost parabolic. However, it is practically impossible to distinguish the pet's feelings just by barking once. In order to properly distinguish the emotions of the pets, it is necessary to grasp the time interval (sound information) between the barking sounds and the barking sounds of the pets, and the voice of the pets provided from the
감정상태 분석부(230)는 특징벡터 추출부(220)에서 추출된 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 반려동물에 대응하는 감정상태정보를 추출한다.The emotional
감정상태 분석부(230)는 DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출할 수 있다.The
RNN(Recurrent Neural Network) 알고리즘은 음성과 같은 연속적인 데이터를 입력받고 또한 이전의 입력값을 고려하여 결과값을 출력하는 알고리즘이다. 도 5는 감정상태 분석부(230)에 해당하는 RNN(Recurrent Neural Network) 알고리즘의 기본 동작 구조를 예시하는 참조도이다.The Recurrent Neural Network (RNN) algorithm receives continuous data such as voice and outputs the result value considering the previous input value. 5 is a reference diagram illustrating a basic operation structure of a recurrent neural network (RNN) algorithm corresponding to an
DNN(Deep Neural Network) 알고리즘은 심층 신경망에 해당하는 것으로, 입력층(input layer)과 출력층(output layer) 사이에 다중의 은닉층(hidden layer)을 포함하는 인공 신경망(ANN: Artificial Neural Network)을 의미한다. 도 6은 감정상태 분석부(230)에 해당하는 DNN(Deep Neural Network) 알고리즘의 기본 동작 구조를 예시하는 참조도이다.The deep neural network (DNN) algorithm corresponds to a deep neural network, which means an artificial neural network (ANN) including multiple hidden layers between an input layer and an output layer. do. 6 is a reference diagram illustrating a basic operation structure of a deep neural network (DNN) algorithm corresponding to the
심층 신경망은 다중의 은닉층을 포함하여 다양한 비선형적 관계를 학습할 수 있다. 심층 신경망은 알고리즘에 따라 비지도 학습 방법(unsupervised learning)을 기반으로 하는 심층 신뢰 신경망(DBN: Deep Belief Network), 심층 오토인코더(deep autoencoder) 등이 있고, 이미지와 같은 2차원 데이터 처리를 위한 합성곱 신경망(CNN: Convolutional Neural Network), 시계열 데이터 처리를 위한 순환 신경망(RNN: Recurrent Neural Network) 등이 있다. 따라서, 데이터들을 토대로 input(앞서 추출된 음성의 특징벡터)과 output(감정 상태)을 정하여 학습한다. 학습되면서 input layer와 hidden layer 1 사이처럼 각 layer 사이의 연결마다 가중치 값이 정해지고, 완성 후에 모델로 저장하여 다른 데이터가 입력되었을 때 적절한 결과가 출력될 수 있다.Deep neural networks can learn a variety of nonlinear relationships, including multiple hidden layers. Deep neural networks include Deep Belief Network (DBN), deep autoencoder (DBN) based on unsupervised learning, and synthesis for processing two-dimensional data such as images. Convolutional Neural Network (CNN), Recurrent Neural Network (RNN) for time series data processing. Therefore, based on the data, the input (feature vector of extracted speech) and the output (emotion state) are determined and learned. As it is learned, weight values are determined for each connection between layers, such as between input layer and hidden
또한, 감정상태 분석부(230)는 특징벡터 추출부(220)에서 검출된 음성 특징벡터와 저장부(270)에 저장되어 있는 감정별 음성 특징벡터의 패턴을 비교해서 감정을 추론할 수 있다. 이를 위해, 감정상태 분석부(230)는 DTW(Dynamic Time Warping), HMM(Hidden Marcov Model), ANN(Artificial Neural Network), Fuzzy 등의 패턴 비교 알고리즘을 단독으로 또는 두 개 이상 사용하여 가장 유사한 감정을 판단함으로써 반려동물에 대한 감정상태정보를 인식할 수 있다.In addition, the
도 7은 감정상태 분석부(230)가 저장부(260)에 저장된 반려동물의 다양한 감정상태정보 중에서 클라이언트(100)로부터 전송된 음성정보에 대응하는 감정상태정보를 추출하는 것을 예시하는 참조도이다. 도 7을 참조하면, 감정상태 분석부(230)는 반려동물의 감정을 요구(Demand), 반가움(Joy), 호기심(Curiosity), 외로움(Solitude), 경고(Warning), 화남(Woof), 두려움(Fear) 등의 감정 중에서 선택적으로 추론할 수 있다. 이를 위해, 감정상태 분석부(230)는 전술한 감정별 음성 특징벡터가 저장되어 있는 저장부(260)와 접속할 수 있다. 7 is a reference diagram illustrating that the emotion
사용자 인터페이스부(240)는 반려 동물들에 대한 설정 정보를 제공하기 위한 것으로, 환경 설정 버튼(예를 들어 종류(Species), 성별(Sex), 나이(Age), 흥미(Interest), 성격(Character)을 눌러서(S2000) 반려동물에 대한 각종 환경 조건(예를 들어 라브라도 리트리버(LabradorRetriever)/닥스훈트(Dachshund)/요크셔테리어(Yorkshire Terrier)/저먼 셰퍼드 도그(German Shepherd Dog)/골든 리트리버(Golden Retriever)/비글(Beagle)/복서(Boxer)/푸들(Poodle)/시추(Shih Tzu)/불독(Bulldog), 수컷/암컷(Male/Female), 나이(1~40), 잠(Sleep)/여행(Travel)/놀기(Play), 행복함(Happy)/온화함(Gentle)/신경질적임(Nervous)/사나움(Fierce)) 등을 입력할 수 있다.The
제어부(250)는 통신부(110), 특징벡터 추출부(120), 감정상태 분석부(130), 사용자인터페이스부(240) 등의 동작을 제어한다. 이를 위해, 제어부(250)는 중앙처리장치 (central processing unit (CPU)), 어플리케이션 프로세서 (application processor (AP)), 또는 커뮤니케이션 프로세서 (communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 제어부(160)는 예를 들면, 적어도 하나의 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. The
저장부(260)는 상기 특징벡터 추출부(210), 상기 감정상태 분석부(230), 사용자 인터페이스부(240)의 동작을 위한 데이터를 저장하고 있다. 이를 위해, 저장부(260)는 대표감정 분류값, 소리주파수 벡터, 소리간격 시간 벡터 등이 저장되어 있다. The
도 8은 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공방법을 설명하기 위한 일 실시예의 플로차트이다.8 is a flowchart of an embodiment for explaining a method for providing information on an emotional state of a companion animal according to the present invention.
먼저, 클라이언트는 반려동물의 음성정보를 수집하여 통역 서버로 전송한다(S300 단계).First, the client collects the voice information of the companion animal and transmits it to the interpretation server (step S300).
클라이언트는 반려동물의 음성 정보, 즉 짖는 소리 또는 스피치를 연속적으로 검출한다. 클라이언트는 연속적으로 검출된 소리를 시간순서로 정렬하고, 임의의 n차까지 계속적으로 소리를 벡터 형태로 검출하고, 검출된 음성정보를 통역 서버로 전송한다. 클라이언트는 반려동물의 짖는 소리에 대한 음성 정보를 검출하기 위해 수집된 아날로그 신호를 디지털 신호로 변환한 다음, 변환된 디지털 신호로부터 짖는 소리와 소리 구간 사이의 시간 간격인 소리 정보를 검출한다.The client continuously detects the pet's voice information, i.e., barking sound or speech. The client sorts the continuously detected sounds in chronological order, continuously detects the sounds in a vector form up to an nth order, and transmits the detected voice information to an interpreter server. The client converts the collected analog signal into a digital signal to detect the voice information of the pet's bark, and then detects the sound information, which is the time interval between the bark and the sound interval, from the converted digital signal.
S300 단계 후에, 통역 서버는 클라이언트로부터 전송된 음성정보에서 음성 특징벡터를 추출한다(S302 단계). 통역 서버는 오토 엔코더(Auto-encoder) 방식 및 MFCC(Mel Frequency Cepstral Coefficient) 방식 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출할 수 있다. 오토 엔코더(Auto-encoder) 방식은 입력값과 같은 결과값을 출력하는 과정에서 해당 데이터의 중요 특징들을 도출해내는 알고리즘이다. 또한, MFCC(Mel Frequency Cepstral Coefficient) 방식은 소리의 특징을 추출하는 기법으로, 입력된 소리의 일정 구간(Short time)으로 나누어, 이 구간에 대한 스펙트럼을 분석하여 특징을 추출하는 기법이다. After the step S300, the interpreter server extracts the voice feature vector from the voice information transmitted from the client (step S302). The interpretation server may extract the speech feature vector using any one of an auto-encoder method and a Mel Frequency Cepstral Coefficient (MFCC) method. The auto-encoder method is an algorithm that derives important features of the data in the process of outputting the same result as the input value. In addition, the MFCC (Mel Frequency Cepstral Coefficient) method is a technique of extracting a feature of a sound, and dividing it into a predetermined time (Short time) of the input sound, and is a technique of extracting a feature by analyzing the spectrum of the section.
S302 단계 후에, 통역 서버는 추출된 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 반려동물에 대응하는 감정상태정보를 추출한다(S304 단계).After the step S302, the interpretation server performs machine learning using the extracted voice feature vector as input data to extract the emotional state information corresponding to the companion animal (step S304).
통역 서버는 DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출할 수 있다.The interpretation server may extract the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.
RNN(Recurrent Neural Network) 알고리즘은 음성과 같은 연속적인 데이터를 입력받고 또한 이전의 입력값을 고려하여 결과값을 출력하는 알고리즘이다. DNN(Deep Neural Network) 알고리즘은 심층 신경망에 해당하는 것으로, 입력층(input layer)과 출력층(output layer) 사이에 다중의 은닉층(hidden layer)을 포함하는 인공 신경망(ANN: Artificial Neural Network)을 의미한다. The Recurrent Neural Network (RNN) algorithm receives continuous data such as voice and outputs the result value considering the previous input value. The deep neural network (DNN) algorithm corresponds to a deep neural network, which means an artificial neural network (ANN) including multiple hidden layers between an input layer and an output layer. do.
통역 서버는 검출된 음성 특징벡터와 감정별 음성 특징벡터의 패턴을 비교해서 감정을 추론할 수 있다. 이를 위해, 통역 서버는 DTW(Dynamic Time Warping), HMM(Hidden Marcov Model), ANN(Artificial Neural Network), Fuzzy 등의 패턴 비교 알고리즘을 단독으로 또는 두 개 이상 사용하여 가장 유사한 감정을 판단함으로써 반려동물에 대한 감정상태정보를 인식할 수 있다.The interpretation server may infer the emotion by comparing the detected speech feature vector and the pattern of the emotion-specific speech feature vector. For this purpose, the interpreter server determines the most similar emotions by using two or more pattern comparison algorithms such as Dynamic Time Warping (DTW), Hidden Marcov Model (HMM), Artificial Neural Network (ANN), and Fuzzy. Recognize emotional state information about.
S304 단계 후에, 통역 서버는 추출된 감정상태정보를 클라이언트로 전송한다(S306). 통역 서버는 감정상태정보를 유선 통신 또는 무선 통신을 이용해 클라이언트로 전송할 수 있다.After the step S304, the interpreter server transmits the extracted emotional state information to the client (S306). The interpretation server may transmit the emotional state information to the client by wire or wireless communication.
S306 단계 후에, 클라이언트는 통역 서버에서 전송된 감정상태정보를 출력한다(S308 단계). 클라이언트는 감정상태정보를 음성 신호 및 영상 신호 중 어느 하나로 출력할 수 있다. 클라이언트는 반려동물의 감정동작과 대화문장, 대화음성을 출력한다. 클라이언트는 2차원 이미지 파일형태를 연속적으로 플레이하여 3차원 동작 효과를 내거나 3차원 동작 애니메이션 파일을 구동시켜서 동작을 생성할 수 있다.After step S306, the client outputs the emotional state information transmitted from the interpretation server (step S308). The client may output the emotion state information as either a voice signal or an image signal. The client outputs the pet's emotional behavior, dialogue sentence, and dialogue voice. The client can continuously play the 2D image file form to produce a 3D motion effect or drive a 3D motion animation file to generate the motion.
본 발명의 반려동물의 감정상태 분석장치 및 방법은 상세한 설명을 통해 해당 프로그램을 다운로드 받아서 구현하는 아이폰/아이팟 터치에 적용된 예를 기재하였으나, 해당 프로그램이 설치된 전용 단말기 내지 스마트폰과 같은 각종 휴대용 통신 단말기를 사용하거나 종래 널리 보편화되어 있는 각종 게임기 등에 본 발명이 적용될 수 있음은 당업자에게 자명한 사항이라 할 것이다.Apparatus and method for analyzing the emotional state of a companion animal according to the present invention described an example applied to the iPhone / iPod touch to download and implement the program through a detailed description, but various portable communication terminals such as a dedicated terminal or a smart phone installed with the program It will be apparent to those skilled in the art that the present invention can be applied to various game machines or the like which are widely used in the related art.
이와 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술분야에 있어 통상의 지식을 가진 자에게는 자명한 것이다.As described above, a preferred embodiment according to the present invention has been described, and the fact that the present invention can be embodied in other specific forms in addition to the above-described embodiments without departing from the spirit or scope thereof is known to those skilled in the art. It is obvious to those who have it.
그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하며, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수 있다.Therefore, the above-described embodiments should be regarded as illustrative rather than restrictive, and thus, the present invention is not limited to the above description but may be modified within the scope of the appended claims and their equivalents.
10: 반려동물의 감정상태에 대한 정보 제공 시스템
100: 클라이언트
200: 통역 서버
210: 통신부
220: 특징벡터 추출부
230: 감정상태 분석부
240: 사용자 인터페이스부
250: 제어부
260: 저장부10: System for providing information about the emotional state of pets
100: client
200: interpreter server
210: communication unit
220: feature vector extraction unit
230: emotional state analysis unit
240: user interface unit
250: control unit
260: storage unit
Claims (8)
상기 클라이언트로부터 상기 수집된 음성정보를 수신하고, 상기 수신된 음성정보에 기초하여상기 반려동물의 감정상태정보를 분석하여 상기 클라이언트로 전송하는 통역 서버를 포함하고,
상기 통역 서버는,
상기 클라이언트로부터 전송된 상기 음성정보를 수신하는 통신부;
상기 수신된 음성정보에서 음성 특징벡터를 추출하는 특징벡터 추출부;
상기 특징벡터 추출부에서 추출된 상기 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 상기 반려동물에 대응하는 감정상태정보를 추출하는 감정상태 분석부;
상기 통신부, 상기 특징벡터 추출부, 상기 감정상태 분석부, 상기 상태정보 출력부의 동작을 제어하는 제어부; 및
상기 특징벡터 추출부, 상기 감정상태 분석부, 상기 상태정보 출력부 및 상기 제어부의 동작을 위한 데이터를 저장하는 저장부를 포함하고,
상기 통신부가 상기 제어부의 제어에 따라 상기 감정상태 분석부에서 분석된 상기 감정상태정보를 상기 클라이언트로 전송하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공 시스템.Client for collecting and transmitting the voice information of the companion animal; And
Receiving the collected voice information from the client, and based on the received voice information, the interpreting server for analyzing the emotional state information of the companion animal and transmits to the client,
The interpreter server,
A communication unit for receiving the voice information transmitted from the client;
A feature vector extracting unit extracting a voice feature vector from the received voice information;
An emotional state analyzing unit configured to extract the emotional state information corresponding to the companion animal by performing a machine learning using the voice feature vector extracted by the feature vector extracting unit as input data;
A controller for controlling operations of the communication unit, the feature vector extracting unit, the emotional state analyzing unit, and the state information output unit; And
A storage unit for storing data for the operation of the feature vector extracting unit, the emotional state analyzing unit, the state information output unit, and the control unit;
And the communication unit transmits the emotion state information analyzed by the emotion state analysis unit to the client under the control of the controller.
상기 특징벡터 추출부는,
오토 엔코더(Auto-encoder) 및 MFCC(Mel Frequency Cepstral Coefficient) 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공 시스템.The method according to claim 1,
The feature vector extraction unit,
An information providing system for an emotional state of a companion animal, comprising extracting the speech feature vector using any one of an auto-encoder and a Mel Frequency Cepstral Coefficient (MFCC).
상기 감정상태 분석부는,
DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공 시스템.The method according to claim 1,
The emotional state analysis unit,
An information providing system for an emotional state of a companion animal, comprising extracting the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.
상기 통신부는,
상기 감정상태정보를 유선 통신 또는 무선 통신을 이용해 상기 클라이언트로 전송하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공 시스템.The method according to claim 1,
The communication unit,
And the emotional state information is transmitted to the client by wire or wireless communication.
상기 통역 서버가 상기 클라이언트로부터 전송된 음성정보에서 음성 특징벡터를 추출하는 단계;
상기 통역 서버가 상기 추출된 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 상기 반려동물에 대응하는 감정상태정보를 추출하는 단계;
상기 통역 서버가 상기 추출된 감정상태정보를 상기 클라이언트로 전송하는 단계; 및
상기 클라이언트가 상기 수신된 감정상태정보를 출력하는 단계를 포함하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공방법.Collecting, by the client, voice information of the companion animal and transmitting it to an interpretation server;
Extracting, by the interpreter server, a speech feature vector from the speech information transmitted from the client;
Extracting, by the interpreter server, emotional state information corresponding to the companion animal by performing machine learning using the extracted voice feature vector as input data;
Transmitting, by the interpreter server, the extracted emotional state information to the client; And
And providing, by the client, the received emotional state information to the emotional state of the companion animal.
상기 음성 특징벡터를 추출하는 단계는,
오토 엔코더(Auto-encoder) 및 MFCC(Mel Frequency Cepstral Coefficient) 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공방법.The method according to claim 5,
Extracting the speech feature vector,
Method for providing information on the emotional state of the companion animal, characterized in that for extracting the speech feature vector using any one of an auto-encoder and an Mel Frequency Cepstral Coefficient (MFCC).
상기 감정상태정보를 추출하는 단계는,
DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공방법.The method according to claim 5,
Extracting the emotional state information,
A method for providing information on an emotional state of a companion animal, comprising extracting the emotional state information using a machine learning algorithm of any one of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.
상기 감정상태정보를 전송하는 단계는,
상기 감정상태정보를 유선 통신 또는 무선 통신을 이용해 상기 클라이언트로 전송하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공방법.
The method according to claim 5,
Transmitting the emotional state information,
And providing the emotional state information to the client using wired or wireless communication.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180050589A KR20190126552A (en) | 2018-05-02 | 2018-05-02 | System and method for providing information for emotional status of pet |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180050589A KR20190126552A (en) | 2018-05-02 | 2018-05-02 | System and method for providing information for emotional status of pet |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190126552A true KR20190126552A (en) | 2019-11-12 |
Family
ID=68577328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180050589A KR20190126552A (en) | 2018-05-02 | 2018-05-02 | System and method for providing information for emotional status of pet |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190126552A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210099952A (en) * | 2020-02-05 | 2021-08-13 | 서울과학기술대학교 산학협력단 | Smart Home Care System Using Emotional and Status Analysing of Compansion Animal |
KR20210100458A (en) | 2020-02-06 | 2021-08-17 | 주식회사 커넥트닷 | Method and server for pet health care based on machine learning |
KR102563052B1 (en) * | 2022-03-02 | 2023-08-03 | 주식회사 아몬드 | Serviceing system for manage health of companion animal and method thereof |
-
2018
- 2018-05-02 KR KR1020180050589A patent/KR20190126552A/en unknown
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210099952A (en) * | 2020-02-05 | 2021-08-13 | 서울과학기술대학교 산학협력단 | Smart Home Care System Using Emotional and Status Analysing of Compansion Animal |
KR20210100458A (en) | 2020-02-06 | 2021-08-17 | 주식회사 커넥트닷 | Method and server for pet health care based on machine learning |
KR102563052B1 (en) * | 2022-03-02 | 2023-08-03 | 주식회사 아몬드 | Serviceing system for manage health of companion animal and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4166153B2 (en) | Apparatus and method for discriminating emotion of dog based on analysis of voice characteristics | |
JP6617053B2 (en) | Utterance semantic analysis program, apparatus and method for improving understanding of context meaning by emotion classification | |
CN107818798B (en) | Customer service quality evaluation method, device, equipment and storage medium | |
Cai et al. | Sensor network for the monitoring of ecosystem: Bird species recognition | |
CN104036776A (en) | Voice emotion recognition method applied to mobile terminal | |
EP3618063A1 (en) | Voice interaction system, voice interaction method, program, learning model generation apparatus, and learning model generation method | |
CN111461337B (en) | Data processing method, device, terminal equipment and storage medium | |
CN110047510A (en) | Audio identification methods, device, computer equipment and storage medium | |
CN112016367A (en) | Emotion recognition system and method and electronic equipment | |
JP2022028772A5 (en) | Computing device, speech processing method, and program for analyzing human speech based on audio data and image data | |
CN108010526A (en) | Method of speech processing and device | |
KR20190126552A (en) | System and method for providing information for emotional status of pet | |
WO2019119279A1 (en) | Method and apparatus for emotion recognition from speech | |
KR101984283B1 (en) | Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof | |
CN110991238A (en) | Speech auxiliary system based on speech emotion analysis and micro-expression recognition | |
US20180308501A1 (en) | Multi speaker attribution using personal grammar detection | |
CN106502382B (en) | Active interaction method and system for intelligent robot | |
CN113947376B (en) | C/S (computer/subscriber line) card punching method and device based on multiple biological characteristics | |
KR20190125668A (en) | Apparatus and method for analyzing emotional status of pet | |
CN109841221A (en) | Parameter adjusting method, device and body-building equipment based on speech recognition | |
Goussha et al. | HybridMouse: a hybrid convolutional-recurrent neural network-based model for identification of mouse ultrasonic vocalizations | |
CN109074809B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
CN110197103B (en) | Method, device, equipment and storage medium for human-animal interaction | |
JP2020067562A (en) | Device, program and method for determining action taking timing based on video of user's face | |
CN115905977A (en) | System and method for monitoring negative emotion in family sibling interaction process |