[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20190126552A - System and method for providing information for emotional status of pet - Google Patents

System and method for providing information for emotional status of pet Download PDF

Info

Publication number
KR20190126552A
KR20190126552A KR1020180050589A KR20180050589A KR20190126552A KR 20190126552 A KR20190126552 A KR 20190126552A KR 1020180050589 A KR1020180050589 A KR 1020180050589A KR 20180050589 A KR20180050589 A KR 20180050589A KR 20190126552 A KR20190126552 A KR 20190126552A
Authority
KR
South Korea
Prior art keywords
emotional state
feature vector
unit
information
client
Prior art date
Application number
KR1020180050589A
Other languages
Korean (ko)
Inventor
서현민
Original Assignee
서현민
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서현민 filed Critical 서현민
Priority to KR1020180050589A priority Critical patent/KR20190126552A/en
Publication of KR20190126552A publication Critical patent/KR20190126552A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Psychiatry (AREA)
  • Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computational Linguistics (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Telephonic Communication Services (AREA)

Abstract

According to the present invention, a system for providing information for an emotional state of a pet comprises: a client to collect voice information of a pet to transmit the voice information; and an interpretation server to receive the collected voice information from the client, and analyze emotional state information of the pet based on the received voice information to transmit the emotional state information to the client. The interpretation server includes: a communication unit to receive the voice information transmitted from the client; a feature vector extraction unit to extract a voice feature vector from the received voice information; an emotional state analysis unit to perform machine learning using the voice feature vector extracted by the feature vector extraction unit as input data to extract emotional state information corresponding to the pet; a control unit to control operations of the communication unit, the feature vector extraction unit, the emotional state analysis unit, and a state information output unit; and a storage unit to store data for operations of the feature vector extraction unit, the emotional state analysis unit, the state information output unit, and the control unit. The communication unit transmits the emotional state information analyzed by the emotional state analysis unit to the client in accordance with control of the control unit.

Description

반려동물의 감정상태에 대한 정보 제공 시스템 및 방법{System and method for providing information for emotional status of pet}System and method for providing information about emotional status of pets {System and method for providing information for emotional status of pet}

본 발명은 반려동물과의 교감을 위한 기술에 관한 것으로, 더욱 상세하게는 반려동물이 감정상태를 분석하여 이를 제공하기 위한 기술에 관한 것이다.The present invention relates to a technique for communicating with a companion animal, and more particularly, to a technology for providing a companion animal by analyzing an emotional state.

최근, 반려동물의 음성정보(스피치)로 반려동물의 감정이나 상태를 알고자 하는 연구가 진행되면서 반려 동물의 소리를 분석하는 장치 및 프로그램들이 등장하고는 있다. In recent years, as researches on the companion animal's voice information (speech) have been conducted to find out the emotions and conditions of the companion animal, devices and programs for analyzing the animal's sound have been introduced.

이때, 반려동물의 소리를 분석하는 방법은 주파수를 분석하여 분석하는 방법으로 이루어지고 있다. 이와 관련하여, 반려 동물의 소리로부터 주파수 특성을 분석하여 미리 설정된 특정 상태에 있다고 판단되는 경우 사용자 단말기로 자동으로 화상 전화 연결을 시도하며, 전자 기기 또는 표시부의 화면에 사용자 화상 정보를 출력시키되, 화상 정보 주위에 미리 설정된 주기로 변화하는 컬러 스펙트럼 영상을 함께 제공하는 기술 등이 개시되어 있다.At this time, the method of analyzing the sound of the companion animal is made by analyzing the frequency. In this regard, when it is determined that the frequency characteristics are determined from the sound of the companion animal and determined to be in a predetermined preset state, video call connection is automatically made to the user terminal, and the user image information is output on the screen of the electronic device or the display unit. Disclosed is a technique for providing a color spectrum image that changes at predetermined intervals around information.

그러나, 반려동물에 대한 소리를 분석한다고 하더도, 단순 감정을 파악하는 것일 뿐, 정확한 분석 방법이 제시되고 있지 않아 단지 호기심을 만족시키는데 그치고 있다.However, even if you analyze the sound of the pets, it is only to grasp the simple emotions, it is only to satisfy the curiosity because no accurate analysis method is proposed.

특히, 반려 동물의 음성 정보로부터 주파수 특성을 분석하는 경우, 주파수가 겹치는 감정에 따른 소리가 존재하는 경우에는 정확한 분석이 어렵다. 또한, 감정을 정확하게 분석하기 위해서는 주파수 뿐만 아니라 종별, 나이별, 신체정보별로 달라지는 주파수나 소리를 정규화하는 과정이 요구되는데, 이러한 과정이 포함되지 않아 정확한 분석이 용이하지 않다.In particular, when analyzing the frequency characteristics from the voice information of the companion animal, it is difficult to accurately analyze when there is a sound due to the overlapping emotion. In addition, in order to accurately analyze emotions, a process of normalizing frequencies or sounds that vary according to types, ages, and body information as well as frequencies is required. Since such processes are not included, accurate analysis is not easy.

본 발명이 해결하고자 하는 과제는 반려동물이 짖는 소리 즉, 음성정보(스피치)를 입력받아서, 기계학습을 통한 반복적인 학습을 통해 반려동물에 대한 감정상태를 파악하여, 각각의 클라이언트에게 제공할 수 있도록 하는 반려동물의 감정상태에 대한 정보 제공 시스템 및 방법에 관한 것이다.The problem to be solved by the present invention is to receive the barking sound of the pet, that is, voice information (speech), it is possible to grasp the emotional state of the companion animal through repetitive learning through the machine learning, it can be provided to each client The present invention relates to a system and method for providing information on the emotional state of a companion animal.

상기 과제를 해결하기 위한 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공 시스템은 반려동물의 음성정보를 수집하여 전송하는 클라이언트; 및 상기 클라이언트로부터 상기 수집된 음성정보를 수신하고, 상기 수신된 음성정보에 기초하여상기 반려동물의 감정상태정보를 분석하여 상기 클라이언트로 전송하는 통역 서버를 포함하고, 상기 통역 서버는, 상기 클라이언트로부터 전송된 상기 음성정보를 수신하는 통신부; 상기 수신된 음성정보에서 음성 특징벡터를 추출하는 특징벡터 추출부; 상기 특징벡터 추출부에서 추출된 상기 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 상기 반려동물에 대응하는 감정상태정보를 추출하는 감정상태 분석부; 상기 통신부, 상기 특징벡터 추출부, 상기 감정상태 분석부, 상기 상태정보 출력부의 동작을 제어하는 제어부; 및 상기 특징벡터 추출부, 상기 감정상태 분석부, 상기 상태정보 출력부 및 상기 제어부의 동작을 위한 데이터를 저장하는 저장부를 포함하고, 상기 통신부가 상기 제어부의 제어에 따라 상기 감정상태 분석부에서 분석된 상기 감정상태정보를 상기 클라이언트로 전송하는 것을 특징으로 한다.The system for providing information on the emotional state of the companion animal according to the present invention for solving the problem is to collect and transmit the voice information of the companion animal; And an interpreter server for receiving the collected voice information from the client and analyzing and transmitting the emotional state information of the companion animal to the client based on the received voice information. A communication unit for receiving the transmitted voice information; A feature vector extracting unit extracting a voice feature vector from the received voice information; An emotional state analyzing unit configured to extract the emotional state information corresponding to the companion animal by performing a machine learning using the voice feature vector extracted by the feature vector extracting unit as input data; A controller for controlling operations of the communication unit, the feature vector extracting unit, the emotional state analyzing unit, and the state information output unit; And a storage unit which stores data for operations of the feature vector extractor, the emotion state analyzer, the state information output unit, and the controller, wherein the communication unit analyzes the emotion state analyzer under control of the controller. The emotion state information is transmitted to the client.

상기 특징벡터 추출부는, 오토 엔코더(Auto-encoder) 및 MFCC(Mel Frequency Cepstral Coefficient) 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출하는 것을 특징으로 한다.The feature vector extractor extracts the speech feature vector using any one of an auto-encoder and a Mel Frequency Cepstral Coefficient (MFCC).

상기 감정상태 분석부는, DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출하는 것을 특징으로 한다.The emotional state analysis unit may extract the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.

상기 통신부는, 상기 감정상태정보를 유선 통신 또는 무선 통신을 이용해 상기 클라이언트로 전송하는 것을 특징으로 한다.The communication unit may transmit the emotion state information to the client through wired communication or wireless communication.

상기 과제를 해결하기 위한 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공방법은 클라이언트가 반려동물의 음성정보를 수집하여 통역 서버로 전송하는 단계; 상기 통역 서버가 상기 클라이언트로부터 전송된 음성정보에서 음성 특징벡터를 추출하는 단계; 상기 통역 서버가 상기 추출된 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 상기 반려동물에 대응하는 감정상태정보를 추출하는 단계; 및 상기 통역 서버가 상기 추출된 감정상태정보를 상기 클라이언트로 전송하는 단계; 및 상기 클라이언트가 상기 수신된 감정상태정보를 출력하는 단계를 포함하는 것을 특징으로 한다.The method for providing information on the emotional state of the companion animal according to the present invention for solving the above problems comprises the steps of collecting the voice information of the companion animal to transmit to the interpretation server; Extracting, by the interpreter server, a speech feature vector from the speech information transmitted from the client; Extracting, by the interpreter server, emotional state information corresponding to the companion animal by performing machine learning using the extracted voice feature vector as input data; And transmitting, by the interpreter server, the extracted emotional state information to the client. And outputting, by the client, the received emotional state information.

상기 음성 특징벡터를 추출하는 단계는, 오토 엔코더(Auto-encoder) 및 MFCC(Mel Frequency Cepstral Coefficient) 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출하는 것을 특징으로 한다.The extracting of the speech feature vector may include extracting the speech feature vector using any one of an auto-encoder and a Mel Frequency Cepstral Coefficient (MFCC).

상기 감정상태정보를 추출하는 단계는, DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출하는 것을 특징으로 한다.The extracting of the emotional state information may include extracting the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.

상기 감정상태정보를 전송하는 단계는, 상기 감정상태정보를 유선 통신 또는 무선 통신을 이용해 상기 클라이언트로 전송하는 것을 특징으로 한다.The transmitting of the emotional state information may include transmitting the emotional state information to the client through wired communication or wireless communication.

본 발명에 따르면, 반려동물의 음성정보(스피치)를 입력 데이터로 하여 반복적인 기계학습을 통해 반려동물에 대한 감정상태를 파악하고, 이를 각 클라이언트에게 제공함으로써, 반려동물의 보호자가 자신의 반려동물에 대한 감정상태를 정확히 인식할 수 있으며, 반려동물의 현재 상태를 정확히 파악할 수 있다. According to the present invention, by using the voice information (speech) of the companion animal as input data, the emotional state of the companion animal is identified through repeated machine learning and provided to each client, whereby the guardian of the companion animal has his or her companion animal. Can accurately recognize the emotional state of the, and can pinpoint the current state of the pet.

또한, 반려동물의 보호자가 반려동물의 감정 상태를 정확히 인식함으로써, 인식된 감정 상태에 대응하여 반려동물로 하여금 올바른 행동 또는 반응이 유도될 수 있도록 반려동물에 대한 적절한 명령을 제시할 수 있다. In addition, the caregiver of the pet can correctly recognize the emotional state of the pet, it is possible to present an appropriate command to the pet to allow the pet to induce the correct behavior or response in response to the recognized emotional state.

도 1은 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공 시스템을 설명하기 위한 일 실시예의 시스템 블록도이다.
도 2는 도 1에 도시된 통역 서버의 세부 구성요소를 설명하기 위한 일 실시예의 구성 블록도이다.
도 3은 특징벡터 추출부에 해당하는 오토 엔코더(Auto-encoder) 방식의 기본 동작 구조를 예시하는 참조도이다.
도 4는 특징벡터 추출부에 해당하는 MFCC(Mel Frequency Cepstral Coefficient) 방식에 의한 음성 특징벡터의 추출을 예시하는 참조도이다.
도 5는 감정상태 분석부에 해당하는 RNN(Recurrent Neural Network) 알고리즘의 기본 동작 구조를 예시하는 참조도이다.
도 6은 감정상태 분석부에 해당하는 DNN(Deep Neural Network) 알고리즘의 기본 동작 구조를 예시하는 참조도이다.
도 7은 감정상태 분석부가 저장부에 저장된 반려동물의 다양한 감정상태정보 중에서 클라이언트로부터 전송된 음성정보에 대응하는 감정상태정보를 추출하는 것을 예시하는 참조도이다.
도 8은 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공방법을 설명하기 위한 일 실시예의 플로차트이다.
1 is a system block diagram of an embodiment for explaining a system for providing information on an emotional state of a companion animal according to the present invention.
FIG. 2 is a block diagram illustrating an exemplary embodiment for describing the detailed components of the interpreter server shown in FIG. 1.
3 is a reference diagram illustrating a basic operation structure of an auto-encoder method corresponding to a feature vector extracting unit.
4 is a reference diagram illustrating an extraction of a speech feature vector by a Mel Frequency Cepstral Coefficient (MFCC) method corresponding to a feature vector extractor.
5 is a reference diagram illustrating a basic operation structure of a Recurrent Neural Network (RNN) algorithm corresponding to an emotional state analyzer.
6 is a reference diagram illustrating a basic operation structure of a deep neural network (DNN) algorithm corresponding to an emotional state analyzer.
7 is a reference diagram illustrating that the emotion state analysis unit extracts the emotion state information corresponding to the voice information transmitted from the client from various emotion state information of the pet stored in the storage unit.
8 is a flowchart of an embodiment for explaining a method for providing information on an emotional state of a companion animal according to the present invention.

이하, 본 발명의 목적이 구체적으로 실현될 수 있는 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 아래의 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래의 실시예들로 한정되는 것은 아니다. 오히려, 이들 실시예는 본 개시를 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.  Embodiments of the present invention are provided to more fully explain the present invention to those skilled in the art, and the following embodiments may be modified in many different forms, the scope of the present invention It is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.

본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는"포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다.  The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular forms "a", "an" and "the" may include the plural forms as well, unless the context clearly indicates otherwise. Also, as used herein, "comprise" and / or "comprising" specifies the presence of the mentioned shapes, numbers, steps, actions, members, elements and / or groups of these. It is not intended to exclude the presence or the addition of one or more other shapes, numbers, acts, members, elements and / or groups. As used herein, the term "and / or" includes any and all combinations of one or more of the listed items.

본 명세서에서 제1, 제2 등의 용어가 다양한 부재, 영역 및/또는 부위들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부위들은 이들 용어에 의해 한정되어서는 안됨은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역 또는 부위를 다른 부재, 영역 또는 부위와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역 또는 부위는 본 발명의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역 또는 부위를 지칭할 수 있다.Although the terms first, second, etc. are used herein to describe various members, regions, and / or portions, it is obvious that these members, components, regions, layers, and / or portions should not be limited by these terms. Do. These terms do not imply any particular order, up or down, or superiority, and are only used to distinguish one member, region or region from another member, region or region. Accordingly, the first member, region, or region described below may refer to the second member, region, or region without departing from the teachings of the present invention.

이하, 본 발명의 실시예들은 본 발명의 실시예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 제조 기술 및/또는 공차에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명의 실시예는 본 명세서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 되며, 예를 들면 제조상 초래되는 형상의 변화를 포함하여야 한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings schematically showing embodiments of the present invention. In the drawings, for example, variations in the shape shown may be expected, depending on manufacturing techniques and / or tolerances. Accordingly, embodiments of the present invention should not be construed as limited to the specific shapes of the regions shown herein, but should include, for example, changes in shape resulting from manufacturing.

도 1은 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공 시스템(10)을 설명하기 위한 일 실시예의 시스템 블록도이다.1 is a system block diagram of an embodiment for explaining the information providing system 10 for the emotional state of a companion animal according to the present invention.

도 1을 참조하면, 정보 제공 시스템(10)은 클라이언트(100) 및 통역 서버(200)를 포함한다. Referring to FIG. 1, the information providing system 10 includes a client 100 and an interpreter server 200.

클라이언트(100)는 반려동물의 음성정보를 수집하여 통역 서버(200)로 전송한다. The client 100 collects the voice information of the companion animal and transmits it to the interpreter server 200.

클라이언트(100)는 반려동물의 음성 정보, 즉 짖는 소리 또는 스피치를 연속적으로 검출한다. 이를 위해, 클라이언트(100)는 음성정보 수집을 위한 마이크를 포함할 수 있다. 클라이언트(100)는 연속적으로 검출된 소리를 시간순서로 정렬하고, 1차 검출된 소리(sound1), 1차 검출된 소리와 2차 검출된 소리의 시간 간격(delay1), 2차 검출된 소리(sound2), 2차 검출된 소리와 3차 검출된 소리의 시간 간격(delay2), 3차 검출된 소리(sound3) 순으로 임의의 n차까지 계속적으로 소리를 벡터 형태로 저장할 수 있다. 클라이언트(100)에 의해 반려동물의 연속적인 짖는 소리로부터 반려동물의 소리를 실시간 검출하여 감정을 분석하기 때문에 단순히 한번의 짖는 소리로 감정을 분석하는 방법 보다 더욱 정확하게 반려동물의 감정을 분석하기 위한 정보를 수집할 수 있다.The client 100 continuously detects the voice information of the pet, that is, the barking sound or the speech. To this end, the client 100 may include a microphone for collecting voice information. The client 100 arranges the continuously detected sounds in chronological order, and includes the first detected sound (sound1), the time interval (delay1) of the first detected sound and the second detected sound, and the second detected sound ( sound2), the time interval delay2 of the second and third detected sounds, and the third detected sound (sound3) may be continuously stored in the form of a vector up to an nth order. Since the client 100 analyzes the emotion of the companion animal in real time by detecting the companion animal's sound from the continuous barking of the pet, information for analyzing the emotion of the companion animal more accurately than simply analyzing the emotion with a single barking sound. Can be collected.

클라이언트(100)는 반려동물의 짖는 소리에 대한 소리 정보를 검출하기 위해 입력된 아날로그 신호를 디지털 신호로 변환한 다음, 변환된 디지털 신호로부터 짖는 소리와 소리 구간 사이의 시간 간격인 소리 정보를 검출한다. 그 후, 클라이언트(100)는 수집된 음성정보를 통신망(미도시)을 이용하여 통역 서버(200)로 전송한다. The client 100 converts the input analog signal into a digital signal in order to detect sound information of the pet's barking sound, and then detects the sound information, which is the time interval between the barking sound and the sound interval, from the converted digital signal. . Thereafter, the client 100 transmits the collected voice information to the interpretation server 200 using a communication network (not shown).

통신망은 클라이언트(100)와 통역 서버(200) 사이에서 데이터를 송수신하기 위한 유선 통신망 또는 무선 통신망을 포함한다. 그 후, 통신망은 통역 서버(200)로부터 반려동물에 대한 감정상태정보를 수신하면, 이를 클라이언트(100)로 전송한다.The communication network includes a wired communication network or a wireless communication network for transmitting and receiving data between the client 100 and the interpretation server 200. Thereafter, when the communication network receives the emotional state information about the companion animal from the interpreter server 200, it transmits it to the client 100.

클라이언트(100)는 통신망을 통해 수신된 감정상태정보를 출력한다. 클라이언트(100)는 감정상태정보를 음성 신호 및 영상 신호 중 어느 하나로 출력할 수 있다. 클라이언트(100)는 감정상태정보로서 반려동물의 감정동작과 대화문장, 대화음성을 출력할 수 있다. 클라이언트(100)는 2차원 이미지 파일형태를 연속적으로 플레이하여 3차원 동작 효과를 내거나 3차원 동작 애니메이션 파일을 구동시켜서 동작을 생성할 수 있다.The client 100 outputs the emotional state information received through the communication network. The client 100 may output the emotion state information as one of an audio signal and an image signal. The client 100 may output the emotional motion, the dialogue sentence, and the dialogue voice of the companion animal as the emotion state information. The client 100 may continuously play a 2D image file form to produce a 3D motion effect or drive a 3D motion animation file to generate a motion.

클라이언트(100)는 현재 반려동물 감정과 현재 반려동물의 설정 환경에 의해 사람의 대화로 통역하게 되는데, 통역하는 방법은 현재 반려동물의 종류(Species), 성별(Sex), 나이(Age), 흥미(Interest), 성격(Character)과 같은 조건에 따라 대화를 설정한 대화 및 대화음성을 이용할 수 있다.The client 100 is interpreted as a human conversation by the current pet's emotion and the current pet's setting environment, and the method of interpreting the current pet's type (Species), sex (Sex), age (Age) and interest You can use the dialogue and the dialogue voice that set up the dialogue according to conditions such as (Interest) and Personality (Character).

상태정보 출력부(140)는 반려동물의 감정과 현재 반려동물의 설정 환경에 더하여, 현재시간이나 날씨 등의 다른 조건에 의해서 규칙기반으로 사람의 대화를 생성할 수 있다.The status information output unit 140 may generate a conversation of a person based on rules based on other conditions such as current time or weather, in addition to the pet's emotion and the current pet's setting environment.

통역 서버(200)는 클라이언트(100)로부터 제공된 음성정보를 수신하고, 상기 수신된 음성정보에 기초하여 상기 반려동물의 감정상태정보를 분석하여 상기 클라이언트(100)로 전송한다. The interpretation server 200 receives the voice information provided from the client 100, analyzes the emotional state information of the companion animal based on the received voice information, and transmits it to the client 100.

도 2는 도 1에 도시된 통역 서버(200)의 세부 구성요소를 설명하기 위한 일 실시예의 구성 블록도이다.FIG. 2 is a block diagram illustrating an exemplary embodiment for describing the detailed components of the interpreter server 200 illustrated in FIG. 1.

도 2를 참조하면, 반려동물의 감정상태 분석장치(200)는 통신부(210), 특징벡터 추출부(220), 감정상태 분석부(230), 사용자 인터페이스부(240), 제어부(250), 저장부(260) 등을 포함할 수 있다.Referring to FIG. 2, the emotion state analysis device 200 of the companion animal includes a communication unit 210, a feature vector extractor 220, an emotion state analysis unit 230, a user interface unit 240, a controller 250, The storage unit 260 may be included.

통신부(210)는 클라이언트(100)에서 제공된 음성정보를 수신할 수 있다. 이를 위해, 통신부는, 유선 통신망 또는 무선 통신망과 접속할 수 있는 유선 통신모듈 또는 무선 통신모듈을 포함할 수 있다. 유선 통신모듈은 유선 인터넷, LAN 등을 지원하는 모듈일 수 있다. 또한, 무선 통신모듈은 WiFi(wireless fidelity)와 같은 무선인터넷, WiBro(wireless broadband internet) 또는 WiMax(world interoperability for microwave access)와 같은 휴대인터넷, GSM(global system for mobile communication) 또는 CDMA(code division multiple access)와 같은 2G 이동통신망, WCDMA(wideband code division multiple access) 또는 CDMA2000과 같은 3G 이동통신망, HSDPA(high speed downlink packet access) 또는 HSUPA(high speed uplink packet access)와 같은 3.5G 이동통신망, LTE(long term evolution)망 또는 LTE-Advanced망과 같은 4G 이동통신망, 및 5G 이동통신망 등을 지원하는 모듈일 수 있다.The communication unit 210 may receive voice information provided from the client 100. To this end, the communication unit may include a wired communication module or a wireless communication module that can be connected to a wired communication network or a wireless communication network. The wired communication module may be a module that supports wired Internet, LAN, or the like. In addition, the wireless communication module may be a wireless Internet such as wireless fidelity (WiFi), a mobile Internet such as wireless broadband internet (WiBro) or world interoperability for microwave access (WiMax), a global system for mobile communication (GSM) or code division multiple (CDMA). 2G mobile networks such as access, wideband code division multiple access (WCDMA) or 3G mobile networks such as CDMA2000, 3.5G mobile networks such as high speed downlink packet access (HSDPA) or high speed uplink packet access (HSUPA), LTE ( 4G mobile communication network such as long term evolution) or LTE-Advanced network, and 5G mobile communication network.

특징벡터 추출부(220)는 통신부(210)에서 수신된 상기 음성정보에서 음성 특징벡터를 추출한다. 특징벡터 추출부(220)는 음성 인식을 위하여 가장 먼저 해야할 것은 입력된 신호에서 노이즈 및 배경 소리로부터 실제 유효한 소리의 특징을 추출한다.The feature vector extractor 220 extracts a voice feature vector from the voice information received from the communication unit 210. The feature vector extractor 220 extracts a feature of the actual valid sound from the noise and the background sound in the input signal.

특징벡터 추출부(220)는 오토 엔코더(Auto-encoder) 방식 및 MFCC(Mel Frequency Cepstral Coefficient) 방식 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출할 수 있다. The feature vector extractor 220 may extract the speech feature vector using any one of an auto-encoder method and a Mel Frequency Cepstral Coefficient (MFCC) method.

오토 엔코더(Auto-encoder) 방식은 입력값과 같은 결과값을 출력하는 과정에서 해당 데이터의 중요 특징들을 도출해내는 알고리즘이다. 도 3은 특징벡터 추출부(220)에 해당하는 오토 엔코더(Auto-encoder) 방식의 기본 동작 구조를 예시하는 참조도이다.The auto-encoder method is an algorithm that derives important features of the data in the process of outputting the same result as the input value. 3 is a reference diagram illustrating a basic operation structure of an auto-encoder method corresponding to the feature vector extractor 220.

MFCC(Mel Frequency Cepstral Coefficient) 방식은 소리의 특징을 추출하는 기법으로, 입력된 소리의 일정 구간(Short time)으로 나누어, 이 구간에 대한 스펙트럼을 분석하여 특징을 추출하는 기법이다. 도 4는 특징벡터 추출부(220)에 해당하는 MFCC(Mel Frequency Cepstral Coefficient) 방식에 의한 음성 특징벡터의 추출을 예시하는 참조도이다.The MFCC (Mel Frequency Cepstral Coefficient) method is a technique for extracting a feature of a sound. The MFCC is a technique for extracting a feature by dividing it into a short time of the input sound and analyzing the spectrum of the section. 4 is a reference diagram illustrating an extraction of a speech feature vector by a Mel Frequency Cepstral Coefficient (MFCC) method corresponding to the feature vector extractor 220.

특징벡터 추출부(220)는 MFCC의 수행을 위해, 다음의 과정을 수행할 수 있다. 예를 들어, 특징벡터 추출부(220)는 입력 시간 도메인의 소리 신호를 작은 크기 프레임으로 자른다. 그 후, 특징벡터 추출부(220)는 각 프레임에 대하여 Power Spectrum의 Periodogram estimate (Periodogram Spectral Estimate)를 계산한다. 그 후, 특징벡터 추출부(220)는 산출한 Power Spectrum 에 Mel Filter bank를 적용하고, 각 필터에 에너지를 합한다. 그 후, 특징벡터 추출부(220)는 모든 필터 뱅크 에너지의 Log를 취한후에 DCT를 취한다. 그 후, 특징벡터 추출부(220)는 DCT를 취한 값에 Coefficients 2~13 만 남기고 나머지는 버린다.The feature vector extractor 220 may perform the following process to perform the MFCC. For example, the feature vector extractor 220 cuts the sound signal of the input time domain into a small size frame. Thereafter, the feature vector extractor 220 calculates a Periodogram estimate (Periodogram Spectral Estimate) of the Power Spectrum for each frame. Thereafter, the feature vector extractor 220 applies a Mel filter bank to the calculated power spectrum, and adds energy to each filter. Thereafter, the feature vector extracting unit 220 takes a DCT after taking a log of all the? Filter bank energies. After that, the feature vector extractor 220 leaves only Coefficients 2 to 13 at the DCT value and discards the rest.

특징벡터 추출부(220)는 반려동물의 짖는 소리가 들리면 현재 입력되는 반려동물의 소리를 주파수 형태(사운드 파형)로 연속적으로 표시한다. 이때, 특징벡터 추출부(220)는 저장부(270)로부터 감정에 대응하는 기준 음성 특징벡터정보를 이용하여 음성 특징벡터를 추출할 수 있다. The feature vector extractor 220 continuously displays the companion animal's sound in frequency form (sound waveform) when the companion animal's barking sound is heard. In this case, the feature vector extractor 220 may extract the speech feature vector from the storage unit 270 using reference speech feature vector information corresponding to the emotion.

반려동물이 한번 짖을 때마다 입력 파형은 거의 포물선 형태로 표시된다. 그러나, 반려동물이 한번 짖는 것만으로 반려동물의 감정을 구분하기는 현실적으로 거의 불가능하다. 반려동물의 감정을 제대로 구분하기 위해서는 반려동물이 짖는 소리와 짖는 소리 사이의 시간 간격(소리 정보)을 파악해야 되며, 클라이언트(100)으로부터 제공되는 반려동물의 음성은 다음과 같은 벡터로 구성된다. 이러한 음성 벡터는 음성정보의 끝점검출 조건에 따라 같은 입력 소리라도 다른 벡터로 표현될 수 있기 때문에, 가능한한 동일한 끝점검출 조건이 적용되어야 하며, 미리 저장되어 있는 저장부(270)에도 동일한 끝점 검출 조건에서 테스트한 샘플이 제공되어야 한다. 벡터 형태로 반려동물이 한 번 짖음을 프레임(Frame)별 영교차율(ZCR)과 에너지(Energy)의 벡터값 형태로 표시할 수 있다 Each time the pet barks, the input waveform is almost parabolic. However, it is practically impossible to distinguish the pet's feelings just by barking once. In order to properly distinguish the emotions of the pets, it is necessary to grasp the time interval (sound information) between the barking sounds and the barking sounds of the pets, and the voice of the pets provided from the client 100 is composed of the following vectors. Since the voice vector may be represented by a different vector even with the same input sound according to the end point detection condition of the voice information, the same end point detection condition should be applied as much as possible. Samples tested in must be provided. In the form of a vector, the pet can bark once in the form of a vector value of zero crossing rate (ZCR) and energy per frame.

감정상태 분석부(230)는 특징벡터 추출부(220)에서 추출된 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 반려동물에 대응하는 감정상태정보를 추출한다.The emotional state analyzing unit 230 performs machine learning using the voice feature vector extracted from the feature vector extracting unit 220 as input data to extract emotional state information corresponding to the companion animal.

감정상태 분석부(230)는 DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출할 수 있다.The emotional state analyzer 230 may extract the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.

RNN(Recurrent Neural Network) 알고리즘은 음성과 같은 연속적인 데이터를 입력받고 또한 이전의 입력값을 고려하여 결과값을 출력하는 알고리즘이다. 도 5는 감정상태 분석부(230)에 해당하는 RNN(Recurrent Neural Network) 알고리즘의 기본 동작 구조를 예시하는 참조도이다.The Recurrent Neural Network (RNN) algorithm receives continuous data such as voice and outputs the result value considering the previous input value. 5 is a reference diagram illustrating a basic operation structure of a recurrent neural network (RNN) algorithm corresponding to an emotional state analyzer 230.

DNN(Deep Neural Network) 알고리즘은 심층 신경망에 해당하는 것으로, 입력층(input layer)과 출력층(output layer) 사이에 다중의 은닉층(hidden layer)을 포함하는 인공 신경망(ANN: Artificial Neural Network)을 의미한다. 도 6은 감정상태 분석부(230)에 해당하는 DNN(Deep Neural Network) 알고리즘의 기본 동작 구조를 예시하는 참조도이다.The deep neural network (DNN) algorithm corresponds to a deep neural network, which means an artificial neural network (ANN) including multiple hidden layers between an input layer and an output layer. do. 6 is a reference diagram illustrating a basic operation structure of a deep neural network (DNN) algorithm corresponding to the emotional state analyzer 230.

심층 신경망은 다중의 은닉층을 포함하여 다양한 비선형적 관계를 학습할 수 있다. 심층 신경망은 알고리즘에 따라 비지도 학습 방법(unsupervised learning)을 기반으로 하는 심층 신뢰 신경망(DBN: Deep Belief Network), 심층 오토인코더(deep autoencoder) 등이 있고, 이미지와 같은 2차원 데이터 처리를 위한 합성곱 신경망(CNN: Convolutional Neural Network), 시계열 데이터 처리를 위한 순환 신경망(RNN: Recurrent Neural Network) 등이 있다. 따라서, 데이터들을 토대로 input(앞서 추출된 음성의 특징벡터)과 output(감정 상태)을 정하여 학습한다. 학습되면서 input layer와 hidden layer 1 사이처럼 각 layer 사이의 연결마다 가중치 값이 정해지고, 완성 후에 모델로 저장하여 다른 데이터가 입력되었을 때 적절한 결과가 출력될 수 있다.Deep neural networks can learn a variety of nonlinear relationships, including multiple hidden layers. Deep neural networks include Deep Belief Network (DBN), deep autoencoder (DBN) based on unsupervised learning, and synthesis for processing two-dimensional data such as images. Convolutional Neural Network (CNN), Recurrent Neural Network (RNN) for time series data processing. Therefore, based on the data, the input (feature vector of extracted speech) and the output (emotion state) are determined and learned. As it is learned, weight values are determined for each connection between layers, such as between input layer and hidden layer 1, and after completion, the result can be output when other data is inputted.

또한, 감정상태 분석부(230)는 특징벡터 추출부(220)에서 검출된 음성 특징벡터와 저장부(270)에 저장되어 있는 감정별 음성 특징벡터의 패턴을 비교해서 감정을 추론할 수 있다. 이를 위해, 감정상태 분석부(230)는 DTW(Dynamic Time Warping), HMM(Hidden Marcov Model), ANN(Artificial Neural Network), Fuzzy 등의 패턴 비교 알고리즘을 단독으로 또는 두 개 이상 사용하여 가장 유사한 감정을 판단함으로써 반려동물에 대한 감정상태정보를 인식할 수 있다.In addition, the emotion state analyzer 230 may infer the emotion by comparing the voice feature vector detected by the feature vector extractor 220 with the pattern of the voice feature vector for each emotion stored in the storage unit 270. To this end, the emotional state analysis unit 230 uses the pattern comparison algorithms such as Dynamic Time Warping (DTW), Hidden Marcov Model (HMM), Artificial Neural Network (ANN), Fuzzy, or two or more of the most similar emotions. By judging the emotional state information for the companion animal can be recognized.

도 7은 감정상태 분석부(230)가 저장부(260)에 저장된 반려동물의 다양한 감정상태정보 중에서 클라이언트(100)로부터 전송된 음성정보에 대응하는 감정상태정보를 추출하는 것을 예시하는 참조도이다. 도 7을 참조하면, 감정상태 분석부(230)는 반려동물의 감정을 요구(Demand), 반가움(Joy), 호기심(Curiosity), 외로움(Solitude), 경고(Warning), 화남(Woof), 두려움(Fear) 등의 감정 중에서 선택적으로 추론할 수 있다. 이를 위해, 감정상태 분석부(230)는 전술한 감정별 음성 특징벡터가 저장되어 있는 저장부(260)와 접속할 수 있다. 7 is a reference diagram illustrating that the emotion state analysis unit 230 extracts the emotion state information corresponding to the voice information transmitted from the client 100 among various emotion state information of the companion animal stored in the storage unit 260. . Referring to FIG. 7, the emotion state analyzer 230 may request emotions of a companion animal, demand joy, curiosity, loneliness, warning, angry, fear, and fear. Inferred from emotions such as (Fear). To this end, the emotion state analysis unit 230 may be connected to the storage unit 260 in which the above-described emotion feature vector for each emotion is stored.

사용자 인터페이스부(240)는 반려 동물들에 대한 설정 정보를 제공하기 위한 것으로, 환경 설정 버튼(예를 들어 종류(Species), 성별(Sex), 나이(Age), 흥미(Interest), 성격(Character)을 눌러서(S2000) 반려동물에 대한 각종 환경 조건(예를 들어 라브라도 리트리버(LabradorRetriever)/닥스훈트(Dachshund)/요크셔테리어(Yorkshire Terrier)/저먼 셰퍼드 도그(German Shepherd Dog)/골든 리트리버(Golden Retriever)/비글(Beagle)/복서(Boxer)/푸들(Poodle)/시추(Shih Tzu)/불독(Bulldog), 수컷/암컷(Male/Female), 나이(1~40), 잠(Sleep)/여행(Travel)/놀기(Play), 행복함(Happy)/온화함(Gentle)/신경질적임(Nervous)/사나움(Fierce)) 등을 입력할 수 있다.The user interface 240 is for providing setting information about the companion animals, and includes a configuration button (for example, Species, Sex, Age, Interest, and Personality). Press (S2000) to view the various environmental conditions for your pet (e.g. Labrador Retriever / Dachshund / Yorkshire Terrier / German Shepherd Dog / Golden Retriever) ) / Beagle / Boxer / Poodle / Shih Tzu / Bulldog, Male / Female, Age (1-40), Sleep / Travel You can enter (Travel) / Play (Happy) / Happy / Gentle / Nervous / Fierce).

제어부(250)는 통신부(110), 특징벡터 추출부(120), 감정상태 분석부(130), 사용자인터페이스부(240) 등의 동작을 제어한다. 이를 위해, 제어부(250)는 중앙처리장치 (central processing unit (CPU)), 어플리케이션 프로세서 (application processor (AP)), 또는 커뮤니케이션 프로세서 (communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 제어부(160)는 예를 들면, 적어도 하나의 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. The controller 250 controls operations of the communicator 110, the feature vector extractor 120, the emotional state analyzer 130, and the user interface 240. To this end, the controller 250 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP). . The controller 160 may execute, for example, an operation or data processing related to control and / or communication of at least one component.

저장부(260)는 상기 특징벡터 추출부(210), 상기 감정상태 분석부(230), 사용자 인터페이스부(240)의 동작을 위한 데이터를 저장하고 있다. 이를 위해, 저장부(260)는 대표감정 분류값, 소리주파수 벡터, 소리간격 시간 벡터 등이 저장되어 있다. The storage unit 260 stores data for operations of the feature vector extractor 210, the emotional state analyzer 230, and the user interface 240. To this end, the storage unit 260 stores a representative emotion classification value, a sound frequency vector, a sound interval time vector, and the like.

도 8은 본 발명에 따른 반려동물의 감정상태에 대한 정보 제공방법을 설명하기 위한 일 실시예의 플로차트이다.8 is a flowchart of an embodiment for explaining a method for providing information on an emotional state of a companion animal according to the present invention.

먼저, 클라이언트는 반려동물의 음성정보를 수집하여 통역 서버로 전송한다(S300 단계).First, the client collects the voice information of the companion animal and transmits it to the interpretation server (step S300).

클라이언트는 반려동물의 음성 정보, 즉 짖는 소리 또는 스피치를 연속적으로 검출한다. 클라이언트는 연속적으로 검출된 소리를 시간순서로 정렬하고, 임의의 n차까지 계속적으로 소리를 벡터 형태로 검출하고, 검출된 음성정보를 통역 서버로 전송한다. 클라이언트는 반려동물의 짖는 소리에 대한 음성 정보를 검출하기 위해 수집된 아날로그 신호를 디지털 신호로 변환한 다음, 변환된 디지털 신호로부터 짖는 소리와 소리 구간 사이의 시간 간격인 소리 정보를 검출한다.The client continuously detects the pet's voice information, i.e., barking sound or speech. The client sorts the continuously detected sounds in chronological order, continuously detects the sounds in a vector form up to an nth order, and transmits the detected voice information to an interpreter server. The client converts the collected analog signal into a digital signal to detect the voice information of the pet's bark, and then detects the sound information, which is the time interval between the bark and the sound interval, from the converted digital signal.

S300 단계 후에, 통역 서버는 클라이언트로부터 전송된 음성정보에서 음성 특징벡터를 추출한다(S302 단계). 통역 서버는 오토 엔코더(Auto-encoder) 방식 및 MFCC(Mel Frequency Cepstral Coefficient) 방식 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출할 수 있다. 오토 엔코더(Auto-encoder) 방식은 입력값과 같은 결과값을 출력하는 과정에서 해당 데이터의 중요 특징들을 도출해내는 알고리즘이다. 또한, MFCC(Mel Frequency Cepstral Coefficient) 방식은 소리의 특징을 추출하는 기법으로, 입력된 소리의 일정 구간(Short time)으로 나누어, 이 구간에 대한 스펙트럼을 분석하여 특징을 추출하는 기법이다. After the step S300, the interpreter server extracts the voice feature vector from the voice information transmitted from the client (step S302). The interpretation server may extract the speech feature vector using any one of an auto-encoder method and a Mel Frequency Cepstral Coefficient (MFCC) method. The auto-encoder method is an algorithm that derives important features of the data in the process of outputting the same result as the input value. In addition, the MFCC (Mel Frequency Cepstral Coefficient) method is a technique of extracting a feature of a sound, and dividing it into a predetermined time (Short time) of the input sound, and is a technique of extracting a feature by analyzing the spectrum of the section.

S302 단계 후에, 통역 서버는 추출된 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 반려동물에 대응하는 감정상태정보를 추출한다(S304 단계).After the step S302, the interpretation server performs machine learning using the extracted voice feature vector as input data to extract the emotional state information corresponding to the companion animal (step S304).

통역 서버는 DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출할 수 있다.The interpretation server may extract the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.

RNN(Recurrent Neural Network) 알고리즘은 음성과 같은 연속적인 데이터를 입력받고 또한 이전의 입력값을 고려하여 결과값을 출력하는 알고리즘이다. DNN(Deep Neural Network) 알고리즘은 심층 신경망에 해당하는 것으로, 입력층(input layer)과 출력층(output layer) 사이에 다중의 은닉층(hidden layer)을 포함하는 인공 신경망(ANN: Artificial Neural Network)을 의미한다. The Recurrent Neural Network (RNN) algorithm receives continuous data such as voice and outputs the result value considering the previous input value. The deep neural network (DNN) algorithm corresponds to a deep neural network, which means an artificial neural network (ANN) including multiple hidden layers between an input layer and an output layer. do.

통역 서버는 검출된 음성 특징벡터와 감정별 음성 특징벡터의 패턴을 비교해서 감정을 추론할 수 있다. 이를 위해, 통역 서버는 DTW(Dynamic Time Warping), HMM(Hidden Marcov Model), ANN(Artificial Neural Network), Fuzzy 등의 패턴 비교 알고리즘을 단독으로 또는 두 개 이상 사용하여 가장 유사한 감정을 판단함으로써 반려동물에 대한 감정상태정보를 인식할 수 있다.The interpretation server may infer the emotion by comparing the detected speech feature vector and the pattern of the emotion-specific speech feature vector. For this purpose, the interpreter server determines the most similar emotions by using two or more pattern comparison algorithms such as Dynamic Time Warping (DTW), Hidden Marcov Model (HMM), Artificial Neural Network (ANN), and Fuzzy. Recognize emotional state information about.

S304 단계 후에, 통역 서버는 추출된 감정상태정보를 클라이언트로 전송한다(S306). 통역 서버는 감정상태정보를 유선 통신 또는 무선 통신을 이용해 클라이언트로 전송할 수 있다.After the step S304, the interpreter server transmits the extracted emotional state information to the client (S306). The interpretation server may transmit the emotional state information to the client by wire or wireless communication.

S306 단계 후에, 클라이언트는 통역 서버에서 전송된 감정상태정보를 출력한다(S308 단계). 클라이언트는 감정상태정보를 음성 신호 및 영상 신호 중 어느 하나로 출력할 수 있다. 클라이언트는 반려동물의 감정동작과 대화문장, 대화음성을 출력한다. 클라이언트는 2차원 이미지 파일형태를 연속적으로 플레이하여 3차원 동작 효과를 내거나 3차원 동작 애니메이션 파일을 구동시켜서 동작을 생성할 수 있다.After step S306, the client outputs the emotional state information transmitted from the interpretation server (step S308). The client may output the emotion state information as either a voice signal or an image signal. The client outputs the pet's emotional behavior, dialogue sentence, and dialogue voice. The client can continuously play the 2D image file form to produce a 3D motion effect or drive a 3D motion animation file to generate the motion.

본 발명의 반려동물의 감정상태 분석장치 및 방법은 상세한 설명을 통해 해당 프로그램을 다운로드 받아서 구현하는 아이폰/아이팟 터치에 적용된 예를 기재하였으나, 해당 프로그램이 설치된 전용 단말기 내지 스마트폰과 같은 각종 휴대용 통신 단말기를 사용하거나 종래 널리 보편화되어 있는 각종 게임기 등에 본 발명이 적용될 수 있음은 당업자에게 자명한 사항이라 할 것이다.Apparatus and method for analyzing the emotional state of a companion animal according to the present invention described an example applied to the iPhone / iPod touch to download and implement the program through a detailed description, but various portable communication terminals such as a dedicated terminal or a smart phone installed with the program It will be apparent to those skilled in the art that the present invention can be applied to various game machines or the like which are widely used in the related art.

이와 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술분야에 있어 통상의 지식을 가진 자에게는 자명한 것이다.As described above, a preferred embodiment according to the present invention has been described, and the fact that the present invention can be embodied in other specific forms in addition to the above-described embodiments without departing from the spirit or scope thereof is known to those skilled in the art. It is obvious to those who have it.

그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하며, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수 있다.Therefore, the above-described embodiments should be regarded as illustrative rather than restrictive, and thus, the present invention is not limited to the above description but may be modified within the scope of the appended claims and their equivalents.

10: 반려동물의 감정상태에 대한 정보 제공 시스템
100: 클라이언트
200: 통역 서버
210: 통신부
220: 특징벡터 추출부
230: 감정상태 분석부
240: 사용자 인터페이스부
250: 제어부
260: 저장부
10: System for providing information about the emotional state of pets
100: client
200: interpreter server
210: communication unit
220: feature vector extraction unit
230: emotional state analysis unit
240: user interface unit
250: control unit
260: storage unit

Claims (8)

반려동물의 음성정보를 수집하여 전송하는 클라이언트; 및
상기 클라이언트로부터 상기 수집된 음성정보를 수신하고, 상기 수신된 음성정보에 기초하여상기 반려동물의 감정상태정보를 분석하여 상기 클라이언트로 전송하는 통역 서버를 포함하고,
상기 통역 서버는,
상기 클라이언트로부터 전송된 상기 음성정보를 수신하는 통신부;
상기 수신된 음성정보에서 음성 특징벡터를 추출하는 특징벡터 추출부;
상기 특징벡터 추출부에서 추출된 상기 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 상기 반려동물에 대응하는 감정상태정보를 추출하는 감정상태 분석부;
상기 통신부, 상기 특징벡터 추출부, 상기 감정상태 분석부, 상기 상태정보 출력부의 동작을 제어하는 제어부; 및
상기 특징벡터 추출부, 상기 감정상태 분석부, 상기 상태정보 출력부 및 상기 제어부의 동작을 위한 데이터를 저장하는 저장부를 포함하고,
상기 통신부가 상기 제어부의 제어에 따라 상기 감정상태 분석부에서 분석된 상기 감정상태정보를 상기 클라이언트로 전송하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공 시스템.
Client for collecting and transmitting the voice information of the companion animal; And
Receiving the collected voice information from the client, and based on the received voice information, the interpreting server for analyzing the emotional state information of the companion animal and transmits to the client,
The interpreter server,
A communication unit for receiving the voice information transmitted from the client;
A feature vector extracting unit extracting a voice feature vector from the received voice information;
An emotional state analyzing unit configured to extract the emotional state information corresponding to the companion animal by performing a machine learning using the voice feature vector extracted by the feature vector extracting unit as input data;
A controller for controlling operations of the communication unit, the feature vector extracting unit, the emotional state analyzing unit, and the state information output unit; And
A storage unit for storing data for the operation of the feature vector extracting unit, the emotional state analyzing unit, the state information output unit, and the control unit;
And the communication unit transmits the emotion state information analyzed by the emotion state analysis unit to the client under the control of the controller.
청구항 1에 있어서,
상기 특징벡터 추출부는,
오토 엔코더(Auto-encoder) 및 MFCC(Mel Frequency Cepstral Coefficient) 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공 시스템.
The method according to claim 1,
The feature vector extraction unit,
An information providing system for an emotional state of a companion animal, comprising extracting the speech feature vector using any one of an auto-encoder and a Mel Frequency Cepstral Coefficient (MFCC).
청구항 1에 있어서,
상기 감정상태 분석부는,
DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공 시스템.
The method according to claim 1,
The emotional state analysis unit,
An information providing system for an emotional state of a companion animal, comprising extracting the emotional state information using any one of a machine learning algorithm of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.
청구항 1에 있어서,
상기 통신부는,
상기 감정상태정보를 유선 통신 또는 무선 통신을 이용해 상기 클라이언트로 전송하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공 시스템.
The method according to claim 1,
The communication unit,
And the emotional state information is transmitted to the client by wire or wireless communication.
클라이언트가 반려동물의 음성정보를 수집하여 통역 서버로 전송하는 단계;
상기 통역 서버가 상기 클라이언트로부터 전송된 음성정보에서 음성 특징벡터를 추출하는 단계;
상기 통역 서버가 상기 추출된 음성 특징벡터를 입력 데이터로 하는 기계학습을 수행하여 상기 반려동물에 대응하는 감정상태정보를 추출하는 단계;
상기 통역 서버가 상기 추출된 감정상태정보를 상기 클라이언트로 전송하는 단계; 및
상기 클라이언트가 상기 수신된 감정상태정보를 출력하는 단계를 포함하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공방법.
Collecting, by the client, voice information of the companion animal and transmitting it to an interpretation server;
Extracting, by the interpreter server, a speech feature vector from the speech information transmitted from the client;
Extracting, by the interpreter server, emotional state information corresponding to the companion animal by performing machine learning using the extracted voice feature vector as input data;
Transmitting, by the interpreter server, the extracted emotional state information to the client; And
And providing, by the client, the received emotional state information to the emotional state of the companion animal.
청구항 5에 있어서,
상기 음성 특징벡터를 추출하는 단계는,
오토 엔코더(Auto-encoder) 및 MFCC(Mel Frequency Cepstral Coefficient) 중 어느 하나를 이용하여 상기 음성 특징벡터를 추출하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공방법.
The method according to claim 5,
Extracting the speech feature vector,
Method for providing information on the emotional state of the companion animal, characterized in that for extracting the speech feature vector using any one of an auto-encoder and an Mel Frequency Cepstral Coefficient (MFCC).
청구항 5에 있어서,
상기 감정상태정보를 추출하는 단계는,
DNN(Deep Neural Network) 알고리즘 및 RNN(Recurrent Neural Network) 알고리즘 중 어느 하나의 기계학습 알고리즘을 이용하여 상기 감정상태정보를 추출하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공방법.
The method according to claim 5,
Extracting the emotional state information,
A method for providing information on an emotional state of a companion animal, comprising extracting the emotional state information using a machine learning algorithm of any one of a deep neural network (DNN) algorithm and a recurrent neural network (RNN) algorithm.
청구항 5에 있어서,
상기 감정상태정보를 전송하는 단계는,
상기 감정상태정보를 유선 통신 또는 무선 통신을 이용해 상기 클라이언트로 전송하는 것을 특징으로 하는 반려동물의 감정상태에 대한 정보 제공방법.
The method according to claim 5,
Transmitting the emotional state information,
And providing the emotional state information to the client using wired or wireless communication.
KR1020180050589A 2018-05-02 2018-05-02 System and method for providing information for emotional status of pet KR20190126552A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180050589A KR20190126552A (en) 2018-05-02 2018-05-02 System and method for providing information for emotional status of pet

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180050589A KR20190126552A (en) 2018-05-02 2018-05-02 System and method for providing information for emotional status of pet

Publications (1)

Publication Number Publication Date
KR20190126552A true KR20190126552A (en) 2019-11-12

Family

ID=68577328

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180050589A KR20190126552A (en) 2018-05-02 2018-05-02 System and method for providing information for emotional status of pet

Country Status (1)

Country Link
KR (1) KR20190126552A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210099952A (en) * 2020-02-05 2021-08-13 서울과학기술대학교 산학협력단 Smart Home Care System Using Emotional and Status Analysing of Compansion Animal
KR20210100458A (en) 2020-02-06 2021-08-17 주식회사 커넥트닷 Method and server for pet health care based on machine learning
KR102563052B1 (en) * 2022-03-02 2023-08-03 주식회사 아몬드 Serviceing system for manage health of companion animal and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210099952A (en) * 2020-02-05 2021-08-13 서울과학기술대학교 산학협력단 Smart Home Care System Using Emotional and Status Analysing of Compansion Animal
KR20210100458A (en) 2020-02-06 2021-08-17 주식회사 커넥트닷 Method and server for pet health care based on machine learning
KR102563052B1 (en) * 2022-03-02 2023-08-03 주식회사 아몬드 Serviceing system for manage health of companion animal and method thereof

Similar Documents

Publication Publication Date Title
JP4166153B2 (en) Apparatus and method for discriminating emotion of dog based on analysis of voice characteristics
JP6617053B2 (en) Utterance semantic analysis program, apparatus and method for improving understanding of context meaning by emotion classification
CN107818798B (en) Customer service quality evaluation method, device, equipment and storage medium
Cai et al. Sensor network for the monitoring of ecosystem: Bird species recognition
CN104036776A (en) Voice emotion recognition method applied to mobile terminal
EP3618063A1 (en) Voice interaction system, voice interaction method, program, learning model generation apparatus, and learning model generation method
CN111461337B (en) Data processing method, device, terminal equipment and storage medium
CN110047510A (en) Audio identification methods, device, computer equipment and storage medium
CN112016367A (en) Emotion recognition system and method and electronic equipment
JP2022028772A5 (en) Computing device, speech processing method, and program for analyzing human speech based on audio data and image data
CN108010526A (en) Method of speech processing and device
KR20190126552A (en) System and method for providing information for emotional status of pet
WO2019119279A1 (en) Method and apparatus for emotion recognition from speech
KR101984283B1 (en) Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof
CN110991238A (en) Speech auxiliary system based on speech emotion analysis and micro-expression recognition
US20180308501A1 (en) Multi speaker attribution using personal grammar detection
CN106502382B (en) Active interaction method and system for intelligent robot
CN113947376B (en) C/S (computer/subscriber line) card punching method and device based on multiple biological characteristics
KR20190125668A (en) Apparatus and method for analyzing emotional status of pet
CN109841221A (en) Parameter adjusting method, device and body-building equipment based on speech recognition
Goussha et al. HybridMouse: a hybrid convolutional-recurrent neural network-based model for identification of mouse ultrasonic vocalizations
CN109074809B (en) Information processing apparatus, information processing method, and computer-readable storage medium
CN110197103B (en) Method, device, equipment and storage medium for human-animal interaction
JP2020067562A (en) Device, program and method for determining action taking timing based on video of user's face
CN115905977A (en) System and method for monitoring negative emotion in family sibling interaction process