[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20200055467A - Artificial intelligence based necklace type wearable device - Google Patents

Artificial intelligence based necklace type wearable device Download PDF

Info

Publication number
KR20200055467A
KR20200055467A KR1020180139146A KR20180139146A KR20200055467A KR 20200055467 A KR20200055467 A KR 20200055467A KR 1020180139146 A KR1020180139146 A KR 1020180139146A KR 20180139146 A KR20180139146 A KR 20180139146A KR 20200055467 A KR20200055467 A KR 20200055467A
Authority
KR
South Korea
Prior art keywords
sound
wearable device
information
type wearable
wearer
Prior art date
Application number
KR1020180139146A
Other languages
Korean (ko)
Other versions
KR102196779B1 (en
Inventor
최우현
김락용
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180139146A priority Critical patent/KR102196779B1/en
Publication of KR20200055467A publication Critical patent/KR20200055467A/en
Application granted granted Critical
Publication of KR102196779B1 publication Critical patent/KR102196779B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nutrition Science (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an artificial intelligence based necklace type wearable device. The artificial intelligence based necklace type wearable device according to an embodiment of the present invention comprises: a communication part for connection with a terminal or server; at least one microphone acquiring sound generated from a wearer; a sound recognition module outputting a recognition result for each of at least one partial sound included in the sound; and a controller that processes the sound acquired from each of the at least one microphone, provides the processed sound to the sound recognition module, and generates information related to a set operation mode based on the recognition result output from the sound recognition module. Therefore, a wearer can conveniently acquire various useful information only by wearing the wearable device.

Description

인공지능 기반의 목걸이 타입 웨어러블 기기{ARTIFICIAL INTELLIGENCE BASED NECKLACE TYPE WEARABLE DEVICE}ARTIFICIAL INTELLIGENCE BASED NECKLACE TYPE WEARABLE DEVICE

본 발명은 웨어러블 기기에 관한 것으로서, 특히 착용자의 목에서 발생하는 각종 음향을 인식하는 인공지능 기반의 목걸이 타입 웨어러블 기기에 관한 것이다.The present invention relates to a wearable device, and more particularly, to an artificial intelligence-based necklace type wearable device that recognizes various sounds generated from the wearer's neck.

사회 전반적으로 삶의 질에 대한 관심이 높아지면서, 사람들은 각자의 건강 관리에 대해 주의 및 노력을 기울이고 있다. 이러한 트렌드에 부합하여, 최근에는 사람들이 의료 기관을 방문하지 않고도 스스로 건강 상태를 확인할 수 있도록 하는 다양한 기기들이 등장하고 있다.As society becomes more interested in quality of life, people are paying attention and effort to their health care. In line with this trend, various devices have recently emerged that enable people to check their health status without visiting a medical institution.

특히, 사람의 신체 부위 일부에 착용되어 착용자의 건강 상태와 관련된 정보를 감지 및 제공하는 웨어러블 기기들이 발매되거나, 이와 관련된 컨셉들이 등장하고 있다.In particular, wearable devices that are worn on a part of a person's body to sense and provide information related to the wearer's health state have been released, or concepts related thereto have emerged.

이와 관련하여 종래기술 1(등록특허공보 제10-1607548호, 2016.03.24. 등록)에는 위치 감지 센서와 가속도 센서를 이용하여 식사 소요 시간, 손의 왕복 횟수나 이동 궤적을 이용하여 식습관과 관련된 정보를 제공하는 손목 시계형 웨어러블 통신 단말기가 개시되어 있다. 그러나, 종래기술 1의 경우 손의 움직임과 같은 간접적인 정보를 통해 상기 식습관과 관련된 정보를 제공하므로, 정확한 정보의 제공이 어려울 수 있고, 제공 가능한 정보의 항목들이 한정적일 수 있다.In this regard, in the prior art 1 (Registration Patent Publication No. 10-1607548, registered on March 24, 2016), information related to eating habits using the time required for eating, the number of round trips of the hand or the movement trajectory using the position sensor and the acceleration sensor A wristwatch type wearable communication terminal that provides a device is disclosed. However, in the case of the prior art 1, since information related to the eating habits is provided through indirect information such as hand movement, it may be difficult to provide accurate information, and items of available information may be limited.

한편, 최근에는 인공지능(artificial intelligence) 기술에 대한 관심이 증가하고 있다. 상기 인공지능 기술의 여러 분야 중 인간의 학습 능력을 컴퓨터 상에서 실현하기 위한 기술로서 머신 러닝이 존재한다.Meanwhile, in recent years, interest in artificial intelligence technology has increased. Machine learning exists as a technology for realizing a human learning ability on a computer among various fields of the artificial intelligence technology.

종래의 머신 러닝은 통계학 기반의 분류, 회귀, 군집 모델이 중심이었다. 특히, 분류, 회귀 모델의 지도 학습에서는 학습 데이터의 특성과 이러한 특성을 기반으로 새로운 데이터를 구별하는 학습 모델이 사전에 정의되었다. 이와 달리, 최근 빅데이터 개념의 등장과 함께 관심도가 증가하는 딥러닝은, 방대한 양의 데이터를 이용하여 컴퓨터가 스스로 특성을 찾아내고 판별하는 것이다.Conventional machine learning was centered on statistical-based classification, regression, and clustering models. In particular, in supervised learning of classification and regression models, a learning model that distinguishes the characteristics of the training data and new data based on these characteristics is previously defined. On the other hand, deep learning, in which interest is increasing along with the recent emergence of the concept of big data, is a computer that finds and discriminates characteristics by using a large amount of data.

최근 이러한 딥러닝과 관련되어 오픈소스로 제공되는 딥러닝 프레임워크들이 등장하였고, 이에 따라 효과적인 학습 및 인식을 위해, 딥러닝 알고리즘 외에 학습 과정, 학습 방법, 학습에 사용되는 데이터의 추출 및 선정과 관련된 기술이 더욱 중요해지고 있다. 또한, 머신 러닝을 다양한 제품이나 서비스에 이용하기 위한 연구가 증가하고 있다.Recently, deep learning frameworks provided as open source related to such deep learning have emerged. Accordingly, for effective learning and recognition, in addition to deep learning algorithms, learning processes, learning methods, and extraction and selection of data used for learning are related. Technology is becoming more important. In addition, research to use machine learning for various products or services is increasing.

1. 등록특허공보 제10-1607548호 (2016.03.24. 등록)1. Registered Patent Publication No. 10-1607548 (Registration on March 24, 2016)

본 발명이 해결하고자 하는 과제는, 착용자의 목이나 입으로부터 발생하는 음향을 보다 정확히 인식하여, 착용자의 식습관이나 건강 등과 관련된 유용한 정보를 제공할 수 있는 웨어러블 기기를 제공하는 것이다.The problem to be solved by the present invention is to provide a wearable device capable of more accurately recognizing sound generated from the wearer's neck or mouth, and providing useful information related to the wearer's eating habits and health.

본 발명의 실시 예에 따른 인공지능 기반의 목걸이 타입 웨어러블 기기는, 단말기 또는 서버와 연결하기 위한 통신부, 착용자로부터 발생하는 음향을 획득하는 적어도 하나의 마이크로폰, 음향에 포함된 적어도 하나의 부분 음향 각각에 대한 인식 결과를 출력하는 음향 인식 모듈, 및 상기 적어도 하나의 마이크로폰 각각으로부터 획득된 음향을 처리하고, 처리된 음향을 상기 음향 인식 모듈로 제공하고, 상기 음향 인식 모듈로부터 출력된 인식 결과에 기초하여, 설정된 동작 모드와 관련된 정보를 생성하는 컨트롤러를 포함한다.The AI-based necklace type wearable device according to an embodiment of the present invention includes a communication unit for connecting to a terminal or a server, at least one microphone for acquiring sound generated from a wearer, and at least one partial sound included in the sound. Based on the recognition result output from the acoustic recognition module, and the acoustic recognition module for outputting the recognition result, and processing the sound obtained from each of the at least one microphone, providing the processed sound to the acoustic recognition module, And a controller that generates information related to the set operation mode.

상기 음향 인식 모듈은, 상기 음향의 주파수 특성에 기초하여 상기 적어도 하나의 부분 음향 각각을 인식하는 인식 모델을 갖는 음향 인식기를 포함하고, 상기 인식 결과는 상기 적어도 하나의 부분 음향 각각의 식별 정보 및 특성 정보를 포함할 수 있다.The acoustic recognition module includes an acoustic recognizer having a recognition model that recognizes each of the at least one partial sound based on the frequency characteristics of the sound, and the recognition result includes identification information and characteristics of each of the at least one partial sound. Information may be included.

상기 음향 인식기는, 상기 적어도 하나의 부분 음향 각각의 주파수 특성과, 상기 적어도 하나의 부분 음향 각각의 인식 결과를 이용하여 상기 인식 모델을 업데이트할 수 있다.The acoustic recognizer may update the recognition model using frequency characteristics of each of the at least one partial sound and recognition results of each of the at least one partial sound.

실시 예에 따라, 상기 설정된 동작 모드가 식사 모드인 경우, 상기 컨트롤러는, 상기 적어도 하나의 마이크로폰으로부터 획득된 음향에 기초하여 상기 착용자의 식사 개시 시점 및 식사 완료 시점을 인식하고, 상기 식사 개시 시점과 상기 식사 완료 시점 사이에 획득되는 음향을 처리하고, 처리된 음향을 상기 음향 인식 모듈로 제공할 수 있다.According to an embodiment, when the set operation mode is a meal mode, the controller recognizes a meal start time and a meal completion time of the wearer based on the sound acquired from the at least one microphone, and the meal start time and The sound acquired between the meal completion times may be processed, and the processed sound may be provided to the sound recognition module.

상기 컨트롤러는, 상기 음향에 포함된 적어도 하나의 부분 음향 각각에 대한 인식 결과에 기초하여, 상기 착용자에 대한 식습관 정보를 생성하고, 생성된 식습관 정보를 상기 단말기 또는 상기 서버로 전송하도록 상기 통신부를 제어할 수 있다.The controller controls the communication unit to generate eating habit information for the wearer and transmit the generated eating habit information to the terminal or the server based on a recognition result for each of the at least one partial sound included in the sound. can do.

상기 식습관 정보는 상기 착용자의 식사 상태 또는 식사 중 행위와 관련된 적어도 하나의 항목에 대한 정보를 포함하고, 상기 적어도 하나의 항목은 식사 시간, 식사 중 대화 시간, 식사 중 수분 섭취 횟수 및 섭취량, 음식물을 삼키기까지의 씹는 횟수 및 소요 시간 중 적어도 하나를 포함할 수 있다.The eating habits information includes information on at least one item related to the wearer's eating state or behavior during the meal, wherein the at least one item includes a meal time, a conversation time during a meal, a number and intake of water during a meal, and food. It may include at least one of the number of times to chew and the time required to swallow.

상기 목걸이 타입 웨어러블 기기는, 상기 생성된 식습관 정보에 기초한 알림을 출력하는 음향 출력부를 더 포함할 수 있다.The necklace type wearable device may further include an audio output unit that outputs a notification based on the generated eating habits information.

실시 예에 따라, 상기 설정된 동작 모드가 식사 외 모드인 경우, 상기 컨트롤러는, 상기 적어도 하나의 마이크로폰으로부터 획득된 음향에 기초하여 상기 착용자가 식사 중이 아닌 상태를 인식하고, 인식 결과에 따라 소정 시간동안 획득되는 음향을 처리하고, 처리된 음향을 상기 음향 인식 모듈로 제공할 수 있다.According to an embodiment, when the set operation mode is a non-meal mode, the controller recognizes a state in which the wearer is not eating, based on the sound acquired from the at least one microphone, and for a predetermined time according to the recognition result The acquired sound may be processed, and the processed sound may be provided to the sound recognition module.

상기 컨트롤러는, 상기 음향에 포함된 적어도 하나의 부분 음향 각각에 대한 인식 결과에 기초하여, 상기 착용자에 대한 호흡기 관리 정보를 생성하고, 생성된 호흡기 관리 정보를 상기 단말기 또는 상기 서버로 전송하도록 상기 통신부를 제어할 수 있다.The controller generates the respiratory management information for the wearer based on the recognition result for each of the at least one partial sound included in the sound, and transmits the generated respiratory management information to the terminal or the server. Can be controlled.

상기 호흡기 관리 정보는 상기 착용자의 호흡기 상태 또는 수분 첩취와 관련된 적어도 하나의 항목에 대한 정보를 포함하고, 상기 적어도 하나의 항목은 기침 또는 객담의 횟수, 빈도, 또는 발생 시간대, 및 수분 섭취량 중 적어도 하나를 포함할 수 있다.The respiratory management information includes information on at least one item related to the wearer's respiratory status or moisture ingestion, and the at least one item includes at least one of the number, frequency, or time of occurrence of cough or sputum, and the amount of water intake. It may include.

실시 예에 따라, 상기 설정된 동작 모드가 수유 모니터링 모드인 경우, 상기 컨트롤러는, 상기 적어도 하나의 마이크로폰으로부터 획득된 음향에 기초하여 수유의 개시 시점 및 완료 시점을 인식하고, 상기 수유의 개시 시점과 완료 시점 사이에 획득되는 음향을 처리하고, 처리된 음향을 상기 음향 인식 모듈로 제공할 수 있다.According to an embodiment, when the set operation mode is a feeding monitoring mode, the controller recognizes a starting point and a completion point of feeding based on the sound acquired from the at least one microphone, and the starting point and completion point of the feeding The sound acquired between viewpoints may be processed, and the processed sound may be provided to the sound recognition module.

상기 컨트롤러는, 상기 음향에 포함된 적어도 하나의 부분 음향 각각에 대한 인식 결과에 기초하여, 상기 착용자에 대한 수유 모니터링 정보를 생성하고, 생성된 수유 모니터링 정보를 상기 단말기 또는 상기 서버로 전송하도록 상기 통신부를 제어할 수 있다.The controller generates communication information for the wearer based on a recognition result for each of the at least one partial sound included in the sound, and transmits the generated feeding monitoring information to the terminal or the server. Can be controlled.

상기 수유 모니터링 정보는 상기 착용자의 수유 상태와 관련된 적어도 하나의 항목에 대한 정보를 포함하고, 상기 적어도 하나의 항목은 모유 섭취량, 삼킴 횟수, 수유 시간, 사레 걸림 횟수와 주기 중 적어도 하나를 포함할 수 있다.The lactation monitoring information includes information on at least one item related to the wearer's lactation state, and the at least one item may include at least one of a breast milk intake amount, a swallowing number, a feeding time, a slack number, and a cycle. have.

본 발명의 실시 예에 따르면, 목걸이 타입 웨어러블 기기는 다양한 상황에서 착용자로부터 발생하는 음향을 획득하고, 인공지능 기반의 음향 인식 모듈(170)을 통해 상기 음향으로부터 상기 상황과 관련된 다양한 부분 음향을 정확히 식별할 수 있다. 웨어러블 기기는 식별된 부분 음향 및 부분 음향의 특성에 기초한 정보를 생성하여 착용자에게 제공할 수 있다. 즉, 착용자는 웨어러블 기기를 착용하는 것 만으로도 각종 유용한 정보를 편리하게 획득할 수 있다. According to an embodiment of the present invention, the necklace type wearable device acquires sound generated from a wearer in various situations and accurately identifies various partial sounds related to the situation from the sound through the AI-based sound recognition module 170 can do. The wearable device may generate and provide information based on the identified partial sound and characteristics of the partial sound. That is, the wearer can conveniently obtain various useful information only by wearing a wearable device.

도 1은 본 발명의 일 실시 예에 따른 웨어러블 기기 및 이와 연결되는 단말기와 서버를 포함하는 시스템의 개념도이다.
도 2는 본 발명의 일 실시 예에 따른 웨어러블 기기의 개략적인 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 목걸이 타입 웨어러블 기기의 예시도이다.
도 4와 도 5는 본 발명의 실시 예에 따른 웨어러블 기기의 음향 인식 모듈에 적용되는 인공지능의 일례로서 딥러닝(deep learning)을 설명하기 위한 도면들이다.
도 6은 음향 인식 모듈의 인식 동작 및 학습 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 실시 예에 따른 웨어러블 기기의 동작을 설명하기 위한 플로우차트이다.
도 8은 도 7에 도시된 웨어러블 기기의 동작과 관련하여, 웨어러블 기기가 인식된 음향으로부터 식습관 정보를 제공하는 실시 예를 나타내는 예시도이다.
도 9는 도 7에 도시된 웨어러블 기기의 동작과 관련하여, 웨어러블 기기가 인식된 음향으로부터 호흡기 관리 정보를 제공하는 실시 예를 나타내는 예시도이다.
도 10은 도 7에 도시된 웨어러블 기기의 동작과 관련하여, 웨어러블 기기가 인식된 음향으로부터 수유 모니터링 정보를 제공하는 실시 예를 나타내는 예시도이다.
도 11은 도 7에 도시된 웨어러블 기기의 동작과 관련하여, 웨어러블 기기가 인식된 음향으로부터 수유 모니터링 정보를 제공하는 다른 실시 예를 나타내는 예시도이다.
1 is a conceptual diagram of a system including a wearable device and a terminal and a server connected thereto according to an embodiment of the present invention.
2 is a schematic block diagram of a wearable device according to an embodiment of the present invention.
3 is an exemplary view of a necklace type wearable device according to an embodiment of the present invention.
4 and 5 are diagrams for explaining deep learning as an example of artificial intelligence applied to an acoustic recognition module of a wearable device according to an embodiment of the present invention.
6 is a view for explaining a recognition operation and a learning operation of the acoustic recognition module.
7 is a flowchart illustrating an operation of a wearable device according to an embodiment of the present invention.
FIG. 8 is an exemplary view illustrating an embodiment in which the wearable device provides eating habit information from recognized sound in relation to the operation of the wearable device shown in FIG. 7.
FIG. 9 is an exemplary view illustrating an embodiment in which the wearable device provides respiratory management information from recognized sound in relation to the operation of the wearable device shown in FIG. 7.
FIG. 10 is an exemplary diagram illustrating an embodiment in which the wearable device provides feeding monitoring information from recognized sound in relation to the operation of the wearable device shown in FIG. 7.
FIG. 11 is an exemplary diagram illustrating another embodiment in which the wearable device provides feeding monitoring information from the recognized sound in relation to the operation of the wearable device shown in FIG. 7.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명한다. 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings. The accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the specification is not limited by the accompanying drawings, and all changes and equivalents included in the spirit and technical scope of the present invention It should be understood to include water to substitutes.

도 1은 본 발명의 일 실시 예에 따른 웨어러블 기기 및 이와 연결되는 단말기와 서버를 포함하는 시스템의 개념도이다.1 is a conceptual diagram of a system including a wearable device and a terminal and a server connected thereto according to an embodiment of the present invention.

도 1을 참조하면, 웨어러블 기기(10)는 사용자의 신체의 특정 부위에 착용가능한 전자 기기로 구현될 수 있다.Referring to FIG. 1, the wearable device 10 may be implemented as an electronic device that can be worn on a specific part of the user's body.

예컨대, 웨어러블 기기(10)는 사용자의 목에 착용되는 목걸이 타입 웨어러블 기기일 수 있다. 상기 목걸이 타입 웨어러블 기기는 음향을 출력하는 무선 헤드셋 등을 포함할 수 있다.For example, the wearable device 10 may be a necklace type wearable device worn on a user's neck. The necklace type wearable device may include a wireless headset that outputs sound.

한편, 웨어러블 기기(10)는 사용자의 목에 착용되므로, 착용 시 사용자의 목과 접촉되거나 목과 인접하게 위치할 수 있다.Meanwhile, since the wearable device 10 is worn on the user's neck, the wearable device 10 may be in contact with the user's neck or positioned adjacent to the neck when worn.

이에 따라, 웨어러블 기기(10)는 사용자의 목(기도나 식도)이나 입에서 발생하는 음향(소리)를 효과적으로 획득할 수 있다. 웨어러블 기기(10)는 획득된 음향을 이용하여, 착용자의 식습관이나 호흡기 상태 등의 정보를 제공할 수 있다. 또한, 웨어러블 기기(10)는 유아에 착용되어 유아의 모유 섭취 시 수유 상태의 모니터링 정보를 부모에게 제공할 수도 있다. Accordingly, the wearable device 10 can effectively acquire sound (sound) generated from the user's neck (airway or esophagus) or mouth. The wearable device 10 may use the acquired sound to provide information such as a wearer's eating habits and respiratory condition. In addition, the wearable device 10 may be worn on an infant and provide parents with monitoring information of a lactation state when breastfeeding.

특히, 웨어러블 기기(10)는 인공지능 기반의 인식 모듈을 이용하여 상기 획득된 음향을 인식함으로써, 음향의 식별 정보나 특성 정보를 포함하는 인식 결과를 획득할 수 있다. 웨어러블 기기(10)는 상기 인식 결과에 기초하여 상기 다양한 정보를 제공할 수 있다. 예컨대, 상기 인식 모듈은 딥러닝(deep learning)으로 학습된 인공신경망을 포함할 수 있다.In particular, the wearable device 10 may acquire the recognition result including the identification information or the characteristic information of the sound by recognizing the acquired sound using an artificial intelligence-based recognition module. The wearable device 10 may provide the various information based on the recognition result. For example, the recognition module may include an artificial neural network trained by deep learning.

이러한 웨어러블 기기(10)의 구성 및 동작에 대해서는 추후 도 2 내지 도 11을 통해 보다 상세히 설명한다.The configuration and operation of the wearable device 10 will be described in more detail through FIGS. 2 to 11 later.

단말기(20)는 웨어러블 기기(10)와 연결되어, 웨어러블 기기(10)와 다양한 데이터를 송수신할 수 있다. 단말기(20)는 스마트폰, 태블릿 PC 등의 이동 단말기를 의미할 수 있으나, 실시 예에 따라서는 PC와 같은 고정형 단말기를 포함할 수 있다.The terminal 20 may be connected to the wearable device 10 to transmit and receive various data to and from the wearable device 10. The terminal 20 may mean a mobile terminal such as a smart phone or a tablet PC, but may include a fixed terminal such as a PC depending on the embodiment.

특히, 웨어러블 기기(10)는 상기 음향의 인식 결과에 기초한 다양한 정보를 단말기(20)로 전송할 수 있다. 단말기(20)는 웨어러블 기기(10)로부터 수신된 정보를 디스플레이나 스피커 등의 출력 수단을 통해 출력함으로써, 상기 정보를 사용자에게 제공할 수 있다.In particular, the wearable device 10 may transmit various information based on the recognition result of the sound to the terminal 20. The terminal 20 may provide the information to the user by outputting information received from the wearable device 10 through an output means such as a display or a speaker.

서버(30)는 웨어러블 기기(10) 또는 단말기(20)와 연결되어, 웨어러블 기기(10)로부터 상기 음향의 인식 결과에 기초한 각종 정보를 수신할 수 있다. 서버(30)는 수신된 정보를 저장하는 데이터베이스 서버를 포함할 수 있다. 실시 예에 따라, 서버(30)는 수신된 정보에 기초하여 사용자의 홈 어플라이언스의 동작을 자동으로 제어하는 제어 서버를 포함할 수도 있다. 또는, 서버(30)는 수신된 정보에 기초하여 사용자의 건강 상태를 모니터링하거나 관리하는 의료 서비스 제공자의 서버를 포함할 수도 있다. 또는, 서버(30)는 웨어러블 기기(10)로부터 획득되는 다양한 음향을 학습하고, 학습 결과에 따라 생성되는 학습 데이터를 웨어러블 기기(10)로 제공하여 상기 웨어러블 기기(10)의 인식 모듈을 업데이트하는 학습 서버를 포함할 수도 있다.The server 30 may be connected to the wearable device 10 or the terminal 20 to receive various information based on the recognition result of the sound from the wearable device 10. The server 30 may include a database server that stores the received information. According to an embodiment, the server 30 may include a control server that automatically controls the operation of the user's home appliance based on the received information. Alternatively, the server 30 may include a server of a medical service provider that monitors or manages a user's health condition based on the received information. Alternatively, the server 30 learns various sounds obtained from the wearable device 10 and provides learning data generated according to the learning result to the wearable device 10 to update the recognition module of the wearable device 10 It may also include a learning server.

도 2는 본 발명의 일 실시 예에 따른 웨어러블 기기의 개략적인 블록도이고, 도 3은 본 발명의 일 실시 예에 따른 목걸이 타입 웨어러블 기기의 예시도이다.2 is a schematic block diagram of a wearable device according to an embodiment of the present invention, and FIG. 3 is an exemplary view of a necklace type wearable device according to an embodiment of the present invention.

도 2를 참조하면, 웨어러블 기기(10)는 통신부(110), 입력부(120), 센서부(130), 출력부(140), 메모리(150), 및 컨트롤러(160)를 포함할 수 있다. 도 2에 도시된 구성요소들은 웨어러블 기기(10)를 구현하는 데 있어서 필수적인 것은 아닌 바, 웨어러블 기기(10)는 도 2에 도시된 구성 요소들보다 많거나 적은 구성 요소들을 포함할 수도 있다.Referring to FIG. 2, the wearable device 10 may include a communication unit 110, an input unit 120, a sensor unit 130, an output unit 140, a memory 150, and a controller 160. The components shown in FIG. 2 are not essential in implementing the wearable device 10, and the wearable device 10 may include more or less components than those shown in FIG. 2.

통신부(110)는 웨어러블 기기(10)를 단말기(20)나 서버(30) 등과 연결시키는 적어도 하나의 통신 모듈을 포함할 수 있다. 예컨대, 통신부(110)는 와이파이(Wi-Fi) 등과 같은 무선 인터넷 모듈이나, 블루투스(Bluetooth) 등과 같은 근거리 무선 통신 모듈 등을 포함할 수 있다.The communication unit 110 may include at least one communication module that connects the wearable device 10 to the terminal 20 or the server 30. For example, the communication unit 110 may include a wireless Internet module such as Wi-Fi or a short-range wireless communication module such as Bluetooth.

입력부(120)는 사용자의 조작 등의 행위에 기초하여 웨어러블 기기(10)의 동작과 관련된 제어 명령이나 정보를 웨어러블 기기(10)로 입력하는 적어도 하나의 입력 수단을 포함할 수 있다. 예컨대, 상기 입력 수단은 버튼, 터치 패드, 다이얼 등을 포함할 수 있다.The input unit 120 may include at least one input means for inputting control commands or information related to the operation of the wearable device 10 to the wearable device 10 based on an action such as a user's manipulation. For example, the input means may include a button, a touch pad, a dial, and the like.

특히, 사용자는 입력부(120)를 통해 도 7에서 후술할 동작 모드를 설정하는 입력 동작을 수행할 수 있다. 예컨대, 상기 동작 모드는 식사 모드, 식사 외 모드, 수유 모니터링 모드 중 어느 하나에 해당할 수 있으나, 이에 한정되는 것은 아니다. 웨어러블 기기(10)는 설정된 동작 모드에 기초하여, 음향의 인식 동작 및 인식 결과에 기초한 정보의 생성 동작을 수행할 수 있다.In particular, the user may perform an input operation for setting an operation mode to be described later in FIG. 7 through the input unit 120. For example, the operation mode may correspond to any one of a meal mode, a non-meal mode, and a lactation monitoring mode, but is not limited thereto. The wearable device 10 may perform an operation for recognizing sound and an operation for generating information based on the recognition result, based on the set operation mode.

센서부(130)는 웨어러블 기기(10)의 착용자의 목(기도 또는 식도)이나 입 등으로부터 발생하는 음향(소리)를 감지하는 복수의 마이크로폰(131~133)을 포함할 수 있다. 제어부(160)는 복수의 마이크로폰(131~133) 각각으로부터 음향을 획득하고, 획득된 음향의 합성 및 노이즈 제거를 통해 보다 정확한 음향을 획득할 수 있다. 상기 획득된 음향에는 다양한 종류의 부분 음향이 포함될 수 있다. The sensor unit 130 may include a plurality of microphones 131 to 133 that sense sound (sound) generated from the wearer's neck (airway or esophagus) or mouth of the wearable device 10. The control unit 160 may acquire sound from each of the plurality of microphones 131 to 133, and obtain more accurate sound through synthesis and noise removal of the acquired sound. The acquired sound may include various types of partial sounds.

도 3을 참조하면, 웨어러블 기기(10)의 하우징(101)은 착용자의 목에 착용가능한 형태(예컨대, 목걸이 형태)로 형성될 수 있다. 하우징(101) 내에 구비되는 복수의 마이크로폰(131~133)은 서로 이격된 위치에 배치될 수 있다. 예컨대, 제1 마이크로폰(131)과 제2 마이크로폰(132)은 착용 시 착용자의 성대와 인접하도록 배치될 수 있고, 제3 마이크로폰(133)은 착용 시 착용자의 목덜미에 인접하도록 배치될 수 있다. 즉, 복수의 마이크로폰(131~133)은 착용자의 목과 인접하도록 배치됨으로써, 착용자의 목이나 입으로부터 발생하는 음향을 정확히 획득할 수 있다. 또한, 복수의 마이크로폰(131~133)은 상기 음향을 다양한 위치에서 획득할 수 있고, 제어부(160)는 다양한 위치에서 획득된 음향의 합성 및 노이즈 제거를 통해 보다 정확한 음향의 획득이 가능하다.Referring to FIG. 3, the housing 101 of the wearable device 10 may be formed in a wearable form (eg, a necklace form) on the wearer's neck. The plurality of microphones 131 to 133 provided in the housing 101 may be disposed at positions spaced apart from each other. For example, the first microphone 131 and the second microphone 132 may be disposed adjacent to the wearer's vocal cord when worn, and the third microphone 133 may be disposed adjacent to the wearer's neck when worn. That is, the plurality of microphones 131 to 133 are disposed to be adjacent to the wearer's neck, so that sound generated from the wearer's neck or mouth can be accurately obtained. In addition, the plurality of microphones 131 to 133 may acquire the sound at various locations, and the controller 160 may acquire more accurate sound through synthesis of noise obtained at various locations and noise removal.

한편, 사용자가 마이크로폰(131~133)을 통해 음성 형태의 제어 명령이나 정보를 입력 가능한 경우, 마이크로폰(131~133)은 상기 입력부(120)로서 기능할 수도 있다.On the other hand, when the user can input control commands or information in the form of voice through the microphones 131 to 133, the microphones 131 to 133 may function as the input unit 120.

비록 도시되지는 않았으나, 센서부(130)는 마이크로폰(131~133) 외의 추가적인 센서들(예컨대, 근접 센서 등)을 더 포함할 수도 있다.Although not shown, the sensor unit 130 may further include additional sensors (eg, proximity sensors, etc.) other than the microphones 131 to 133.

출력부(140)는 웨어러블 기기(10)가 제공하는 기능과 관련된 정보나 데이터 등을 출력하거나, 웨어러블 기기(10)의 상태에 관한 정보를 출력하는 출력 수단을 구비할 수 있다.The output unit 140 may include output means for outputting information or data related to a function provided by the wearable device 10, or outputting information about the state of the wearable device 10.

예컨대, 웨어러블 기기(10)가 무선 헤드셋으로 구현되어 사운드 출력 기능을 제공하는 경우, 출력부(140)는 사운드를 출력하기 위한 음향 출력부(142)를 포함할 수 있다. 또한, 출력부(140)는 웨어러블 기기(10)의 전원 상태, 동작 상태 등을 표시하는 광 출력부(144)를 더 포함할 수 있다.For example, when the wearable device 10 is implemented as a wireless headset to provide a sound output function, the output unit 140 may include an audio output unit 142 for outputting sound. In addition, the output unit 140 may further include an optical output unit 144 that displays a power state, an operation state, and the like of the wearable device 10.

메모리(150)는 웨어러블 기기(10)에 포함된 구성들의 동작을 위한 제어 데이터나 알고리즘 등을 저장할 수 있다. 또한, 메모리(150)는 음향 출력부(142)를 통해 출력되기 위해 단말기(20)나 서버(30)로부터 수신되는 사운드 데이터를 저장할 수 있다.The memory 150 may store control data or algorithms for the operation of the components included in the wearable device 10. Also, the memory 150 may store sound data received from the terminal 20 or the server 30 to be output through the sound output unit 142.

컨트롤러(160)는 웨어러블 기기(10)의 전반적인 동작을 제어할 수 있다. 컨트롤러(160)는 사용자에게 웨어러블 기기(10)가 지원하는 기능을 제공하기 위해, 웨어러블 기기(10)에 포함된 적어도 하나의 구성을 제어할 수 있다.The controller 160 may control the overall operation of the wearable device 10. The controller 160 may control at least one configuration included in the wearable device 10 to provide a function supported by the wearable device 10 to the user.

이러한 컨트롤러(160)는 적어도 하나의 CPU, AP(application processor), 컨트롤러, 마이크로컴퓨터, 집적회로 등을 포함할 수 있다.The controller 160 may include at least one CPU, application processor (AP), controller, microcomputer, integrated circuit, and the like.

한편, 본 발명의 실시 예에 따른 컨트롤러(160)는, 복수의 마이크로폰(131~133)으로부터 획득되는 음향을 인공지능 기반의 음향 인식 모듈(170)로 입력하여, 상기 음향을 인식할 수 있다. 음향 인식 모듈(170)은 음향의 인식 결과로서, 상기 음향에 포함된 적어도 하나의 부분 음향 각각의 식별 정보나, 상기 적어도 하나의 부분 음향 각각의 특성 정보를 출력할 수 있다.Meanwhile, the controller 160 according to an embodiment of the present invention may recognize the sound by inputting the sound obtained from the plurality of microphones 131 to 133 to the artificial intelligence-based sound recognition module 170. The acoustic recognition module 170 may output identification information of each of the at least one partial sound included in the sound or characteristic information of each of the at least one partial sound as a result of the recognition of the sound.

상기 식별 정보는 사용자의 목이나 입에서 발생하는 음향의 종류를 식별하는 정보로서, 예컨대 음식물을 씹는 음향, 음식물을 삼키는 음향, 대화 음향, 수분을 섭취하는 음향, 기침 음향 등에 해당할 수 있다.The identification information is information for identifying the type of sound generated from the user's throat or mouth, and may correspond to, for example, food chewing sound, food swallowing sound, conversation sound, moisture intake sound, cough sound, and the like.

또한, 상기 특성 정보는 식별된 부분 음향 각각에 대한 특성으로서, 부분 음향의 발생 시각, 지속 시간, 횟수, 간격 등을 포함할 수 있다.In addition, the characteristic information is a characteristic for each of the identified partial sounds, and may include a generation time, duration, number of times, interval, etc. of the partial sounds.

예컨대, 음향 인식 모듈(170)은 머신 러닝(machine learning)으로 기학습된 인공신경망(artificial neural network; ANN)을 갖는 음향 인식기를 포함하여, 입력된 음향을 인식하여 상기 식별 정보나 특성 정보를 포함하는 인식 결과를 출력할 수 있다. For example, the acoustic recognition module 170 includes an acoustic recognizer having an artificial neural network (ANN) already learned by machine learning, and includes the identification information or characteristic information by recognizing the input sound. Can output the recognition result.

컨트롤러(160)는 음향 인식 모듈(170)의 인식 결과에 기초한 각종 정보를 생성하고, 생성된 정보를 출력부(140)를 통해 출력하거나, 통신부(110)를 통해 단말기(20) 또는 서버(30)로 전송할 수 있다.The controller 160 generates various information based on the recognition result of the acoustic recognition module 170, and outputs the generated information through the output unit 140, or through the communication unit 110, the terminal 20 or the server 30 ).

이하, 도 4 내지 도 6을 참조하여 음향 인식 모듈(170)에 적용되는 인공지능 기술의 일례로서 딥러닝에 대해 보다 상세히 설명한다. Hereinafter, deep learning will be described in more detail as an example of artificial intelligence technology applied to the acoustic recognition module 170 with reference to FIGS. 4 to 6.

도 4와 도 5는 본 발명의 실시 예에 따른 웨어러블 기기의 음향 인식 모듈에 적용되는 인공지능의 일례로서 딥러닝(deep learning)을 설명하기 위한 도면들이다.4 and 5 are diagrams for explaining deep learning as an example of artificial intelligence applied to an acoustic recognition module of a wearable device according to an embodiment of the present invention.

인공지능이란 인간의 지능으로 할 수 있는 사고, 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 일 분야에 해당한다. 이러한 인공지능의 연구 분야 중 하나인 머신 러닝은 경험적 데이터를 기반으로 예측을 수행하고, 학습을 통해 스스로의 성능을 향상시키는 시스템을 의미할 수 있다. 머신 러닝의 일종인 딥러닝 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다.Artificial intelligence is a field of computer science and information technology that studies how computers can do thinking, learning, and self-development that human intelligence can do. Machine learning, one of the fields of artificial intelligence research, may mean a system that performs prediction based on empirical data and improves one's own performance through learning. Deep learning technology, which is a kind of machine learning, is to learn down to a deep level in multiple levels based on data.

딥러닝은 단계를 높여갈수록 복수의 데이터로부터 핵심적인 데이터를 추출하는 머신 러닝 알고리즘의 집합을 나타낼 수 있다.Deep learning may represent a set of machine learning algorithms that extract core data from a plurality of data as the level increases.

딥러닝 구조는 인공신경망(artificial neural network(ANN))을 포함할 수 있고, 예를 들어 딥러닝 구조는 CNN(convolutional neural network), RNN(recurrent neural network), DBN(deep belief network) 등 심층신경망(deep neural network)으로 구성될 수 있다.The deep learning structure may include an artificial neural network (ANN), for example, the deep learning structure may include a deep neural network such as a convolutional neural network (CNN), a recurrent neural network (RNN), or a deep belief network (DBN). (deep neural network).

도 4를 참조하면, 인공신경망은 입력 레이어(Input Layer), 히든 레이어(Hidden Layer), 및 출력 레이어(Output Layer)를 포함할 수 있다. 각 레이어는 복수의 노드들을 포함하고, 각 레이어는 다음 레이어와 연결된다. 인접한 레이어 사이의 노드들은 웨이트(weight)를 가지고 서로 연결될 수 있다.Referring to FIG. 4, the artificial neural network may include an input layer, a hidden layer, and an output layer. Each layer includes a plurality of nodes, and each layer is connected to the next layer. Nodes between adjacent layers may be connected to each other with a weight.

도 5를 참조하면, 컴퓨팅 장치(머신)는 투입된 입력 데이터(510)로부터 일정한 패턴을 발견해 특징맵(feature map)을 형성할 수 있다. 예컨대, 컴퓨팅 장치(머신)는 하위레벨 특징(520)부터, 중간레벨 특징(530), 및 상위레벨 특징(540)을 추출하여, 대상을 인식하고 그 결과를 출력(550)할 수 있다.Referring to FIG. 5, the computing device (machine) may form a feature map by discovering a certain pattern from the input data 510. For example, the computing device (machine) may extract the low-level feature 520, the middle-level feature 530, and the high-level feature 540 to recognize the object and output the result 550.

인공신경망은 다음 순서의 레이어로 갈수록 더욱 상위레벨의 특징으로 추상화할 수 있다.The artificial neural network can be abstracted to higher level features as it goes to the next layer.

도 4와 도 5를 참조하면, 각 노드들은 활성화 모델에 기초하여 동작할 수 있고, 활성화 모델에 따라 입력값에 대응하는 출력값이 결정될 수 있다.4 and 5, each node may operate based on an activation model, and an output value corresponding to an input value may be determined according to the activation model.

임의의 노드, 예를 들어, 하위레벨 특징(520)의 출력값은 해당 노드와 연결된 다음 레이어, 예를 들어, 중간레벨 특징(530)의 노드로 입력될 수 있다. 다음 레이어의 노드, 예를 들어, 중간레벨 특징(530)의 노드는 하위레벨 특징(520)의 복수의 노드들로부터 출력되는 값들을 입력받을 수 있다.Any node, for example, the output value of the low-level feature 520 may be input to the next layer connected to the node, for example, the node of the middle-level feature 530. The node of the next layer, for example, the node of the middle level feature 530 may receive values output from a plurality of nodes of the low level feature 520.

이 때, 각 노드의 입력값은 이전 레이어의 노드의 출력값에 웨이트(weight)가 적용된 값일 수 있다. 웨이트는 노드 간의 연결 강도를 의미할 수 있다.At this time, the input value of each node may be a value in which weight is applied to the output value of the node of the previous layer. The weight may mean the strength of connection between nodes.

또한, 딥러닝 과정은 적절한 웨이트를 찾아내는 과정으로도 볼 수 있다.Also, the deep learning process can be regarded as a process of finding an appropriate weight.

한편, 임의의 노드, 예를 들어, 중간레벨 특징(530)의 출력값은 해당 노드와 연결된 다음 레이어, 예를 들어, 상위레벨 특징(540)의 노드로 입력될 수 있다. 다음 레이어의 노드, 예를 들어, 상위레벨 특징(540)의 노드는 중간레벨 특징(530)의 복수의 노드로부터 출력되는 값들을 입력받을 수 있다.Meanwhile, an output value of an arbitrary node, for example, the intermediate level feature 530 may be input to a next layer connected to the corresponding node, for example, a node of the higher level feature 540. The node of the next layer, for example, a node of the higher level feature 540 may receive values output from a plurality of nodes of the intermediate level feature 530.

인공신경망은 각 레벨에 대응하는 학습된 레이어(layer)를 이용하여, 각 레벨에 대응하는 특징 정보를 추출할 수 있다. 인공신경망은 순차적으로 추상화하여, 가장 상위 레벨의 특징 정보를 활용하여 소정 대상을 인식할 수 있다.The artificial neural network may extract feature information corresponding to each level by using a learned layer corresponding to each level. The artificial neural network can be abstracted sequentially, and a predetermined object can be recognized using the highest level of feature information.

예를 들어, 딥러닝에 의한 얼굴인식 과정을 살펴보면, 컴퓨터는 입력 영상으로부터, 픽셀의 밝기에 따라 밝은 픽셀과 어두운 픽셀을 구분하고, 테두리, 에지 등 단순한 형태를 구분한 후, 조금 더 복잡한 형태와 사물을 구분할 수 있다. 최종적으로 컴퓨터는 인간의 얼굴을 규정하는 형태를 파악할 수 있다.For example, looking at the face recognition process by deep learning, the computer distinguishes light and dark pixels from the input image according to the brightness of the pixels, distinguishes simple shapes such as borders and edges, and then uses a more complex shape. You can distinguish things. Finally, the computer can figure out the form that defines the human face.

본 발명에 따른 딥러닝 구조는 공지된 다양한 구조를 이용할 수 있다. 예를 들어, 본 발명에 따른 딥러닝 구조는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등일 수 있다.The deep learning structure according to the present invention can use various well-known structures. For example, the deep learning structure according to the present invention may be a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), or a Deep Belief Network (DBN).

RNN(Recurrent Neural Network)은, 자연어 처리 등에 많이 이용되고 있으며, 시간의 흐름에 따라 변하는 시계열 데이터(Time-series data) 처리에 효과적인 구조로 매 순간마다 레이어를 쌓아올려 인공신경망 구조를 구성할 수 있다.RNN (Recurrent Neural Network), which is widely used for natural language processing, is an effective structure for processing time-series data that changes with the passage of time, and can build an artificial neural network structure by stacking layers at every moment. .

DBN(Deep Belief Network)은 딥러닝 기법인 RBM(Restricted Boltzman Machine)을 다층으로 쌓아 구성되는 딥러닝 구조이다. RBM(Restricted Boltzman Machine) 학습을 반복하여, 일정 수의 레이어가 되면 해당 개수의 레이어를 가지는 DBN(Deep Belief Network)를 구성할 수 있다.DBN (Deep Belief Network) is a deep learning structure consisting of a stacked layer of deep learning technique RBM (Restricted Boltzman Machine). By repeating RBM (Restricted Boltzman Machine) learning, if a certain number of layers can be formed, a DBN (Deep Belief Network) having a corresponding number of layers can be constructed.

CNN(Convolutional Neural Network)은 사람이 물체를 인식할 때 물체의 기본적인 특징들을 추출한 다음 뇌 속에서 복잡한 계산을 거쳐 그 결과를 기반으로 물체를 인식한다는 가정을 기반으로 만들어진 사람의 뇌 기능을 모사한 모델이다.CNN (Convolutional Neural Network) is a model that simulates a person's brain function based on the assumption that when a person recognizes an object, it extracts the basic characteristics of the object and then performs a complex calculation in the brain to recognize the object based on the result. to be.

한편, 인공신경망의 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 웨이트(weight)를 조정(필요한 경우 바이어스(bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 인공신경망은 학습에 의해 웨이트(weight) 값을 지속적으로 업데이트시킬 수 있다. 또한, 인공신경망의 학습에는 역전파(Back Propagation) 등의 방법이 사용될 수 있다.On the other hand, the learning of the artificial neural network may be achieved by adjusting the weight of the connection line between nodes (and adjusting the bias value, if necessary) so that a desired output comes out for a given input. In addition, the artificial neural network may continuously update the weight value by learning. In addition, a method such as back propagation may be used for learning the artificial neural network.

한편, 메모리(150) 또는 서버(30)에는 상기 인공신경망을 학습하기 위한 데이터가 저장될 수 있다. 또한, 실시 예에 따라서는, 메모리(150)에는 인공신경망 구조를 이루는 웨이트, 바이어스들이 저장될 수 있다. 또는, 실시 예에 따라서는, 상기 인공신경망 구조를 이루는 웨이트, 바이어스들은 음향 인식 모듈(170)의 임베디드 메모리에 저장될 수도 있다.Meanwhile, data for learning the artificial neural network may be stored in the memory 150 or the server 30. Further, according to an embodiment, the memory 150 may store weights and biases constituting an artificial neural network structure. Alternatively, according to an embodiment, weights and biases constituting the artificial neural network structure may be stored in the embedded memory of the acoustic recognition module 170.

한편, 음향 인식 모듈(170)은 복수의 마이크로폰(131~133)으로부터 획득되는 음향이 인식될 때마다, 획득된 음향과 인식 결과를 이용하여 음향 인식기의 학습 과정을 수행할 수 있다. 상기 학습 과정이 수행됨에 따라, 웨이트 등 인공신경망 구조가 업데이트될 수 있다. 이를 위해, 웨어러블 기기(10)는 학습 모듈을 포함할 수 있다. 상기 학습 모듈은 음향 인식 모듈(170) 내에 구현되거나, 별도로 구현될 수 있다.Meanwhile, whenever the sound acquired from the plurality of microphones 131 to 133 is recognized, the sound recognition module 170 may perform a learning process of the sound recognizer using the acquired sound and the recognition result. As the learning process is performed, the artificial neural network structure such as weight may be updated. To this end, the wearable device 10 may include a learning module. The learning module may be implemented in the acoustic recognition module 170, or may be implemented separately.

도 6은 음향 인식 모듈의 인식 동작 및 학습 동작을 설명하기 위한 도면이다.6 is a view for explaining a recognition operation and a learning operation of the acoustic recognition module.

도 6을 참조하면, 음향 인식 모듈(170)의 음향 인식기는 음향이 입력되면, 입력된 음향을 인식하여 인식 결과를 출력할 수 있다. 실시 예에 따라, 음향 인식기는 1회의 인식 결과를 최종 인식 결과로서 출력할 수 있으나, 복수 회의 인식 동작을 반복 또는 연속 수행하고, 복수 회의 인식 결과에 기초하여 최종 인식 결과를 출력함으로써, 입력된 음향에 대한 인식 정확도를 보다 향상시킬 수도 있다.Referring to FIG. 6, when a sound is input, the sound recognizer of the sound recognition module 170 may recognize the input sound and output a recognition result. According to an embodiment, the sound recognizer may output the recognition result once as the final recognition result, but repeats or continuously performs multiple recognition operations, and outputs the final recognition result based on the multiple recognition results, thereby inputting the sound It is also possible to improve the recognition accuracy of.

한편, 음향 인식기는 수신된 음향을 수집하여 데이터베이스를 구축하고, 획득된 음향에 포함된 부분 음향 각각으로부터 추출된 특징점들과, 부분 음향 각각의 인식 결과를 이용하여 음향 인식기의 학습을 수행할 수 있다. Meanwhile, the acoustic recognizer may collect the received sounds, build a database, and perform learning of the acoustic recognizers using feature points extracted from each of the partial sounds included in the obtained sounds and recognition results of each of the partial sounds. .

예컨대, 음향 인식기는 수집된 음향에 포함된 부분 음향 각각의 주파수 특성을 추출할 수 있다. 음향 인식기는 MFCC(mel-frequency cepstral coefficient) 등의 공지된 알고리즘을 이용하여 상기 부분 음향 각각의 주파수 특성을 추출할 수 있다. 음향 인식기는 상기 부분 음향 각각의 주파수 특성에 기초하여 상기 음향 인식기의 학습 및 인식 동작을 수행할 수 있다.For example, the sound recognizer may extract frequency characteristics of each partial sound included in the collected sound. The acoustic recognizer may extract frequency characteristics of each of the partial sounds using a known algorithm such as MFCC (mel-frequency cepstral coefficient). The acoustic recognizer may perform learning and recognition operations of the acoustic recognizer based on the frequency characteristics of each of the partial sounds.

구체적으로, 음향 인식기는 입력된 음향을 일정 구간씩 분할하고, 분할된 구간 각각에 대한 주파수 스펙트럼을 분석함으로써 구간들 각각의 주파수 특성을 추출할 수 있다. 음향 인식기는 구간들 각각의 주파수 특성(주파수 특징 벡터)을 인공신경망에 입력함으로써, 각 구간의 음향을 인식할 수 있다. 음향 인식기는 인식 결과에 기초하여, 획득된 음향에 포함된 부분 음향들을 구분하고, 부분 음향들 각각의 인식 결과를 출력할 수 있다. 부분 음향들 각각은 적어도 하나의 구간을 포함할 수 있다.Specifically, the sound recognizer may extract the frequency characteristics of each of the sections by dividing the input sound by a predetermined section and analyzing the frequency spectrum of each of the divided sections. The sound recognizer may recognize the sound of each section by inputting the frequency characteristic (frequency feature vector) of each section to the artificial neural network. The sound recognizer may classify partial sounds included in the acquired sound based on the recognition result, and output a recognition result of each of the partial sounds. Each of the partial sounds may include at least one section.

음향 인식기는 획득된 음향에 포함된 부분 음향들 각각의 주파수 특성과, 상기 부분 음향들 각각의 인식 결과에 기초하여 음향 인식기의 학습을 수행할 수 있다.The acoustic recognizer may perform learning of the acoustic recognizer based on the frequency characteristics of each of the partial sounds included in the acquired sound and the recognition result of each of the partial sounds.

이러한 음향 인식기는 시간의 흐름에 따라 변화하는 주파수 패턴을 갖는 음향을 인식하므로, 상기 인공신경망은 RNN(recurrent neural network), CNN(convolutional neural network), 또는 이들의 조합으로 구성될 수 있다.Since the acoustic recognizer recognizes sounds having a frequency pattern that changes over time, the artificial neural network may be composed of a recurrent neural network (RNN), a convolutional neural network (CNN), or a combination thereof.

음향 인식기의 학습을 통해, 상기 음향 인식기에 포함된 인공신경망의 파라미터들(웨이트 및 바이어스)이 업데이트될 수 있다. 상기 데이터베이스는 웨어러블 기기(10)의 메모리(150) 또는 음향 인식 모듈(170)의 임베디드 메모리에 저장되거나, 서버(30)의 메모리에 저장될 수 있다.Through learning the acoustic recognizer, parameters (weight and bias) of the artificial neural network included in the acoustic recognizer may be updated. The database may be stored in the memory 150 of the wearable device 10 or the embedded memory of the acoustic recognition module 170, or may be stored in the memory of the server 30.

이하 도 7 내지 도 11을 참조하여, 본 발명의 실시 예에 따른 웨어러블 기기(10)가 인공지능 기반의 음향 인식을 통해 다양한 정보를 제공하는 동작을 설명하기로 한다.Hereinafter, an operation in which the wearable device 10 provides various information through artificial intelligence-based sound recognition according to an embodiment of the present invention will be described with reference to FIGS. 7 to 11.

도 7은 본 발명의 실시 예에 따른 웨어러블 기기의 동작을 설명하기 위한 플로우차트이다.7 is a flowchart illustrating an operation of a wearable device according to an embodiment of the present invention.

도 7을 참조하면, 웨어러블 기기(10)는 사용자에게 제공할 정보와 관련된 동작 모드를 설정할 수 있다(S100).Referring to FIG. 7, the wearable device 10 may set an operation mode related to information to be provided to the user (S100).

본 발명의 실시 예와 관련하여, 웨어러블 기기(10)는 복수의 모드들을 포함할 수 있고, 모드들에 따라 서로 다른 정보를 제공할 수 있다. 도 2에서 상술한 바와 같이, 상기 모드들은 식사 모드, 식사 외 모드, 수유 모니터링 모드 등을 포함할 수 있다.In relation to an embodiment of the present invention, the wearable device 10 may include a plurality of modes, and provide different information according to the modes. As described above in FIG. 2, the modes may include a meal mode, a non-meal mode, a feeding monitoring mode, and the like.

컨트롤러(160)는 입력부(120) 또는 단말기(20) 등을 통해 상기 복수의 모드들 중 어느 하나의 모드를 선택하는 입력을 수신하고, 웨어러블 기기(10)의 동작 모드를 상기 선택된 모드로 설정할 수 있다.The controller 160 receives an input for selecting any one of the plurality of modes through the input unit 120 or the terminal 20, and sets the operation mode of the wearable device 10 to the selected mode. have.

웨어러블 기기(10)는 복수의 마이크로폰(131~133)을 통해 음향을 획득할 수 있다(S110).The wearable device 10 may acquire sound through a plurality of microphones 131 to 133 (S110).

컨트롤러(160)는 복수의 마이크로폰(131~133) 각각으로부터 음향을 획득할 수 있다. 복수의 마이크로폰(131~133) 각각은 배치 위치가 서로 다르므로, 복수의 마이크로폰(131~133) 각각에 의해 획득된 음향의 신호 특성이 서로 다를 수 있다.The controller 160 may acquire sound from each of the plurality of microphones 131 to 133. Since each of the plurality of microphones 131 to 133 has a different arrangement position, the signal characteristics of the sound acquired by each of the plurality of microphones 131 to 133 may be different.

컨트롤러(160)는 획득된 각각의 음향에 대해 합성 및 노이즈 제거 등의 처리 동작을 수행할 수 있다. 상기 처리 동작에 의해, 보다 정확한 음향의 획득이 가능하다.The controller 160 may perform processing operations such as synthesis and noise removal for each acquired sound. By this processing operation, it is possible to obtain more accurate sound.

한편, 상기 음향은 상기 설정된 동작 모드와 관련된 사용자의 행위가 수행되는 시간 동안, 상기 사용자로부터 발생하는 적어도 하나의 부분 음향을 포함한다.Meanwhile, the sound includes at least one partial sound generated from the user during a time during which the user's action related to the set operation mode is performed.

웨어러블 기기(10)는, 인공지능 기반의 음향 인식 모듈(170)을 통해, 상기 획득된 음향을 인식할 수 있다(S120).The wearable device 10 may recognize the acquired sound through the artificial intelligence-based sound recognition module 170 (S120).

컨트롤러(160)는 상기 획득된 음향(또는 처리된 음향)을 음향 인식 모듈(170)로 입력할 수 있다. 상술한 바와 같이, 음향 인식 모듈(170)은 인공지능의 일 분야인 머신 러닝 기반의 인공신경망이 적용된 음향 인식기를 포함할 수 있다.The controller 160 may input the acquired sound (or processed sound) to the sound recognition module 170. As described above, the acoustic recognition module 170 may include an acoustic recognizer to which an artificial neural network based on machine learning, which is one field of artificial intelligence, is applied.

음향 인식 모듈(170)은 상기 음향 인식기를 통해, 상기 입력된 음향에 포함된 적어도 하나의 부분 음향 각각의 식별 정보 및 특성 정보를 인식하고, 상기 인식된 정보를 포함하는 인식 결과를 출력할 수 있다.The acoustic recognition module 170 may recognize identification information and characteristic information of each of the at least one partial sound included in the input sound, and output a recognition result including the recognized information through the sound recognizer. .

상기 식별 정보와 특성 정보는 S100 단계에서 설정된 동작 모드에 따라 서로 다를 수 있다. 이 경우, 상기 음향 인식기는 복수의 모드들 각각에 대해 구축된 인공신경망 구조를 포함할 수 있으나, 실시 예에 따라서는 복수의 모드들에 대해 통합된 하나의 인공신경망 구조를 포함할 수도 있다.The identification information and the characteristic information may be different depending on the operation mode set in step S100. In this case, the acoustic recognizer may include an artificial neural network structure constructed for each of a plurality of modes, but may include an artificial neural network structure integrated for a plurality of modes according to an embodiment.

웨어러블 기기(10)는 인식된 음향에 기초하여, S100 단계에서 설정된 동작 모드와 관련된 정보를 생성할 수 있다(S130). 웨어러블 기기(10)는 생성된 정보를 단말기(20) 또는 서버(30)로 전송할 수 있다(S140).The wearable device 10 may generate information related to the operation mode set in step S100 based on the recognized sound (S130). The wearable device 10 may transmit the generated information to the terminal 20 or the server 30 (S140).

컨트롤러(160)는 상기 인식 결과에 포함된 적어도 하나의 부분 음향 각각의 식별 정보와 특성 정보로부터, S100 단계에서 설정된 동작 모드와 관련된 정보를 생성할 수 있다. 컨트롤러(160)는 생성된 정보를 통신부(110)를 통해 단말기(20) 또는 서버(30)로 전송할 수 있다.The controller 160 may generate information related to the operation mode set in step S100, from identification information and characteristic information of each of the at least one partial sound included in the recognition result. The controller 160 may transmit the generated information to the terminal 20 or the server 30 through the communication unit 110.

실시 예에 따라, 컨트롤러(160)는 생성된 정보를 출력부(140)를 통해 출력할 수도 있다.According to an embodiment, the controller 160 may output the generated information through the output unit 140.

즉, 본 발명의 실시 예에 따르면, 웨어러블 기기(10)는 다양한 상황에서 사용자로부터 발생하는 음향을 획득하고, 인공지능 기반의 음향 인식 모듈(170)을 통해 상기 음향으로부터 상기 상황과 관련된 다양한 부분 음향을 정확히 식별할 수 있다. 웨어러블 기기(10)는 식별된 부분 음향 및 부분 음향의 특성에 기초한 정보를 생성하여 사용자에게 제공할 수 있다. 즉, 사용자는 웨어러블 기기(10)를 착용하는 것 만으로도 각종 유용한 정보를 편리하게 획득할 수 있다.That is, according to an embodiment of the present invention, the wearable device 10 acquires sound generated from a user in various situations, and various partial sounds related to the situation from the sound through the AI-based sound recognition module 170 Can be accurately identified. The wearable device 10 may generate and provide information based on the identified partial sound and characteristics of the partial sound. That is, the user can conveniently obtain various useful information only by wearing the wearable device 10.

이하, 도 8 내지 도 11을 참조하여, 웨어러블 기기(10)가 다양한 동작 모드에 따라 음향을 인식하고, 인식된 음향에 기초한 정보를 제공하는 실시 예들을 설명한다.Hereinafter, exemplary embodiments in which the wearable device 10 recognizes sound according to various operation modes and provides information based on the recognized sound will be described with reference to FIGS. 8 to 11.

도 8은 도 7에 도시된 웨어러블 기기의 동작과 관련하여, 웨어러블 기기가 인식된 음향으로부터 식습관 정보를 제공하는 실시 예를 나타내는 예시도이다.FIG. 8 is an exemplary view illustrating an embodiment in which the wearable device provides eating habit information from recognized sound in relation to the operation of the wearable device shown in FIG. 7.

도 8의 실시 예는, 도 7의 S100 단계에서 설정되는 동작 모드가 식사 모드인 경우에 해당한다.The embodiment of FIG. 8 corresponds to a case in which the operation mode set in step S100 of FIG. 7 is a meal mode.

도 8을 참조하면, 웨어러블 기기(10)는 사용자의 목이나 입으로부터 발생하는 음향(800)을 획득할 수 있다(S800).Referring to FIG. 8, the wearable device 10 may acquire sound 800 generated from a user's neck or mouth (S800).

도 7의 S110 단계에서 상술한 바와 같이, 컨트롤러(160)는 복수의 마이크로폰(131~133) 각각으로부터 음향을 획득하고, 획득된 음향을 처리하여 상기 음향(800)을 획득할 수 있다. As described above in step S110 of FIG. 7, the controller 160 may acquire sound from each of the plurality of microphones 131 to 133 and process the acquired sound to obtain the sound 800.

한편, 상기 음향(800)은 사용자의 식사 개시 시점부터 완료 시점 동안 지속적으로 획득될 수 있다. 이와 관련하여, 컨트롤러(160)는 입력부(120)를 통해 식사 개시 입력과 완료 입력을 수신하여 상기 식사 개시 시점과 완료 시점을 인식할 수 있다. 또는, 컨트롤러(160)는 복수의 마이크로폰(131~133)으로부터 수신되는 음향의 특성으로부터 상기 식사 개시 시점과 완료 시점을 인식할 수도 있고, 기타 다양한 방식으로 상기 식사 개시 시점과 완료 시점을 인식할 수 있다.Meanwhile, the sound 800 may be continuously acquired from a user's meal start time to a completion time. In this regard, the controller 160 may receive a meal start input and a completion input through the input unit 120 to recognize the meal start time and completion time. Alternatively, the controller 160 may recognize the start and finish times of the meal from the characteristics of the sound received from the plurality of microphones 131 to 133, and may recognize the start and finish times of the meal in various other ways. have.

웨어러블 기기(10)는 인공지능 기반의 음향 인식 모듈(170)을 통해, 상기 획득된 음향(800)의 인식 동작을 수행할 수 있다(S810).The wearable device 10 may perform the recognition operation of the acquired sound 800 through the artificial intelligence-based sound recognition module 170 (S810).

예컨대, 설정된 모드가 식사 모드인 경우, 음향 인식 모듈(170)은 상기 음향(800)으로부터 식사와 관련된 부분 음향 및 부분 음향의 특성을 인식할 수 있다. For example, when the set mode is a meal mode, the acoustic recognition module 170 may recognize the characteristics of partial sounds and partial sounds related to meals from the sound 800.

도 8에 도시된 바와 같이, 음향 인식 모듈(170)은 음향(800)에 포함된 적어도 하나의 부분 음향 각각의 식별 정보(예컨대, “딱딱한 음식물을 씹는 음향”, “음식물을 삼키는 음향”, “대화 음향”, 및 “물을 삼키는 음향”), 및 식별된 부분 음향의 특성 정보(예컨대, 각 음향의 빈도 수나 지속 시간)를 포함하는 인식 결과(810)를 획득할 수 있다.As illustrated in FIG. 8, the acoustic recognition module 170 may include identification information of each of the at least one partial sound included in the sound 800 (eg, “a sound for chewing hard food”, “a sound for swallowing food”, “ Dialogue sound ”, and“ water swallowing sound ”), and the recognition result 810 including characteristic information of the identified partial sound (eg, frequency or duration of each sound).

웨어러블 기기(10)는 음향 인식 모듈(170)의 인식 결과(810)에 기초하여, 사용자의 식습관 정보(820)를 생성할 수 있다(S820).The wearable device 10 may generate the user's eating habits information 820 based on the recognition result 810 of the acoustic recognition module 170 (S820).

식습관 정보(820)는, 사용자의 식사 상태나 식사 중 행위 등 식사 모드와 관련된 복수의 항목들에 대한 정보를 포함할 수 있다. 예컨대, 복수의 항목들은 분당 음식물의 씹는 횟수, 음식물의 종류별(딱딱한 음식/부드러운 음식)로 삼키는 데까지의 씹는 횟수 및 시간, 식사 중 대화시간, 식사 중 수분 섭취 횟수 및 섭취량, 및 전체 식사 시간을 포함할 수 있으나, 이에 한정되는 것은 아니다.The eating habits information 820 may include information on a plurality of items related to a meal mode, such as a user's meal state or behavior during a meal. For example, the plurality of items includes the number of chews per minute of food per minute, the number and time of chewing until swallowed by the type of food (hard food / soft food), conversation time during meals, number and intake of moisture during meals, and total meal time. It can, but is not limited to this.

상기 인식 결과(810)로부터 상기 복수의 항목들에 대한 정보를 생성하기 위해, 메모리(150)에는 상기 복수의 항목들 각각에 대한 정보를 생성하기 위한 알고리즘이 저장될 수 있다. In order to generate information on the plurality of items from the recognition result 810, an algorithm for generating information on each of the plurality of items may be stored in the memory 150.

웨어러블 기기(10)는 생성된 식습관 정보(820)를 사용자에게 제공할 수 있다(S830).The wearable device 10 may provide the generated dietary information 820 to the user (S830).

예컨대, 컨트롤러(160)는 생성된 식습관 정보(820)에 기초한 알림(830)을 생성하고, 생성된 알림(830)을 음향 출력부(142) 등을 통해 출력할 수 있다.For example, the controller 160 may generate a notification 830 based on the generated dietary information 820 and output the generated notification 830 through the sound output unit 142 or the like.

또는, 컨트롤러(160)는 생성된 식습관 정보(820) 또는 알림(830)을 단말기(20)나 서버(30)로 전송할 수 있다. 단말기(20)는 수신된 식습관 정보(820)에 기초한 알림(830) 또는 수신된 알림(830)을 디스플레이나 스피커 등을 통해 출력할 수 있다. 서버(30)는 수신된 식습관 정보(820)를 저장하거나, 의료 서비스 서버 등으로 제공할 수 있다.Alternatively, the controller 160 may transmit the generated dietary information 820 or the notification 830 to the terminal 20 or the server 30. The terminal 20 may output the notification 830 or the received notification 830 based on the received dietary information 820 through a display or a speaker. The server 30 may store the received dietary information 820 or provide it to a medical service server.

즉, 도 8에 도시된 실시 예에 따르면, 웨어러블 기기(10)는 사용자의 식사 중 발생하는 음향을 획득하고, 인공지능 기반의 음향 인식 모듈(170)을 통해 상기 음향으로부터 사용자의 식사 상태나 식사 습관 등과 관련된 다양한 부분 음향을 정확히 식별할 수 있다. 웨어러블 기기(10)는 식별된 부분 음향 및 부분 음향의 특성 정보에 기초하여 식습관 정보를 생성하고, 생성된 식습관 정보를 사용자에게 제공할 수 있다. 즉, 사용자는 식사 중 웨어러블 기기(10)를 착용하는 것 만으로도 정확한 식습관 정보를 편리하게 획득할 수 있다.That is, according to the embodiment shown in FIG. 8, the wearable device 10 acquires sound generated during the user's meal, and the user's meal state or meal from the sound through the AI-based sound recognition module 170 Various partial sounds related to habits and the like can be accurately identified. The wearable device 10 may generate eating habit information based on the identified partial sound and characteristic information of the partial sound, and provide the generated eating habit information to the user. That is, the user can conveniently obtain accurate eating habits information only by wearing the wearable device 10 during a meal.

도 9는 도 7에 도시된 웨어러블 기기의 동작과 관련하여, 웨어러블 기기가 인식된 음향으로부터 호흡기 관리 정보를 제공하는 실시 예를 나타내는 예시도이다.FIG. 9 is an exemplary view illustrating an embodiment in which the wearable device provides respiratory management information from recognized sound in relation to the operation of the wearable device shown in FIG. 7.

도 9의 실시 예는, 도 7의 S100 단계에서 설정된 동작 모드가 식사 외 모드인 경우에 해당할 수 있다.The embodiment of FIG. 9 may correspond to a case in which the operation mode set in step S100 of FIG. 7 is a non-meal mode.

도 9를 참조하면, 웨어러블 기기(10)는 사용자의 목이나 입으로부터 발생하는 음향(900)을 획득할 수 있다(S900).Referring to FIG. 9, the wearable device 10 may acquire sound 900 generated from a user's neck or mouth (S900).

도 7의 S110 단계에서 상술한 바와 같이, 컨트롤러(160)는 복수의 마이크로폰(131~133) 각각으로부터 음향을 획득하고, 획득된 음향을 처리하여 상기 음향(900)을 획득할 수 있다. As described above in step S110 of FIG. 7, the controller 160 may acquire sound from each of the plurality of microphones 131 to 133 and process the acquired sound to obtain the sound 900.

한편, 상기 음향(900)은 사용자의 식사 완료 후부터 소정 시간 동안, 또는 사용자가 식사 중이지 않은 소정 시간 동안 지속적으로 획득될 수 있다. 컨트롤러(160)는 복수의 마이크로폰(131~133)으로부터 수신되는 음향의 특성으로부터 사용자의 식사가 완료되었음을 인식하거나, 사용자가 식사 중이지 않은 상태임을 인식하여, 음향을 복수의 마이크로폰(131~133)으로부터 획득할 수 있다.Meanwhile, the sound 900 may be continuously acquired for a predetermined time after the user's meal is completed, or for a predetermined time during which the user is not eating. The controller 160 recognizes that the user's meal has been completed from the characteristics of the sound received from the plurality of microphones 131 to 133, or recognizes that the user is not eating, thereby reproducing the sound of the plurality of microphones 131 to 133 Can be obtained from

웨어러블 기기(10)는 인공지능 기반의 음향 인식 모듈(170)을 통해, 상기 획득된 음향(900)의 인식 동작을 수행할 수 있다(S910).The wearable device 10 may perform the recognition operation of the acquired sound 900 through the artificial intelligence-based sound recognition module 170 (S910).

설정된 모드가 식사 외 모드인 경우, 음향 인식 모듈(170)은 상기 음향(900)으로부터 사용자의 호흡기 상태나, 수분 섭취 등과 관련된 부분 음향 및 부분 음향의 특성을 인식할 수 있다.When the set mode is a non-meal mode, the acoustic recognition module 170 may recognize characteristics of partial sounds and partial sounds related to a user's respiratory condition or water intake from the sound 900.

도 9에 도시된 바와 같이, 음향 인식 모듈(170)은 음향(900)에 포함된 적어도 하나의 부분 음향 각각의 식별 정보(예컨대, “기침”, “객담(가래)” 등), 및 식별된 부분 음향의 특성 정보(예컨대, 각 음향의 빈도 수나 지속 시간 등)를 포함하는 인식 결과(910)를 획득할 수 있다.As illustrated in FIG. 9, the acoustic recognition module 170 identifies information of each of at least one partial sound included in the sound 900 (eg, “cough”, “sputum (sputum)”, etc.), and is identified. A recognition result 910 including characteristic information of partial sounds (eg, frequency or duration of each sound) may be obtained.

웨어러블 기기(10)는 음향 인식 모듈(170)의 인식 결과(910)에 기초하여, 사용자의 호흡기 관리 정보(920)를 생성할 수 있다(S920).The wearable device 10 may generate respiratory management information 920 of the user based on the recognition result 910 of the acoustic recognition module 170 (S920).

호흡기 관리 정보(920)는, 사용자의 호흡기 상태나 수분 섭취 상태 등과 관련된 복수의 항목들에 대한 정보를 포함할 수 있다. 예컨대, 복수의 항목들은 기침 횟수, 객담의 배출 횟수, 기침 또는 객담의 주 발생 시간대, 수분 섭취량 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The respiratory management information 920 may include information on a plurality of items related to a user's respiratory status or water intake status. For example, the plurality of items may include, but is not limited to, the number of coughs, the number of discharges of sputum, the main time of occurrence of cough or sputum, and the amount of water intake.

상기 인식 결과(910)로부터 상기 복수의 항목들에 대한 정보를 생성하기 위해, 메모리(150)에는 상기 복수의 항목들 각각에 대한 정보를 생성하기 위한 알고리즘이 저장될 수 있다. In order to generate information on the plurality of items from the recognition result 910, an algorithm for generating information on each of the plurality of items may be stored in the memory 150.

웨어러블 기기(10)는 생성된 호흡기 관리 정보(920)를 사용자에게 제공할 수 있다(S930).The wearable device 10 may provide the generated respiratory management information 920 to the user (S930).

S930 단계는 도 8의 S830 단계와 유사할 수 있다.Step S930 may be similar to step S830 of FIG. 8.

추가로, 컨트롤러(160)는 호흡기 관리 정보(920)를, 사용자의 가정 내의 홈 어플라이언스를 제어하는 제어 서버로 전송할 수 있다. 상기 제어 서버는 수신된 호흡기 관리 정보(920)에 기초하여 공기청정기, 공기조화기, 가습기 등의 공기 환경을 조절하는 홈 어플라이언스의 동작을 제어할 수 있다. 예컨대, 제어 서버는 호흡기 관리 정보(920)에 기초하여, 사용자의 기침 또는 객담의 주 발생 시간대에서 공기청정기의 공기청정 기능을 활성화하도록 공기청정기를 제어할 수 있다.Additionally, the controller 160 may transmit respiratory management information 920 to a control server that controls the home appliance in the user's home. The control server may control the operation of a home appliance that controls an air environment such as an air purifier, an air conditioner, and a humidifier based on the received respiratory management information 920. For example, the control server may control the air purifier to activate the air purifying function of the air purifier in a main generation time zone of a user's cough or sputum, based on the respiratory management information 920.

즉, 도 9에 도시된 실시 예에 따르면, 웨어러블 기기(10)는 사용자의 식사 외 상황에서 발생하는 음향을 획득하고, 인공지능 기반의 음향 인식 모듈(170)을 통해 상기 음향으로부터 사용자의 호흡기 상태나 수분 섭취와 관련된 다양한 부분 음향을 정확히 식별할 수 있다. 웨어러블 기기(10)는 식별된 부분 음향 및 부분 음향의 특성 정보에 기초하여 호흡기 관리 정보를 생성하고, 생성된 호흡기 관리 정보를 사용자에게 제공할 수 있다. 즉, 사용자는 평소에 웨어러블 기기(10)를 착용하는 것 만으로도 호흡기와 관련된 정보나 수분 섭취와 관련된 정보를 편리하게 획득할 수 있다.That is, according to the embodiment illustrated in FIG. 9, the wearable device 10 acquires sound generated in a situation other than a user's meal, and the user's respiratory state from the sound through the AI-based sound recognition module 170 However, it is possible to accurately identify various partial sounds related to water intake. The wearable device 10 may generate respiratory management information based on the identified partial sound and characteristic information of the partial sound, and provide the generated respiratory management information to the user. That is, the user can conveniently obtain information related to the respiratory system or water intake by simply wearing the wearable device 10.

도 10은 도 7에 도시된 웨어러블 기기의 동작과 관련하여, 웨어러블 기기가 인식된 음향으로부터 수유 모니터링 정보를 제공하는 실시 예를 나타내는 예시도이다.FIG. 10 is an exemplary view illustrating an embodiment in which the wearable device provides feeding monitoring information from recognized sound in relation to the operation of the wearable device shown in FIG. 7.

도 10의 실시 예는, 도 7의 S100 단계에서 설정된 동작 모드가 유아에 대한 수유 모니터링 모드인 경우에 해당할 수 있다.The embodiment of FIG. 10 may correspond to a case where the operation mode set in step S100 of FIG. 7 is a feeding monitoring mode for an infant.

도 10을 참조하면, 웨어러블 기기(10)는 사용자(유아)의 목이나 입으로부터 발생하는 음향(1000)을 획득할 수 있다(S1000).Referring to FIG. 10, the wearable device 10 may acquire sound 1000 generated from the neck or mouth of a user (infant) (S1000).

도 7의 S110 단계에서 상술한 바와 같이, 컨트롤러(160)는 복수의 마이크로폰(131~133) 각각으로부터 음향을 획득하고, 획득된 음향을 처리하여 상기 음향(1000)을 획득할 수 있다. As described above in step S110 of FIG. 7, the controller 160 may acquire sound from each of the plurality of microphones 131 to 133 and process the acquired sound to obtain the sound 1000.

한편, 상기 음향(1000)은 유아에 대한 수유가 이루어지는 동안 지속적으로 획득될 수 있다. 예컨대, 컨트롤러(160)는 복수의 마이크로폰(131~133)으로부터 수신되는 음향의 특성으로부터 상기 수유가 개시/완료됨을 인식하여, 음향을 복수의 마이크로폰(131~133)으로부터 획득할 수 있다.Meanwhile, the sound 1000 may be continuously acquired while feeding the infant. For example, the controller 160 may recognize that the feeding is started / completed from the characteristics of the sound received from the plurality of microphones 131 to 133, and acquire the sound from the plurality of microphones 131 to 133.

웨어러블 기기(10)는 인공지능 기반의 음향 인식 모듈(170)을 통해, 상기 획득된 음향(1000)의 인식 동작을 수행할 수 있다(S1010).The wearable device 10 may perform the recognition operation of the acquired sound 1000 through the artificial intelligence-based sound recognition module 170 (S1010).

설정된 모드가 수유 모니터링 모드인 경우, 음향 인식 모듈(170)은 상기 음향(1000)으로부터 유아의 모유 삼킴 횟수, 삼킴 주기, 총 수유 시간 등 유아에 대한 수유와 관련된 부분 음향 및 부분 음향의 특성을 인식할 수 있다.When the set mode is a breastfeeding monitoring mode, the acoustic recognition module 170 recognizes the characteristics of partial sounds and partial sounds related to breastfeeding for infants, such as the number of times the infant has been swallowed, the frequency of swallowing, and the total feeding time. can do.

도 10에 도시된 바와 같이, 음향 인식 모듈(170)은 음향(1000)에 포함된 적어도 하나의 부분 음향 각각의 식별 정보(예컨대, “삼킴” 등), 및 식별된 부분 음향의 특성 정보(예컨대, 각 부분 음향의 빈도 수나 지속 시간, 주기 등)를 포함하는 인식 결과(1010)를 획득할 수 있다.As illustrated in FIG. 10, the acoustic recognition module 170 may include identification information (eg, “swallow”) of each of the at least one partial sound included in the sound 1000, and characteristic information of the identified partial sound (eg, , Recognition results 1010 including frequency, duration, period, etc. of each partial sound may be obtained.

웨어러블 기기(10)는 음향 인식 모듈(170)의 인식 결과(1010)에 기초하여, 유아에 대한 수유 모니터링 정보(1020)를 생성할 수 있다(S1020).The wearable device 10 may generate feeding monitoring information 1020 for an infant based on the recognition result 1010 of the acoustic recognition module 170 (S1020).

수유 모니터링 정보(1020)는, 유아의 모유 섭취량, 모유 삼킴 횟수, 총 수유 시간 등과 관련된 복수의 항목들에 대한 정보를 포함할 수 있다. The breastfeeding monitoring information 1020 may include information on a plurality of items related to an infant's breast milk intake, breastfeeding frequency, and total breastfeeding time.

상기 인식 결과(1010)로부터 상기 복수의 항목들에 대한 정보를 생성하기 위해, 메모리(150)에는 상기 복수의 항목들 각각에 대한 정보를 생성하기 위한 알고리즘이 저장될 수 있다. In order to generate information on the plurality of items from the recognition result 1010, an algorithm for generating information on each of the plurality of items may be stored in the memory 150.

웨어러블 기기(10)는 생성된 수유 모니터링 정보(1020)를 부모 등에게 제공할 수 있다(S1030).The wearable device 10 may provide the generated feeding monitoring information 1020 to parents, etc. (S1030).

S1030 단계는 도 8의 S830 단계와 유사한 바, 이에 대한 구체적인 설명은 생략하기로 한다.Step S1030 is similar to step S830 of FIG. 8, and a detailed description thereof will be omitted.

즉, 도 10에 도시된 실시 예에 따르면, 웨어러블 기기(10)는 유아에 대한 수유 중 유아로부터 발생하는 음향을 획득하고, 인공지능 기반의 음향 인식 모듈(170)을 통해 상기 음향으로부터 유아의 모유 섭취 상태와 관련된 다양한 부분 음향을 정확히 식별할 수 있다. 웨어러블 기기(10)는 식별된 부분 음향 및 부분 음향의 특성 정보에 기초하여 수유 모니터링 정보를 생성하고, 생성된 수유 모니터링 정보를 부모 등에게 제공할 수 있다. 즉, 부모는 유아에게 웨어러블 기기(10)를 착용하여, 유아에 대한 수유와 관련된 정보를 편리하게 획득할 수 있다.That is, according to the embodiment illustrated in FIG. 10, the wearable device 10 acquires sound generated from an infant during feeding for an infant, and breastfeeds the infant from the sound through the artificial intelligence-based sound recognition module 170 Various partial sounds related to intake status can be accurately identified. The wearable device 10 may generate feeding monitoring information based on the identified partial sound and characteristic information of the partial sound, and provide the generated feeding monitoring information to a parent or the like. That is, the parent can conveniently wear the wearable device 10 to the infant, and conveniently obtain the information related to the feeding of the infant.

도 11은 도 7에 도시된 웨어러블 기기의 동작과 관련하여, 웨어러블 기기가 인식된 음향으로부터 수유 모니터링 정보를 제공하는 다른 실시 예를 나타내는 예시도이다.FIG. 11 is an exemplary diagram illustrating another embodiment in which the wearable device provides feeding monitoring information from the recognized sound in relation to the operation of the wearable device shown in FIG. 7.

도 11의 S1100 단계는 도 10의 S1000 단계와 유사할 수 있다. 다만, 본 실시 예의 경우 웨어러블 기기(10)는 복수 회의 수유가 수행되는 동안 음향(1100)을 획득할 수 있다.Step S1100 of FIG. 11 may be similar to step S1000 of FIG. 10. However, in the present embodiment, the wearable device 10 may acquire the sound 1100 while multiple feedings are performed.

웨어러블 기기(10)는 인공지능 기반의 음향 인식 모듈(170)을 통해, 획득된 음향(1100)의 인식 동작을 수행할 수 있다(S1110).The wearable device 10 may perform the recognition operation of the acquired sound 1100 through the artificial intelligence-based sound recognition module 170 (S1110).

음향 인식 모듈(170)은 상기 음향(1100)으로부터 유아의 사레 걸림과 관련된 부분 음향 및 부분 음향의 특성을 인식한 인식 결과(1110)를 획득할 수 있다.The acoustic recognition module 170 may obtain a recognition result 1110 that recognizes the partial sound and characteristics of the partial sound related to the child's bristle from the sound 1100.

웨어러블 기기(10)는 음향 인식 모듈(170)의 인식 결과(1110)에 기초하여, 유아에 대한 수유 모니터링 정보(1120)를 생성할 수 있다(S1120).The wearable device 10 may generate feeding monitoring information 1120 for an infant based on the recognition result 1110 of the acoustic recognition module 170 (S1120).

수유 모니터링 정보(1120)는 유아에 대한 수유 중 사레 걸림 횟수나 주기 등에 대한 정보를 포함할 수 있다.The lactation monitoring information 1120 may include information on the number or cycle of jams during feeding for an infant.

웨어러블 기기(10)는 생성된 수유 모니터링 정보(1120)를 부모 등에게 제공할 수 있다(S1130).The wearable device 10 may provide the generated feeding monitoring information 1120 to parents, etc. (S1130).

S1130 단계는 도 8의 S830 단계와 유사한 바, 이에 대한 구체적인 설명은 생략하기로 한다.Step S1130 is similar to step S830 of FIG. 8, and a detailed description thereof will be omitted.

실시 예에 따라, 웨어러블 기기(10), 단말기(20), 또는 서버(30)는, 상기 수유 모니터링 정보(1120)에 기초하여 유아의 수유 시 수유 자세를 교정하기 위한 가이드를 더 제공할 수 있다. 예컨대, 수유 모니터링 정보(1120)로부터 사레 걸림 횟수가 기준횟수보다 많은 경우, 웨어러블 기기(10), 단말기(20), 또는 서버(30)는 사레 걸림 횟수의 감소를 위한 가이드를 제공할 수 있다.According to an embodiment, the wearable device 10, the terminal 20, or the server 30 may further provide a guide for correcting a feeding posture when feeding an infant based on the feeding monitoring information 1120. . For example, in the case where the number of jams from the feeding monitoring information 1120 is greater than the reference number, the wearable device 10, the terminal 20, or the server 30 may provide a guide for reducing the number of jams.

즉, 도 11에 도시된 실시 예에 따르면, 웨어러블 기기(10)는 소정 횟수의 수유 중 유아로부터 발생하는 음향을 획득하고, 인공지능 기반의 음향 인식 모듈(170)을 통해 상기 음향으로부터 유아의 사레 걸림 횟수와 관련된 부분 음향을 정확히 식별할 수 있다. 웨어러블 기기(10)는 식별된 부분 음향 및 부분 음향의 특성 정보에 기초하여 수유 모니터링 정보를 생성하고, 생성된 수유 모니터링 정보를 부모 등에게 제공할 수 있다. 즉, 부모는 유아에게 웨어러블 기기(10)를 착용하여, 유아에 대한 수유 자세가 올바른지 여부와 관련된 정보를 편리하게 획득할 수 있다.That is, according to the embodiment illustrated in FIG. 11, the wearable device 10 acquires sound generated from an infant during a predetermined number of feedings, and uses the artificial intelligence-based sound recognition module 170 to generate infant sound from the sound. Partial sound related to the number of jams can be accurately identified. The wearable device 10 may generate feeding monitoring information based on the identified partial sound and characteristic information of the partial sound, and provide the generated feeding monitoring information to a parent or the like. That is, the parent can conveniently wear the wearable device 10 to the infant, and conveniently obtain information related to whether the feeding posture for the infant is correct.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may make various modifications and variations without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments.

본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. The scope of protection of the present invention should be interpreted by the claims below, and all technical spirits within the equivalent range should be interpreted as being included in the scope of the present invention.

Claims (13)

단말기 또는 서버와 연결하기 위한 통신부;
착용자로부터 발생하는 음향을 획득하는 적어도 하나의 마이크로폰;
음향에 포함된 적어도 하나의 부분 음향 각각에 대한 인식 결과를 출력하는 음향 인식 모듈; 및
상기 적어도 하나의 마이크로폰 각각으로부터 획득된 음향을 처리하고, 처리된 음향을 상기 음향 인식 모듈로 제공하고,
상기 음향 인식 모듈로부터 출력된 인식 결과에 기초하여, 설정된 동작 모드와 관련된 정보를 생성하는 컨트롤러를 포함하는 목걸이 타입 웨어러블 기기.
A communication unit for connecting with a terminal or a server;
At least one microphone that acquires sound generated from the wearer;
An acoustic recognition module that outputs a recognition result for each of the at least one partial sound included in the sound; And
Processing sound acquired from each of the at least one microphone, and providing the processed sound to the sound recognition module,
A necklace type wearable device including a controller that generates information related to a set operation mode based on a recognition result output from the acoustic recognition module.
제1항에 있어서,
상기 음향 인식 모듈은,
상기 음향의 주파수 특성에 기초하여 상기 적어도 하나의 부분 음향 각각을 인식하는 인식 모델을 갖는 음향 인식기를 포함하고,
상기 인식 결과는 상기 적어도 하나의 부분 음향 각각의 식별 정보 및 특성 정보를 포함하는 목걸이 타입 웨어러블 기기.
According to claim 1,
The acoustic recognition module,
And an acoustic recognizer having a recognition model that recognizes each of the at least one partial sound based on the frequency characteristics of the sound,
The recognition result includes necklace type wearable device including identification information and characteristic information of each of the at least one partial sound.
제2항에 있어서,
상기 음향 인식기는,
상기 적어도 하나의 부분 음향 각각의 주파수 특성과, 상기 적어도 하나의 부분 음향 각각의 인식 결과를 이용하여 상기 인식 모델을 업데이트하는 목걸이 타입 웨어러블 기기.
According to claim 2,
The acoustic recognizer,
A necklace type wearable device that updates the recognition model using frequency characteristics of each of the at least one partial sound and a recognition result of each of the at least one partial sound.
제1항에 있어서,
상기 설정된 동작 모드는 식사 모드이고,
상기 컨트롤러는,
상기 적어도 하나의 마이크로폰으로부터 획득된 음향에 기초하여 상기 착용자의 식사 개시 시점 및 식사 완료 시점을 인식하고,
상기 식사 개시 시점과 상기 식사 완료 시점 사이에 획득되는 음향을 처리하고, 처리된 음향을 상기 음향 인식 모듈로 제공하는 목걸이 타입 웨어러블 기기.
According to claim 1,
The set operation mode is a meal mode,
The controller,
Based on the sound obtained from the at least one microphone to recognize the meal start time and the meal completion time of the wearer,
A necklace type wearable device that processes the sound acquired between the meal start time and the meal completion time and provides the processed sound to the sound recognition module.
제4항에 있어서,
상기 컨트롤러는,
상기 음향에 포함된 적어도 하나의 부분 음향 각각에 대한 인식 결과에 기초하여, 상기 착용자에 대한 식습관 정보를 생성하고,
생성된 식습관 정보를 상기 단말기 또는 상기 서버로 전송하도록 상기 통신부를 제어하는 목걸이 타입 웨어러블 기기.
The method of claim 4,
The controller,
Based on the recognition result for each of the at least one partial sound included in the sound, the eating habits information for the wearer is generated,
Necklace type wearable device for controlling the communication unit to transmit the generated eating habits information to the terminal or the server.
제5항에 있어서,
상기 식습관 정보는 상기 착용자의 식사 상태 또는 식사 중 행위와 관련된 적어도 하나의 항목에 대한 정보를 포함하고,
상기 적어도 하나의 항목은 식사 시간, 식사 중 대화 시간, 식사 중 수분 섭취 횟수 및 섭취량, 음식물을 삼키기까지의 씹는 횟수 및 소요 시간 중 적어도 하나를 포함하는 목걸이 타입 웨어러블 기기.
The method of claim 5,
The eating habits information includes information on at least one item related to the wearer's eating state or eating behaviors,
The at least one item is a necklace type wearable device including at least one of a meal time, a conversation time during a meal, a number and intake amount of water during a meal, and a number of chews and a time required to swallow food.
제5항에 있어서,
상기 생성된 식습관 정보에 기초한 알림을 출력하는 음향 출력부를 더 포함하는 목걸이 타입 웨어러블 기기.
The method of claim 5,
A necklace type wearable device further comprising an audio output unit outputting a notification based on the generated eating habits information.
제1항에 있어서,
상기 설정된 동작 모드는 식사 외 모드이고,
상기 컨트롤러는,
상기 적어도 하나의 마이크로폰으로부터 획득된 음향에 기초하여 상기 착용자가 식사 중이 아닌 상태를 인식하고,
인식 결과에 따라 소정 시간동안 획득되는 음향을 처리하고, 처리된 음향을 상기 음향 인식 모듈로 제공하는 목걸이 타입 웨어러블 기기.
According to claim 1,
The set operation mode is a mode other than meal,
The controller,
Based on the sound obtained from the at least one microphone, the wearer recognizes the state of not eating,
A necklace type wearable device that processes sound acquired for a predetermined time according to the recognition result and provides the processed sound to the sound recognition module.
제8항에 있어서,
상기 컨트롤러는,
상기 음향에 포함된 적어도 하나의 부분 음향 각각에 대한 인식 결과에 기초하여, 상기 착용자에 대한 호흡기 관리 정보를 생성하고,
생성된 호흡기 관리 정보를 상기 단말기 또는 상기 서버로 전송하도록 상기 통신부를 제어하는 목걸이 타입 웨어러블 기기.
The method of claim 8,
The controller,
Based on the recognition result for each of the at least one partial sound included in the sound, generate respiratory management information for the wearer,
Necklace type wearable device for controlling the communication unit to transmit the generated respiratory management information to the terminal or the server.
제9항에 있어서,
상기 호흡기 관리 정보는 상기 착용자의 호흡기 상태 또는 수분 첩취와 관련된 적어도 하나의 항목에 대한 정보를 포함하고,
상기 적어도 하나의 항목은 기침 또는 객담의 횟수, 빈도, 또는 발생 시간대, 및 수분 섭취량 중 적어도 하나를 포함하는 목걸이 타입 웨어러블 기기.
The method of claim 9,
The respiratory management information includes information on at least one item related to the wearer's respiratory status or moisture ingestion,
The at least one item is a necklace type wearable device that includes at least one of the number, frequency, or occurrence time of coughing or sputum, and water intake.
제1항에 있어서,
상기 설정된 동작 모드는 수유 모니터링 모드이고,
상기 컨트롤러는,
상기 적어도 하나의 마이크로폰으로부터 획득된 음향에 기초하여 수유의 개시 시점 및 완료 시점을 인식하고,
상기 수유의 개시 시점과 완료 시점 사이에 획득되는 음향을 처리하고, 처리된 음향을 상기 음향 인식 모듈로 제공하는 목걸이 타입 웨어러블 기기.
According to claim 1,
The set operation mode is a feeding monitoring mode,
The controller,
Recognizing the start and finish time of feeding based on the sound obtained from the at least one microphone,
A necklace type wearable device that processes the sound acquired between the start time and the completion time of the feeding and provides the processed sound to the sound recognition module.
제11항에 있어서,
상기 컨트롤러는,
상기 음향에 포함된 적어도 하나의 부분 음향 각각에 대한 인식 결과에 기초하여, 상기 착용자에 대한 수유 모니터링 정보를 생성하고,
생성된 수유 모니터링 정보를 상기 단말기 또는 상기 서버로 전송하도록 상기 통신부를 제어하는 목걸이 타입 웨어러블 기기.
The method of claim 11,
The controller,
Based on the recognition result for each of the at least one partial sound included in the sound, generates feeding monitoring information for the wearer,
Necklace-type wearable device that controls the communication unit to transmit the generated feeding monitoring information to the terminal or the server.
제12항에 있어서,
상기 수유 모니터링 정보는 상기 착용자의 수유 상태와 관련된 적어도 하나의 항목에 대한 정보를 포함하고,
상기 적어도 하나의 항목은 모유 섭취량, 삼킴 횟수, 수유 시간, 사레 걸림 횟수와 주기 중 적어도 하나를 포함하는 목걸이 타입 웨어러블 기기.
The method of claim 12,
The feeding monitoring information includes information on at least one item related to the wearer's feeding status,
The at least one item is a necklace-type wearable device that includes at least one of a breast milk intake amount, a swallowing number, a feeding time, and a number of times of hunger.
KR1020180139146A 2018-11-13 2018-11-13 Artificial intelligence based necklace type wearable device KR102196779B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180139146A KR102196779B1 (en) 2018-11-13 2018-11-13 Artificial intelligence based necklace type wearable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180139146A KR102196779B1 (en) 2018-11-13 2018-11-13 Artificial intelligence based necklace type wearable device

Publications (2)

Publication Number Publication Date
KR20200055467A true KR20200055467A (en) 2020-05-21
KR102196779B1 KR102196779B1 (en) 2020-12-30

Family

ID=70910533

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180139146A KR102196779B1 (en) 2018-11-13 2018-11-13 Artificial intelligence based necklace type wearable device

Country Status (1)

Country Link
KR (1) KR102196779B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210155181A (en) * 2020-06-15 2021-12-22 주식회사 이엠텍 Hearing assisting device with voice interaction function
KR102604203B1 (en) * 2023-06-20 2023-11-20 (주)진명아이앤씨 Power-saving amplifier driving method based on multi-recognition technology using voice and text and amplifier module by the method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140014900A (en) * 2012-07-27 2014-02-06 엘지전자 주식회사 Electronic device and method for controlling electronic device
KR101607548B1 (en) 2014-10-30 2016-03-30 아바드(주) An wristwatch type wearable communication terminal and an accessory detachable to body being capable of being attached or detached with one-touch way and providing life habit information
KR20160120131A (en) * 2015-04-07 2016-10-17 엘지전자 주식회사 Wearalbe terminal and display device wireless communicating with the same
KR101778637B1 (en) * 2016-12-31 2017-09-14 (주)프로차일드 Wearable device configured in clothing and baby condition notification system using it
KR20180119042A (en) * 2017-04-24 2018-11-01 엘지전자 주식회사 Artificial intelligent device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140014900A (en) * 2012-07-27 2014-02-06 엘지전자 주식회사 Electronic device and method for controlling electronic device
KR101607548B1 (en) 2014-10-30 2016-03-30 아바드(주) An wristwatch type wearable communication terminal and an accessory detachable to body being capable of being attached or detached with one-touch way and providing life habit information
KR20160120131A (en) * 2015-04-07 2016-10-17 엘지전자 주식회사 Wearalbe terminal and display device wireless communicating with the same
KR101778637B1 (en) * 2016-12-31 2017-09-14 (주)프로차일드 Wearable device configured in clothing and baby condition notification system using it
KR20180119042A (en) * 2017-04-24 2018-11-01 엘지전자 주식회사 Artificial intelligent device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210155181A (en) * 2020-06-15 2021-12-22 주식회사 이엠텍 Hearing assisting device with voice interaction function
KR102604203B1 (en) * 2023-06-20 2023-11-20 (주)진명아이앤씨 Power-saving amplifier driving method based on multi-recognition technology using voice and text and amplifier module by the method

Also Published As

Publication number Publication date
KR102196779B1 (en) 2020-12-30

Similar Documents

Publication Publication Date Title
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
CN109475294B (en) Mobile and wearable video capture and feedback platform for treating mental disorders
JP6494062B2 (en) Autonomous robot that recognizes the direction of the sound source
US9814993B2 (en) Interactive toy plaything having wireless communication of interaction-related information with remote entities
CN111496802A (en) Control method, device, equipment and medium for artificial intelligence equipment
CN109480868B (en) Intelligent infant monitoring system
US20160321536A1 (en) Interface apparatus and method for providing interaction of a user with network entities
CN111587419B (en) Electronic device and control method thereof
US11250877B2 (en) Sound detection
JP2016522465A (en) Apparatus and method for providing a persistent companion device
US20190074012A1 (en) Methods and Apparatus for Silent Speech Interface
TW201923758A (en) Audio activity tracking and summaries
CN107193382A (en) Intelligent wearable device and it is automatic using sensor come the method for allocative abilities
EP3940698A1 (en) A computer-implemented method of providing data for an automated baby cry assessment
CN108670196B (en) Method and device for monitoring sleep state of infant
WO2020212404A1 (en) Hearing test system
KR102196779B1 (en) Artificial intelligence based necklace type wearable device
US20220036251A1 (en) Compiling a customized persuasive action for presenting a recommendation for a user of an input/output device
JP7254345B2 (en) Information processing device and program
US20230372190A1 (en) Adaptive speech and biofeedback control of sexual stimulation devices
JP6884854B2 (en) Audio providing device, audio providing method and program
KR102668931B1 (en) Apparatus and method for providing customized service
WO2024219506A1 (en) Electronic device, action control system, and control system
JP6900089B2 (en) Personal assistant control system
JP2024159597A (en) Electronics

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant