[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20180094163A - Method and apparatus for recognizing activities through spatial filtering and machine learning - Google Patents

Method and apparatus for recognizing activities through spatial filtering and machine learning Download PDF

Info

Publication number
KR20180094163A
KR20180094163A KR1020170019240A KR20170019240A KR20180094163A KR 20180094163 A KR20180094163 A KR 20180094163A KR 1020170019240 A KR1020170019240 A KR 1020170019240A KR 20170019240 A KR20170019240 A KR 20170019240A KR 20180094163 A KR20180094163 A KR 20180094163A
Authority
KR
South Korea
Prior art keywords
space
user
sensor data
behavior
recognizing
Prior art date
Application number
KR1020170019240A
Other languages
Korean (ko)
Other versions
KR101955939B1 (en
Inventor
서정욱
박윤기
임재현
안일엽
김현식
Original Assignee
남서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 남서울대학교 산학협력단 filed Critical 남서울대학교 산학협력단
Priority to KR1020170019240A priority Critical patent/KR101955939B1/en
Publication of KR20180094163A publication Critical patent/KR20180094163A/en
Application granted granted Critical
Publication of KR101955939B1 publication Critical patent/KR101955939B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0423Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices

Landscapes

  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Strategic Management (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Emergency Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to a method for recognizing an action through spatial filtering and machine learning and an apparatus thereof. The method and apparatus can remarkably lower time required for recognition and computational complexity and derive a recognition result with high reliability by dividing space of a house into a plurality of spaces, filtering data received from the sensors located in the house per the divided space, and recognizing an action of a user using only sensor data filtered in the space while the user is located in a specific space. Specifically, the method and apparatus generate a learning model learning various predefined user actions to recognize the action of the user through machine learning and recognize the actions of the user by inputting the sensor data on the actions of the real use to the generated learning model.

Description

공간필터링과 기계학습을 통한 행위인식 방법 및 그 장치{METHOD AND APPARATUS FOR RECOGNIZING ACTIVITIES THROUGH SPATIAL FILTERING AND MACHINE LEARNING}[0001] METHOD AND APPARATUS FOR RECOGNIZING ACTIVITY THROUGH SPATIAL FILTERING AND MACHINE LEARNING [0002]

본 발명은 공간필터링과 기계학습을 통한 행위인식 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 댁내의 공간을 복수의 공간으로 분리하고, 댁내에 위치하는 복수의 센서로부터 수신되는 데이터를 상기 분리한 공간별로 필터링하여 사용자가 특정 공간에 위치하고 있는 동안 해당 공간으로 필터링된 센서데이터만을 이용하여 사용자의 행위를 인식할 수 있도록 함으로써, 상기 인식에 소요되는 시간 및 계산복잡도를 현저하게 낮추고, 신뢰성 높은 인식결과를 도출할 수 있도록 하는 방법 및 장치에 관한 것이다. 특히 본 발명은 상기 사용자의 행위를 인식하기 위해서 사전에 정의된 다양한 사용자의 행위를 기계학습을 통해서 학습한 학습모델을 생성하고, 상기 생성한 학습모델에 실제 사용자의 행위에 대한 센서데이터를 입력하여 상기 사용자의 행위를 인식한다.The present invention relates to a method and apparatus for recognizing an action through spatial filtering and machine learning. More specifically, the present invention relates to a method and apparatus for recognizing an action through spatial filtering and machine learning, It is possible to reduce the time and computational complexity required for the recognition and to improve the reliability of the recognition result And to provide a method and apparatus that can derive the same. In particular, the present invention generates a learning model in which a variety of user behaviors defined in advance are learned through machine learning in order to recognize the behavior of the user, inputs sensor data on an actual user's behavior to the generated learning model And recognizes the behavior of the user.

최근 센서(sensor)기술의 발달과 정보통신기술의 발전으로 인해 하나의 기기나 서비스에 모든 정보통신기술이 융합되고 있으며, 유무선 네트워크, 방송통신 네트워크 등 다양한 종류의 통신 네트워크들이 하나로 연결되고 있다. 이에 따라 칩(chip)과 센서(sensor)들을 내장한 다양한 종류의 사물들이 인터넷에 연결되어 정보를 생산하고, 이를 사용자에게 제공할 수 있도록 하는 사물인터넷(Internet of Things, IoT)기술이 급격하게 발전하고 있다.Recently, due to the development of sensor technology and the development of information communication technology, all information communication technologies are converged to one device or service, and various kinds of communication networks such as wired / wireless network, broadcasting communication network and the like are connected together. Accordingly, the Internet of Things (IoT) technology, which enables various kinds of objects including chips and sensors to be connected to the Internet to produce information and provide it to users, .

사물인터넷 기술은 사람과 사람의 커뮤니케이션(communication)을 기반으로 하는 사람 중심의 정보 활용방식이 사람 대 사물 또는 사물 대 사물 간 영역으로 확장된 것으로, 사람, 기기, 공간, 데이터 등 모든 것이 네트워크로 연결되어 사람과 사물뿐만 아니라 사물과 사물사이에서도 데이터를 유기체처럼 교환할 수 있는 기능을 보유하고 언제 어디서나 상호 소통할 수 있도록 하는 지능형 기술 또는 서비스를 의미한다.Object Internet technology is an extension of the person-centered information utilization method based on the communication between people and people to the area between people and objects or things and objects. It can connect people, devices, space, data, Means an intelligent technology or service that has the function of exchanging data as an organism between objects and objects as well as people and objects, and enables mutual communication at anytime and anywhere.

즉 사물인터넷 기술은 사물이 사용자가 필요로 하기 전에 사용자의 상황을 인지하고 정보를 습득하여 분석을 통해 사용자에게 필요한 콘텐츠를 제공할 수 있다.In other words, the object Internet technology can recognize the situation of the user before the object needs the user, acquire the information, and provide the contents necessary for the user through the analysis.

이러한 사회적 변화에 따라 최근에는 복수의 센서와 사물인터넷 기술을 활용한 행위인식(activity recognition) 기술을 통해 댁내에 위치하는 사용자의 생활패턴과 환경정보를 수집하여 사용자의 행위를 인식하고, 이에 대한 사용자 맞춤형 서비스를 제공하기 위한 기술이 개발되어 상용화되고 있다. 그 일예로 인체감지센서를 이용하여 독거노인의 일상생활에 대한 행위(activity of daily living, ADL)를 인식하고, 이를 통해 독거노인의 일상생활을 모니터링 하여 건강관리 서비스를 제공하는 시스템이 있다. According to this social change, the activity pattern of the user located in the house is collected by the activity recognition technology utilizing the plural sensor and the object Internet technology to recognize the behavior of the user, Technologies for providing customized services have been developed and commercialized. For example, there is a system that monitors the daily life of the elderly living alone and recognizes the activity of daily living (ADL) of the elderly living alone using the human body sensor.

한편 종래의 행위인식 기술은 Wi-Fi(wireless fidelity)기술 및 RFID(radio frequency identification) 기술을 이용하여 사용자의 위치를 측정함으로써 사용자의 행위를 인식하였다.Meanwhile, the conventional behavior recognition technology recognizes the user's behavior by measuring the position of the user using Wi-Fi (wireless fidelity) technology and RFID (radio frequency identification) technology.

그러나 Wi-Fi기술을 이용한 행위인식 기술은 사용자의 위치를 파악하기 위해 사용자가 스마트폰을 항상 소지해야하는 것 등과 같이 특정 행동을 요구하여, 사용성이 떨어지고 정확한 위치 파악이 어려워 적절한 서비스를 제공하는데 그 한계가 있다.However, the behavior recognition technology using Wi-Fi technology requires specific actions such as having the user always have a smart phone in order to grasp the location of the user, .

또한 RFID 기술을 이용한 종래의 행위인식 기술은 사용자가 RFID 리더기를 직접 착용하여, RFID 태그를 부착한 물건으로부터 태그내용을 읽어 들이면서 사용자의 행위를 인식한다. 그러나 상기 RFID 기술을 이용한 행위인식 기술은 사용자가 RFID 리더기를 직접적으로 착용하여야하기 때문에 현실적으로 적용하기에는 그 한계가 있으며, 금속 등과 같은 물체에 RFID 태그를 부착할 경우 RFID 인식 성능 자체가 떨어지는 문제점이 있다.In addition, the conventional behavior recognition technology using RFID technology allows a user to wear the RFID reader directly and recognize the user's behavior while reading the tag contents from the article attached with the RFID tag. However, since the behavior recognition technology using the RFID technology requires a user to wear the RFID reader directly, there is a limit to be practically applied. In the case of attaching the RFID tag to an object such as metal, the RFID recognition performance itself is deteriorated.

이러한 문제점을 해결하기 위해 최근에는, 센서를 탑재한 다양한 가정용 기기들을 이용하여 상기 센서로부터 수집되는 센서데이터를 토대로 사용자의 행위를 인식하는 행위인식 시스템이 개발되고 있다.In order to solve such a problem, an action recognition system has been developed to recognize a user's behavior based on sensor data collected from the sensor using various household appliances equipped with sensors.

센서를 탑재한 가정용 기기들을 이용한 기존의 행위인식 시스템은 댁내에 설치되는 모든 센서로부터 수신되는 센서데이터를 수집하여, 이를 일괄적인 추론 과정을 거쳐 사용자의 행위를 인식하기 때문에 이에 소요되는 시간 및 계산복잡도가 매우 높아, 사용자의 행위를 실시간으로 인식하지 못하는 문제점이 있다.The existing behavior recognition system using home appliances equipped with sensors collects sensor data received from all the sensors installed in the house and recognizes the behavior of the user through a collective reasoning process. Therefore, the time and calculation complexity There is a problem that the user's behavior can not be recognized in real time.

또한 기존의 행위인식 시스템은, 사용자의 행위를 인식하기 위한 직접적인 센서데이터를 고려하지 않고 수집되는 모든 센서데이터를 활용하여 사용자의 행위를 인식하기 때문에 그 정확도 및 신뢰성이 매우 낮은 단점이 있다.In addition, existing behavior recognition systems have a disadvantage in that their accuracy and reliability are very low because they recognize user's actions by utilizing all sensor data collected without considering direct sensor data for recognizing user's actions.

이에 따라 본 발명에서는 사물인터넷에 대한 국제표준인 oneM2M에 규정한 사물인터넷을 위한 아키텍처를 적용하여 공간정보 및 센서와 관련된 리소스 타입의 컨테이너 개념을 기반으로 사용자의 행위를 인식하기 위한 공간필터링을 수행하고, 사용자가 인지되는 특정 공간 내에 위치하는 적어도 하나 이상의 센서로부터 수신되는 센서데이터와 사전에 정의된 다양한 사용자의 행위를 학습한 학습모델을 통해 사용자의 행위를 인식함으로써, 상기 인식에 소요되는 시간 및 계산복잡도를 획기적으로 줄여 사용자의 행위를 실시간으로 인식함과 동시에 인식결과에 대한 정확도 및 신뢰성을 현저하게 향상시킬 수 있도록 하는 방법 및 장치를 제공하고자 한다.Accordingly, in the present invention, the architecture for the object Internet defined in oneM2M, which is an international standard for the object Internet, is applied to perform spatial filtering for recognizing the behavior of the user based on the container concept of the resource type related to the spatial information and the sensor , Recognizing the behavior of the user through sensor data received from at least one sensor located in a specific space in which the user is perceived and a learning model learning various predefined behaviors of the user, The present invention provides a method and an apparatus for remarkably improving the accuracy and reliability of the recognition result while realizing the user's behavior in real time by drastically reducing the complexity.

다음으로 본 발명의 기술분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, a brief description will be given of the prior arts that exist in the technical field of the present invention, and technical matters which the present invention intends to differentiate from the prior arts will be described.

먼저 한국공개특허 제2009-0019152호(2009.02.25.)는 가정 내 필요한 위치에 센서들을 설치하여 고령자의 일상생활 행위를 인식하기 위한 방법 및 시스템에 관한 것으로, 상기 센서들로부터 측정 데이터를 실시간으로 수신하고, 상기 수신한 측정 데이터를 상기 측정 데이터를 전송한 센서에 해당하는 기초 행위로 변환하여 고령자의 일상생활에 대한 행위를 인식하는 방법 및 시스템에 관한 것이다.Korean Patent Laid-Open Publication No. 2009-0019152 (Feb. 25, 2009) discloses a method and system for recognizing daily life activities of elderly people by installing sensors at necessary positions in a home. The present invention relates to a method and system for recognizing an action of an elderly person in daily life by converting the received measurement data into a basic action corresponding to a sensor that has transmitted the measurement data.

상기 선행기술은 복수의 센서를 통해 사용자의 행위를 인식하는 점에서 본 발명의 기술적 구성과 일부분 유사한 점이 있다.The prior art is somewhat similar to the technical construction of the present invention in that it recognizes the behavior of the user through a plurality of sensors.

반면에 본 발명은 공간필터링을 통해 댁내의 공간을 특징별로 적어도 하나 이상의 공간으로 분리하여 정의하고 상기 각 특징별로 나누어진 공간에 대해서 개별적인 메시지 컨테이너를 통해 수신되는 센서데이터들을 토대로 사용자의 행위를 인식하는 것으로, 특정 공간에서 사용자가 감지된 경우 상기 특정 공간에 위치하는 복수의 센서들에 의해 측정된 센서데이터만을 활용하여 해당 공간에서의 사용자의 행위를 인식할 수 있도록 하는 것이다. 즉, 사용자가 위치하는 특정 공간 이외의 센서데이터를 배제하여 사용자의 행위를 인식할 수 있도록 함으로써, 상기 인식 결과에 대한 높은 정확도와 신뢰성을 유지함과 동시에 실시간으로 사용자의 행위를 인식할 수 있도록 하는 기술적 구성을 제시하고 있다.On the other hand, according to the present invention, a house space is divided into at least one space for each feature through spatial filtering, and a behavior of a user is recognized based on sensor data received through a separate message container for a space divided for each feature When a user is sensed in a specific space, only the sensor data measured by the plurality of sensors located in the specific space can be used to recognize the behavior of the user in the space. In other words, by allowing sensor data other than the specific space in which the user is located to be recognized so that the user's behavior can be recognized, it is possible to maintain high accuracy and reliability of the recognition result, .

그러나 상기 선행기술은 단순히 식사, 수면, 휴식 및 용변에 대한 고령자의 기초행위를 미리 정해놓고 상기 기초행위에 관련된 센서로부터 측정데이터가 수신되는 경우에 상기 고령자의 행위를 식사, 수면, 휴식 또는 용변으로 인식하는 구성만을 언급하고 있을 뿐, 본 발명과 같이 댁내 공간을 복수의 공간으로 나누어 각 공간에서의 사용자에 대한 행위를 인식하고, 복수의 센서들 간의 시간에 대한 연관에 따라(즉, 센서데이터가 측정된 시간의 순서)에 사용자의 이동, 행동 또는 이들의 조합을 포함하는 행위를 인식할 수 있도록 하는 기술적 구성을 제시하고 있지 못하므로 본 발명과 상기 선행기술은 서로 다른 기술적 구성임을 손쉽게 확인할 수 있다.However, the above-described prior art has previously set the basic behavior of the elderly person for eating, sleeping, resting, and toilet, and when the measurement data is received from the sensor related to the basic action, the behavior of the elderly person is changed into eating, sleeping, Only the configuration to be recognized is described. However, according to the present invention, the home space is divided into a plurality of spaces, the behavior of the user in each space is recognized, and according to the association between the plurality of sensors (i.e., The order of the measured time) does not provide a technical configuration that allows the user to recognize an action including a movement, an action, or a combination thereof, so that the present invention and the prior art can easily identify the different technical configurations .

또한 한국등록특허 제0913396호(2009.08.14.)는 모션벡터를 이용한 행위 인식 장치 및 그 방법에 관한 것으로, 카메라를 통해 입력되는 영상에서 X, Y축에 대한 평균 모션벡터를 산출한 후 인식 테이블에 매핑하여 사용자의 행위를 인식하는 장치 및 그 방법에 관한 것이다. 이를 위해 상기 선행기술은 평균 모션벡터에 상응하는 행위 형태 정보를 저장하고, 카메라로부터 수집되는 영상으로부터 객체를 인식한 후, 상기 객체에 대한 모션벡터를 산출하여, 상기 산출한 모션벡터로 상기 저장한 인식 테이블을 탐색하여 해당 사용자의 행위를 인식한다.Korean Patent Registration No. 0913396 (Aug. 14, 2009) relates to an apparatus and method for recognizing an action using a motion vector. The motion recognition apparatus calculates an average motion vector for X and Y axes in an image input through a camera, And recognizing the behavior of the user, and a method thereof. To this end, the prior art stores behavior type information corresponding to an average motion vector, calculates a motion vector for the object after recognizing the object from the image collected from the camera, and outputs the stored motion vector The recognition table is searched to recognize the behavior of the user.

상기 선행기술은 사용자의 행위를 인식하여, 이에 대한 적절한 서비스를 제공할 수 있도록 하는 점에서 본 발명의 목적과 일부 유사한 점은 있으나, 카메라로부터 입력되는 동영상을 분석하여, 사용자의 행위를 인식하기 때문에 그 처리 복잡도가 매우 높고 처리시간이 오래 걸리며, 정확한 행위를 인식하기에는 그 한계가 있다.The prior art recognizes the behavior of the user and analyzes the moving picture inputted from the camera to recognize the behavior of the user, Its processing complexity is very high, processing time is long, and there is a limit to recognize correct behavior.

반면에 본 발명은 댁내의 공간을 특징(예: 사용용도)에 따라 복수의 공간으로 분리하고, 상기 댁내에 위치하는 복수의 센서로부터 수신되는 센서데이터를 상기 분리한 각 공간별로 필터링하여, 특정 공간에 위치하는 사용자의 행위를 인식하는 것이다. 이는 상기 선행기술과는 달리 특정 공간에 위치하는 사용자에 대한 행위를 인식함에 있어서, 해당 공간으로 필터링된 센서데이터만을 이용하기 때문에 상기 인식에 소요되는 시간 및 계산복잡도를 획기적으로 줄임과 동시에 인식결과에 대한 정확도를 현저하게 향상시킬 수 있다. On the other hand, the present invention separates a house space into a plurality of spaces according to a characteristic (for example, a use purpose), filters sensor data received from a plurality of sensors located in the house by each separated space, And recognizes the behavior of the user located in the user. This is because, unlike the prior art, only the sensor data filtered into the space is used in recognizing an action for a user located in a specific space, thereby greatly reducing the time and computational complexity required for the recognition, It is possible to remarkably improve the accuracy.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 댁내에 설치되는 복수의 센서로부터 수신되는 센서데이터를 토대로 사용자의 행위를 인식할 수 있도록 하는 방법 및 장치를 제공하는 것을 목적으로 한다.It is an object of the present invention to provide a method and apparatus for recognizing a user's behavior based on sensor data received from a plurality of sensors installed in a home.

또한 본 발명은 댁내의 공간을 특징에 따라 복수의 공간으로 분리하고, 사용자가 위치하는 해당 공간의 센서데이터만을 처리하는 공간필터링을 통해 사용자의 행위를 실시간으로 인식할 수 있도록 하는 방법 및 장치를 제공하는 것을 목적으로 한다.In addition, the present invention provides a method and apparatus for separating a house space into a plurality of spaces according to characteristics and realizing a user's behavior through spatial filtering processing only sensor data of a corresponding space in which the user is located .

또한 본 발명은 상기 분리한 각 공간별로 사용자에 의해 생성되는 행위를 사전에 정의하고, 상기 정의한 각 공간별 행위에 관련이 없는 센서데이터를 제외하여 사용자의 행위를 인식할 수 있도록 함으로써, 인식에 소요되는 시간 및 계산복잡도를 획기적으로 줄일 수 있도록 하는 방법 및 장치를 제공하는 것을 목적으로 한다. In addition, the present invention predefines an action generated by a user for each of the separated spaces and allows the user to recognize the behavior of the user by excluding sensor data not related to the defined action for each space, And to provide a method and apparatus for dramatically reducing time and computational complexity.

또한 본 발명은 기계학습을 적용하여 상기 분리된 공간에 위치하는 복수의 센서데이터를 토대로 사전에 정의된 공간별 행위 중 가장 가능성이 높은 행위를 선택함으로써, 사용자의 행위를 보다 정확하게 인식할 수 있도록 하는 방법 및 장치를 제공하는 것을 목적으로 한다. The present invention also provides a method and apparatus for detecting a user's behavior by selecting a most probable action among a plurality of predefined actions based on a plurality of sensor data located in the separated space by applying machine learning A method and an apparatus are provided.

본 발명의 일 실시예에 따른 공간필터링과 기계학습을 통한 행위인식 장치는, 복수의 공간으로 분리된 댁내로부터 수신되는 복수의 센서데이터를 상기 분리된 공간별로 필터링하는 공간필터링부 및 상기 필터링된 공간별 센서데이터를 이용하여 특정 공간에 위치하는 사용자의 행위를 인식하는 사용자 행위 인식부를 포함하는 것을 특징으로 한다.A device for recognizing a behavior through spatial filtering and machine learning according to an embodiment of the present invention includes a spatial filtering unit for filtering a plurality of sensor data received from a house separated into a plurality of spaces by the separated spaces, And a user action recognizing unit recognizing an action of a user located in a specific space by using the sensor data separately.

또한 상기 센서데이터는, 상기 분리한 각 공간에 대한 이름으로 네이밍되어 수신되며, 상기 공간별로 필터링하는 것은, 상기 센서데이터에 네이밍된 공간의 이름을 참조하여 상기 센서데이터를 공간별로 분류함으로써 수행되는 것을 특징으로 한다.Also, the sensor data is named and received by the names of the separated spaces, and the filtering by the spaces is performed by classifying the sensor data by spaces referring to the names of the spaces that are named in the sensor data .

또한 상기 행위인식 장치는, 사용자 행위를 인식하기 위한 행위인식 데이터 셋을 학습하여 상기 분리한 각 공간에 대한 학습모델을 생성하는 학습모델 생성부를 더 포함하며, 상기 행위인식 데이터 셋은 상기 분리한 각 공간에 대한 정보, 상기 각 공간에 따라 사용자에 의해 생성되는 적어도 하나 이상의 액티비티 및 상기 각 공간에 위치하는 센서정보를 포함하는 것을 특징으로 한다.The behavior recognition apparatus may further include a learning model generation unit configured to learn a behavior recognition data set for recognizing user behavior and generate a learning model for each of the separated spaces, Information about a space, at least one activity generated by a user according to each space, and sensor information located in each space.

또한 상기 학습모델은, 상기 각 공간별로 필터링된 복수의 센서데이터에 대한 조합을 입력으로 하여, 상기 각 공간에 따른 적어도 하나 이상의 액티비티에 대한 가능성을 산출하여 출력하는 것을 특징으로 한다.The learning model may include a combination of a plurality of sensor data filtered for each space, and calculates and outputs a probability of at least one activity according to each space.

또한 상기 사용자 행위 인식부는, 상기 특정 공간에 위치하는 사용자의 행위를 인식하기 위해 상기 특정 공간에 대한 학습모델에 해당 공간으로 필터링된 센서데이터의 조합을 입력하고, 상기 학습모델을 통해 출력되는 액티비티에 대한 가능성중 최대 가능성을 가지는 액티비티를 선택함으로써, 상기 특정 공간에 위치하는 사용자의 행위를 인식하는 것을 특징으로 한다.The user behavior recognition unit may be configured to input a combination of sensor data filtered in a corresponding space to a learning model for the specific space to recognize an action of a user located in the specific space, And recognizing an action of a user located in the specific space by selecting an activity having a maximum possibility among the possibilities.

아울러 본 발명의 일 실시예에 따른 공간필터링과 기계학습을 통한 행위인식 방법은, 복수의 공간으로 분리된 댁내로부터 수신되는 복수의 센서데이터를 상기 분리된 공간별로 필터링하는 공간필터링 단계 및 상기 필터링된 공간별 센서데이터를 이용하여 특정 공간에 위치하는 사용자의 행위를 인식하는 사용자 행위 인식 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of recognizing an action through spatial filtering and machine learning, the method comprising: a spatial filtering step of filtering a plurality of sensor data received from a house separated into a plurality of spaces by the separated spaces; And recognizing an action of a user located in a specific space by using space-specific sensor data.

또한 상기 행위인식 방법은, 사용자 행위를 인식하기 위한 행위인식 데이터 셋을 학습하여 상기 분리한 각 공간에 대한 학습모델을 생성하는 학습모델 생성 단계를 더 포함하며, 상기 행위인식 데이터 셋은 상기 분리한 각 공간에 대한 정보, 상기 각 공간에 따라 사용자에 의해 생성되는 적어도 하나 이상의 액티비티 및 상기 각 공간에 위치하는 센서정보를 포함하는 것을 특징으로 한다.The behavior recognition method further includes a learning model generation step of learning a behavior recognition data set for recognizing user behavior and generating a learning model for each of the separated spaces, Information about each space, at least one activity generated by a user according to each space, and sensor information located in each space.

또한 상기 사용자 행위 인식 단계는, 상기 특정 공간에 위치하는 사용자의 행위를 인식하기 위해 상기 특정 공간에 대한 학습모델에 해당 공간으로 필터링된 센서데이터의 조합을 입력하고, 상기 학습모델을 통해 출력되는 액티비티에 대한 가능성 중 최대 가능성을 가지는 액티비티를 선택함으로써, 상기 특정 공간에 위치하는 사용자의 행위를 인식하는 것을 특징으로 한다.The user action recognizing step may include inputting a combination of sensor data filtered into the corresponding space in the learning model for the specific space to recognize an action of a user located in the specific space, And recognizing an action of a user located in the specific space by selecting an activity having a maximum possibility among the possibilities for the specific space.

이상에서와 같이 본 발명의 공간필터링과 기계학습을 통한 행위인식 방법 및 그 장치에 관한 것으로, 댁내의 공간을 특징에 따라 적어도 하나 이상의 공간으로 분리하고, 각 공간으로부터 수신되는 센서데이터를 상기 분리한 각 공간별로 필터링함으로써, 사용자의 행위를 인식하기 위한 데이터를 최소화하여 상기 인식에 소요되는 시간 및 계산복잡도를 획기적으로 줄일 수 있는 효과가 있다.As described above, according to the present invention, there is provided a method and apparatus for recognizing an action through spatial filtering and machine learning. The method includes: dividing a house space into at least one space according to a characteristic; By filtering each space, data for recognizing the user's behavior can be minimized, and the time and computational complexity required for the recognition can be drastically reduced.

또한 본 발명은 사용자의 행위를 인식하기 위한 기계학습기법을 통해, 각 공간별로 미리 정의한 액티비티를 포함하는 행위인식 데이터 셋을 학습하여, 각 공간별 학습모델을 생성하고, 사용자가 특정 공간에서 인지되는 경우, 상기 특정 공간으로 필터링된 센서데이터와 해당 공간에 대한 학습모델을 이용하여 사용자의 행위를 인식함으로써, 사용자의 댁내 공간에서의 이동, 상기 사용자의 특정 공간 내에서의 행위를 실시간으로 인식할 수 있고, 신뢰성 높은 인식결과를 도출할 수 있는 효과가 있다.In addition, the present invention provides a method and apparatus for learning a behavior-aware data set including activities predefined for each space through a machine learning technique for recognizing a user's behavior, generating a learning model for each space, In this case, by recognizing the action of the user by using the sensor data filtered with the specific space and the learning model for the space, movement in the user's home space and action in the user's specific space can be recognized in real time There is an effect that a reliable recognition result can be derived.

도 1은 본 발명의 일 실시예에 따른 공간필터링과 기계학습을 통한 행위인식 방법 및 그 장치를 개략적으로 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 댁내의 위치하는 사용자의 행위를 인식하기 위한 행위인식 장치에 대한 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 사용자 행위인식 데이터 셋을 설명하기 위해 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 행위인식 장치에 저장되는 데이터의 형식인 리소스를 설명하기 위핸 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 학습모델 생성과정과 사용자의 행위를 인식하는 절차를 나타낸 흐름도이다.
1 is a conceptual diagram for schematically explaining a method of recognizing an action through spatial filtering and machine learning according to an embodiment of the present invention and an apparatus therefor.
2 is a block diagram illustrating a configuration of an action recognition device for recognizing an action of a user located in a house according to an embodiment of the present invention.
FIG. 3 is a view for explaining a user behavior recognition data set according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating a resource, which is a type of data stored in a behavior recognizing apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating a process of generating a learning model and a process of recognizing a user's behavior according to an embodiment of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 공간필터링과 기계학습을 통한 행위인식 방법 및 그 장치에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a method and apparatus for recognizing an action through spatial filtering and machine learning of the present invention will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements. Furthermore, specific structural and functional descriptions for embodiments of the present invention are presented for the purpose of describing an embodiment of the present invention only, and, unless otherwise defined, all terms used herein, including technical or scientific terms Have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as ideal or overly formal in the sense of the art unless explicitly defined herein .

도 1은 본 발명의 일 실시예에 따른 공간필터링과 기계학습을 통한 행위인식 방법 및 그 장치를 개략적으로 설명하기 위한 개념도이다.1 is a conceptual diagram for schematically explaining a method of recognizing an action through spatial filtering and machine learning according to an embodiment of the present invention and an apparatus therefor.

도 1에 도시한 바와 같이 행위인식 장치(100)는 댁내에 위치하는 복수의 센서(200)로부터 수신되는 센서데이터를 기반으로 사용자의 행위를 인식한다.As shown in FIG. 1, the behavior recognition apparatus 100 recognizes a user's behavior based on sensor data received from a plurality of sensors 200 located in a house.

또한 센서(200)는 피측정대상의 상태정보 또는 주변 환경에 대한 정보 등을 감지하여 이에 대한 정보를 전송하는 장치를 의미하는 것으로, 적어도 하나 이상의 센서를 포함하는 사물인터넷 디바이스와 PIR(passive infrared sensor, PIR) 센서, 온도센서, 습도센서 또는 초음파센서 등과 같이 개별적으로 특정 상태를 감지하는 센서, 사용자의 신체에 부착되어 사용자의 심박수, 신체온도, 혈압 등을 측정하는 웨어러블(wearable) 센서 또는 이들의 조합을 포함하는 개념이다.The sensor 200 senses information on the state of the object to be measured or information about the surrounding environment, and transmits information about the object. The object Internet device includes at least one sensor and a passive infrared sensor (PIR) , A PIR sensor), a temperature sensor, a humidity sensor, or an ultrasonic sensor, a wearable sensor attached to a user's body to measure a user's heart rate, body temperature, blood pressure, It is a concept that includes combinations.

한편 사물인터넷 디바이스는 네트워크에 연결되어 있으며, 적어도 하나 이상의 센서(200)를 포함하고, 사용자의 특정 행위(전자 기기의 on 또는 off)에 대한 정보를 전송하는 TV, 전자레인지 또는 전등 등과 같은 가전제품이나 전자기기 등을 포함한다.On the other hand, the object Internet device is connected to the network and includes at least one sensor 200 and is connected to a home appliance such as a TV, a microwave oven or a lamp for transmitting information on a specific action (on or off of the electronic device) And electronic devices.

또한 PIR 센서는, 특정 위치에서 사용자의 움직임을 감지하는 센서로써, 사람의 인체로부터 방사되는 적외선 파장분포에 대한 변화량을 감지하여 사용자의 존재유무를 감지한다.In addition, the PIR sensor is a sensor for detecting a movement of a user at a specific position, and detects the presence or absence of a user by detecting a change amount with respect to an infrared wavelength distribution radiated from a human body.

즉, 상기 행위인식 장치(100)는 사물인터넷 디바이스, 댁내에 위치하는 적어도 하나 이상의 센서(200) 또는 이들의 조합에 의해 생성되어 전송되는 센서데이터를 활용하여 사용자의 행위를 인식한다.That is, the behavior recognizing apparatus 100 recognizes the user's behavior by using sensor data generated and transmitted by the object Internet device, at least one sensor 200 located in the house, or a combination thereof.

한편 댁내 공간은 부분적으로 사용용도 또는 사용범위 등과 같이 특징에 따라 적어도 하나 이상의 공간으로 분리되며, 행위인식 장치(100)는 댁내에 위치하는 복수의 센서(200)로부터 수신되는 센서데이터를 상기 분리한 공간별로 필터링하는 공간필터링을 수행하고, 사용자가 특정 공간에 위치하는 경우 해당 공간으로 필터링된 센서데이터만을 이용하여 사용자의 행위를 인식한다.Meanwhile, the home space is partially separated into at least one space according to characteristics such as a use purpose or a use range, and the behavior recognition device 100 detects sensor data received from a plurality of sensors 200 located in the house, When the user is located in a specific space, the user's behavior is recognized using only the sensor data filtered into the space.

즉, 상기 공간필터링은 댁내의 공간을 부엌, 안방, 화장실 또는 거실 등과 같이 사용용도 혹은 사용범위에 따라 분리하고, 복수의 센서(200)로부터 수신되는 센서데이터를 각 공간별로 분류하는 것으로, 이를 통해 특정 공간에서의 사용자에 대한 행위를 간편하게 인식할 수 있도록 한다.That is, the spatial filtering divides the indoor space according to the use purpose or the use range such as a kitchen, a living room, a bathroom, a living room, etc., and classifies the sensor data received from the plurality of sensors 200 according to each space, Thereby making it possible to easily recognize an action for a user in a specific space.

또한 행위인식 장치(100)는 특정 공간에서 사용자의 행위를 인식하기 위하여, 사전에 정의된 사용자 행위인식 데이터 셋(data set)을 가지고 있으며, 상기 복수의 센서(200)로부터 수신되는 센서데이터와 상기 사용자 행위인식 데이터 셋을 토대로 특정 공간에서의 사용자에 대한 행위를 인식한다.Also, the behavior recognizing apparatus 100 has a predefined user behavior recognizing data set for recognizing a user's behavior in a specific space, and the sensor data received from the plurality of sensors 200 Based on the user behavior recognition data set, it recognizes the behavior for the user in a specific space.

상기 사용자 행위인식 데이터 셋은 상기 분리한 복수의 공간정보, 상기 분리한 각 공간에서 수행될 수 있는 사용자 액티비티(activity) 및 상기 각 공간에 위치하는 센서정보를 포함하여 구성된다. 한편 상기 행위인식 데이터 셋은 도 3을 참조하여 상세히 설명하도록 한다.The user behavior recognition data set includes a plurality of separated spatial information, a user activity that can be performed in each separated space, and sensor information located in each space. The behavior recognition data set will be described in detail with reference to FIG.

또한 행위인식 장치(100)는 사용자의 행위를 인식하기 위한 기계학습기법에 따른 분류 방법(classification methods)을 적용하여 사전에 정의된 상기 사용자 행위인식 데이터 셋을 학습하고, 이를 통해 상기 분리한 각 공간별 학습모델을 생성한다.Also, the behavior recognition apparatus 100 learns the user behavior recognition data set defined in advance by applying classification methods according to a machine learning technique for recognizing the behavior of the user, Create a star-learning model.

또한 행위인식 장치(100)는 특정 공간에서 사용자가 감지되는 경우, 복수의 센서(200)로부터 수신되는 센서데이터 중, 상기 특정 공간으로 필터링된 센서데이를 상기 특정 공간에 해당하는 학습모델에 입력하여 해당 사용자의 행위를 인식한다. 한편 상기 학습모델은 사전에 정의된 사용자 행위인식 데이터 셋뿐만 아니라 상기 사용자 행위인식 데이터 셋, 사용자의 직접적인 입력에 의한 데이터 또는 이들의 조합을 학습하여 생성될 수 있으며, 상기 행위인식 데이터 셋의 내용이 추가, 변동 또는 삭제되는 경우, 이를 반영하여 업데이트될 수 있다. 한편 상기 기계학습은 도 2를 참조하여 상세히 설명하도록 한다.In addition, when the user is sensed in a specific space, the behavior recognition apparatus 100 inputs the sensor data filtered in the specific space among sensor data received from the plurality of sensors 200 into a learning model corresponding to the specific space And recognizes the behavior of the user. Meanwhile, the learning model may be generated by learning not only the user behavior recognition data set defined in advance but also the user behavior recognition data set, the data by direct input by the user, or a combination thereof, and the contents of the behavior recognition data set Added, changed, or deleted, it may be updated to reflect this. The machine learning will be described in detail with reference to FIG.

또한 복수의 센서(200)에 의해 생성되는 센서데이터는 oneM2M 국제표준에서 정의하고 있는 리소스(resources) 형식으로 부호화되며, 상기 리소스는 각 공간별로 네이밍되어 송수신된다. 상기 리소스는 도 4를 참조하여 상세히 설명하도록 한다.The sensor data generated by the plurality of sensors 200 is encoded in a resource format defined by the oneM2M international standard, and the resources are named and transmitted / received for each space. The resource will be described in detail with reference to FIG.

상기에서 설명한 것과 같이 행위인식 장치(100)는 복수의 센서(200)를 통해 댁내에 위치하는 사용자의 행위를 인식하는 것이 주목적이지만, 상기 인식결과와 함께 복수의 센서(200)를 통해 수집되는 센서데이터를 토대로 전자기기의 동작상태 등과 같이 사용자의 주거환경에 대한 정보를 사용자에게 제공할 수도 있다.As described above, although the behavior recognition apparatus 100 is primarily intended to recognize the behavior of a user located in a house through a plurality of sensors 200, the behavior recognition apparatus 100 may include a sensor (not shown) And may provide the user with information about the user's living environment such as the operating state of the electronic device based on the data.

또한 행위인식 장치(100)는 네트워크에 연결되어 클라우드 서버의 형태로 구현될 수도 있으며, 각 가정별로 구비되어 각 가정의 구성원에 특화된 형태로 구현될 수도 있다.Also, the behavior recognizing apparatus 100 may be implemented in the form of a cloud server connected to a network, or may be implemented in a form specific to each member of the home.

도 2는 본 발명의 일 실시예에 따른 댁내의 위치하는 사용자의 행위를 인식하기 위한 행위인식 장치에 대한 구성을 나타낸 블록도이다.2 is a block diagram illustrating a configuration of an action recognition device for recognizing an action of a user located in a house according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 복수의 공간으로 분리된 댁내에 위치하는 적어도 하나 이상의 사용자에 대한 행위를 인식하기 위한 행위인식 장치(100)는 복수의 센서로부터 센서데이터를 수집하는 센서데이터 수집부(110), 상기 수집한 센서데이터를 기반으로 특정 공간에서의 사용자 존재유무를 감지하는 사용자 감지부(120), 상기 수집한 센서데이터를 상기 분리된 공간별로 필터링하는 공간필터링부(130), 사용자의 행위를 인식하기 위한 학습모델을 생성하는 학습모델 생성부(140) 및 상기 생성한 학습모델을 이용하여 사용자의 행위를 인식하는 사용자 행위 인식부(150), 복수의 센서(200)로부터 수신되는 센서데이터를 관리하는 센서데이터 관리부(160) 및 상기 행위인식 장치(100)를 전반적으로 제어하기 위한 제어부(170)를 포함하여 구성된다.2, the behavior recognition apparatus 100 for recognizing an action for at least one user located in a house separated into a plurality of spaces includes a sensor data collection unit (for collecting sensor data from a plurality of sensors) A user detection unit 120 for detecting presence or absence of a user in a specific space based on the collected sensor data, a spatial filtering unit 130 for filtering the collected sensor data by the separated spaces, A learning model generation unit 140 for generating a learning model for recognizing a behavior, a user behavior recognition unit 150 for recognizing a user's behavior using the generated learning model, A sensor data management unit 160 for managing data and a control unit 170 for controlling the behavior recognition apparatus 100 as a whole.

또한 센서데이터 수집부(110)는 댁내에 위치하는 복수의 센서(200)로부터 실시간으로 센서데이터를 수집한다.The sensor data collection unit 110 collects sensor data in real time from a plurality of sensors 200 located in the house.

한편 상기 센서데이터는 사물인터넷에 대한 oneM2M 국제표준에서 정의하고 있는 리소스로 부호화되어 전송되며, 상기 리소스는 상기 센서데이터를 전송하는 복수의 센서(200)가 위치하는 각 공간의 이름으로 네이밍되어 전송된다. 또한 행위인식 장치(100)는 상기 센서(200)로부터 수신되는 센서데이터를 각 공간별로 저장하며, 저장되는 센서데이터 역시 리소스형태로 저장된다. 한편 상기 리소스는 도 4를 참조하여 상세히 설명하도록 한다. Meanwhile, the sensor data is encoded and transmitted as a resource defined by the oneM2M international standard for the Internet of Things, and the resource is named by the name of each space in which the plurality of sensors 200 transmitting the sensor data are located and transmitted . Also, the behavior recognition apparatus 100 stores sensor data received from the sensor 200 for each space, and stored sensor data is also stored in a resource form. The resource will be described in detail with reference to FIG.

상기 각 공간은 댁내의 전체 공간을 공간특징에 따라 분리된 것으로 도 1을 참조하여 설명하였으므로 상세한 설명은 생략하도록 한다.Each of the above-mentioned spaces has been described with reference to FIG. 1 as an entire space in the house is divided according to spatial characteristics, and a detailed description thereof will be omitted.

또한 사용자 감지부(120)는 상기 수신되는 센서데이터를 토대로 특정 공간에 위치하는 사용자를 감지한다.Also, the user sensing unit 120 senses a user located in a specific space based on the received sensor data.

사용자 감지부(120)는 특정 공간에 사용자가 존재하는 지에 대한 여부를 감지하며, 상기 감지는 PIR 센서 또는 특정 공간에서 사용자에 의해 최초로 트리거(trigger)되는 센서(200)로부터 수신되는 센서데이터를 선별함으로써, 수행될 수 있다.The user sensing unit 120 senses whether or not a user exists in a specific space. The sensing unit senses sensor data received from a PIR sensor or a sensor 200 triggered by a user in a specific space for the first time . ≪ / RTI >

즉, 상기 센서(200)들은 그 사용목적에 따라 실시간으로 센서데이터를 생성하여 상기 행위인식 장치(100)를 전송하게 되며, 상기 행위인식 장치(100)는 PIR 센서를 통해 사용자의 존재를 감지하여 전송하는 센서데이터 또는 특정 공간에서 사용자가 특정 기기를 제어하거나 또는 상기 사용자를 감지하여 최초로 트리거되는 센서(200)로부터 센서데이터가 수신되는 경우에, 해당 센서데이터에 네이밍된 공간이름을 참조함으로써, 사용자가 어느 공간에 위치하는지를 감지한다.That is, the sensors 200 generate sensor data in real time according to the purpose of use and transmit the behavior recognition apparatus 100. The behavior recognition apparatus 100 detects the presence of the user through the PIR sensor When the sensor data is received from the sensor data to be transmitted or the sensor 200 that is triggered first by the user to control a specific device or by sensing the user in a specific space, In which space it is located.

예를 들어, 욕실에 위치하는 PIR 센서로부터 사용자를 감지한 센서데이터를 수신하는 경우, 상기 사용자 감지부(120)는 상기 사용자가 화장실에 위치하고 있다는 것을 감지할 수 있으며, 또한 사용자가 부엌으로 이동하여 최초로 전자레인지를 온(on)시킨 경우, 상기 전자레인지의 온/오프(off)상태를 감지하는 감지센서로부터 상기 전자레인지의 상태 변환에 대한 센서데이터가 수신된 경우 상기 사용자가 부엌에 위치하고 있다는 것을 감지할 수 있다.For example, when receiving the sensor data from the PIR sensor located in the bathroom, the user detection unit 120 may detect that the user is located in the toilet, and if the user moves to the kitchen When sensor data for the state change of the microwave oven is received from a sensor for sensing the on / off state of the microwave oven when the microwave oven is first turned on, it is determined that the user is located in the kitchen Can be detected.

상기 사용자 감지부(120)에 의해 사용자가 특정 공간에 위치하고 있는 것이 감지된 경우, 실시간으로 수집되는 센서데이터를 공간별로 필터링하는 상기 공간필터링부(130)는 해당 공간으로 필터링된 센서데이터를 사용자 행위 인식부(150)로 제공한다.If it is detected by the user detection unit 120 that the user is located in a specific space, the spatial filtering unit 130 for filtering the sensor data collected in real time according to the space, And provides it to the recognition unit 150.

이를 통해 센서데이터를 토대로 사용자 행위를 인식함에 있어서, 사용자가 위치하고 있는 특정 공간 이외의 센서데이터를 제외할 수 있도록 하여, 상기 인식에 필요한 시간 및 계산복잡도를 현저하게 줄일 수 있다.Accordingly, in recognizing the user's action based on the sensor data, sensor data other than the specific space in which the user is located can be excluded, and the time and computational complexity required for the recognition can be significantly reduced.

한편 상기 필터링은 센서데이터에 네이밍된 공간이름을 참조하여, 상기 사용자가 위치하는 특정 공간의 이름으로 네이밍된 센서데이터를 선별함으로써, 수행된다.On the other hand, the filtering is performed by referring to the space name which is named in the sensor data, and by selecting the named sensor data by the name of the specific space in which the user is located.

또한 학습모델 생성부(140)는 기 저장된 행위인식 데이터 셋을 학습하여, 사용자의 행위를 인식하기 위한 학습모델을 생성한다.Also, the learning model generation unit 140 learns previously stored behavior recognition data sets, and generates a learning model for recognizing the behavior of the user.

한편 상기 학습모델은 각 공간별로 생성되며, 상기 생성된 학습모델은 상기 사용자 행위 인식부(150)에 의해 사용될 수 있도록 데이터베이스(300)에 저장된다.Meanwhile, the learning model is generated for each space, and the generated learning model is stored in the database 300 so that it can be used by the user behavior recognition unit 150.

또한 학습모델 생성부(140)는 상기 행위인식 데이터 셋을 주기적으로 학습하거나, 또는 사용자에 의해 상기 행위인식 데이터 셋에 포함되는 데이터가 추가, 삭제, 변경 등과 같이 업데이트 된 경우, 업데이트된 행위인식 데이터 셋을 학습하여 각 공간별 학습모델을 최신의 상태로 유지할 수 있도록 한다.Also, the learning model generation unit 140 periodically learns the behavior recognition data set, or when the data included in the behavior recognition data set is updated by the user such as addition, deletion, change, etc., the updated behavior recognition data And learning models can be kept up-to-date.

한편 상기 생성한 학습모델의 입력은 상기 센서데이터들에 대한 조합으로 구성되며, 센서데이터의 감지시간에 따라 순차적으로 입력된다. 또한 상기 학습모델은 상기 입력되는 센서데이터들에 대한 조합을 토대로 사전에 정의된 각 공간별 액티비티에 대한 가능성을 산출하여 출력하며, 상기 사용자 행위 인식부(150)는 최대 가능성을 가지는 액티비티를 선택함으로써, 해당 사용자의 행위를 인식한다. 한편 상기 가능성은 확률로 표현될 수 있다.Meanwhile, the input of the generated learning model is composed of combinations of the sensor data, and is sequentially input according to the sensing time of the sensor data. Also, the learning model calculates and outputs a possibility for each space activity defined in advance based on a combination of the input sensor data, and the user behavior recognition unit 150 selects an activity having the maximum possibility , And recognizes the behavior of the user. On the other hand, the likelihood can be expressed by probability.

또한 학습모델 생성부(140)는 각 공간에 대한 사용자 액티비티에 대한 가능성을 산출함으로써, 특정 공간에서의 사용자에 대한 행위를 인식하기 위한 기계학습 기법을 이용하여 상기 행위인식 데이터 셋을 학습한다.Also, the learning model generation unit 140 learns the behavior-aware data set using a machine learning technique for recognizing the behavior of the user in a specific space by calculating the possibility of the user activity for each space.

한편 상기 학습은 NB(naive bayes) 기법, HMM(hidden markov model) 기법 또는 HSMM(hidden semi-markov model) 기법을 통해 수행될 수 있다. 다만 본 발명에서는 상기에서 나열한 기계학습 기법에 한정하지 않으며, 사전에 정의된 행위인식 데이터 셋을 학습하여 각 공간별 액티비티에 대한 가능성을 산출함으로써, 사용자의 행위를 인식할 수 있도록 하는 다양한 기계학습 기법을 이용하여 구현될 수 있다. 즉, 본 발명에서는 기계학습기법에 대한 제한을 두지 아니한다. Meanwhile, the learning can be performed through a naive bayes (NB) technique, a hidden markov model (HMM) technique, or a hidden semi-markov model (HSMM) technique. However, the present invention is not limited to the above-described machine learning techniques, and various machine learning techniques for learning the behavior of the user by learning the predefined behavior-aware data sets, . ≪ / RTI > That is, the present invention does not limit the machine learning technique.

한편 상기 NB 기법은 특성들 사이의 독립을 가정하는 베이즈 정리를 적용하여, 분류하고자하는 대상의 각 분류별 확률을 계산하여, 그 확률이 큰 쪽으로 분류하는 방법을 취하는 것으로 예를 들어, 특정 공간에서 미리 정의된 액티비티들에 대한 분류가 있을 때, 입력되는 센서데이터의 조합에 따라 각 액티비티들에 대한 확률을 계산하여 확률이 높은 액티비티를 선택함으로써, 특정 공간에서 사용자의 행위를 인식할 수 있도록 한다.On the other hand, the NB technique calculates a probability of each classification of an object to be classified by applying Bayes theorem that assumes independence between characteristics, and classifies the probability into a higher probability. For example, When there is a classification for predefined activities, probability of each activity is calculated according to the combination of sensor data to be inputted, and the activity having high probability is selected so that the user's behavior can be recognized in the specific space.

또한 HMM 및 HSMM 기법은 시간성에 의존하는 순차데이터를 다룰 때 주로 사용되는 기계학습 기법으로, 특정시간(t)에서의 관측은 가장 최근 r개의 관측에만 의존한다는 가정 하의 확률 추론 방법이다. 이를 통해 수신되는 센서데이터의 조합에 따라 미리 정의된 특정 공간에서의 액티비티 중 확률이 제일 높은 액티비티를 선택함으로써, 사용자의 행위를 인식할 수 있도록 한다.In addition, HMM and HSMM are machine learning methods that are used mainly for dealing with time-dependent sequential data. Probability inference method assumes that observation at a specific time (t) depends only on r most recent observations. And selects an activity having the highest probability among the activities in the predetermined space in accordance with the combination of sensor data received through the sensor data, thereby allowing the user's behavior to be recognized.

또한 사용자 행위 인식부(150)는 공간필터링부(130)를 통해 상기 사용자가 위치하는 특정 공간으로 필터링된 복수의 센서데이터를 제공받은 경우, 해당 공간에서 사용자의 행위를 인식하기 위한 학습모델을 데이터베이스(300)로부터 로딩한다.In addition, when the user behavior recognition unit 150 receives a plurality of filtered sensor data through a spatial filtering unit 130, a learning model for recognizing a user's behavior in the corresponding space is stored in the database (300).

또한 사용자 행위 인식부(150)는 상기 로딩한 학습모델에 상기 제공받은 복수의 센서데이터에 대한 조합을 입력하여 해당 공간에서의 사용자에 대한 행위를 인식한다.Also, the user behavior recognition unit 150 inputs a combination of the plurality of provided sensor data to the loaded learning model, and recognizes an action for the user in the corresponding space.

상기 복수의 센서데이터에 대한 조합은 복수의 센서(200)가 사용자의 행위에 따라 동작된 순서를 의미한다. 즉, 특정 공간에 센서 #1, 센서 #2 및 센서 #3이 위치하고, 사용자의 행위에 따라 센서 #3, 센서 #1 및 센서 #2가 순서대로 동작되어 센서데이터를 전송한 경우에, 센서 #3, 센서 #1 및 센서 #2의 센서데이터가 상기 학습모델에 순차적으로 입력된다. The combination of the plurality of sensor data means a sequence in which a plurality of sensors 200 are operated according to an action of a user. That is, when the sensor # 1, the sensor # 2, and the sensor # 3 are located in a specific space and the sensor # 3, the sensor # 1, and the sensor # 3, sensor # 1 and sensor # 2 are sequentially inputted to the learning model.

한편 특정 공간에 위치하는 복수의 센서(200)는 일련의 동작순서를 두고 순차적으로 동작하는 것이 아니라 사용자의 행위에 따라 랜덤하게 동작되어 센서데이터를 전송하는 것이다. 이에 따라 센서데이터에 대한 조합은 이산시계열의 데이터(discrete-time series data)가 되며, 상기 학습모델은 이러한 이산시계열의 데이터를 입력으로 하여 미리 정의된 공간별 액티비티에 대한 가능성을 산출한다.On the other hand, the plurality of sensors 200 located in a specific space are not operated sequentially in a series of operation sequences, but are randomly operated according to the user's actions to transmit sensor data. Accordingly, the combination of the sensor data becomes discrete-time series data, and the learning model inputs the data of the discrete time series to calculate the possibility for the predetermined space-specific activity.

또한 사용자 행위 인식부(150)는 상기 학습모델에 의해 산출된 각 액티비티에 대한 가능성 중 최대 가능성을 가지는 액티비티를 선택함으로써, 사용자의 행위를 인식한다.Also, the user behavior recognition unit 150 recognizes the user's behavior by selecting an activity having the maximum possibility among the possibilities for each activity calculated by the learning model.

또한 사용자 행위 인식부(150)는 인식한 결과를 네트워크에 연결된 타 사용자(예: 인식대상자의 보호자)의 통신단말로 전송하여 이를 실시간으로 확인할 수 있도록 한다.Also, the user behavior recognition unit 150 transmits the recognized result to a communication terminal of another user (for example, a guardian of the recognition subject) connected to the network so that the user can confirm it in real time.

또한 센서데이터 관리부(160)는 실시간으로 수신되는 센서데이터를 리소스 형태로 데이터베이스(300)에 저장 및 관리한다. 이때 상기 센서데이터는 상기 공간필터링부(130)에 의해 공간별로 필터링된 것으로, 공간별로 정의된 리소스에 각각 저장된다.In addition, the sensor data management unit 160 stores and manages sensor data received in real time in the database 300 in the form of a resource. At this time, the sensor data is filtered by the spatial filtering unit 130 and stored in the resources defined for each space.

도 3은 본 발명의 일 실시예에 따른 사용자 행위인식 데이터 셋을 설명하기 위해 나타낸 도면이다.FIG. 3 is a view for explaining a user behavior recognition data set according to an embodiment of the present invention.

도 3에 도시한 바와 같이, 사용자 행위인식 데이터 셋은 댁내의 특정 공간에 위치하는 사용자의 행위를 인식하기 위해 학습되는 데이터로써, 행위인식 장치(100)에 저장된다.As shown in FIG. 3, the user behavior recognition data set is data that is learned to recognize an action of a user located in a specific space in the house, and is stored in the behavior recognition apparatus 100.

사용자 행위인식 데이터 셋은, 댁내의 공간을 사용용도, 범위, 크기 또는 이들의 조합을 포함하는 공간특징에 따라 적어도 하나 이상의 공간으로 분리하고, 상기 분리한 각 공간별 액티비티를 사전에 정의한 데이터이다.The user behavior recognition data set is data that divides a house space into at least one space according to a space feature including a usage purpose, a range, a size, or a combination thereof, and defines an activity for each space in advance.

또한 사용자 행위인식 데이터 셋은, 상기 분리한 각 공간에 대한 공간정보(spatial information), 공간별 액티비티 및 각 공간에 위치하는 적어도 하나 이상의 센서(200)에 대한 정보를 포함하여 구성된다.In addition, the user behavior recognition data set includes spatial information for each separated space, activity for each space, and information about at least one sensor 200 located in each space.

상기 공간정보는 댁내의 공간을 특징에 따라 분리한 정보를 나타내는 것으로, 예를 들어 침실(bedroom), 욕실(bathroom), 부엌(kitchen), 댁내 출입문(front door)이 될 수 있다. 이는 하나의 일 실시예에 불과하며, 사용자에 의해 더욱 세밀하게 분리될 수 있음은 당연하다.The space information represents information obtained by separating a space in the house according to characteristics, and may be, for example, a bedroom, a bathroom, a kitchen, or a front door. It is to be understood that this is only one embodiment and can be more finely divided by the user.

또한 공간별 액티비티는 각 공간에서 수행될 수 있는 사용자의 액티비티를 정의해놓은 것으로 예를 들어, 침실의 경우 "잠을 잔다(go to bed).", "옷을 입는다(get dressed)."등이 될 수 있다. 이 또한 사용자에 따라 다양하게 정의될 수 있다.In addition, space-specific activities define user activities that can be performed in each space. For example, in the case of a bedroom, "go to bed", "get dressed" . This can also be variously defined depending on the user.

또한 센서(200)에 대한 정보는 해당 공간에 위치하는 센서(200)의 종류들을 나타낸다. 예를 들어, 도어(door)와 찬장(cupboard)의 개폐여부를 감지하는 리드 스위치(reed switch) 센서, 소파에 앉아 있거나 침대에 누워 있는지를 측정하는 압력 매트(pressure mats) 센서, 사용자의 존재유무를 감지하는 PIR 센서(인체감지 센서), 변기사용을 감지하는 플로트(float) 센서 등이 될 수 있다.The information on the sensor 200 indicates the types of the sensors 200 located in the corresponding space. For example, a reed switch sensor that detects whether a door and a cupboard are opened or closed, a pressure mats sensor that measures whether the user is sitting on a couch or lying on a bed, A flood sensor for detecting the use of the toilet, and the like.

상기에서 설명한 것과 같이 행위인식 데이터 셋은 사용자의 행위를 인식하기 위한 학습데이터가 되며, 학습을 통해 생성되는 학습모델은 공간별 센서(200)들에 의해 생성되어 전송되는 센서데이터의 조합을 입력으로 하여 각 공간별 액티비티들에 대한 가능성을 산출하여 출력한다.As described above, the behavior recognition data set is learning data for recognizing the behavior of the user, and the learning model generated through the learning is a combination of the sensor data generated and transmitted by the sensors 200 for each space And calculates and outputs the possibilities for activities in each space.

도 4는 본 발명의 일 실시예에 따른 행위인식 장치에 저장되는 데이터의 형식인 리소스를 설명하기 위핸 나타낸 도면이다.FIG. 4 is a diagram illustrating a resource, which is a type of data stored in a behavior recognizing apparatus according to an embodiment of the present invention.

한편 리소스는 oneM2M 표준에서 정의하고 있는 리소스 구조를 따른다. 다만, 각 센서(200)들로부터 수신되는 센서데이터는 공간별로 네이밍되어 저장된다.Resources, on the other hand, follow the resource structure defined by the oneM2M standard. However, the sensor data received from each of the sensors 200 is named and stored for each space.

도 4에 도시한 바와 같이, 행위인식 장치(100)에 저장되는 리소스는 트리구조(tree structure) 또는 링크에 의해 연결된 구조를 가지며, 고유한 주소(예: URI 등)를 이용하여 어드레싱(addressing)될 수 있는 데이터 구조를 지칭한다.As shown in FIG. 4, the resources stored in the behavior recognition apparatus 100 have a structure connected by a tree structure or a link, and addressing is performed using a unique address (e.g., a URI) Quot; data structure "

복수의 센서(200)로부터 수신되는 센서데이터는 리소스로 저장되며, 상기 리소스는 URI(uniform resource identifier, URI)로 식별된다. 또한 리소스는 리소스 타입으로 정의되며, 상기 리소스 타입은 해당 리소스 타입의 속성들(attributes)과 자식 리소스(child resource) 타입들로 정의된다.Sensor data received from a plurality of sensors 200 is stored as a resource, and the resource is identified by a uniform resource identifier (URI). Also, a resource is defined as a resource type, and the resource type is defined as attributes and child resource types of the resource type.

따라서 도 4에 나타낸 것과 같이 리소스 타입 <행위인식장치>는 행위인식 장치(100)에 저장되는 리소스의 루트(root) 리소스 타입으로써, 공간별로 위치하는 센서(100)로부터 수신되는 센서데이터 및 서비스를 제공하기 위한 정책들에 대한 정보가 저장된다.Therefore, as shown in FIG. 4, the resource type < action recognition device > is a root resource type of a resource stored in the behavior recognition device 100, and includes sensor data and service received from the sensor 100, Information about policies to provide is stored.

상기 리소스 타입 <행위인식장치>는 AE(Application Entity) 리소스 타입을 포함하여, 접근 제어 정책(access control policy) 리소스 타입, 컨테이너(container) 리소스 타입, 그룹(group) 리소스 타입, 구독(subscription) 리소스 타입 등을 포함할 수 있다.The resource type < action recognition device > includes an access control policy resource type, a container resource type, a group resource type, a subscription resource, Type, and the like.

상기 AE 리소스 타입은 댁내의 공간을 복수의 공간으로 분리한 각 공간의 이름으로 네이밍되며, 공간별 센서(200)에 대한 정보 및 공간별 센서데이터가 저장된다.The AE resource type is named by the name of each space that divides a house space into a plurality of spaces, and information on the space-dependent sensor 200 and space-specific sensor data are stored.

예를 들어, AE 리소스 타입이 욕실(즉, <AE: bedroom>)인 경우, 해당 AE 리소스 타입의 식별자(ID), 접근제어정책 리소스 타입, 구독 리소스 타입, 욕실에 위치하는 센서(200)(예: 조명센서, 온도 및 습도 센서, 초음파 센서 등)들의 센서데이터가 저장되는 컨네이터 리소스 타입을 포함한다. 또한 상기 컨테이너 리소스 타입은 상기 욕실에 위치하는 센서(200)들의 데이터가 저장되는 것으로 각 센서(200)들의 이름으로 네이밍된다.For example, when the AE resource type is a bathroom (i.e., <AE: bedroom>), the identifier (ID) of the AE resource type, the access control policy resource type, the subscription resource type, For example, a light sensor, a temperature and humidity sensor, an ultrasonic sensor, etc.). In addition, the container resource type is named by the name of each sensor 200 as the data of the sensors 200 located in the bathroom are stored.

또한 접근제어정책 리소스 타입은 접근 권한과 관련된 정보를 저장하는 리소스 타입이다. 즉, 리소스 타입 <행위인식장치>에 포함된 접근 권한 정보를 이용하여 접근하는 동작에 관한 접근 제어가 이루어진다.The access control policy resource type is also a resource type that stores information related to access rights. That is, access control is performed on the operation of accessing using the access authority information included in the resource type < behavior recognition apparatus >.

또한 리소스 타입 <행위인식장치>에 포함된 컨테이너 리소스 타입은 상기 행위인식 장치(100)에서 생성되는 정보가 저장된다.The container resource type included in the resource type < behavior recognition device > stores information generated by the behavior recognition device 100. [

또한 그룹 리소스 타입은 여러 리소스를 하나로 묶어 함께 전송할 수 있도록 하는 기능을 제공하며, 구독 리소스 타입은 리소스의 상태가 변경되는 것을 통지(notification)를 통해 알려주는 기능을 수행한다.In addition, the group resource type provides a function that allows a plurality of resources to be bundled together, and the subscription resource type notifies that a state of a resource is changed through a notification.

도 5는 본 발명의 일 실시예에 따른 학습모델 생성과정과 사용자의 행위를 인식하는 절차를 나타낸 흐름도이다.5 is a flowchart illustrating a process of generating a learning model and a process of recognizing a user's behavior according to an embodiment of the present invention.

도 5에 도시한 바와 같이 사용자의 행위를 인식하기 위한 학습모델을 생성하기 위한 과정은 우선, 행위인식 장치(100)는 데이터베이스(300)에 저장되어 있는 행위인식 데이터 셋을 로딩(loading)한다(S110).5, in order to create a learning model for recognizing a behavior of a user, the behavior recognition apparatus 100 loads the behavior recognition data set stored in the database 300 (step &lt; RTI ID = 0.0 &gt; S110).

상기 행위인식 데이터 셋은, 댁내의 전체 공간을 부엌, 거실, 화장실, 안방, 작은방, 정문 또는 욕실 등과 같이 복수의 공간을 분리하고, 해당 공간에서 사용자에 의해 수행될 수 있는 액티비티를 미리 정의한 것으로, 상기 분리한 복수의 공간에 위치하는 복수의 센서(200)들에 대한 정보를 포함한다.The behavior recognition data set may include a plurality of spaces such as a kitchen, a living room, a bathroom, a living room, a small room, a front door, a bathroom, or the like, and may define activities that can be performed by the user in the space , And information on the plurality of sensors 200 located in the separated plurality of spaces.

다음으로 행위인식 장치(100)는 상기 로딩한 행위인식 데이터 셋을 기반으로 공간별 학습모델 학습을 수행하여(S120), 상기 분리한 각 공간에 대한 학습모델을 각각 생성하여 데이터베이스(300)에 저장한다(S130).Next, the behavior recognition apparatus 100 performs a learning model learning for each space based on the loaded behavior recognition data set (S120), generates a learning model for each of the separated spaces, and stores the generated learning models in the database 300 (S130).

공간별 학습모델 학습은 상기 분리한 각 공간별로 나누어 수행되며, 상기 데이터 셋이 포함되어 있는 적어도 하나 이상의 센서(200)에서 생성되는 센서데이터들에 대한 이산시계열적인 조합(즉, 센서데이터의 감지순서)에 따라 공간별로 정의된 각각의 액티비티에 대한 가능성을 산출하여 출력할 수 있도록 한다.The learning model learning for each space is performed separately for each of the separated spaces and a discrete time series combination of sensor data generated by at least one sensor 200 including the data set ), The possibility of each activity defined for each space can be calculated and output.

예를 들어, 상기 공간이 부엌이고, 미리 정의된 액티비티가 "음식을 먹는다." 또는 "설거지를 한다."이며, 해당 부엌에 위치하는 센서(200)가 플로트 센서(센서 #1), 전자레인지의 동작 상태를 감지하는 센서(센서 #2), 냉장고의 문의 열고 닫음을 감지하는 센서(센서 #3) 및 사람이 의자에 앉는 것을 감지하는 압력센서(센서 #4)로 구성되어 있는 경우, 상기 센서 #1, 센서 #2, 센서 #3 및 센서 #4에 대한 조합에 따라 상기 액티비티에 대한 가능성을 산출하여 출력하는 것이다. 이때 상기 센서(센서 #1, 센서 #2, 센서 #3 및 센서 #4)에 대한 조합은 적어도 하나 이상으로 구성된다.For example, if the space is a kitchen and the predefined activity is "eat food." (Sensor # 2) for detecting the operating state of the microwave oven, and a sensor (not shown) for detecting the opening and closing of doors of the refrigerator (Sensor # 3) and a pressure sensor (sensor # 4) for sensing the sitting of a person on a chair, the sensor # 1, the sensor # 2, the sensor # 3 and the sensor # And outputs the possibility for the activity. At this time, the combination of the sensors (sensor # 1, sensor # 2, sensor # 3, and sensor # 4) is composed of at least one.

상기에서 설명한 것과 같이, 상기 학습모델은 공간별로 생성되는 것이 바람직하지만, 상기 행위인식 데이터 셋을 학습하여 하나의 학습모델을 통해 각 공간별 액티비티에 대한 가능성을 산출할 수 있도록 구현될 수 있음은 당연하다. As described above, it is preferable that the learning model is generated for each space. However, it is possible to implement the learning model by learning the behavior recognition data set and calculating the possibility for the activity for each space through one learning model Do.

이하에서는 특정 공간에서 사용자의 행위를 인식하는 과정을 상세히 설명하도록 한다.Hereinafter, a process of recognizing a user's behavior in a specific space will be described in detail.

도 5에 도시한 것과 같이, 특정 공간에서 사용자의 행위를 인식하는 과정은 우선, 행위인식 장치(100)는 댁내에 위치하는 복수의 센서(200)로부터 센서데이터를 실시간으로 수집한다(S210).As shown in FIG. 5, in the process of recognizing a user's behavior in a specific space, the behavior recognition apparatus 100 collects sensor data in real time from a plurality of sensors 200 located at home (S210).

센서데이터는 리소스 형식으로 전송되며, 상기 리소스의 타입은 해당 센서데이터를 전송하는 센서(200)가 위치하는 특정 공간의 이름으로 네이밍되어 전송된다.The sensor data is transmitted in the resource format, and the type of the resource is transferred by naming the specific space in which the sensor 200 transmitting the sensor data is located.

또한 상기 센서데이터는 센싱정보(즉, 측정값)을 포함하며, 해당 센서(200)의 식별자(identifier, ID) 및 감지시간을 더 포함할 수 있다. 상기 센서데이터는 리소스 구조로 부호화되어 전송된다.Further, the sensor data includes sensing information (i.e., a measured value), and may further include an identifier (ID) of the sensor 200 and a sensing time. The sensor data is encoded and transmitted in a resource structure.

또한 행위인식 장치(100)는 복수의 센서(200)로부터 센서데이터를 수신하여 자체적으로 관리하는 리소스 구조에 해당 센서데이터를 삽입하여 데이터베이스(300)에 저장함으로써, 상기 센서데이터를 관리하며, 데이터베이스(200)에 저장되는 리소스는 상기 수신되는 센서데이터의 측정값이 변경되는 경우 이를 반영하여 업데이트될 수 있다.The behavior recognition apparatus 100 also receives sensor data from a plurality of sensors 200 and inserts the sensor data into a resource structure managed by itself, stores the sensor data in the database 300, manages the sensor data, 200 may be updated by reflecting a change in the measured value of the received sensor data.

다음으로 행위인식 장치(100)는 상기 수신되는 복수의 센서데이터를 토대로 사용자를 감지한다(S220).Next, the behavior recognition apparatus 100 senses a user based on the plurality of received sensor data (S220).

상기 감지는 사용자가 위치하는 특정 공간을 인식하기 위해 수행되는 것으로, 사용자가 위치하는 특정 공간은, 상기 특정 공간에 위치하여 사용자의 움직임을 감지하는 PIR 센서, 또는 사용자에 의해 상기 특정 공간에서 최초로 트리거되는 센서(200)로부터 전송되는 센서데이터를 통해 감지될 수 있다.The sensing is performed to recognize a specific space in which the user is located. The specific space in which the user is located is a PIR sensor that is located in the specific space and senses the motion of the user, The sensor data transmitted from the sensor 200 can be detected.

다음으로 행위인식 장치(100)는 공간필터링을 통해 댁내의 센서(200)들로부터 수신되는 센서데이터 중 상기 S220단계에서 감지한 특정 공간에 위치하는 센서(200)들로부터 전송된 센서데이터를 선별한다(S230).Next, the behavior recognition apparatus 100 selects sensor data transmitted from the sensors 200 located in the specific space sensed in the step S220 among the sensor data received from the sensors 200 in the house through spatial filtering (S230).

한편 상기 공간필터링은 사전에 댁내의 공간을 복수의 공간으로 분리하고, 댁내에 위치하는 복수의 센서(200)로부터 수신되는 센서데이터를 상기 분리한 각 공간별로 필터링하는 것을 의미하는 것으로, 상기 분리한 각 공간별로 사용자의 행위를 인식할 수 있도록 한다. 이는 상기 인식에 불필요한 센서데이터를 제외하여 실질적으로 필요한 센서데이터만을 이용하여 사용자의 행위를 인식할 수 있도록 함으로써, 시간 및 계산복잡도를 현저하게 낮출 수 있고 보다 정확하고 신뢰성 높은 인식결과를 도출할 수 있다.Meanwhile, the spatial filtering refers to filtering the sensor data received from a plurality of sensors 200 located in the house by the separated spaces, by separating the house space into a plurality of spaces in advance, It is possible to recognize the behavior of the user for each space. This makes it possible to recognize the behavior of the user by using only the sensor data that is substantially required by excluding the sensor data unnecessary for the recognition, thereby remarkably reducing the time and the calculation complexity and deriving a more accurate and reliable recognition result .

또한 상기 분리한 각 공간별로 센서데이터를 필터링하는 것은 상기 센서데이터에 네미밍된 공간이름을 참조하고, 상기 참조한 공간이름에 따라 상기 센서데이터를 분류함으로써, 수행된다.Filtering the sensor data for each separated space is performed by referring to the space name that is nimmed in the sensor data and classifying the sensor data according to the referenced space name.

또한 상기 공간별로 필터링된 센서데이터들은 행위인식 장치(100)에서 관리되는 상기 분리한 각 공간에 대한 리소스에 각각 저장된다.In addition, the sensor data filtered by the space is stored in resources for the separated spaces managed by the behavior recognition apparatus 100, respectively.

다음으로 행위인식 장치(100)는 S230단계에서 필터링한 상기 특정 공간에 대한 센서데이터를 이용하여 사용자의 행위를 인식한다(S240).Next, the behavior recognition apparatus 100 recognizes the user's action using the sensor data for the specific space filtered in operation S230 (S240).

또한 행위인식 장치(100)는 특정 공간에서의 사용자에 대한 행위를 인식하기 위해, 해당 공간에 대한 학습모델을 데이터베이스(300)로부터 로딩한다.In addition, the behavior recognition apparatus 100 loads a learning model for the space from the database 300 to recognize an action for a user in a specific space.

이후, 행위인식 장치(100)는 상기 로딩한 학습모델에 상기 필터링된 센서데이터의 조합을 입력하여 상기 학습모델에 의해 출력되는 결과에 따라 사용자의 행위를 인식한다.Then, the behavior recognition apparatus 100 inputs a combination of the filtered sensor data to the loaded learning model, and recognizes the user's behavior according to the result output by the learning model.

한편 센서데이터의 조합이라 함은 상기 센서데이터의 감지시간(즉, 해당 센서데이터를 전송한 센서(200)들의 동작순서)에 따른 조합을 의미하는 것으로, 상기 행위인식 장치(100)는 상기 감지시간에 따라 상기 센서데이터를 학습모델에 순차적으로 학습모델에 입력한다.Meanwhile, the combination of the sensor data means a combination according to the sensing time of the sensor data (that is, the operation sequence of the sensors 200 that transmitted the sensor data) The sensor data is sequentially input to the learning model in accordance with the learning model.

또한 학습모델의 출력은 사전에 정의된 공간별 각 액티비티의 가능성에 대한 값이며, 행위인식 장치(100)는 학습모델의 출력에 따라 최대 가능성에 대한 값을 가지는 액티비티를 선택함으로써, 특정 공간에서의 사용자에 대한 행위를 인식한다.In addition, the output of the learning model is a value for the possibility of each activity by a space defined in advance, and the behavior recognition apparatus 100 selects an activity having a value for the maximum possibility according to the output of the learning model, Recognize the behavior of the user.

다음으로 행위인식 장치(100)는 S240단계에서 인식한 결과를 출력함으로서, 사용자가 구비한 통신단말로 제공한다(S250). 이때, 사용자라 함은 행위인식 대상자를 포함하여 상기 대상자의 보호자 또는 관리자 등이 될 수 있다.Next, the behavior recognizing apparatus 100 outputs the recognized result in step S240, and provides the result to the communication terminal provided by the user (S250). At this time, the user may be a guardian or a manager of the subject including the person to be recognized for the action.

이상에서 설명하였듯이, 본 발명의 공간필터링과 기계학습을 통한 행위인식 장치 및 방법은 사전에 정의한 특정 공간에서 사용자에 의해 발생될 수 있는 다양한 액티비티들을 학습하여 학습모델을 생성하고, 공간필터링을 통해 사용자가 위치하는 특정 공간으로부터 수신되는 센서데이터만을 상기 학습모델에 입력함으로써, 사용자의 행위를 실시간으로 인식할 수 있으며, 상기 인식에 필요한 시간 및 계산복잡도를 현저하게 줄일 수 있는 효과가 있다.As described above, the apparatus and method for recognizing an action through spatial filtering and machine learning of the present invention generate learning models by learning various activities that can be generated by a user in a predetermined space defined in advance, The user's behavior can be recognized in real time by inputting only the sensor data received from the specific space in which the user is located to the learning model, and the time and calculation complexity required for the recognition can be remarkably reduced.

이상으로 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 청구범위에 의해서 판단되어야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, I will understand the point. Accordingly, the technical scope of the present invention should be determined by the following claims.

100 : 행위인식 장치 110 : 센서데이터 수집부
120 : 사용자 감지부 130 : 공간필터링부
140 : 학습모델 생성부 150 : 사용자 행위 인식부
160 : 센서데이터 관리부 170 : 제어부
200 : 센서 300 : 데이터베이스
100: Action recognition device 110: Sensor data collection unit
120: user sensing unit 130: spatial filtering unit
140: Learning model generation unit 150: User behavior recognition unit
160: sensor data management unit 170:
200: sensor 300: database

Claims (10)

복수의 공간으로 분리된 댁내로부터 수신되는 복수의 센서데이터를 상기 분리된 공간별로 필터링하는 공간필터링부; 및
상기 필터링된 공간별 센서데이터를 이용하여 특정 공간에 위치하는 사용자의 행위를 인식하는 사용자 행위 인식부;를 포함하는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 장치.
A spatial filtering unit for filtering a plurality of sensor data received from a house separated into a plurality of spaces by the separated spaces; And
And a user behavior recognizing unit that recognizes an action of a user located in a specific space by using the filtered sensor data for each space.
청구항 1에 있어서,
상기 센서데이터는,
상기 분리한 각 공간에 대한 이름으로 네이밍되어 수신되며,
상기 공간별로 필터링하는 것은,
상기 센서데이터에 네이밍된 공간의 이름을 참조하여 상기 센서데이터를 공간별로 분류함으로써 수행되는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 장치.
The method according to claim 1,
The sensor data includes:
A name of each space is received and received,
Filtering by the space may include:
And classifying the sensor data by spaces with reference to a name of a space that is named in the sensor data.
청구항 1에 있어서,
상기 행위인식 장치는,
사용자 행위를 인식하기 위한 행위인식 데이터 셋을 학습하여 상기 분리한 각 공간에 대한 학습모델을 생성하는 학습모델 생성부;를 더 포함하며,
상기 행위인식 데이터 셋은 상기 분리한 각 공간에 대한 정보, 상기 각 공간에 따라 사용자에 의해 생성되는 적어도 하나 이상의 액티비티 및 상기 각 공간에 위치하는 센서정보를 포함하는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 장치.
The method according to claim 1,
The behavior recognition apparatus includes:
And a learning model generation unit that learns an action recognition data set for recognizing user behavior and generates a learning model for each of the separated spaces,
Wherein the behavior recognition data set includes information on the separated space, at least one activity generated by a user according to the space, and sensor information located in each space. .
청구항 3에 있어서,
상기 학습모델은,
상기 각 공간별로 필터링된 복수의 센서데이터에 대한 조합을 입력으로 하여, 상기 각 공간에 따른 적어도 하나 이상의 액티비티에 대한 가능성을 산출하여 출력하는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 장치.
The method of claim 3,
The learning model includes:
Wherein a combination of a plurality of sensor data filtered by each space is inputted and the possibility of at least one activity according to each space is calculated and output.
청구항 4에 있어서,
상기 사용자 행위 인식부는,
상기 특정 공간에 위치하는 사용자의 행위를 인식하기 위해 상기 특정 공간에 대한 학습모델에 해당 공간으로 필터링된 센서데이터의 조합을 입력하고, 상기 학습모델을 통해 출력되는 액티비티에 대한 가능성 중 최대 가능성을 가지는 액티비티를 선택함으로써, 상기 특정 공간에 위치하는 사용자의 행위를 인식하는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 장치.
The method of claim 4,
The user behavior recognizing unit,
A combination of sensor data filtered in a corresponding space is input to a learning model for the specific space in order to recognize a behavior of a user located in the specific space and a maximum likelihood And recognizing an action of a user located in the specific space by selecting an activity.
복수의 공간으로 분리된 댁내로부터 수신되는 복수의 센서데이터를 상기 분리된 공간별로 필터링하는 공간필터링 단계; 및
상기 필터링된 공간별 센서데이터를 이용하여 특정 공간에 위치하는 사용자의 행위를 인식하는 사용자 행위 인식 단계;를 포함하는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 방법.
A spatial filtering step of filtering a plurality of sensor data received from a house separated into a plurality of spaces by the separated spaces; And
And a user action recognition step of recognizing an action of a user located in a specific space by using the filtered sensor data for each space.
청구항 6에 있어서,
상기 센서데이터는,
상기 분리한 각 공간에 대한 이름으로 네이밍되어 수신되며,
상기 공간별로 필터링하는 것은,
상기 센서데이터에 네이밍된 공간의 이름을 참조하여 상기 센서데이터를 공간별로 분류함으로써 수행되는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 방법.
The method of claim 6,
The sensor data includes:
A name of each space is received and received,
Filtering by the space may include:
And classifying the sensor data by a space by referring to a name of a space that is named in the sensor data.
청구항 6에 있어서,
상기 행위인식 방법은,
사용자 행위를 인식하기 위한 행위인식 데이터 셋을 학습하여 상기 분리한 각 공간에 대한 학습모델을 생성하는 학습모델 생성 단계;를 더 포함하며,
상기 행위인식 데이터 셋은 상기 분리한 각 공간에 대한 정보, 상기 각 공간에 따라 사용자에 의해 생성되는 적어도 하나 이상의 액티비티 및 상기 각 공간에 위치하는 센서정보를 포함하는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 방법.
The method of claim 6,
The action recognition method includes:
And a learning model generation step of learning a behavior recognition data set for recognizing user behavior and generating a learning model for each of the separated spaces,
Wherein the behavior recognition data set includes information on the separated space, at least one activity generated by a user according to the space, and sensor information located in each space. A method of recognizing an action through.
청구항 8에 있어서,
상기 학습모델은,
상기 각 공간별로 필터링된 복수의 센서데이터에 대한 조합을 입력으로 하여, 상기 각 공간에 따른 적어도 하나 이상의 액티비티에 대한 가능성을 산출하여 출력하는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 방법.
The method of claim 8,
The learning model includes:
Wherein a combination of a plurality of sensor data filtered for each space is input and a probability for at least one activity according to each space is calculated and output.
청구항 9에 있어서,
상기 사용자 행위 인식 단계는,
상기 특정 공간에 위치하는 사용자의 행위를 인식하기 위해 상기 특정 공간에 대한 학습모델에 해당 공간으로 필터링된 센서데이터의 조합을 입력하고, 상기 학습모델을 통해 출력되는 액티비티에 대한 가능성 중 최대 가능성을 가지는 액티비티를 선택함으로써, 상기 특정 공간에 위치하는 사용자의 행위를 인식하는 것을 특징으로 하는 공간필터링과 기계학습을 통한 행위인식 방법.
The method of claim 9,
The user action recognition step may include:
A combination of sensor data filtered in a corresponding space is input to a learning model for the specific space in order to recognize a behavior of a user located in the specific space and a maximum likelihood And recognizing an action of a user located in the specific space by selecting an activity.
KR1020170019240A 2017-02-13 2017-02-13 Method and apparatus for recognizing activities through spatial filtering and machine learning KR101955939B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170019240A KR101955939B1 (en) 2017-02-13 2017-02-13 Method and apparatus for recognizing activities through spatial filtering and machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170019240A KR101955939B1 (en) 2017-02-13 2017-02-13 Method and apparatus for recognizing activities through spatial filtering and machine learning

Publications (2)

Publication Number Publication Date
KR20180094163A true KR20180094163A (en) 2018-08-23
KR101955939B1 KR101955939B1 (en) 2019-03-11

Family

ID=63454775

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170019240A KR101955939B1 (en) 2017-02-13 2017-02-13 Method and apparatus for recognizing activities through spatial filtering and machine learning

Country Status (1)

Country Link
KR (1) KR101955939B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301960A (en) * 2004-04-13 2005-10-27 Kaiteki Kaigo No Ie:Kk Operation means for management system for solitary person
JP2011034402A (en) * 2009-08-03 2011-02-17 Sony Corp Data processing apparatus, data processing method, and program
JP2011081431A (en) * 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program
JP2012089106A (en) * 2010-09-21 2012-05-10 Self:Kk Monitoring, security, and communication device for person living alone or the like

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301960A (en) * 2004-04-13 2005-10-27 Kaiteki Kaigo No Ie:Kk Operation means for management system for solitary person
JP2011034402A (en) * 2009-08-03 2011-02-17 Sony Corp Data processing apparatus, data processing method, and program
JP2011081431A (en) * 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program
JP2012089106A (en) * 2010-09-21 2012-05-10 Self:Kk Monitoring, security, and communication device for person living alone or the like

Also Published As

Publication number Publication date
KR101955939B1 (en) 2019-03-11

Similar Documents

Publication Publication Date Title
US11050577B2 (en) Automatically learning and controlling connected devices
Qolomany et al. Leveraging machine learning and big data for smart buildings: A comprehensive survey
US20210160326A1 (en) Utilizing context information of environment component regions for event/activity prediction
Suryadevara et al. Smart homes
Amiribesheli et al. A review of smart homes in healthcare
US20200167834A1 (en) Intelligent identification and provisioning of devices and services for a smart home environment
US10047971B2 (en) Home automation system
Tunca et al. Multimodal wireless sensor network-based ambient assisted living in real homes with multiple residents
US20180368780A1 (en) People monitoring and personal assistance system, in particular for elderly and people with special and cognitive needs
CN108983625B (en) Intelligent household system and service generation method
Novák et al. Anomaly detection in user daily patterns in smart-home environment
Hong et al. Segmenting sensor data for activity monitoring in smart environments
CN107431649A (en) For the generation and realization of resident family&#39;s strategy of intelligent household
Amayri et al. Estimating occupancy from measurements and knowledge using the bayesian network for energy management
Fan et al. Activity recognition as a service for smart home: ambient assisted living application via sensing home
Biswas et al. Health and wellness monitoring through wearable and ambient sensors: exemplars from home-based care of elderly with mild dementia
Roy et al. A middleware framework for ambiguous context mediation in smart healthcare application
Arrotta et al. MICAR: multi-inhabitant context-aware activity recognition in home environments
Shahi et al. Naive Bayesian decision model for the interoperability of heterogeneous systems in an intelligent building environment
Antić et al. Learning from smart home data: Methods and challenges of data acquisition and analysis in smart home solutions
KR101955939B1 (en) Method and apparatus for recognizing activities through spatial filtering and machine learning
KR101862141B1 (en) Home automation system using home profile and gateway apparatus for providing home automation service
US20240170117A1 (en) Homeowner Health Alerts and Mitigation Based on Home Sensor Data
Qolomany Efficacy of Deep Learning in Support of Smart Services
US20240219549A1 (en) Wireless home identification and sensing platform

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
R401 Registration of restoration