[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100715681B1 - 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법 - Google Patents

센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법 Download PDF

Info

Publication number
KR100715681B1
KR100715681B1 KR1020050118422A KR20050118422A KR100715681B1 KR 100715681 B1 KR100715681 B1 KR 100715681B1 KR 1020050118422 A KR1020050118422 A KR 1020050118422A KR 20050118422 A KR20050118422 A KR 20050118422A KR 100715681 B1 KR100715681 B1 KR 100715681B1
Authority
KR
South Korea
Prior art keywords
situation
information
agent
ubiquitous
context
Prior art date
Application number
KR1020050118422A
Other languages
English (en)
Inventor
이현정
임신영
허재두
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020050118422A priority Critical patent/KR100715681B1/ko
Priority to PCT/KR2006/004186 priority patent/WO2007066887A1/en
Priority to EP20060799264 priority patent/EP1958380A4/en
Priority to US12/085,315 priority patent/US7847699B2/en
Application granted granted Critical
Publication of KR100715681B1 publication Critical patent/KR100715681B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2823Reporting information sensed by appliance or service execution status of appliance services in a home automation network
    • H04L12/2827Reporting to a device within the home network; wherein the reception of the information reported automatically triggers the execution of a home appliance functionality
    • H04L12/2829Reporting to a device within the home network; wherein the reception of the information reported automatically triggers the execution of a home appliance functionality involving user profiles according to which the execution of a home appliance functionality is automatically triggered
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 유비쿼터스 환경의 센서 네트워크에 관한 것으로, 특히 센서로부터 수신된 실세계의 데이터를 해석하여 상황정보를 구성하고 이를 통합 및 관리하고, 이러한 정보를 이용하여 유비쿼터스 환경에서 사용자의 의도를 파악하고 사용자의 상황을 인지하는 방법 및 장치에 관한 것으로, 센서로부터 수신된 실세계의 데이터를 해석 및 통합하여 상황정보를 구성하고, 이 정보를 상황정보 저장소에 저장 및 관리하고, 이를 기반으로 사용자의 의도를 추론하며, 서비스 제공 시 이러한 상황정보와 사용자의 의도를 이용함으로써 상황 및 사용자의 의도에 따른 자동화된 서비스를 제공할 수 있도록 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및 그 상황인지 방법과 위치 상황에 관한 추론 방법을 제공하는 것을 특징으로 한다.
센서 네트워크, 상황 인지, 유비쿼터스

Description

센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및 그 상황인지 방법{APPARATUS AND METHOD OF UBIQUITOUS CONTEXT-AWARE AGENT BASED ON SENSOR NETWORKS}
도1 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치의 일실시예 구성도.
도2 는 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 위한 소프트웨어 구성에 대한 예시도.
도3 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에 관한 일실시예 동작 흐름도.
도4 는 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법 중 공간 관리 프로세스에서 수행하는 위치 상황에 관한 추론 과정에 대한 일실시예 상세 흐름도.
도5 는 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 환경 상황 정보를 저장하기 위한 저장 영역에 대한 일실시예 구조도.
도6 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 객체 상황 정보를 저장하기 위한 저장 영역에 대한 일실시예 구조도.
도7 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 질적 상태 상황인지 계층의 송신 메시지의 일실시예 구조도.
도8 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 객체 관계 상황인지 계층의 송신 메시지의 일실시예 구조도.
본 발명은 유비쿼터스 환경의 센서 네트워크에 관한 것으로, 특히 센서로부터 수신된 실세계의 데이터를 해석하여 상황정보를 구성하고 이를 통합 및 관리하고, 이러한 정보를 이용하여 유비쿼터스 환경에서 사용자의 의도를 파악하고 사용자의 상황을 인지하는 방법 및 장치에 관한 것이다.
일반적으로, 유비쿼터스 환경은 디지털 홈/오피스/빌딩, 텔레매틱스, 지능형 로봇 등 모든 사물이 네트워크로 연결되고 컴퓨팅 기능이 수행되는 공간을 의미하며, 유비쿼터스 서비스는 유비쿼터스 환경 하에서 제공되는 모든 서비스를 말한다.
이러한 유비쿼터스에 대해서 살펴보면, 기존의 IT 기술이 인간이 컴퓨팅 기술에 적응해 사용하도록 하는 수준으로, 일상적인 업무와 생활에서의 생산성 향상을 위한 단순한 도구였다면 유비쿼터스 서비스는 컴퓨터가 생활 곳곳에 스며들어 인간에 적응하는 수준으로 패러다임을 바꾸게 된다는 것을 의미한다.
따라서, 유비쿼터스 서비스는 주변의 많은 사물에 컴퓨터가 내장돼 언제든지 컴퓨터에 접속할 수 있는 환경이 되더라도 지능 수준이 상황정보를 올바르게 인식해 상황에 맞는 적절한 서비스를 구현하지 못한다면 오히려 인간에게 불편을 주는 기술로 전락할 수밖에 없다. 즉, 인간 내면의 의도와 처한 상황 정보에 부합되는 고도의 지능화된 서비스가 제공돼야 진정한 의미의 유비쿼터스 환경이라고 할 수 있다. 이런 환경을 유비쿼터스 인텔리전스라고 한다.
이러한 유비쿼터스 인텔리전스 환경 구현을 위해 필수적으로 요구되는 기술은 세 가지를 꼽을 수 있다.
첫째, 변화하는 상황을 종합적으로 분석해 사용자의 의도와 관련성이 있는 정보인지를 판단하고, 서비스 요구에 대한 이벤트 신호를 발생시키는 상황 인식 기술(Situation Sensing/Decision)이다.
둘째, 인간의 개입을 최소화해 컴퓨터 자체의 자율적인 운영을 가능하게 하는 자율 컴퓨팅(Autonomic Computing) 기술이다.
셋째, 자가학습과 성장능력을 보유해 시간이 지날수록 자동 진화하는 지능화된 서비스(Intelligent Service)가 제공될 수 있도록 하는 기술(Self-Growing Engine)이다.
특히 이러한 유비쿼터스 인텔리전스 환경에 있어서 상황 인식 기술은 상당히 중요성이 대두되고 있다.
이러한 상황 인식 기술에 있어서, 종래에는 주로 휴대폰이나 자동차 등의 이 동 및 무선 환경에서 사용자에게 위치기반 서비스를 제공하거나, 한정된 상황 정보를 처리하여 단순한 서비스를 제공하는 연구가 진행될 뿐이고 유비쿼터스 인텔리전스 환경에 적합한 상황 인식 기술은 제공되지 않고 있다.
또한, 유비쿼터스 환경에서 적합한 상황 인식 기술이 적용되지 못함에 따라 사용자/환경의 다양한 상황에 대한 고려나 사용자의 의도에 대한 고려 없이 유비쿼터스 서비스가 제공됨으로써 사용자의 의도나 상황과는 상관없는 서비스가 제공되어 오히려 사용자에게 불편함을 제공하게 되는 문제점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 제안된 것으로, 센서로부터 수신된 실세계의 데이터를 해석 및 통합하여 상황정보를 구성하고, 이 정보를 상황정보 저장소에 저장 및 관리하고, 이를 기반으로 사용자의 의도를 추론하며, 서비스 제공 시 이러한 상황정보와 사용자의 의도를 이용함으로써 상황 및 사용자의 의도에 따른 자동화된 서비스를 제공할 수 있도록 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및 그 상황인지 방법과 위치 상황에 관한 추론 방법를 제공하는데 그 목적이 있다.
상기의 목적을 달성하기 위한 본 발명에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치는, 실세계의 데이터를 수집하여 상황인지 에이전트로 전송하는 센서 플랫폼; 상기 센서 플랫폼으로부터 전달된 상기 실세계의 데이터를 해석하고 통합하며 그에 따른 상황 정보를 저장하고 관리하는 상기 상황인지 에이전트; 및 상기 상황인지 에이전트에서 인지한 상기 상황 정보를 전달받아 그 상황에 따른 동작을 수행하는 서비스 제공부를 포함하는 것을 특징으로 한다.
또한, 상기의 목적을 달성하기 위한 본 발명에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법은, 센서 플랫폼을 통해 수신되는 실세계에 관한 센싱(Sensing) 데이터를 감시하고, 감지된 센싱 데이터의 의미를 해석하여 상황정보로 변환하는 제1 단계; 상기 변환된 상황정보의 종류가 환경 상황인 경우, 그 값이 정상 범위인지를 확인하는 제2 단계; 상기 제2 단계의 확인 결과 정상 범위가 아닌 경우, 긴급 플래그를 설정하여 해당 상황 정보를 저장하고 이를 서비스 제공부로 출력하는 제3 단계; 상기 제2 단계의 확인 결과 정상 범위인 경우, 상황 정보를 통합하고 해당 상황 정보를 저장하고 이를 여과하여 서비스 제공부로 출력하는 제4 단계; 상기 변환된 상황정보의 종류가 위치 상황인 경우, 동적 객체와 정적 객체와의 관계를 해석하고 위치에 따른 사용자 의도를 파악하여 그 값이 정상 범위인지를 확인하는 제5 단계; 및 상기 제5 단계의 확인 결과 정상 범위인 경우, 상황 정보를 통합하고 해당 상황 정보를 저장하고 이를 여과하여 서비스 제공부로 출력하는 제6 단계를 포함하는 것을 특징으로 한다.
또한 상기의 목적을 달성하기 위한 본 발명에 따른, 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에서의 위치 상황에 관한 추론 방법은, 실시간으로 상황정보를 감시하여 객체의 종류를 확인하여, 객체의 종류가 정적 객체이면 객체 모델과 객체 영역 모델을 생성하는 제1 단계; 상기 제1 단계에서 동적 객체로 확인된 경우 및 정적 객체로써 객체 모델과 객체 영역 모델을 생성한 경우, 질적 상태를 탐지하는 제2 단계; 상기 질적 상태에 따른 질적 상태 메시지를 생성하여 저장하는 제3 단계; 상기 질적 상태 메시지를 이용하여 객체 관계를 추론하여 객체 관계 메시지를 생성하고 이를 저장하는 제4 단계; 및 상기 저장된 객체 관계를 이용하여 시맨틱 모델을 생성하고 그에 따른 시맨틱 모델 메시지를 생성하여 이를 저장하는 제5 단계를 포함하는 것을 특징으로 한다.
본 발명은 유비쿼터스 환경에서 센서로부터 감지된 실세계의 다양한 데이터(전압, 온도, 습도, 소리, 가속도, 자기장, 컴퓨팅 능력 등)를 해석함으로써 상황정보를 구성하고, 해석된 다양한 상황정보를 일정한 형식으로 통합 및 관리하고 이를 이용하여 유비쿼터스 환경에서 위치를 기반으로 사용자의 상황을 인지하고 의도를 추론하는 방법에 관한 것이다. 특히, 본 발명의 설명에 앞서 본 발명의 실시예에서 사용되는 용어에 대하여 살펴보면, 실세계의 데이터라 함은 전압, 온도, 습도, 소리, 가속도, 자기장, 컴퓨팅 능력, 사용자의 위치 등 인간이 생활하는 실세계로부터 얻을 수 있는 정보를 의미하며, 본 발명의 실시예에서는 이러한 정보들을 센서를 통해 감지한다.
이하 본 발명의 바람직한 실시예의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 참조번호 및 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다. 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
도 1 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치의 일실시예 구성도이다.
도 1을 참조하면, 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치는 실세계의 데이터를 수집하여 상황인지 에이전트(104)로 전송하는 센서 플랫폼(101), 센서 플랫폼(101)으로부터 전달된 실세계의 데이터를 해석하고 통합하며 그에 따른 상황 정보를 저장하고 관리하는 상황인지 에이전트(104) 및 상황인지 에이전트(104)에서 인지한 서비스 상황 정보를 전달받아 그 상황에 따른 동작을 수행하도록 제어하는 서비스 제공부(111)를 포함한다.
각각의 구성 부분을 좀 더 상세히 살펴 보면, 우선 센서 플랫폼(101)은 실세계의 데이터를 수집하는 센서노드(102)와 센서노드(102)를 통해 수집된 실세계의 데이터를 상황인지 에이전트(104)로 전달하는 센서코디네이터(103)를 포함한다. 여기서, 센서노드(102)는 실세계의 데이터를 수집하기 위한 다양한 형태의 센서로 구성된다.
그리고, 상황인지 에이전트(104)는 센서코디네이터(103)로부터 실세계의 데이터를 수신하여 이를 사용자와 컴퓨터가 인지할 수 있는 형태로 해석하는 상황정보 해석기(105), 상황정보 해석기(105)에서 해석된 상황정보를 전달받아 일정한 형식으로 통합하는 상황정보 통합기(106), 상황정보 해석기(105)에서 해석된 상황정 보를 전달받아 사용자의 움직임을 특정 공간에 위치하고 있는 정적 객체들과의 관계를 고려하여 그 의도를 파악할 수 있도록 하는 공간 관리기(107), 상황정보 해석기(105)에서 해석된 상황정보를 전달받아 해석된 상황정보를 이용하여 현재 실세계의 상황을 사용자가 볼 수 있도록 디스플레이하는 홈맵 관리기(108), 상황정보 통합기(106)/공간 관리기(107)/홈맵 관리기(108)로부터 전달받은 정보를 저장하고 요청에 따라 출력하는 상황정보 저장소(110) 및 상황정보 통합기(106)로부터 일정한 형식으로 통합된 상황정보를 전달받고 상황정보 저장소(110)에 저장된 정보를 관리하는 상황정보 관리기(109)를 포함한다.
여기서 상황정보 통합기(106)는 서비스 제공부(111)로 서비스 상황에 대한 정보를 전달하는 역할을 더 포함한다. 즉, 상황정보 통합기(106)에서 통합된 상황정보 중에서 서비스가 필요한 상황은 서비스 제공부(111)로 송신하여 자동화된 서비스를 실행하도록 한다.
그리고 공간 관리기(107)에서 사용자의 움직임을 특정 공간에 위치하고 있는 정적 객체들과의 관계를 고려하여 그 의도를 파악할 수 있도록 한다는 것은, 불이 꺼진 환경에서 전등을 켜기 위한 스위치(특정 공간에 위치하고 있는 정적 객체)로 이동하는 사용자의 움직임에 의해 전등을 켜고자 하는 사용자의 의도를 파악할 수 있게 됨을 의미한다.
그리고 홈맵 관리기(108)는 디지털 홈/오피스/빌딩, 텔레매틱스 등의 유비쿼터스 공간을 GUI(Graphic User Interface) 형태로 디스플레이하며, 상황에 따라 공간의 객체를 동적으로 추가, 삭제, 갱신하여 사용자에게 디스플레이한다.
그리고 서비스 제공부(111)는 상황정보 통합기(106)로부터 상황정보 중의 서비스가 필요한 상황에 대한 정보를 받고, 상황정보 저장소(110)에서 상황 정보를 전달받아 해석된 상황정보와 정적 공간과의 관계 분석을 통해 사용자의 의도를 추론하고 그에 따라 유용한 서비스를 자동으로 제공할 수 있도록 제어한다.
도 2 는 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 위한 소프트웨어 구성에 대한 예시도이다.
여기서, 도 2의 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 위한 소프트웨어 구성은 각각의 구성 블럭을 소프트웨어로 구성할 수도 있고, 각각의 구성 블럭을 하나의 하드웨어로 구성하는 것도 가능하다.
도 2를 참조하면, 본 발명의 실시예에 따른 유비쿼터스 상황인지 에이전트를 위한 소프트웨어 구성은, 도 1의 상황인지 에이전트(104)에 대응된다. 즉, 상황 정보 해석기(105)에 대응되는 상황 정보 해석 프로세스(203), 공간 관리기(107)에 대응되는 공간 관리 프로세스(204), 홈맵 관리기(108)에 대응되는 홈맵 관리 프로세스(206), 상황 정보 관리기(109)에 대응되는 상황 정보 관리 프로세스(207) 및 상황 정보 통합기(106)에 대응되는 상황 정보 통합 프로세스(205)를 포함한다. 거기에 외부와의 연결 장치들에 대한 정보를 가지고 있는 상황 인지 연결 관리 프로세스(202)와 상기 전체 소프트웨어 구성을 제어하는 상황인지 에이전트 처리 프로세스(201)를 더 포함한다.
그 동작을 상세히 살펴보면, 상황인지 에이전트 처리 프로세스(201)는 상황인지 연결관리 프로세스(202)를 통해 연결이 설정된 센서 플랫폼(101) 또는 서비스 제공부(111)로부터 수신되는 메시지를 감시하고 그에 따른 처리를 수행한다.
우선, 상황인지 에이전트 처리 프로세스(201)가 센서 플랫폼(101)으로부터 수신하는 메시지는 환경 데이터와 위치 데이터 등이 있는데, 환경 데이터의 경우 상황정보 해석 프로세스(203)에서 사람과 컴퓨터가 알 수 있는 형태로 데이터의 의미를 해석하여 상황정보를 구성하고, 해석된 데이터가 정상범위를 벗어난 경우 긴급 플래그를 설정하여 상황인지 연결관리 프로세스(202)를 통해 서비스 제공부(111)로 송신함으로써 자동화된 서비스가 수행되도록 한다.
또한, 상황인지 에이전트 처리 프로세스(201)가 센서 플랫폼(101)으로부터 위치 데이터를 수신한 경우, 그 위치 데이터의 의미를 해석하여 동적 객체의 3차원 좌표(X, Y, Z)를 추출하고, 해당 동적 객체와 기저장된 정보의 정적 객체 간의 관계를 해석하고 해당 동적 객체의 의미를 추론하기 위해 공간 관리 프로세스(204)로 송신한다.
그리고, 공간 관리 프로세스(204)에서는 상황인지 에이전트 처리 프로세스(201)로부터 전달받은 해석된 위치 정보와 방향 정보를 기반으로 정적 객체와 동적 객체 간의 상대적인 상태를 탐지하고, 시간을 고려해 정적 객체와 동적 객체 간의 위치 관계를 정의하고, 정적 객체의 특성을 고려한 규칙을 사용하여 동적 객체의 움직임의 의미를 추론하는 과정을 수행한다.
그리고 상황정보 통합 프로세스(205)는 상황인지 에이전트 처리 프로세스(201)로부터 전달받은 해석된 상황 정보를 일정한 형식으로 통합하고, 이와 같이 통합된 상황정보들은 상황인지 에이전트 처리 프로세스(201)를 통해 사용자에게 디 스플레이하기 위해 홈맵 관리 프로세스(206)로 송신되고, 상황인지 에이전트 처리 프로세스(201)를 통해 상황정보 관리 프로세스(207)로 전달되어 상황정보 저장소(110)에 저장된다.
그리고 상황인지 에이전트 처리 프로세스(201)가 서비스 제공부(111)로부터 수신하는 메시지는 상황인지 에이전트(104)가 송신한 긴급 메시지 및 서비스되어야 하는 메시지에 대한 응답 메시지로서, 응답 메시지가 비정상인 경우 직전에 송신한 메시지를 재전송함으로써 상황에 따른 자동 서비스에 대한 실행이 다시 시도되도록 한다.
이상의 본 발명의 실시예에 따른 소프트웨어 구성을 도시한 도 2에서, 각각의 프로세스는 소프트웨어 기능의 논리적 단위를 나타내며 이러한 프로세스 간에는 IPC(Inter-Process Communication) 및 함수 호출을 통해서 통신이 이루어진다.
도 3 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에 관한 일실시예 동작 흐름도이다.
도 3을 참조하면, 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법은, 우선 센서 플랫폼(101)에서 수신되는 데이터를 감시하고(S301), 수신된 데이터의 의미를 해석하여(S302) 사람과 컴퓨터가 알 수 있는 형태의 의미 있는 정보인 상황정보로 변환한다. 여기서, 센서 플랫폼(101)을 통해 감시한 데이터를 센싱 데이터라고 하며, 센싱 데이터는 각각의 온도, 전압, 위치 좌표 등의 값으로 표시된다. 이러한 센싱 데이터는 사람이나 컴퓨터에서 인식되는 것은 단순한 수치적인 값에 불과하며, 이러한 수치를 특정의 상황 에 대한 정보로 변환하여 사람이나 컴퓨터가 인식할 수 있는 상황정보를 생성하는 것이다.
그리고 변환된 상황정보의 종류를 확인하여(S303) 그 종류가 환경 상황인 경우에는 해당 상황정보의 값이 정상 범위 내인지를 확인한다(S304).
상기 단계(S304)에서 확인 결과, 상황 정보의 값이 정상범위를 벗어난 경우(S304), 긴급 플래그를 설정하고(S305) 일정한 형식으로 변환하여(S306) 상황정보 관리기(109)와 서비스 제공부(111)로 전송(S307, S308)함으로써 상황정보가 저장되고 상황에 맞는 실시간 서비스가 제공되도록 한다.
여기서 일정한 형식은 상황인지 에이전트와 상황정보 관리기 간 및 상황인지 에이전트와 서비스를 제공하는 컴퓨터 프로그램 간에 송수신되는 메시지의 형식으로서, 센서로부터 수신한 상황의 종류에 따라 다양하게 변할 수 있다.
한편, 상기 단계(S304)에서 확인 결과, 상황 정보의 값이 정상 범위인 경우(S304), 여러 센서로부터 수신하여 변환된 상황 정보들을 통합하고(S309), 홈맵 관리 프로세스로 전송하여(S310) 홈맵을 통해 GUI 형태로 디스플레이 되도록 한다.
그리고, 일정한 형식으로 변환한 후(S311) 상황정보 관리기(109)로 전송하여(S312) 상황정보 저장소(110)에 저장되도록 한다.
그리고, 통합된 상황정보를 여과하여(S313), 서비스를 요하는 상황 정보인 경우에는 서비스 제공부(111)로 전송하여(S308) 실시간으로 자동화된 서비스가 실행되도록 한다.
또한, 변환된 상황정보의 종류를 확인하여(S303) 그 종류가 위치 상황인 경 우에는, 동적 객체와 정적 객체와의 관계를 해석하고(S314), 공간관리 프로세스(204)로 전송하여(S315) 사용자의 의도를 추론한다. 이를 위해, 해석된 위치 정보와 방향 정보를 기반으로 정적 객체와 동적 객체 간의 상대적인 상태를 탐지하고, 시간을 고려해 정적 객체와 동적 객체 간의 위치 관계를 정의하고, 정적 객체의 특성을 고려한 규칙을 사용하여 동적 객체의 움직임의 의미를 추론하는 과정의 3단계 과정을 수행한 후, 서비스 제공부(111)으로 전송하여(S308) 서비스 수행에 이용한다.
그 확인 결과, 해석된 위치 상황 값이 정상 범위가 아닌 서비스를 요하는 상황인 경우(S304)(예를 들면, 사용자가 방으로 들어온 경우 불을 켜야 하는 서비스가 필요한 상황임), 긴급 플래그를 설정하고(S305) 일정한 형식으로 변환하여(S306) 상황정보 관리기와 서비스 제공부(111)로 전송(S307, S308)함으로써 상황정보가 저장되고 상황에 맞는 실시간 서비스가 제공되도록 한다.
여기서 일정한 형식은 상황인지 에이전트와 상황정보 관리기 간 및 상황인지 에이전트와 서비스를 제공하는 서비스 제공부(111) 간에 송수신되는 메시지의 형식으로서, 센서로부터 수신한 상황의 종류에 따라 다양하게 변할 수 있다.
한편, 그 확인 결과, 동적 객체의 3차원 위치 상황이 정상인 경우(S304), 여러 센서로부터 수신하여 변환된 상황 정보들을 통합하고(S309), 홈맵 관리 프로세스로 전송하여(S310) 홈맵을 통해 GUI 형태로 디스플레이 되도록 한다.
그리고, 일정한 형식으로 변환한 후(S311) 상황정보 관리기(109)로 전송하여(S312) 상황정보 저장소(110)에 저장되도록 한다.
그리고, 통합된 상황정보를 여과하여(S313), 서비스를 요하는 상황 정보인 경우에는 서비스 제공부(111)로 전송하여(S308) 실시간으로 자동화된 서비스가 실행되도록 한다.
도 4 는 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법 중 공간 관리 프로세스에서 수행하는 위치 상황에 관한 추론 과정에 대한 일실시예 상세 흐름도이다.
도 4는 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법 중 공간 관리 프로세스에서 수행하는 위치 상황에 관한 추론 과정을 나타내는 것으로, 실시간으로 상황 정보 해석 프로세스(203)로부터의 상황정보를 감시하여(S401) 객체의 종류를 확인한다(S402).
상기 단계(S402)에서 객체의 종류를 확인한 결과, 객체의 종류가 정적 객체이면, 미리 정의해 놓은 실제 정적 객체의 크기, 기능적 영역의 타입과 크기에 관한 정보를 참조하여, 감지된 정적 객체 자체의 위치와 크기를 표현한 객체 모델과, 정적 객체의 기능적 영역 범위의 위치와 크기를 표현한 객체 영역 모델을 생성하는 객체 공간모델 구축기로 전송되어(S403) 객체 모델과 객체 영역 모델을 생성한다(S404).
그리고 생성된 객체 모델과 객체 영역 모델은 질적 상태를 탐지하는 질적 상태 탐지기로 전송되어(S405) 각각에 대한 질적 상태를 탐지한다(S407).
한편, 상기 단계(S402)에서 객체의 종류를 확인한 결과, 객체의 종류가 동적 객체이면, 즉시 질적 상태를 탐지하는 질적 상태 탐지기로 전송되어(S406) 질적 상 태를 탐지한다(S407).
여기서 질적 상태의 탐지에 대해 살펴 보면, 질적 상태 탐지는 정적 객체에 관한 객체 모델과 객체 영역 모델을 참조하여, 실시간으로 전송되는 동적 객체의 위치정보를 비교함으로써 수행된다.
그리고 질적 상태 탐지 결과, 동적 객체와 정적 객체 간에 질적 상태가 발생하게 되면, 일정한 형식의 질적 상태 메시지를 생성하고, 이를 상황 정보 저장소(110)에 저장을 한다(S408).
그리고 생성된 질적 상태 메시지는 실시간으로 객체 관계에 관한 추론을 위한 객체 관계 추론기로 전송되고(S409), 특정 동적 객체와 특정 정적 객체의 관계가 순차적으로 "접근(approach)"-"주재(reside)"-"이탈(leave)"의 질적 상태를가짐을 파악하여 객체 관계를 추론하고(S410), "위(on)", "앞(front)", "뒤(rear)", "좌(left)", "우(right)" 등의 위치관계를 나타내는 위치정보를 이용하여 일정한 형식의 객체 관계 메시지를 생성하고 생성된 객체 관계 메시지를 상황정보 저장소에 저장한다(S411).
여기서 생성된 객체 관계 메시지는 시맨틱 모델 추론기로 전송되어(S412), 정적 객체의 특성을 고려해 미리 정의한 규칙들이 포함된 시맨틱 모델 지식 베이스를 참조하여 시맨틱 모델 추론함으로써(S413), 서비스 제공부(111)가 사용자에게 제공할 수 있는 서비스를 위한 의미 있는 상황 정보를 생성한다. 이러한 상황 정보는 일정한 형식의 시맨틱 모델 메시지로 생성되고 생성된 시맨틱 모델 메시지는 상황정보 저장소(110)에 저장된다(S414).
그리고 시맨틱 모델 메시지는 서비스 제공부(111)에 전송되어(S415) 실시간으로 사용자에게 적합한 서비스를 제공해 줄 수 있고, 후에 각 계층에서 저장된 상황정보 저장소의 메시지들과의 학습을 위한 데이터로도 활용될 수 있다.
도 5 는 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 환경 상황 정보를 저장하기 위한 저장 영역에 대한 일실시예 구조도이다.
도 5를 참조하면, 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 환경 상황 정보를 저장하기 위한 저장 영역은, 환경 상황정보 저장소와 객체 상황정보 저장소로 구성되며, 센서 플랫폼(101)으로부터 수신되어 해석되고 통합된 상황 정보들을 종류에 따라 각각 저장하고 관리한다.
이 중, 환경 상황 정보 저장소에는 메시지 식별자(501), 메시지 타입(502), 객체식별자(503), 전압(504), 온도(505), 조도(506), 소리(507), 가속도 X(508), 가속도 Y(509), 자기장 X(510), 자기장 Y(511), 시간(512) 등의 항목이 저장되어 있고, 향후 추가되는 센서에 따라 환경 상황정보 저장소의 항목이 추가된다.
여기서, 메시지 식별자(501)는 수신되는 여러 종류의 메시지를 구분해 주는 값이다.
그리고, 메시지 타입(502)은 메시지가 요청 메시지인지 응답 메시지인지를 구별하는 것으로, 응답 메시지인 경우 정상 메시지인지 비정상 메시지인지를 나타냄으로써 메시지 식별자(501)와 함께 메시지별로 각각의 기능이 수행되도록 한다.
그리고, 객체 식별자(503)는 여러 객체를 구분해 주는 식별자로서, 객체의 종류에는 사람과 사물이 있으며, 사람은 할아버지, 할머니, 아버지, 어머니, 아들, 딸 등이 있고, 사물은 가구(장롱, 식탁, 소파 등)와 가전(TV, 냉장고, 세탁기 등) 등이 있다.
또한, 환경 상황 정보에는 전압(504), 온도(505), 조도(506), 소리(507), 가속도 X(508), 가속도 Y(509), 자기장 X(510), 자기장 Y(511), 시간(512) 등이 있으며 추후 새로운 센서가 추가되어 더욱 다양한 환경 정보를 얻을 수 있다. 각 환경 상황정보는 센서 플랫폼(101)으로부터의 데이터가 각각의 단위에 따라 사람과 컴퓨터가 알 수 있는 형태로 변환되어 메시지 식별자(501), 메시지 타입(502), 객체 식별자(503)와 함께 환경 상황정보 저장 영역에 저장되고 관리되며, 상황에 맞는 서비스 실행에 이용된다.
도 6 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 객체 상황 정보를 저장하기 위한 저장 영역에 대한 일실시예 구조도이다.
도 6을 참조하면, 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 객체 상황 정보를 저장하기 위한 저장 영역은 메시지 식별자(601), 메시지 타입(602), 객체 식별자(603), X 좌표(604), Y 좌표(605), Z 좌표(606), 시야 각도(607), 시간(608)으로 구성된다.
여기서, 메시지 식별자(601), 메시지 타입(602), 객체 식별자(603), 시간(608)은 환경 상황정보 저장소의 항목과 같은 의미이고, X 좌표(604), Y 좌표(605), Z 좌표(606)는 센서로부터 수신된 객체의 위치 관련 데이터를 3차원 위치 좌표로 변환한 값을 나타내며, 시야 각도(607)는 객체가 위치한 방향을 표현한 값으로서 센서로부터 수신된 객체의 위치 관련 데이터로부터 도출된 값이다.
객체 상황정보 저장 영역은 객체 식별자에 따라 각각 생성되어 객체의 위치 정보를 저장하고 관리한다.
도 7 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 질적 상태 상황인지 계층의 송신 메시지의 일실시예 구조도이다.
도 7을 참조하면, 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 질적 상태 상황인지 계층의 송신 메시지는, 메시지 식별자(701), 메시지 타입(702), 질적 오퍼레이터(703), 동적 객체 식별자(704), 정적 객체 식별자(705) 및 시각(706) 정보를 포함한다.
여기서, 메시지 식별자(701)는 전송되는 메시지의 종류를 식별하기 위한 값이고, 메시지타입(702)은 메시지의 형식을 구분하기 위한 값이다.
그리고, 질적 오퍼레이터(703)는 객체 간의 질적 상태를 표현하는 "접근(approach)"-"주재(reside)"-"이탈(leave)"의 값을 갖는다.
그리고, 동적 객체 식별자(704)는 탐지된 질적 상태의 주체가 되는 동적 객체를 식별하기 위한 값이고, 정적객체 식별자(705)는 탐지된 질적 상태의 주체가 되는 정적 객체를 식별하기 위한 값이다.
그리고 시각(706)은 동적 객체와 정적 객체 간의 질적 상태가 탐지된 시각을 나타내기 위한 값이다.
도 8 은 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 객체 관계 상황인지 계층의 송신 메시지의 일실시예 구조도이다.
도 8을 참조하면, 본 발명의 실시예에 따른 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에서 객체 관계 상황인지 계층의 송신 메시지는, 메시지 식별자(801), 메시지 타입(802), 관계 오퍼레이터(803), 동적 객체 식별자(804), 정적 객체 식별자(805), 시작 시각 정보(806) 및 끝 시각 정보(807)를 포함한다.
여기서, 메시지 식별자(801)는 전송되는 메시지의 종류를 식별하기 위한 값이고, 메시지타입(802)은 메시지의 형식을 구분하기 위한 값이다.
그리고, 관계 오퍼레이터(803)는 일정한 시간 동안의 동적 객체와 정적 객체 간의 관계를 나타내기 위한 값으로, "on"/"front"/"rear"/"left"/"right" 등의 값을 가질 수 있다.
그리고 동적 객체 식별자(804)는 탐지된 객체 관계의 주체가 되는 동적 객체를 식별하기 위한 값이고, 정적 객체 식별자(805)는 탐지된 객체 관계의 주체가 되는 정적 객체를 식별하기 위한 값이다.
그리고 시작 시각 정보(806)에는 동적 객체와 정적 객체 간의 객체 관계가 시작된 시점을 나타내는 시각이 할당되고, 끝 시각 정보(807)에는 동적 객체와 정적 객체 간의 객체 관계가 끝난 시점을 나타내는 시각이 할당된다.
본 발명에 따른 센서 네트워크 기반 유비쿼터스 상황인지 방법 및 그 위치 상황에 관한 추론 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있 는 코드로서 구현할 수 있다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송과 같이 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
상기와 같은 본 발명에 따르면, 센서로부터 감지된 실세계의 데이터를 상황정보로 해석 및 통합함으로써 상황정보를 구성하는 방법을 제시함으로써, 상황과 객체에 따른 실시간으로 서비스가 이루어질 수 있도록 하는 효과가 있다.
또한, 본 발명에 따르면, 센서로부터 실시간으로 수신되어 해석된 위치 정보 및 방향 정보를 계층별 단계에 의한 추론을 통해 시맨틱 상황정보를 나타내는 술어 논리 형태로 표현함으로써, 컴퓨터 프로그램이 사용자의 의도와 상황에 맞는 서비스를 수행할 수 있는 효과가 있다.

Claims (18)

  1. 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치에 있어서,
    실세계의 데이터를 수집하여 상황인지 에이전트로 전송하는 센서 플랫폼;
    상기 센서 플랫폼으로부터 전달된 상기 실세계의 데이터를 해석하고 통합하며 그에 따른 상황 정보를 저장하고 관리하는 상기 상황인지 에이전트; 및
    상기 상황인지 에이전트에서 인지한 상기 상황 정보를 전달받아 그 상황에 따른 동작을 자동으로 수행하도록 제어하는 서비스 제공부를 포함하는 것으로,
    상기 센서 플랫폼은,
    상기 실세계의 데이터를 수집하는 센서 노드; 및
    상기 센서 노드를 통해 수집된 상기 실세계의 데이터를 상기 상황인지 에이전트로 전달하는 센서코디네이터를 포함하는 것을 특징으로 하고,
    상기 상황인지 에이전트는,
    상기 센서 플랫폼으로부터 상기 실세계의 데이터를 수신하여 이를 사용자와 컴퓨터가 인지할 수 있는 형태로 해석하는 상황정보 해석기;
    상기 상황정보 해석기에서 해석된 상황정보를 전달받아, 기설정된 소정의 형식으로 통합하는 상황정보 통합기;
    상기 상황정보 해석기에서 해석된 상황정보를 전달받아, 사용자의 움직임을 특정 공간에 위치하고 있는 정적 객체들과의 관계를 고려하여 상기 사용자의 움직임에 따른 의도를 파악하는 공간 관리기;
    상기 상황정보 해석기에서 해석된 상황정보를 전달받아, 해석된 상황정보를 이용하여 현재 실세계의 상황을 사용자가 볼 수 있도록 디스플레이하는 홈맵 관리기;
    상기 상황정보 통합기, 상기 공간 관리기 및 홈맵 관리기로부터 전달받은 정보를 저장하고 요청에 따라 출력하는 상황정보 저장소; 및
    상기 상황정보 통합기로부터 일정한 형식으로 통합된 상황 정보를 전달받고, 상기 상황정보 저장소에 저장된 정보를 관리하는 상황정보 관리기를 포함하는 것을 특징으로 하는 네트워크 기반 유비쿼터스 상황인지 에이전트 장치.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서, 상기 상황정보 통합기는 상기 서비스 제공부로 서비스 상황에 대한 정보를 전달하는 것을 특징으로 하는 네트워크 기반 유비쿼터스 상황인지 에이전트 장치.
  5. 제1항에 있어서, 상기 홈맵 관리기는 유비쿼터스 공간을 GUI(Graphic User Interface) 형태로 디스플레이하며, 상황에 따라 공간의 객체를 동적으로 추가, 삭제, 갱신하여 사용자에게 디스플레이하는 것을 특징으로 하는 네트워크 기반 유비쿼터스 상황인지 에이전트 장치.
  6. 제1항에 있어서, 상기 서비스 제공부는, 상기 상황정보 통합기로부터 상황 정보 중의 서비스가 필요한 상황에 대한 정보를 받고, 상기 상황정보 저장소에서 상황 정보를 전달받아, 해석된 상황 정보와 정적 공간과의 관계 분석을 통해 사용자의 의도를 추론하고 그에 따른 자동화된 서비스를 제공하는 것을 특징으로 하는 네트워크 기반 유비쿼터스 상황인지 에이전트 장치.
  7. 제1항에 있어서, 상기 상황정보 통합기는,
    상기 상황정보 해석기에서 해석된 상황정보가 긴급 메시지인 경우, 상기 상황정보를 상기 서비스 제공부로 전달하는 것을 특징으로 하는 네트워크 기반 유비쿼터스 상황인지 에이전트 장치.
  8. 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에 있어서,
    센서 플랫폼을 통해 수신되는 실세계에 관한 센싱(Sensing) 데이터를 감지하고, 감지된 센싱 데이터의 의미를 해석하여 상황정보로 변환하는 제1 단계;
    상기 변환된 상황정보의 종류가 환경 상황인 경우, 그 값이 정상 범위인지를 확인하는 제2 단계;
    상기 제2 단계의 확인 결과 정상 범위가 아닌 경우, 긴급 플래그를 설정하여 해당 상황 정보를 저장하고 이를 서비스 제공부로 출력하는 제3 단계;
    상기 제2 단계의 확인 결과 정상 범위인 경우, 상황 정보를 통합하고 해당 상황 정보를 저장하고 이를 여과하여 서비스 제공부로 출력하는 제4 단계;
    상기 변환된 상황정보의 종류가 위치 상황인 경우, 동적 객체와 정적 객체와의 관계를 해석하고 위치에 따른 사용자 의도를 파악하여 그 값이 정상 범위인지를 확인하는 제5 단계;
    상기 제5 단계의 확인 결과 정상 범위인 경우, 상황 정보를 통합하고 해당 상황 정보를 저장하고 이를 여과하여 서비스 제공부로 출력하는 제6 단계를 포함하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법.
  9. 제8항에 있어서, 상기 제4 단계는,
    상기 상황 정보를 통합하고 상기 상황 정보를 홈맵을 통해 GUI 형태로 디스 플레이하는 것을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법.
  10. 제8항에 있어서,
    상기 제5 단계의 위치에 따른 사용자의 의도를 파악하기 위하여,
    상기 해석된 위치 정보와 방향 정보를 기반으로 상기 정적 객체와 상기 동적 객체 간의 상대적인 상태를 탐지하고, 시간을 고려해 상기 정적 객체와 상기 동적 객체 간의 위치 관계를 정의하고, 상기 정적 객체의 특성을 고려한 규칙을 사용하여 상기 동적 객체의 움직임의 의미를 추론하는 과정을 수행하는 것을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법.
  11. 제8항에 있어서, 상기 제6 단계는,
    상기 상황 정보를 통합하고 상기 상황 정보를 홈맵을 통해 GUI 형태로 디스플레이하는 것을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법.
  12. 제8항에 있어서,
    상기 제5 단계의 확인 결과 정상 범위가 아닌 경우, 긴급 플래그를 설정하여 해당 상황 정보를 저장하고 이를 서비스 제공부로 출력하는 제7 단계를 더 포함하는 것을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법.
  13. 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에서의 위치 상황에 관한 추론 방법에 있어서,
    실시간으로 상황정보를 감시하여 객체의 종류를 확인하여, 객체의 종류가 정적 객체이면 객체 모델과 객체 영역 모델을 생성하는 제1 단계;
    상기 제1 단계에서 동적 객체로 확인된 경우 및 정적 객체로써 객체 모델과 객체 영역 모델을 생성한 경우, 질적 상태를 탐지하는 제2 단계;
    상기 질적 상태에 따른 질적 상태 메시지를 생성하여 저장하는 제3 단계;
    상기 질적 상태 메시지를 이용하여 객체 관계를 추론하여 객체 관계 메시지를 생성하고 이를 저장하는 제4 단계; 및
    상기 저장된 객체 관계를 이용하여 시맨틱 모델을 생성하고 그에 따른 시맨틱 모델 메시지를 생성하여 이를 저장하는 제5 단계를 포함하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에서의 위치 상황에 관한 추론 방법.
  14. 제13 항에 있어서, 상기 제1 단계는,
    실시간으로 상황정보를 감시하여 객체의 종류를 확인하여, 객체의 종류가 정적 객체이면,
    미리 정의해 놓은 실제 정적 객체의 크기, 기능적 영역의 타입과 크기에 관한 정보를 참조하여, 감지된 정적 객체 자체의 위치와 크기를 표현한 객체 모델과, 정적 객체의 기능적 영역 범위의 위치와 크기를 표현한 객체 영역 모델을 생성하는 것을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에서의 위치 상황에 관한 추론 방법.
  15. 제13항에 있어서, 상기 제2 단계의 질적 상태의 탐지는,
    상기 정적 객체에 관한 객체 모델과 객체 영역 모델을 참조하여, 실시간으로 전송되는 동적 객체의 위치 정보를 비교함으로써 수행하는 것을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에서의 위치 상황에 관한 추론 방법.
  16. 제13항에 있어서, 제4 단계는,
    상기 동적 객체와 상기 정적 객체의 관계가 순차적으로 "접근(approach)"-" 주재(reside)"-"이탈(leave)"의 질적 상태를 가짐을 파악하여, 상기 객체 관계를 추론하고,
    "위(on)","앞(front)","뒤(rear)","좌(left)","우(right)" 중 적어도 하나의 위치관계 정보를 이용하여 소정의 형식을 가지는 상기 객체 관계 메시지를 생성하고 이를 저장하는 것임을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에서의 위치 상황에 관한 추론 방법.
  17. 제13항에 있어서, 상기 제5 단계는,
    상기 객체 관계 메시지를 전달받아, 상기 정적 객체의 특성을 고려해 미리 정의한 규칙들이 포함된 시맨틱 모델 지식 베이스를 참조하여 시맨틱 모델을 추론하고, 소정의 형식의 시맨틱 모델 메시지로 생성되어 저장되는 것임을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에서의 위치 상황에 관한 추론 방법.
  18. 제17항에 있어서, 상기 시맨틱 모델 메시지는,
    서비스 제공부에 전송되어 상기 시맨틱 모델 메시지에 따라 실시간으로 사용자에게 요구되는 서비스를 제공해 줄 수 있는 것을 특징으로 하는 센서 네트워크 기반 유비쿼터스 상황인지 에이전트를 통한 상황인지 방법에서의 위치 상황에 관한 추론 방법.
KR1020050118422A 2005-12-06 2005-12-06 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법 KR100715681B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020050118422A KR100715681B1 (ko) 2005-12-06 2005-12-06 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법
PCT/KR2006/004186 WO2007066887A1 (en) 2005-12-06 2006-10-16 Apparatus and method of ubiquitous context-aware agent based on sensor networks
EP20060799264 EP1958380A4 (en) 2005-12-06 2006-10-16 DEVICE AND METHOD OF A UBIQUITOUS, CONTEXTIC AGENT BASED ON SENSOR NETWORKS
US12/085,315 US7847699B2 (en) 2005-12-06 2006-10-16 Apparatus and method of ubiquitous context-aware agent based on sensor networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050118422A KR100715681B1 (ko) 2005-12-06 2005-12-06 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법

Publications (1)

Publication Number Publication Date
KR100715681B1 true KR100715681B1 (ko) 2007-05-09

Family

ID=38123003

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050118422A KR100715681B1 (ko) 2005-12-06 2005-12-06 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법

Country Status (4)

Country Link
US (1) US7847699B2 (ko)
EP (1) EP1958380A4 (ko)
KR (1) KR100715681B1 (ko)
WO (1) WO2007066887A1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010013862A1 (en) * 2008-07-31 2010-02-04 Ajou University Industry Cooperation Foundation Ubiquitous monitoring system
KR100993494B1 (ko) * 2008-10-17 2010-11-10 인제대학교 산학협력단 행동감지를 위한 지능형 센서 시스템
WO2011037329A2 (en) * 2009-09-25 2011-03-31 Ajou University Industry Cooperation Foundation Apparatus and method for providing context-aware service
KR101110688B1 (ko) * 2009-09-07 2012-02-24 국방과학연구소 연동 장비의 운용 상태를 통합 관리하기 위한 함정 전투 시스템 및 그 방법
KR101119638B1 (ko) * 2009-04-28 2012-03-23 삼성에스디에스 주식회사 시설물 관리를 위한 온톨로지 기반 상황인식시스템 및 그 방법
KR101138754B1 (ko) 2010-07-01 2012-04-24 한양대학교 산학협력단 서비스-지향 상황 추론 방법
KR101170458B1 (ko) 2010-03-26 2012-08-09 한국교통연구원 센싱 데이터에 대한 모니터링 시스템 및 그 방법
KR101182860B1 (ko) 2008-12-23 2012-09-14 한국전자통신연구원 행위 패턴 분류 시스템 및 방법
KR101208857B1 (ko) 2011-03-25 2012-12-05 순천대학교 산학협력단 센서 네트워크 기반의 노드 진단 방법 및 시스템

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7917456B2 (en) 2007-10-08 2011-03-29 Hewlett-Packard Development Company, L.P. Profile configuration for a data processing apparatus
KR100838526B1 (ko) * 2007-11-02 2008-06-17 전자부품연구원 유비쿼터스 지능공간에서의 지능형 서비스 방법 및 단말기
US8587402B2 (en) * 2008-03-07 2013-11-19 Palm, Inc. Context aware data processing in mobile computing device
US8516001B2 (en) * 2008-06-24 2013-08-20 Microsoft Corporation Context platform
KR100999792B1 (ko) * 2008-08-25 2010-12-08 아주대학교산학협력단 스마트 객체들에 대한 통합적 모니터링을 할 수 있는 유비쿼터스 모니터링 시스템
US8402174B2 (en) 2008-12-19 2013-03-19 Intel Corporation Handling sensors in a context-aware platform with hint signals
KR20100100380A (ko) * 2009-03-06 2010-09-15 중앙대학교 산학협력단 상황 정보와 감정 인식을 사용한 유비쿼터스 환경의 최적 서비스 추론 방법 및 시스템
US20110071971A1 (en) * 2009-09-22 2011-03-24 Microsoft Corporation Multi-level event computing model
CN101694629B (zh) * 2009-10-23 2014-03-26 北京邮电大学 一种基于本体的上下文感知应用平台及其工作方法
US20120167035A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for developing customer-oriented emotional home application service
US8912877B2 (en) 2011-02-18 2014-12-16 Blackberry Limited System and method for activating an electronic device using two or more sensors
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9317834B2 (en) 2011-06-30 2016-04-19 Microsoft Technology Licensing, Llc User computing device with personal agent program for recommending meeting a friend at a service location based on current location, travel direction, and calendar activity
WO2013105104A2 (en) 2011-09-12 2013-07-18 Tata Consultancy Services Limited A system for dynamic service collaboration through identification and context of plurality of heterogeneous devices
JP2015501984A (ja) 2011-11-21 2015-01-19 ナント ホールディングス アイピー,エルエルシー 加入請求書サービス、システムおよび方法
KR20130089294A (ko) * 2012-02-01 2013-08-12 삼성전자주식회사 상황 인지 장치 및 이의 추론 성능 개선 방법
US9297749B2 (en) 2012-03-27 2016-03-29 Innovative Science Tools, Inc. Optical analyzer for identification of materials using transmission spectroscopy
US9035955B2 (en) 2012-05-16 2015-05-19 Microsoft Technology Licensing, Llc Synchronizing virtual actor's performances to a speaker's voice
US9105210B2 (en) 2012-06-29 2015-08-11 Microsoft Technology Licensing, Llc Multi-node poster location
US9317971B2 (en) 2012-06-29 2016-04-19 Microsoft Technology Licensing, Llc Mechanism to give holographic objects saliency in multiple spaces
US9035970B2 (en) 2012-06-29 2015-05-19 Microsoft Technology Licensing, Llc Constraint based information inference
US9384737B2 (en) 2012-06-29 2016-07-05 Microsoft Technology Licensing, Llc Method and device for adjusting sound levels of sources based on sound source priority
US9123082B2 (en) * 2012-06-30 2015-09-01 At&T Intellectual Property I, L.P. Providing resource consumption recommendations
US9325792B2 (en) 2012-11-07 2016-04-26 Microsoft Technology Licensing, Llc Aggregation framework using low-power alert sensor
US9671468B2 (en) 2012-11-07 2017-06-06 Microsoft Technology Licensing, Llc Battery with computing, sensing and communication capabilities
US9483518B2 (en) 2012-12-18 2016-11-01 Microsoft Technology Licensing, Llc Queryless search based on context
US20150089382A1 (en) * 2013-09-26 2015-03-26 Wu-chi Feng Application context migration framework and protocol
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9595181B2 (en) * 2013-12-20 2017-03-14 Invensense, Inc. Wearable device assisting smart media application and vice versa
WO2016018364A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Object identification and sensing
US9305216B1 (en) * 2014-12-15 2016-04-05 Amazon Technologies, Inc. Context-based detection and classification of actions
US10419540B2 (en) 2015-10-05 2019-09-17 Microsoft Technology Licensing, Llc Architecture for internet of things
CN107124458B (zh) * 2017-04-27 2020-01-31 大连云动力科技有限公司 智能感知设备及感知系统
CN109218049B (zh) 2017-06-30 2021-10-26 华为技术有限公司 一种控制方法、相关设备以及系统
EP3729848B1 (en) * 2017-12-18 2022-02-09 Convida Wireless, LLC Methods to enable context aware authorization for data or services in the iot/m2m service layer
US10885776B2 (en) * 2018-10-11 2021-01-05 Toyota Research Institute, Inc. System and method for roadway context learning by infrastructure sensors
US20220385734A1 (en) * 2021-05-28 2022-12-01 Kymeta Corporation Integrated mobile edge compute and storage platform

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0213A (ja) * 1987-10-13 1990-01-05 Hitachi Chem Co Ltd 液晶表示素子の透明電極保護被膜形成用組成物

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555376A (en) 1993-12-03 1996-09-10 Xerox Corporation Method for granting a user request having locational and contextual attributes consistent with user policies for devices having locational attributes consistent with the user request
US6791580B1 (en) * 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
US7225229B1 (en) * 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
KR20020050780A (ko) 2000-12-21 2002-06-27 조명래 상황 정보 처리 장치 및 그 처리 방법
KR20040080663A (ko) 2003-03-12 2004-09-20 삼성전자주식회사 유비퀴터스 서비스 기능을 가지는 사설 네트워크 시스템및 그의 동작방법
KR100587563B1 (ko) 2004-07-26 2006-06-08 삼성전자주식회사 상황인지 서비스를 제공하는 장치 및 방법
KR100772928B1 (ko) * 2006-09-27 2007-11-02 한국전자통신연구원 상황-인식 서비스 제공 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0213A (ja) * 1987-10-13 1990-01-05 Hitachi Chem Co Ltd 液晶表示素子の透明電極保護被膜形成用組成物

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
통신학회논문, 유비쿼터스 홈네트워킹 기술, 21-3, pp
통신학회논문, 유비쿼터스 홈네트워킹 기술, 21-3, pp.54-65, 2004 *
한국통신학회지:정보통신 , 제21권3호 , pp.54-65 , 2004 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010013862A1 (en) * 2008-07-31 2010-02-04 Ajou University Industry Cooperation Foundation Ubiquitous monitoring system
US8065114B2 (en) 2008-07-31 2011-11-22 Ajou University Industry Cooperation Foundation Ubiquitous monitoring system
KR100993494B1 (ko) * 2008-10-17 2010-11-10 인제대학교 산학협력단 행동감지를 위한 지능형 센서 시스템
KR101182860B1 (ko) 2008-12-23 2012-09-14 한국전자통신연구원 행위 패턴 분류 시스템 및 방법
KR101119638B1 (ko) * 2009-04-28 2012-03-23 삼성에스디에스 주식회사 시설물 관리를 위한 온톨로지 기반 상황인식시스템 및 그 방법
KR101110688B1 (ko) * 2009-09-07 2012-02-24 국방과학연구소 연동 장비의 운용 상태를 통합 관리하기 위한 함정 전투 시스템 및 그 방법
WO2011037329A2 (en) * 2009-09-25 2011-03-31 Ajou University Industry Cooperation Foundation Apparatus and method for providing context-aware service
WO2011037329A3 (en) * 2009-09-25 2011-07-07 Ajou University Industry Cooperation Foundation Apparatus and method for providing context-aware service
KR101170458B1 (ko) 2010-03-26 2012-08-09 한국교통연구원 센싱 데이터에 대한 모니터링 시스템 및 그 방법
KR101138754B1 (ko) 2010-07-01 2012-04-24 한양대학교 산학협력단 서비스-지향 상황 추론 방법
KR101208857B1 (ko) 2011-03-25 2012-12-05 순천대학교 산학협력단 센서 네트워크 기반의 노드 진단 방법 및 시스템

Also Published As

Publication number Publication date
EP1958380A4 (en) 2014-04-02
US20090261978A1 (en) 2009-10-22
WO2007066887A1 (en) 2007-06-14
US7847699B2 (en) 2010-12-07
EP1958380A1 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
KR100715681B1 (ko) 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법
CN110612521B (zh) 经由单独的客户端设备的自动化助理接口的智能设备配置指导
US20180018867A1 (en) Holographic Technology Implemented Security Solution
US10065321B2 (en) Robot service cooperation system, platform and method
CN111984345A (zh) 一种机器人软件系统及其机器人
CN101187814A (zh) 动态消息
CN113473074B (zh) 一种检测方法、电子设备、检测设备以及存储介质
AU2020273006A1 (en) System control through a network of personal protective equipment
CN112543195B (zh) 面向智能网联汽车的信息安全评估方法、装置及电子设备
CN114117225A (zh) 图书推荐方法及图书推荐设备
Schaub et al. Privacy context model for dynamic privacy adaptation in ubiquitous computing
KR20060057927A (ko) 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템
CN118158567B (zh) 一种工控设备的数据采集分析方法和装置、及存储介质
KR20190078222A (ko) 패션 상품을 추천하는 전자 장치, 서버 및 그 동작 방법
US20210352424A1 (en) Confirming Accessory Functionality
US20240004876A1 (en) Method and system for assisting with the specification of a context-adaptive behavior of a system by an end user
Oh et al. A rule-based context transforming model for robot services in internet of things environment
KR100656372B1 (ko) 로봇 서비스 가용성 평가 방법 및 시스템
Hartmann et al. Context models and context awareness
KR20230032657A (ko) 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템
CN112988160B (zh) 服务器编译方法、装置、设备及计算机可读存储介质
Xu et al. Semantic-based complex event processing in the AAL domain
Mainetti et al. A Cloud Architecture for Managing IoT-aware Applications According to Knowledge Processing Rules
WO2018213046A1 (en) Location based dynamic information provision system and method
KR20140055037A (ko) 상황인지 상태 표시 가능한 사용자 단말 및 사용자 단말의 상황인지 상태 표시 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20091228

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee