KR20170122443A - 공간 관리 시스템 및 방법과 이를 수행하기 위한 모바일 기기 - Google Patents
공간 관리 시스템 및 방법과 이를 수행하기 위한 모바일 기기 Download PDFInfo
- Publication number
- KR20170122443A KR20170122443A KR1020160051397A KR20160051397A KR20170122443A KR 20170122443 A KR20170122443 A KR 20170122443A KR 1020160051397 A KR1020160051397 A KR 1020160051397A KR 20160051397 A KR20160051397 A KR 20160051397A KR 20170122443 A KR20170122443 A KR 20170122443A
- Authority
- KR
- South Korea
- Prior art keywords
- mobile device
- image
- server
- sensor
- abnormal situation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000002159 abnormal effect Effects 0.000 claims abstract description 78
- 238000001514 detection method Methods 0.000 claims abstract description 62
- 230000003190 augmentative effect Effects 0.000 claims abstract description 21
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000009434 installation Methods 0.000 claims description 5
- 238000007726 management method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000009897 systematic effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 241000190070 Sarracenia purpurea Species 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H04N5/217—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Operations Research (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
공간 관리 시스템 및 방법과 이를 수행하기 위한 모바일 기기가 제공된다. 본 발명의 일 실시예에 따른 공간 관리 시스템은, 복수의 대상 공간에 각각 존재하며, 상기 대상 공간의 이상 상황을 탐지하는 데 사용되는 센싱 데이터를 획득하는 하나 이상의 센서; 사용자에 의해 소지되며, 상기 대상 공간의 영상을 획득하는 모바일 기기; 및 상기 모바일 기기 및 상기 센서로부터 상기 모바일 기기의 위치 정보 및 상기 센싱 데이터를 각각 수신하고, 상기 센싱 데이터를 분석하여 상기 위치 정보에 대응되는 대상 공간의 이상 상황을 탐지하는 서버를 포함하며, 상기 모바일 기기는, 상기 서버로부터 상기 이상 상황의 탐지 결과를 수신하고, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 상기 영상과 합성하여 증강 현실 상태의 화면을 디스플레이한다.
Description
본 발명은 대상 공간의 이상 상황에 신속하고 효율적으로 대처하기 위한 공간 관리 기술에 관한 것이다.
사업장, 박물관, 미술관, 제조 공장, 쇼핑몰, 동물원, 놀이공원 등과 같이 특정 목적을 위한 공간들은 예측 불가능한 위험 상황 또는 리스크 상황(즉, 이상 상황)에 노출될 가능성이 항상 존재하며, 이러한 이상 상황으로 인해 사고가 발생하는 경우 이로 인한 피해는 어마어마하다. 예를 들어, 제조 공장의 경우 미세한 이상 상황에 대한 탐지가 신속하게 이루어지지 않아 제품의 결함으로 인한 막대한 피해가 발생될 수 있으며, 미술관 및 박물관의 경우 이상 상황으로 인해 고가의 희소가치 있는 작품들이 훼손될 가능성이 있다. 이러한 손실은 해당 공간을 운영하는 사업자에게 경제적으로 큰 악영향을 미칠 수 있으며, 부주의한 사고 또는 예상치 못한 재해로 인해 브랜드의 이미지 또한 크게 훼손될 수 있다. 이에 따라, 모든 사업장 및 특정 목적을 지닌 공간들에 대한 체계적인 공간 관리 시스템의 구축이 필수적이며, 공간 관리 시스템을 통해 이상 상황에 효율적으로 대처하여야 한다.
그러나, 종래에는 관리자가 공간 내 각종 계기판을 직접 눈으로 확인함으로써 이상 상황을 탐지하였으며, 이 경우 관리자가 공간 내 어느 위치에서 어떠한 정보를 파악하여야 하는지, 해당 공간에서 실제 이상 상황이 발생되고 있는지 등을 현장에서 직접 파악하기 어려운 문제점이 있다. 또한, 종래 기술에 따르면, 관리자가 특정 현상을 관찰하였을 때 이에 대한 정확한 판단을 내리기 어려운 문제점이 있다.
본 발명의 실시예들은 대상 공간의 이상 상황 및 사고 상황을 탐지 및 예측하고 이를 시각화된 형태로 사용자에게 제공하는 수단을 제공하기 위한 것이다.
본 발명의 예시적인 실시예에 따르면, 복수의 대상 공간에 각각 존재하며, 상기 대상 공간의 이상 상황을 탐지하는 데 사용되는 센싱 데이터를 획득하는 하나 이상의 센서; 사용자에 의해 소지되며, 상기 대상 공간의 영상을 획득하는 모바일 기기; 및 상기 모바일 기기 및 상기 센서로부터 상기 모바일 기기의 위치 정보 및 상기 센싱 데이터를 각각 수신하고, 상기 센싱 데이터를 분석하여 상기 위치 정보에 대응되는 대상 공간의 이상 상황을 탐지하는 서버를 포함하며, 상기 모바일 기기는, 상기 서버로부터 상기 이상 상황의 탐지 결과를 수신하고, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 상기 영상과 합성하여 증강 현실 상태의 화면을 디스플레이하는, 공간 관리 시스템이 제공된다.
상기 서버는, 상기 탐지 결과에 따라 상기 위치 정보에 대응되는 대상 공간에서 발생될 수 있는 사고 상황을 예측하고, 상기 모바일 기기는, 상기 서버로부터 상기 사고 상황의 예측 결과를 수신하고, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이할 수 있다.
상기 제1 가상 컨텐츠는, 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지며, 상기 제2 가상 컨텐츠는, 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
상기 서버는, 상기 센싱 데이터와 미리 저장된 학습 데이터 또는 통계 데이터를 비교함으로써 상기 이상 상황을 탐지할 수 있다.
상기 센서에는, 상기 모바일 기기에 의해 인식 가능한 광학 코드가 부착되며, 상기 모바일 기기는, 상기 광학 코드를 인식함으로써 상기 센서를 감지하고, 감지된 상기 센서의 식별 정보를 상기 서버로 전송하며, 상기 서버는, 감지된 상기 센서로부터 수신된 센싱 데이터를 분석하여 상기 이상 상황을 탐지할 수 있다.
상기 대상 공간의 종류에 따라 상기 대상 공간에 설치되는 센서의 종류, 개수 및 설치 위치 중 하나 이상이 달라질 수 있다.
상기 센서는, 상기 모바일 기기에 장착될 수 있다.
본 발명의 다른 예시적인 실시예에 따르면, 복수의 대상 공간에 각각 존재하는 하나 이상의 센서를 통해 획득된 센싱 데이터를 분석하여 상기 대상 공간의 이상 상황을 탐지하는 서버와 연결되는 모바일 기기로서, 상기 대상 공간의 영상을 획득하는 영상 획득부; 상기 모바일 기기의 위치 정보를 획득하고, 상기 위치 정보를 상기 서버로 전송하는 위치 획득부; 및 상기 서버로부터 상기 위치 정보에 대응되는 대상 공간의 이상 상황의 탐지 결과를 수신하고, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 상기 영상과 합성하여 증강 현실 상태의 화면을 디스플레이하는 디스플레이부를 포함하는, 모바일 기기가 제공된다.
상기 디스플레이부는, 상기 탐지 결과에 따라 상기 위치 정보에 대응되는 대상 공간에서 발생될 수 있는 사고 상황의 예측 결과를 상기 서버로부터 수신하고, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이할 수 있다.
상기 제1 가상 컨텐츠는, 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지며, 상기 제2 가상 컨텐츠는, 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
상기 센서는, 상기 모바일 기기에 장착될 수 있다.
본 발명의 다른 예시적인 실시예에 따르면, 복수의 대상 공간에 각각 존재하는 하나 이상의 센서에서, 상기 대상 공간의 이상 상황을 탐지하는 데 사용되는 센싱 데이터를 획득하는 단계; 사용자에 의해 소지되는 모바일 기기에서, 상기 대상 공간의 영상을 획득하는 단계; 서버에서, 상기 모바일 기기 및 상기 센서로부터 상기 모바일 기기의 위치 정보 및 상기 센싱 데이터를 각각 수신하는 단계; 상기 서버에서, 상기 센싱 데이터를 분석하여 상기 위치 정보에 대응되는 대상 공간의 이상 상황을 탐지하는 단계; 상기 모바일 기기에서, 상기 서버로부터 상기 이상 상황의 탐지 결과를 수신하는 단계; 및 상기 모바일 기기에서, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 상기 영상과 합성하여 증강 현실 상태의 화면을 디스플레이하는 단계를 포함하는, 공간 관리 방법이 제공된다.
상기 공간 관리 방법은, 상기 서버에서, 상기 탐지 결과에 따라 상기 위치 정보에 대응되는 대상 공간에서 발생될 수 있는 사고 상황을 예측하는 단계; 상기 모바일 기기에서, 상기 서버로부터 상기 사고 상황의 예측 결과를 수신하는 단계; 및 상기 모바일 기기에서, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이하는 단계를 더 포함할 수 있다.
상기 제1 가상 컨텐츠는, 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지며, 상기 제2 가상 컨텐츠는, 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
상기 이상 상황을 탐지하는 단계는, 상기 센싱 데이터와 미리 저장된 학습 데이터 또는 통계 데이터를 비교함으로써 상기 이상 상황을 탐지할 수 있다.
상기 공간 관리 방법은, 상기 이상 상황을 탐지하는 단계 이전에, 상기 모바일 기기에서, 상기 센서에 부착된 광학 코드를 인식함으로써 상기 센서를 감지하는 단계; 및 상기 모바일 기기에서, 감지된 상기 센서의 식별 정보를 상기 서버로 전송하는 단계를 더 포함하며, 상기 이상 상황을 탐지하는 단계는, 감지된 상기 센서로부터 수신된 센싱 데이터를 분석하여 상기 이상 상황을 탐지할 수 있다.
상기 대상 공간의 종류에 따라 상기 대상 공간에 설치되는 센서의 종류, 개수 및 설치 위치 중 하나 이상이 달라질 수 있다.
상기 센서는, 상기 모바일 기기에 장착될 수 있다.
본 발명의 실시예들에 따르면, 대상 공간의 이상 상황에 대한 탐지 결과를 증강 현실 상태의 화면으로 사용자에게 디스플레이함으로써, 모바일 기기를 소지하는 사용자는 자신이 현재 위치하고 있는 대상 공간에서 이상 상황이 발생하였는지, 또는 발생될 가능성이 있는지의 여부를 보다 직관적이고 간편하게 파악할 수 있다.
또한, 본 발명의 실시예들에 따르면, 대상 공간의 사고 상황에 대한 예측 결과를 가상 현실 상태의 화면으로 사용자에게 디스플레이함으로써, 모바일 기기를 소지하는 사용자는 자신이 현재 위치하고 있는 대상 공간에서 사고 상황이 발생될 가능성이 있는지의 여부를 보다 직관적이고 간편하게 파악할 수 있다.
도 1은 본 발명의 일 실시예에 따른 공간 관리 시스템의 상세 구성을 나타낸 블록도
도 2는 본 발명의 일 실시예에 따른 서버의 상세 구성을 나타낸 블록도
도 3은 본 발명의 일 실시예에 따른 모바일 기기의 상세 구성을 나타낸 블록도
도 4는 본 발명의 일 실시예에 따른 모바일 기기의 예시도
도 5는 본 발명의 일 실시예에 따른 모바일 기기의 다른 예시도
도 6은 본 발명의 일 실시예에 따른 센서에서 센싱 데이터를 수집하는 과정을 나타낸 예시도
도 7은 본 발명의 일 실시예에 따른 센서에서 센싱 데이터를 수집하는 과정을 나타낸 다른 예시도
도 8은 본 발명의 일 실시예에 따른 센서에서 센싱 데이터를 수집하는 과정을 나타낸 다른 예시도
도 9는 본 발명의 일 실시예에 따른 모바일 기기에서 디스플레이되는 증강 현실 상태의 화면의 예시도
도 10은 본 발명의 일 실시예에 따른 모바일 기기에서 디스플레이되는 증강 현실 상태의 화면의 예시도
도 11은 본 발명의 일 실시예에 따른 모바일 기기에서 디스플레이되는 증강 현실 상태의 화면의 예시도
도 12는 본 발명의 일 실시예에 따른 모바일 기기에서 디스플레이되는 제2 가상 컨텐츠의 예시도
도 13은 본 발명의 일 실시예에 따른 공간 관리 방법을 설명하기 위한 흐름도
도 2는 본 발명의 일 실시예에 따른 서버의 상세 구성을 나타낸 블록도
도 3은 본 발명의 일 실시예에 따른 모바일 기기의 상세 구성을 나타낸 블록도
도 4는 본 발명의 일 실시예에 따른 모바일 기기의 예시도
도 5는 본 발명의 일 실시예에 따른 모바일 기기의 다른 예시도
도 6은 본 발명의 일 실시예에 따른 센서에서 센싱 데이터를 수집하는 과정을 나타낸 예시도
도 7은 본 발명의 일 실시예에 따른 센서에서 센싱 데이터를 수집하는 과정을 나타낸 다른 예시도
도 8은 본 발명의 일 실시예에 따른 센서에서 센싱 데이터를 수집하는 과정을 나타낸 다른 예시도
도 9는 본 발명의 일 실시예에 따른 모바일 기기에서 디스플레이되는 증강 현실 상태의 화면의 예시도
도 10은 본 발명의 일 실시예에 따른 모바일 기기에서 디스플레이되는 증강 현실 상태의 화면의 예시도
도 11은 본 발명의 일 실시예에 따른 모바일 기기에서 디스플레이되는 증강 현실 상태의 화면의 예시도
도 12는 본 발명의 일 실시예에 따른 모바일 기기에서 디스플레이되는 제2 가상 컨텐츠의 예시도
도 13은 본 발명의 일 실시예에 따른 공간 관리 방법을 설명하기 위한 흐름도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 본 발명의 일 실시예에 따른 공간 관리 시스템(100)의 상세 구성을 나타낸 블록도이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 공간 관리 시스템(100)은 복수의 대상 공간(110, 120, 130)에서 발생될 수 있는 이상 상황 및 사고 상황을 탐지 및 예측하여 상기 대상 공간(110, 120, 130)에 대한 체계적인 관리를 수행하기 위한 시스템이다.
본 실시예들에 있어서, 대상 공간(110, 120, 130)은 관리 대상이 되는 공간으로서, 예를 들어 사업장, 박물관, 미술관, 제조 공장, 쇼핑몰, 동물원, 놀이공원 등이 될 수 있다. 다만, 대상 공간(110, 120, 130)의 종류가 이에 한정되는 것은 아니며, 체계적인 공간 관리가 필요한 모든 종류의 공간이 본 실시예에 따른 대상 공간(110, 120, 130)에 해당할 수 있다. 또한, 도 1에서는 설명의 편의상 3개의 대상 공간(110, 120, 130)만을 도시하였으나 공간 관리 시스템(100)에 의해 관리되는 대상 공간(110, 120, 130)의 개수가 이에 한정되는 것은 아니다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 공간 관리 시스템(100)은 하나 이상의 센서(102), 서버(104) 및 모바일 기기(106)를 포함하며, 센서(102), 서버(104) 및 모바일 기기(106)는 네트워크(108)를 통해 상호 연결될 수 있다. 여기서, 네트워크(108)는 이동통신 서비스 사업자에 의하여 제공되는 3G망, 4G망 또는 LTE망, 와이브로망 등의 패킷 통신망, 유/무선 인터넷망을 모두 포함하는 넓은 의미로 사용된다.
센서(102)는 대상 공간(110, 120, 130)의 이상 상황을 탐지하는 데 사용되는 센싱 데이터를 획득하는 장치로서, 예를 들어 온습도 센서, 중력 센서, 진동 센서, 가스 감지 센서뿐 아니라 카메라, 캠코드 등과 같은 촬영 수단, 동물의 패턴 분석을 위한 위치 센서, 사운드 센서 등을 모두 포함하는 넓은 의미로 사용된다. 센서(102)는 대상 공간(110, 120, 130)에 존재하여 각종 센싱 데이터를 획득할 수 있다. 일 예시로서, 각 대상 공간(110, 120, 130)에는 하나 이상의 센서(102)가 설치될 수 있으며, 대상 공간(110, 120, 130)의 종류에 따라 대상 공간(110, 120, 130)에 설치되는 센서의 종류, 개수, 설치 위치 등이 달라질 수 있다. 다른 예시로서, 상기 센서(102)는 후술할 모바일 기기(106)에 장착될 수 있으며, 모바일 기기(106)가 대상 공간(110, 120, 130) 내로 위치함에 따라 상기 대상 공간(110, 120, 130)의 이상 상황을 탐지하는 데 사용되는 각종 센싱 데이터를 획득할 수 있다.
서버(104)는 각 센서(102)로부터 센싱 데이터를 수집하고, 수집된 센싱 데이터를 분석하여 대상 공간(110, 120, 130)의 이상 상황을 탐지한다. 대상 공간(110, 120, 130) 내 각 센서(102)는 네트워크(108)를 통해 서버(104)와 연결되며, 서버(104)는 각 센서(102)로부터 획득된 센싱 데이터를 실시간으로 수집할 수 있다.
서버(104)는 수집된 센싱 데이터와 미리 저장된 학습 데이터 또는 통계 데이터를 비교함으로써 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다. 여기서, 이상 상황은 대상 공간(110, 120, 130)이 그 용도 또는 목적을 달성하는 데 어려움을 겪거나 이후 사고 상황으로 발생될 가능성이 있는 상황으로서, 예를 들어 미술관 및 박물관의 경우 고가의 희소가치 있는 작품들이 훼손될 우려가 있는 상황, 쇼핑몰, 동물원 및 놀이공원의 경우 이용 고객들 또는 동물들이 다칠 우려가 있는 상황, 제조 공장의 경우 제품에 결함이 발생될 우려가 있는 상황 등이 이에 해당할 수 있다.
일 예시로서, 서버(104)는 이전에 수집된 센싱 데이터들의 패턴을 학습하여 학습 데이터를 생성하고, 실시간으로 수집된 센싱 데이터와 상기 학습 데이터를 비교하여 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다. 다른 예시로서, 서버(104)는 이전에 수집된 센싱 데이터들을 통계적으로 분석하여 통계 데이터를 생성하고, 실시간으로 수집된 센싱 데이터와 상기 통계 데이터를 비교하여 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다. 예를 들어, 박물관에서 수집된 센싱 데이터가 “온도 : 30℃, 습도 : 70%” 인 경우, 서버(104)는 수집된 센싱 데이터 “온도 : 30℃, 습도 : 70%” 와 미리 저장된 학습 데이터(또는 통계 데이터) “온도 : 23℃, 습도 : 50%” 를 비교하고, 상기 수집 데이터와 학습 데이터와의 차이가 설정된 범위(예를 들어, 온도차 5℃, 습도차 15%)를 벗어나는 경우 대상 공간(110, 120, 130)에 이상 상황이 발생된 것으로 판단할 수 있다. 다만, 이는 일 실시예에 불과하며, 서버(104)가 수집된 센싱 데이터를 이용하여 대상 공간(110, 120, 130)의 이상 상황을 탐지하는 방법이 이에 한정되는 것은 아니다. 서버(104)는 다양한 분석 기법 또는 알고리즘을 활용하여 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있으며, 상기 분석 기법 또는 알고리즘은 대상 공간(110, 120, 130), 센싱 데이터의 종류 등에 따라 달라질 수 있다.
또한, 서버(104)는 이상 상황의 탐지 결과에 따라 대상 공간(110, 120, 130)에서 발생될 수 있는 사고 상황을 예측할 수 있다. 여기서, 사고 상황은 대상 공간(110, 120, 130)이 그 용도 또는 목적을 달성할 수 없는 위험 상황으로서, 예를 들어 지진 발생 상황, 가스 폭발 상황, 화재 상황 등이 이에 해당할 수 있다. 서버(104)는 이상 상황의 탐지 결과를 통계적으로 분석함으로써 이후 발생될 수 있는 센싱 데이터 값을 예측하고, 예측된 센싱 데이터 값에 따라 사고 상황을 예측할 수 있다. 예를 들어, 지진 감지를 위한 진동 센서에서 획득된 센싱 데이터로부터 대상 공간(110, 120, 130)의 이상 상황이 탐지되는 경우, 서버(104)는 시간의 흐름에 따른 상기 센싱 데이터의 패턴을 탐지하고 탐지된 상기 패턴과 미리 저장된 패턴을 비교하여 이후 발생될 수 있는 센싱 데이터 값을 예측할 수 있다. 또한, 서버(104)는 예측된 센싱 데이터 값과 미리 저장된 사고 상황에 대응되는 센싱 데이터 값과의 차이가 설정된 범위 이내에 속하는 경우 대상 공간(110, 120, 130)에 사고 상황이 발생할 것으로 예측할 수 있다. 다만, 이는 일 실시예에 불과하며, 서버(104)가 대상 공간(110, 120, 130)의 사고 상황을 예측하는 방법이 이에 한정되는 것은 아니다. 서버(104)는 다양한 분석 기법 또는 알고리즘을 활용하여 대상 공간(110, 120, 130)의 사고 상황을 예측할 수 있으며, 상기 분석 기법 또는 알고리즘은 대상 공간(110, 120, 130), 센싱 데이터의 종류 등에 따라 달라질 수 있다.
또한, 서버(104)는 모바일 기기(106)로부터 모바일 기기(106)의 현재 위치 정보를 수신할 수 있다. 상술한 바와 같이, 서버(104)는 각 센서(102)로부터 수집된 센싱 데이터를 통해 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다. 이때, 서버(104)는 모바일 기기(106)의 현재 위치 정보에 대응되는 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있으며, 상기 이상 상황의 탐지 결과를 상기 모바일 기기(106)로 전송할 수 있다. 후술할 바와 같이, 모바일 기기(106)는 모바일 기기(106)의 현재 위치와 대응되는 대상 공간(110, 120, 130)의 영상을 획득하고, 서버(104)로부터 수신된 탐지 결과와 관련된 제1 가상 컨텐츠를 상기 영상과 합성하여 증강 현실 상태의 화면을 디스플레이할 수 있다. 이에 따라, 모바일 기기(106)를 소지하는 사용자는 자신이 현재 위치하고 있는 대상 공간(110, 120, 130)에서 이상 상황이 발생하였는지, 또는 발생될 가능성이 있는지의 여부를 보다 직관적이고 간편하게 파악할 수 있다.
또한, 서버(104)는 모바일 기기(106)의 현재 위치 정보에 대응되는 대상 공간(110, 120, 130)의 이상 상황을 탐지하고, 상기 탐지 결과에 따라 대상 공간(110, 120, 130)에서 발생될 수 있는 사고 상황을 예측한 후 사고 상황의 예측 결과를 상기 모바일 기기(106)로 전송할 수 있다. 모바일 기기(106)는 서버(104)로부터 사고 상황의 예측 결과를 수신하고, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이할 수 있다. 이에 따라, 모바일 기기(106)를 소지하는 사용자는 자신이 현재 위치하고 있는 대상 공간(110, 120, 130)에서 사고 상황이 발생될 가능성이 있는지의 여부를 보다 직관적이고 간편하게 파악할 수 있다.
모바일 기기(106)는 사용자가 소지하는 단말로서, 예를 들어 스마트폰, 노트북, 태블릿 PC, PDA 등과 같은 전자기기, 스마트 안경, 스마트 고글, 스마트 헬멧 등과 같이 전방 영상을 획득하기 위한 촬영 수단 및 상기 영상을 디스플레이하기 위한 화면이 구비되는 헤드 마운티드 디스플레이(HMD : Head Mounted Display) 등을 모두 포함하는 넓은 의미로 사용된다.
모바일 기기(106)는 자신의 현재 위치 정보를 획득하고, 상기 위치 정보를 서버(104)로 전송할 수 있다. 일 예시로서, 모바일 기기(106)는 내부에 장착된 GPS 모듈을 이용하여 자신의 현재 위치 정보를 획득할 수 있다. 다른 예시로서, 모바일 기기(106)는 모바일 기기(106)와 기지국(미도시) 간의 신호 세기를 이용한 삼각 측량법을 이용하여 자신의 위치 정보를 획득할 수도 있다. 본 발명의 실시예들에 있어서 모바일 기기(106)에서의 구체적인 위치 측정 방법은 특별히 제한되지 않는다. 모바일 기기(106)는 본 발명이 속한 기술분야에서 알려진 방법들을 이용하여 자신의 위치 정보를 획득할 수 있다.
또한, 모바일 기기(106)는 카메라, 캠코더 등과 같은 촬영 수단을 구비할 수 있으며, 상기 촬영 수단을 통해 전방 영상, 즉 대상 공간(110, 120, 130)의 영상을 획득할 수 있다.
상술한 바와 같이, 모바일 기기(106)는 서버(104)로부터 대상 공간(110, 120, 130)의 이상 상황에 대한 탐지 결과를 수신하고, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 촬영 수단을 통해 획득한 영상과 합성하여 증강 현실 상태의 화면을 디스플레이할 수 있다. 모바일 기기(106)는 서버(104)로부터 수신된 상기 탐지 결과를 이용하여 제1 가상 컨텐츠를 생성하거나, 또는 서버(104)로부터 상기 제1 가상 컨텐츠를 상기 탐지 결과와 함께 수신할 수 있다. 여기서, 제1 가상 컨텐츠는 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다. 즉, 본 발명의 실시예들에 따르면, 대상 공간(110, 120, 130)의 이상 상황에 대한 탐지 결과를 증강 현실 상태의 화면으로 사용자에게 디스플레이함으로써, 모바일 기기(106)를 소지하는 사용자는 자신이 현재 위치하고 있는 대상 공간(110, 120, 130)에서 이상 상황이 발생하였는지, 또는 발생될 가능성이 있는지의 여부를 보다 직관적이고 간편하게 파악할 수 있다.
또한, 모바일 기기(106)는 서버(104)로부터 대상 공간(110, 120, 130)의 사고 상황에 대한 예측 결과를 수신하고, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이할 수 있다. 모바일 기기(106)는 서버(104)로부터 수신된 상기 예측 결과를 이용하여 제2 가상 컨텐츠를 생성하거나, 또는 서버(104)로부터 상기 제2 가상 컨텐츠를 상기 예측 결과와 함께 수신할 수 있다. 여기서, 제2 가상 컨텐츠는 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다. 즉, 본 발명의 실시예들에 따르면, 대상 공간(110, 120, 130)의 사고 상황에 대한 예측 결과를 가상 현실 상태의 화면으로 사용자에게 디스플레이함으로써, 모바일 기기(106)를 소지하는 사용자는 자신이 현재 위치하고 있는 대상 공간(110, 120, 130)에서 사고 상황이 발생될 가능성이 있는지의 여부를 보다 직관적이고 간편하게 파악할 수 있다.
또한, 대상 공간(110, 120, 130)에 설치된 센서(102)에는 모바일 기기(106)에 의해 인식 가능한 광학 코드, 예를 들어 큐알 코드(QR Code), 바코드 등이 부착될 수 있으며, 모바일 기기(106)는 상기 광학 코드를 인식함으로써 센서(102)를 감지할 수 있다. 모바일 기기(106)는 감지된 센서(102)의 식별 정보를 서버(104)로 전송하고, 서버(104)는 센서(102)로부터 수신된 센싱 데이터를 분석하여 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다.
또한, 상술한 바와 같이, 모바일 기기(106)에는 상기 센싱 데이터 획득을 위한 각종 센서(102)가 장착될 수 있다. 이에 따라, 센서(102)는 모바일 기기(106)의 이동에 따라 대상 공간(110, 120, 130) 내 여러 장소에서 센싱 데이터를 획득하고, 이를 서버(104)로 전송할 수 있다. 이 경우, 서버(104)에서의 센싱 데이터의 축적 및 학습 효율이 향상될 수 있다.
도 2는 본 발명의 일 실시예에 따른 서버(104)의 상세 구성을 나타낸 블록도이다. 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 서버(104)는 수집부(202), 탐지부(204) 및 예측부(206)를 포함한다.
수집부(202)는 대상 공간(110, 120, 130)에 존재하는 센서(102) 각각으로부터 획득된 센싱 데이터를 수집한다. 대상 공간(110, 120, 130) 내 각 센서(102)는 네트워크(108)를 통해 서버(104)와 연결되며, 수집부(202)는 각 센서(102)로부터 획득된 센싱 데이터를 실시간으로 수집할 수 있다.
탐지부(204)는 수집된 센싱 데이터를 분석하여 대상 공간(110, 120, 130)의 이상 상황을 탐지한다. 탐지부(204)는 수집된 센싱 데이터와 미리 저장된 학습 데이터 또는 통계 데이터를 비교함으로써 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다. 일 예시로서, 탐지부(204)는 이전에 수집된 센싱 데이터들의 패턴을 학습하여 학습 데이터를 생성하고, 실시간으로 수집된 센싱 데이터와 상기 학습 데이터를 비교하여 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다. 다른 예시로서, 탐지부(204)는 이전에 수집된 센싱 데이터들을 통계적으로 분석하여 통계 데이터를 생성하고, 실시간으로 수집된 센싱 데이터와 상기 통계 데이터를 비교하여 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다.
탐지부(204)는 이상 상황의 탐지 결과를 생성하여 내부 데이터베이스(미도시)에 저장할 수 있다. 이때, 탐지부(204)는 상기 탐지 결과를 JSON(JavaScript Object Notation) 파일, XML(eXtensible Markup Language) 파일 등의 형태로 변환하여 내부 데이터베이스에 저장할 수 있다. 이에 따라, 탐지부(204)는 대량의 센싱 데이터로부터 획득된 탐지 결과를 보다 효율적으로 저장할 수 있으며, 이로 인해 탐지부(204)의 빅데이터 관리가 보다 용이해질 수 있다.
또한, 탐지부(204)는 상기 탐지 결과를 모바일 기기(106)로 전송하고, 모바일 기기(106)는 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 모바일 기기(106)에서 획득된 영상과 합성하여 증강 현실 상태의 화면을 디스플레이할 수 있다.
예측부(206)는 탐지부(204)에서의 탐지 결과에 따라 대상 공간(110, 120, 130)에서 발생될 수 있는 사고 상황을 예측한다. 예측부(206)는 이상 상황의 탐지 결과를 통계적으로 분석함으로써 이후 발생되는 센싱 데이터 값을 예측하고, 예측된 센싱 데이터 값에 따라 사고 상황을 예측할 수 있다. 예측부(206)는 사고 상황의 예측 결과를 내부 데이터베이스에 저장한 후 모바일 기기(106)로 전송할 수 있다. 모바일 기기(106)는 상기 예측 결과와 관련된 제2 가상 컨텐츠를 화면에 디스플레이할 수 있다.
도 3은 본 발명의 일 실시예에 따른 모바일 기기(106)의 예시도이다. 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 모바일 기기(106)는 영상 획득부(302), 위치 획득부(304) 및 디스플레이부(306)를 포함한다.
영상 획득부(302)는 모바일 기기(106)의 전방 영상, 즉 대상 공간(110, 120, 130)의 영상을 획득한다. 이를 위해, 모바일 기기(106)는 카메라, 캠코더 등과 같은 촬영 수단을 구비할 수 있으며, 영상 획득부(302)는 상기 촬영 수단을 통해 대상 공간(110, 120, 130)의 영상을 획득할 수 있다.
위치 획득부(304)는 모바일 기기(106)의 현재 위치 정보를 획득한다. 이를 위해, 모바일 기기(106)는 GPS 모듈을 구비할 수 있으며, 위치 획득부(304)는 상기 GPS 모듈을 통해 모바일 기기(106)의 현재 위치 정보를 획득할 수 있다. 또한, 위치 획득부(304)는 모바일 기기(106)와 기지국 간의 신호 세기를 이용한 삼각 측량법을 이용하여 모바일 기기(106)의 위치 정보를 획득할 수도 있다. 위치 획득부(304)는 획득된 모바일 기기(106)의 현재 위치 정보를 서버(104)로 전송할 수 있다.
디스플레이부(306)는 모바일 기기(106)의 현재 위치 정보에 대응되는 대상 공간(110, 120, 130)의 이상 상황에 대한 탐지 결과를 서버(104)로부터 수신하고, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 영상 획득부(302)에서 획득된 영상과 합성하여 증강 현실 상태의 화면을 디스플레이한다. 상술한 바와 같이, 제1 가상 컨텐츠는 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
또한, 디스플레이부(306)는 모바일 기기(106)의 현재 위치 정보에 대응되는 대상 공간(110, 120, 130)에서 발생될 수 있는 사고 상황에 대한 예측 결과를 서버(104)로부터 수신하고, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이할 수 있다. 상술한 바와 같이, 제2 가상 컨텐츠는 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
도 4는 본 발명의 일 실시예에 따른 모바일 기기(106)의 예시도이며, 도 5는 본 발명의 일 실시예에 따른 모바일 기기(106)의 다른 예시도이다.
도 4를 참조하면, 모바일 기기(106)는 예를 들어, 스마트폰, 노트북, 태블릿 PC, PDA 등과 같은 전자기기일 수 있다. 사용자는 모바일 기기(106)를 소지하면서 이동할 수 있으며, 모바일 기기(106)에 장착된 촬영 수단을 통해 전방의 영상을 획득할 수 있다. 이때, 사용자는 모바일 기기(106)를 손에 쥔 채로 모바일 기기(106)의 화면을 바라볼 수 있다. 모바일 기기(106)는 제1 가상 컨텐츠와 상기 영상이 합성된 증강 현실 상태의 화면을 디스플레이하거나 제2 가상 컨텐츠를 포함한 가상 현실 상태의 화면을 디스플레이할 수 있다.
또한, 도 5를 참조하면, 모바일 기기(106)는 예를 들어, 스마트 안경, 스마트 고글, 스마트 헬멧 등과 같은 헤드 마운티드 디스플레이(HMD)일 수 있다. 사용자는 모바일 기기(106)를 얼굴 또는 머리에 장착한 채로 이동할 수 있으며, 모바일 기기(106)의 화면을 통해 전방의 영상을 직접 바라볼 수 있다. 모바일 기기(106)는 전방 영상을 획득하기 위한 촬영 수단 및 상기 영상을 디스플레이하기 위한 화면을 구비할 수 있다.
도 6 내지 도 8은 본 발명의 일 실시예에 따른 센서(102)에서 센싱 데이터를 수집하는 과정을 나타낸 예시도이다.
도 6을 참조하면, 건물(대상 공간) 내 테이블 위에 진동 센서(102)가 놓여져 있으며, 상기 진동 센서(102)는 테이블 또는 상기 테이블에 놓여진 물컵의 진동을 감지할 수 있다. 일반적으로, 지진 등에 의한 진동이 발생되는 경우, 물컵 내부의 물이 상기 진동으로 인해 흔들리게 된다. 진동 센서(102)는 이러한 진동과 관련된 센싱 데이터를 획득하여 서버(104)로 전송하고, 서버(104)는 상기 센싱 데이터를 이용하여 대상 공간(110, 120, 130)의 이상 상황 또는 사고 상황, 예를 들어 지진 발생 상황을 탐지 및 예측할 수 있다.
또한, 도 7을 참조하면, 부엌(대상 공간) 내 가스 레인지 주변에 가스 감지 센서(102)가 부착될 수 있으며, 상기 가스 감지 센서(102)는 가스 레인지에서 누출되는 가스를 감지할 수 있다. 가스 감지 센서(102)는 이러한 가스 누출과 관련된 센싱 데이터를 획득하여 서버(104)로 전송하고, 서버(104)는 상기 센싱 데이터를 이용하여 대상 공간(110, 120, 130)의 이상 상황 또는 사고 상황, 예를 들어 가스 누출 상황, 가스 폭발 상황 등을 탐지 및 예측할 수 있다.
또한, 도 8을 참조하면, 공원(대상 공간)에 카메라(102)가 설치될 수 있으며, 상기 카메라(102)는 하늘의 새들을 촬영함으로써 새들의 움직임 패턴을 감지할 수 있다. 카메라(102)는 새들의 움직임 패턴과 관련된 센싱 데이터를 획득하여 서버(104)로 전송하고, 서버(104)는 상기 센싱 데이터를 이용하여 대상 공간(110, 120, 130)의 이상 상황 또는 사고 상황, 예를 들어 이상 기후(폭우, 폭설 등)를 탐지 및 예측할 수 있다.
도 9 내지 도 11은 본 발명의 일 실시예에 따른 모바일 기기(106)에서 디스플레이되는 증강 현실 상태의 화면의 예시도이다.
도 9는 도 6에 도시된 건물(대상 공간)에서 획득된 영상에 제1 가상 컨텐츠가 합성된 증강 현실 상태의 화면을 나타낸 예시도이고, 도 10은 도 7에 도시된 부엌(대상 공간)에서 획득된 영상에 제1 가상 컨텐츠가 합성된 증강 현실 상태의 화면을 나타낸 예시도이며, 도 11은 도 8에 도시된 공원(대상 공간)에서 획득된 영상에 제1 가상 컨텐츠가 합성된 증강 현실 상태의 화면을 나타낸 예시도이다. 상술한 바와 같이, 제1 가상 컨텐츠는 이상 상황에 대한 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
도 9를 참조하면, 제1 가상 컨텐츠는 예를 들어, 지진 강도를 나타내는 막대 그래프 및 수치값을 포함할 수 있다. 이에 따라, 모바일 기기(102)의 화면에는 촬영 수단을 통해 획득된 영상에 상기 지진 강도와 관련된 제1 가상 컨텐츠가 합성되어 디스플레이될 수 있으며, 사용자는 지진과 관련된 이상 상황을 보다 직관적이고 간편하게 파악할 수 있다.
또한, 도 10을 참조하면, 제1 가상 컨텐츠는 예를 들어, 가스 누출을 나타내는 이미지로서 가스가 누출되었음을 직관적으로 나타내는 연기 이미지일 수 있다. 이에 따라, 모바일 기기(102)의 화면에는 촬영 수단을 통해 획득된 영상에 상기 가스 누출과 관련된 제1 가상 컨텐츠가 합성되어 디스플레이될 수 있으며, 사용자는 가스 누출과 관련된 이상 상황을 보다 직관적이고 간편하게 파악할 수 있다.
또한, 도 11을 참조하면, 제1 가상 컨텐츠는 예를 들어, 새들의 움직임 패턴을 나타낸 이미지로서 모여있는 새들을 연결한 라인 이미지일 수 있다. 이에 따라, 모바일 기기(102)의 화면에는 촬영 수단을 통해 획득된 영상에 상기 새들의 움직임 패턴과 관련된 제1 가상 컨텐츠가 합성되어 디스플레이될 수 있으며, 사용자는 새들의 움직임 패턴과 관련된 이상 상황을 보다 직관적이고 간편하게 파악할 수 있다.
도 12는 본 발명의 일 실시예에 따른 모바일 기기(106)에서 디스플레이되는 제2 가상 컨텐츠의 예시도이다. 상술한 바와 같이, 제2 가상 컨텐츠는 사고 상황의 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
일 예시로서, 서버(104)에서 지진 발생 상황이 예측되는 경우, 서버(104)는 지진 발생과 관련된 사고 상황의 예측 결과를 모바일 기기(106)로 전송할 수 있다. 모바일 기기(106)는 서버(104)로부터 사고 상황의 예측 결과를 수신하고, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 화면에 디스플레이할 수 있다. 도 12를 참조하면, 제2 가상 컨텐츠는 지진 발생과 관련된 이미지 또는 영상(예를 들어, 집이 파손되거나 붕괴되는 이미지 또는 영상)과 지진 발생과 관련된 텍스트(예를 들어, 지진 발생을 예측하는 텍스트, 지진 발생으로 인한 사고 상황을 예측하는 텍스트, 지진 발생으로 인한 권고 사항을 나타내는 텍스트 등)를 포함할 수 있다. 이에 따라, 모바일 기기(106)를 소지하는 사용자는 자신이 현재 위치하고 있는 대상 공간(110, 120, 130)에서 사고 상황이 발생될 가능성이 있는지의 여부를 보다 직관적이고 간편하게 파악할 수 있다.
도 13은 본 발명의 일 실시예에 따른 공간 관리 방법을 설명하기 위한 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
S102 단계에서, 각 센서(102)는 센싱 데이터를 획득하여 서버(104)로 전송한다.
S104 단계에서, 모바일 기기(106)는 촬영 수단을 이용하여 전방, 즉 대상 공간(110, 120, 130)의 영상을 획득한다.
S106 단계에서, 모바일 기기(106)는 GPS 모듈 등과 같은 위치 측정 수단을 이용하여 모바일 기기(106)의 현재 위치 정보를 획득한다.
S108 단계에서, 모바일 기기(106)는 획득한 위치 정보를 서버(104)로 전송한다.
S110 단계에서, 서버(104)는 상기 위치 정보에 대응되는 대상 공간(110, 120, 130)의 이상 상황을 탐지한다. 예를 들어, 서버(104)는 획득된 센싱 데이터와 미리 저장된 학습 데이터 또는 통계 데이터를 비교함으로써 대응되는 대상 공간(110, 120, 130)의 이상 상황을 탐지할 수 있다.
S112 단계에서, 서버(104)는 이상 상황의 탐지 결과를 모바일 기기(106)로 전송한다.
S114 단계에서, 모바일 기기(106)는 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 획득된 영상과 합성하여 증강 현실 상태의 화면을 디스플레이한다. 제1 가상 컨텐츠는 예를 들어, 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
S116 단계에서, 서버(104)는 상기 탐지 결과에 따라 획득된 위치 정보에 대응되는 대상 공간(110, 120, 130)에서 발생될 수 있는 사고 상황을 예측한다. 서버(104)는 예를 들어, 이상 상황의 탐지 결과를 통계적으로 분석함으로써 이후 발생되는 센싱 데이터 값을 예측하고, 예측된 센싱 데이터 값에 따라 사고 상황을 예측할 수 있다.
S118 단계에서, 서버(104)는 사고 상황의 예측 결과를 모바일 기기(106)로 전송한다.
S120 단계에서, 모바일 기기(106)는 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이한다. 제2 가상 컨텐츠는 예를 들어, 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어질 수 있다.
한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 전술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100 : 공간 관리 시스템
102 : 센서
104 : 서버
106 : 모바일 기기
108 : 네트워크
110, 120, 130 : 대상 공간
202 : 수집부
204 : 탐지부
206 : 예측부
302 : 영상 획득부
304 : 위치 획득부
306 : 디스플레이부
102 : 센서
104 : 서버
106 : 모바일 기기
108 : 네트워크
110, 120, 130 : 대상 공간
202 : 수집부
204 : 탐지부
206 : 예측부
302 : 영상 획득부
304 : 위치 획득부
306 : 디스플레이부
Claims (18)
- 복수의 대상 공간에 각각 존재하며, 상기 대상 공간의 이상 상황을 탐지하는 데 사용되는 센싱 데이터를 획득하는 하나 이상의 센서;
사용자에 의해 소지되며, 상기 대상 공간의 영상을 획득하는 모바일 기기; 및
상기 모바일 기기 및 상기 센서로부터 상기 모바일 기기의 위치 정보 및 상기 센싱 데이터를 각각 수신하고, 상기 센싱 데이터를 분석하여 상기 위치 정보에 대응되는 대상 공간의 이상 상황을 탐지하는 서버를 포함하며,
상기 모바일 기기는, 상기 서버로부터 상기 이상 상황의 탐지 결과를 수신하고, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 상기 영상과 합성하여 증강 현실 상태의 화면을 디스플레이하는, 공간 관리 시스템.
- 청구항 1에 있어서,
상기 서버는, 상기 탐지 결과에 따라 상기 위치 정보에 대응되는 대상 공간에서 발생될 수 있는 사고 상황을 예측하고,
상기 모바일 기기는, 상기 서버로부터 상기 사고 상황의 예측 결과를 수신하고, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이하는, 공간 관리 시스템.
- 청구항 2에 있어서,
상기 제1 가상 컨텐츠는, 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지며,
상기 제2 가상 컨텐츠는, 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지는, 공간 관리 시스템.
- 청구항 1에 있어서,
상기 서버는, 상기 센싱 데이터와 미리 저장된 학습 데이터 또는 통계 데이터를 비교함으로써 상기 이상 상황을 탐지하는, 공간 관리 시스템.
- 청구항 1에 있어서,
상기 센서에는, 상기 모바일 기기에 의해 인식 가능한 광학 코드가 부착되며,
상기 모바일 기기는, 상기 광학 코드를 인식함으로써 상기 센서를 감지하고, 감지된 상기 센서의 식별 정보를 상기 서버로 전송하며,
상기 서버는, 감지된 상기 센서로부터 수신된 센싱 데이터를 분석하여 상기 이상 상황을 탐지하는, 공간 관리 시스템.
- 청구항 1에 있어서,
상기 대상 공간의 종류에 따라 상기 대상 공간에 설치되는 센서의 종류, 개수 및 설치 위치 중 하나 이상이 달라지는, 공간 관리 시스템.
- 청구항 1에 있어서,
상기 센서는, 상기 모바일 기기에 장착되는, 공간 관리 시스템.
- 복수의 대상 공간에 각각 존재하는 하나 이상의 센서를 통해 획득된 센싱 데이터를 분석하여 상기 대상 공간의 이상 상황을 탐지하는 서버와 연결되는 모바일 기기로서,
상기 대상 공간의 영상을 획득하는 영상 획득부;
상기 모바일 기기의 위치 정보를 획득하고, 상기 위치 정보를 상기 서버로 전송하는 위치 획득부; 및
상기 서버로부터 상기 위치 정보에 대응되는 대상 공간의 이상 상황의 탐지 결과를 수신하고, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 상기 영상과 합성하여 증강 현실 상태의 화면을 디스플레이하는 디스플레이부를 포함하는, 모바일 기기.
- 청구항 8에 있어서,
상기 디스플레이부는, 상기 탐지 결과에 따라 상기 위치 정보에 대응되는 대상 공간에서 발생될 수 있는 사고 상황의 예측 결과를 상기 서버로부터 수신하고, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이하는, 모바일 기기.
- 청구항 9에 있어서,
상기 제1 가상 컨텐츠는, 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지며,
상기 제2 가상 컨텐츠는, 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지는, 모바일 기기.
- 청구항 8에 있어서,
상기 센서는, 상기 모바일 기기에 장착되는, 모바일 기기.
- 복수의 대상 공간에 각각 존재하는 하나 이상의 센서에서, 상기 대상 공간의 이상 상황을 탐지하는 데 사용되는 센싱 데이터를 획득하는 단계;
사용자에 의해 소지되는 모바일 기기에서, 상기 대상 공간의 영상을 획득하는 단계;
서버에서, 상기 모바일 기기 및 상기 센서로부터 상기 모바일 기기의 위치 정보 및 상기 센싱 데이터를 각각 수신하는 단계;
상기 서버에서, 상기 센싱 데이터를 분석하여 상기 위치 정보에 대응되는 대상 공간의 이상 상황을 탐지하는 단계;
상기 모바일 기기에서, 상기 서버로부터 상기 이상 상황의 탐지 결과를 수신하는 단계; 및
상기 모바일 기기에서, 상기 탐지 결과와 관련된 제1 가상 컨텐츠를 상기 영상과 합성하여 증강 현실 상태의 화면을 디스플레이하는 단계를 포함하는, 공간 관리 방법.
- 청구항 12에 있어서,
상기 서버에서, 상기 탐지 결과에 따라 상기 위치 정보에 대응되는 대상 공간에서 발생될 수 있는 사고 상황을 예측하는 단계;
상기 모바일 기기에서, 상기 서버로부터 상기 사고 상황의 예측 결과를 수신하는 단계; 및
상기 모바일 기기에서, 상기 예측 결과와 관련된 제2 가상 컨텐츠를 디스플레이하는 단계를 더 포함하는, 공간 관리 방법.
- 청구항 13에 있어서,
상기 제1 가상 컨텐츠는, 상기 탐지 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지며,
상기 제2 가상 컨텐츠는, 상기 예측 결과를 나타내는 수치값, 텍스트, 그래프, 이미지, 영상, 표, 도형 또는 이들의 조합으로 이루어지는, 공간 관리 방법.
- 청구항 12에 있어서,
상기 이상 상황을 탐지하는 단계는, 상기 센싱 데이터와 미리 저장된 학습 데이터 또는 통계 데이터를 비교함으로써 상기 이상 상황을 탐지하는, 공간 관리 방법.
- 청구항 12에 있어서,
상기 이상 상황을 탐지하는 단계 이전에,
상기 모바일 기기에서, 상기 센서에 부착된 광학 코드를 인식함으로써 상기 센서를 감지하는 단계; 및
상기 모바일 기기에서, 감지된 상기 센서의 식별 정보를 상기 서버로 전송하는 단계를 더 포함하며,
상기 이상 상황을 탐지하는 단계는, 감지된 상기 센서로부터 수신된 센싱 데이터를 분석하여 상기 이상 상황을 탐지하는, 공간 관리 방법.
- 청구항 12에 있어서,
상기 대상 공간의 종류에 따라 상기 대상 공간에 설치되는 센서의 종류, 개수 및 설치 위치 중 하나 이상이 달라지는, 공간 관리 방법.
- 청구항 12에 있어서,
상기 센서는, 상기 모바일 기기에 장착되는, 공간 관리 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160051397A KR20170122443A (ko) | 2016-04-27 | 2016-04-27 | 공간 관리 시스템 및 방법과 이를 수행하기 위한 모바일 기기 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160051397A KR20170122443A (ko) | 2016-04-27 | 2016-04-27 | 공간 관리 시스템 및 방법과 이를 수행하기 위한 모바일 기기 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170122443A true KR20170122443A (ko) | 2017-11-06 |
Family
ID=60384156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160051397A KR20170122443A (ko) | 2016-04-27 | 2016-04-27 | 공간 관리 시스템 및 방법과 이를 수행하기 위한 모바일 기기 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20170122443A (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019177181A1 (ko) * | 2018-03-12 | 2019-09-19 | 라인플러스(주) | 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 |
KR20190111575A (ko) * | 2018-03-23 | 2019-10-02 | 이재호 | 객실 확인 시스템 |
KR102520581B1 (ko) * | 2022-08-29 | 2023-04-12 | 주식회사 심시스글로벌 | 디지털 트윈 환경의 가상 카메라뷰를 이용한 섬네일 기반 공간 관리 시스템 |
-
2016
- 2016-04-27 KR KR1020160051397A patent/KR20170122443A/ko unknown
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019177181A1 (ko) * | 2018-03-12 | 2019-09-19 | 라인플러스(주) | 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 |
US11501500B2 (en) | 2018-03-12 | 2022-11-15 | LINE Plus Corporation | Augmented reality (AR) providing apparatus and method for recognizing context using neural network, and non-transitory computer-readable record medium for executing the method |
KR20190111575A (ko) * | 2018-03-23 | 2019-10-02 | 이재호 | 객실 확인 시스템 |
KR102520581B1 (ko) * | 2022-08-29 | 2023-04-12 | 주식회사 심시스글로벌 | 디지털 트윈 환경의 가상 카메라뷰를 이용한 섬네일 기반 공간 관리 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102073135B1 (ko) | 관리 대상 설비 이상 상태 모니터링 시스템 | |
KR101199290B1 (ko) | 증강현실을 이용한 플랜트 관리 방법 및 시스템 | |
CN102044094B (zh) | 线路巡检管理系统及方法 | |
KR101411624B1 (ko) | 화재 감지 방법 및 시스템 | |
KR101653736B1 (ko) | 건설현장 재해방지시스템 및 방법 | |
CN107438766B (zh) | 基于图像的监视系统 | |
JP5716866B2 (ja) | デバイス管理装置及びデバイス検索方法 | |
US9107045B2 (en) | Crowdsourcing method to detect broken WiFi indoor locationing model | |
US11176744B2 (en) | Mapping sensor data using a mixed-reality cloud | |
US20180253601A1 (en) | Method of providing augmented reality content, and electronic device and system adapted to the method | |
Arslan et al. | Visualizing intrusions in dynamic building environments for worker safety | |
US20120159650A1 (en) | Apparatus and method for recognizing security situation and generating situation information based on spatial linkage of physical and it security | |
KR101562650B1 (ko) | 재난감지시스템 및 그 제공방법 | |
KR101179996B1 (ko) | 유해 가스 감지 시스템 및 방법 | |
KR101709157B1 (ko) | 소방 관리 시스템 및 소방 시설의 관리를 위한 방법 | |
CN107251049B (zh) | 基于语义指示检测移动装置的位置 | |
KR101863530B1 (ko) | 가시광 및 적외선 열화상 이미지를 이용한 화재 예측 보전시스템 | |
KR20110040699A (ko) | 산불 자동 감지 시스템 및 그 제어방법 | |
US9622048B2 (en) | SNS based incident management | |
CN105632086A (zh) | 异常状况预警方法及装置 | |
KR101864222B1 (ko) | 보행자 통행량 빅데이터 분석 시스템 및 방법 | |
KR20170122443A (ko) | 공간 관리 시스템 및 방법과 이를 수행하기 위한 모바일 기기 | |
KR20200030317A (ko) | 열화상카메라 및 iot센서를 활용한 송배전설비 현장점검 증강현실 플랫폼 | |
US7231415B1 (en) | Method and system for provisioning facility-based displays in support of repairing outside network facilities | |
KR101250956B1 (ko) | 자동 관제 시스템 |