KR101883292B1 - 재난 구조 및 대응 시스템 및 그 운용 방법 - Google Patents
재난 구조 및 대응 시스템 및 그 운용 방법 Download PDFInfo
- Publication number
- KR101883292B1 KR101883292B1 KR1020170046892A KR20170046892A KR101883292B1 KR 101883292 B1 KR101883292 B1 KR 101883292B1 KR 1020170046892 A KR1020170046892 A KR 1020170046892A KR 20170046892 A KR20170046892 A KR 20170046892A KR 101883292 B1 KR101883292 B1 KR 101883292B1
- Authority
- KR
- South Korea
- Prior art keywords
- transparent display
- display device
- disaster
- data
- server
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/10—Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
- G01S19/17—Emergency applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/10—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/14—Central alarm receiver or annunciator arrangements
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B5/00—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
- G08B5/22—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Remote Sensing (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Alarm Systems (AREA)
Abstract
본 개시는 재난 구조 및 대응시스템이 개시된다. 본 개시에 따른 재난 구조 및 대응 시스템은, 재난 발생 지역의 위치 정보를 획득하고 재난 지역 좌표를 추출하는 서버, 상기 서버로부터 상기 재난 지역 좌표를 수신한 경우, 상기 재난 지역 좌표에 대응되는 장소로 이동하고, 적어도 하나의 센서를 이용하여 상기 장소의 재난 정보에 대한 센싱 데이터를 획득하고 서버와 투명 디스플레이 장치로 전송하는 무인 이동체, 및 상기 무인 이동체로부터 센싱 데이터가 수신된 경우, 상기 수신된 센싱 데이터를 출력하는 투명 디스플레이 장치를 포함한다.
Description
본 개시는 무인 이동체 및 증강 현실 기술을 이용하여 재난 현장이나 응급 상황에서 효과적으로 구조 및 구호를 수행할 수 있는 시스템 구성 및 관련 운용 방식에 관한 것이다.
일반적으로 재난 및 응급 상황 발생시 구조 인력 및 장비의 신속한 투입은 인명 피해 및 재산 손실을 최소화하는 데 있어서 결정적인 역할을 담당한다. 이와 같은 재난 현장 및 응급 상황에 대하여 신속한 초동 대처를 효과적으로 수행하기 위해서는 사고 현장 및 상황에 대한 구조 인력의 충분한 이해, 사고 유형에 따른 효과적인 수습 방안 수립 및 신속한 추진, 그리고 이와 관련된 정보 및 자료 제공 등이 무엇보다 중요하다.
그러나 대부분의 경우 구조 인력은 사고 발생 원인, 사고 현장의 규모 및 상황의 심각성, 현장 주변의 지형적 특수성 등과 같은 기초 사항들에 대한 정보, 예비지식, 이해가 부족한 상태에서 투입되고 있다. 따라서 현장 상황을 파악하고 사고 수습을 위한 구체적인 방안을 수립하는 데 많은 시간을 허비하게 되어 실질적인 구조 및 구호 임무 수행을 위한 골든 타임을 놓치는 문제가 발생한다.
현장 진입 즉시 구조 인력이 신속하게 구조 임무를 시작하기 위해서는 현장에 진입하기 전부터 구조 인력에게 충분한 현장 상황 정보, 주변 지형 정보, 주요 고려 사항들이 제공되어야 한다. 또한 구조 인력이 사고 수습 방안을 수립하고 이를 추진하는 데 필요한 부가적인 데이터, 자료, 전문가의 조언 등이 지속적으로 전달되어 효과적인 구조 임무가 수행되도록 하여야 한다.
본 개시는 상술한 문제점을 해결하기 위한 것으로서, 무인 이동체와 증강현실 기술을 융합한 재난 구조 및 대응 시스템의 구성 및 그 운용 방법에 관한 것이다.
상술한 목적을 달성하기 위한 일 실시 예에 따른 재난 구조 및 대응 시스템은, 재난 발생 지역의 위치 정보를 획득하고 재난 지역 좌표를 추출하는 서버; 상기 서버로부터 상기 재난 지역 좌표를 수신한 경우, 상기 재난 지역 좌표에 대응되는 장소로 이동하고, 적어도 하나 이상의 센서를 이용하여 상기 장소의 재난 정보에 대한 데이터를 센싱, 획득, 저장하고 이를 서버와 투명 디스플레이 장치로 전송하는 무인 이동체; 및 상기 무인 이동체로부터 센싱 데이터가 수신된 경우, 상기 수신된 센싱 데이터를 출력하는 투명 디스플레이 장치를 포함한다.
이때, 상기 서버는, 상기 무인 이동체로부터 센싱 데이터가 수신된 경우, 상기 센싱 데이터를 바탕으로 재난 상황을 분석, 판단하여 재난 구조 정보를 생성하고 이를 상기 투명 디스플레이 장치로 전송할 수 있다.
이때 상기 재난 구조 정보는, 기 구축된 데이터베이스에 저장된 지형 데이터, 건물 구조도, 날씨 통계자료, 전력망, 도로망, 통신망 등의 자료 등을 활용하여 생성될 수 있다.
이때, 상기 재난 구조 정보는, 재난 발생 지점 및 주변 지형도, 건물의 구조도, 생존자 위치, 구조 절차 및 경로, 위험물 및 위험 영역 위치, 유해가스 유무, 화염의 강도 중 적어도 하나 이상을 포함할 수 있다.
이때, 상기 서버는, 상기 투명 디스플레이 장치로부터 제1 GPS 정보를 수신하고, 복수개의 무인 이동체로부터 제2 GPS 정보를 수신할 수 있다.
이때, 상기 제1 GPS 정보 및 상기 제2 GPS 정보를 바탕으로 상기 복수개의 무인 이동체가 상기 투명 디스플레이 장치와 기 설정된 거리 이내에 존재하는 것으로 판단된 경우, 상기 센싱 데이터를 상기 투명 디스플레이 장치로 전송하도록 할 수 있다.
이때, 상기 서버는, 상기 무인 이동체에 대응되는 상기 투명 디스플레이 장치가 매칭되고, 상기 무인 이동체가 상기 투명 디스플레이 장치와 기 설정된 거리 이외에 존재하는 경우, 상기 무인 이동체를 상기 기 설정된 거리 이내로 이동하도록 제어할 수 있다.
이때, 상기 센서는, 카메라, 레이저, 적외선 센서, 라이더(Lidar) 센서, GPS 센서, 초음파 센서, 온도센서, 습도 센서, 가스센서, 가스탐지 센서 등의 다양한 센서들을 하나 이상 포함할 수 있다.
이때, 상기 투명 디스플레이 장치는, 감지부를 통해 투명 디스플레이 장치를 착용한 사용자의 모션이 감지된 경우, 상기 사용자의 모션에 대응되는 메시지를 생성하고, 상기 생성된 메시지를 서버와 무인이동체로 전송할 수 있다.
이때, 상기 투명 디스플레이 장치는, 상기 수신된 재난 구조 정보와 상기 수신된 센싱 데이터를 디스플레이 하거나, 혹은 기 설정된 조건에 해당하는 데이터 및 정보를 디스플레이 할 수 있다.
한편, 본 개시의 일 실시 예에 따른 재난 구조 및 대응 시스템의 운용 방법은, 서버가 재난 발생 지역의 위치 정보를 획득하여 재난 지역 좌표를 추출하여 무인 이동체로 전송하는 단계; 상기 무인 이동체가 상기 재난 지역 좌표에 대응되는 장소로 이동하고, 적어도 하나 이상의 센서를 이용하여 상기 장소의 재난 정보에 대한 데이터를 센싱, 획득, 저장하여 서버와 투명 디스플레이 장치로 전송하는 단계; 및 상기 투명 디스플레이 장치가 상기 수신된 센싱 데이터를 출력하는 단계; 를 포함한다.
이때, 상기 출력하는 단계는, 상기 투명 디스플레이 장치가 상기 서버로부터 센싱 데이터와 재난 구조 정보를 수신하여 출력하는 단계를 더 포함하며, 상기 재난 구조 정보는, 상기 센싱 데이터와 기 구축된 데이터베이스의 자료를 바탕으로 재난 상황을 분석, 파악하여 생성될 수 있다.
상술한 바와 같이, 본 개시의 일 실시 예에 따른 재난 구조 및 대응 시스템은 신속한 구조 및 구호가 가능해짐은 물론 구조 인력이 임무 수행 중에 위험 상황에 빠지는 것을 방지할 수 있다. 또한 시설물 안전 점검, 재난 방지, 사건 및 사고 예방 등의 기능을 수행하는 유사 시스템으로의 확장이 손쉽게 이루어질 수 있다.
도 1은 본 개시의 일 실시 예에 따른 재난 구조 및 대응 시스템을 설명하는 도면이다.
도 2a 내지 도 2c는 본 개시의 일 실시 예에 따른 서버, 무인 이동체 및 투명 디스플레이 장치의 블록도이다.
도 3a 및 도 3b는 본 개시의 일 실시 예에 따른, 무인 이동체와 투명 디스플레이 장치를 제어하는 방법을 설명한 도면이다.
도 4a 및 도 4b는 본 개시의 일 실시 예에 따른, 투명 디스플레이 장치가 사용자 모션을 감지하여 제어 명령을 판단하는 과정을 설명하는 도면이다.
도 5는 본 개시의 일 실시 예에 따른, 재난 구조 및 대응 시스템의 시퀀스도이다.
도 6는 본 개시의 일 실시 예에 따른, 재난 구조 및 대응 시스템의 운용 방법을 설명한 흐름도이다.
도 2a 내지 도 2c는 본 개시의 일 실시 예에 따른 서버, 무인 이동체 및 투명 디스플레이 장치의 블록도이다.
도 3a 및 도 3b는 본 개시의 일 실시 예에 따른, 무인 이동체와 투명 디스플레이 장치를 제어하는 방법을 설명한 도면이다.
도 4a 및 도 4b는 본 개시의 일 실시 예에 따른, 투명 디스플레이 장치가 사용자 모션을 감지하여 제어 명령을 판단하는 과정을 설명하는 도면이다.
도 5는 본 개시의 일 실시 예에 따른, 재난 구조 및 대응 시스템의 시퀀스도이다.
도 6는 본 개시의 일 실시 예에 따른, 재난 구조 및 대응 시스템의 운용 방법을 설명한 흐름도이다.
이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 발명의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 프로세서에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
그 밖에도, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다.
이하, 도면을 참조하여 본 발명의 실시 예에 대하여 상세히 설명한다.
도 1은 본 개시의 일 실시 예에 따른 재난 구조 및 대응 시스템을 설명하는 도면이다.
도 1을 참조하면, 재난 구조 및 대응 시스템(1000)은 서버(100), 무인 이동체(200) 및 투명 디스플레이 장치(300)로 구성될 수 있다.
서버(100)는 무인 이동체(200)로부터 획득된 센싱 데이터를 수신하여 이를 처리할 수 있으며, 센싱 데이터 및 처리된 데이터 중 적어도 하나 이상을 투명 디스플레이 장치(300)로 전송할 수 있다.
구체적으로, 서버(100)는 특정 지역에 재난이 발생한 경우, 재난 발생 지역의 위치 정보를 획득하고 재난 지역 좌표를 추출하여 무인 이동체(200)로 전송할 수 있다. 무인 이동체(200)가 재난 발생 지역으로 이동하여 재난 지역에 대한 센싱 데이터를 획득한 경우, 서버(100)는 센싱 데이터를 바탕으로 재난 상황을 분석, 판단하여 재난 구조 정보를 생성하고 이를 투명 디스플레이 장치(300)로 전송할 수 있다.
이때, 재난 구조 정보란 수신한 센싱 데이터를 처리하여 가공된 데이터와 기 구축된 데이터 베이스의 자료를 활용하여 생성된 데이터를 의미한다. 재난 구조 정보는 다양한 형태일 수 있다. 예를 들어, 재난 구조 정보는 생존자 위치 정보, 재난 발생 지점 및 위험물 위치 정보, 재난 지역 인근의 지형도, 해당 지역의 유해가스 정보, 화염의 강도에 관한 정보 등 다양할 수 있다. 이러한 재난 구조 정보는 무인 이동체(200)로부터 획득한 센싱 데이터와 기 구축된 데이터 베이스의 자료를 바탕으로 생성될 수 있다.
이때, 기 구축된 데이터 베이스의 자료는 지형 데이터, 건물 구조도, 날씨 통계자료, 전력망, 도로망, 통신망 등의 자료일 수 있다.
한편, 투명 디스플레이 장치(300)로 전송되는 재난 구조 정보는 상술한 예에 한정되는 것을 아니다. 예를 들어, 서버(100)는 센싱 데이터를 바탕으로 진입 경로, 전문가 의견 등의 정보를 투명 디스플레이 장치(300)로 전송할 수 있으며, 투명 디스플레이 장치(300)를 착용한 구조 요원들 간의 임무를 배분하여 전송할 수도 있다.
한편, 서버(100)는 무인 이동체(200) 및 투명 디스플레이 장치(300)로부터 GPS 정보를 수신할 수 있다. 구체적으로, 서버(100)는 투명 디스플레이 장치(300)로부터 제1 GPS 정보를 수신하고, 복수개의 무인 이동체(200)로부터 제2 GPS 정보를 수신할 수 있다. 서버(100)는 제1 GPS 정보 및 제2 GPS 정보를 바탕으로 복수개의 무인 이동체(200)가 상기 투명 디스플레이 장치(300)와 기 설정된 거리 이내에 존재하는 것으로 판단된 경우, 센싱 데이터를 투명 디스플레이 장치(300)로 전송할 수 있다.
구체적으로, 서버(100)는 복수의 무인 이동체(200)로부터 GPS 정보를 포함하는 센싱 데이터를 수신할 수 있다. 즉, 서버(100)는 무인 이동체(200) 및 투명 디스플레이 장치(300)의 위치를 GPS 정보를 이용하여 판단할 수 있다. 서버(100)는 수신한 데이터를 기초로 특정 위치에서 감지된 센싱 데이터를 분류할 수 있다. 서버(100)는 투명 디스플레이 장치(300)의 위치에 대응되는 센싱 데이터 및 재난 구조 정보를 투명 디스플레이 장치(300)로 전송할 수 있다. 즉, 서버(100)는 복수의 무인 이동체(200)로부터 재난 발생 장소의 전반적인 데이터를 수신하여 특정 장소 별로 센싱 데이터를 분류할 수 있으며, 투명 디스플레이 장치(300)가 위치하는 특정 장소에서의 센싱 데이터만을 투명 디스플레이 장치(300)로 전송할 수 있다.
한편, 본 개시의 또 다른 실시 예에 의하면, 무인 이동체(200)에 대응되는 투명 디스플레이 장치(300)가 매칭되고, 무인 이동체(200)가 투명 디스플레이 장치(300)와 기 설정된 거리 밖에 존재하는 경우, 서버(100)는 무인 이동체(200)를 기 설정된 거리 이내로 이동하도록 무인 이동체(200)를 제어할 수 있다.
구체적으로, 각각의 투명 디스플레이 장치(300)는 적어도 하나의 무인 이동체(200)와 매칭될 수 있다. 예를 들어, 제1 무인 이동체 및 제2 무인 이동체는 제1 투명 디스플레이 장치의 주변을 이동하며, 제1 투명 디스플레이 장치의 움직임에 대응되는 센싱 데이터를 제1 투명 디스플레이 장치로 전송할 수 있다.
무인 이동체(200)는 원격 제어 또는 자동 주행을 통해 이동하는 물체일 수 있다. 이때 무인 이동체는 무인 자동차, 무인 비행체, 무인 잠수정 등 다양할 수 있다. 예를 들어, 무인 이동체가 드론인 경우, 드론은 자동차형, 헬리콥터형, 비행기형, 보트형, 잠수정형 등 다양한 형태일 수 있다.
무인 이동체(200)는 서버(100)로부터 재난 현장의 좌표를 수신하고, 재난 현장으로 이동할 수 있다. 이때, 무인 이동체(200)는 자율 주행을 통해 이동할 수 있으나, 외부 단말에 의한 원격 제어를 통해 이동할 수도 있다.
무인 이동체(200)는 재난 현장의 다양한 데이터를 감지하여 저장할 수 있다. 예를 들어, 무인 이동체(200)는 재난 현장의 영상 데이터, 온도 및 습도 데이터, 조도 데이터, 유해가스에 관한 데이터, 화염의 강도와 같은 데이터들을 감지할 수 있다. 무인 이동체(200)는 감지된 데이터를 서버(100) 및 투명 디스플레이 장치(300)로 전송할 수 있다. 각종 데이터 감지를 위해, 무인 이동체(200)는 카메라, 적외선센서, 레이저, 라이더(Lidar) 센서, GPS 센서, 초음파 센서, 온도센서, 습도 센서, 가스센서 등의 다양한 센서들 중 적어도 하나 이상을 포함할 수 있다.
투명 디스플레이 장치(300)는 헤드 마운티드 디스플레이(HMD, Head Mounted Display)와 같이 사용자의 시야를 방해하지 않으면서 착용할 수 있는 디스플레이 장치일 수 있다. 이때, 투명 디스플레이 장치(300)는 가상현실 또는 증강 현실을 디스플레이 하는 장치일 수 있다. 그러나 이러한 구성에 한정되는 것은 아니며, 스마트폰, 태블릿 PC 또는 웨어러블 디바이스와 같은 사용자 단말 장치가 투명 디스플레이 장치의 기능을 대신할 수도 있음은 물론이다.
투명 디스플레이 장치(300)는, 서버(100)로부터 재난 구조 정보를 수신하거나, 또는 무인 이동체(200)로부터 센싱 데이터를 수신하여 디스플레이 할 수 있다.
또한, 투명 디스플레이 장치(300)는 서버(100) 또는 무인 이동체(200)로 메시지를 전송할 수도 있다. 이때, 메시지의 종류는 다양할 수 있다. 예를 들어, 메시지는 무인 이동체(200)를 제어하기 위한 제어 명령일 수 있다. 또는 메시지는 투명 디스플레이 장치가 획득한 정보 혹은 사용자의 의사를 전달하기 위한 메시지일 수 있다. 구체적으로, 투명 디스플레이 장치(300)가 투명 디스플레이 장치를 착용한 사용자의 모션을 감지한 경우, 투명 디스플레이 장치(300) 사용자의 모션에 대응되는 메시지를 생성하고, 생성된 메시지를 서버(100) 또는 무인 이동체(200)로 전송할 수 있다.
또한, 투명 디스플레이 장치(300)는 수신된 센싱 데이터 또는 재난 구조 정보를 디스플레이 하거나 혹은, 기 설정된 조건에 해당하는 데이터 및 자료만을 디스플레이할 수 있다. 예를 들어, 투명 디스플레이 장치(300)는 특정 지역에 관한 데이터만을 출력하거나, 특정 지역의 생존자 정보에 관한 데이터만을 출력할 수 있다.
도 2a 내지 도 2c는 본 개시의 일 실시 예에 따른 서버, 무인 이동체 및 투명 디스플레이 장치의 구성을 나타낸 블록도이다.
도 2a에 도시된 바와 같이, 서버(100)는 통신부(110), 메모리(120), 데이터베이스(Database)부(140) 및 중앙처리부(130)를 포함할 수 있다.
통신부(110)는 무인 이동체(200) 및 투명 디스플레이 장치(300)와 통신을 수행할 수 있다. 구체적으로, 통신부(110)는 무인 이동체(200)로부터 센싱 데이터를 수신하거나, 투명 디스플레이 장치(300)로부터 GPS 정보를 수신할 수 있다. 또한, 통신부(110)는 무인 이동체(200) 및 투명 디스플레이 장치(300)로 제어 명령과 정보를 전송할 수 있다. 예를 들어, 통신부(110)는 무인 이동체(200)로 재난 발생 지역으로의 이동 명령을 전송할 수 있으며, 투명 디스플레이 장치(300)로 재난 구조 정보를 전송할 수 있다.
메모리(120)는 무인 이동체(200) 및 투명 디스플레이 장치(300)로부터 수신한 다양한 데이터를 저장할 수 있다. 또한 메모리(120)는 중앙처리부 (130)에서 생성된 재난 구조 정보를 저장할 수 있다.
데이터베이스부(140)는 재난 지역과 관련된 데이터 및 자료, 재난 구조에 필요한 장비들의 사용법 등을 저장할 수 있다. 또한, 데이터베이스부(140)는 다양한 외부 전자 장치 또는 외부 서버로부터 획득한 자료를 저장할 수 있다. 예를 들어, 재난 지역을 포함한 인근의 지형 데이터, 재난 지역에 존재하는 건물의 구조도, 재난 지역의 날씨 관련 통계자료, 재난 지역 인근의 전력망, 도로망 및 통신망 등을 저장할 수 있다.
한편, 도 2a에서 메모리(120)는 무인 이동체(200) 및 투명 디스플레이 장치(300)로부터 수신한 데이터를 저장하고, 데이터베이스부(140)는 그 이외의 자료를 저장하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 즉, 메모리(120)가 데이터베이스부(140)의 기능을 수행하거나, 데이터베이스부(140)가 메모리(120)의 기능을 수행하는 등, 메모리(120)와 데이터베이스부(140)는 하나의 구성으로 이루어 질 수도 있다.
중앙처리부(130)는 무인 이동체(120)로부터 수신한 센싱 데이터와 데이터베이스부의 자료를 바탕으로 재난 상황을 분석, 파악하여 재난 구조 정보를 생성할 수 있다. 중앙처리부 (130)는 생성된 재난 구조 정보를 투명 디스플레이 장치(300)로 전송할 수 있다. 또한, 재난 발생 지역의 위치 정보를 획득한 경우, 중앙처리부 (130)는 무인 이동체(200)를 이동시키기 위한 제어 명령을 송신할 수 있다. 또한, 투명 디스플레이 장치(300)로부터 제어 명령을 수신한 경우, 중앙처리부 (130)는 무인 이동체(200)로 수신된 제어 명령을 전송할 수 있다.
도 2b에 도시된 바와 같이, 무인 이동체(200)는 통신부(210), 센서부(220), 임무처리부(230), 구동부(240) 및 메모리(250)를 포함할 수 있다.
통신부(210)는 서버(100) 및 투명 디스플레이 장치(300)와 통신을 수행할 수 있다. 통신부(210)는 통신 수행을 위해 다양한 형태의 무선 통신 방식을 사용할 수 있다. 예를 들어, 통신부(210)는 LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access) 등을 포함하는 무선 통신 방식에 따라 데이터를 송수신할 수 있다.
센서부(220)는 다양한 데이터를 센싱, 감지할 수 있는 센서들로 구성될 수 있다. 구체적으로, 도 2b에 도시된 바와 같이, 센서부(220)는 카메라, 라이더(lidar) 센서, 초음파 센서, GPS센서를 포함할 수 있다. 그러나 상술한 구성에 한정되는 것은 아니며 레이저, 적외선 센서, 온도센서, 습도 센서, 가스 센서 등 다양한 센서를 포함할 수 있음은 물론이다.
구동부(240)는 무인 이동체(200)을 동작시키기 위한 구성이다. 구체적으로, 구동부(240)는 무인 이동체(200)를 이동시키기 위한 제어 명령을 임무처리부 (230)로부터 수신한 경우, 제어 명령에 대응되게 모터, 엔진, 액츄에이터 등을 구동하여 무인 이동체(200)를 이동시킬 수 있다.
메모리(250)는 센서부(220)를 통해 감지된 센싱 데이터를 저장할 수 있다. 메모리(250)에 저장된 센싱 데이터는 재난 구조 상황이 종료된 이후 서버(100)로 전송될 수 있다. 서버(100)로 전송된 센싱 데이터는 데이터베이스부(140)에 저장되어 사후 분석에 이용될 수 있으며, 차후 동일 지역에서 재난이 발생한 경우 또는 유사한 재난이 발생한 경우에도 이용될 수 있다.
임무처리부(230)는 무인 이동체(200)의 전반적인 동작 및 임무 수행을 제어할 수 있다. 구체적으로, 임무처리부(230)는 서버(100)로부터 제어 명령을 수신하고 이를 구동부(240)로 전달하여 무인 이동체(200)를 이동시키도록 할 수 있으며, 통신부(210)를 제어하여 센서부(220)에서 획득된 센싱 데이터를 서버(100) 및 투명 디스플레이 장치(300)에 전송하거나 서버(100) 및 투명 디스플레이 장치(300)에서 요청한 특정 데이터를 센싱, 획득하도록 센싱부(220)를 제어할 수 있다.
도 2c에 도시된 바와 같이, 투명 디스플레이 장치(300)는 통신부(310), 센서부(320), 디스플레이(330) 및 프로세서(340)를 포함할 수 있다.
통신부(310)는 서버(100) 및 무인 이동체(200)와 통신을 수행할 수 있다. 통신부(310)에 대한 설명은 상술한 바와 같다.
센서부(320)는 다양한 정보를 감지할 수 있다. 구체적으로, 센서부(320)는 카메라 및 GPS 센서를 포함할 수 있다. 카메라는 사용자의 모션을 감지할 수 있다. GPS 센서는 투명 디스플레이 장치의 위치를 감지할 수 있다.
디스플레이(330)는 서버(100) 및 무인 이동체(200)로부터 수신한 각종 데이터를 출력할 수 있다. 이때, 상술한 바와 같이, 디스플레이(330)는 수신된 센싱 데이터 또는 재난 구조 정보를 출력하거나 혹은, 기 설정된 조건에 해당하는 데이터 및 자료만을 출력할 수 있다. 예를 들어, 디스플레이(330)는 특정 지역에 관한 데이터만을 출력하거나, 특정 지역의 생존자 정보에 관한 데이터만을 출력할 수 있다.
프로세서(340)는 투명 디스플레이 장치의 전반적인 동작을 제어한다. 프로세서(340)는 다양한 UI를 구성할 수 있는 UI부, 사용자의 모션을 인식하는 인식부 및 영상, 지도, 그래픽, 텍스트, 명령어 등을 처리할 수 있는 처리부를 더 포함할 수 있다. 구체적으로, 서버(100) 및 무인 이동체(200)으로부터 데이터를 수신한 경우, 프로세서(340)는 데이터를 출력하도록 디스플레이(330)를 제어할 수 있다. 또한 프로세서(340)는 센서부(320)를 통해 입력되는 사용자의 모션을 분석하여, 사용자의 모션에 대응되는 메시지를 생성할 수 있다. 이때 생성되는 메시지는 투명 디스플레이 장치(300)를 제어하기 위한 명령일 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 생성된 메시지는 무인 이동체(200)를 제어하기 위한 제어 명령일 수 있다. 또는, 생성된 메시지는 서버(100)에 구조활동에 필요한 부가적인 데이터 및 정보를 요청하거나 사용자의 상태를 전송하는 메시지일 수 있다.
도 3a 및 도 3b는 본 개시의 일 실시 예에 따른, 무인 이동체와 투명 디스플레이 장치를 제어하는 방법을 설명한 도면이다. 설명의 편의를 위해 "*"은 무인 이동체(200)를, "."은 투명 디스플레이 장치(300)를 나타낸다.
투명 디스플레이 장치(300)를 착용한 구조 요원은 무인 이동체(200)에 비해 활동 범위가 좁을 수 있다. 따라서, 구조 요원의 활동범위 및 감지 범위를 보완하기 위하여 서버(100)는 다양한 방법으로 무인 이동체(200)를 제어할 수 있다.
본 개시의 일 실시 예에 따르면, 하나의 투명 디스플레이 장치(300)에 하나의 무인 이동체(200)를 매칭시킬 수 있다. 즉, 무인 이동체(200)는 매칭된 투명 디스플레이 장치(300) 주변의 정보만을 수집하여 투명 디스플레이 장치(300)에 제공할 수 있다.
구체적으로, 도 3a에 도시된 바와 같이, 서버(100)는 투명 디스플레이 장치(300)의 GPS 정보를 바탕으로, 투명 디스플레이 장치(300) 주변의 기 설정된 영역(점선 표시)을 결정할 수 있다. 무인 이동체(200)가 기 설정된 영역을 이탈한 경우, 서버(100)는 무인 이동체(200)를 기 설정된 영역 내부로 진입하도록 제어할 수 있다.
한편, 상술한 실시 예에서는 서버(100)가 무인 이동체(200)를 제어하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 무인 이동체(200)와 투명 디스플레이 장치(300)가 매칭된 경우, 투명 디스플레이 장치(300)가 직접 무인 이동체(200)를 제어하여 원하는 지역에 대한 데이터를 획득할 수 있음은 물론이다.
한편, 상술한 실시 예에서는, 하나의 투명 디스플레이 장치(300)에 하나의 무인 이동체(200)가 매칭되는 경우를 설명하였으나, 이에 한정되는 것은 아니다. 즉, 하나의 투명 디스플레이 장치(300)에 복수개의 무인 이동체(200)가 매칭될 수도 있으며, 복수개의 투명 디스플레이 장치(300)에 하나의 무인 이동체(200)가 매칭될 수 있음은 물론이다.
본 개시의 또다른 실시 예에 따르면, 도 3a에서 설명한 실시 예와는 다르게, 서버(100)는 복수개의 무인 이동체(200-1 내지 200-4)로부터 수신된 센싱 데이터를 분류하여 복수개의 투명 디스플레이 장치(300-1 내지 300-3)에 전송할 수도 있다.
구체적으로, 도 3b에 도시된 바와 같이, 서버(100)는 복수개의 무인 이동체(200-1 내지 200-4)로부터 감지된 모든 데이터를 수신할 수 있다. 이때 수신되는 데이터는 GPS 정보를 포함할 수 있다.
서버(100)는 수신된 데이터를 GPS 정보에 따라 분류하여 복수의 투명 디스플레이 장치(300-1 내지 300-3)에 전송할 수 있다. 예를 들어, 서버(100)는 무인 이동체(200-2 내지 200-4)에서 감지된 센싱 데이터를 투명 디스플레이 장치(300-1)에 제공하고, 무인 이동체(200-1)에서 감지된 센싱 데이터는 투명 디스플레이 장치(300-1)로 제공하지 않을 수 있다.
마찬가지로, 서버(100)는 무인 이동체(200-3 및 200-4)에서 감지된 센싱 데이터를 투명 디스플레이 장치(300-2)에 제공하고, 무인 이동체(200-1 및 200-2)에서 감지된 센싱 데이터는 투명 디스플레이 장치(300-3)로 제공하지 않을 수 있으며, 무인 이동체(200-4)에서 감지된 센싱 데이터를 투명 디스플레이 장치(300-3)에 제공하고, 무인 이동체(200-1 내지 200-3)에서 감지된 센싱 데이터는 투명 디스플레이 장치(300-3)로 제공하지 않을 수 있다.
도 4a 및 도 4b는 본 개시의 일 실시 예에 따른, 투명 디스플레이 장치가 투명 디스플레이 장치를 착용한 사용자 모션을 감지하여 메시지를 생성하는 과정을 설명하는 도면이다.
상술한 바와 같이, 센서(320)는 사용자의 손 모양을 감지할 수 있다. 프로세서(340)는 감지된 사용자의 손 모양을 분석하고, 분석된 결과에 대응하는 메시지를 생성할 수 있다. 이때, 센서(320)는 카메라일 수 있으나 이에 한정되는 것은 아니다.
구체적으로, 도 4a에 도시된 바와 같이, 사용자 손 모양 1(410)이 감지된 경우, 프로세서(340)는 사용자 손 모양에 대응되는 메시지를 서버(100) 또는 무인 이동체(200)에 전송할 수 있다.
이때, 메시지의 종류는 다양할 수 있다. 예를 들어, 메시지는 무인 이동체(200)를 제어하기 위한 제어 명령일 수 있다. 또는 메시지는 투명 디스플레이 장치가 획득한 정보이거나 사용자의 의사를 전달하기 위한 메시지일 수 있다. 예를 들어 사용자 손 모양 1(410)에 대응되는 메시지는 "무인 이동체(200)에 대한 제어 권한을 획득"하기 위한 제어 명령일 수 있다.
또는, 사용자 손 모양2(420)에 대응되는 메시지는 "가장 가까운 무인 이동체의 데이터를 수신"하기 위한 요청 신호일 수 있다. 이때, 투명 디스플레이 장치(300)는 사용자 손 모양2(420)에 해당하는 요청 신호를 서버(100) 또는 무인 이동체(200)에 전송하여, 필요한 데이터를 수신할 수 있다.
또는, 사용자 손 모양3(430)에 대응되는 메시지는 "생존자 발견" 과 같은 정보 전달을 위한 신호일 수 있다.
한편, 상술한 실시 예에 한정되는 것은 아니며, 사용자 손 모양뿐만 아니라, 사용자 모션을 이용하여 메시지를 생성할 수도 있음은 물론이다. 예를 들어, 도 4b에 도시된 바와 같이, 사용자 손 모양1(440 및 450)은 무인 이동체(200)에 대한 제어 권한을 획득하기 위한 손 모양이며, 사용자 손 모양 1(440 및 450)이 좌측에서 우측으로 이동하는 모션이 감지될 경우, 투명 디스플레이 장치(300)는 제어 권한을 가지는 무인 이동체(300)를 우측으로 이동시키는 제어 명령을 전송할 수 있다.
그러나 상술한 실시 예는 본 개시의 일 실시 예일 뿐 이에 한정되는 것인 아니다. 투명 디스플레이 장치(300)는 다양한 손 모양 및 모션에 따라 다양한 메시지를 생성할 수 있다. 또한, 사용자의 손 모양 및 모션을 인식하는 방법 이외에도 다양한 방법에 의해 메시지가 생성되고, 전송될 수 있다. 예를 들어, 투명 디스플레이 장치(300)가 마이크를 포함하는 경우, 메시지는 사용자의 음성 인식을 통해 생성될 수 있다. 또는 투명 디스플레이 장치(300)가 복수개의 버튼을 포함하는 경우, 메시지는 버튼 입력에 의해 생성될 수 있다. 이외에도 메시지는 다양한 방법에 의해 생성될 수 있음은 물론이다.
도 5는 본 개시의 일 실시 예에 따른, 재난 구조 및 대응 시스템의 시퀀스도이다.
먼저, 서버(100)가 재난 발생 정보를 획득할 수 있다(S510). 이때 재난 발생 정보는 재난 발생지역의 위치, 재난의 종류 등일 수 있다. 재난 발생 위치를 획득한 경우, 서버(100)는 재난 지역의 좌표를 추출하여 무인 이동체(200)에게 재난 지역으로 이동하라는 제어 명령을 전송할 수 있다(S520). 무인 이동체(200)는 재난 장소로 이동하여(S530), 재난 정보에 대한 센싱 데이터를 획득할 수 있다(S540). 다만, 무인 이동체(200)는 재난 정보에 대한 센싱 데이터뿐만 아니라, 재난 장소로 이동하는 경로상의 데이터 또한 획득할 수도 있다. 예를 들어, 무인 이동체(200)는 재난 장소로 이동하는 경로를 촬영하여 서버(100)로 전송할 수 있다. 서버(100)는 경로에 대한 촬영 데이터를 바탕으로 구조 요원이 재난 발생 장소까지 도달하는 최단 시간을 분석할 수 있다.
무인 이동체(200)가 재난 정보에 대한 센싱 데이터를 획득한 경우, 센싱 데이터를 서버(100) 및 투명 디스플레이 장치(300) 중 적어도 하나에 전송할 수 있다(S550).
서버(100)는 획득된 센싱 데이터를 분석하고 기 구축된 데이터베이스의 자료를 활용하여 구체적인 재난 구조 정보를 생성할 수 있다(S560). 예를 들어, 서버(100)는 센싱 데이터를 분석하여 생존자의 위치에 관한 정보를 생성 할 수 있다. 또는 서버(100)는 화염의 강도에 대한 데이터와 바람의 세기에 관한 데이터를 분석하여 가장 먼저 화재를 진압하여야 할 장소에 관한 정보를 생성할 수 있다.
서버(100)는 획득한 재난 구조 정보를 투명 디스플레이 장치(300)로 전송할 수 있다(S570). 재난 구조 정보를 수신한 투명 디스플레이 장치(300)는 무인 이동체로부터 수신한 센싱 데이터 및 서버(100)로부터 수신한 재난 구조 정보 중 적어도 하나를 출력할 수 있다(S580). 이때, 상술한 바와 같이, 투명 디스플레이 장치(300)는 기 설정된 조건을 만족하는 특정 데이터 또는 자료만을 출력할 수도 있다.
투명 디스플레이 장치(300)는 사용자의 모션을 인식하여 대응하는 메시지를 생성할 수 있다(S590). 상술한 바와 같이, 메시지는 무인 이동체(200)를 제어하기 위한 제어 명령이거나, 투명 디스플레이 장치가 획득한 정보 혹은 사용자의 의사를 전달하기 위한 메시지일 수 있다. 투명 디스플레이 장치(300)는 생성된 메시지를 서버(100) 및 투명 디스플레이 장치(300) 중 적어도 하나에 전송할 수 있다(S595).
도 6는 본 개시의 일 실시 예에 따른, 재난 구조 및 대응 시스템의 제어 방법을 설명한 흐름도이다.
서버(100)는 재난 발생 지역의 위치 정보를 획득하고, 재난 지역 좌표를 추출하여 무인 이동체(200)로 전송할 수 있다(S610). 서버로부터 재난 지역 좌표를 수신한 경우, 무인 이동체(200)는 재난 지역 좌표에 대응되는 장소로 이동할 수 있다(S620). 무인 이동체(200)는 적어도 하나의 센서를 이용하여 장소의 재난 상황에 대한 데이터를 감지하여 저장하고, 감지된 센싱 데이터를 서버와 투명 디스플레이 장치로 전송 할 수 있다(S630).
무인 이동체(200)로부터 센싱 데이터를 수신한 경우, 투명 디스플레이 장치(300)는 수신된 센싱 데이터를 출력할 수 있다(S640).
한편, 상술한 다양한 실시 예에서는, 재난 상황에서의 무인 이동체 및 투명 디스플레이, 서버에 관한 시스템에 대하여 설명하였으나, 이에 한정되는 것은 아니다. 재난 상황 이외의 다양한 상황, 예를 들어 지역 탐색, 맵 서비스, 특정 지역의 데이터 베이스 구축 등 본 개시는 다양한 분야에 적용될 수 있음은 물론이다.
상술한 다양한 실시 예에 따른 재난 구조 및 대응 시스템 및 제어 방법은 프로그램으로 구현되어 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
1000: 재난 구조 및 대응 시스템 100: 서버
200: 무인 이동체 300: 투명 디스플레이 장치
200: 무인 이동체 300: 투명 디스플레이 장치
Claims (10)
- 재난 발생 지역의 위치 정보를 획득하고 재난 지역 좌표를 추출하는 서버;
상기 서버로부터 상기 재난 지역 좌표를 수신한 경우, 상기 재난 지역 좌표에 대응되는 장소로 이동하고, 적어도 하나의 센서를 이용하여 상기 장소의 재난 상황에 대한 센싱 데이터를 감지하여 저장하고, 상기 감지된 센싱 데이터를 상기 서버와 투명 디스플레이 장치로 전송하는 무인 이동체; 및
상기 무인 이동체로부터 센싱 데이터가 수신된 경우, 상기 수신된 센싱 데이터를 출력하는 투명 디스플레이 장치; 를 포함하고,
상기 투명 디스플레이 장치는,
증강 현실을 디스플레이하는 투명 디스플레이;
상기 투명 디스플레이의 외부에서 움직이는, 상기 투명 디스플레이 장치를 착용한 착용자의 사용자 모션을 감지하는 감지부;
통신부; 및
프로세서;를 포함하며,
상기 프로세서는,
상기 사용자 모션을 감지하는 경우, 상기 사용자 모션에 대응되는 메시지를 생성하고, 상기 생성된 메시지를 상기 서버 또는 상기 무인 이동체로 전송하도록 상기 통신부를 제어하며, 상기 감지된 사용자 모션이 기 설정된 특정 모션인 경우, 상기 착용자와 가장 가까운 무인 이동체를 구동하고 상기 가장 가까운 무인 이동체의 데이터를 수신하도록 상기 통신부를 제어하고,
상기 센싱 데이터는 화염의 강도에 대한 데이터 및 바람의 세기에 대한 데이터를 포함하며,
상기 서버는,
상기 화염의 강도에 대한 데이터 및 상기 바람의 세기에 대한 데이터를 분석하여 화재 진압 장소의 우선 순위 정보를 생성하여 상기 생성된 화재 진압 장소의 우선 순위 정보를 상기 투명 디스플레이 장치로 전송하는 재난 구조 및 대응 시스템.
- 삭제
- 제1항에 있어서,
상기 서버는,
상기 투명 디스플레이 장치로부터 제1 GPS 정보를 수신하고, 복수개의 무인 이동체로부터 제2 GPS 정보를 수신하는 재난 구조 및 대응 시스템.
- 제3항에 있어서,
상기 제1 GPS 정보 및 상기 제2 GPS 정보를 바탕으로 상기 복수개의 무인 이동체가 상기 투명 디스플레이 장치와 기 설정된 거리 이내에 존재하는 것으로 판단된 경우, 상기 센싱 데이터를 상기 투명 디스플레이 장치로 전송하는 것을 특징으로 하는 재난 구조 및 대응 시스템.
- 제3항에 있어서,
상기 서버는,
상기 무인 이동체에 대응되는 상기 투명 디스플레이 장치가 매칭되고, 상기 무인 이동체가 상기 투명 디스플레이 장치와 기 설정된 거리 이외에 존재하는 경우, 상기 무인 이동체를 상기 기 설정된 거리 이내로 이동하도록 제어하는 재난 구조 및 대응 시스템.
- 제1항에 있어서,
상기 센서는,
카메라, 적외선센서, 레이저, 라이더(Lidar) 센서, GPS 센서, 초음파 센서, 온도센서, 습도 센서, 가스센서 중 적어도 하나를 포함하는 재난 구조 및 대응 시스템.
- 삭제
- 제1항에 있어서,
상기 투명 디스플레이 장치는,
기 설정된 조건에 해당하는 데이터 및 정보를 디스플레이 하는 재난 구조 및 대응 시스템.
- 서버가 재난 발생 지역의 위치 정보를 획득하고 재난 지역의 좌표를 추출하여 무인 이동체로 전송하는 단계;
상기 무인 이동체가 상기 재난 지역 좌표에 대응되는 장소로 이동하고, 적어도 하나의 센서를 이용하여 상기 장소의 재난 상황에 대한 센싱 데이터를 획득하고 상기 서버와 투명 디스플레이 장치로 전송하는 단계;
상기 서버는 수신된 센싱 데이터에 기초하여 생성된 재난 구조 정보를 상기 투명 디스플레이 장치로 전송하는 단계;
상기 투명 디스플레이 장치는 수신된 센싱 데이터 및 상기 재난 구조 정보를 출력하는 단계;
상기 투명 디스플레이 장치의 감지부를 통해 상기 투명 디스플레이의 외부에서 움직이는, 상기 투명 디스플레이 장치를 착용한 착용자의 사용자 모션을 감지하는 단계; 및
상기 투명 디스플레이 장치는 상기 사용자 모션이 감지된 경우, 상기 사용자 모션에 대응되는 메시지를 생성하고, 상기 생성된 메시지를 상기 서버 또는 상기 무인 이동체로 전송하는 단계;를 포함하고,
상기 투명 디스플레이 장치는 상기 감지된 사용자 모션이 기 설정된 특정 모션인 경우, 상기 착용자와 가장 가까운 무인 이동체를 구동하고 상기 가장 가까운 무인 이동체의 데이터를 수신하며,
상기 센싱 데이터는 화염의 강도에 대한 데이터 및 바람의 세기에 대한 데이터를 포함하고,
상기 재난 구조 정보는 상기 화염의 강도에 대한 데이터 및 상기 바람의 세기에 대한 데이터를 분석하여 생성된 화재 진압 장소의 우선 순위 정보를 포함하는 재난 구조 및 대응 시스템의 운용 방법.
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170046892A KR101883292B1 (ko) | 2017-04-11 | 2017-04-11 | 재난 구조 및 대응 시스템 및 그 운용 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170046892A KR101883292B1 (ko) | 2017-04-11 | 2017-04-11 | 재난 구조 및 대응 시스템 및 그 운용 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101883292B1 true KR101883292B1 (ko) | 2018-08-30 |
Family
ID=63453364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170046892A KR101883292B1 (ko) | 2017-04-11 | 2017-04-11 | 재난 구조 및 대응 시스템 및 그 운용 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101883292B1 (ko) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200069464A (ko) * | 2018-12-07 | 2020-06-17 | 한국로봇융합연구원 | 재난 대응 로봇 및 관제 장치와 그 초동 대응 방법 |
KR20200121036A (ko) | 2019-04-15 | 2020-10-23 | 경상대학교산학협력단 | Gui 기반 정보 공유 방식으로 운용되는 무인이동체 기반 시스템 |
KR20210040579A (ko) * | 2019-10-04 | 2021-04-14 | 주식회사 하벤 | 라이다 시스템 |
KR20220011537A (ko) | 2020-07-21 | 2022-01-28 | 최준빈 | 수평축 로터 |
KR20230134203A (ko) * | 2022-03-14 | 2023-09-21 | 선문대학교 산학협력단 | 증강현실 기반 실내 소방 훈련 시스템 |
KR102634060B1 (ko) * | 2023-06-09 | 2024-02-07 | 주식회사 차후 | 증강현실을 활용한 재난지역의 위험정보 알림 시스템 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014146288A (ja) | 2013-01-30 | 2014-08-14 | Secom Co Ltd | 監視システム |
JP2014164482A (ja) * | 2013-02-25 | 2014-09-08 | Tokyo Electron Ltd | 支援情報表示方法、基板処理装置の保守支援方法、支援情報表示制御装置、基板処理システム及びプログラム |
JP2015121756A (ja) * | 2013-12-25 | 2015-07-02 | 株式会社日立国際電気 | 救助訓練システム |
KR20150136917A (ko) * | 2014-05-28 | 2015-12-08 | 김명규 | 재난구조로봇을 이용한 재난구조시스템 |
KR20160017593A (ko) * | 2014-08-06 | 2016-02-16 | 넥시스 주식회사 | 글라스형 웨어러블 디바이스를 이용한 탈출경로 제공방법 및 프로그램 |
KR20160043705A (ko) | 2014-10-14 | 2016-04-22 | (주)세이프텍리서치 | 무인 비행체를 이용한 원격 비행 체험 시스템 |
KR20160070503A (ko) | 2014-12-10 | 2016-06-20 | 한국정보공학 주식회사 | 무선 통신을 이용한 협업 소방관의 위치 제공 방법 및 그 시스템과, 협업 소방관의 위치 표시 방법 및 이를 수행하기 위한 소방 헬멧 |
KR20170027368A (ko) | 2015-09-01 | 2017-03-10 | (주)티엘씨테크놀로지 | 드론을 이용한 재난용 이동 기지국 장치 및 그 동작 방법 |
KR20170029460A (ko) * | 2017-03-03 | 2017-03-15 | 주식회사 민토시스 | 무인기를 활용한 유저 모니터링 시스템 |
-
2017
- 2017-04-11 KR KR1020170046892A patent/KR101883292B1/ko active IP Right Grant
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014146288A (ja) | 2013-01-30 | 2014-08-14 | Secom Co Ltd | 監視システム |
JP2014164482A (ja) * | 2013-02-25 | 2014-09-08 | Tokyo Electron Ltd | 支援情報表示方法、基板処理装置の保守支援方法、支援情報表示制御装置、基板処理システム及びプログラム |
JP2015121756A (ja) * | 2013-12-25 | 2015-07-02 | 株式会社日立国際電気 | 救助訓練システム |
KR20150136917A (ko) * | 2014-05-28 | 2015-12-08 | 김명규 | 재난구조로봇을 이용한 재난구조시스템 |
KR20160017593A (ko) * | 2014-08-06 | 2016-02-16 | 넥시스 주식회사 | 글라스형 웨어러블 디바이스를 이용한 탈출경로 제공방법 및 프로그램 |
KR20160043705A (ko) | 2014-10-14 | 2016-04-22 | (주)세이프텍리서치 | 무인 비행체를 이용한 원격 비행 체험 시스템 |
KR20160070503A (ko) | 2014-12-10 | 2016-06-20 | 한국정보공학 주식회사 | 무선 통신을 이용한 협업 소방관의 위치 제공 방법 및 그 시스템과, 협업 소방관의 위치 표시 방법 및 이를 수행하기 위한 소방 헬멧 |
KR20170027368A (ko) | 2015-09-01 | 2017-03-10 | (주)티엘씨테크놀로지 | 드론을 이용한 재난용 이동 기지국 장치 및 그 동작 방법 |
KR20170029460A (ko) * | 2017-03-03 | 2017-03-15 | 주식회사 민토시스 | 무인기를 활용한 유저 모니터링 시스템 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200069464A (ko) * | 2018-12-07 | 2020-06-17 | 한국로봇융합연구원 | 재난 대응 로봇 및 관제 장치와 그 초동 대응 방법 |
KR102165158B1 (ko) * | 2018-12-07 | 2020-10-13 | 한국로봇융합연구원 | 재난 대응 로봇 및 관제 장치와 그 초동 대응 방법 |
KR20200121036A (ko) | 2019-04-15 | 2020-10-23 | 경상대학교산학협력단 | Gui 기반 정보 공유 방식으로 운용되는 무인이동체 기반 시스템 |
KR102253475B1 (ko) * | 2019-04-15 | 2021-05-20 | 경상국립대학교 산학협력단 | Gui 기반 정보 공유 방식으로 운용되는 무인이동체 기반 시스템 |
KR20210040579A (ko) * | 2019-10-04 | 2021-04-14 | 주식회사 하벤 | 라이다 시스템 |
KR102271915B1 (ko) * | 2019-10-04 | 2021-07-01 | 주식회사 하벤 | 라이다 시스템 |
KR20220011537A (ko) | 2020-07-21 | 2022-01-28 | 최준빈 | 수평축 로터 |
KR20230134203A (ko) * | 2022-03-14 | 2023-09-21 | 선문대학교 산학협력단 | 증강현실 기반 실내 소방 훈련 시스템 |
KR102660077B1 (ko) * | 2022-03-14 | 2024-04-24 | 선문대학교 산학협력단 | 증강현실 기반 실내 소방 훈련 시스템 |
KR102634060B1 (ko) * | 2023-06-09 | 2024-02-07 | 주식회사 차후 | 증강현실을 활용한 재난지역의 위험정보 알림 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101883292B1 (ko) | 재난 구조 및 대응 시스템 및 그 운용 방법 | |
US11915598B2 (en) | Fleet management of unmanned aerial vehicles and flight authorization system | |
US10909628B1 (en) | Accident fault determination implementing unmanned aerial vehicles (UAVS) | |
US11243530B2 (en) | Detection and communication of safety events | |
US9466219B1 (en) | Unmanned vehicle mission planning, coordination and collaboration | |
US20160116912A1 (en) | System and method for controlling unmanned vehicles | |
EP3506226B1 (en) | System and method for dynamically masking video and images captured a drone device camera | |
WO2018103689A1 (zh) | 无人机相对方位控制方法及装置 | |
JP6859241B2 (ja) | 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体 | |
US20200106818A1 (en) | Drone real-time interactive communications system | |
US11807362B2 (en) | Systems and methods for autonomous navigation and computation of unmanned vehicles | |
US10007265B1 (en) | Hostile takeover avoidance of unmanned vehicles | |
CN106292719B (zh) | 地面站融合系统及地面站视频数据融合方法 | |
US11815913B2 (en) | Mutual recognition method between unmanned aerial vehicle and wireless terminal | |
US20170269590A1 (en) | Controlled device and communication system and method utilizing the same | |
US20200115050A1 (en) | Control device, control method, and program | |
US20190340197A1 (en) | System and method for controlling camera and program | |
Aljehani et al. | Safe map generation after a disaster, assisted by an unmanned aerial vehicle tracking system | |
CN116710943A (zh) | 无人机调度方法、服务器、基站、系统及可读存储介质 | |
US20190014456A1 (en) | Systems and methods for collaborative vehicle mission operations | |
KR101716653B1 (ko) | 드론 분실 추적 방법 | |
WO2019212035A1 (ja) | 飛行体の制御に関する情報表示方法 | |
KR20180065331A (ko) | 영상 인식을 이용한 드론 제어 방법 및 그 장치 | |
KR102270246B1 (ko) | 공장 및 실험실 환경 모니터링 시스템 | |
KR20210047490A (ko) | 무인 비행체를 이용한 화재위험도 예측 시스템 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |