KR20210048027A - Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system - Google Patents
Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system Download PDFInfo
- Publication number
- KR20210048027A KR20210048027A KR1020190131682A KR20190131682A KR20210048027A KR 20210048027 A KR20210048027 A KR 20210048027A KR 1020190131682 A KR1020190131682 A KR 1020190131682A KR 20190131682 A KR20190131682 A KR 20190131682A KR 20210048027 A KR20210048027 A KR 20210048027A
- Authority
- KR
- South Korea
- Prior art keywords
- unmanned aerial
- station
- drone
- measurement space
- sensor
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 151
- 230000008093 supporting effect Effects 0.000 title description 8
- 238000005259 measurement Methods 0.000 claims abstract description 260
- 230000033001 locomotion Effects 0.000 claims description 25
- 230000007246 mechanism Effects 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 description 128
- 230000005540 biological transmission Effects 0.000 description 67
- 230000008569 process Effects 0.000 description 39
- 230000006870 function Effects 0.000 description 33
- 239000003550 marker Substances 0.000 description 23
- 238000010586 diagram Methods 0.000 description 21
- 230000015654 memory Effects 0.000 description 20
- 238000001514 detection method Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 14
- 238000007726 management method Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 11
- 230000011664 signaling Effects 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000000116 mitigating effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000001276 controlling effect Effects 0.000 description 6
- 230000001976 improved effect Effects 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 238000011084 recovery Methods 0.000 description 6
- 238000013468 resource allocation Methods 0.000 description 6
- 230000008054 signal transmission Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000010408 sweeping Methods 0.000 description 5
- 101100533725 Mus musculus Smr3a gene Proteins 0.000 description 4
- 238000013475 authorization Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000003252 repetitive effect Effects 0.000 description 4
- 238000007630 basic procedure Methods 0.000 description 3
- 238000013439 planning Methods 0.000 description 3
- 230000001105 regulatory effect Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 238000009683 ultrasonic thickness measurement Methods 0.000 description 3
- 102100039856 Histone H1.1 Human genes 0.000 description 2
- 102100039855 Histone H1.2 Human genes 0.000 description 2
- 101001035402 Homo sapiens Histone H1.1 Proteins 0.000 description 2
- 101001035375 Homo sapiens Histone H1.2 Proteins 0.000 description 2
- 101150071746 Pbsn gene Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012508 change request Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100274486 Mus musculus Cited2 gene Proteins 0.000 description 1
- 101150096622 Smr2 gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 125000000524 functional group Chemical group 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 235000002020 sage Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60L—PROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
- B60L53/00—Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
- B60L53/10—Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles characterised by the energy transfer between the charging station and the vehicle
- B60L53/12—Inductive energy transfer
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D27/00—Arrangement or mounting of power plants in aircraft; Aircraft characterised by the type or position of power plants
- B64D27/02—Aircraft characterised by the type or position of power plants
- B64D27/24—Aircraft characterised by the type or position of power plants using steam or spring force
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/30—Supply or distribution of electrical power
- B64U50/34—In-flight charging
- B64U50/35—In-flight charging by wireless transmission, e.g. by induction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U70/00—Launching, take-off or landing arrangements
- B64U70/80—Vertical take-off or landing, e.g. using rockets
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U70/00—Launching, take-off or landing arrangements
- B64U70/90—Launching from or landing on platforms
- B64U70/95—Means for guiding the landing UAV towards the platform, e.g. lighting means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U70/00—Launching, take-off or landing arrangements
- B64U70/90—Launching from or landing on platforms
- B64U70/97—Means for guiding the UAV to a specific location on the platform, e.g. platform structures preventing landing off-centre
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/003—Flight plan management
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60L—PROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
- B60L2200/00—Type of vehicles
- B60L2200/10—Air crafts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60L—PROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
- B60L2260/00—Operating Modes
- B60L2260/20—Drive modes; Transition between modes
- B60L2260/32—Auto pilot mode
-
- B64C2201/024—
-
- B64C2201/042—
-
- B64C2201/066—
-
- B64C2201/12—
-
- B64C2201/141—
-
- B64C2201/165—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/20—UAVs specially adapted for particular uses or applications for use as communications relays, e.g. high-altitude platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0022—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/60—Other road transportation technologies with climate change mitigation effect
- Y02T10/70—Energy storage systems for electromobility, e.g. batteries
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/60—Other road transportation technologies with climate change mitigation effect
- Y02T10/7072—Electromobility specific charging systems or methods for batteries, ultracapacitors, supercapacitors or double-layer capacitors
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T50/00—Aeronautics or air transport
- Y02T50/50—On board measures aiming to increase energy efficiency
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T50/00—Aeronautics or air transport
- Y02T50/60—Efficient propulsion technologies, e.g. for aircraft
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
- Y02T90/10—Technologies relating to charging of electric vehicles
- Y02T90/14—Plug-in electric vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Power Engineering (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
Description
본 발명은 무인 항공 시스템에 관한 것으로서, 보다 상세하게 무인 항공 로봇을 이용한 실내 측위 방법 및 이를 지원하는 장치에 관한 것이다.The present invention relates to an unmanned aerial system, and more particularly, to an indoor positioning method using an unmanned aerial robot and an apparatus supporting the same.
무인 비행체는 조종사 없이 무선전파의 유도에 의해서 비행 및 조종이 가능한 비행기, 헬리콥터 모양의 무인항공기(UAV, Unmanned aerial vehicle / Uninhabited aerial vehicle)의 총칭한다. 최근 무인 비행체는 정찰, 공격 등의 군사적 용도 이외에 영상 촬영, 무인 택배 서비스, 재해 관측 등 다양한 민간?상업 분야에도 활용이 증가되고 있다.Unmanned aerial vehicle is a generic term for an unmanned aerial vehicle (UAV, Unmanned aerial vehicle / Uninhabited aerial vehicle) that can fly and manipulate without a pilot by induction of radio waves. In addition to military uses such as reconnaissance and attack, unmanned aerial vehicles have recently been increasingly used in various private and commercial fields such as video shooting, unmanned delivery service, and disaster observation.
예를 들면, 사람들이 직접적으로 측위를 하기 어려운 공간(예를 들면, 좁은 공간, 엘리베이터 설치를 위한 측정 공간 등)은 무인 항공 로봇을 이용하여 측위할 수 있다.For example, a space in which it is difficult for people to directly position (eg, a narrow space, a measurement space for elevator installation, etc.) can be positioned using an unmanned aerial robot.
이 경우, 사용자는 외부에서 무인 항공 로봇을 조종하여 무인 항공 로봇에 구비된 카메라를 통해서 사용자가 직접적으로 측위하기 어려운 공간을 측위할 수 있다.In this case, the user can control the unmanned aerial robot from the outside to locate a space where it is difficult for the user to directly position through a camera provided in the unmanned aerial robot.
본 명세서는 무인 항공 시스템에서 무인 항공 로봇의 배터리를 충전하기 위한 방법을 제공함에 그 목적이 있다.An object of the present specification is to provide a method for charging a battery of an unmanned aerial robot in an unmanned aerial system.
또한, 본 명세서는 무인 항공 로봇을 이용하여 실내를 측위하기 위한 방법을 제공함에 그 목적이 있다.In addition, an object of the present specification is to provide a method for positioning an indoor using an unmanned aerial robot.
또한, 본 명세서는 무인 항공 로봇을 이용하여 실내를 측위하기 위해서 드론이 수평 축으로는 움직이지 않고, 수직 축으로 고도만 증가/감소 시키면서 측위하는 방법을 제공함에 그 목적이 있다.In addition, an object of the present specification is to provide a method of positioning while a drone does not move in a horizontal axis and only increases/decreases an altitude in a vertical axis in order to position an indoor using an unmanned aerial robot.
또한, 본 명세서는 무인 항공 로봇이 스테이션을 이용하여 수평 축 위치를 유지하면서 수직 축으로 고도를 증가/감소 시키기 위한 방법을 제공함에 그 목적이 있다.In addition, an object of the present specification is to provide a method for an unmanned aerial robot to increase/decrease an altitude in a vertical axis while maintaining a horizontal axis position using a station.
또한, 본 명세서는 무인 항공 로봇이 수직 비행을 하면서 카메라 및/또는 레이저 센서를 이용하여 실내를 측위하는 방법을 제공함에 그 목적이 있다.In addition, an object of the present specification is to provide a method for positioning an indoor using a camera and/or a laser sensor while an unmanned aerial robot is flying vertically.
본 명세서는 무인 항공 로봇, 상기 무인 항공 로봇의 스테이션 및 서버로 구성된 실내 측위를 위한 비행 시스템에 있어서, 상기 무인 항공 로봇은, 제 1 카메라 및/또는 제 1 센서를 통해서 스테이션으로부터 발생된 복수 개의 레이저 빔을 감지하고, 상기 감지된 복수 개의 레이저 빔에 기초하여 상기 무인 항공 로봇의 수평 축 위치가 상기 실내 측위를 위한 측정 공간의 중심 위치에 위치하도록 조절하며, 수직 방향으로 비행하면서 상기 측정 공간을 측위하고, 상기 스테이션은, 상기 측정 공간에서의 중심 위치에 위치하기 위해서 레이저 센서를 이용하여 상기 측정 공간의 각 벽면까지의 거리를 측정하고, 측정된 거리에 기초하여 상기 중심 위치로 이동하며, 수평 센서 및 수평 기구 장치를 이용하여 상기 스테이션의 수평을 조절하고, 상기 무인 항공 로봇이 상기 측정 공간의 상기 중심 위치에서 수직 비행을 하면서 상기 측정 공간을 측위하기 위해 복수 개의 레이저 빔 발생 장치 이용하여 상기 복수 개의 레이저 빔을 발생시키는 비행 시스템을 제공한다.The present specification is a flight system for indoor positioning consisting of an unmanned aerial robot, a station and a server of the unmanned aerial robot, wherein the unmanned aerial robot includes a plurality of lasers generated from the station through a first camera and/or a first sensor. Detects a beam, adjusts the horizontal axis position of the unmanned aerial vehicle to be located at the center of the measurement space for indoor positioning based on the detected plurality of laser beams, and locates the measurement space while flying in a vertical direction And, the station measures the distance to each wall surface of the measurement space using a laser sensor to be located at the center position in the measurement space, moves to the center position based on the measured distance, and a horizontal sensor And adjusting the level of the station using a horizontal mechanism device, and using a plurality of laser beam generators to position the measurement space while the unmanned aerial robot performs vertical flight at the center position of the measurement space. It provides a flight system that generates a laser beam.
또한, 본 발명에서, 상기 무인 항공 로봇은 상기 제 1 카메라를 이용하여 상기 복수 개의 레이저가 발생되는 위치를 인식하고, 상기 감지된 위치에 기초하여 상기 제 1 센서를 이용하여 상기 복수 개의 레이저를 감지하여 상기 무인 항공 로봇이 상기 중심 위치에 위치하는지 여부를 판단한다.In addition, in the present invention, the unmanned aerial vehicle recognizes a location where the plurality of lasers are generated using the first camera, and detects the plurality of lasers using the first sensor based on the detected location. Thus, it is determined whether the unmanned aerial robot is located at the central position.
또한, 본 발명에서, 상기 무인 항공 로봇은 상기 카메라 및/또는 상기 센서를 통해서 상기 복수 개의 레이저 빔이 감지되는지 여부를 이용하여 상기 무인 항공 로봇이 상기 측정 공간의 상기 중심에 위치하는지 여부를 인식한다.In addition, in the present invention, the unmanned aerial robot recognizes whether the unmanned aerial robot is located at the center of the measurement space by using whether the plurality of laser beams are detected through the camera and/or the sensor. .
또한, 본 발명에서, 상기 복수 개의 레이저 빔 중 적어도 하나의 레이저 빔이 상기 카메라 또는 상기 센서에 의해서 감지되지 않는 경우, 상기 무인 항공 로봇은 상기 무인 항공 로봇이 상기 측정 공간의 중심에서 이동하였다고 인식하고, 상기 복수 개의 레이저 빔이 상기 카메라 또는 상기 센서에 의해서 감지되도록 위치를 이동한다.In addition, in the present invention, when at least one of the plurality of laser beams is not detected by the camera or the sensor, the unmanned aerial robot recognizes that the unmanned aerial robot has moved from the center of the measurement space, and The position is moved so that the plurality of laser beams are detected by the camera or the sensor.
또한, 본 발명에서, 상기 무인 항공 로봇은 상기 복수 개의 레이저 빔을 이용하여 상기 무인 항공 로봇과 상기 스테이션 간의 거리를 각각 측정하고, 상기 측정된 각각의 거리를 이용하여 상기 무인 항공 로봇이 상기 스테이션과 수평한지 여부를 인식한다.In addition, in the present invention, the unmanned aerial robot measures a distance between the unmanned aerial robot and the station using the plurality of laser beams, and the unmanned aerial robot uses the measured distances to connect the unmanned aerial robot to the station. Recognize whether it is horizontal or not.
또한, 본 발명에서, 상기 측정된 각각의 거리가 서로 다른 경우, 상기 무인 항공 로봇은 스테이션과 수평하지 않다고 인식하고, 상기 측정된 각각의 거리가 동일해지도록 상기 무인 항공 로봇의 수직 및/또는 수평 위치를 조절한다.In addition, in the present invention, when the measured distances are different from each other, the unmanned aerial robot recognizes that it is not horizontal with the station, and the vertical and/or horizontal of the unmanned aerial robot is such that the measured distances become the same. Adjust the position.
또한, 본 발명에서, 상기 무인 항공 로봇은 제 2 카메라를 이용하여 상기 측정 공간을 촬영하여 상기 측정 공간을 측위하기 위한 영상을 획득한다.In addition, in the present invention, the unmanned aerial vehicle captures the measurement space using a second camera to obtain an image for positioning the measurement space.
또한, 본 발명에서, 상기 무인 항공 로봇은 적어도 하나의 3D 라이다 센서를 통해 복수 개의 측정 빔을 발생시키고, 상기 발생된 측정 빔이 상기 측정 공간에 의해서 반사되는 반사 빔을 상기 적어도 하나의 3D 라이다 센서를 통해서 감지하여 상기 측정 공간에 대한 모델링을 획득하고, 상기 영상 및 상기 모델링을 함께 이용하여 상기 측정 공간을 측위한다.In addition, in the present invention, the unmanned aerial vehicle generates a plurality of measurement beams through at least one 3D lidar sensor, and the generated measurement beam is reflected by the measurement space as the at least one 3D laser beam. It is sensed through a sensor to obtain a modeling of the measurement space, and the measurement space is positioned by using the image and the modeling together.
또한, 본 발명에서, 상기 무인 항공 로봇은 상기 측위 결과를 서버로 전송한다.In addition, in the present invention, the unmanned aerial robot transmits the positioning result to the server.
또한, 본 발명에서, 상기 무인 항공 로봇은 상기 서버로부터 상기 측정 공간을 측위하기 위한 비행 경로와 관련된 경로 정보를 수신한다.In addition, in the present invention, the unmanned aerial vehicle receives route information related to a flight path for positioning the measurement space from the server.
또한, 본 발명에서, 상기 스테이션은 상기 레이저 센서를 이용하여 적어도 하나의 레이저 빔을 발생시키고, 상기 적어도 하나의 레이저 빔이 상기 측정 공간의 상기 각 벽면에 의해서 반사된 반사 빔을 감지하여 상기 각 벽면까지의 거리를 측정한다.In addition, in the present invention, the station generates at least one laser beam using the laser sensor, and the at least one laser beam senses a reflected beam reflected by each of the wall surfaces of the measurement space, Measure the distance to.
또한, 본 발명에서, 상기 무인 항공 로봇이 일정 거리 이내에 위치하는 경우, 상기 스테이션은 무선 충전 모듈을 이용하여 상기 무인 항공 로봇의 배터리를 충전시킨다.In addition, in the present invention, when the unmanned aerial robot is located within a certain distance, the station charges the battery of the unmanned aerial robot using a wireless charging module.
또한, 본 발명에서, 상기 스테이션은 상기 측정된 거리에 기초하여 수평 이동 장치를 이용하여 상기 측정 공간의 상기 중심으로 이동한다.Further, in the present invention, the station moves to the center of the measurement space using a horizontal movement device based on the measured distance.
또한, 본 발명은, 상기 무인 항공 로봇은, 본체; 상기 본체에 구비된 제 1 카메라 및 제 2 카메라; 레이저 빔을 감지하기 위한 제 1 센서 및 제 2 센서; 적어도 하나의 모터; 상기 적어도 하나의 모터 각각에 연결된 적어도 하나의 프로펠러; 및 상기 적어도 하나의 모터와 전기적으로 연결되어 상기 적어도 하나의 모터를 제어하는 프로세서를 포함하되, 상기 프로세서는, 상기 제 1 카메라 및/또는 상기 제 1 센서를 제어하여 스테이션으로부터 발생된 복수 개의 레이저 빔을 감지하고, 상기 감지된 적어도 하나의 레이저 빔에 기초하여 상기 무인 항공 로봇의 수평 축 위치가 상기 측정 공간의 중심 위치에 위치하도록 조절하며, 상기 적어도 하나의 프로펠러를 제어하여 수직 방향으로 비행하면서 상기 측정 공간을 측위하는 것을 특징으로 하는 무인 항공 로봇을 제공한다.In addition, the present invention, the unmanned aerial vehicle, the main body; A first camera and a second camera provided in the main body; A first sensor and a second sensor for detecting a laser beam; At least one motor; At least one propeller connected to each of the at least one motor; And a processor electrically connected to the at least one motor to control the at least one motor, wherein the processor includes a plurality of laser beams generated from the station by controlling the first camera and/or the first sensor. And, based on the sensed at least one laser beam, the horizontal axis position of the unmanned aerial vehicle is adjusted to be located at the center position of the measurement space, and the at least one propeller is controlled to fly in a vertical direction while the It provides an unmanned aerial robot, characterized in that positioning the measurement space.
본 발명에 따르면, 무인 항공 로봇을 이용하여 실내를 측위함으로써, 직접적으로 측위가 어려운 공간을 측위할 수 있는 효과가 있다.According to the present invention, by positioning the indoor space using an unmanned aerial robot, there is an effect that it is possible to directly locate a space where positioning is difficult.
또한, 본 발명은 카메라 및 센서를 이용한 측정 결과를 모두 이용함으로써, 실내를 정확히 측위할 수 있는 효과가 있다.In addition, the present invention has the effect of accurately positioning the room by using all of the measurement results using a camera and a sensor.
또한, 본 발명은 무인 항공 로봇이 특정 위치에서 수직 축으로만 고도를 증가/감소 시키면서 공간을 측위함으로써 좁은 공간에서 고도에 따른 측위를 할 수 있는 효과가 있다.In addition, the present invention has an effect that the unmanned aerial robot can position according to the altitude in a narrow space by positioning the space while increasing/decreasing the altitude only on the vertical axis at a specific position.
또한, 본 발명은 무인 항공 로봇이 스테이션을 이용하여 특정 위치에 고정된 상태로 수직 축으로 비행을 하며 측위를 함으로써 수평 축 위치가 변경되지 않아 정확한 측위가 가능하다는 효과가 있다.In addition, the present invention has the effect that the position of the horizontal axis is not changed and accurate positioning is possible because the position of the horizontal axis is not changed by the unmanned aerial robot flying and positioning on a vertical axis while being fixed at a specific position using a station.
또한, 좁은 수직 공간을 비행하는 무인 항공 로봇에게 실시간으로 제어 가능한 절대 좌표를 제공하여 라이더 맵핑 오차를 줄일 수 있는 효과가 있다.In addition, there is an effect of reducing rider mapping errors by providing absolute coordinates that can be controlled in real time to unmanned aerial vehicles flying in a narrow vertical space.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description. .
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 본 명세서에서 제안하는 방법이 적용될 수 있는 무인 비행체의 사시도를 나타낸다.
도 2는 도 1의 무인 비행체의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 항공 제어 시스템의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 4는 본 명세서에서 제안하는 방법들이 적용될 수 있는 무선 통신 시스템의 블록 구성도를 예시한다.
도 5는 무선 통신 시스템에서 신호 송/수신 방법의 일례를 나타낸 도이다.
도 6은 5G 통신 시스템에서 로봇과 5G 네트워크의 기본 동작의 일 예를 나타낸다.
도 7은 5G 통신을 이용한 로봇 대 로봇 간의 기본 동작의 일 예를 예시한다.
도 8은 UAS를 포함하는 3GPP 시스템 개념도의 일례를 나타낸 도이다.
도 9는 UAV에 대한 C2 통신 모델의 일례들을 나타낸다.
도 10은 본 발명이 적용될 수 있는 측정 수행 방법의 일 예를 나타낸 흐름도이다.
도 11은 본 발명의 일 실시 예에 따른 측위를 위한 드론 및 드론 스테이션의 일 예를 나타낸다.
도 12는 본 발명의 일 실시 예에 따른 측위를 위한 드론의 주요 구성들의 일 예를 나타낸다.
도 13은 본 발명의 일 실시 예에 따른 드론의 수직 비행을 위한 스테이션의 주요 구성들의 일 예를 나타낸다.
도 14는 본 발명의 일 실시 예에 따른 수직 비행을 이용한 측위 방법의 일 예를 나타내는 순서도이다.
도 15 및 도 16은 본 발명의 일 실시 예에 따른 무인 항공 로봇의 수직 비행을 위해서 스테이션이 측정되는 공간에서 중심에 위치하기 위한 방법의 일 예를 나타낸다.
도 17 및 도 18은 본 발명의 일 실시 예에 따른 무인 항공 로봇이 스테이션을 이용하여 수평 축 위치를 유지하면서 수직 비행을 하기 위한 방법의 일 예를 나타낸다.
도 19는 본 발명의 일 실시 예에 따른 무인 항공 로봇이 스테이션을 이용하여 수평 축 위치를 유지하면서 수직 비행을 하기 위한 방법의 일 예를 나타내는 순서도이다.
도 20은 본 발명의 일 실시 예에 따른 무인 항공 로봇이 스테이션을 이용하여 수평 축 위치를 유지하면서 수직 비행을 하기 위한 방법의 또 다른 일 예를 나타내는 순서도이다.
도 21은 본 발명의 일 실시 예에 따른 측위 방법의 일 예를 나타내는 도이다.
도 22는 본 발명의 일 실시 예에 따른 측위 방법의 일 예를 나타내는 순서도이다.
도 23 및 도 24는 본 발명의 일 실시 예에 따른 무인 항공 로봇의 라이더의 일 예를 나타낸다.
도 25는 본 발명의 일 실시 예에 따른 무선 통신 장치의 블록 구성도를 예시한다.
도 26은 본 발명의 일 실시 예에 따른 통신 장치의 블록 구성도를 예시한다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid in understanding of the present invention, provide embodiments of the present invention, and together with the detailed description, the technical features of the present invention will be described.
1 shows a perspective view of an unmanned aerial vehicle to which the method proposed in the present specification can be applied.
FIG. 2 is a block diagram showing a control relationship between main components of the unmanned aerial vehicle of FIG. 1.
3 is a block diagram showing a control relationship between main components of the air vehicle control system according to an embodiment of the present invention.
4 illustrates a block diagram of a wireless communication system to which the methods proposed in the present specification can be applied.
5 is a diagram illustrating an example of a method of transmitting/receiving a signal in a wireless communication system.
6 shows an example of a basic operation of a robot and a 5G network in a 5G communication system.
7 illustrates an example of a basic operation between robots and robots using 5G communication.
8 is a diagram illustrating an example of a conceptual diagram of a 3GPP system including UAS.
9 shows examples of a C2 communication model for UAV.
10 is a flowchart showing an example of a method of performing a measurement to which the present invention can be applied.
11 shows an example of a drone and a drone station for positioning according to an embodiment of the present invention.
12 shows an example of main components of a drone for positioning according to an embodiment of the present invention.
13 shows an example of main components of a station for vertical flight of a drone according to an embodiment of the present invention.
14 is a flow chart showing an example of a positioning method using vertical flight according to an embodiment of the present invention.
15 and 16 illustrate an example of a method for positioning a station at a center in a space in which a station is measured for vertical flight of an unmanned aerial vehicle according to an embodiment of the present invention.
17 and 18 illustrate an example of a method for performing vertical flight while maintaining a horizontal axis position by using a station in an unmanned aerial vehicle according to an embodiment of the present invention.
19 is a flowchart illustrating an example of a method for performing vertical flight while maintaining a horizontal axis position using a station by an unmanned aerial vehicle according to an embodiment of the present invention.
20 is a flowchart illustrating another example of a method for performing vertical flight while maintaining a horizontal axis position by using a station by an unmanned aerial vehicle according to an embodiment of the present invention.
21 is a diagram illustrating an example of a positioning method according to an embodiment of the present invention.
22 is a flowchart illustrating an example of a positioning method according to an embodiment of the present invention.
23 and 24 show an example of a rider of an unmanned aerial robot according to an embodiment of the present invention.
25 illustrates a block diagram of a wireless communication device according to an embodiment of the present invention.
26 illustrates a block diagram of a communication device according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for constituent elements used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first and second may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprises" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.
도 1은 본 발명의 실시예에 따른 무인 비행체의 사시도를 나타낸다.1 shows a perspective view of an unmanned aerial vehicle according to an embodiment of the present invention.
우선, 무인 비행체(100)은 지상의 관리자에 의해 수동 조작되거나, 설정된 비행 프로그램에 의해 자동 조종되면서 무인 비행하게 되는 것이다. 이와 같은 무인 비행체(100)은 도 1에서와 같이 본체(20), 수평 및 수직이동 추진장치(10), 및 착륙용 레그(130)를 포함하는 구성으로 이루어진다.First, the unmanned
본체(20)는 작업부(40) 등의 모듈이 장착되는 몸체 부위이다. The
수평 및 수직이동 추진장치(10)는 본체(20)에 수직으로 설치되는 하나 이상의 프로펠러(11)로 이루어지는 것으로, 본 발명의 실시예에 따른 수평 및 수직이동 추진장치(10)는 서로 이격 배치된 복수개의 프로펠러(11)와 모터(12)로 이루어진다. 여기서 수평 및 수직이동 추진장치(10)는 프로펠러(11)가 아닌 에어 분사형 추진기 구조로 이루어질 수도 있다.The horizontal and vertical
복수 개의 프로펠러 지지부는 본체(20)에서 방사상으로 형성된다. 각각의 프로펠러 지지부에는 모터(12)가 장착될 수 있다. 각각의 모터(12)에는 프로펠러(11)가 장착된다.A plurality of propeller supports are formed radially in the
복수 개의 프로펠러(11)는 본체(20)를 중심을 기준하여 대칭되게 배치될 수 있다. 그리고 복수 개의 프로펠러(11)의 회전 방향은 시계 방향과 반 시계 방향이 조합되도록 모터(12)의 회전 방향이 결정될 수 있다. 본체(20)를 중심을 기준하여 대칭되는 한 쌍의 프로펠러(11)의 회전 방향은 동일(예를 들어, 시계 방향)하게 설정될 수 있다. 그리고 다른 한 쌍의 프로펠러(11)은 이와 달리 회전 방향이 반대일 수 있다(예를 들어, 시계 반대 방향).The plurality of
착륙용 레그(30)는 본체(20)의 저면에 서로 이격 배치된다. 또한, 착륙용 레그(30)의 하부에는 무인 비행체(100)가 착륙할 때 지면과의 충돌에 의한 충격을 최소화하는 완충 지지부재(미도시)가 장착될 수 있다. 물론 무인 비행체(100)는 상술한 바와 다른 비행체 구성의 다양한 구조로 이루어질 수 있다.Landing
도 2는 도 1의 무인 비행체의 주요 구성들 간의 제어관계를 도시한 블록도이다.FIG. 2 is a block diagram showing a control relationship between main components of the unmanned aerial vehicle of FIG. 1.
도 2를 참조하면, 무인 비행체(100)은 안정적으로 비행하기 위해서 각종 센서들을 이용해 자신의 비행상태를 측정한다. 무인 비행체(100)는 적어도 하나의 센서를 포함하는 센싱부(130)를 포함할 수 있다.2, the unmanned
무인 비행체(100)의 비행상태는 회전운동상태(Rotational States)와 병진운동상태(Translational States)로 정의된다.The flight state of the unmanned
회전운동상태는 ‘요(Yaw)’, ‘피치 (Pitch)’, 및 ‘롤 (Roll)’을 의미하며, 병진운동상태는 경도, 위도, 고도, 및 속도를 의미한다.The state of rotational motion means'Yaw','Pitch', and'Roll', and the state of translational motion means longitude, latitude, altitude, and speed.
여기서, ‘롤’, ‘피치’, 및 ‘요’는 오일러 (Euler) 각도라 부르며, 비행기 기체좌표 x, y, z 세 축이 어떤 특정 좌표, 예를 들어, NED 좌표 N, E, D 세 축에 대하여 회전된 각도를 나타낸다. 비행기 전면이 기체좌표의 z축을 기준으로 좌우로 회전할 경우, 기체좌표의 x축은 NED 좌표의 N축에 대하여 각도 차이가 생기게 되며, 이각도를 "요"(Ψ)라고 한다. 비행기의 전면이 오른쪽으로 향한 y축을 기준으로 상하로 회전을 할 경우, 기체좌표의 z축은 NED 좌표의 D축에 대하여 각도 차이가 생기게 되며, 이 각도를 "피치"(θ)라고 한다. 비행기의 동체가 전면을 향한 x축을 기준으로 좌우로 기울게 될 경우, 기체좌표의 y축은 NED 좌표의 E축에 대하여 각도가 생기게 되며, 이 각도를 "롤"(Φ)이라 한다.Here,'Roll','Pitch', and'Yo' are called Euler angles, and the three axes of the aircraft's coordinates x, y, and z are some specific coordinates, for example, NED coordinates N, E, and D. It represents the angle rotated about the axis. When the front of the plane rotates left and right based on the z-axis of the aircraft's coordinates, the x-axis of the aircraft's coordinates has an angular difference with respect to the N-axis of the NED coordinates, and this angle is called "Yo" (Ψ). When the front of the plane rotates up and down based on the y-axis directed to the right, the z-axis of the aircraft coordinates has an angle difference with respect to the D-axis of the NED coordinates, and this angle is called "pitch" (θ). When the fuselage of an airplane is tilted left and right based on the x-axis facing the front, the y-axis of the aircraft coordinate is made with an angle with respect to the E-axis of the NED coordinate, and this angle is called "roll" (Φ).
무인 비행체(100)은 회전운동상태를 측정하기 위해 3축 자이로 센서(Gyroscopes), 3축 가속도 센서(Accelerometers), 및 3축 지자기 센서(Magnetometers)를 이용하고, 병진운동상태를 측정하기 위해 GPS 센서와 기압 센서(Barometric Pressure Sensor)를 이용한다.The unmanned
본 발명의 센싱부(130)는 자이로 센서, 가속도 센서, GPS 센서, 영상 센서 및 기압 센서 중 적어도 하나를 포함한다. 여기서, 자이로 센서와 가속도 센서는 무인 비행체(100)의 기체좌표(Body Frame Coordinate)가 지구관성좌표(Earth Centered Inertial Coordinate)에 대해 회전한 상태와 가속된 상태를 측정해주는데, MEMS(Micro-Electro-Mechanical Systems) 반도체 공정기술을 이용해 관성측정기(IMU: Inertial Measurement Unit)라 부르는 단일 칩(Single Chip)으로 제작될 수도 있다. The
또한, IMU 칩 내부에는 자이로 센서와 가속도 센서가 측정한 지구관성좌표 기준의 측정치들을 지역좌표 (Local Coordinate), 예를 들어 GPS가 사용하는 NED(North-East-Down) 좌표로 변환해주는 마이크로 컨트롤러가 포함될 수 있다. In addition, inside the IMU chip, there is a microcontroller that converts measurements based on the global inertia coordinates measured by the gyro sensor and the acceleration sensor into local coordinates, for example, NED (North-East-Down) coordinates used by GPS. Can be included.
자이로 센서는 무인 비행체(100)의 기체좌표 x, y, z 세 축이 지구관성 좌표에 대하여 회전하는 각속도를 측정한 후 고정좌표로 변환된 값(Wx.gyro, Wy.gyro, Wz.gyro)을 계산하고, 이 값을 선형 미분방정식을 이용해 오일러 각도(Φgyro, θgyro, ψgyro)로 변환한다.The gyro sensor measures the angular velocity at which the three axes x, y, and z of the unmanned
가속도 센서는 무인 비행체(100)의 기체좌표 x, y, z 세 축의 지구관성좌표에 대한 가속도를 측정한 후 고정좌표로 변환된 값(fx,acc, fy,acc, fz,acc)을 계산하고, 이 값을 ‘롤(Φacc)’과 ‘피치(θacc)’로 변환하며, 이 값 들은 자이로 센서의 측정치를 이용해 계산한 ‘롤(Φgyro)’과 ‘피치(θgyro)’에 포함된 바이어스 오차를 제거하는 데 이용된다. The acceleration sensor measures the acceleration of the unmanned
지자기 센서는 무인 비행체(100)의 기체좌표 x, y, z 세 축의 자북점에 대한 방향을 측정하고, 이 값을 이용해 기체좌표의 NED 좌표에 대한 ‘요’ 값을 계산한다. The geomagnetic sensor measures the direction of the magnetic north point of the three axes x, y, and z of the aircraft coordinate of the unmanned
GPS 센서는 GPS 위성들로부터 수신한 신호를 이용해 NED 좌표 상에서 무인 비행체(100)의 병진운동상태, 즉, 위도(Pn.GPS), 경도(Pe.GPS), 고도(hMSL.GPS), 위도 상의 속도(Vn.GPS), 경도 상의 속도(Ve.GPS), 및 고도 상의 속도(Vd.GPS)를 계산한다. 여기서, 첨자 MSL은 해수면(MSL: Mean Sea Level)을 의미한다.The GPS sensor uses signals received from GPS satellites to translate the unmanned
기압 센서는 무인 비행체(100)의 고도(hALP.baro)를 측정할 수 있다. 여기서, 첨자 ALP는 기압(Air-Level Pressor)을 의미하며, 기압 센서는 무인 비행체(100)의 이륙시 기압과 현재 비행고도에서의 기압을 비교해 이륙 지점으로부터의 현재 고도를 계산한다.The barometric pressure sensor may measure the altitude (hALP.baro) of the unmanned
카메라 센서는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수 개의 광다이오드(photodiode, 예를 들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The camera sensor includes an image sensor (eg, a CMOS image sensor) comprising at least one optical lens and a plurality of photodiodes (eg, pixels), which are imaged by light passing through the optical lens, A digital signal processor (DSP) that composes an image based on signals output from photodiodes may be included. The digital signal processor is capable of generating not only still images but also moving images composed of frames composed of still images.
무인 비행체(100)는, 정보를 입력받거나 수신하고 정보를 출력하거나 송신하는 커뮤니케이션 모듈(170)을 포함한다. 커뮤니케이션 모듈(170)은 외부의 다른 기기와 정보를 송수신하는 드론 통신부(175)를 포함할 수 있다. 커뮤니케이션 모듈(170)은 정보를 입력하는 입력부(171)를 포함할 수 있다. 커뮤니케이션 모듈(170)은 정보를 출력하는 출력부(173)를 포함할 수 있다. The unmanned
물론, 출력부(173)는 무인 비행체(100)에 생략되고 단말기(300)에 형성될 수 있다.Of course, the
일 예로, 무인 비행체(100)는 입력부(171)로부터 직접 정보를 입력받을 수 있다. 다른 예로, 무인 비행체(100)는 별도의 단말기(300) 또는 서버(200)에 입력된 정보를 드론 통신부(175)를 통해 수신받을 수 있다.For example, the unmanned
일 예로, 무인 비행체(100)는 출력부(173)로 직접 정보를 출력시킬 수 있다. 다른 예로, 무인 비행체(100)는 드론 통신부(175)를 통해 별도의 단말기(300)로 정보를 송신하여, 단말기(300)가 정보를 출력하게 할 수 있다.For example, the unmanned
드론 통신부(175)는, 외부의 서버(200), 단말기(300) 등과 통신하게 구비될 수 있다. 드론 통신부(175)는, 스마트폰이나 컴퓨터 등의 단말기(300)로부터 입력된 정보를 수신할 수 있다. 드론 통신부(175)는 단말기(300)로 출력될 정보를 송신할 수 있다. 단말기(300)는 드론 통신부(175)로부터 받은 정보를 출력할 수 있다.The
드론 통신부(175)는 단말기(300) 또는/및 서버(200)로부터 각종 명령 신호를 수신할 수 있다. 드론 통신부(175)는 단말기(300) 또는/및 서버(200)로부터 주행을 위한 구역 정보, 주행 경로, 주행 명령을 수신받을 수 있다. 여기서, 구역 정보는 비행 제한 구역(A) 정보, 접근 제한 거리 정보를 포함할 수 있다.The
입력부(171)는 On/Off 또는 각종 명령을 입력받을 수 있다. 입력부(171)는 구역 정보를 입력받을 수 있다. 입력부(171)는 물건 정보를 입력받을 수 있다. 입력부(171)는, 각종 버튼이나 터치패드, 또는 마이크 등을 포함할 수 있다.The
출력부(173)는 각종 정보를 사용자에게 알릴 수 있다. 출력부(173)는 스피커 및/또는 디스플레이를 포함할 수 있다. 출력부(173)는 주행 중 감지한 발견물의 정보를 출력할 수 있다. 출력부(173)는 발견물의 식별 정보를 출력할 수 있다. 출력부(173)는 발견물의 위치 정보를 출력할 수 있다.The
무인 비행체(100)는 맵핑 및/또는 현재 위치를 인식하는 등 각종 정보를 처리하고 판단하는 제어부(140)를 포함한다. 제어부(140)는 무인 비행체(100)를 구성하는 각종 구성들의 제어를 통해, 무인 비행체(100)의 동작 전반을 제어할 수 있다. The unmanned
제어부(140)는 커뮤니케이션 모듈(170)로부터 정보를 받아 처리할 수 있다. 제어부(140)는 입력부(171)로부터 정보를 입력 받아 처리할 수 있다. 제어부(140)는 드론 통신부(175)로부터 정보를 받아 처리할 수 있다. The
제어부(140)는 센싱부(130)로부터 감지 정보를 입력 받아 처리할 수 있다. The
제어부(140)는 모터(12)의 구동을 제어할 수 있다. 제어부(140)는 작업부(40)의 동작을 제어할 수 있다.The
무인 비행체(100)는 각종 데이터를 저장하는 저장부(150)를 포함한다. 저장부(150)는 무인 비행체(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다.The unmanned
저장부(150)에는 주행구역에 대한 맵이 저장될 수 있다. 맵은 무인 비행체(100)와 드론 통신부(175)을 통해 정보를 교환할 수 있는 외부 단말기(300)에 의해 입력된 것일 수도 있고, 무인 비행체(100)가 스스로 학습을 하여 생성한 것일 수도 있다. 전자의 경우, 외부 단말기(300)로는 맵 설정을 위한 어플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다.The
도 3은 본 발명의 일 실시예에 따른 항공 제어 시스템의 주요 구성들 간의 제어관계를 도시한 블록도이다.3 is a block diagram showing a control relationship between main components of the air vehicle control system according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 다른 항공 제어 시스템은 무인 비행체(100)와 서버(200)를 포함하거나, 무인 비행체(100), 단말기(300) 및 서버(200)를 포함할 수 있다. 무인 비행체(100), 단말기(300) 및 서버(200)는 서로 무선 통신 방법으로 연결된다.3, the air control system according to an embodiment of the present invention may include an unmanned
무선 통신 방법은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 사용될 수 있다.Wireless communication methods include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO), and Wideband (WCDMA). CDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), and the like may be used.
무선 통신 방법은 무선 인터넷 기술이 사용될 수 있다. 무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G 등이 있다. 특히 5G 통신망을 이용하여 데이터를 송수신함으로써 보다 빠른 응답이 가능하다.The wireless communication method may use wireless Internet technology. Examples of wireless Internet technologies include WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), and 5G. In particular, faster response is possible by transmitting and receiving data using a 5G communication network.
본 명세서에서 기지국은 단말과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미를 갖는다. 본 명세서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다. 즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 단말과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있음은 자명하다. '기지국(BS: Base Station)'은 고정국(fixed station), Node B, eNB(evolved-NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), gNB(Next generation NodeB) 등의 용어에 의해 대체될 수 있다. 또한, '단말(Terminal)'은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치 등의 용어로 대체될 수 있다.In the present specification, a base station has a meaning as a terminal node of a network that directly communicates with a terminal. A specific operation described as being performed by the base station in this specification may be performed by an upper node of the base station in some cases. That is, it is apparent that various operations performed for communication with a terminal in a network comprising a plurality of network nodes including a base station may be performed by the base station or network nodes other than the base station. A'base station (BS)' is a fixed station, Node B, evolved-NodeB (eNB), base transceiver system (BTS), an access point (AP), and next generation NodeB (gNB). Can be replaced by terms. In addition,'Terminal' may be fixed or mobile, and UE (User Equipment), MS (Mobile Station), UT (user terminal), MSS (Mobile Subscriber Station), SS (Subscriber Station), AMS ( Advanced Mobile Station), Wireless terminal (WT), Machine-Type Communication (MTC) device, Machine-to-Machine (M2M) device, Device-to-Device (D2D) device.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다.Hereinafter, downlink (DL) means communication from a base station to a terminal, and uplink (UL) means communication from a terminal to a base station. In downlink, the transmitter may be part of the base station, and the receiver may be part of the terminal. In the uplink, the transmitter may be a part of the terminal, and the receiver may be a part of the base station.
이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.Specific terms used in the following description are provided to aid understanding of the present invention, and the use of these specific terms may be changed in other forms without departing from the technical spirit of the present invention.
본 발명의 실시 예들은 무선 접속 시스템들인 IEEE 802, 3GPP 및 3GPP2 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있다. 즉, 본 발명의 실시 예들 중 본 발명의 기술적 사상을 명확히 드러내기 위해 설명하지 않은 단계들 또는 부분들은 상기 문서들에 의해 뒷받침될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.Embodiments of the present invention may be supported by standard documents disclosed in at least one of IEEE 802, 3GPP, and 3GPP2 wireless access systems. That is, among the embodiments of the present invention, steps or parts not described in order to clearly reveal the technical idea of the present invention may be supported by the above documents. In addition, all terms disclosed in this document can be described by the standard document.
설명을 명확하게 하기 위해, 3GPP 5G를 위주로 기술하지만 본 발명의 기술적 특징이 이에 제한되는 것은 아니다.For clarity, 3GPP 5G is mainly described, but the technical features of the present invention are not limited thereto.
UE 및 5G 네트워크 블록도 예시Example UE and 5G network block diagram
도 4는 본 명세서에서 제안하는 방법들이 적용될 수 있는 무선 통신 시스템의 블록 구성도를 예시한다.4 illustrates a block diagram of a wireless communication system to which the methods proposed in the present specification can be applied.
도 4를 참조하면, 드론을 제1 통신 장치로 정의(도 4의 910)하고, 프로세서(911)가 드론의 상세 동작을 수행할 수 있다.Referring to FIG. 4, a drone is defined as a first communication device (910 in FIG. 4 ), and a processor 911 may perform detailed operations of the drone.
드론은 무인 항공 차량, 무인 항공 로봇 등으로 표현될 수도 있다.Drones can also be represented as unmanned aerial vehicles, unmanned aerial robots, etc.
드론과 통신하는 5G 네트워크를 제2 통신 장치로 정의(도 4의 920)하고, 프로세서(921)가 드론의 상세 동작을 수행할 수 있다. 여기서, 5G 네트워크는 드론과 통신하는 다른 드론을 포함할 수 있다.The 5G network communicating with the drone is defined as a second communication device (920 in FIG. 4), and the processor 921 may perform detailed operations of the drone. Here, the 5G network may include other drones that communicate with drones.
5G 네트워크가 제 1 통신 장치로, 드론이 제 2 통신 장치로 표현될 수도 있다.The 5G network may be referred to as a first communication device and a drone may be referred to as a second communication device.
예를 들어, 상기 제 1 통신 장치 또는 상기 제 2 통신 장치는 기지국, 네트워크 노드, 전송 단말, 수신 단말, 무선 장치, 무선 통신 장치, 드론 등일 수 있다.For example, the first communication device or the second communication device may be a base station, a network node, a transmission terminal, a reception terminal, a wireless device, a wireless communication device, a drone, or the like.
예를 들어, 단말 또는 UE(User Equipment)는 드론(Drone), UAV(Unmanned Aerial Vehicle), 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털 방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등을 포함할 수 있다. 예를 들어, HMD는 머리에 착용하는 형태의 디스플레이 장치일 수 있다. 예를 들어, HMD는 VR, AR 또는 MR을 구현하기 위해 사용될 수 있다. 도 4를 참고하면, 제 1 통신 장치(910)와 제 2 통신 장치(920)은 프로세서(processor, 911,921), 메모리(memory, 914,924), 하나 이상의 Tx/Rx RF 모듈(radio frequency module, 915,925), Tx 프로세서(912,922), Rx 프로세서(913,923), 안테나(916,926)를 포함한다. Tx/Rx 모듈은 트랜시버라고도 한다. 각각의 Tx/Rx 모듈(915)는 각각의 안테나(926)을 통해 신호를 전송한다. 프로세서는 앞서 살핀 기능, 과정 및/또는 방법을 구현한다. 프로세서 (921)는 프로그램 코드 및 데이터를 저장하는 메모리 (924)와 관련될 수 있다. 메모리는 컴퓨터 판독 가능 매체로서 지칭될 수 있다. 보다 구체적으로, DL(제 1 통신 장치에서 제 2 통신 장치로의 통신)에서, 전송(TX) 프로세서(912)는 L1 계층(즉, 물리 계층)에 대한 다양한 신호 처리 기능을 구현한다. 수신(RX) 프로세서는 L1(즉, 물리 계층)의 다양한 신호 프로세싱 기능을 구현한다.For example, a terminal or user equipment (UE) is a drone, an unmanned aerial vehicle (UAV), a mobile phone, a smart phone, a laptop computer, a terminal for digital broadcasting, and personal digital assistants (PDAs). , PMP (portable multimedia player), navigation, slate PC, tablet PC, ultrabook, wearable device, e.g., smartwatch, glass terminal (smart glass), HMD (head mounted display)), etc. may be included. For example, the HMD may be a display device worn on the head. For example, HMD can be used to implement VR, AR or MR. Referring to FIG. 4, the first communication device 910 and the second communication device 920 include a processor (processor, 911,921), a memory (memory, 914,924), one or more Tx/Rx RF modules (radio frequency modules, 915,925). , Tx processors 912 and 922, Rx processors 913 and 923, and antennas 916 and 926. The Tx/Rx module is also called a transceiver. Each Tx/Rx module 915 transmits a signal through a respective antenna 926. The processor implements the previously salpin functions, processes and/or methods. The processor 921 may be associated with a memory 924 that stores program code and data. The memory may be referred to as a computer-readable medium. More specifically, in the DL (communication from the first communication device to the second communication device), the transmission (TX) processor 912 implements various signal processing functions for the L1 layer (ie, the physical layer). The receive (RX) processor implements the various signal processing functions of L1 (ie, the physical layer).
UL(제 2 통신 장치에서 제 1 통신 장치로의 통신)은 제 2 통신 장치(920)에서 수신기 기능과 관련하여 기술된 것과 유사한 방식으로 제 1 통신 장치(910)에서 처리된다. 각각의 Tx/Rx 모듈(925)는 각각의 안테나(926)을 통해 신호를 수신한다. 각각의 Tx/Rx 모듈은 RF 반송파 및 정보를 RX 프로세서(923)에 제공한다. 프로세서 (921)는 프로그램 코드 및 데이터를 저장하는 메모리 (924)와 관련될 수 있다. 메모리는 컴퓨터 판독 가능 매체로서 지칭될 수 있다.The UL (communication from the second communication device to the first communication device) is handled in the first communication device 910 in a manner similar to that described with respect to the receiver function in the second communication device 920. Each Tx/Rx module 925 receives a signal through a respective antenna 926. Each Tx/Rx module provides an RF carrier and information to the RX processor 923. The processor 921 may be associated with a memory 924 that stores program code and data. The memory may be referred to as a computer-readable medium.
무선 통신 시스템에서 신호 송/수신 방법Signal transmission/reception method in wireless communication system
도 5는 무선 통신 시스템에서 신호 송/수신 방법의 일례를 나타낸 도이다.5 is a diagram showing an example of a signal transmission/reception method in a wireless communication system.
도 5를 참고하면, UE는 전원이 켜지거나 새로이 셀에 진입한 경우 BS와 동기를 맞추는 등의 초기 셀 탐색(initial cell search) 작업을 수행한다(S201). 이를 위해, UE는 BS로부터 1차 동기 채널(primary synchronization channel, P-SCH) 및 2차 동기 채널(secondary synchronization channel, S-SCH)을 수신하여 BS와 동기를 맞추고, 셀 ID 등의 정보를 획득할 수 있다. LTE 시스템과 NR 시스템에서 P-SCH와 S-SCH는 각각 1차 동기 신호(primary synchronization signal, PSS)와 2차 동기 신호(secondary synchronization signal, SSS)로 불린다. 초기 셀 탐색 후, UE는 BS로부터 물리 브로드캐스트 채널(physical broadcast channel, PBCH)를 수신하여 셀 내 브로드캐스트 정보를 획득할 수 있다. 한편, UE는 초기 셀 탐색 단계에서 하향링크 참조 신호(downlink reference Signal, DL RS)를 수신하여 하향링크 채널 상태를 확인할 수 있다. 초기 셀 탐색을 마친 UE는 물리 하향링크 제어 채널(physical downlink control channel, PDCCH) 및 상기 PDCCH에 실린 정보에 따라 물리 하향링크 공유 채널(physical downlink shared Channel, PDSCH)을 수신함으로써 좀더 구체적인 시스템 정보를 획득할 수 있다(S202).Referring to FIG. 5, when the UE is powered on or newly enters a cell, the UE performs an initial cell search operation such as synchronizing with the BS (S201). To this end, the UE receives a primary synchronization channel (P-SCH) and a secondary synchronization channel (S-SCH) from the BS, synchronizes with the BS, and obtains information such as cell ID. can do. In the LTE system and the NR system, the P-SCH and S-SCH are referred to as a primary synchronization signal (PSS) and a secondary synchronization signal (SSS), respectively. After initial cell discovery, the UE may obtain intra-cell broadcast information by receiving a physical broadcast channel (PBCH) from the BS. Meanwhile, the UE may check a downlink channel state by receiving a downlink reference signal (DL RS) in the initial cell search step. Upon completion of the initial cell search, the UE acquires more detailed system information by receiving a physical downlink control channel (PDCCH) and a physical downlink shared channel (PDSCH) according to the information carried on the PDCCH. It can be done (S202).
한편, BS에 최초로 접속하거나 신호 전송을 위한 무선 자원이 없는 경우 UE는 BS에 대해 임의 접속 과정(random access procedure, RACH)을 수행할 수 있다(단계 S203 내지 단계 S206). 이를 위해, UE는 물리 임의 접속 채널(physical random access Channel, PRACH)을 통해 특정 시퀀스를 프리앰블로서 전송하고(S203 및 S205), PDCCH 및 대응하는 PDSCH를 통해 프리앰블에 대한 임의 접속 응답(random access response, RAR) 메시지를 수신할 수 있다(S204 및 S206). 경쟁 기반 RACH의 경우, 추가적으로 충돌 해결 과정(contention resolution procedure)를 수행할 수 있다.Meanwhile, when accessing the BS for the first time or when there is no radio resource for signal transmission, the UE may perform a random access procedure (RACH) for the BS (steps S203 to S206). To this end, the UE transmits a specific sequence as a preamble through a physical random access channel (PRACH) (S203 and S205), and a random access response to the preamble through a PDCCH and a corresponding PDSCH. RAR) message can be received (S204 and S206). In the case of contention-based RACH, a contention resolution procedure may be additionally performed.
상술한 바와 같은 과정을 수행한 UE는 이후 일반적인 상향링크/하향링크 신호 전송 과정으로서 PDCCH/PDSCH 수신(S207) 및 물리 상향링크 공유 채널(physical uplink shared Channel, PUSCH)/물리 상향링크 제어 채널(physical uplink control channel, PUCCH) 전송(S208)을 수행할 수 있다. 특히 UE는 PDCCH를 통하여 하향링크 제어 정보(downlink control information, DCI)를 수신한다. UE는 해당 탐색 공간 설정(configuration)들에 따라 서빙 셀 상의 하나 이상의 제어 요소 세트(control element set, CORESET)들에 설정된 모니터링 기회(occasion)들에서 PDCCH 후보(candidate)들의 세트를 모니터링한다. UE가 모니터할 PDCCH 후보들의 세트는 탐색 공간 세트들의 면에서 정의되며, 탐색 공간 세트는 공통 탐색 공간 세트 또는 UE-특정 탐색 공간 세트일 수 있다. CORESET은 1~3개 OFDM 심볼들의 시간 지속기간을 갖는 (물리) 자원 블록들의 세트로 구성된다. 네트워크는 UE가 복수의 CORESET들을 갖도록 설정할 수 있다. UE는 하나 이상의 탐색 공간 세트들 내 PDCCH 후보들을 모니터링한다. 여기서 모니터링이라 함은 탐색 공간 내 PDCCH 후보(들)에 대한 디코딩 시도하는 것을 의미한다. UE가 탐색 공간 내 PDCCH 후보들 중 하나에 대한 디코딩에 성공하면, 상기 UE는 해당 PDCCH 후보에서 PDCCH를 검출했다고 판단하고, 상기 검출된 PDCCH 내 DCI를 기반으로 PDSCH 수신 혹은 PUSCH 전송을 수행한다. PDCCH는 PDSCH 상의 DL 전송들 및 PUSCH 상의 UL 전송들을 스케줄링하는 데 사용될 수 있다. 여기서 PDCCH 상의 DCI는 하향링크 공유 채널과 관련된, 변조(modulation) 및 코딩 포맷과 자원 할당(resource allocation) 정보를 적어도 포함하는 하향링크 배정(assignment)(즉, downlink grant; DL grant), 또는 상향링크 공유 채널과 관련된, 변조 및 코딩 포맷과 자원 할당 정보를 포함하는 상향링크 그랜트(uplink grant; UL grant)를 포함한다.After performing the above-described process, the UE receives PDCCH/PDSCH (S207) and physical uplink shared channel (PUSCH)/physical uplink control channel as a general uplink/downlink signal transmission process. Uplink control channel, PUCCH) transmission (S208) may be performed. In particular, the UE receives downlink control information (DCI) through the PDCCH. The UE monitors the set of PDCCH candidates from monitoring opportunities set in one or more control element sets (CORESET) on the serving cell according to the corresponding search space configurations. The set of PDCCH candidates to be monitored by the UE is defined in terms of search space sets, and the search space set may be a common search space set or a UE-specific search space set. CORESET consists of a set of (physical) resource blocks with a time duration of 1 to 3 OFDM symbols. The network can configure the UE to have multiple CORESETs. The UE monitors PDCCH candidates in one or more search space sets. Here, monitoring means attempting to decode PDCCH candidate(s) in the search space. If the UE succeeds in decoding one of the PDCCH candidates in the discovery space, the UE determines that the PDCCH is detected in the corresponding PDCCH candidate, and performs PDSCH reception or PUSCH transmission based on the detected DCI in the PDCCH. The PDCCH can be used to schedule DL transmissions on the PDSCH and UL transmissions on the PUSCH. Here, the DCI on the PDCCH is a downlink assignment (ie, downlink grant; DL grant) including at least information on modulation and coding format and resource allocation related to a downlink shared channel, or uplink It includes an uplink grant (UL grant) including modulation and coding format and resource allocation information related to the shared channel.
도 5를 참고하여, 5G 통신 시스템에서의 초기 접속(Initial Access, IA) 절차에 대해 추가적으로 살펴본다.Referring to FIG. 5, an initial access (IA) procedure in a 5G communication system will be additionally described.
UE는 SSB에 기반하여 셀 탐색(search), 시스템 정보 획득, 초기 접속을 위한 빔 정렬, DL 측정 등을 수행할 수 있다. SSB는 SS/PBCH(Synchronization Signal/Physical Broadcast channel) 블록과 혼용된다.The UE may perform cell search, system information acquisition, beam alignment for initial access, and DL measurement based on the SSB. SSB is used interchangeably with a Synchronization Signal/Physical Broadcast Channel (SS/PBCH) block.
SSB는 PSS, SSS와 PBCH로 구성된다. SSB는 4개의 연속된 OFDM 심볼들에 구성되며, OFDM 심볼별로 PSS, PBCH, SSS/PBCH 또는 PBCH가 전송된다. PSS와 SSS는 각각 1개의 OFDM 심볼과 127개의 부반송파들로 구성되고, PBCH는 3개의 OFDM 심볼과 576개의 부반송파들로 구성된다.SSB consists of PSS, SSS and PBCH. The SSB is composed of four consecutive OFDM symbols, and PSS, PBCH, SSS/PBCH or PBCH are transmitted for each OFDM symbol. The PSS and SSS are each composed of 1 OFDM symbol and 127 subcarriers, and the PBCH is composed of 3 OFDM symbols and 576 subcarriers.
셀 탐색은 UE가 셀의 시간/주파수 동기를 획득하고, 상기 셀의 셀 ID(Identifier)(예, Physical layer Cell ID, PCI)를 검출하는 과정을 의미한다. PSS는 셀 ID 그룹 내에서 셀 ID를 검출하는데 사용되고, SSS는 셀 ID 그룹을 검출하는데 사용된다. PBCH는 SSB (시간) 인덱스 검출 및 하프-프레임 검출에 사용된다.Cell discovery refers to a process in which the UE acquires time/frequency synchronization of a cell and detects a cell identifier (eg, Physical layer Cell ID, PCI) of the cell. PSS is used to detect a cell ID within a cell ID group, and SSS is used to detect a cell ID group. PBCH is used for SSB (time) index detection and half-frame detection.
336개의 셀 ID 그룹이 존재하고, 셀 ID 그룹 별로 3개의 셀 ID가 존재한다. 총 1008개의 셀 ID가 존재한다. 셀의 셀 ID가 속한 셀 ID 그룹에 관한 정보는 상기 셀의 SSS를 통해 제공/획득되며, 상기 셀 ID 내 336개 셀들 중 상기 셀 ID에 관한 정보는 PSS를 통해 제공/획득된다There are 336 cell ID groups, and 3 cell IDs exist for each cell ID group. There are a total of 1008 cell IDs. Information on the cell ID group to which the cell ID of the cell belongs is provided/obtained through the SSS of the cell, and information on the cell ID among 336 cells in the cell ID is provided/obtained through the PSS.
SSB는 SSB 주기(periodicity)에 맞춰 주기적으로 전송된다. 초기 셀 탐색 시에 UE가 가정하는 SSB 기본 주기는 20ms로 정의된다. 셀 접속 후, SSB 주기는 네트워크(예, BS)에 의해 {5ms, 10ms, 20ms, 40ms, 80ms, 160ms} 중 하나로 설정될 수 있다.SSB is transmitted periodically according to the SSB period. The SSB basic period assumed by the UE during initial cell search is defined as 20 ms. After cell access, the SSB period may be set to one of {5ms, 10ms, 20ms, 40ms, 80ms, 160ms} by the network (eg, BS).
다음으로, 시스템 정보 (system information; SI) 획득에 대해 살펴본다.Next, it looks at obtaining system information (SI).
SI는 마스터 정보 블록(master information block, MIB)와 복수의 시스템 정보 블록(system information block, SIB)들로 나눠진다. MIB 외의 SI는 RMSI(Remaining Minimum System Information)으로 지칭될 수 있다. MIB는 SIB1(SystemInformationBlock1)을 나르는 PDSCH를 스케줄링하는 PDCCH의 모니터링을 위한 정보/파라미터를 포함하며 SSB의 PBCH를 통해 BS에 의해 전송된다. SIB1은 나머지 SIB들(이하, SIBx, x는 2 이상의 정수)의 가용성(availability) 및 스케줄링(예, 전송 주기, SI-윈도우 크기)과 관련된 정보를 포함한다. SIBx는 SI 메시지에 포함되며 PDSCH를 통해 전송된다. 각각의 SI 메시지는 주기적으로 발생하는 시간 윈도우(즉, SI-윈도우) 내에서 전송된다.SI is divided into a master information block (MIB) and a plurality of system information blocks (SIB). SI other than MIB may be referred to as RMSI (Remaining Minimum System Information). The MIB includes information/parameters for monitoring the PDCCH that schedules the PDSCH carrying System Information Block1 (SIB1), and is transmitted by the BS through the PBCH of the SSB. SIB1 includes information related to availability and scheduling (eg, transmission period, SI-window size) of the remaining SIBs (hereinafter, SIBx, x is an integer greater than or equal to 2). SIBx is included in the SI message and is transmitted through the PDSCH. Each SI message is transmitted within a periodic time window (ie, SI-window).
도 5를 참고하여, 5G 통신 시스템에서의 임의 접속(Random Access, RA) 과정에 대해 추가적으로 살펴본다.Referring to FIG. 5, a random access (RA) process in a 5G communication system will be additionally described.
임의 접속 과정은 다양한 용도로 사용된다. 예를 들어, 임의 접속 과정은 네트워크 초기 접속, 핸드오버, UE-트리거드(triggered) UL 데이터 전송에 사용될 수 있다. UE는 임의 접속 과정을 통해 UL 동기와 UL 전송 자원을 획득할 수 있다. 임의 접속 과정은 경쟁 기반(contention-based) 임의 접속 과정과 경쟁 프리(contention free) 임의 접속 과정으로 구분된다. 경쟁 기반의 임의 접속 과정에 대한 구체적인 절차는 아래와 같다.The random access process is used for various purposes. For example, the random access procedure may be used for initial network access, handover, and UE-triggered UL data transmission. The UE may acquire UL synchronization and UL transmission resources through a random access process. The random access process is divided into a contention-based random access process and a contention free random access process. The detailed procedure for the contention-based random access process is as follows.
UE가 UL에서 임의 접속 과정의 Msg1로서 임의 접속 프리앰블을 PRACH를 통해 전송할 수 있다. 서로 다른 두 길이를 가지는 임의 접속 프리앰블 시퀀스들이 지원된다. 긴 시퀀스 길이 839는 1.25 및 5 kHz의 부반송파 간격(subcarrier spacing)에 대해 적용되며, 짧은 시퀀스 길이 139는 15, 30, 60 및 120 kHz의 부반송파 간격에 대해 적용된다.The UE may transmit the random access preamble as Msg1 of the random access procedure in the UL through the PRACH. Random access preamble sequences having two different lengths are supported. The long sequence length 839 is applied for subcarrier spacing of 1.25 and 5 kHz, and the short sequence length 139 is applied for subcarrier spacing of 15, 30, 60 and 120 kHz.
BS가 UE로부터 임의 접속 프리앰블을 수신하면, BS는 임의 접속 응답(random access response, RAR) 메시지(Msg2)를 상기 UE에게 전송한다. RAR을 나르는 PDSCH를 스케줄링하는 PDCCH는 임의 접속(random access, RA) 무선 네트워크 임시 식별자(radio network temporary identifier, RNTI)(RA-RNTI)로 CRC 마스킹되어 전송된다. RA-RNTI로 마스킹된 PDCCH를 검출한 UE는 상기 PDCCH가 나르는 DCI가 스케줄링하는 PDSCH로부터 RAR을 수신할 수 있다. UE는 자신이 전송한 프리앰블, 즉, Msg1에 대한 임의 접속 응답 정보가 상기 RAR 내에 있는지 확인한다. 자신이 전송한 Msg1에 대한 임의 접속 정보가 존재하는지 여부는 상기 UE가 전송한 프리앰블에 대한 임의 접속 프리앰블 ID가 존재하는지 여부에 의해 판단될 수 있다. Msg1에 대한 응답이 없으면, UE는 전력 램핑(power ramping)을 수행하면서 RACH 프리앰블을 소정의 횟수 이내에서 재전송할 수 있다. UE는 가장 최근의 경로 손실 및 전력 램핑 카운터를 기반으로 프리앰블의 재전송에 대한 PRACH 전송 전력을 계산한다.When the BS receives the random access preamble from the UE, the BS transmits a random access response (RAR) message (Msg2) to the UE. The PDCCH for scheduling the PDSCH carrying RAR is transmitted after being CRC masked with a random access (RA) radio network temporary identifier (RNTI) (RA-RNTI). A UE that detects a PDCCH masked with RA-RNTI may receive an RAR from a PDSCH scheduled by a DCI carried by the PDCCH. The UE checks whether the preamble transmitted by the UE, that is, random access response information for Msg1, is in the RAR. Whether there is random access information for Msg1 transmitted by the UE may be determined based on whether there is a random access preamble ID for the preamble transmitted by the UE. If there is no response to Msg1, the UE may retransmit the RACH preamble within a predetermined number of times while performing power ramping. The UE calculates the PRACH transmission power for retransmission of the preamble based on the most recent path loss and power ramping counter.
상기 UE는 임의 접속 응답 정보를 기반으로 상향링크 공유 채널 상에서 UL 전송을 임의 접속 과정의 Msg3로서 전송할 수 있다. Msg3은 RRC 연결 요청 및 UE 식별자를 포함할 수 있다. Msg3에 대한 응답으로서, 네트워크는 Msg4를 전송할 수 있으며, 이는 DL 상에서의 경쟁 해결 메시지로 취급될 수 있다. Msg4를 수신함으로써, UE는 RRC 연결된 상태에 진입할 수 있다.The UE may transmit UL transmission as Msg3 in a random access procedure on an uplink shared channel based on random access response information. Msg3 may include an RRC connection request and a UE identifier. In response to Msg3, the network may send Msg4, which may be treated as a contention resolution message on the DL. By receiving Msg4, the UE can enter the RRC connected state.
5G 통신 시스템의 빔 관리(Beam Management, BM) 절차Beam Management (BM) procedure of 5G communication system
BM 과정은 (1) SSB 또는 CSI-RS를 이용하는 DL BM 과정과, (2) SRS(sounding reference signal)을 이용하는 UL BM 과정으로 구분될 수 있다. 또한, 각 BM 과정은 Tx 빔을 결정하기 위한 Tx 빔 스위핑과 Rx 빔을 결정하기 위한 Rx 빔 스위핑을 포함할 수 있다.The BM process may be divided into (1) a DL BM process using SSB or CSI-RS and (2) a UL BM process using a sounding reference signal (SRS). In addition, each BM process may include Tx beam sweeping to determine the Tx beam and Rx beam sweeping to determine the Rx beam.
SSB를 이용한 DL BM 과정에 대해 살펴본다.Let's look at the DL BM process using SSB.
SSB를 이용한 빔 보고(beam report)에 대한 설정은 RRC_CONNECTED에서 채널 상태 정보(channel state information, CSI)/빔 설정 시에 수행된다.Configuration for beam report using SSB is performed when channel state information (CSI)/beam is configured in RRC_CONNECTED.
- UE는 BM을 위해 사용되는 SSB 자원들에 대한 CSI-SSB-ResourceSetList를 포함하는 CSI-ResourceConfig IE를 BS로부터 수신한다. RRC 파라미터 csi-SSB-ResourceSetList는 하나의 자원 세트에서 빔 관리 및 보고을 위해 사용되는 SSB 자원들의 리스트를 나타낸다. 여기서, SSB 자원 세트는 {SSBx1, SSBx2, SSBx3, SSBx4, ??}으로 설정될 수 있다. SSB 인덱스는 0부터 63까지 정의될 수 있다.-The UE receives a CSI-ResourceConfig IE including CSI-SSB-ResourceSetList for SSB resources used for BM from BS. The RRC parameter csi-SSB-ResourceSetList represents a list of SSB resources used for beam management and reporting in one resource set. Here, the SSB resource set may be set to {SSBx1, SSBx2, SSBx3, SSBx4, ??}. The SSB index may be defined from 0 to 63.
- UE는 상기 CSI-SSB-ResourceSetList에 기초하여 SSB 자원들 상의 신호들을 상기 BS로부터 수신한다.-The UE receives signals on SSB resources from the BS based on the CSI-SSB-ResourceSetList.
- SSBRI 및 참조 신호 수신 전력(reference signal received power, RSRP)에 대한 보고와 관련된 CSI-RS reportConfig가 설정된 경우, 상기 UE는 최선(best) SSBRI 및 이에 대응하는 RSRP를 BS에게 보고한다. 예를 들어, 상기 CSI-RS reportConfig IE의 reportQuantity가 'ssb-Index-RSRP'로 설정된 경우, UE는 BS으로 최선 SSBRI 및 이에 대응하는 RSRP를 보고한다.-When the CSI-RS reportConfig related to reporting on SSBRI and reference signal received power (RSRP) is configured, the UE reports the best SSBRI and RSRP corresponding thereto to the BS. For example, when the reportQuantity of the CSI-RS reportConfig IE is set to'ssb-Index-RSRP', the UE reports the best SSBRI and corresponding RSRP to the BS.
UE는 SSB와 동일한 OFDM 심볼(들)에 CSI-RS 자원이 설정되고, 'QCL-TypeD'가 적용 가능한 경우, 상기 UE는 CSI-RS와 SSB가 'QCL-TypeD' 관점에서 유사 동일 위치된(quasi co-located, QCL) 것으로 가정할 수 있다. 여기서, QCL-TypeD는 공간(spatial) Rx 파라미터 관점에서 안테나 포트들 간에 QCL되어 있음을 의미할 수 있다. UE가 QCL-TypeD 관계에 있는 복수의 DL 안테나 포트들의 신호들을 수신 시에는 동일한 수신 빔을 적용해도 무방하다.When the UE is configured with CSI-RS resources in the same OFDM symbol(s) as the SSB and'QCL-TypeD' is applicable, the UE is similarly co-located in terms of'QCL-TypeD' where the CSI-RS and SSB quasi co-located, QCL). Here, QCL-TypeD may mean that QCL is performed between antenna ports in terms of a spatial Rx parameter. When the UE receives signals from a plurality of DL antenna ports in a QCL-TypeD relationship, the same reception beam may be applied.
다음으로, CSI-RS를 이용한 DL BM 과정에 대해 살펴본다.Next, a DL BM process using CSI-RS will be described.
CSI-RS를 이용한 UE의 Rx 빔 결정(또는 정제(refinement)) 과정과 BS의 Tx 빔 스위핑 과정에 대해 차례대로 살펴본다. UE의 Rx 빔 결정 과정은 반복 파라미터가 'ON'으로 설정되며, BS의 Tx 빔 스위핑 과정은 반복 파라미터가 'OFF'로 설정된다.The Rx beam determination (or refinement) process of the UE using CSI-RS and the Tx beam sweeping process of the BS are sequentially described. In the UE's Rx beam determination process, the repetition parameter is set to'ON', and in the BS's Tx beam sweeping process, the repetition parameter is set to'OFF'.
먼저, UE의 Rx 빔 결정 과정에 대해 살펴본다.First, a process of determining the Rx beam of the UE is described.
- UE는 'repetition'에 관한 RRC 파라미터를 포함하는 NZP CSI-RS resource set IE를 RRC 시그널링을 통해 BS로부터 수신한다. 여기서, 상기 RRC 파라미터 'repetition'이 'ON'으로 세팅되어 있다.-The UE receives the NZP CSI-RS resource set IE including the RRC parameter for'repetition' from the BS through RRC signaling. Here, the RRC parameter'repetition' is set to'ON'.
- UE는 상기 RRC 파라미터 'repetition'이 'ON'으로 설정된 CSI-RS 자원 세트 내의 자원(들) 상에서의 신호들을 BS의 동일 Tx 빔(또는 DL 공간 도메인 전송 필터)을 통해 서로 다른 OFDM 심볼에서 반복 수신한다. -The UE repeats signals on the resource(s) in the CSI-RS resource set in which the RRC parameter'repetition' is set to'ON' in different OFDM symbols through the same Tx beam (or DL spatial domain transmission filter) of the BS Receive.
- UE는 자신의 Rx 빔을 결정한다.-The UE determines its own Rx beam.
- UE는 CSI 보고를 생략한다. 즉, UE는 상가 RRC 파라미터 'repetition'이 'ON'으로 설정된 경우, CSI 보고를 생략할 수 있다. -The UE omits CSI reporting. That is, the UE may omit CSI reporting when the shopping price RRC parameter'repetition' is set to'ON'.
다음으로, BS의 Tx 빔 결정 과정에 대해 살펴본다.Next, a process of determining the Tx beam of the BS will be described.
- UE는 'repetition'에 관한 RRC 파라미터를 포함하는 NZP CSI-RS resource set IE를 RRC 시그널링을 통해 BS로부터 수신한다. 여기서, 상기 RRC 파라미터 'repetition'이 'OFF'로 세팅되어 있으며, BS의 Tx 빔 스위핑 과정과 관련된다.-The UE receives the NZP CSI-RS resource set IE including the RRC parameter for'repetition' from the BS through RRC signaling. Here, the RRC parameter'repetition' is set to'OFF', and is related to the Tx beam sweeping process of the BS.
- UE는 상기 RRC 파라미터 'repetition'이 'OFF'로 설정된 CSI-RS 자원 세트 내의 자원들 상에서의 신호들을 BS의 서로 다른 Tx 빔(DL 공간 도메인 전송 필터)을 통해 수신한다. -The UE receives signals on resources in the CSI-RS resource set in which the RRC parameter'repetition' is set to'OFF' through different Tx beams (DL spatial domain transmission filters) of the BS.
- UE는 최상의(best) 빔을 선택(또는 결정)한다.-The UE selects (or determines) the best beam.
- UE는 선택된 빔에 대한 ID(예, CRI) 및 관련 품질 정보(예, RSRP)를 BS으로 보고한다. 즉, UE는 CSI-RS가 BM을 위해 전송되는 경우 CRI와 이에 대한 RSRP를 BS으로 보고한다.-The UE reports the ID (eg, CRI) and related quality information (eg, RSRP) for the selected beam to the BS. That is, when the CSI-RS is transmitted for the BM, the UE reports the CRI and the RSRP for it to the BS.
다음으로, SRS를 이용한 UL BM 과정에 대해 살펴본다.Next, a UL BM process using SRS will be described.
- UE는 'beam management'로 설정된 (RRC 파라미터) 용도 파라미터를 포함하는 RRC 시그널링(예, SRS-Config IE)를 BS로부터 수신한다. SRS-Config IE는 SRS 전송 설정을 위해 사용된다. SRS-Config IE는 SRS-Resources의 리스트와 SRS-ResourceSet들의 리스트를 포함한다. 각 SRS 자원 세트는 SRS-resource들의 세트를 의미한다.-The UE receives RRC signaling (eg, SRS-Config IE) including a usage parameter set to'beam management' (RRC parameter) from the BS. SRS-Config IE is used for SRS transmission configuration. The SRS-Config IE includes a list of SRS-Resources and a list of SRS-ResourceSets. Each SRS resource set means a set of SRS-resources.
- UE는 상기 SRS-Config IE에 포함된 SRS-SpatialRelation Info에 기초하여 전송할 SRS 자원에 대한 Tx 빔포밍을 결정한다. 여기서, SRS-SpatialRelation Info는 SRS 자원별로 설정되고, SRS 자원별로 SSB, CSI-RS 또는 SRS에서 사용되는 빔포밍과 동일한 빔포밍을 적용할지를 나타낸다.-The UE determines Tx beamforming for the SRS resource to be transmitted based on the SRS-SpatialRelation Info included in the SRS-Config IE. Here, the SRS-SpatialRelation Info is set for each SRS resource, and indicates whether to apply the same beamforming as the beamforming used in SSB, CSI-RS or SRS for each SRS resource.
- 만약 SRS 자원에 SRS-SpatialRelationInfo가 설정되면 SSB, CSI-RS 또는 SRS에서 사용되는 빔포밍과 동일한 빔포밍을 적용하여 전송한다. 하지만, SRS 자원에 SRS-SpatialRelationInfo가 설정되지 않으면, 상기 UE는 임의로 Tx 빔포밍을 결정하여 결정된 Tx 빔포밍을 통해 SRS를 전송한다.-If SRS-SpatialRelationInfo is set in the SRS resource, the same beamforming as the beamforming used in SSB, CSI-RS or SRS is applied and transmitted. However, if SRS-SpatialRelationInfo is not set in the SRS resource, the UE randomly determines Tx beamforming and transmits the SRS through the determined Tx beamforming.
다음으로, 빔 실패 복구(beam failure recovery, BFR) 과정에 대해 살펴본다.Next, a beam failure recovery (BFR) process will be described.
빔포밍된 시스템에서, RLF(Radio Link Failure)는 UE의 회전(rotation), 이동(movement) 또는 빔포밍 블로키지(blockage)로 인해 자주 발생할 수 있다. 따라서, 잦은 RLF가 발생하는 것을 방지하기 위해 BFR이 NR에서 지원된다. BFR은 무선 링크 실패 복구 과정과 유사하고, UE가 새로운 후보 빔(들)을 아는 경우에 지원될 수 있다. 빔 실패 검출을 위해, BS는 UE에게 빔 실패 검출 참조 신호들을 설정하고, 상기 UE는 상기 UE의 물리 계층으로부터의 빔 실패 지시(indication)들의 횟수가 BS의 RRC 시그널링에 의해 설정된 기간(period) 내에 RRC 시그널링에 의해 설정된 임계치(threshold)에 이르면(reach), 빔 실패를 선언(declare)한다. 빔 실패가 검출된 후, 상기 UE는 PCell 상의 임의 접속 과정을 개시(initiate)함으로써 빔 실패 복구를 트리거하고; 적절한(suitable) 빔을 선택하여 빔 실패 복구를 수행한다(BS가 어떤(certain) 빔들에 대해 전용 임의 접속 자원들을 제공한 경우, 이들이 상기 UE에 의해 우선화된다). 상기 임의 접속 절차의 완료(completion) 시, 빔 실패 복구가 완료된 것으로 간주된다.In a beamformed system, Radio Link Failure (RLF) may frequently occur due to rotation, movement, or beamforming blockage of the UE. Therefore, BFR is supported in NR to prevent frequent RLF from occurring. BFR is similar to the radio link failure recovery process, and may be supported when the UE knows the new candidate beam(s). For beam failure detection, the BS sets beam failure detection reference signals to the UE, and the UE sets the number of beam failure indications from the physical layer of the UE within a period set by RRC signaling of the BS. When a threshold set by RRC signaling is reached, a beam failure is declared. After the beam failure is detected, the UE triggers beam failure recovery by initiating a random access procedure on the PCell; Beam failure recovery is performed by selecting a suitable beam (if the BS has provided dedicated random access resources for certain beams, these are prioritized by the UE). Upon completion of the random access procedure, it is considered that beam failure recovery is complete.
URLLC (Ultra-Reliable and Low Latency Communication)URLLC (Ultra-Reliable and Low Latency Communication)
NR에서 정의하는 URLLC 전송은 (1) 상대적으로 낮은 트래픽 크기, (2) 상대적으로 낮은 도착 레이트(low arrival rate), (3) 극도의 낮은 레이턴시 요구사항(requirement)(예, 0.5, 1ms), (4) 상대적으로 짧은 전송 지속기간(duration)(예, 2 OFDM symbols), (5) 긴급한 서비스/메시지 등에 대한 전송을 의미할 수 있다. UL의 경우, 보다 엄격(stringent)한 레이턴시 요구 사항(latency requirement)을 만족시키기 위해 특정 타입의 트래픽(예컨대, URLLC)에 대한 전송이 앞서서 스케줄링된 다른 전송(예컨대, eMBB)과 다중화(multiplexing)되어야 할 필요가 있다. 이와 관련하여 한 가지 방안으로, 앞서 스케줄링 받은 UE에게 특정 자원에 대해서 프리엠션(preemption)될 것이라는 정보를 주고, 해당 자원을 URLLC UE가 UL 전송에 사용하도록 한다.URLLC transmission as defined by NR is (1) relatively low traffic size, (2) relatively low arrival rate, (3) extremely low latency requirement (e.g. 0.5, 1ms), (4) It may mean a relatively short transmission duration (eg, 2 OFDM symbols), and (5) transmission of an urgent service/message. In the case of UL, transmission for a specific type of traffic (e.g., URLLC) must be multiplexed with other transmissions (e.g., eMBB) previously scheduled in order to satisfy a more stringent latency requirement. Needs to be. In this regard, as one method, information that a specific resource will be preempted is given to the previously scheduled UE, and the URLLC UE uses the corresponding resource for UL transmission.
NR의 경우, eMBB와 URLLC 사이의 동적 자원 공유(sharing)이 지원된다. eMBB와 URLLC 서비스들은 비-중첩(non-overlapping) 시간/주파수 자원들 상에서 스케줄될 수 있으며, URLLC 전송은 진행 중인(ongoing) eMBB 트래픽에 대해 스케줄된 자원들에서 발생할 수 있다. eMBB UE는 해당 UE의 PDSCH 전송이 부분적으로 펑처링(puncturing)되었는지 여부를 알 수 없을 수 있고, 손상된 코딩된 비트(corrupted coded bit)들로 인해 UE는 PDSCH를 디코딩하지 못할 수 있다. 이 점을 고려하여, NR에서는 프리엠션 지시(preemption indication)을 제공한다. 상기 프리엠션 지시(preemption indication)는 중단된 전송 지시(interrupted transmission indication)으로 지칭될 수도 있다.In the case of NR, dynamic resource sharing between eMBB and URLLC is supported. eMBB and URLLC services can be scheduled on non-overlapping time/frequency resources, and URLLC transmission can occur on resources scheduled for ongoing eMBB traffic. The eMBB UE may not be able to know whether the PDSCH transmission of the corresponding UE is partially punctured, and the UE may not be able to decode the PDSCH due to corrupted coded bits. In consideration of this point, the NR provides a preemption indication. The preemption indication may be referred to as an interrupted transmission indication.
프리엠션 지시와 관련하여, UE는 BS로부터의 RRC 시그널링을 통해 DownlinkPreemption IE를 수신한다. UE가 DownlinkPreemption IE를 제공받으면, DCI 포맷 2_1을 운반(convey)하는 PDCCH의 모니터링을 위해 상기 UE는 DownlinkPreemption IE 내 파라미터 int-RNTI에 의해 제공된 INT-RNTI를 가지고 설정된다. 상기 UE는 추가적으로 servingCellID에 의해 제공되는 서빙 셀 인덱스들의 세트를 포함하는 INT-ConfigurationPerServing Cell에 의해 서빙 셀들의 세트와 positionInDCI에 의해 DCI 포맷 2_1 내 필드들을 위한 위치들의 해당 세트를 가지고 설정되고, dci-PayloadSize에 의해 DCI 포맷 2_1을 위한 정보 페이로드 크기를 가지고 설졍되며, timeFrequencySect에 의한 시간-주파수 자원들의 지시 입도(granularity)를 가지고 설정된다.Regarding the preemption indication, the UE receives the DownlinkPreemption IE through RRC signaling from the BS. When the UE is provided with the DownlinkPreemption IE, the UE is configured with the INT-RNTI provided by the parameter int-RNTI in the DownlinkPreemption IE for monitoring of the PDCCH carrying DCI format 2_1. The UE is additionally configured with a set of serving cells by INT-ConfigurationPerServing Cell including a set of serving cell indexes provided by servingCellID and a corresponding set of positions for fields in DCI format 2_1 by positionInDCI, and dci-PayloadSize It is set with the information payload size for DCI format 2_1 by and is set with the indication granularity of time-frequency resources by timeFrequencySect.
상기 UE는 상기 DownlinkPreemption IE에 기초하여 DCI 포맷 2_1을 상기 BS로부터 수신한다.The UE receives DCI format 2_1 from the BS based on the DownlinkPreemption IE.
UE가 서빙 셀들의 설정된 세트 내 서빙 셀에 대한 DCI 포맷 2_1을 검출하면, 상기 UE는 상기 DCI 포맷 2_1이 속한 모니터링 기간의 바로 앞(last) 모니터링 기간의 PRB들의 세트 및 심볼들의 세트 중 상기 DCI 포맷 2_1에 의해 지시되는 PRB들 및 심볼들 내에는 상기 UE로의 아무런 전송도 없다고 가정할 수 있다. 예를 들어, UE는 프리엠션에 의해 지시된 시간-주파수 자원 내 신호는 자신에게 스케줄링된 DL 전송이 아니라고 보고 나머지 자원 영역에서 수신된 신호들을 기반으로 데이터를 디코딩한다.When the UE detects the DCI format 2_1 for the serving cell in the set set of serving cells, the UE is the DCI format among the set of PRBs and symbols of the monitoring period immediately preceding the monitoring period to which the DCI format 2_1 belongs. It may be assumed that there is no transmission to the UE in the PRBs and symbols indicated by 2_1. For example, the UE considers that the signal in the time-frequency resource indicated by the preemption is not a DL transmission scheduled to it, and decodes data based on the signals received in the remaining resource regions.
mMTC (massive MTC)mMTC (massive MTC)
mMTC(massive Machine Type Communication)은 많은 수의 UE와 동시에 통신하는 초연결 서비스를 지원하기 위한 5G의 시나리오 중 하나이다. 이 환경에서, UE는 굉장히 낮은 전송 속도와 이동성을 가지고 간헐적으로 통신하게 된다. 따라서, mMTC는 UE를 얼마나 낮은 비용으로 오랫동안 구동할 수 있는지를 주요 목표로 하고 있다. mMTC 기술과 관련하여 3GPP에서는 MTC와 NB(NarrowBand)-IoT를 다루고 있다.Massive Machine Type Communication (mMTC) is one of 5G scenarios to support hyper-connection services that communicate with a large number of UEs at the same time. In this environment, the UE communicates intermittently with a very low transmission rate and mobility. Therefore, mMTC aims at how long the UE can be driven at a low cost for a long time. Regarding mMTC technology, 3GPP deals with MTC and NB (NarrowBand)-IoT.
mMTC 기술은 PDCCH, PUCCH, PDSCH(physical downlink shared channel), PUSCH 등의 반복 전송, 주파수 호핑(hopping), 리튜닝(retuning), 가드 구간(guard period) 등의 특징을 가진다.The mMTC technology has features such as repetitive transmission of PDCCH, PUCCH, physical downlink shared channel (PDSCH), PUSCH, and the like, frequency hopping, retuning, and guard period.
즉, 특정 정보를 포함하는 PUSCH(또는 PUCCH(특히, long PUCCH) 또는 PRACH) 및 특정 정보에 대한 응답을 포함하는 PDSCH(또는 PDCCH)가 반복 전송된다. 반복 전송은 주파수 호핑(frequency hopping)을 통해 수행되며, 반복 전송을 위해, 제 1 주파수 자원에서 제 2 주파수 자원으로 가드 구간(guard period)에서 (RF) 리튜닝(retuning)이 수행되고, 특정 정보 및 특정 정보에 대한 응답은 협대역(narrowband)(ex. 6 RB (resource block) or 1 RB)를 통해 송/수신될 수 있다.That is, a PUSCH (or PUCCH (especially, long PUCCH) or PRACH) including specific information and a PDSCH (or PDCCH) including a response to specific information are repeatedly transmitted. Repetitive transmission is performed through frequency hopping, and for repetitive transmission, (RF) retuning is performed in a guard period from a first frequency resource to a second frequency resource, and specific information And a response to specific information may be transmitted/received through a narrowband (ex. 6 resource block (RB) or 1 RB).
5G 통신을 이용한 로봇 기본 동작Robot basic operation using 5G communication
도 6은 5G 통신 시스템에서 로봇과 5G 네트워크의 기본 동작의 일 예를 나타낸다.6 shows an example of a basic operation of a robot and a 5G network in a 5G communication system.
로봇은 특정 정보 전송을 5G 네트워크로 전송한다(S1). 그리고, 상기 5G 네트워크는 로봇의 원격 제어 여부를 결정할 수 있다(S2). 여기서, 상기 5G 네트워크는 로봇 관련 원격 제어를 수행하는 서버 또는 모듈을 포함할 수 있다. The robot transmits specific information transmission to the 5G network (S1). In addition, the 5G network may determine whether to remotely control the robot (S2). Here, the 5G network may include a server or module that performs robot-related remote control.
그리고, 상기 5G 네트워크는 로봇의 원격 제어와 관련된 정보(또는 신호)를 상기 로봇으로 전송할 수 있다(S3).In addition, the 5G network may transmit information (or signals) related to remote control of the robot to the robot (S3).
5G 통신 시스템에서 로봇과 5G 네트워크 간의 응용 동작Application motion between robot and 5G network in 5G communication system
이하, 도 1 내지 도 6과 앞서 살핀 무선 통신 기술(BM 절차, URLLC, Mmtc 등)을 참고하여 5G 통신을 이용한 로봇 동작에 대해 보다 구체적으로 살펴본다.Hereinafter, a robot operation using 5G communication will be described in more detail with reference to Salpin wireless communication technologies (BM procedure, URLLC, Mmtc, etc.) prior to FIGS. 1 to 6.
먼저, 후술할 본 발명에서 제안하는 방법과 5G 통신의 eMBB 기술이 적용되는 응용 동작의 기본 절차에 대해 설명한다.First, a basic procedure of an application operation to which the eMBB technology of 5G communication is applied and the method proposed by the present invention to be described later will be described.
도 3의 S1 단계 및 S3 단계와 같이, 로봇이 5G 네트워크와 신호, 정보 등을 송/수신하기 위해, 로봇은 도 3의 S1 단계 이전에 5G 네트워크와 초기 접속(initial access) 절차 및 임의 접속(random access) 절차를 수행한다.As in steps S1 and S3 of FIG. 3, in order for the robot to transmit/receive 5G network and signals, information, etc., the robot has an initial access procedure and random access with the 5G network prior to step S1 of FIG. 3. random access) procedure.
보다 구체적으로, 로봇은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행한다. 상기 초기 접속 절차 과정에서 빔 관리(beam management, BM) 과정, 빔 실패 복구(beam failure recovery) 과정이 추가될 수 있으며, 로봇이 5G 네트워크로부터 신호를 수신하는 과정에서 QCL(quasi-co location) 관계가 추가될 수 있다.More specifically, the robot performs an initial access procedure with the 5G network based on the SSB to obtain DL synchronization and system information. In the initial access procedure, a beam management (BM) process and a beam failure recovery process may be added, and a QCL (quasi-co location) relationship in the process of the robot receiving a signal from the 5G network. Can be added.
또한, 로봇은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행한다. 그리고, 상기 5G 네트워크는 상기 로봇으로 특정 정보의 전송을 스케쥴링하기 위한 UL grant를 전송할 수 있다. 따라서, 상기 로봇은 상기 UL grant에 기초하여 상기 5G 네트워크로 특정 정보를 전송한다. 그리고, 상기 5G 네트워크는 상기 로봇으로 상기 특정 정보에 대한 5G 프로세싱 결과의 전송을 스케쥴링하기 위한 DL grant를 전송한다. 따라서, 상기 5G 네트워크는 상기 DL grant에 기초하여 상기 로봇으로 원격 제어와 관련된 정보(또는 신호)를 전송할 수 있다.In addition, the robot performs a random access procedure with the 5G network for UL synchronization acquisition and/or UL transmission. In addition, the 5G network may transmit a UL grant for scheduling transmission of specific information to the robot. Therefore, the robot transmits specific information to the 5G network based on the UL grant. In addition, the 5G network transmits a DL grant for scheduling transmission of the 5G processing result for the specific information to the robot. Accordingly, the 5G network may transmit information (or signals) related to remote control to the robot based on the DL grant.
다음으로, 후술할 본 발명에서 제안하는 방법과 5G 통신의 URLLC 기술이 적용되는 응용 동작의 기본 절차에 대해 설명한다.Next, a basic procedure of an application operation to which the URLLC technology of 5G communication is applied and the method proposed by the present invention to be described later will be described.
앞서 설명한 바와 같이, 로봇은 5G 네트워크와 초기 접속 절차 및/또는 임의 접속 절차를 수행한 후, 로봇은 5G 네트워크로부터 DownlinkPreemption IE를 수신할 수 있다. 그리고, 로봇은 DownlinkPreemption IE에 기초하여 프리엠션 지시(pre-emption indication)을 포함하는 DCI 포맷 2_1을 5G 네트워크로부터 수신한다. 그리고, 로봇은 프리엠션 지시(pre-emption indication)에 의해 지시된 자원(PRB 및/또는 OFDM 심볼)에서 eMBB data의 수신을 수행(또는 기대 또는 가정)하지 않는다. 이후, 로봇은 특정 정보를 전송할 필요가 있는 경우 5G 네트워크로부터 UL grant를 수신할 수 있다.As described above, after the robot performs an initial access procedure and/or a random access procedure with the 5G network, the robot may receive a DownlinkPreemption IE from the 5G network. In addition, the robot receives DCI format 2_1 including a pre-emption indication from the 5G network based on the DownlinkPreemption IE. In addition, the robot does not perform (or expect or assume) the reception of eMBB data in the resource (PRB and/or OFDM symbol) indicated by the pre-emption indication. Thereafter, the robot may receive a UL grant from the 5G network when it is necessary to transmit specific information.
다음으로, 후술할 본 발명에서 제안하는 방법과 5G 통신의 mMTC 기술이 적용되는 응용 동작의 기본 절차에 대해 설명한다.Next, the method proposed by the present invention to be described later and the basic procedure of the application operation to which the mMTC technology of 5G communication is applied will be described.
도 6의 단계들 중 mMTC 기술의 적용으로 달라지는 부분 위주로 설명하기로 한다.Among the steps of FIG. 6, the description will be made mainly on the parts that are changed by the application of the mMTC technology.
도 6의 S1 단계에서, 로봇은 특정 정보를 5G 네트워크로 전송하기 위해 5G 네트워크로부터 UL grant를 수신한다. 여기서, 상기 UL grant는 상기 특정 정보의 전송에 대한 반복 횟수에 대한 정보를 포함하고, 상기 특정 정보는 상기 반복 횟수에 대한 정보에 기초하여 반복하여 전송될 수 있다. 즉, 상기 로봇은 상기 UL grant에 기초하여 특정 정보를 5G 네트워크로 전송한다. 그리고, 특정 정보의 반복 전송은 주파수 호핑을 통해 수행되고, 첫 번째 특정 정보의 전송은 제 1 주파수 자원에서, 두 번째 특정 정보의 전송은 제 2 주파수 자원에서 전송될 수 있다. 상기 특정 정보는 6RB(Resource Block) 또는 1RB(Resource Block)의 협대역(narrowband)을 통해 전송될 수 있다.In step S1 of FIG. 6, the robot receives a UL grant from the 5G network to transmit specific information to the 5G network. Here, the UL grant includes information on the number of repetitions for transmission of the specific information, and the specific information may be repeatedly transmitted based on the information on the number of repetitions. That is, the robot transmits specific information to the 5G network based on the UL grant. Further, repetitive transmission of specific information may be performed through frequency hopping, transmission of first specific information may be transmitted in a first frequency resource, and transmission of second specific information may be transmitted in a second frequency resource. The specific information may be transmitted through a narrowband of 6RB (Resource Block) or 1RB (Resource Block).
5G 통신을 이용한 로봇 대 로봇 간의 동작Robot-to-robot motion using 5G communication
도 7은 5G 통신을 이용한 로봇 대 로봇 간의 기본 동작의 일 예를 예시한다.7 illustrates an example of a basic operation between robots and robots using 5G communication.
제1 로봇은 특정 정보를 제2 로봇으로 전송한다(S61). 제2 로봇은 특정 정보에 대한 응답을 제1 로봇으로 전송한다(S62).The first robot transmits specific information to the second robot (S61). The second robot transmits a response to the specific information to the first robot (S62).
한편, 5G 네트워크가 상기 특정 정보, 상기 특정 정보에 대한 응답의 자원 할당에 직접적(사이드 링크 통신 전송 모드 3) 또는 간접적으로(사이드링크 통신 전송 모드 4) 관여하는지에 따라 로봇 대 로봇 간 응용 동작의 구성이 달라질 수 있다.On the other hand, depending on whether the 5G network directly (side link communication transmission mode 3) or indirectly (sidelink communication transmission mode 4) is involved in the resource allocation of the specific information and the response to the specific information, the robot-to-robot application operation is The composition may vary.
다음으로, 5G 통신을 이용한 로봇 대 로봇 간의 응용 동작에 대해 살펴본다.Next, we will look at the robot-to-robot application motion using 5G communication.
먼저, 5G 네트워크가 로봇 대 로봇 간의 신호 전송/수신의 자원 할당에 직접적으로 관여하는 방법을 설명한다.First, a method in which a 5G network is directly involved in resource allocation for signal transmission/reception between robots and robots will be described.
5G 네트워크는, 모드 3 전송(PSCCH 및/또는 PSSCH 전송)의 스케줄링을 위해 DCI 포맷 5A를 제1 로봇에 전송할 수 있다. 여기서, PSCCH(physical sidelink control channel)는 특정 정보 전송의 스케줄링을 위한 5G 물리 채널이고, PSSCH(physical sidelink shared channel)는 특정 정보를 전송하는 5G 물리 채널이다. 그리고, 제1 로봇은 특정 정보 전송의 스케줄링을 위한 SCI 포맷 1을 PSCCH 상에서 제2 로봇으로 전송한다. 그리고, 제1 로봇이 특정 정보를 PSSCH 상에서 제2 로봇으로 전송한다.The 5G network may transmit DCI format 5A to the first robot for
다음으로, 5G 네트워크가 신호 전송/수신의 자원 할당에 간접적으로 관여하는 방법에 대해 살펴본다.Next, we will look at how the 5G network indirectly participates in resource allocation for signal transmission/reception.
제1 로봇은 모드 4 전송을 위한 자원을 제1 윈도우에서 센싱한다. 그리고, 제1 로봇은, 상기 센싱 결과에 기초하여 제2 윈도우에서 모드 4 전송을 위한 자원을 선택한다. 여기서, 제1 윈도우는 센싱 윈도우(sensing window)를 의미하고, 제2 윈도우는 선택 윈도우(selection window)를 의미한다. 제1 로봇은 상기 선택된 자원을 기초로 특정 정보 전송의 스케줄링을 위한 SCI 포맷 1을 PSCCH 상에서 제2 로봇으로 전송한다. 그리고, 제1 로봇은 특정 정보를 PSSCH 상에서 제2 로봇으로 전송한다.The first robot senses resources for
앞서 살핀 드론의 구조적 특징, 5G 통신 기술 등은 후술할 본 발명에서 제안하는 방법들과 결합되어 적용될 수 있으며, 또는 본 발명에서 제안하는 방법들의 기술적 특징을 구체화하거나 명확하게 하는데 보충될 수 있다.The structural features of the Salpin drone, 5G communication technology, etc., may be applied in combination with the methods proposed in the present invention to be described later, or may be supplemented to specify or clarify the technical characteristics of the methods proposed in the present invention.
드론(Drone)Drone
무인 항공 시스템(Unmanned Aerial System): UAV와 UAV 컨트롤러의 결합Unmanned Aerial System: Combination of UAV and UAV controller
무인 항공 차량(Unmanned Aerial Vehicle): 원격 조정되는 인간 조종사가 없는 항공기로서, 무인 항공 로봇, 드론, 또는 단순히 로봇 등으로 표현될 수 있다.Unmanned Aerial Vehicle: As an aircraft without remotely controlled human pilots, it can be expressed as an unmanned aerial robot, a drone, or simply a robot.
UAV 컨트롤러(controller): UAV를 원격으로 제어하는데 사용되는 디바이스UAV controller: A device used to remotely control a UAV
ATC: Air Traffic ControlATC: Air Traffic Control
NLOS: Non-line-of-sightNLOS: Non-line-of-sight
UAS: Unmanned Aerial SystemUAS: Unmanned Aerial System
UAV: Unmanned Aerial VehicleUAV: Unmanned Aerial Vehicle
UCAS: Unmanned Aerial Vehicle Collision Avoidance SystemUCAS: Unmanned Aerial Vehicle Collision Avoidance System
UTM: Unmanned Aerial Vehicle Traffic ManagementUTM: Unmanned Aerial Vehicle Traffic Management
C2: Command and ControlC2: Command and Control
도 8은 UAS를 포함하는 3GPP 시스템 개념도의 일례를 나타낸 도이다.8 is a diagram illustrating an example of a conceptual diagram of a 3GPP system including UAS.
무인 항공 시스템 (UAS)은 때로는 드론(drone)이라고 불리는 무인 항공 차량 (Unmanned Aerial Vehicle, UAV)과 UAV 컨트롤러(controller)의 결합이다. UAV는 인력 조종 장치가 없는 항공기이다. 대신에, UAV는 UAV 컨트롤러를 통해 지상의 오퍼레이터(operator)로부터 제어되며, 자율 비행 능력들을 가질 수 있다. UAV 및 UAV 컨트롤러 간의 통신 시스템은 3GPP 시스템에 의해 제공된다. 크기와 무게에서 UAV의 범위는 레크리에이션 목적으로 자주 사용되는 작고 가벼운 항공기부터, 상업용으로 더 적합할 수 있는 크고 무거운 항공기에 이르기까지 다양하다. 규제 요구 사항은 이 범위에 따라 다르며, 지역에 따라 다르다.Unmanned Aerial Systems (UAS) is a combination of an Unmanned Aerial Vehicle (UAV), sometimes called a drone, and a UAV controller. UAVs are aircraft that do not have manpower controls. Instead, the UAV is controlled from an operator on the ground through a UAV controller and can have autonomous flight capabilities. The communication system between UAV and UAV controller is provided by the 3GPP system. UAVs range in size and weight from small, lightweight aircraft that are often used for recreational purposes to large, heavy aircraft that may be more suitable for commercial use. Regulatory requirements depend on this scope and vary by region.
UAS에 대한 통신 요구 사항은 UAV와 UAV 컨트롤러 사이의 커맨드(command) 및 제어(C2)뿐만 아니라, 서빙 3GPP 네트워크 및 네트워크 서버 모두에 대한 UAS 컴포넌트로/로부터의 데이터 업 링크(uplink) 및 다운링크(downlink)를 포함한다. UTM (Unmanned Aerial System Traffic Management)은 UAS 식별, 추적, 권한 부여(authorization), 강화(enhancement) 및 UAS 동작들의 규정을 제공하고, 동작을 위해 UAS에 대해 요구되는 데이터를 저장하는데 사용된다. 또한, UTM은 인증된 사용자 (예: 항공 교통 관제(air traffic control), 공공 안전 기관(public safety agency))가 ID(identity), UAV의 메타 데이터 및 UAV의 컨트롤러에게 질의(query)하도록 하게 한다.The communication requirements for UAS include command and control (C2) between the UAV and the UAV controller, as well as data uplink and downlink (C2) to/from UAS components for both the serving 3GPP network and network servers. downlink). UTM (Unmanned Aerial System Traffic Management) is used to provide UAS identification, tracking, authorization, enhancement and definition of UAS operations, and to store the data required for UAS for operation. In addition, UTM allows authenticated users (e.g. air traffic control, public safety agency) to query ID (identity), UAV metadata, and UAV controller. .
3GPP 시스템은 UTM이 UAV 및 UAV 컨트롤러를 연결하도록 하게 하여 UAV 및 UAV 컨트롤러를 UAS로 식별할 수 있도록 한다. 3GPP 시스템은 UAS가 아래 제어 정보를 포함할 수 있는 UAV 데이터를 UTM으로 전송할 수 있게 한다.The 3GPP system allows UTMs to connect UAVs and UAV controllers so that UAVs and UAV controllers can be identified as UAS. The 3GPP system allows UAS to transmit UAV data that may include the following control information to the UTM.
제어 정보: 고유한 Identity (이것은 3GPP identity 일 수 있다), UAV의 UE 능력(capability), 제조사 및 모델, 일련 번호, 이륙 중량(take-off weight), 위치, 소유자 identity, 소유자 주소, 소유자 연락처 세부 정보, 소유자 인증(certification), 이륙 위치(take-off location), 임무 유형, 경로 데이터, 작동 상태(operating status).Control information: Unique Identity (this could be a 3GPP identity), UAV's UE capability, make and model, serial number, take-off weight, location, owner identity, owner address, owner contact details Information, owner certification, take-off location, mission type, route data, operating status.
3GPP 시스템은 UAS가 UTM으로 UAV 컨트롤러 데이터를 전송할 수 있게 한다. 그리고, UAV 컨트롤러 데이터는 고유 ID (3GPP ID 일 수 있음), UAV 컨트롤러의 UE 기능, 위치, 소유자 ID, 소유자 주소, 소유자 연락처 세부 정보, 소유자 인증, UAV 운영자 신원 확인, UAV 운영자 면허, UAV 운영자 인증, UAV 파일럿 identity, UAV 파일럿 라이센스, UAV 파일럿 인증 및 비행 계획 등을 포함할 수 있다.The 3GPP system allows UAS to transmit UAV controller data to UTM. The UAV controller data is unique ID (can be 3GPP ID), UAV controller's UE function, location, owner ID, owner address, owner contact details, owner authentication, UAV operator identity verification, UAV operator license, UAV operator authentication , UAV pilot identity, UAV pilot license, UAV pilot authentication and flight planning, and the like.
UAS와 관련된 3GPP 시스템의 기능에 대해서는 다음과 같이 정리할 수 있다.The functions of the 3GPP system related to UAS can be summarized as follows.
- 3GPP 시스템은 UAS가 상기 UAS에 적용되는 서로 다른 인증 및 권한 수준에 기초하여 UTM에 서로 다른 UAS 데이터를 전송할 수 있도록 한다.-The 3GPP system allows UAS to transmit different UAS data to UTM based on different authentication and authority levels applied to the UAS.
- 3GPP 시스템은 향후 UTM 및 지원 애플리케이션의 진화와 함께 UTM으로 전송되는 UAS 데이터를 확장하는 기능을 지원한다.-The 3GPP system supports the function of expanding UAS data transmitted to UTM with the evolution of UTM and supporting applications in the future.
- 규정(regulation) 및 보안 보호에 기초하여, 3GPP 시스템은 UAS가 UTM에 IMEI(International Mobile Equipment Identity), MSISDN(Mobile Station International Subscriber Directory Number) 또는 IMSI(International Mobile Subscriber Identity) 또는 IP 주소와 같은 식별자(identifier)를 전송할 수 있도록 한다.-Based on regulation and security protection, the 3GPP system uses UAS to UTM with an identifier such as IMEI (International Mobile Equipment Identity), MSISDN (Mobile Station International Subscriber Directory Number) or IMSI (International Mobile Subscriber Identity) or IP address. (identifier) can be transmitted.
- 3GPP 시스템은 UAS의 UE가 UTM에게 IMEI, MSISDN 또는 IMSI 또는 IP 주소와 같은 식별자를 전송할 수 있도록 한다.-The 3GPP system allows the UE of UAS to transmit an identifier such as IMEI, MSISDN or IMSI or IP address to the UTM.
- 3GPP 시스템은 MNO(Mobile Network Operator)가 UAV 및 UAV 컨트롤러의 네트워크 기반 위치 정보와 함께 UTM으로 전송된 데이터를 보완한다.-In the 3GPP system, the mobile network operator (MNO) complements the data transmitted to the UTM along with the network-based location information of the UAV and UAV controller.
- 3GPP 시스템은 UTM이 동작하도록 허가의 결과를 MNO에 알릴 수 있도록 한다.-The 3GPP system allows the UTM to inform the MNO of the result of the authorization to operate.
- 3GPP 시스템은 적절한 가입 정보가 존재하는 경우에만 MNO가 UAS 인증 요청을 허용할 수 있도록 한다.-The 3GPP system allows the MNO to allow UAS authentication requests only when appropriate subscription information exists.
- 3GPP 시스템은 UTM에 UAS의 ID(s)를 제공한다.-The 3GPP system provides UAS ID(s) to UTM.
- 3GPP 시스템은 UAS가 UAV 및 UAV 컨트롤러의 라이브 위치 정보로 UTM을 갱신할 수 있게 한다.-3GPP system allows UAS to update UTM with live location information of UAV and UAV controller.
- 3GPP 시스템은 UAV 및 UAV 컨트롤러의 보충 위치(supplement location) 정보를 UTM에 제공한다.-The 3GPP system provides the UAV and the supplement location information of the UAV controller to the UTM.
- 3GPP 시스템은 UAV들을 지원하며, 대응하는 UAV 컨트롤러는 다른 PLMN에 동시에 연결된다.-The 3GPP system supports UAVs, and the corresponding UAV controller is connected to other PLMNs at the same time.
- 3GPP 시스템은 해당 시스템이 UAS 동작을 위해 설계된 3GPP 통신 능력의 지원에 관한 UAS 정보를 얻을 수 있는 기능을 제공한다.-The 3GPP system provides a function that allows the corresponding system to obtain UAS information on support of the 3GPP communication capability designed for UAS operation.
- 3GPP 시스템은 UAS 가능(capable) UE를 가진 UAS와 non-UAS 가능 UE를 가지는 UAS를 구별할 수 있는 UAS 식별(identification) 및 가입 데이터(subscription date)를 지원한다.-The 3GPP system supports UAS identification and subscription data that can distinguish between UAS with UAS-capable UE and UAS with non-UAS-capable UE.
- 3GPP 시스템은 검출(detection), 식별(identification) 및 문제가 있는 UAV(들) 및 UAV 컨트롤러를 UTM으로 보고하는 것을 지원한다.-The 3GPP system supports detection, identification and reporting of problematic UAV(s) and UAV controllers to UTM.
Rel-16 ID_UAS의 서비스 요구 사항에서, UAS는 한 쌍의(paired) UAV를 제어하기 위해 UAV 컨트롤러를 사용하여 휴먼 오퍼레이터에 의해 동작되고, UAV와 UAV 컨트롤러가 모두 커맨드와 제어(C2) 통신을 위해 3GPP 네트워크를 통해 두 개의 개별 연결을 사용하여 연결된다. UAS 동작에 대해 고려해야 할 첫 번째 사항은 다른 UAV와의 공중 충돌 위험, UAV 제어 실패 위험, 의도적인 UAV 오용 위험 및 다양한 사용자의 위험 (예: 공중을 공유하는 비즈니스, 여가 활동 등). 따라서, 안전상의 위험을 피하기 위해서, 5G 망을 전송망으로 고려할 때, C2 통신을 위한 QoS 보장에 의해 UAS 서비스를 제공하는 것은 중요하다.In the service requirements of Rel-16 ID_UAS, the UAS is operated by a human operator using a UAV controller to control a paired UAV, and both the UAV and UAV controller are used for command and control (C2) communication. It is connected using two separate connections through a 3GPP network. The first things to consider for UAS operation are the risk of aerial collision with other UAVs, the risk of UAV control failure, the risk of intentional UAV misuse, and the risk of various users (e.g. business sharing the air, leisure activities, etc.). Therefore, in order to avoid safety risks, when considering a 5G network as a transmission network, it is important to provide UAS service by guaranteeing QoS for C2 communication.
도 9는 UAV에 대한 C2 통신 모델의 일례들을 나타낸다.9 shows examples of a C2 communication model for UAV.
모델-A는 직접(direct) C2이다. UAV 컨트롤러 및 UAV는 서로 통신하기 위해 직접 C2 링크(또는 C2 통신)를 설정하고, 둘 다 직접적인 C2 통신을 위해 5G 네트워크에 의해 제공되어 설정 및 스케쥴된 무선 자원을 사용하여 5G 네트워크에 등록된다. 모델-B는 간접(indirect) C2이다. UAV 컨트롤러 및 UAV는 5G 네트워크에 대한 각각의 유니 캐스트 C2 통신 링크를 확립 및 등록하고 5G 네트워크를 통해 서로 통신한다. 또한, UAV 컨트롤러 및 UAV는 서로 다른 NG-RAN 노드를 통해 5G 네트워크에 등록될 수 있다. 5G 네트워크는 어떠한 경우에도 C2 통신의 안정적인 라우팅을 처리하기 위한 메커니즘을 지원한다. 명령(command) 및 제어(control)는 UAV 컨트롤러 / UTM에서 UAV로 명령을 전달하기 위해 C2 통신을 사용한다. 이 타입(모텔-B)의 C2 통신은 시각적 시선 (VLOS) 및 비-시각적 시선 (Non-VLOS)을 포함하는 UAV와 UAV 컨트롤러 / UTM 간의 서로 다른 거리를 반영하기 위한 두 가지 서로 다른 하위 클래스를 포함한다. 이 VLOS 트래픽 타입의 레이턴시는 명령 전달 시간, 인간 반응 시간 및 보조 매체, 예를 들어, 비디오 스트리밍, 전송 대기 시간의 지시를 고려할 필요가 있다. 따라서, VLOS의 지속 가능한 latency는 Non-VLOS보다 짧다. 5G 네트워크는 UAV 및 UAV 컨트롤러에 대한 각각의 세션을 설정한다. 이 세션은 UTM과 통신하고 UAS에 대한 디폴트(default) C2 통신으로 사용할 수 있다.Model-A is direct C2. The UAV controller and UAV establish a direct C2 link (or C2 communication) to communicate with each other, and both are provided by the 5G network for direct C2 communication and are registered in the 5G network using the configured and scheduled radio resources. Model-B is indirect C2. UAV controller and UAV establish and register each unicast C2 communication link to 5G network and communicate with each other through 5G network. In addition, the UAV controller and UAV can be registered in the 5G network through different NG-RAN nodes. The 5G network supports a mechanism to handle the reliable routing of C2 communications in any case. Command and control use C2 communication to transfer commands from UAV controller / UTM to UAV. This type of (Motel-B) C2 communication has two different subclasses to reflect the different distances between UAV and UAV controller / UTM, including visual line of sight (VLOS) and non-visual line of sight (Non-VLOS). Includes. The latency of this VLOS traffic type needs to take into account the instruction delivery time, human reaction time and indication of auxiliary media such as video streaming, transmission latency. Therefore, the sustainable latency of VLOS is shorter than that of Non-VLOS. The 5G network establishes each session for the UAV and UAV controller. This session communicates with UTM and can be used as the default C2 communication for UAS.
등록 절차 또는 서비스 요청 절차의 일부로서, UAV 및 UAV 컨트롤러는 UTM으로 UAS 동작을 요청하고, 애플리케이션 ID(들)에 의해 식별되는 사전 정의된 서비스 클래스 또는 요구된 UAS 서비스를 지시한다(예를 들어, 항해(navigational) 원조 서비스 및 날씨 등)을 UTM에 제공한다. UTM은 UAV 및 UAV 컨트롤러에 대한 UAS 동작을 허가하고, 부여된 UAS 서비스를 제공하며, UAS에 임시 UAS-ID를 할당한다. UTM은 5G 네트워크로 UAS의 C2 통신에 필요한 정보를 제공한다. 예를 들어, 서비스 클래스, 또는 UAS 서비스의 트래픽 타입, 인가된 UAS 서비스의 요구된 QoS 및 UAS 서비스의 가입(subscription)을 포함할 수 있다. 5G 네트워크와 C2 통신을 확립하도록 요청할 때, UAV 및 UAV 컨트롤러는 5G 네트워크로 할당된 UAS-ID와 함께 선호되는 C2 통신 모델(예를 들어, 모델-B)를 지시한다. 추가적인 C2 통신 연결을 생성하거나 C2에 대한 기존 데이터 연결의 구성을 변경할 필요가 있는 경우, 5G 네트워크는 UAS의 승인된 UAS 서비스 정보 및 C2 통신에서 요구된 QoS 및 우선 순위에 기초하여 C2 통신 트래픽에 대한 하나 이상의 QoS 플로우들을 수정 또는 할당한다.As part of the registration procedure or service request procedure, the UAV and UAV controller request UAS operation with the UTM, and indicate a predefined service class or requested UAS service identified by the application ID(s) (e.g., Navigational assistance services and weather, etc.) to UTM. UTM permits UAS operation for UAV and UAV controller, provides UAS service, and allocates temporary UAS-ID to UAS. UTM provides information necessary for C2 communication of UAS over 5G network. For example, it may include a service class, a traffic type of a UAS service, a requested QoS of an authorized UAS service, and a subscription of a UAS service. When requesting to establish C2 communication with the 5G network, the UAV and UAV controller indicate the preferred C2 communication model (eg, Model-B) with the UAS-ID assigned to the 5G network. If there is a need to create additional C2 communication connections or change the configuration of an existing data connection to C2, the 5G network will provide information about the C2 communication traffic based on the approved UAS service information of the UAS and the QoS and priority required for the C2 communication. Modify or allocate one or more QoS flows.
UAV 트래픽 관리 (UAV traffic management)UAV traffic management
(1) 중앙 집중식 UAV 트래픽 관리(Centralised UAV traffic management)(1) Centralized UAV traffic management
3GPP 시스템은 UTM이 비행 허가와 함께 경로 데이터를 UAV에 제공하는 메커니즘을 제공한다. 3GPP 시스템은 UTM으로부터 수신한 경로 수정 정보를 500ms 미만의 지연(latency)으로 UAS에 전달한다. 3GPP 시스템은 UTM으로부터 수신 된 통지를 500ms 미만의 대기 시간을 갖는 UAV 제어기에 전달할 수 있어야한다.The 3GPP system provides a mechanism for UTMs to provide route data to UAVs along with flight authorization. The 3GPP system delivers the path correction information received from the UTM to the UAS with a latency of less than 500 ms. The 3GPP system should be able to deliver notifications received from UTMs to UAV controllers with a latency of less than 500ms.
(2) 분산식 UAV 교통 관리(De-centralised UAV traffic management)(2) De-centralised UAV traffic management
- 3GPP 시스템은 UAV가 충돌 회피를 위해 근거리 영역에서 UAV(들)를 식별하기 위해 다음의 데이터(예: 다른 규정 요구 사항에 기초하여 요구되는 경우 UAV identities, UAV 타입, 현재 위치 및 시간, 비행 경로(flight route) 정보, 현재 속도, 동작 상태)를 방송한다.-The 3GPP system uses the following data (e.g., UAV identities, UAV type, current location and time, flight path if required based on other regulatory requirements) in order for the UAV to identify the UAV(s) in the near area for collision avoidance. (flight route) information, current speed, and operation status) are broadcast.
- 3GPP 시스템은 다른 UAV들 간 식별하기 위해 네트워크 연결을 통해 메시지를 전송하기 위해 UAV를 지원하며, UAV가 신원 정보의 방송에서 UAV, UAV 파일럿 및 UAV 오퍼레이터의 소유자의 개인 정보를 보존한다.-The 3GPP system supports UAVs to transmit messages over a network connection to identify between different UAVs, and the UAV preserves personal information of UAVs, UAV pilots and owners of UAV operators in broadcasting of identity information.
- 3GPP 시스템은 UAV가 단거리에서 다른 UAV로부터 로컬 방송 통신 전송 서비스를 수신할 수 있도록 한다.-The 3GPP system allows UAVs to receive local broadcast communication transmission services from other UAVs over a short distance.
- UAV는 3GPP 네트워크의 커버리지 밖 또는 내에서 직접(direct) UAV 대 UAV 로컬 브로드 캐스트 통신 전송 서비스를 직접 사용할 수 있으며, 송수신 UAV들이 동일하거나 또는 다른 PLMN에 의해 *?*서비스될 때 직접 UAV 대 UAV 로컬 브로드 캐스트 통신 전송 서비스를 사용할 수 있다.-UAV can directly use direct UAV to UAV local broadcast communication transmission service outside or within the coverage of 3GPP network, and direct UAV to UAV when transmitting and receiving UAVs are *?* serviced by the same or different PLMNs. Local broadcast communication transmission service can be used.
- 3GPP 시스템은 직접 UAV 대 UAV 로컬 브로드 캐스트 통신 전송 서비스를 최대 320kmph의 상대 속도로 직접 지원한다. 3GPP 시스템은 보안 관련 메시지 구성 요소를 제외하고 50-1500 바이트의 다양한 메시지 페이로드를 가진 직접 UAV 대 UAV 로컬 브로드 캐스트 통신 전송 서비스를 지원한다.-The 3GPP system directly supports UAV-to-UAV local broadcast communication transmission service at a relative speed of up to 320kmph. The 3GPP system supports direct UAV-to-UAV local broadcast communication transmission services with various message payloads of 50-1500 bytes, excluding security-related message components.
- 3GPP 시스템은 UAV들 사이에서 분리를 보장할 수 있는 직접 UAV 대 UAV 로컬 브로드 캐스트 통신 전송 서비스를 지원한다. 여기서, UAV들은 최소한 50m의 수평 거리 또는 30m의 수직 거리 또는 둘 다에 있는 경우 분리 된 것으로 간주될 수 있다. 3GPP 시스템은 최대 600m의 범위를 지원하는 직접 UAV 대 UAV 로컬 브로드 캐스트 통신 전송 서비스를 지원한다.-The 3GPP system supports a direct UAV-to-UAV local broadcast communication transmission service that can ensure separation between UAVs. Here, UAVs can be considered separate if they are at least at a horizontal distance of 50m or a vertical distance of 30m, or both. The 3GPP system supports a direct UAV-to-UAV local broadcast communication transmission service supporting a range of up to 600m.
- 3GPP 시스템은 초당 최소한 10 메시지의 빈도로 메시지를 전송할 수 있는 직접 UAV 대 UAV 로컬 브로드 캐스트 통신 전송 서비스를 지원하며, 종단 간 대기 시간이 최대 100ms인 메시지를 전송할 수 있는 직접 UAV 대 UAV 로컬 방송 통신 전송 서비스를 지원한다.-3GPP system supports direct UAV to UAV local broadcast communication transmission service that can transmit messages at a frequency of at least 10 messages per second, and direct UAV to UAV local broadcast communication that can transmit messages with end-to-end latency of up to 100 ms. Support transport service.
- UAV는 1 초에 적어도 한 번 비율로 지역적으로 자신의 identity를 브로드캐스트 할 수 있으며, 500m 범위까지 자신의 identity를 지역적으로 방송할 수 있다.-UAV can broadcast its identity locally at a rate of at least once per second, and can broadcast its identity locally up to a range of 500m.
보안(Security)Security
3GPP 시스템은 UAS와 UTM 사이에서 데이터 전송을 보호한다. 3GPP 시스템은 UAS ID의 스푸핑(spoofing) 공격으로부터 보호한다. 3GPP 시스템은 응용 계층에서 UAS와 UTM간에 전송되는 데이터의 부인 방지(non-repudiation)를 허용한다. 3GPP 시스템은 UAS와 UTM 연결을 통해 전송되는 데이터뿐만 아니라 UAS와 UTM 사이의 서로 다른 연결에 대해 서로 다른 수준의 무결성(integrity) 및 개인 정보 보호 기능을 제공할 수 있는 능력을 지원한다. 3GPP 시스템은 UAS와 관련된 신원 및 개인 식별 정보의 기밀 보호를 지원한다. 3GPP 시스템은 UAS 트래픽에 대한 규제 요건(예: lawful intercept)을 지원한다.The 3GPP system protects data transmission between UAS and UTM. The 3GPP system protects against UAS ID spoofing attacks. The 3GPP system allows non-repudiation of data transmitted between UAS and UTM in the application layer. The 3GPP system supports the ability to provide different levels of integrity and privacy protection for different connections between UAS and UTM, as well as data transmitted through UAS and UTM connections. The 3GPP system supports the confidentiality protection of UAS-related identity and personally identifiable information. The 3GPP system supports regulatory requirements (eg, lawful intercept) for UAS traffic.
UAS가 MNO로부터 UAS 데이터 서비스에 액세스할 수 있는 권한을 요청하면, MNO는 동작할 UAS 자격 증명을 확립하기 위해 2차 점검 (초기 상호 인증 이후 또는 이와 동시에)을 수행한다. MNO는 UAS에서 UTM (Unmanned Aerial System Traffic Management)으로 동작하도록 요청에 추가 데이터를 전송하고 잠재적으로 추가할 책임이 있다. 여기서, UTM은 3GPP 엔터티(entity)이다. 이 UTM은 UAS 및 UAV 오퍼레이터의 자격 증명을 운영하고, 확인하는 UAS의 승인을 담당한다. 한 가지 옵션은 UTM이 항공 교통 관제 기관에 의해 운영된다는 것이다. 이는 UAV, UAV 컨트롤러 및 라이브 위치와 관련된 모든 데이터를 저장한다. UAS가 이 점검의 어떤 부분에도 실패하면, MNO는 UAS에 대한 서비스를 거부 할 수 있으며, 그래서 운영 허가를 거부할 수 있다.When the UAS requests permission to access the UAS data service from the MNO, the MNO performs a second check (after or concurrently with the initial mutual authentication) to establish the UAS credential to operate. The MNO is responsible for transmitting and potentially adding additional data to the request to operate in UAS as Unmanned Aerial System Traffic Management (UTM). Here, UTM is a 3GPP entity. This UTM is responsible for the approval of the UAS, which operates and verifies the UAS and UAV operator's credentials. One option is that the UTM is operated by the air traffic control agency. It stores all data related to the UAV, UAV controller and live location. If the UAS fails any part of this check, the MNO can deny service to the UAS, so it can deny permission to operate.
공중(Aerial) UE(또는 드론) 통신을 위한 3GPP 지원(Support)3GPP support for aerial UE (or drone) communication
공중 통신이 가능한 UE에 LTE 연결을 제공하는 E-UTRAN 기반 메커니즘은 다음과 같은 기능을 통해 지원된다.The E-UTRAN-based mechanism for providing LTE connectivity to a UE capable of public communication is supported through the following functions.
- TS 23.401, 4.3.31 절에 명시된 가입(subscription) 기반 공중 UE 식별(identification) 및 권한 부여(authorization).-Subscription-based public UE identification and authorization specified in TS 23.401, 4.3.31.
- UE의 고도가 네트워크로 구성된 기준 고도 임계 값을 넘는 이벤트에 기초하여 높이 보고.-Report height based on the event that the elevation of the UE exceeds the reference elevation threshold configured by the network
- 설정된 셀들의 수 (즉, 1보다 큰)가 상기 트리거링 기준을 동시에 만족할 때 트리거되는 측정 보고에 기초한 간섭 검출.-Interference detection based on a measurement report triggered when the set number of cells (ie, greater than 1) simultaneously satisfies the triggering criterion.
- UE로부터 E-UTRAN으로의 비행 경로 정보의 시그널링.-Signaling of flight path information from UE to E-UTRAN.
- UE의 수평 및 수직 속도를 포함한 위치 정보 보고.-Reporting of location information including the horizontal and vertical speed of the UE.
(1) 공중 UE 기능의 가입 기반 식별(1) Subscription-based identification of public UE functions
공중 UE 기능의 지원은 HSS의 사용자 가입 정보에 저장된다. HSS는 Attach, Service Request 및 Tracking Area Update 과정에서 이 정보를 MME로 전송한다. 가입 정보는 attach, tracking area update 및 서비스 요청 절차 동안 S1 AP 초기 컨텍스트 설정 요청(initial context setup request)를 통해 MME에서 기지국으로 제공될 수 있다. 또한, X2 기반 핸드 오버의 경우, 소스 기지국(base station, BS)는 타겟 BS로의 X2-AP Handover Request 메시지에 가입 정보를 포함할 수 있다. 보다 구체적인 내용은 후술하기로 한다. 인트라 및 인터 MME S1 기반 핸드 오버에 대해, MME는 핸드 오버 절차 후에 타겟 기지국에 가입 정보를 제공한다.The support of the public UE function is stored in the user subscription information of the HSS. The HSS transmits this information to the MME in the process of Attach, Service Request, and Tracking Area Update. The subscription information may be provided from the MME to the base station through the S1 AP initial context setup request during attach, tracking area update, and service request procedures. In addition, in the case of X2-based handover, the source base station (BS) may include subscription information in the X2-AP Handover Request message to the target BS. More detailed information will be described later. For intra and inter MME S1 based handover, the MME provides subscription information to the target base station after the handover procedure.
(2) 공중 UE 통신에 대한 높이 기반 보고(2) Height-based reporting for public UE communication
공중 UE는 이벤트 기반 높이 보고로 설정될 수 있다. UE는 공중 UE의 고도가 구성된 임계 값보다 높거나 낮을 때 높이 보고를 전송한다. 보고는 높이와 위치를 포함한다.The public UE can be configured with event-based height reporting. The UE transmits a height report when the altitude of the aerial UE is higher or lower than the configured threshold. The report includes height and location.
(3) 공중 UE 통신을 위한 간섭 탐지 및 완화(mitigation)(3) Interference detection and mitigation for public UE communication
간섭 탐지를 위해, 설정된 셀 수에 대한 개별 (셀당) RSRP 값이 설정된 이벤트를 충족할 때 공중 UE는 측정 보고를 트리거하는 RRM 이벤트 A3, A4 또는 A5로 설정될 수 있다. 보고는 RRM 결과와 위치를 포함한다. 간섭 완화를 위해, 공중 UE는 PUSCH 전력 제어를 위한 전용 UE-특정 알파 파라미터로 설정될 수 있다.For interference detection, when an individual (per cell) RSRP value for a set number of cells satisfies a set event, the public UE may be set to an RRM event A3, A4 or A5 that triggers a measurement report. The report includes RRM results and location. For interference mitigation, the public UE may be configured with a dedicated UE-specific alpha parameter for PUSCH power control.
(4) 비행 경로 정보 보고(4) Report flight route information
E-UTRAN은 TS 36.355에서 정의된 대로 3D 위치로 정의된 다수의 중간 지점으로 구성된 비행 경로 정보를 보고하도록 UE에 요청할 수 있다. UE는 비행 경로 정보가 UE에서 이용 가능하면 설정된 수의 웨이포인트(waypoint)를 보고한다. 보고는 상기 요청에 설정되고 UE에서 이용 가능한 경우, 웨이포인트 당 타임 스탬프(time stamp)를 역시 포함할 수 있다.The E-UTRAN may request the UE to report flight path information consisting of a number of intermediate points defined as 3D locations as defined in TS 36.355. The UE reports a set number of waypoints if flight path information is available in the UE. The report may also include a time stamp per waypoint, if set in the request and available at the UE.
(5) 공중 UE 통신을 위한 위치 보고(5) Location report for public UE communication
공중 UE 통신을 위한 위치 정보는 설정된 경우 수평 및 수직 속도를 포함할 수 있다. 위치 정보는 RRM 보고 및 높이 보고에 포함될 수 있다.The location information for public UE communication may include horizontal and vertical speeds when set. The location information may be included in the RRM report and the height report.
이하, 공중 UE 통신을 위한 3GPP 지원의 (1) 내지 (5)에 대해 보다 구체적으로 살펴본다.Hereinafter, (1) to (5) of 3GPP support for public UE communication will be described in more detail.
DL / UL 간섭 검출(interference detection)DL / UL interference detection
DL 간섭 검출을 위해, UE에 의해 보고되는 측정들이 유용할 수 있다. UL 간섭 검출은 기지국에서의 측정에 기초하여 수행되거나 UE에 의해 보고된 측정들에 기초하여 추정될 수 있다. 기존의 측정 보고 메커니즘을 향상시켜 간섭 검출을 보다 효과적으로 수행할 수 있다. 또한, 예를 들어, 이동성 이력 보고(mobility history report), 속도 추정(speed estimation), 타이밍 어드밴스 조정 값 및 위치 정보와 같은 다른 관련된 UE-기반 정보가 간섭 검출을 돕기 위해 네트워크에 의해 사용될 수 있다. 측정 수행의 보다 구체적인 내용은 후술하기로 한다.For DL interference detection, measurements reported by the UE may be useful. UL interference detection may be performed based on measurements at the base station or may be estimated based on measurements reported by the UE. It is possible to perform interference detection more effectively by improving the existing measurement reporting mechanism. In addition, other related UE-based information, such as, for example, mobility history report, speed estimation, timing advance adjustment value, and location information may be used by the network to aid in interference detection. More specific details of performing the measurement will be described later.
DL 간섭 완화(interference mitigation)DL interference mitigation
공중 UE에서의 DL 간섭을 완화하기 위해, LTE Release-13 FD-MIMO가 사용될 수 있다. 공중 UE의 밀도가 높더라도, Rel-13 FD-MIMO는 DL 공중 UE 처리량 요건을 만족시키는 DL 공중 UE 처리량을 제공하면서 DL 지상 UE 처리량에 대한 영향을 제한하는데 유리할 수 있다. 공중 UE에서의 DL 간섭을 완화하기 위해, 공중 UE에서 지향성 안테나가 사용될 수 있다. 고밀도 공중 (Aerial) UE의 경우에도, 공중 UE에서의 지향성 안테나는 DL 지상 UE 처리량에 대한 영향을 제한하는데 유리할 수 있다. DL 공중 UE 처리량은 공중 UE에서 무 지향성 안테나를 사용하는 것에 비해 개선되었다. 즉, 지향성 안테나는 광범위한 각도들로부터 오는 간섭 전력을 감소시킴으로써 공중 UE들에 대한 하향링크에서의 간섭을 완화시키는데 사용된다. 공중 UE와 서빙 셀 사이의 LOS 방향을 추적하는 관점에서 다음 유형의 능력이 고려된다:To mitigate DL interference in a public UE, LTE Release-13 FD-MIMO can be used. Even if the density of public UEs is high, Rel-13 FD-MIMO can be advantageous in limiting the impact on DL terrestrial UE throughput while providing DL public UE throughput that satisfies DL aerial UE throughput requirements. To mitigate DL interference in the public UE, a directional antenna may be used in the public UE. Even in the case of a high-density aerial UE, a directional antenna in the aerial UE may be advantageous in limiting the impact on DL terrestrial UE throughput. The DL aerial UE throughput is improved compared to using an omni-directional antenna in the aerial UE. That is, the directional antenna is used to mitigate interference in downlink for public UEs by reducing interference power coming from wide angles. The following types of capabilities are considered in terms of tracking the LOS direction between a public UE and a serving cell:
1) Direction of Travel (DoT): 공중 UE는 서빙 셀 LOS의 방향을 인식하지 못하고 공중 UE의 안테나 방향이 DoT와 정렬된다.1) Direction of Travel (DoT): The public UE does not recognize the direction of the serving cell LOS and the antenna direction of the public UE is aligned with the DoT.
2) 이상적인(ideal) LOS: 공중 UE는 서빙 셀 LOS의 방향을 완벽하게 추적하고 안테나 조준선을 서빙 셀 쪽으로 조종한다.2) Ideal LOS: The aerial UE perfectly tracks the direction of the serving cell LOS and steers the antenna line of sight toward the serving cell.
3) 비-이상적인(Non-Ideal) LOS: 공중 UE는 서빙 셀 LOS의 방향을 추적하지만, 실제적인 제약으로 인해 오류가 있다.3) Non-Ideal LOS: The public UE tracks the direction of the serving cell LOS, but there is an error due to practical limitations.
공중 UE들에 대한 DL 간섭을 완화하기 위해, 공중 UE들에서의 빔포밍(beamforming)이 사용될 수 있다. 공중 UE들의 밀도가 높더라도, 공중 UE들에서의 빔포밍은 DL 지상 UE 처리량에 대한 영향을 제한하고, DL 공중 UE 처리량을 개선하는데 유리할 수 있다. 공중 UE에서의 DL 간섭을 완화하기 위해, 인트라-사이트(intra-site) 코히런트(coherent) JT CoMP가 사용될 수 있다. 공중 UE의 밀도가 높더라도, 인트라-사이트(intra-site) 코히런트(coherent) JT는 모든 UE의 처리량을 향상시킬 수 있다. 비-대역폭 제한 디바이스들에 대한 LTE Release-13 커버리지 확장 기술도 사용될 수 있다. 공중 UE에서의 DL 간섭을 완화하기 위해, 조정된 데이터 및 제어 전송 방식이 사용될 수 있다. 상기 조정된 데이터 및 제어 전송 방식의 이점은 주로 지상 UE 처리량에 대한 영향을 제한하면서 공중 UE 처리량을 증가시키는 데 있다. 전용 DL 자원을 지시하기 위한 시그널링, 셀 뮤팅(cell muting) / ABS에 대한 옵션, 셀 (재) 선택에 대한 프로시저 업데이트, 조정된(coordinated) 셀에 적용하기 위한 획득 및 조정된 셀에 대한 셀 ID를 포함할 수 있다.To mitigate DL interference for public UEs, beamforming in public UEs can be used. Even if the density of public UEs is high, beamforming in the public UEs can be beneficial in limiting the impact on DL terrestrial UE throughput and improving DL aerial UE throughput. In order to mitigate DL interference in a public UE, an intra-site coherent JT CoMP may be used. Even if the density of public UEs is high, intra-site coherent JT can improve the throughput of all UEs. LTE Release-13 coverage extension technology for non-bandwidth limited devices can also be used. In order to mitigate DL interference in a public UE, a coordinated data and control transmission scheme may be used. The advantage of the coordinated data and control transmission scheme is primarily to increase public UE throughput while limiting the impact on terrestrial UE throughput. Signaling to indicate dedicated DL resources, cell muting / ABS options, updating procedures for cell (re) selection, acquisition to apply to coordinated cells, and cells for adjusted cells May contain ID.
UL 간섭 완화UL interference mitigation
공중 UE들에 의해 야기되는 UL 간섭을 완화하기 위해, 강화된 전력 제어 메커니즘들이 사용될 수 있다. 공중 UE의 밀도가 높더라도, 향상된 전력 제어 메커니즘은 UL 지상 UE 처리량에 대한 영향을 제한하는데 유리할 수 있다.To mitigate UL interference caused by public UEs, enhanced power control mechanisms can be used. Even if the density of public UEs is high, an improved power control mechanism may be beneficial in limiting the impact on UL terrestrial UE throughput.
위의 전력 제어 기반 메커니즘에는 다음과 같은 사항들에 영향을 미친다.The power control-based mechanism above affects the following items.
- UE 특정 부분 경로 손실 보상 인자-UE-specific partial path loss compensation factor
- UE 특정 Po 파라미터-UE specific Po parameters
- 이웃 셀 간섭 제어 파라미터-Neighbor cell interference control parameters
- 폐쇄 루프 전력 제어-Closed loop power control
UL 간섭 완화를 위한 전력 제어 기반 메커니즘에 대해 보다 구체적으로 살펴본다.The power control-based mechanism for mitigating UL interference will be described in more detail.
1) UE 특정 부분 경로 손실 보상 계수(UE specific fractional pathloss compensation factor)1) UE specific fractional pathloss compensation factor
기존의 오픈 루프 전력 제어 메커니즘에 대한 강화가 UE 특정 부분 경로 손실 보상 인자 도입되는 곳에서 고려된다. UE 특정 부분 경로 손실 보상 인자 도입으로, 공중 UE를 지상 UE에 설정된 부분 경로 손실 보상 인자와 비교하여 서로 다른 구성할 수 있다. Reinforcement of the existing open loop power control mechanism is a compensation factor for UE-specific partial path loss. It is considered where it is introduced. UE-specific partial path loss compensation factor Introduced, by comparing the aerial UE with the partial path loss compensation factor set in the ground UE, different Configurable.
2) UE 특정 P0 파라미터2) UE specific P0 parameters
공중 UE들은 지상 UE들에 대해 설정된 Po와 비교하여 서로 다른 Po로 설정된다. UE 특정 Po가 기존의 오픈 루프 전력 제어 메커니즘에서 이미 지원되기 때문에, 기존의 전력 제어 메커니즘에 대한 강화는 필요하지 않다.Public UEs are set to different Pos compared to Po set for ground UEs. Since UE-specific Po is already supported in the existing open loop power control mechanism, no enhancements to the existing power control mechanism are required.
또한, UE 특정 부분 경로 손실 보상 인자 및 UE 특정 Po는 상향링크 간섭 완화를 위해 공동으로 사용될 수 있다. 이로부터, UE 특정 부분 경로 손실 보상 인자 및 UE 특정 Po은 공중 UE의 저하된 상향링크 처리량을 희생시키면서 지상 UE의 상향링크 처리량을 향상시킬 수 있다.In addition, UE-specific partial path loss compensation factor And UE-specific Po may be used jointly for mitigation of uplink interference. From this, UE-specific partial path loss compensation factor And UE-specific Po can improve the uplink throughput of the terrestrial UE while sacrificing the degraded uplink throughput of the public UE.
3) 폐쇄 루프 전력 제어 (Closed loop power control)3) Closed loop power control
공중 UE에 대한 목표 수신 전력은 서빙 및 이웃 셀 측정 보고를 고려하여 조정된다. 공중 UE들에 대한 폐루프 전력 제어는 또한 공중 UE들이 기지국 안테나들의 사이드로브 (sidelobe)들에 의해 지원될 수 있기 때문에 하늘에서 잠재적인 고속 신호 변화에 대처할 필요가 있다.The target received power for the public UE is adjusted in consideration of serving and neighbor cell measurement reports. Closed loop power control for public UEs also needs to cope with the potential high-speed signal change in the sky because public UEs can be supported by sidelobes of base station antennas.
공중 UE로 인한 UL 간섭을 완화하기 위해 LTE Release-13 FD-MIMO가 사용될 수 있다. 공중 UE에 의해 야기된 UL 간섭을 완화하기 위해, UE 지향성 안테나가 사용될 수 있다. 고밀도 공중 (Aerial) UE의 경우에도, UE 지향성 안테나는 UL Terrestrial UE 처리량에 대한 영향을 제한하는데 유리할 수 있다. 즉, 방향성 UE 안테나는 넓은 각도 범위의 공중 UE로부터의 상향링크 신호 전력을 감소시킴으로써 공중 UE에 의해 생성된 상향링크 간섭을 감소 시키는데 사용된다. 공중 UE와 서빙 셀 사이의 LOS 방향을 추적하는 관점에서 다음 유형의 능력이 고려된다:LTE Release-13 FD-MIMO may be used to mitigate UL interference caused by a public UE. To mitigate UL interference caused by a public UE, a UE directional antenna may be used. Even in the case of a high-density aerial UE, a UE directional antenna may be advantageous in limiting the impact on UL Terrestrial UE throughput. That is, the directional UE antenna is used to reduce the uplink interference generated by the public UE by reducing the power of the uplink signal from the public UE in a wide angular range. The following types of capabilities are considered in terms of tracking the LOS direction between a public UE and a serving cell:
1) Direction of Travel (DoT): 공중 UE는 서빙 셀 LOS의 방향을 인식하지 못하고 공중 UE의 안테나 방향이 DoT와 정렬된다.1) Direction of Travel (DoT): The public UE does not recognize the direction of the serving cell LOS and the antenna direction of the public UE is aligned with the DoT.
2) 이상적인(ideal) LOS: 공중 UE는 서빙 셀 LOS의 방향을 완벽하게 추적하고 안테나 조준선을 서빙 셀 쪽으로 조종한다.2) Ideal LOS: The aerial UE perfectly tracks the direction of the serving cell LOS and steers the antenna line of sight toward the serving cell.
3) 비-이상적인(Non-Ideal) LOS: 공중 UE는 서빙 셀 LOS의 방향을 추적하지만, 실제적인 제약으로 인해 오류가 있다.3) Non-Ideal LOS: The public UE tracks the direction of the serving cell LOS, but there is an error due to practical limitations.
공중 UE와 서빙 셀 사이의 LOS의 방향을 추적하는 능력에 따라, UE는 안테나 방향을 LOS 방향과 정렬하고 유용한 신호의 전력을 증폭시킬 수 있다. 또한, UL 전송 빔포밍 역시 UL 간섭을 완화시키는데 사용될 수 있다.Depending on the ability to track the direction of the LOS between the public UE and the serving cell, the UE can align the antenna direction with the LOS direction and amplify the power of the useful signal. In addition, UL transmission beamforming may also be used to mitigate UL interference.
이동성(Mobility)Mobility
공중 UE의 이동성 성능 (예를 들어, 핸드 오버 실패, RLF(Radio Link Failure), 핸드 오버 중단, Qout에서의 시간 등)은 지상 UE에 비해 악화된다. 앞서 살핀, DL 및 UL 간섭 완화 기술은 공중 UE에 대한 이동성 성능을 향상시킬 것으로 기대된다. 도시 지역 네트워크에 비해 농촌 지역 네트워크에서 더 나은 이동성 성능이 관찰된다. 또한, 기존의 핸드 오버 절차가 이동성 성능을 향상시키기 위해 향상될 수 있다. The mobility performance of a public UE (eg, handover failure, radio link failure (RLF), handover interruption, time at Qout, etc.) is worse than that of a ground UE. Previously, salpin, DL and UL interference mitigation techniques are expected to improve mobility performance for public UEs. Better mobility performance is observed in rural area networks than in urban area networks. In addition, the existing handover procedure can be improved to improve mobility performance.
- 위치 정보, UE의 공중 상태, 비행 경로 계획 등과 같은 정보에 기초하여 공중 UE에 대한 핸드 오버 절차 및/또는 핸드 오버 관련 파라미터의 이동성 향상-Improving mobility of handover procedures and/or handover-related parameters for a public UE based on information such as location information, the air condition of the UE, and flight path planning.
- 새로운 이벤트를 정의하고, 트리거 조건을 강화하고, 측정 보고의 양(quantity)을 제어하는 *?*등의 방법으로 측정 보고 메커니즘을 향상시킬 수 있다.-The measurement reporting mechanism can be improved by defining new events, enhancing trigger conditions, and controlling the quantity of measurement reports.
기존의 이동성 향상 메카니즘 (예를 들어, 이동성 히스토리 보고, 이동성 상태 추정, UE 지원 정보 등)은 그들이 공중 UE 용으로 동작하고, 추가 개선이 필요한 경우 먼저 평가될 수 있다. 공중의 UE에 대한 핸드오버 절차 및 관련 파라미터는 UE의 공중 상태 및 위치 정보에 기초하여 향상될 수 있다. 기존의 측정 보고 메커니즘은 예를 들어, 새로운 이벤트를 정의하고, 트리거링 조건을 강화하며, 측정 보고의 양을 제어하는 등으로 향상될 수 있다. 비행 경로 계획 정보는 이동성 향상을 위해 사용될 수 있다.Existing mobility enhancement mechanisms (eg, mobility history reporting, mobility state estimation, UE assistance information, etc.) can be evaluated first if they operate for public UEs and further improvements are needed. The handover procedure and related parameters for the UE in the air may be improved based on the air state and location information of the UE. Existing measurement reporting mechanisms can be improved, for example, by defining new events, reinforcing triggering conditions, controlling the amount of measurement reports, and so on. Flight route planning information can be used to improve mobility.
공중 UE에 적용될 수 있는 측정 수행 방법에 대해 보다 구체적으로 살펴본다.A method of performing measurement applicable to a public UE will be described in more detail.
도 10은 본 발명이 적용될 수 있는 측정 수행 방법의 일 예를 나타낸 흐름도이다.10 is a flowchart showing an example of a method of performing a measurement to which the present invention can be applied.
공중 UE는 기지국으로부터 측정 설정(measurement configuration) 정보를 수신한다(S1010). 여기서, 측정 설정 정보를 포함하는 메시지를 측정 설정 메시지라 한다. 공중 UE는 측정 설정 정보를 기반으로 측정을 수행한다(S1020). 공중 UE는 측정 결과가 측정 설정 정보 내의 보고 조건을 만족하면, 측정 결과를 기지국에게 보고한다(S1030). 측정 결과를 포함하는 메시지를 측정 보고 메시지라 한다. 측정 설정 정보는 다음과 같은 정보를 포함할 수 있다.The public UE receives measurement configuration information from the base station (S1010). Here, a message including measurement setting information is referred to as a measurement setting message. The public UE performs measurement based on the measurement configuration information (S1020). If the measurement result satisfies the reporting condition in the measurement configuration information, the public UE reports the measurement result to the base station (S1030). The message including the measurement result is called a measurement report message. Measurement setting information may include the following information.
(1) 측정 대상(Measurement object) 정보: 공중 UE가 측정을 수행할 대상에 관한 정보이다. 측정 대상은 셀 내 측정의 대상인 인트라-주파수 측정 대상, 셀간 측정의 대상인 인터-주파수 측정 대상, 및 인터-RAT 측정의 대상인 인터-RAT 측정 대상 중 적어도 어느 하나를 포함한다. 예를 들어, 인트라-주파수 측정 대상은 서빙 셀과 동일한 주파수 밴드를 갖는 주변 셀을 지시하고, 인터-주파수 측정 대상은 서빙 셀과 다른 주파수 밴드를 갖는 주변 셀을 지시하고, 인터-RAT 측정 대상은 서빙 셀의 RAT와 다른 RAT의 주변 셀을 지시할 수 있다.(1) Measurement object information: This is information on an object to be measured by a public UE. The measurement object includes at least one of an intra-frequency measurement object that is an intra-cell measurement object, an inter-frequency measurement object that is an inter-cell measurement object, and an inter-RAT measurement object that is an inter-RAT measurement object. For example, an intra-frequency measurement object indicates a neighboring cell having the same frequency band as a serving cell, an inter-frequency measurement object indicates a neighboring cell having a frequency band different from that of the serving cell, and the inter-RAT measurement object It is possible to indicate a neighboring cell of a RAT different from the RAT of the serving cell.
(2) 보고 설정(Reporting configuration) 정보: 공중 UE가 측정 결과를 전송하는 것을 언제 보고하는지에 관한 보고 조건 및 보고 타입(type)에 관한 정보이다. 보고 설정 정보는 보고 설정의 리스트로 구성될 수 있다. 각 보고 설정은 보고 기준(reporting criterion) 및 보고 포맷(reporting format)을 포함할 수 있다. 보고 기준은 단말이 측정 결과를 전송하는 것을 트리거하는 기준이다. 보고 기준은 측정 보고의 주기 또는 측정 보고를 위한 단일 이벤트일 수 있다. 보고 포맷은 공중 UE가 측정 결과를 어떤 타입으로 구성할 것인지에 관한 정보이다.(2) Reporting configuration information: This is information on reporting conditions and reporting types regarding when to report when a public UE transmits a measurement result. The report setting information may be composed of a list of report settings. Each reporting setting may include a reporting criterion and a reporting format. The reporting criterion is a criterion for triggering the UE to transmit the measurement result. The reporting criterion may be a period of measurement reporting or a single event for measurement reporting. The report format is information on what type of the public UE to configure the measurement result.
공중 UE와 관련된 이벤트는 (i) 이벤트 H1 및 (ii) 이벤트 H2를 포함한다.Events related to the public UE include (i) event H1 and (ii) event H2.
이벤트 H1 (임계값 초과의 공중 UE 높이)Event H1 (airborne UE height above threshold)
UE는 아래 1) 아래 명시된 조건 H1-1이 충족될 때, 이 이벤트에 대한 진입 조건이 충족되는 것으로 간주하고, 2) 아래에 명시된 조건 H1-2가 충족될 때, 이 이벤트에 대한 이탈 조건이 충족되는 것으로 간주한다.The UE considers that the entry condition for this event is satisfied when 1) the condition H1-1 specified below is met, and 2) the exit condition for this event is satisfied when the condition H1-2 specified below is met. It is considered to be satisfied.
부등식(inequality) H1-1 (진입 조건, entering condition): Inequality H1-1 (entering condition):
부등식 H1-2 (탈퇴 조건, leaving condition): Inequality H1-2 (leaving condition):
위의 수식에서 변수(variable)는 다음과 같이 정의된다.In the above formula, the variable is defined as follows.
MS는 공중 UE 높이이며, 어떠한 오프셋도 고려하지 않는다. Hys는 이 이벤트에 대한 히스테리시스(hysteresis) 파라미터 (즉, ReportConfigEUTRA 내에서 정의된 것과 같이 h1- 히스테리시스)이다. Thresh는 MeasConfig에 지정된 이 이벤트에 대한 참조 임계 값 매개 변수이다 (즉, MeasConfig 내에 정의된 heightThreshRef). Offset은 이 이벤트에 대한 절대 임계 값을 얻기 위한 heightThreshRef에 대한 오프셋 값이다(즉, ReportConfigEUTRA에 정의 된 h1-ThresholdOffset). Ms는 미터로 표시된다. Thresh는 Ms와 같은 단위로 표현된다.MS is the aerial UE height and does not take any offset into account. Hys is the hysteresis parameter for this event (ie h1-hysteresis as defined in ReportConfigEUTRA). Thresh is the reference threshold parameter for this event specified in MeasConfig (ie heightThreshRef defined in MeasConfig). Offset is the offset value for heightThreshRef to obtain the absolute threshold for this event (ie, h1-ThresholdOffset defined in ReportConfigEUTRA). Ms is expressed in meters. Thresh is expressed in the same unit as Ms.
이벤트 H2 (임계값 미만의 공중 UE 높이)Event H2 (airborne UE height below threshold)
UE는 1) 아래 명시된 조건 H2-1이 충족될 때, 이 이벤트에 대한 진입 조건이 충족되는 것으로 간주하고, 2) 아래에 명시된 조건 H2-2이 충족될 때, 이 이벤트에 대한 이탈 조건이 충족되는 것으로 간주한다.The UE shall 1) consider that the entry condition for this event is satisfied when the condition H2-1 specified below is met, and 2) the exit condition for this event is satisfied when the condition H2-2 specified below is met. It is considered to be.
부등식 H2-1 (진입 조건): Inequality H2-1 (entry condition):
부등식 H2-2 (이탈 조건): Inequality H2-2 (exit condition):
위의 수식에서 변수(variable)는 다음과 같이 정의된다.In the above formula, the variable is defined as follows.
MS는 공중 UE 높이이며, 어떠한 오프셋도 고려하지 않는다. Hys는 이 이벤트에 대한 히스테리시스(hysteresis) 파라미터 (즉, ReportConfigEUTRA 내에서 정의된 것과 같이 h1- 히스테리시스)이다. Thresh는 MeasConfig에 지정된 이 이벤트에 대한 참조 임계 값 매개 변수이다 (즉, MeasConfig 내에 정의된 heightThreshRef). Offset은이 이벤트에 대한 절대 임계 값을 얻기 위한 heightThreshRef에 대한 오프셋 값이다(즉, ReportConfigEUTRA에 정의 된 h2-ThresholdOffset). Ms는 미터로 표시된다. Thresh는 Ms와 같은 단위로 표현된다.MS is the aerial UE height and does not take any offset into account. Hys is the hysteresis parameter for this event (ie h1-hysteresis as defined in ReportConfigEUTRA). Thresh is the reference threshold parameter for this event specified in MeasConfig (ie heightThreshRef defined in MeasConfig). Offset is the offset value for heightThreshRef to get the absolute threshold for this event (i.e. h2-ThresholdOffset defined in ReportConfigEUTRA). Ms is expressed in meters. Thresh is expressed in the same unit as Ms.
(3) 측정 식별자(Measurement identity) 정보: 측정 대상과 보고 설정을 연관시켜, 공중 UE가 어떤 측정 대상에 대해 언제 어떤 타입으로 보고할 것인지를 결정하도록 하는 측정 식별자에 관한 정보이다. 측정 식별자 정보는 측정 보고 메시지에 포함되어, 측정 결과가 어떤 측정 대상에 대한 것이며, 측정 보고가 어떤 보고 조건으로 발생하였는지를 나타낼 수 있다.(3) Measurement identity (Measurement identity) information: This is information about a measurement identifier that allows the public UE to determine when and in what type to which measurement object to report by associating a measurement object with a reporting configuration. The measurement identifier information may be included in the measurement report message to indicate to which measurement object the measurement result is and under which report condition the measurement report occurred.
(4) 양적 설정(Quantity configuration) 정보: 측정 단위, 보고 단위 및/또는 측정 결과값의 필터링을 설정하기 위한 파라미터에 관한 정보이다.(4) Quantity configuration information: This is information about a measurement unit, a report unit, and/or a parameter for setting filtering of a measurement result value.
(5) 측정 갭(Measurement gap) 정보: 하향링크 전송 또는 상향링크 전송이 스케쥴링되지 않아, 공중 UE가 서빙 셀과의 데이터 전송에 대한 고려 없이 오직 측정을 하는데 사용될 수 있는 구간인 측정 갭에 관한 정보이다.(5) Measurement gap (Measurement gap) information: Information on the measurement gap, which is an interval that can only be used for measurement without consideration of data transmission with a serving cell because downlink transmission or uplink transmission is not scheduled. to be.
공중 UE는 측정 절차를 수행하기 위해, 측정 대상 리스트, 측정 보고 설정 리스트 및 측정 식별자 리스트를 가지고 있다. 공중 UE의 측정 결과가 설정된 이벤트를 만족하면, 단말은 측정 보고 메시지를 기지국으로 전송한다.In order to perform the measurement procedure, the public UE has a measurement target list, a measurement report configuration list, and a measurement identifier list. When the measurement result of the public UE satisfies the set event, the UE transmits a measurement report message to the base station.
여기서, 공중 UE의 측정 보고와 관련하여 다음과 같은 파라미터들이 UE-EUTRA-Capability Information Element에 포함될 수 있다. IE UE-EUTRA-Capability는 E-UTRA UE Radio Access Capability 파라미터 및 필수 기능에 대한 기능 그룹 지시자를 네트워크로 전달하는데 사용된다. IE UE-EUTRA-Capbility는 E-UTRA 또는 다른 RAT에서 전송된다. 표 1은 UE-EUTRA-Capability IE의 일례를 나타낸 표이다.Here, the following parameters may be included in the UE-EUTRA-Capability Information Element in relation to the measurement report of the public UE. IE UE-EUTRA-Capability is used to deliver the E-UTRA UE Radio Access Capability parameter and the functional group indicator for essential functions to the network. IE UE-EUTRA-Capbility is transmitted in E-UTRA or other RAT. Table 1 is a table showing an example of the UE-EUTRA-Capability IE.
MeasParameters-v1530 ::=
SEQUENCE {
qoe-MeasReport-r15
ENUMERATED {supported}
OPTIONAL,
qoe-MTSI-MeasReport-r15
ENUMERATED {supported}
OPTIONAL,
ca-IdleModeMeasurements-r15
ENUMERATED {supported}
OPTIONAL,
ca-IdleModeValidityArea-r15
ENUMERATED {supported}
OPTIONAL,
heightMeas-r15
ENUMERATED {supported}
OPTIONAL,
multipleCellsMeasExtension-r15
ENUMERATED {supported}
OPTIONAL
}...- ASN1START...
MeasParameters-v1530 ::= SEQUENCE {
qoe-MeasReport-r15 ENUMERATED {supported} OPTIONAL,
qoe-MTSI-MeasReport-r15 ENUMERATED {supported} OPTIONAL,
ca-IdleModeMeasurements-r15 ENUMERATED {supported} OPTIONAL,
ca-IdleModeValidityArea-r15 ENUMERATED {supported} OPTIONAL,
heightMeas-r15 ENUMERATED {supported} OPTIONAL,
multipleCellsMeasExtension-r15 ENUMERATED {supported} OPTIONAL
}...
상기 heightMeas-r15 필드는 UE가 TS 36.331에 명시된 높이 기반 측정 보고를 지원하는지 여부를 정의한다. TS 23.401에서 정의된 것과 같이, 공중 UE 가입을 가지는 UE에 대해서는 이 기능을 지원하는 것이 필수적이다. 상기 multipleCellsMeasExtension-r15 필드는 UE가 다수의 셀들을 기반으로 트리거된 측정 보고를 지원하는지 여부를 정의한다. TS 23.401에서 정의된 것과 같이, 공중 UE 가입을 가진 UE에 대해 이 기능을 지원하는 것이 필수적이다.UAV UE 식별The heightMeas-r15 field defines whether the UE supports the height-based measurement report specified in TS 36.331. As defined in TS 23.401, it is essential to support this function for UEs with public UE subscriptions. The multipleCellsMeasExtension-r15 field defines whether the UE supports a measurement report triggered based on a plurality of cells. As defined in TS 23.401, it is essential to support this function for UEs with public UE subscription. UAV UE identification
UE는 LTE 네트워크에서 UAV 관련 기능을 지원하는 관련된 기능을 가진 UE를 식별하는데 사용될 수 있는 네트워크에서 무선 능력을 나타낼 수 있다. UE가 3GPP 네트워크에서 공중 UE로서 기능하도록 하는 허가는 MME로부터 S1 시그널링을 통해 RAN으로 전달되는 가입 정보로부터 알 수 있다. UE의 실제적인 "공중 사용" 인증 / 라이센스 / 제한 및 그것이 가입 정보에 반영되는 방법은 Non-3GPP 노드로부터 3GPP 노드로 제공될 수 있다. 비행중인 UE는 UE-기반 보고 (예를 들어, 비행 중 모드 지시, 고도 또는 위치 정보, 강화된 측정 보고 메커니즘 (예를 들어, 새로운 이벤트의 도입)을 이용함으로써 또는 네트워크에서 이용 가능한 이동성 이력 정보에 의해 식별될 수 있다.The UE may indicate radio capabilities in the network that may be used to identify UEs with related functions supporting UAV related functions in the LTE network. The permission for the UE to function as a public UE in the 3GPP network can be known from subscription information transmitted from the MME to the RAN through S1 signaling. The actual "public use" authentication/license/restriction of the UE and how it is reflected in the subscription information can be provided from the Non-3GPP node to the 3GPP node. The in-flight UE can use UE-based reporting (e.g., in-flight mode indication, altitude or location information, enhanced measurement reporting mechanism (e.g., introduction of a new event)) or to the mobility history information available in the network. Can be identified by
공중 UE를 위한 가입 핸들링(subscription handling)Subscription handling for public UEs
이하 설명은 TS 36.300 및 TS 36.331에서 정의된 E-UTRAN을 통한 공중 UE 기능을 지원하기 위한 가입 정보 처리(handling)에 관한 것이다. 공중 UE 기능 처리를 지원하는 eNB는 UE가 공중 UE 기능을 사용할 수 있는지 여부를 결정하기 위해 MME에 의해 제공된 사용자 별 정보를 사용한다. 공중 UE 기능의 지원은 HSS에서 사용자의 가입 정보에 저장된다. HSS는 이 정보를 attach 및 tracking area update procedure 동안 위치 업데이트 메시지를 통해 MME로 전송한다. 홈 오퍼레이터는 언제든지 공중 UE를 동작하기 위한 사용자의 가입 승인을 취소할 수 있다. 공중 UE 기능을 지원하는 MME는 attach, tracking area update 및 service request procedure 동안 S1 AP 초기 컨텍스트 설정 요청(initial context setup request)을 통해 공중 UE 승인에 대한 사용자의 가입 정보를 eNB에 제공한다.The following description relates to subscription information handling for supporting public UE functions through E-UTRAN defined in TS 36.300 and TS 36.331. An eNB supporting public UE function processing uses the user-specific information provided by the MME to determine whether the UE can use the public UE function. The support of the public UE function is stored in the user's subscription information in the HSS. The HSS transmits this information to the MME through a location update message during attach and tracking area update procedures. The home operator can revoke the user's permission to subscribe to operate the public UE at any time. The MME supporting the public UE function provides the user's subscription information for public UE approval to the eNB through an S1 AP initial context setup request during attach, tracking area update, and service request procedure.
초기 컨텍스트 설정 절차의 목적은 E-RAB 컨텍스트, 보안 키, 핸드오버 제한 리스트, UE 무선 기능 및 UE 보안 기능 등을 포함하여 필요한 전체 초기 UE 컨텍스트를 확립하는 것이다. 상기 절차는 UE-관련 시그널링을 사용한다.The purpose of the initial context setup procedure is to establish the required full initial UE context, including E-RAB context, security key, handover restriction list, UE radio function and UE security function, and the like. This procedure uses UE-related signaling.
인트라 및 인터 MME S1 핸드오버 (인트라 RAT) 또는 E-UTRAN으로의 Inter-RAT 핸드 오버의 경우, 사용자에 대한 공중 UE 가입 정보는 핸드오버 절차 이후 타겟 BS로 전송된 S1-AP UE 컨텍스트 변경 요청(context modification request) 메시지에 포함된다.In the case of intra and inter MME S1 handover (intra RAT) or Inter-RAT handover to E-UTRAN, the public UE subscription information for the user is S1-AP UE context change request transmitted to the target BS after the handover procedure ( context modification request) message.
UE 컨텍스트 변경 절차의 목적은 예를 들어, 보안 키 또는 RAT / 주파수 우선 순위에 대한 가입자 프로파일 ID로 설정된 UE 컨텍스트를 부분적으로 변경하는 것이다. 상기 절차는 UE-관련 시그널링을 사용한다.The purpose of the UE context change procedure is to partially change the UE context set with, for example, a security key or a subscriber profile ID for RAT/frequency priority. This procedure uses UE-related signaling.
X2 기반 핸드 오버의 경우, 사용자에 대한 공중 UE 가입 정보는 다음과 같이 타겟 BS에 전송된다:In the case of X2-based handover, public UE subscription information for the user is transmitted to the target BS as follows:
- 소스 BS가 공중 UE 기능을 지원하고, 사용자의 공중 UE 가입 정보가 UE 컨텍스트에 포함되는 경우, 소스 BS는 타겟 BS에 X2-AP 핸드오버 요청 메시지에 해당 정보를 포함한다.-If the source BS supports the public UE function and the user's public UE subscription information is included in the UE context, the source BS includes the information in the X2-AP handover request message to the target BS.
- MME는 Path Switch Request Acknowledge 메시지에서 공중(Aerial) UE 가입(subscription) 정보를 target BS로 보낸다.-The MME sends public (Aerial) UE subscription information to the target BS in the Path Switch Request Acknowledge message.
핸드오버 자원 할당 절차의 목적은 UE의 핸드오버를 위해 타겟 BS에서 자원을 확보하는 것이다.The purpose of the handover resource allocation procedure is to secure resources in the target BS for handover of the UE.
공중 UE 가입 정보가 변경된 경우, 업데이트된 공중 UE 가입 정보는 BS에 전송된 S1-AP UE 컨텍스트 변경 요청 메시지에 포함된다.When the public UE subscription information is changed, the updated public UE subscription information is included in the S1-AP UE context change request message transmitted to the BS.
아래 표 2는 공중 UE 가입 정보의 일례를 나타낸 표이다.Table 2 below is a table showing an example of public UE subscription information.
공중 UE 가입 정보(Aerial UE subscription information)는 UE가 공중 UE 기능을 사용할 수 있는지를 알기 위해 BS에 의해 사용된다.Aerial UE subscription information is used by the BS to know if the UE can use the public UE function.
드론과 eMBB의 결합Combination of drone and eMBB
3GPP 시스템은 UAV (공중 UE 또는 드론) 및 eMBB 사용자를 위한 데이터 전송을 동시에 지원할 수 있다.The 3GPP system can simultaneously support data transmission for UAV (public UE or drone) and eMBB users.
제한된 대역폭 자원 하에서, 기지국은 공중의 UAV 및 지상의 eMBB 사용자에 대한 데이터 전송을 동시에 지원할 필요가 있을 수 있다. 예를 들어, 생방송 시나리오에서, 100미터 이상의 UAV는 캡처된 그림이나 비디오를 실시간으로 기지국으로 전송해야 하므로, 높은 전송 속도와 넓은 대역폭이 필요하다. 동시에, 기지국은 지상 사용자들 (예를 들어, eMBB 사용자들)에 대해 요구되는 데이터 레이트(data rate)를 제공할 필요가 있다. 그리고, 이러한 2 가지 종류의 통신들 간의 간섭은 최소화될 필요가 있다.Under limited bandwidth resources, the base station may need to simultaneously support data transmission for UAV in the air and eMBB users on the ground. For example, in a live broadcast scenario, a UAV over 100 meters needs to transmit a captured picture or video to the base station in real time, requiring high transmission speed and wide bandwidth. At the same time, the base station needs to provide the required data rate for terrestrial users (eg eMBB users). And, interference between these two types of communications needs to be minimized.
이하, 무인 항공 로봇을 드론이라고 호칭하도록 한다. 드론을 이용하여 실내 또는 실외를 측위하기 위해서는 측정하는 측정 공간을 정확히 측정하기 위해 비행하는 드론의 위치 제어가 정밀하게 수행되어야 한다. 하지만, 드론이 실내 비행을 하는 경우, GPS(Global Positioning System) 신호의 세기가 약하여 GPS 신호의 수신이 어려울 경우가 있다.Hereinafter, the unmanned aerial robot will be referred to as a drone. In order to position indoors or outdoors using a drone, the position control of the flying drone must be precisely performed in order to accurately measure the measuring space to be measured. However, when a drone is flying indoors, it may be difficult to receive a GPS signal because the strength of a GPS (Global Positioning System) signal is weak.
이 경우, GPS 신호를 드론이 수신하지 못하는 경우가 발생하기 때문에 실외 비행에서 일반적으로 사용하는 GPS 기반의 위치 제어가 어렵다는 문제가 발생할 수 있으며, 특정 구조물 내에서 드론이 비행을 하는 경우, 드론의 위치를 알기 위한 별도의 방법이 필요하다. 또한, 기존의 마커(광원) 만을 이용한 영상 기반 위치 제어의 경우 마커와 드론의 거리가 멀어짐에 따라 위치 측정 정밀도가 떨어지게 되어 드론의 위치제어가 어려워져 드론의 비행 성능이 저하된다는 문제점이 발생한다.In this case, since the drone may not receive GPS signals, there may be a problem that it is difficult to control the GPS-based location that is generally used in outdoor flight. If the drone flies within a specific structure, the drone's location We need a separate way to know. In addition, in the case of image-based position control using only the existing marker (light source), as the distance between the marker and the drone increases, the position measurement accuracy decreases, making it difficult to control the position of the drone, resulting in a problem that the flight performance of the drone is degraded.
또한, 실내 환경에서 드론이 라이다(Lidar)를 이용한 클라우드 맵핑 방식을 사용하는 경우, 기준 좌표를 설정하지 않으면 드론의 비행시 발생하는 오차가 매핑의 결과에 반영될 수 있으며, 드론의 절대 좌표의 기준점이 되는 위치의 수평축이 흔들리거나 변경되면 매핑 결과에 많은 오차가 발생하게 된다.In addition, when a drone uses a cloud mapping method using Lidar in an indoor environment, errors generated during flight of the drone may be reflected in the mapping result if the reference coordinates are not set. If the horizontal axis of the position as the reference point is shaken or changed, a lot of errors occur in the mapping result.
예를 들면, 엘리베이터 설치 등을 위한 공간 측위와 같이 좁은 측정 공간을 측위하는 경우, 측정 오차는 정밀하기 관리되어야 하고, 좁은 측정 공간을 위치 변경 없이 수직 방향으로만 고도가 증가/감소시키기 위한 드론은 오차 발생이 최소화 되어야 한다.For example, when positioning a narrow measurement space, such as a space positioning for elevator installation, measurement errors must be managed precisely, and drones that increase/decrease the altitude only in the vertical direction without changing the location of the narrow measurement space The occurrence of errors should be minimized.
즉, 설정된 절대 좌표가 드론의 비행 중에 변경되는 경우, 전체 데이터의 오차를 크게 발생시키기 때문에 센서를 이용한 제어를 통해서 실시간으로 절대 좌표가 바뀌는 것을 보정할 필요가 있다.In other words, when the set absolute coordinates are changed during the flight of the drone, it is necessary to correct the change of the absolute coordinates in real time through control using a sensor because it causes a large error in the entire data.
이하, 실내 또는 실외 공간을 측위하기 위한 드론의 정밀 제어 방법에 대해서 살펴보도록 한다.Hereinafter, a detailed control method of a drone for positioning an indoor or outdoor space will be described.
도 11은 본 발명의 일 실시 예에 따른 측위를 위한 드론 및 드론 스테이션의 일 예를 나타낸다.11 shows an example of a drone and a drone station for positioning according to an embodiment of the present invention.
도 11을 참조하면, 실내 또는 실외 측위를 위한 비행 시스템은 비행을 통해 측정 공간을 측위하기 위한 드론(1110)과 드론의 이/착륙 및 드론(1110)의 위치를 정밀 제어하기 위한 중심 위치를 제공하는 스테이션으로 구성될 수 있다.Referring to FIG. 11, a flight system for indoor or outdoor positioning provides a
구체적으로, 드론(1110)의 이/착륙 및 배터리 충전을 위한 스테이션(1120)은 드론의 이/착륙을 위한 이/착륙장(1122), 스테이션이 측정을 위한 측정 공간에서 수평을 유지하기 위한 수평 유지 장치(1124), 스테이션이 위치를 변경하기 위한 수평 이동 장치(1126) 및 드론의 배터리 충전을 위한 충전 장치(미도시)를 포함할 수 있다.Specifically, the
특정 실내(이하, 측정 공간)를 측위하는 경우, 스테이션(1120)이 드론(1110)의 위치 판단을 위한 기준이 될 수 있다. 예를 들면, 드론(1110)은 스테이션(1120)의 이/착륙장(1122)에 착륙해 있다가, 측정 공간의 측위가 시작되면 스테이션(1120)으로부터 이륙하며 측정 공간을 측위할 수 있다.When positioning a specific room (hereinafter, a measurement space), the
이때, 드론(1110)은 스테이션(1120)의 위치에 기초하여 비행을 시작한 뒤 드론(1110)의 수평 축 위치가 변경되었는지 여부를 판단할 수 있다.At this time, the
예를 들면, 드론(1110)이 이륙한 뒤에 스테이션(1120)의 위치로부터 수직 비행을 시도하면서 측정 공간을 측위하는 경우, 드론(1110)은 현재 수평 축 위치로는 이동하지 않고 수직 축으로만 비행을 하고 있는지 여부를 스테이션(1120)에 기초하여 인식할 수 있다.For example, if the
따라서, 스테이션(1120)은 드론(1110)이 측정을 시도하는 위치가 맞는지, 현재 스테이션(1120)이 수평한지 여부를 수평 유지 장치(1124)에 기초하여 판단하고, 수평하지 않은 경우, 스테이션(1120)의 수평이 유지되도록 수평 유지 장치가 사용될 수 있다.Therefore, the
만약, 드론(1110)이 측정 공간의 중심 위치에서부터 수직 비행을 하면서 측정 공간의 측위하는 경우, 스테이션(1120)은 드론(1110)의 현재 위치가 측정 공간의 중심 위치인지 여부를 판단하기 위한 기준이 될 수 있다. 따라서, 스테이션(1120)은 드론(1110)이 이륙하기 전에 측정 공간의 중심 위치에 위치하여야 한다.If the
이를 위해 스테이션(1120)은 측정 공간의 중심 위치에 위치하기 위해서 각 벽면까지의 거리를 측정할 수 있으며, 측정된 거리에 기초하여 측정공간의 중심 위치로 이동할 수 있다.To this end, the
스테이션(1120)은 드론(1110)에게 스테이션의 위치를 인식시키기 위한 복수 개의 레이저 빔을 발생시키기 위해서 이/착륙장(1122)에 복수 개의 레이저 포인트가 포함될 수 있으며, 스테이션(1120)의 수평을 유지하기 위한 수평 유지 장치(1124)는 기구 및 제어부를 포함할 수 있다.The
예를 들면, 복수 개의 레이저 포인트는 3개 이상의 레이저 빔의 발생을 위해서 가이드 레이저일 수 있으며, 이/착륙장(1122)은 가이드 마커 및 레이저 포인터를 포함할 수 있다.For example, the plurality of laser points may be guide lasers for generating three or more laser beams, and the take-off/
또한, 수평 유지 장치(1124)는 DOF 모션 플랫폼(DOF Motion Platform) 또는 공기 압을 이용한 수평장치를 포함할 수 있다.In addition, the
또한, 스테이션(1120)이 중심 위치에 위치하지 않는 경우, 이동을 위한 수평 이동 장치(1126)는 옴니 휠 및 레이저 센서를 포함할 수 있다.In addition, when the
이때, 스테이션(1120)은 수평 이동 장치(1126)에 구비된 레이저 센서를 이용하여 레이저 빔을 측정 공간의 각 벽면으로 발생시켜 스테이션(1120)이 중심 위치에 있는지 여부를 판단할 수 있다.In this case, the
구체적으로, 스테이션(1120)은 레이저 센서를 이용하여 측정 공간의 각 벽면까지의 거리를 측정하고, 센서의 값이 최소가 되는 지점에 스테이션의 중심을 맞춘다. 이때, 스테이션(1120은 옴니휠을 이용하여 중심 위치로 이동할 수 있다.Specifically, the
옴니휠은 xy 평면상에서 방향성 없이 위치 수정이 가능하며, 빠른 위치 오차 수정이 가능하고, 회전 없이 방향 전환이 가능하기 때문에 수평/수직 제어를 빠르게 할 수 있다.The omniwheel can be positioned without orientation on the xy plane, can quickly correct position errors, and can change direction without rotation, so horizontal/vertical control can be quickly performed.
이와 같은 드론(1110) 및 스테이션(1120)을 이용하여 실내 공간의 정밀 측위가 가능한다.Using such a
또한, 도 11에는 도시되지 않았지만 스테이션(1110)은 드론의 배터리 충전을 위한 충전 장치(미도시)를 더 포함할 수 있다. 충전 장치는 유선 충전 장치 및/또는 무선 충전 장치를 포함할 수 있으며, 드론이 스테이션에 착륙하고 있는 동안 드론의 배터리의 전력을 충전시킬 수 있다.In addition, although not shown in FIG. 11, the
도 12는 본 발명의 일 실시 예에 따른 측위를 위한 드론의 주요 구성들의 일 예를 나타낸다.12 shows an example of main components of a drone for positioning according to an embodiment of the present invention.
도 12를 참조하면, 드론(1110)은 수직 비행을 통해서 고도에 따른 측정 공간을 측위할 수 있다.Referring to FIG. 12, the
구체적으로, 실내 또는 실외를 측위하기 위한 드론(1110)은 도 12의 (b)에 도시된 바와 같이 비행을 위한 비행체(1111), 측위를 위한 측위 장치(1113), 드론(1110)의 실내 비행에서 위치 측위를 위한 센서(1115), 드론(1110)의 진동 억제, 자세 유지 및 3축(X, Y, Z축) 제어를 위한 짐볼(Gimbal, 1117), 영상 촬영을 위한 카메라(1119)를 구비할 수 있다.Specifically, the
측위 장치(1113)는 드론(1110)이 특정 서비스(예를 들면, 실내 또는 실외 측위 등)를 제공하기 위해서 수행해야 될 임무를 위한 동작을 수행할 수 있다.The
예를 들면, 도 12의 (a)에 도시된 바와 같이 드론이 좁은 실내를 측위하는 경우, 측위 장치(1113)는 실내를 측위하기 위한 센서(제 2 센서 또는 3D LiDAR Light Detection and Ranging))일 수 있다. Lidar 센서는 광원과 수신기를 사용하여 원격의 개체를 탐지하고 거리를 측정하는 센싱 기술이다. 광원에서 방출된 광 펄스(예를 들면, 레이저)가 물체에 부딪쳐 반사되어 LiDAR 시스템으로 돌아오면 수신기가 돌아온 광 펄스를 감지할 수 있다.For example, as shown in (a) of FIG. 12, when the drone locates a narrow room, the
광 펄스를 전송한 후 수신하기까지의 시간은 LiDAR 시스템과 물체 사이의 거리에 따라 달라질 수 있으며, 전송부터 수신까지의 시간을 이용하여 드론과 물체 사이의 거리를 계산할 수 있다. The time between transmitting and receiving the optical pulse may vary depending on the distance between the LiDAR system and the object, and the distance between the drone and the object can be calculated using the time from transmission to reception.
드론(1110)의 실내 비행에서 위치 측위를 위한 센서(제 1 센서, 1115)는 드론이 실내 측위를 위한 수직 비행을 하는 경우, 스테이션으로부터 전송되는 복수 개의 레이저 빔을 감지하여 드론(1110)이 스테이션이 위치한 중심 위치에서 벗어나지 않도록 한다.In the indoor flight of the
즉, 좁은 측정 공간에서 중심 위치로부터 높이에 따른 각각의 벽면까지의 거리를 드론(1110)이 측정하기 위해서는 드론(1110)은 스테이션의 위치를 기준 위치로 하여 기준 위치에서 수평 축으로는 이동하지 않고 수직 축으로만 이동하여 각 벽면까지의 거리를 측정하며 고도를 증가시켜야 한다.That is, in order for the
따라서, 드론(1110)은 기준 위치에서 벗어나지 않기 위해 스테이션으로부터 발생되는 복수 개의 레이저 빔을 센서(1115)를 통해 감지할 수 있다.Accordingly, the
드론(1110)은 감지된 레이저 빔의 개수가 스테이션으로부터 발생된 복수 개의 레이저 빔의 개수보다 적거나, 위치가 변경되면 드론(1110)이 기준 위치에서 벗어났다고 인식하고, 스테이션으로부터 전송된 복수 개의 레이저 빔이 센서(1115)에 의해 감지되도록 위치를 이동할 수 있다.The
구체적으로, 드론(1110)은 고도에 따른 각 벽면까지의 거리를 측정하기 위해서 수직 비행을 할 수 있다. 이때, 드론(1110)은 측정 공간에서 중심위치로부터 각 벽면까지의 거리를 측정하기 위해서 스테이션의 위치를 기준 위치로 하여 수직 비행을 수행할 수 있다.Specifically, the
드론(1110)은 수직 비행을 수행하면서, 기준 위치에서 벗어나는지 여부를 감지하기 위해서 첫 번째로 카메라를 통해서 스테이션으로부터 발생되는 복수 개의 레이저 빔 및/또는 위치 제어를 위한 복수 개의 가이드 마커를 인식한다. 만약, 복수 개의 레이저 빔 및/또는 복수 개의 가이드 마커가 카메라를 통해 모두 인식되지 않으면, 드론(1110)이 기준 위치에서 벗어났다고 인식하고, 복수 개의 레이저 빔 및/또는 복수 개의 가이드 마커가 모두 인식되도록 위치를 이동한다. 이후, 드론(1110)의 정밀한 위치를 조절하기 위해서 센서(1115)를 이용하여 복수 개의 레이저 빔을 감지하고, 감지된 복수 개의 레이저 빔을 통해 드론(1110)이 기준 위치에서 벗어났는지 여부를 판단하여 드론(1110)이 기준 위치를 유지하도록 한다.The
예를 들면, 드론(1110)은 센서(1115)를 이용하여 복수 개의 레이저 빔을 감지하고, 복수 개의 레이저 빔이 모두 감지되었는지 여부 및 감지된 복수 개의 레이저 빔의 위치를 이용하여 드론(1110)이 기준 위치에서 얼마나 벗어났는지 여부를 판단할 수 있다.For example, the
이후, 드론(1110)은 판단 결과에 기초하여 드론(1110)이 스테이션의 기준 위치로 이동할 수 있다.Thereafter, the
또한, 드론(1110)은 복수 개의 레이저 빔을 이용하여 복수 개의 레이저 빔 각각이 발생되는 위치까지의 거리를 계산할 수 있으며, 계산된 거리에 기초하여 드론이 수평인지 여부를 판단할 수 있다.In addition, the
계산된 거리가 다르면 드론(1110)이 수평하지 않다고 인식하고 계산된 거리가 동일하도록 드론(1110)의 좌우 수평을 조절할 수 있다. 예를 들면, 거리가 짧은 쪽의 고도를 낮추거나, 거리가 긴 쪽의 고도를 낮춤으로써 드론(1110)의 수평을 유지할 수 있다. 또는, 짐볼(1117)을 이용하여 수평 및/또는 수직 축의 X축, Y축 및/또는 Z축을 제어하여, 거리가 짧거나 긴 쪽을 조절하여 드론(1110)의 자세 및 수평을 제어할 수 있다.If the calculated distance is different, it is recognized that the
카메라(1119)는 측위 장치(1113)와 함께 특정 서비스를 제공하기 위해서 수행해야 될 임무를 위한 동작을 수행하거나, 센서(1115)와 함께 드론이 기준 위치를 유지하며 수직 비행을 위해 이용될 수 있다.The
예를 들면, 카메라(1119)는 측위 장치(1113)와 함께 좁은 실내를 측위하기 위해 사용되는 경우, 드론(1110)은 카메라(1119)를 이용하여 측위 공간의 각 벽면을 촬영하여 영상 정보를 획득하고, 측위 장치(1113)를 통해서 측정 공간의 모델링(예를 들면, 도 12의 (a)에 도시된 바와 같이 3D 모델링 정보 등)을 획득할 수 있다.For example, when the
이후, 카메라(1119)를 통해서 획득한 영상 정보 및 측위 장치(1113)를 통해서 획득한 모델링을 함께 이용하여 측정 공간에 대한 결과를 획득할 수 있다. 이 경우, 영상 정보 및 모델링을 함께 이용하기 때문에 벽면의 영상 및 각각의 벽면에 대한 세부적인 거리까지 측정이 가능하여 측정 공간에 대한 구체적인 측위가 가능하다.Thereafter, a result of the measurement space may be obtained by using the image information acquired through the
또한, 카메라(1119)를 통해서 스테이션으로부터 발생되는 복수 개의 빔 및/또는 스테이션에 표시된 복수 개의 가이드 마커를 인식함으로써 카메라(1119)는 센서(1115)와 함께 드론(1110)이 측정 공간의 중심 위치를 유지하도록 위치 제어에 이용될 수 있다.In addition, by recognizing a plurality of beams generated from the station and/or a plurality of guide markers displayed on the station through the
도 13은 본 발명의 일 실시 예에 따른 드론의 수직 비행을 위한 스테이션의 주요 구성들의 일 예를 나타낸다.13 shows an example of main components of a station for vertical flight of a drone according to an embodiment of the present invention.
도 13을 참조하면, 도 11에서 설명한 스테이션의 주요 구성들의 일 예를 나타낸다.Referring to FIG. 13, an example of the main configurations of the station described in FIG. 11 is shown.
도 13의 (a)는 도 11에서 설명한 스테이션의 이/착륙장(1122) 및 이에 구비된 복수 개의 레이저 포인터의 일 예를 나타낸다. 도 11의 (a)에 좌측은 복수 개의 레이저 포인터의 일 예로써 드론이 스테이션에 의한 중심 위치에서 벗어나지 않도록 드론에게 중심 위치를 가이드하기 위한 역할을 수행한다.13A shows an example of the take-off/
도 13의 (a)의 우측은 복수 개의 레이저 포인터 및 마커를 구비하는 이/착륙장(1122)의 일 예를 도시한다.The right side of FIG. 13A shows an example of a take-off/
드론은 이/착륙장(1122)에 구비된 복수 개의 레이저 포인터에서 발생되는 복수 개의 레이저 빔 및/또는 마커를 카메라로 인식하여 1차적으로 위치를 제어하고(Coarse control), 복수 개의 레이저 빔을 센서로 인식하여 2차적으로 위치를 정밀하게 제어할 수 있다(Fine Control).The drone recognizes a plurality of laser beams and/or markers generated from a plurality of laser pointers provided in the take-off/
도 13의 (b)는 도 11에서 설명한 수평 유지 장치(1124)의 일 예를 나타낸다.13B shows an example of the
수평 유지 장치(1124)는 도 11에서 설명한 바와 같이 스테이션(1120)의 수평을 유지하기 위해서 사용될 수 있다. 도 11의 (b)의 좌측은 6 DOF 모션 플랫폼의 일 예를 나타내며, 우측은 공압을 이용한 수평장치의 일 예를 나타낸다.The
공압을 이용한 수평 장치는 도 13의 (b)에 도시된 바와 같이 디지털 수평계를 이용하여 스테이션이 수평한지 여부를 판단하고, 수평하지 않은 경우, 공압 실린더를 이용하여 받침대의 높/낮이를 조절함으로써 수평을 조절할 수 있다.The horizontal device using pneumatic determines whether or not the station is horizontal using a digital level as shown in (b) of FIG. 13, and if not, adjusts the height/height of the pedestal using a pneumatic cylinder. You can adjust the level.
도 13의 (c)는 도 11에서 설명한 수평 이동 장치(1126)의 일 예를 나타내며, 좌측은 4륜 수평 이동 장치의 일 예를, 우측은 3륜 수평 이동 장치의 일 예를 나타낸다. 수평 이동 장치(1126)는 레이제 센서 및 옴니휠로 구성될 수 있다.13C shows an example of the
스테이션은 레이저 센서를 이용하여 스테이션이 측정 공간의 중심 위치에 위치해 있는지 여부를 판단할 수 있으며, 중심 위치에 위치하지 않은 경우 옴니휠을 이용하여 중심 위치로 이동할 수 있다.The station can determine whether the station is located at the center position of the measurement space by using a laser sensor, and if it is not located at the center position, it can move to the center position using an omniwheel.
구체적으로, 스테이션은 레이저 센서를 이용하여 스테이션이 측정 공간의 중심 위치에 위치하지 않는다고 판단한 경우, 수평 이동 장치(1126)의 옴니 휠을 이용하여 이동함으로써 스테이션의 위치를 이동시킬 수 있다.Specifically, when it is determined that the station is not located at the center position of the measurement space using a laser sensor, the station may move the station position by moving using the omni wheel of the
이때, 스테이션은 레이저 센서를 이용하여 측정된 거리에 기초하여 중심 위치로 이동할 수 있다. 예를 들면, 레이저 센서를 이용하여 측정한 거리 중 특정 벽면까지의 거리가 짧거나 긴 경우, 짧은 쪽으로 이동하여 스테이션에서 각 벽면까지의 거리가 동일한 중심 위치로 이동할 수 있다.At this time, the station may move to the center position based on the distance measured using the laser sensor. For example, if the distance to a specific wall is short or long among the distances measured using a laser sensor, it can be moved to a shorter direction and the distance from the station to each wall is the same center position.
도 14는 본 발명의 일 실시 예에 따른 수직 비행을 이용한 측위 방법의 일 예를 나타내는 순서도이다.14 is a flow chart showing an example of a positioning method using vertical flight according to an embodiment of the present invention.
도 14를 참조하면, 드론, 스테이션 및 서버로 구성된 드론의 비행 시스템에서 드론은 스테이션을 이용하여 측정 공간에서 중심 위치를 유지하면서 수직 비행을 할 수 있으며, 수직 비행을 통해 고도에 따라 측정한 측정 공간의 측정 결과를 서버로 전송할 수 있다.Referring to FIG. 14, in a drone flight system composed of a drone, a station, and a server, a drone can fly vertically while maintaining a central position in a measurement space using a station, and a measurement space measured according to altitude through vertical flight. The measurement result of can be transmitted to the server.
구체적으로, 드론을 구비한 스테이션은 드론의 수직 비행의 기준 위치가 되는 측정 공간의 중심위치로 이동할 수 있다(S14010). 스테이션은 도 11 및 도 13에서 설명한 바와 같이 수평 이동 장치의 레이저 센서를 이용하여 스테이션이 측정 공간의 중심 위치에 있는지 여부를 판단할 수 있으며, 옴니휠을 이용하여 중심 위치로 이동할 수 있다.Specifically, the station equipped with the drone may move to the center position of the measurement space, which is the reference position for the vertical flight of the drone (S14010). As described with reference to FIGS. 11 and 13, the station may determine whether the station is at the center position of the measurement space using a laser sensor of the horizontal moving device, and may move to the center position using an omniwheel.
이후, 스테이션은 드론이 수직 비행을 시작하면 이/착륙장의 복수 개의 레이저 포인터를 이용하여 복수 개의 레이저 빔을 발생시킬 수 있다.Thereafter, when the drone starts to fly vertically, the station can generate a plurality of laser beams using a plurality of laser pointers at the take-off/landing ground.
스테이션이 중심 위치로 이동하면 드론은 스테이션을 이용하여 측정 공간의 중심 위치에서 수직 비행을 한다(S14020). 드론은 도 11 및 도 12에서 설명한 바와 같이 스테이션의 복수 개의 마커 및/또는 복수 개의 레이저 빔을 카메라 및/또는 센서를 이용하여 감지함으로써 측정 공간의 중심 위치를 유지하면서 수직 비행을 수행할 수 있다.When the station moves to the central position, the drone uses the station to fly vertically from the central position of the measurement space (S14020). As described with reference to FIGS. 11 and 12, the drone may perform vertical flight while maintaining the center position of the measurement space by detecting a plurality of markers and/or a plurality of laser beams of the station using a camera and/or sensor.
드론은 중심 위치에서 수직 비행을 하면서 측정 공간을 측위할 수 있다(S14030). 드론은 도 12에서 설명한 바와 같이 카메라를 통해서 측정 공간에 대한 영상 정보를 획득할 수 있으며, 측정 장치(예를 들면, 3D LiDAR 시스템 등)를 이용하여 측정 공간에 대한 모델링을 획득할 수 있다.The drone may position the measurement space while flying vertically from the center position (S14030). As described in FIG. 12, the drone may acquire image information on the measurement space through a camera, and modeling on the measurement space may be obtained using a measurement device (eg, a 3D LiDAR system).
이후, 드론은 획득한 영상 정보 및 측정 장치를 이용하여 측정 공간에 대한 최종적인 측정 결과를 획득할 수 있다. 즉, 영상 정보와 모델링을 합쳐서 측정 공간에 대한 최종적인 측정 결과를 도출할 수 있으며, 도출된 측정 결과를 서버로 전송할 수 있다.Thereafter, the drone may obtain a final measurement result for the measurement space by using the acquired image information and a measurement device. That is, by combining image information and modeling, a final measurement result for the measurement space can be derived, and the derived measurement result can be transmitted to the server.
본 발명의 또 다른 실시 예로, 드론은 수직 비행을 위한 이륙 전에 서버로부터 측정 공간에 대한 드론의 비행 경로와 관련된 경로 정보를 획득할 수 있다. 드론은 서버로부터 획득한 경로 정보에 기초하여 비행을 하면서 측정 공간을 측정할 수 있다.In another embodiment of the present invention, the drone may obtain route information related to the flight path of the drone for the measurement space from the server before take-off for vertical flight. The drone can measure the measurement space while flying based on the route information obtained from the server.
이와 같은 방법을 이용하여 드론은 측정 공간의 중심 위치를 유지하면서 수직 비행을 할 수 있으며, 카메라뿐만 아니라 Lidar 시스템을 이용하여 측정 공간을 측정함으로써 측정 공간에 대한 정밀한 측정이 가능하다.Using such a method, the drone can fly vertically while maintaining the center position of the measurement space, and precise measurement of the measurement space is possible by measuring the measurement space using not only a camera but also a Lidar system.
도 15 및 도 16은 본 발명의 일 실시 예에 따른 무인 항공 로봇의 수직 비행을 위해서 스테이션이 측정되는 공간에서 중심에 위치하기 위한 방법의 일 예를 나타낸다.15 and 16 illustrate an example of a method for positioning a station at a center in a space in which a station is measured for vertical flight of an unmanned aerial vehicle according to an embodiment of the present invention.
도 15를 참조하면, 스테이션은 도 15의 (a)에 도시된 바와 같이 측정 공간에서 드론이 중심 위치에서 수직 비행을 수행하도록 하기 위해 중심 위치에서 복수 개의 레이저 포인터를 이용하여 복수 개의 레이저 빔을 발생 시킬 수 있다. 이를 위해서 스테이션은 도 15의 (b)에 도시된 바와 같이 측정 공간의 중심 위치로 이동할 수 있다.Referring to FIG. 15, the station generates a plurality of laser beams using a plurality of laser pointers at the center position in order to allow the drone to perform vertical flight at the center position in the measurement space as shown in Fig. 15(a). I can make it. To this end, the station may move to the center of the measurement space as shown in (b) of FIG. 15.
이하, 측정 공간이 4면으로 된 경우를 예로 들어 설명하도록 한다. 이는 일 예에 불과하며, 스테이션은 4면 외에 다른 복수의 면으로 구성된 측정 공간에서 아래에서 설명하는 방법을 이용하여 중심 위치로 이동할 수 있다.Hereinafter, a case in which the measurement space has four sides will be described as an example. This is only an example, and the station can be moved to the center position using the method described below in a measurement space composed of a plurality of surfaces other than 4 surfaces.
스테이션은 도 11 및 도 13에서 설명한 바와 같이 드론이 착륙한 상태에서 수평 이동 상태에 구비된 복수 개의 레이저 센서를 이용하여 현재 자신의 위치에서 각 면까지의 거리를 계산할 수 있다. 예를 들면, 스테이션은 복수 개의 레이저 센서를 이용하여 각 면으로 레이저 빔을 발생할 수 있으며, 발생된 레이저 빔이 각 면에서 반사된 반사 빔을 레이저 센서를 통해서 감지할 수 있다.As described with reference to FIGS. 11 and 13, the station can calculate the distance from its current position to each surface using a plurality of laser sensors provided in a horizontal movement state in a state in which the drone lands. For example, the station may generate a laser beam to each surface using a plurality of laser sensors, and detect a reflected beam from which the generated laser beam is reflected from each surface through the laser sensor.
스테이션은 각 면으로 전송된 레이저 빔이 반사되어 돌아오는 시간을 계산하여 각 면까지의 거리를 계산할 수 있으며, 각 면까지의 거리가 동일한지 여부를 비교하여 스테이션의 위치가 중심 위치인지 여부를 판단할 수 있다.The station can calculate the distance to each surface by calculating the return time of the laser beam transmitted to each surface, and determine whether the station's position is the center position by comparing whether the distance to each surface is the same. can do.
또는, 측정 공간이 정사각형이 아닌 경우, 각 면과 그 면의 반대 면까지의 길이를 비교하여 스테이션이 중심 위치에 있는지 여부를 판단할 수 있다.Alternatively, when the measurement space is not square, it is possible to determine whether the station is in the center position by comparing the length of each side to the opposite side of the side.
예를 들면, 한쪽 면의 길이가 그 반대편 면의 길이보다 짧은 경우, 스테이션이 짧은 길이의 면 쪽으로 치우쳐져 있다는 것을 스테이션은 판단할 수 있다.For example, if the length of one side is shorter than the length of the other side, the station may determine that the station is skewed toward the shorter side.
이 경우, 스테이션은 각 면까지의 길이가 동일하거나, 한쪽 면과 그 반대편 면까지의 길이가 동일한 위치까지 옴니휠을 이용하여 이동함으로써 중심 위치로 이동할 수 있다.In this case, the station can move to the center position by moving using an omni wheel to a position having the same length to each side or the same length to one side and the other side.
이후, 스테이션이 중심 위치로 이동하면, 드론은 이륙할 수 있으며, 스테이션은 드론이 이륙하면 이/착륙장에 구비된 복수 개의 레이저 포인터를 이용하여 복수 개의 레이저 빔을 발생시켜 드론이 중심 위치에서 수직비행을 수행하도록 할 수 있다.Thereafter, when the station moves to the center position, the drone can take off, and the station generates a plurality of laser beams using a plurality of laser pointers provided in the take-off/landing area when the drone takes off, and the drone flies vertically at the center position. Can be done.
도 16은 도 15에서 설명한 방법을 순서도로 도시한 것으로, 스테이션은 현재 위치가 측정 공간의 중심 위치인지 여부를 판단하기 위해 복수 개의 레이저 센서를 이용하여 측정 공간의 각 벽면까지의 거리를 측정할 수 있다(S16010).16 is a flowchart illustrating the method described in FIG. 15, wherein the station can measure the distance to each wall surface of the measurement space using a plurality of laser sensors to determine whether the current location is the center location of the measurement space. Yes (S16010).
스테이션은 측정된 각 벽면까지의 거리에 기초하여 스테이션의 위치가 측정 공간의 각 벽면으로부터 중심 위치인지 여부를 판단할 수 있다.The station may determine whether the position of the station is a center position from each wall surface of the measurement space based on the measured distance to each wall surface.
예를 들면, 도 15에서 설명한 바와 같이 스테이션은 각 면으로 전송된 레이저 빔이 반사되어 돌아오는 시간을 계산하여 각 면까지의 거리를 계산할 수 있으며, 각 면까지의 거리가 동일한지 여부를 비교하여 스테이션의 위치가 중심 위치인지 여부를 판단할 수 있다.For example, as described in FIG. 15, the station can calculate the distance to each surface by calculating the time that the laser beam transmitted to each surface is reflected and returned, and compares whether the distance to each surface is the same. It can be determined whether the location of the station is the central location.
또는, 측정 공간이 정사각형이 아닌 경우, 각 면과 그 면의 반대 면까지의 길이를 비교하여 스테이션이 중심 위치에 있는지 여부를 판단할 수 있다.Alternatively, when the measurement space is not square, it is possible to determine whether the station is in the center position by comparing the length of each side to the opposite side of the side.
예를 들면, 한쪽 면의 길이가 그 반대편 면의 길이보다 짧은 경우, 스테이션이 짧은 길이의 면쪽으로 치우쳐져 있다는 것을 스테이션은 판단할 수 있다.For example, if the length of one side is shorter than the length of the other side, the station may determine that the station is skewed toward the shorter side.
만약, 스테이션이 중심 위치에 위치하지 않는다고 판단하면, 스테이션은 측정된 거리에 기초하여 측정 공간의 중심위치로 이동할 수 있다(S16020). 예를 들면, 스테이션은 각 면까지의 길이가 동일하거나, 한쪽 면과 그 반대편 면까지의 길이가 동일한 위치까지 옴니휠을 이용하여 이동함으로써 중심 위치로 이동할 수 있다. 또는, 스테이션은 각 면까지의 길이가 동일하거나, 한쪽 면과 그 반대편 면까지의 길이가 동일한 위치까지 옴니휠을 이용하여 이동함으로써 중심 위치로 이동할 수 있다.If it is determined that the station is not located at the center position, the station may move to the center position of the measurement space based on the measured distance (S16020). For example, the station can be moved to the center position by moving using an omniwheel to a position where the length to each side is the same, or the length to one side and the other side are the same. Alternatively, the station may move to the center position by moving using an omniwheel to a position having the same length to each side or the same length to one side and the other side.
측정 공간의 중심 위치까지 이동한 스테이션은 스테이션이 측정 공간의 바닥 면과 수평한지 여부를 수평 유지 장치를 이용하여 판단할 수 있으며, 수평하지 않은 경우, 도 11 및 도 13에서 설명한 수평 유지 장치를 이용하여 수평을 조절할 수 있다(S16030).A station that has moved to the center of the measurement space can determine whether the station is horizontal with the floor of the measurement space using a leveling device, and if it is not horizontal, use the leveling device described in FIGS. 11 and 13. Thus, the horizontal can be adjusted (S16030).
예를 들어, 스테이션이 수평하지 않은 경우, 스테이션은 수평 유지 장치인 공압을 이용한 수평 장치를 이용하여 기울어진 쪽의 공압 실린더를 이용하여 높낮이를 조절하여 스테이션이 바닥 면에 수평하도록 조절할 수 있다.For example, when the station is not horizontal, the station may adjust the height of the station using a pneumatic cylinder on the inclined side using a leveling device using pneumatic pressure, which is a leveling device, so that the station is level on the floor surface.
바닥 면과 스테이션이 수평하면 스테이션은 서버 또는 드론에게 이륙을 위한 신호를 전송할 수 있으며, 드론은 서버 또는 스테이션으로부터 이륙을 지시하는 신호를 수신하여 이륙할 수 있다.If the floor surface and the station are horizontal, the station can transmit a signal for take-off to the server or drone, and the drone can take off by receiving a signal instructing take-off from the server or station.
이후, 스테이션은 드론이 중심 위치에서 벗어나지 않고 수직 비행을 수행하도록 이/착륙장에 구비된 복수 개의 레이저 포인터에서 복수개의 레이저 빔을 수직 방향으로 발생시킬 수 있으며(S16040), 드론은 이/착륙장에 표시된 마커 및/또는 복수 개의 레이저 포인터로부터 발생된 복수 개의 레이저 빔을 이용하여 중심 위치를 유지하면서 수직 비행을 수행할 수 있다.Thereafter, the station can generate a plurality of laser beams in a vertical direction from a plurality of laser pointers provided in the take-off/landing ground so that the drone performs vertical flight without deviating from the center position (S16040), and the drone is displayed on the take-off/landing ground. Vertical flight may be performed while maintaining a central position by using a plurality of laser beams generated from a marker and/or a plurality of laser pointers.
이와 같은 방법을 이용하여 스테이션은 스테이션이 위치한 위치가 측정 공간의 중심 위치인지 여부를 판단할 수 있으며, 중심 위치가 아닌 경우, 중심 위치로 이동할 수 있다.Using such a method, the station can determine whether the location where the station is located is the center location of the measurement space, and if it is not the center location, the station can move to the center location.
도 17 및 도 18은 본 발명의 일 실시 예에 따른 무인 항공 로봇이 스테이션을 이용하여 수평 축 위치를 유지하면서 수직 비행을 하기 위한 방법의 일 예를 나타낸다.17 and 18 illustrate an example of a method for performing vertical flight while maintaining a horizontal axis position by using a station in an unmanned aerial vehicle according to an embodiment of the present invention.
도 17을 참조하면, 드론은 측정 공간의 바닥 및/또는 스테이션의 이/착륙장에 표시된 마커를 이용하여 스테이션의 위치로 이동하는 코스 제어를 수행하고, 스테이션의 위치를 인식하면, 스테이션에서 발생되는 복수 개의 레이저 빔을 이용하여 드론이 위치한 특정 공간의 중심 위치로 이동하는 정밀한 파인 제어를 수행할 수 있다.Referring to FIG. 17, the drone performs course control to move to the location of the station using a marker displayed on the floor of the measurement space and/or the take-off/landing area of the station. Using two laser beams, it is possible to perform precise fine control that moves to the center of a specific space where the drone is located.
구체적으로, 드론은 카메라를 이용하여 획득한 측정 공간의 마커에 대한 영상 정보에 기초하여 드론과 스테이션간의 상대적 위치(예를 들면, 자세 등)을 감지할 수 있다. 드론은 감지된 상대적 위치에 기초하여 드론의 위치를 스테이션의 위치와 동일한 위치로 이동시킬 수 있다.Specifically, the drone may detect a relative position (eg, posture, etc.) between the drone and the station based on image information about a marker in a measurement space acquired using a camera. The drone may move the drone's position to the same position as the station's position based on the detected relative position.
이후, 마커에 포함되어 있는 스테이션으로부터 발생되는 복수 개의 레이저 빔을 센서를 통해서 감지하여 드론의 고도에 상관 없이 드론의 위치를 측정 공간의 중심 위치에 정확히 위치하도록 제어할 수 있다.Thereafter, a plurality of laser beams generated from a station included in the marker can be sensed through a sensor, and the position of the drone can be accurately positioned at the center of the measurement space regardless of the altitude of the drone.
즉, 레이저 빔의 경우 먼 거리까지 전송이 가능하기 때문에 드론은 고도에 상관없이 스테이션으로부터 전송되는 레이저 빔을 센서를 통해서 감지할 수 있으며, 드론의 센서는 레이저 빔을 감지하기 위한 광센서(예를 들면, Photodiode: PD)일 수 있다. In other words, since the laser beam can be transmitted to a long distance, the drone can detect the laser beam transmitted from the station regardless of altitude through the sensor, and the sensor of the drone is an optical sensor to detect the laser beam (e.g. For example, it may be Photodiode: PD).
이 경우, 스테이션 또는 측정 공간의 바닥면의 마커를 이동시켜 드론의 위치를 제어할 수 있다.In this case, the position of the drone can be controlled by moving the marker on the floor of the station or measurement space.
예를 들면, 도 17의 (a)에 도시된 바와 같이 드론은 측정 공간의 바닥 면에 마킹된 마커를 카메라를 통해 촬영하여 영상 정보를 획득할 수 있다. 도 17의 (a)에 도시된 마커는 복수 개의 레이저 포인터가 발생하는 복수 개의 레이저 빔이 하나의 마커를 구성할 수 있다. 또한, 도 17의 (a)에는 마커가 측정 공간의 바닥에 마킹된 것으로 도시되어 있지만, 마커는 스테이션의 이/착륙장에도 복수 개의 레이저 포인터를 이용하여 구성될 수 있다.For example, as shown in (a) of FIG. 17, the drone may acquire image information by photographing a marker marked on the floor of the measurement space through a camera. In the marker illustrated in FIG. 17A, a plurality of laser beams from which a plurality of laser pointers are generated may constitute one marker. In addition, although it is shown that the marker is marked on the floor of the measurement space in (a) of FIG. 17, the marker may be configured using a plurality of laser pointers in the take-off/landing ground of the station.
드론은 획득된 영상 정보를 이용하여 드론이 측정 공간의 어느 부분에 위치하는지 여부를 인식할 수 있으며, 측정 공간의 중심 위치에 위치하지 않은 경우, 도 17의 (b)에 중심 위치의 마커가 카메라를 통해 촬영되도록 위치를 이동할 수 있다.The drone can recognize where the drone is located in the measurement space using the acquired image information, and if it is not located at the center of the measurement space, the marker at the center position in FIG. 17(b) is the camera. You can move the location to be photographed through.
이를 통해서 드론은 바닥 면 또는 스테이션과의 상대적인 위치를 인식할 수 있으며, 인식된 상대적인 위치에 따라 드론이 측정 공간의 중심 위치에 위치하도록 제어될 수 있다.Through this, the drone can recognize a position relative to the floor surface or the station, and the drone can be controlled to be located at the center position of the measurement space according to the recognized relative position.
이후, 드론은 중심위치의 바닥 면 또는 스테이션에서 발생되는 복수 개의 레이저 빔을 이용하여 드론이 정확한 중심 위치에 위치하도록 정밀하게 드론의 자세를 제어할 수 있다.Thereafter, the drone can precisely control the attitude of the drone so that the drone is positioned at the correct center position by using a plurality of laser beams generated from the bottom surface of the center position or the station.
구체적으로, 드론은 중심 위치에서 발생되는 복수 개의 레이저 빔을 센서(예를 들면, 광센서 또는 제 1 센서)를 통해서 인식할 수 있으며, 복수 개의 레이저 빔들이 모두 인식되었는지 여부 및 인식된 복수 개의 레이저 빔들이 중심부에 위치하는지 여부에 따라 위치를 제어하여 드론이 측정 공간의 중심 위치에 위치하도록 정밀한 제어를 수행할 수 있다.Specifically, the drone can recognize a plurality of laser beams generated at a central position through a sensor (eg, an optical sensor or a first sensor), and whether or not all of the plurality of laser beams are recognized, and the recognized plurality of lasers By controlling the position depending on whether the beams are located at the center, precise control can be performed so that the drone is located at the center position of the measurement space.
예를 들면, 도 18에 도시된 바와 같이 드론은 복수 개의 레이저 빔이 모두 인식되지 않거나, 중심 위치가 아닌 다른 위치의 마커가 인식되면 드론의 상대적인 위치가 중심 위치가 아니라고 인식할 수 있다. 이 경우, 드론은 중심 위치의 마커가 인식되도록 위치를 변경하여 드론 움직임을 1차 제어할 수 있다.For example, as illustrated in FIG. 18, if all of the plurality of laser beams are not recognized or a marker at a location other than the center position is recognized, the drone may recognize that the relative position of the drone is not the center position. In this case, the drone may first control the movement of the drone by changing its location so that the marker at the center location is recognized.
이후, 중심 위치의 마커에 포함된 복수 개의 레이저 빔이 모두 인식되면 인식된 레이저 빔이 어느 쪽으로 치우쳐져 있는지 여부를 인식할 수 있다. 즉, 인식된 복수 개의 레이저 빔이 (0,0)의 위치에 위치하지 않고, 다른 위치에 위치하는 경우, 드론은 현재 위치가 중심 위치가 아니라고 판단한다.Thereafter, when all of the plurality of laser beams included in the marker at the center position are recognized, it is possible to recognize in which direction the recognized laser beam is skewed. That is, if the recognized plurality of laser beams are not located at the position of (0,0) but are located at different positions, the drone determines that the current position is not the center position.
드론은 복수 개의 레이저 빔이 (0,0)의 위치에 위치하도록 위치를 변경하여 드론이 측정 공간의 중심 위치에 정확히 위치하도록 정밀한 제어를 수행할 수 있다(2차 제어).The drone can perform precise control so that the drone is accurately positioned at the center position of the measurement space by changing the position so that a plurality of laser beams are positioned at the position of (0,0) (secondary control).
이때, 드론은 X축 및 Y 축의 위치를 도 18에 도시된 바와 같이 아래의 수학식 1을 통해서 계산할 수 있다.In this case, the drone can calculate the positions of the X-axis and Y-axis through
또한, 드론은 앞에서 설명한 바와 같이 각 레이저 빔까지의 거리를 측정하여 드론의 자세가 수평을 유지하고 있는지 여부를 인식할 수 있다. 즉, 각 레이저 빔까지의 거리가 다른 경우, 드론은 현자 자세가 수평하지 않다고 판단하고, 각 레이저 빔을 이용한 거리가 동일해지도록 드론의 자세를 조절하여 수평을 유지할 수 있다.Also, as described above, the drone can recognize whether the drone's posture is maintained horizontally by measuring the distance to each laser beam. That is, if the distance to each laser beam is different, the drone may determine that the sage posture is not horizontal, and the posture of the drone may be adjusted so that the distance using each laser beam is the same, thereby maintaining the level.
이와 같이 드론은 1차적으로 카메라를 통한 영상 정보를 이용하여 드론의 상대적인 위치를 인식하여 정밀한 제어를 위한 위치까지 위치를 변경하고, 이후 2차적으로 바닥 면 또는 스테이션에 발생되는 복수 개의 레이져 빔을 센서로 인식하여 정밀한 제어를 수행하여 드론이 중심 위치에 정확히 위치하면서 수직비행을 수행하도록 할 수 있다.In this way, the drone first recognizes the relative position of the drone using image information through the camera, changes the position to the position for precise control, and then secondarily senses a plurality of laser beams generated on the floor or station. By recognizing it as and performing precise control, it is possible to perform vertical flight while the drone is accurately positioned at the center position.
도 19는 본 발명의 일 실시 예에 따른 무인 항공 로봇이 스테이션을 이용하여 수평 축 위치를 유지하면서 수직 비행을 하기 위한 방법의 일 예를 나타내는 순서도이다.19 is a flowchart illustrating an example of a method for performing vertical flight while maintaining a horizontal axis position using a station by an unmanned aerial vehicle according to an embodiment of the present invention.
도 19를 참조하면, 드론은 카메라 및/또는 센서를 이용하여 스테이션으로부터 발생되는 복수 개의 빔을 이용하여 중심 위치인 기준 위치를 유지하며 수직 비행을 수행하여 측정 공간을 고도에 따라 측정할 수 있다.Referring to FIG. 19, the drone maintains a reference position, which is a central position, using a plurality of beams generated from a station using a camera and/or a sensor, and performs vertical flight to measure a measurement space according to an altitude.
이하, 본 실시 예에서 스테이션은 이미 도 14 및 도 15에서 설명한 방법을 통해서 측정 공간의 중심 위치로 이동하였다고 가정한다.Hereinafter, in the present embodiment, it is assumed that the station has already moved to the center position of the measurement space through the method described with reference to FIGS. 14 and 15.
구체적으로, 드론은 측정 공간의 중심위치에 있는 스테이션으로부터 이륙한 뒤, 주기적 또는 비주기적으로 카메라 및/또는 센서를 이용하여 스테이션으로부터 발생되는 복수 개의 레이저 빔을 감지할 수 있다(S19010).Specifically, after taking off from the station at the center of the measurement space, the drone may periodically or aperiodically detect a plurality of laser beams generated from the station using a camera and/or sensor (S19010).
드론은 감지된 복수 개의 레이저 빔을 이용하여 드론의 현재 위치가 이륙할 때의 중심 위치인 기준 위치에서 변경되었는지 여부를 인식할 수 있다.The drone can recognize whether the current position of the drone has changed from the reference position, which is the center position at the time of take-off, using the plurality of detected laser beams.
즉, 드론은 복수 개의 레이저 빔이 모두 인식되는지 여부 및 인식된 복수 개의 레이저 빔이 중심에 위치하는지 여부를 판단하여 드론의 위치가 변경되었는지 여부를 판단할 수 있다.That is, the drone may determine whether the position of the drone has changed by determining whether all of the plurality of laser beams are recognized and whether the recognized plurality of laser beams are located at the center.
드론의 위치가 기준위치에서 변경되지 않은 경우, 드론은 수평축 위치는 기준 위치로 유지하면서 수직 축의 고도를 증가시키는 수직 비행을 수행하며 측정 공간을 고도에 따라 측정한다(S19030).When the position of the drone is not changed from the reference position, the drone performs a vertical flight that increases the altitude of the vertical axis while maintaining the horizontal axis position as the reference position, and measures the measurement space according to the altitude (S19030).
하지만, 드론의 위치가 기준위치에서 변경된 경우, 감지된 레이저 빔에 기초하여 드론의 위치를 제어할 수 있다.However, when the position of the drone is changed from the reference position, the position of the drone may be controlled based on the detected laser beam.
즉, 드론은 도 17 및 도 18에서 설명한 방법에 따라 감지된 레이저 빔을 이용하여 초기 위치인 기준 위치로 이동할 수 있으며, 기준위치로 이동을 한 뒤 드론은 수평축 위치는 기준 위치로 유지하면서 수직 축의 고도를 증가시키는 수직 비행을 수행하며 측정 공간을 고도에 따라 측정한다(S19030).That is, the drone can move to the reference position, which is the initial position, using the laser beam detected according to the method described in FIGS. 17 and 18, and after moving to the reference position, the drone maintains the horizontal axis position as the reference position. Vertical flight is performed to increase the altitude, and the measurement space is measured according to the altitude (S19030).
또한, 스테이션으로부터 발생된 복수 개의 레이저 빔들 각각까지의 거리를 계산하여 도 18에서 설명한 바와 같이 드론의 수평 자세를 제어할 수 있다.In addition, by calculating the distance to each of the plurality of laser beams generated from the station, it is possible to control the horizontal posture of the drone as described in FIG. 18.
드론은 고도에 따라 측정 위치(이하, 벽면)을 측정하기 위해서 1차적으로 드론의 카메라를 통해서 각 벽면을 촬영함으로써 각 벽면에 대한 영상 정보를 획득할 수 있다.In order to measure the measurement location (hereinafter, the wall surface) according to the altitude, the drone can acquire image information on each wall by first photographing each wall through the drone's camera.
이후, 드론은 측정 장치(예를 들면, 3D LiDAR)를 이용하여 2차적으로 각 벽면에 대한 모델링 정보를 획득할 수 있으며, 획득된 영상 정보 및 모델링 정보를 함께 이용하여 각 벽면에 대한 측정 결과를 획득할 수 있다.Thereafter, the drone can secondarily acquire modeling information for each wall using a measurement device (eg, 3D LiDAR), and use the acquired image information and modeling information together to determine the measurement results for each wall. Can be obtained.
즉, 드론은 측정 장치를 통한 레이저 빔을 이용하여 각 벽면 까지의 거리 및 각 벽면의 형태를 인식하고 이를 이용하여 측정 공간에 대한 모델링 정보를 획득할 수 있다.That is, the drone may recognize the distance to each wall surface and the shape of each wall surface using a laser beam through a measuring device, and obtain modeling information on the measurement space by using this.
드론은 획득한 영상 정보 및 모델링 정보를 결합하여 측정 공간에 대한 구체적인 측정 결과를 획득할 수 있으며, 획득된 측정 결과는 스테이션 또는 서버로 무선 통신 수단을 이용하여 전송할 수 있다.The drone may obtain a specific measurement result for a measurement space by combining the acquired image information and modeling information, and the obtained measurement result may be transmitted to a station or a server using a wireless communication means.
이때, 무선 통신 수단은 근거리 통신 수단(예를 들면, Bluetooth) 및/또는 장거리 통신 수단(예를 들면, LTE, LTE-A, Wi-Fi, 5G 등)일 수 있다.In this case, the wireless communication means may be a short-range communication means (eg, Bluetooth) and/or a long-distance communication means (eg, LTE, LTE-A, Wi-Fi, 5G, etc.).
이와 같은 방법을 이용하여 드론은 측정 공간의 중심 위치에서 벗어나는지 여부를 감지하여 정밀하게 위치 제어를 할 수 있으며, 영상 정보 및 모델링 정보를 이용하여 측정 공간을 측정함으로써, 구체적인 측정 공간에 대한 정보를 획득할 수 있다.Using such a method, the drone can precisely control the location by detecting whether it is out of the center position of the measurement space, and by measuring the measurement space using image information and modeling information, information on the specific measurement space can be obtained. Can be obtained.
도 20은 본 발명의 일 실시 예에 따른 무인 항공 로봇이 스테이션을 이용하여 수평 축 위치를 유지하면서 수직 비행을 하기 위한 방법의 또 다른 일 예를 나타내는 순서도이다.FIG. 20 is a flowchart illustrating another example of a method for performing vertical flight while maintaining a horizontal axis position by using a station by an unmanned aerial vehicle according to an embodiment of the present invention.
도 20을 참조하면, 드론은 카메라를 통한 영상 및 센서를 통한 레이저 빔을 감지하여 드론의 위치를 정밀하게 제어함으로써 드론이 측정 위치의 중심 위치에 정확히 위치 하도록 할 수 있다.Referring to FIG. 20, the drone can precisely control the position of the drone by detecting an image through a camera and a laser beam through a sensor, so that the drone is accurately positioned at the center of the measurement position.
구체적으로, 드론은 카메라를 통해서 드론의 위치 및/또는 자세 제어를 위한 측정 공간을 ??영하여 측정공간에 대한 영상을 인식할 수 있다(S20010). 즉, 드론은 1차적으로 카메라를 이용하여 측정 공간의 바닥 면 및/또는 스테이션을 촬영하여 영상 정보를 획득함으로써, 바닥 면 및/또는 스테이션에 표시된 마커를 인식할 수 있다. 이때, 마커는 복수 개의 레이저 포인터에서 발생되는 복수 개의 레이저 빔으로 구성될 수 있다.Specifically, the drone may recognize an image of the measurement space by taking a measurement space for controlling the position and/or posture of the drone through the camera (S20010). That is, the drone may firstly acquire image information by photographing the floor surface and/or the station of the measurement space using a camera, thereby recognizing the floor surface and/or the marker displayed on the station. In this case, the marker may be composed of a plurality of laser beams generated from a plurality of laser pointers.
드론은 카메라를 통해서 인식된 측정 공간의 영상 정보에 광원 패턴인 마커가 포함되어 있는지 여부를 인식하여(S20020), 영상 정보에 마커의 포함 여부에 따라 드론과 스테이션 또는 바닥 면과의 상대적 위치와 관련된 제 1 위치 정보를 획득할 수 있다.The drone recognizes whether a marker, which is a light source pattern, is included in the image information of the measurement space recognized through the camera (S20020), and is related to the relative position between the drone and the station or the floor surface according to whether the marker is included in the image information. First location information may be obtained.
즉, 영상 정보에 마커가 포함되어 있지 않으면 드론은 제 1 위치 정보를 획득할 수 없으며, 카메라를 이용하여 광원 패턴을 다시 탐색할 수 있다(S20030).That is, if the marker is not included in the image information, the drone cannot obtain the first location information, and may search for the light source pattern again using the camera (S20030).
만약, 제 1 위치 정보가 획득되면 드론은 제 1 정보에 기초하여 드론과 바닥 면 또는 스테이션 간의 상대적 위치를 인식할 수 있으며, 인식된 상대적 위치에 기초하여 도 17 내지 도 19에서 설명한 방법에 따라 드론이 기준 위치에 위치하는지 여부를 인식할 수 있다.If the first location information is acquired, the drone can recognize the relative position between the drone and the floor surface or the station based on the first information, and based on the recognized relative position, the drone Whether it is located at this reference position can be recognized.
드론은 드론이 기준 위치에 위치하는지 여부에 따라 제 1 위치 정보에 기초하여 위치/자세를 제어할 수 있다.The drone may control the location/position based on the first location information depending on whether the drone is located at the reference location.
즉, 드론이 기준위치에 위치하지 않으면, 드론은 바닥 면 또는 스테이션으로부터 발생되는 레이저 빔에 기초하여 위치를 이동시키며 드론이 중심 위치에 위치하도록 드론의 위치/자세를 제어할 수 있다(코스 제어(Coarse control), S20040).That is, if the drone is not located at the reference position, the drone moves its position based on the laser beam generated from the floor surface or the station, and the position/position of the drone can be controlled so that the drone is located at the center position (Course control ( Coarse control), S20040).
제 1 위치 정보에 기초하여 드론이 기준 위치로 이동하면 드론은 센서(광센서)를 이용하여 중심 위치의 마커를 구성하는 복수 개의 레이저 빔들의 감지를 시도한다.When the drone moves to the reference position based on the first location information, the drone attempts to detect a plurality of laser beams constituting the marker at the center position using a sensor (optical sensor).
만약, 광 센서를 통해서 복수 개의 레이저 빔들이 모두 인식되지 않은 경우, 드론은 다시 단계 S20030으로 돌아가서 광원 패턴을 다시 탐색한다(S20030).If all of the plurality of laser beams are not recognized through the optical sensor, the drone returns to step S20030 and searches for a light source pattern again (S20030).
하지만, 광센서를 통해서 복 수개의 레이저들이 모두 인식되면, 인식된 복수 개의 레이저 빔들을 인식한 광 센서를 이용하여 현재 드론의 정밀한 위치와 관련된 제 2 위치 정보를 획득할 수 있다(S20050).However, when all of the plurality of lasers are recognized through the optical sensor, second position information related to the precise position of the current drone may be obtained using the optical sensor that has recognized the recognized plurality of laser beams (S20050).
드론은 제 2 위치 정보에 기초하여 도 18에서 설명한 방법과 같이 복수 개의 레이저 빔들이 드론이 감지하는 감지 영역의 중심 위치에 위치하도록 드론의 위치를 정밀하게 제어할 수 있다(파인 제어(fine control), S20060).The drone can precisely control the position of the drone so that a plurality of laser beams are positioned at the center of the detection area detected by the drone, as described in FIG. 18 based on the second location information (fine control). , S20060).
즉, 드론은 복수 개의 레이저 빔들이 드론이 감지하는 감지 영역의 중심 위치에 위치하지 않는 경우, 드론의 수평 축 위치를 변경하여 복수 개의 레이저 빔들이 드론이 감지하는 감지 영역의 중심 위치에 위치하도록할 수 있다.That is, if the plurality of laser beams are not located at the center of the detection area detected by the drone, the drone must change the horizontal axis position of the drone so that the plurality of laser beams are located at the center of the detection area detected by the drone. I can.
드론은 복수 개의 레이저 빔이 드론이 감지하는 감지 영역의 중심 위치에 위치하면, 드론은 수평축 위치는 기준 위치로 유지하면서 수직 축의 고도를 증가시키는 수직 비행을 수행하며 측정 공간을 고도에 따라 측정한다.In a drone, when a plurality of laser beams are located at the center of the detection area detected by the drone, the drone performs vertical flight that increases the elevation of the vertical axis while maintaining the horizontal axis position as the reference position, and measures the measurement space according to the altitude.
또한, 스테이션으로부터 발생된 복수 개의 레이저 빔들 각각까지의 거리를 계산하여 도 18에서 설명한 바와 같이 드론의 수평 자세를 제어할 수 있다.In addition, by calculating the distance to each of the plurality of laser beams generated from the station, it is possible to control the horizontal posture of the drone as described in FIG. 18.
드론은 고도에 따라 측정 위치(이하, 벽면)을 측정하기 위해서 1차적으로 드론의 카메라를 통해서 각 벽면을 촬영함으로써 각 벽면에 대한 영상 정보를 획득할 수 있다.In order to measure the measurement location (hereinafter, the wall surface) according to the altitude, the drone can acquire image information on each wall by first photographing each wall through the drone's camera.
이후, 드론은 측정 장치(예를 들면, 3D LiDAR)를 이용하여 2차적으로 각 벽면에 대한 모델링 정보를 획득할 수 있으며, 획득된 영상 정보 및 모델링 정보를 함께 이용하여 각 벽면에 대한 측정 결과를 획득할 수 있다.Thereafter, the drone can secondarily acquire modeling information for each wall using a measurement device (eg, 3D LiDAR), and use the acquired image information and modeling information together to determine the measurement results for each wall. Can be obtained.
즉, 드론은 측정 장치를 통한 레이저 빔을 이용하여 각 벽면 까지의 거리 및 각 벽면의 형태를 인식하고 이를 이용하여 측정 공간에 대한 모델링 정보를 획득할 수 있다.That is, the drone may recognize the distance to each wall surface and the shape of each wall surface using a laser beam through a measuring device, and obtain modeling information on the measurement space by using this.
드론은 획득한 영상 정보 및 모델링 정보를 결합하여 측정 공간에 대한 구체적인 측정 결과를 획득할 수 있으며, 획득된 측정 결과는 스테이션 또는 서버로 무선 통신 수단을 이용하여 전송할 수 있다.The drone may obtain a specific measurement result for a measurement space by combining the acquired image information and modeling information, and the obtained measurement result may be transmitted to a station or a server using a wireless communication means.
이때, 무선 통신 수단은 근거리 통신 수단(예를 들면, Bluetooth) 및/또는 장거리 통신 수단(예를 들면, LTE, LTE-A, Wi-Fi, 5G 등)일 수 있다.In this case, the wireless communication means may be a short-range communication means (eg, Bluetooth) and/or a long-distance communication means (eg, LTE, LTE-A, Wi-Fi, 5G, etc.).
도 21은 본 발명의 일 실시 예에 따른 측위 방법의 일 예를 나타내는 도이다.21 is a diagram showing an example of a positioning method according to an embodiment of the present invention.
도 21을 참조하면, 드론은 카메라를 이용하여 측정 공간의 벽면에 대한 1차적인 영상 정보를 획득할 수 있으며, 2차 적으로 레이저 센서(예를 들면, LiDAR 센서)를 이용하여 각 벽면까지의 거리 및 벽면의 상태를 인식할 수 있다.Referring to FIG. 21, a drone can acquire primary image information on a wall of a measurement space using a camera, and secondaryly, a laser sensor (eg, LiDAR sensor) can be used to reach each wall. You can recognize the distance and the state of the wall.
먼저, 도 11 내지 도 20에서 설명한 방법에 기초하여 스테이션은 측정 공간의 중심 위치에 위치하고, 드론은 스테이션의 중심 위치를 기준 위치로 하여 수평 축 위치를 고정시키고 수직 축으로 고도를 높이는 수직 비행을 할 수 있다.First, based on the method described in FIGS. 11 to 20, the station is located at the center position of the measurement space, and the drone uses the center position of the station as a reference position to fix the horizontal axis position and perform vertical flight by increasing the altitude along the vertical axis. I can.
드론은 수직 비행을 하면서 사용자에게 서비스를 제공하기 위한 특정 임무를 수행할 수 있다. 예를 들면, 좁은 공간을 측정하는 서비스를 제공하고자 하는 경우, 드론은 수직 비행을 하면서 고도에 따라 주기적 또는 비주기적으로 측정 공간의 각 벽면을 측정할 수 있으며, 측정된 측정 정보를 근거리 통신 수단 또는 원거리 통신 수단을 이용하여 서버 또는 스테이션으로 전송할 수 있다.Drones can perform specific missions to provide services to users while flying vertically. For example, in the case of providing a service for measuring a narrow space, the drone can measure each wall of the measurement space periodically or aperiodically according to the altitude while flying vertically, and the measured measurement information can be used by short-range communication means or It can be transmitted to a server or station using a long-distance communication means.
이 경우, 드론은 사전에 서버 또는 스테이션으로부터 비행할 경로와 관련된 경로 정보를 서버 또는 스테이션으로부터 전송 받을 수 있다.In this case, the drone may receive route information related to the route to be flighted from the server or station in advance from the server or station.
구체적으로, 드론은 수직 비행을 하면서 먼저 도 21의 (a)에 도시된 바와 같이 카메라를 이용하여 각 벽면을 촬영하여 영상 정보를 획득할 수 있다. 영상 정보는 드론이 고도를 상승 시키면서 연속적으로 촬영한 정보일 수 있고, 또는 드론이 특정 고도에 정지하여 촬영한 벽면의 영상 정보일 수 있다.Specifically, the drone may acquire image information by photographing each wall surface using a camera as shown in (a) of FIG. 21 first while flying vertically. The image information may be information continuously photographed while the drone raises the altitude, or may be image information on a wall photographed by the drone stopped at a specific altitude.
이후, 드론은 도 21의 (b)에 도시된 바와 같이 측정 장치인 Lidar 센서를 통해서 영상 정보를 획득한 벽면의 모델링 정보를 획득할 수 있다. 즉, 드론은 측정 장치를 통해서 각 벽면까지의 거리 및 벽면의 상태를 나타내는 모델링 정보를 획득할 수 있다.Thereafter, the drone may acquire modeling information of a wall surface from which image information is acquired through a Lidar sensor, which is a measuring device, as shown in FIG. 21B. That is, the drone may acquire modeling information indicating the distance to each wall and the state of the wall through the measuring device.
드론은 영상 정보 및 모델링 정보를 함께 이용하여 측정 공간에 대한 구체적인 측정 결과를 획득할 수 있으며, 획득한 측정 결과를 서버 및/또는 스테이션으로 전송할 수 있다.The drone may acquire a specific measurement result for the measurement space by using the image information and the modeling information together, and may transmit the obtained measurement result to the server and/or the station.
이와 같이 카메라뿐만 아니라 레이저 센서인 Lidar 센서 등과 같은 정밀 측정 센서를 이용함으로써 구체적인 측위가 가능하다.In this way, specific positioning is possible by using not only a camera but also a precision measurement sensor such as a Lidar sensor, which is a laser sensor.
도 22는 본 발명의 일 실시 예에 따른 측위 방법의 일 예를 나타내는 순서도이다.22 is a flowchart illustrating an example of a positioning method according to an embodiment of the present invention.
먼저, 도 11 내지 도 20에서 설명한 방법에 기초하여 스테이션은 측정 공간의 중심 위치에 위치하고, 드론은 스테이션의 중심 위치를 기준 위치로 하여 수평 축 위치를 고정시키고 수직 축으로 고도를 높이는 수직 비행을 할 수 있다.First, based on the method described in FIGS. 11 to 20, the station is located at the center position of the measurement space, and the drone uses the center position of the station as a reference position to fix the horizontal axis position and perform vertical flight by increasing the altitude along the vertical axis. I can.
이 경우, 드론은 스테이션으로부터 비행을 시작하기 전에 서버 또는 스테이션으로부터 측정 공간을 측위하기 위한 비행 경로와 관련된 비행 경로 정보를 수신할 수 있다(S22010). 단계 S22010은 선택적인 단계로 드론이 단순히 수직 비행을 하는 경우, 수행되지 않을 수 있다. 또는 수직 비행을 하는 경우, 수직 비행의 마지막 위치에 센서가 장착되어 있거나, 드론 자체의 센서를 통해서 드론은 수직 비행을 통한 마지막 측정위치를 감지할 수 있으며, 측정의 마지막 위치에서 측정을 종료하면 드론은 다시 스테이션에 착륙할 수 있다.In this case, the drone may receive flight path information related to the flight path for positioning the measurement space from the server or the station before starting the flight from the station (S22010). Step S22010 is an optional step, and may not be performed when the drone is simply flying vertically. Or, in the case of vertical flight, the sensor is installed at the last position of vertical flight, or through the sensor of the drone itself, the drone can detect the last measurement position through vertical flight, and when the measurement is finished at the last position of the measurement, the drone Can land at the station again.
이후, 드론은 도 11 내지 도 20에서 설명한 방법과 같이 카메라 및 센서를 이용하여 측정 공간의 중심 위치에서 수직 비행을 수행할 수 있다.Thereafter, the drone may perform vertical flight at the center position of the measurement space using a camera and a sensor as in the method described with reference to FIGS. 11 to 20.
드론은 수직비행을 하면서 고도에 따라 카메라를 이용하여 측정 공간을 촬영함으로써 측정 공간을 측위하여 제 1 측위 정보를 획득할 수 있다(S22020). 제 1 측위 정보는 카메라를 통한 영상 정보일 수 있다.The drone may acquire first positioning information by positioning the measurement space by photographing the measurement space using a camera according to the altitude while flying vertically (S22020). The first positioning information may be image information through a camera.
이후, 드론은 라이다 센서를 이용하여 측정 공간을 측위하여 제 2 측정 정보를 획득할 수 있다(S22030). 제 2 측정 정보는 라이다 센서를 통한 레이저 빔을 이용한 측정으로써, 측정 공간의 각 벽면까지의 거리 및 벽면의 상태를 구체적으로 인식할 수 있는 정보이다. 이때, 제 2 측정 정보는 모델링 정보일 수 있다.Thereafter, the drone may acquire second measurement information by positioning a measurement space using a lidar sensor (S22030). The second measurement information is information capable of specifically recognizing the distance to each wall surface of the measurement space and the state of the wall surface by measurement using a laser beam through a lidar sensor. In this case, the second measurement information may be modeling information.
드론은 제 1 측정 정보 및 제 2 측정 정보를 획득한 뒤, 제 1 측정 정보 및 제 2 측정 정보를 이용하여 측정 공간에 대한 측정 결과 정보를 생성한다(S22040).After obtaining the first measurement information and the second measurement information, the drone generates measurement result information on the measurement space by using the first measurement information and the second measurement information (S22040).
즉, 드론은 제 1 측정 정보인 영상 정보와 제 2 측정 정보인 모델링 정보를 결합하여 측정 공간에 대한 영상, 거리, 상태 등과 같은 구체적인 정보를 포함하는 측정 결과 정보를 생성할 수 있다.That is, the drone may generate measurement result information including specific information such as an image, a distance, and a state of a measurement space by combining image information that is the first measurement information and modeling information that is the second measurement information.
이후, 드론은 생성된 측정 결과 정보를 서비 및/또는 스테이션으로 무선 통신 수단을 이용하여 전송할 수 있다.Thereafter, the drone may transmit the generated measurement result information to the service and/or the station using a wireless communication means.
도 23 및 도 24는 본 발명의 일 실시 예에 따른 무인 항공 로봇의 라이더의 일 예를 나타낸다.23 and 24 show an example of a rider of an unmanned aerial robot according to an embodiment of the present invention.
도 23 및 도 24는 라이다 센서의 각각의 예를 나타내는 도면으로, 도 23은 2D 라이다 센서의 일 예를 나타내고, 도 24는 3D 라이다 센서의 일 예를 나타낸다.23 and 24 are diagrams showing examples of each of the lidar sensors, FIG. 23 shows an example of a 2D lidar sensor, and FIG. 24 shows an example of a 3D lidar sensor.
도 23의 2D 라이다 센서들은 도 24의 3D 라이다 센서들보다 크기가 작고, 단순하며, 적은 비용을 요구한다. 하지만, 3D 라이다 센서들보다 구체적이고 정밀한 정보를 획득하기 어렵다.The 2D lidar sensors of FIG. 23 are smaller in size, simpler, and require less cost than the 3D lidar sensors of FIG. 24. However, it is difficult to obtain more detailed and precise information than 3D lidar sensors.
도 24의 3D 라이다 센서들은 도 23의 2D 라이다 센서들보다 크기도 크고, 복잡하며, 많은 비용을 요구하지만, 2D 라이다 센서들보다 구체적이고 정밀한 정보를 획득할 수 있다.The 3D lidar sensors of FIG. 24 are larger in size, complex, and cost more than the 2D lidar sensors of FIG. 23, but more detailed and precise information can be obtained than the 2D lidar sensors.
본 발명의 실시 예에서 드론이 스테이션으로부터 발생되는 복수 개의 빔을 이용하여 자세/위치를 제어하는 경우, 2D 라이다 센서가 사용될 수 있으며, 측정 공간을 측위하기 위해서는 3D 라이다 센서가 사용될 수 있다. 즉, 도 12에서 센서(1115)는 2D 라이다 센서가 사용될 수 있으며, 측위 장치(1113)는 3D 라이다 센서가 사용될 수 있다.In an embodiment of the present invention, when a drone controls its posture/position using a plurality of beams generated from a station, a 2D lidar sensor may be used, and a 3D lidar sensor may be used to position a measurement space. That is, in FIG. 12, a 2D lidar sensor may be used as the
3D 라이다 센서가 사용되는 경우 정보의 처리 연산량이 증가하기 때문에 드론은 별도의 컴퓨팅 파워를 추가적으로 포함할 수 있다.When a 3D lidar sensor is used, the amount of processing of information increases, so the drone can additionally include additional computing power.
본 발명이 적용될 수 있는 장치 일반General devices to which the present invention can be applied
도 25은 본 발명의 일 실시 예에 따른 무선 통신 장치의 블록 구성도를 예시한다.25 illustrates a block diagram of a wireless communication device according to an embodiment of the present invention.
도 25을 참조하면, 무선 통신 시스템은 기지국(또는 네트워크)(2510)와 단말(2520)을 포함한다.Referring to FIG. 25, a wireless communication system includes a base station (or network) 2510 and a
여기서, 단말은 UE, UAV, 드론(Drone), 무선 항공 로봇 등일 수 있다.Here, the terminal may be a UE, a UAV, a drone, or a wireless aerial robot.
기지국(2510)는 프로세서(processor, 2511), 메모리(memory, 2512) 및 통신 모듈(communication module, 2513)을 포함한다. The
프로세서는 앞서 도 1 내지 도 19에서 제안된 기능, 과정 및/또는 방법을 구현한다. 유/무선 인터페이스 프로토콜의 계층들은 프로세서(2511)에 의해 구현될 수 있다. 메모리(2512)는 프로세서(2511)와 연결되어, 프로세서(2511)를 구동하기 위한 다양한 정보를 저장한다. 통신 모듈(2513)은 프로세서(2511)와 연결되어, 유/무선 신호를 송신 및/또는 수신한다.The processor implements the functions, processes and/or methods proposed in FIGS. 1 to 19 above. Layers of the wired/wireless interface protocol may be implemented by the
상기 통신 모듈(2513)은 무선 신호를 송/수신하기 위한 RF부(radio frequency unit)을 포함할 수 있다.The
단말(2520)은 프로세서(2521), 메모리(2522) 및 통신 모듈(또는 RF부)(2523)을 포함한다. 프로세서(2521)는 앞서 도 1 내지 도 19에서 제안된 기능, 과정 및/또는 방법을 구현한다. 무선 인터페이스 프로토콜의 계층들은 프로세서(2521)에 의해 구현될 수 있다. 메모리(2522)는 프로세서(2521)와 연결되어, 프로세서(2521)를 구동하기 위한 다양한 정보를 저장한다. 통신 모듈(2523)는 프로세서(2521)와 연결되어, 무선 신호를 송신 및/또는 수신한다.The terminal 2520 includes a
메모리(2512, 2522)는 프로세서(2511, 2521) 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(2511, 2521)와 연결될 수 있다. The
또한, 기지국(2510) 및/또는 단말(2520)은 한 개의 안테나(single antenna) 또는 다중 안테나(multiple antenna)를 가질 수 있다.In addition, the
도 26은 본 발명의 일 실시 예에 따른 통신 장치의 블록 구성도를 예시한다.26 illustrates a block diagram of a communication device according to an embodiment of the present invention.
특히, 도 26에서는 앞서 도 25의 단말을 보다 상세히 예시하는 도면이다. In particular, FIG. 26 is a diagram illustrating the terminal of FIG. 25 in more detail above.
도 26을 참조하면, 단말은 프로세서(또는 디지털 신호 프로세서(DSP: digital signal processor)(2610), RF 모듈(RF module)(또는 RF 유닛)(2635), 파워 관리 모듈(power management module)(2605), 안테나(antenna)(2640), 배터리(battery)(2655), 디스플레이(display)(2615), 키패드(keypad)(2620), 메모리(memory)(2630), 심카드(SIM(Subscriber Identification Module) card)(2625)(이 구성은 선택적임), 스피커(speaker)(2645) 및 마이크로폰(microphone)(2650)을 포함하여 구성될 수 있다. 단말은 또한 단일의 안테나 또는 다중의 안테나를 포함할 수 있다. Referring to FIG. 26, a terminal includes a processor (or a digital signal processor (DSP) 2610), an RF module (or RF unit) 2635, and a
프로세서(2610)는 앞서 도 1 내지 도 19에서 제안된 기능, 과정 및/또는 방법을 구현한다. 무선 인터페이스 프로토콜의 계층은 프로세서(2610)에 의해 구현될 수 있다. The
메모리(2630)는 프로세서(2610)와 연결되고, 프로세서(2610)의 동작과 관련된 정보를 저장한다. 메모리(2630)는 프로세서(2610) 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(2610)와 연결될 수 있다.The
사용자는 예를 들어, 키패드(2620)의 버튼을 누르거나(혹은 터치하거나) 또는 마이크로폰(2650)를 이용한 음성 구동(voice activation)에 의해 전화 번호 등과 같은 명령 정보를 입력한다. 프로세서(2610)는 이러한 명령 정보를 수신하고, 전화 번호로 전화를 거는 등 적절한 기능을 수행하도록 처리한다. 구동 상의 데이터(operational data)는 심카드(2625) 또는 메모리(2630)로부터 추출할 수 있다. 또한, 프로세서(2610)는 사용자가 인지하고 또한 편의를 위해 명령 정보 또는 구동 정보를 디스플레이(2615) 상에 디스플레이할 수 있다. The user inputs command information such as a phone number, for example, by pressing (or touching) a button on the
RF 모듈(2635)는 프로세서(2610)에 연결되어, RF 신호를 송신 및/또는 수신한다. 프로세서(2610)는 통신을 개시하기 위하여 예를 들어, 음성 통신 데이터를 구성하는 무선 신호를 전송하도록 명령 정보를 RF 모듈(2635)에 전달한다. RF 모듈(2635)은 무선 신호를 수신 및 송신하기 위하여 수신기(receiver) 및 전송기(transmitter)로 구성된다. 안테나(2640)는 무선 신호를 송신 및 수신하는 기능을 한다. 무선 신호를 수신할 때, RF 모듈(2635)은 프로세서(2610)에 의해 처리하기 위하여 신호를 전달하고 기저 대역으로 신호를 변환할 수 있다. 처리된 신호는 스피커(2645)를 통해 출력되는 가청 또는 가독 정보로 변환될 수 있다.The
이상에서 설명된 실시 예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성하는 것도 가능하다. 본 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which components and features of the present invention are combined in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, it is possible to configure an embodiment of the present invention by combining some components and/or features. The order of operations described in the embodiments of the present invention may be changed. Some configurations or features of one embodiment may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments. It is obvious that claims that do not have an explicit citation relationship in the claims may be combined to constitute an embodiment or may be included as a new claim by amendment after filing.
본 발명에 따른 실시 예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.The embodiment according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of implementation by hardware, an embodiment of the present invention provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and FPGAs ( field programmable gate arrays), processors, controllers, microcontrollers, microprocessors, etc.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code can be stored in a memory and driven by a processor. The memory may be located inside or outside the processor, and may exchange data with the processor through various known means.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 통상의 기술자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It is obvious to those skilled in the art that the present invention can be embodied in other specific forms without departing from the essential features of the present invention. Therefore, the above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
2510: 기지국
2520: 단말
2511: 프로세서
2521: 프로세서
2512: 메모리
2522: 메모리
2513: RF 유닛
2523: RF 유닛
2514: 안테나
2524: 안테나2510: base station 2520: terminal
2511: processor 2521: processor
2512: memory 2522: memory
2513: RF unit 2523: RF unit
2514: antenna 2524: antenna
Claims (20)
상기 무인 항공 로봇은,
제 1 카메라 및/또는 제 1 센서를 통해서 스테이션으로부터 발생된 복수 개의 레이저 빔을 감지하고, 상기 감지된 복수 개의 레이저 빔에 기초하여 상기 무인 항공 로봇의 수평 축 위치가 상기 실내 측위를 위한 측정 공간의 중심 위치에 위치하도록 조절하며, 수직 방향으로 비행하면서 상기 측정 공간을 측위하고,
상기 스테이션은,
상기 측정 공간에서의 중심 위치에 위치하기 위해서 레이저 센서를 이용하여 상기 측정 공간의 각 벽면까지의 거리를 측정하고, 측정된 거리에 기초하여 상기 중심 위치로 이동하며, 수평 센서 및 수평 기구 장치를 이용하여 상기 스테이션의 수평을 조절하고, 상기 무인 항공 로봇이 상기 측정 공간의 상기 중심 위치에서 수직 비행을 하면서 상기 측정 공간을 측위하기 위해 복수 개의 레이저 빔 발생 장치 이용하여 상기 복수 개의 레이저 빔을 발생시키는 비행 시스템.
In the flight system for indoor positioning consisting of an unmanned aerial robot, a station and a server of the unmanned aerial robot,
The unmanned aerial robot,
A plurality of laser beams generated from the station are sensed through a first camera and/or a first sensor, and the horizontal axis position of the unmanned aerial vehicle is based on the detected plurality of laser beams. Adjust to be located at the center position, and position the measurement space while flying in a vertical direction,
The station,
In order to be located at the center position in the measurement space, a laser sensor is used to measure the distance to each wall surface of the measurement space, and based on the measured distance, it moves to the center position, and a horizontal sensor and a horizontal mechanism device are used. By adjusting the level of the station, the unmanned aerial vehicle flying vertically at the center position of the measurement space while generating the plurality of laser beams using a plurality of laser beam generators to locate the measurement space system.
상기 무인 항공 로봇은 상기 제 1 카메라를 이용하여 상기 복수 개의 레이저가 발생되는 위치를 인식하고, 상기 감지된 위치에 기초하여 상기 제 1 센서를 이용하여 상기 복수 개의 레이저를 감지하여 상기 무인 항공 로봇이 상기 중심 위치에 위치하는지 여부를 판단하는 비행 시스템.
The method of claim 1,
The unmanned aerial robot recognizes the location where the plurality of lasers are generated using the first camera, and detects the plurality of lasers using the first sensor based on the detected location, so that the unmanned aerial robot A flight system that determines whether or not it is located in the central position.
상기 무인 항공 로봇은 상기 카메라 및/또는 상기 센서를 통해서 상기 복수 개의 레이저 빔이 감지되는지 여부를 이용하여 상기 무인 항공 로봇이 상기 측정 공간의 상기 중심에 위치하는지 여부를 인식하는 비행 시스템.
The method of claim 2,
The unmanned aerial vehicle robot is a flight system that recognizes whether the unmanned aerial robot is located at the center of the measurement space by using whether the plurality of laser beams are detected through the camera and/or the sensor.
상기 복수 개의 레이저 빔 중 적어도 하나의 레이저 빔이 상기 카메라 또는 상기 센서에 의해서 감지되지 않는 경우, 상기 무인 항공 로봇은 상기 무인 항공 로봇이 상기 측정 공간의 중심에서 이동하였다고 인식하고, 상기 복수 개의 레이저 빔이 상기 카메라 또는 상기 센서에 의해서 감지되도록 위치를 이동하는 비행 시스템.
The method of claim 3,
When at least one of the plurality of laser beams is not detected by the camera or the sensor, the unmanned aerial robot recognizes that the unmanned aerial robot has moved from the center of the measurement space, and the plurality of laser beams A flight system that moves the position to be detected by the camera or the sensor.
상기 무인 항공 로봇은 상기 복수 개의 레이저 빔을 이용하여 상기 무인 항공 로봇과 상기 스테이션 간의 거리를 각각 측정하고, 상기 측정된 각각의 거리를 이용하여 상기 무인 항공 로봇이 상기 스테이션과 수평한지 여부를 인식하는 비행 시스템.
The method of claim 1,
The unmanned aerial robot measures a distance between the unmanned aerial robot and the station using the plurality of laser beams, and recognizes whether the unmanned aerial robot is horizontal with the station using the measured distances. Flight system.
상기 측정된 각각의 거리가 서로 다른 경우, 상기 무인 항공 로봇은 스테이션과 수평하지 않다고 인식하고, 상기 측정된 각각의 거리가 동일해지도록 상기 무인 항공 로봇의 수직 및/또는 수평 위치를 조절하는 비행 시스템.
The method of claim 5,
When the measured distances are different, the unmanned aerial robot recognizes that it is not horizontal with the station, and a flight system that adjusts the vertical and/or horizontal position of the unmanned aerial robot so that the measured distances become the same .
상기 무인 항공 로봇은 제 2 카메라를 이용하여 상기 측정 공간을 촬영하여 상기 측정 공간을 측위하기 위한 영상을 획득하는 비행 시스템.
The method of claim 1,
The unmanned aerial vehicle is a flight system for obtaining an image for positioning the measurement space by photographing the measurement space using a second camera.
상기 무인 항공 로봇은 적어도 하나의 3D 라이다 센서를 통해 복수 개의 측정 빔을 발생시키고, 상기 발생된 측정 빔이 상기 측정 공간에 의해서 반사되는 반사 빔을 상기 적어도 하나의 3D 라이다 센서를 통해서 감지하여 상기 측정 공간에 대한 모델링을 획득하고,
상기 영상 및 상기 모델링을 함께 이용하여 상기 측정 공간을 측위하는 비행 시스템.
The method of claim 7,
The unmanned aerial vehicle generates a plurality of measurement beams through at least one 3D lidar sensor, and detects a reflected beam reflected by the measurement space by the generated measurement beam through the at least one 3D lidar sensor. Obtaining modeling for the measurement space,
A flight system for positioning the measurement space by using the image and the modeling together.
상기 무인 항공 로봇은 상기 측위 결과를 서버로 전송하는 비행 시스템.
The method of claim 8,
The unmanned aerial vehicle flight system for transmitting the positioning result to the server.
상기 무인 항공 로봇은 상기 서버로부터 상기 측정 공간을 측위하기 위한 비행 경로와 관련된 경로 정보를 수신하는 비행 시스템.
The method of claim 8,
The unmanned aerial vehicle is a flight system for receiving route information related to a flight path for positioning the measurement space from the server.
상기 스테이션은 상기 레이저 센서를 이용하여 적어도 하나의 레이저 빔을 발생시키고, 상기 적어도 하나의 레이저 빔이 상기 측정 공간의 상기 각 벽면에 의해서 반사된 반사 빔을 감지하여 상기 각 벽면까지의 거리를 측정하는 비행 시스템.
The method of claim 1,
The station generates at least one laser beam using the laser sensor, and the at least one laser beam senses a reflected beam reflected by each of the wall surfaces of the measurement space to measure the distance to each of the wall surfaces. Flight system.
상기 무인 항공 로봇이 일정 거리 이내에 위치하는 경우, 상기 스테이션은 무선 충전 모듈을 이용하여 상기 무인 항공 로봇의 배터리를 충전시키는 비행 시스템.
The method of claim 1,
When the unmanned aerial robot is located within a certain distance, the station uses a wireless charging module to charge the battery of the unmanned aerial robot.
상기 스테이션은 상기 측정된 거리에 기초하여 수평 이동 장치를 이용하여 상기 측정 공간의 상기 중심으로 이동하는 비행 시스템.
The method of claim 1,
The station is a flight system that moves to the center of the measurement space using a horizontal movement device based on the measured distance.
본체;
상기 본체에 구비된 제 1 카메라 및 제 2 카메라;
레이저 빔을 감지하기 위한 제 1 센서 및 제 2 센서;
적어도 하나의 모터;
상기 적어도 하나의 모터 각각에 연결된 적어도 하나의 프로펠러; 및
상기 적어도 하나의 모터와 전기적으로 연결되어 상기 적어도 하나의 모터를 제어하는 프로세서를 포함하되, 상기 프로세서는,
상기 제 1 카메라 및/또는 상기 제 1 센서를 제어하여 스테이션으로부터 발생된 복수 개의 레이저 빔을 감지하고,
상기 감지된 적어도 하나의 레이저 빔에 기초하여 상기 무인 항공 로봇의 수평 축 위치가 상기 측정 공간의 중심 위치에 위치하도록 조절하며,
상기 적어도 하나의 프로펠러를 제어하여 수직 방향으로 비행하면서 상기 측정 공간을 측위하는 것을 특징으로 하는 무인 항공 로봇.
In the unmanned aerial robot for indoor positioning, the unmanned aerial robot,
main body;
A first camera and a second camera provided in the main body;
A first sensor and a second sensor for detecting a laser beam;
At least one motor;
At least one propeller connected to each of the at least one motor; And
And a processor electrically connected to the at least one motor to control the at least one motor, wherein the processor,
Controlling the first camera and/or the first sensor to detect a plurality of laser beams generated from the station,
Adjusting the horizontal axis position of the unmanned aerial robot to be located at the center position of the measurement space based on the sensed at least one laser beam,
An unmanned aerial robot, characterized in that for positioning the measurement space while flying in a vertical direction by controlling the at least one propeller.
상기 제 1 카메라를 이용하여 상기 복수 개의 레이저가 발생되는 위치를 인식하고, 상기 감지된 위치에 기초하여 상기 제 1 센서를 이용하여 상기 복수 개의 레이저를 감지하여 상기 무인 항공 로봇이 상기 중심 위치에 위치하는지 여부를 판단하는 무인 항공 로봇.
The method of claim 14, wherein the processor,
The unmanned aerial robot is positioned at the center position by recognizing the position where the plurality of lasers are generated using the first camera, and detecting the plurality of lasers using the first sensor based on the detected position. Whether or not an unmanned aerial robot.
상기 제 1 카메라 또는 상기 제 1 센서를 통해서 상기 복수 개의 레이저 빔이 감지되는지 여부를 이용하여 상기 무인 항공 로봇이 상기 측정 공간의 상기 중심에 위치하는지 여부를 인식하는 무인 항공 로봇.
The method of claim 15, wherein the processor,
An unmanned aerial robot that recognizes whether the unmanned aerial robot is located at the center of the measurement space based on whether the plurality of laser beams are detected through the first camera or the first sensor.
상기 복수 개의 레이저 빔 중 적어도 하나의 레이저 빔이 상기 제 1 카메라 또는 상기 제 1 센서에 의해서 감지되지 않는 경우, 상기 무인 항공 로봇은 상기 무인 항공 로봇이 상기 측정 공간의 중심에서 이동하였다고 인식하고,
상기 복수 개의 레이저 빔이 상기 카메라 또는 상기 센서에 의해서 감지되도록 위치 변경하기 위해 상기 적어도 하나의 프로펠러를 제어하는 무인 항공 로봇.
The method of claim 16, wherein the processor,
When at least one of the plurality of laser beams is not detected by the first camera or the first sensor, the unmanned aerial robot recognizes that the unmanned aerial robot has moved from the center of the measurement space,
An unmanned aerial robot that controls the at least one propeller to change the position so that the plurality of laser beams are detected by the camera or the sensor.
상기 복수 개의 레이저 빔을 이용하여 상기 무인 항공 로봇과 상기 스테이션 간의 거리를 각각 측정하고,
상기 측정된 각각의 거리를 이용하여 상기 무인 항공 로봇이 상기 스테이션과 수평한지 여부를 인식하는 무인 항공 로봇.
The method of claim 14, wherein the processor,
Each distance between the unmanned aerial vehicle and the station is measured using the plurality of laser beams,
An unmanned aerial robot that recognizes whether the unmanned aerial robot is horizontal with the station using the measured distances.
상기 측정된 각각의 거리가 서로 다른 경우, 상기 무인 항공 로봇은 스테이션과 수평하지 않다고 인식하고,
상기 측정된 각각의 거리가 동일해지도록 상기 무인 항공 로봇의 수직 및/또는 수평 위치를 조절하는 무인 항공 로봇.
The method of claim 18, wherein the processor,
When the measured distances are different from each other, the unmanned aerial robot recognizes that it is not horizontal with the station,
An unmanned aerial robot that adjusts the vertical and/or horizontal position of the unmanned aerial robot so that each of the measured distances becomes the same.
제 2 카메라를 제어하여 상기 측정 공간을 촬영하여 상기 측정 공간을 측위하기 위한 영상을 획득하고,
적어도 하나의 3D 라이다 센서를 제어하여 복수 개의 측정 빔을 발생시키며,
상기 발생된 복수 개의 측정 빔이 상기 측정 공간에 의해서 반사되는 반사 빔을 상기 적어도 하나의 3D 라이다 센서를 제어하여 감지하여 상기 측정 공간에 대한 모델링을 획득하고,
상기 영상 및 상기 모델링을 함께 이용하여 상기 측정 공간을 측위하는 무인 항공 로봇.The method of claim 15, wherein the processor
Controlling a second camera to capture the measurement space to obtain an image for positioning the measurement space,
Controls at least one 3D lidar sensor to generate a plurality of measurement beams,
By controlling the at least one 3D lidar sensor to detect the reflected beams from which the plurality of generated measurement beams are reflected by the measurement space, and obtain modeling for the measurement space,
An unmanned aerial robot that locates the measurement space by using the image and the modeling together.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190131682A KR20210048027A (en) | 2019-10-22 | 2019-10-22 | Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system |
US16/843,223 US20210116941A1 (en) | 2019-10-22 | 2020-04-08 | Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190131682A KR20210048027A (en) | 2019-10-22 | 2019-10-22 | Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210048027A true KR20210048027A (en) | 2021-05-03 |
Family
ID=75491137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190131682A KR20210048027A (en) | 2019-10-22 | 2019-10-22 | Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210116941A1 (en) |
KR (1) | KR20210048027A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220012493A1 (en) * | 2020-07-10 | 2022-01-13 | Alarm.Com Incorporated | Robot localization |
KR102447601B1 (en) * | 2021-11-22 | 2022-09-27 | 주식회사 파블로항공 | Moving method in unmanned aerial vehicle and the unmanned aerial vehicle |
KR20230138568A (en) * | 2022-03-23 | 2023-10-05 | 주식회사 퍼스트씨앤디 | Drone transport system to improve mission range |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210269174A1 (en) * | 2020-02-27 | 2021-09-02 | Greg Douglas Shuff | Drone docking port and method of use |
US11386793B2 (en) * | 2020-07-27 | 2022-07-12 | Verizon Patent And Licensing Inc. | Network optimizations to support unmanned aerial vehicle communications |
US11611937B1 (en) | 2021-01-19 | 2023-03-21 | T-Mobile Innovations Llc | Network-assisted charging prioritization for cellular unmanned aerial vehicles |
US11573564B2 (en) * | 2021-03-03 | 2023-02-07 | At&T Intellectual Property I, L.P. | Smart drone parking |
EP4095036A1 (en) * | 2021-05-25 | 2022-11-30 | VERTLINER Private Company | An autonomous unmanned aerial vehicle for inspection of a vertical building passageway |
CN114035425B (en) * | 2021-11-05 | 2022-07-26 | 广东工业大学 | Virtual and real state synchronization method and system for unmanned aerial vehicle digital twin system |
US20230202663A1 (en) * | 2021-12-27 | 2023-06-29 | Beta Air, Llc | Methods and systems for authentication of an electric aircraft for recharging |
US20240025544A1 (en) * | 2022-07-20 | 2024-01-25 | Sony Group Corporation | Retransmission of signals using aerial vehicles |
-
2019
- 2019-10-22 KR KR1020190131682A patent/KR20210048027A/en unknown
-
2020
- 2020-04-08 US US16/843,223 patent/US20210116941A1/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220012493A1 (en) * | 2020-07-10 | 2022-01-13 | Alarm.Com Incorporated | Robot localization |
US11880212B2 (en) * | 2020-07-10 | 2024-01-23 | Alarm.Com Incorporated | Robot localization |
KR102447601B1 (en) * | 2021-11-22 | 2022-09-27 | 주식회사 파블로항공 | Moving method in unmanned aerial vehicle and the unmanned aerial vehicle |
KR20230138568A (en) * | 2022-03-23 | 2023-10-05 | 주식회사 퍼스트씨앤디 | Drone transport system to improve mission range |
Also Published As
Publication number | Publication date |
---|---|
US20210116941A1 (en) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10869004B2 (en) | Shooting method controlling movement of unmanned aerial robot in unmanned aerial system and apparatus for supporting same | |
US11449054B2 (en) | Method for controlling flight of unmanned aerial robot by unmanned aerial system and apparatus supporting the same | |
US20210208602A1 (en) | Aerial control system | |
US20210405655A1 (en) | Drone, drone station and method for controlling drone take-off using drone station | |
US20210263538A1 (en) | Unmanned aerial vehicle and unmanned aerial vehicle system | |
KR20210048027A (en) | Positioning method using unmanned aerial robot and device for supporting same in unmanned aerial system | |
US20210157336A1 (en) | Unmanned aerial vehicle and station | |
US11579606B2 (en) | User equipment, system, and control method for controlling drone | |
US11492110B2 (en) | Method of landing unmanned aerial robot through station recognition in unmanned aerial system and device supporting the same | |
KR102276649B1 (en) | Method for charging battery of unmanned aerial robot and device for supporting same in unmanned aerial system | |
US20210331813A1 (en) | Method and device for landing unmanned aerial vehicle | |
US11459101B2 (en) | Method of flying unmanned aerial robot in unmanned aerial system and apparatus for supporting the same | |
US11485516B2 (en) | Precise landing method of unmanned aerial robot using multi-pattern in unmanned aerial control system and apparatus therefor | |
US20200036886A1 (en) | Method for photographing an unmanned aerial robot and a device for supporting the same in an unmanned aerial vehicle system | |
KR20210114647A (en) | Device, system and method for controlling unmanned areial vehicle | |
US20210331798A1 (en) | Unmanned aerial robot landing method through station recognition in unmanned aerial system and apparatus for supporting the same | |
US20210197968A1 (en) | Unmanned aerial vehicle | |
US20210240205A1 (en) | Measuring method using unmanned aerial robot and device for supporting same in unmanned aerial system | |
US20200142432A1 (en) | Method of landing unmanned aerial robot using posture control thereof in unmanned aerial system and apparatus for supporting the same | |
KR20190104923A (en) | Attitude Control Method of Unmanned Aerial Robot Using Station Recognition in Unmanned Aerial System and Apparatus for Supporting It | |
KR102596385B1 (en) | Motor for drone and drone having the same | |
US12150088B2 (en) | Positioning method and device using sidelink RTT in NR V2X |