KR20210122458A - Unmanned aerial vehicle and control method thereof - Google Patents
Unmanned aerial vehicle and control method thereof Download PDFInfo
- Publication number
- KR20210122458A KR20210122458A KR1020200039607A KR20200039607A KR20210122458A KR 20210122458 A KR20210122458 A KR 20210122458A KR 1020200039607 A KR1020200039607 A KR 1020200039607A KR 20200039607 A KR20200039607 A KR 20200039607A KR 20210122458 A KR20210122458 A KR 20210122458A
- Authority
- KR
- South Korea
- Prior art keywords
- main body
- unmanned aerial
- aerial vehicle
- target
- motors
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000004891 communication Methods 0.000 claims description 37
- 238000001514 detection method Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 15
- 230000001133 acceleration Effects 0.000 description 7
- 230000002265 prevention Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 235000013601 eggs Nutrition 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/16—Flying platforms with five or more distinct rotor axes, e.g. octocopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D27/00—Arrangement or mounting of power plants in aircraft; Aircraft characterised by the type or position of power plants
- B64D27/02—Aircraft characterised by the type or position of power plants
- B64D27/24—Aircraft characterised by the type or position of power plants using steam or spring force
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/30—Constructional aspects of UAVs for safety, e.g. with frangible components
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/10—Propulsion
- B64U50/19—Propulsion using electrically powered motors
-
- B64C2201/042—
-
- B64C2201/127—
-
- B64C2201/141—
-
- B64C2201/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T50/00—Aeronautics or air transport
- Y02T50/60—Efficient propulsion technologies, e.g. for aircraft
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 무인 항공기 및 그것의 제어 방법에 관한 것이다. The present invention relates to an unmanned aerial vehicle and its control method.
무인 항공기(Unmanned Aerial Vehicle, UAV)는 조종사 없이 스스로 및/또는 원격조종기로부터 수신되는 무선전파의 유도에 의하여 비행하는 물체를 의미한다. 최근 무인 비행기는 정찰, 공격 등의 군사적 용도 이외에 관측/배달과 같은 상업용과 영상 촬영과 같은 민간용에도 활용이 증가되고 있다. An unmanned aerial vehicle (UAV) refers to an object flying by itself and/or by induction of radio waves received from a remote controller without a pilot. Recently, in addition to military uses such as reconnaissance and attack, unmanned aerial vehicles are increasingly used for commercial purposes such as observation/delivery and for civilian purposes such as video shooting.
도 1 및 도 2를 이용하여 무인 항공기에 대하여 보다 구체적으로 설명한다. 도 1은 본 발명에 따른 무인 항공기의 일 형태를 나타내는 사시도이고, 도 2는 본 발명에 따른 무인 항공기를 설명하기 위한 블록도이다.An unmanned aerial vehicle will be described in more detail with reference to FIGS. 1 and 2 . 1 is a perspective view showing one form of an unmanned aerial vehicle according to the present invention, and FIG. 2 is a block diagram illustrating an unmanned aerial vehicle according to the present invention.
우선, 무인 항공기(100)는 지상의 관리자에 의해 수동 조작되거나, 설정된 비행 프로그램에 의해 자동 조종되면서 무인 비행한다. 하게 되는 것이다. 무인 항공기(100)는 도 1에서와 같이 본체(20), 동력 제공부(10) 및 착륙용 레그(130) 중 적어도 하나를 포함한다. First, the unmanned
본체(20)는 작업 모듈(40)이 장착되는 몸체 부위이다. 작업 모듈(40)은 무인 항공기(100)에 요구되는 기능에 따라 본체(20)에 탈부착이 가능한 하드웨어 모듈이다. 예를 들어, 객체를 쥐거나 놓을 수 있는 로봇 암(Robot Arm), 짐벌(Gimbal), The
동력 제공부(10)는 본체(20)에 수직으로 설치되는 하나 이상의 프로펠러(11)로 이루어지는 것으로, 본 발명의 실시예에 따른 동력 제공부(10)는 서로 이격 배치된 복수개의 프로펠러(11)와 모터(12)로 이루어질 수 있다. 여기서 동력 제공부(10)는 프로펠러(11)가 아닌 에어 분사형 추진기 구조로 이루어질 수도 있다.The
복수 개의 프로펠러 지지부는 본체(20)에서 방사상으로 형성된다. 각각의 프로펠러 지지부에는 모터(12)가 장착될 수 있다. 각각의 모터(12)에는 프로펠러(11)가 장착된다.A plurality of propeller supports are formed radially from the
복수 개의 프로펠러(11)는 본체(20)를 중심을 기준하여 대칭되게 배치될 수 있다. 그리고 복수 개의 프로펠러(11)의 회전 방향은 시계 방향과 반 시계 방향이 조합되도록 모터(12)의 회전 방향이 결정될 수 있다. 본체(20)를 중심을 기준하여 대칭되는 한 쌍의 프로펠러(11)의 회전 방향은 동일(예를 들어, 시계 방향)하게 설정될 수 있다. 그리고 다른 한 쌍의 프로펠러(11)은 이와 달리 회전 방향이 반대일 수 있다(예를 들어, 시계 반대 방향).The plurality of
착륙용 레그(30)는 본체(20)의 저면에 서로 이격 배치된다. 또한, 착륙용 레그(30)의 하부에는 무인 항공기(100)가 착륙할 때 지면과의 충돌에 의한 충격을 최소화하는 완충 지지부재(미도시)가 장착될 수 있다. 물론 무인 항공기(100)는 상술한 바와 다른 비행체 구성의 다양한 구조로 이루어질 수 있다.The
도 2를 참조하면, 무인 항공기(100)는은 안정적으로 비행하기 위해서 각종 센서들을 이용해 자신의 비행상태를 측정한다. 무인 항공기(100)는 적어도 하나의 센서를 포함하는 센싱부(130)를 포함할 수 있다.Referring to FIG. 2 , the unmanned
무인 비행체(100)의 비행상태는 회전운동상태(Rotational States)와 병진운동상태(Translational States)로 정의된다.The flight state of the unmanned
회전운동상태는 ‘요(Yaw)’, ‘피치 (Pitch)’, 및 ‘롤 (Roll)’을 의미하며, 병진운동상태는 경도, 위도, 고도, 및 속도를 의미한다.The rotational state means ‘Yaw’, ‘Pitch’, and ‘Roll’, and the translational state means longitude, latitude, altitude, and speed.
여기서, ‘롤’, ‘피치’, 및 ‘요’는 오일러 (Euler) 각도라 부르며, 비행기 기체좌표 x, y, z 세 축이 어떤 특정 좌표, 예를 들어, NED 좌표 N, E, D 세 축에 대하여 회전된 각도를 나타낸다. 비행기 전면이 기체좌표의 z축을 기준으로 좌우로 회전할 경우, 기체좌표의 x축은 NED 좌표의 N축에 대하여 각도 차이가 생기게 되며, 이각도를 "요"(Ψ)라고 한다. 비행기의 전면이 오른쪽으로 향한 y축을 기준으로 상하로 회전을 할 경우, 기체좌표의 z축은 NED 좌표의 D축에 대하여 각도 차이가 생기게 되며, 이 각도를 "피치"(θ)라고 한다. 비행기의 동체가 전면을 향한 x축을 기준으로 좌우로 기울게 될 경우, 기체좌표의 y축은 NED 좌표의 E축에 대하여 각도가 생기게 되며, 이 각도를 "롤"(Φ)이라 한다.Here, 'roll', 'pitch', and 'yaw' are called Euler angles, and the plane aircraft coordinates x, y, and z are some specific coordinates, for example, NED coordinates N, E, D. It represents the angle rotated about the axis. When the front of the airplane rotates left and right based on the z-axis of the aircraft coordinates, the x-axis of the aircraft coordinates is angularly different with respect to the N-axis of the NED coordinates, and this angle is called "yaw" (Ψ). When the front of the airplane rotates up and down based on the y-axis pointing to the right, an angle difference occurs between the z-axis of the aircraft coordinates and the D-axis of the NED coordinates, and this angle is called "pitch" (θ). When the fuselage of the airplane is tilted left and right based on the x-axis facing the front, the y-axis of the aircraft coordinates is angled with respect to the E-axis of the NED coordinates, and this angle is called "roll" (Φ).
무인 항공기(100)는 회전운동상태를 측정하기 위해 3축 자이로 센서(Gyroscopes), 3축 가속도 센서(Accelerometers), 및 3축 지자기 센서(Magnetometers)를 이용하고, 병진운동상태를 측정하기 위해 GPS 센서와 기압 센서(Barometric Pressure Sensor)를 이용한다.The unmanned
본 발명의 센싱부(130)는 자이로 센서, 가속도 센서, GPS 센서, 영상 센서 및 기압 센서 중 적어도 하나를 포함한다. 여기서, 자이로 센서와 가속도 센서는 무인 비행체(100)의 기체좌표(Body Frame Coordinate)가 지구관성좌표(Earth Centered Inertial Coordinate)에 대해 회전한 상태와 가속된 상태를 측정해주는데, MEMS(MicroElectro-Mechanical Systems) 반도체 공정기술을 이용해 관성측정기(IMU: Inertial Measurement Unit)라 부르는 단일 칩(Single Chip)으로 제작될 수도 있다.The
또한, IMU 칩 내부에는 자이로 센서와 가속도 센서가 측정한 지구관성좌표 기준의 측정치들을 지역좌표(Local Coordinate), 예를 들어 GPS가 사용하는 NED(North-East-Down) 좌표로 변환해주는 마이크로 컨트롤러가 포함될 수 있다.In addition, inside the IMU chip, there is a microcontroller that converts the measurements based on the Earth's inertial coordinates measured by the gyro sensor and the acceleration sensor into local coordinates, for example, NED (North-East-Down) coordinates used by GPS. may be included.
자이로 센서는 무인 비행체(100)의 기체좌표 x, y, z 세 축이 지구관성 좌표에 대하여 회전하는 각속도를 측정한 후 고정좌표로 변환된 값(Wx.gyro, Wy.gyro, Wz.gyro)을 계산하고, 이 값을 선형 미분방정식을 이용해 오일러 각도(Φgyro, θgyro, ψgyro)로 변환한다.The gyro sensor measures the angular velocity at which the three axes of the aircraft coordinates x, y, and z rotate with respect to the earth inertia coordinates of the unmanned
가속도 센서는 무인 비행체(100)의 기체좌표 x, y, z 세 축의 지구관성좌표에 대한 가속도를 측정한 후 고정좌표로 변환된 값(fx,acc, fy,acc, fz,acc)을 계산하고, 이 값을 ‘롤(Φacc)’과 ‘피치(θacc)’로 변환하며, 이 값 들은 자이로 센서의 측정치를 이용해 계산한 ‘롤(Φgyro)’과 ‘피치(θgyro)’에 포함된 바이어스 오차를 제거하는 데 이용된다.The acceleration sensor measures the acceleration of the unmanned
지자기 센서는 무인 비행체(100)의 기체좌표 x, y, z 세 축의 자북점에 대한 방향을 측정하고, 이 값을 이용해 기체좌표의 NED 좌표에 대한 ‘요’ 값을 계산한다.The geomagnetic sensor measures the direction of the magnetic north point of the three axes of the aircraft coordinates x, y, and z of the unmanned
GPS 센서는 GPS 위성들로부터 수신한 신호를 이용해 NED 좌표 상에서 무인 비행체(100)의 병진운동상태, 즉, 위도(Pn.GPS), 경도(Pe.GPS), 고도(hMSL.GPS), 위도 상의 속도(Vn.GPS), 경도 상의 속도(Ve.GPS), 및 고도 상의 속도(Vd.GPS)를 계산한다. 여기서, 첨자 MSL은 해수면(MSL: Mean Sea Level)을 의미한다.The GPS sensor uses signals received from GPS satellites to determine the translational motion state of the unmanned
기압 센서는 무인 비행체(100)의 고도(hALP.baro)를 측정할 수 있다. 여기서, 첨자 ALP는 기압(Air-Level Pressor)을 의미하며, 기압 센서는 무인 비행체(100)의 이륙시 기압과 현재 비행고도에서의 기압을 비교해 이륙 지점으로부터의 현재 고도를 계산한다.The barometric pressure sensor may measure the altitude (hALP.baro) of the unmanned
카메라 센서는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수 개의 광다이오드(photodiode, 예를 들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다. The camera sensor includes at least one optical lens and an image sensor (eg, CMOS image sensor) including a plurality of photodiodes (eg, pixels) that are imaged by light passing through the optical lens; It may include a digital signal processor (DSP) that configures an image based on signals output from the photodiodes. The digital signal processor may generate a still image as well as a moving picture composed of frames composed of still images.
무인 항공기(100)는, 정보를 입력받거나 수신하고 정보를 출력하거나 송신하는 커뮤니케이션 모듈(170)을 포함한다. 커뮤니케이션 모듈(170)은 외부의 다른 기기와 정보를 송수신하는 무선 통신부(175)를 포함할 수 있다. 커뮤니케이션 모듈(170)은 정보를 입력하는 입력부(171)를 포함할 수 있다. 커뮤니케이션 모듈(170)은 정보를 출력하는 출력부(173)를 포함할 수 있다.The unmanned
물론, 출력부(173)는 무인 비행체(100)에 생략되고 단말기(300)에 형성될 수 있다.Of course, the
일 예로, 무인 항공기(100)는 입력부(171)로부터 직접 정보를 입력받을 수 있다. 다른 예로, 무인 항공기(100)는 별도의 단말기(300) 또는 서버(200)에 입력된 정보를 무선 통신부(175)를 통해 수신받을 수 있다.For example, the unmanned
일 예로, 무인 항공기(100)는 출력부(173)로 직접 정보를 출력시킬 수 있다. 다른 예로, 무인 항공기(100)는 무선 통신부(175)를 통해 별도의 단말기(300)로 정보를 송신하여, 단말기(300)가 정보를 출력하게 할 수 있다.For example, the unmanned
무선 통신부(175)는, 외부의 서버(200), 단말기(300) 등과 통신하게 구비될 수 있다. 무선 통신부(175)는, 스마트폰이나 컴퓨터 등의 단말기(300)로부터 입력된 정보를 수신할 수 있다. 무선 통신부(175)는 단말기(300)로 출력될 정보를 송신할 수 있다. 단말기(300)는 무선 통신부(175)로부터 받은 정보를 출력할 수 있다.The
무선 통신부(175)는 단말기(300) 또는/및 서버(200)로부터 각종 명령 신호를 수신할 수 있다. 무선 통신부(175)는 단말기(300) 또는/및 서버(200)로부터 주행을 위한 구역 정보, 주행 경로, 주행 명령을 수신받을 수 있다. 여기서, 구역 정보는 비행 제한 구역(A) 정보, 접근 제한 거리 정보를 포함할 수 있다.The
입력부(171)는 On/Off 또는 각종 명령을 입력받을 수 있다. 입력부(171)는 구역 정보를 입력받을 수 있다. 입력부(171)는 물건 정보를 입력받을 수 있다. 입력부(171)는, 각종 버튼이나 터치패드, 또는 마이크 등을 포함할 수 있다.The
출력부(173)는 각종 정보를 사용자에게 알릴 수 있다. 출력부(173)는 스피커 및/또는 디스플레이를 포함할 수 있다. 출력부(173)는 주행 중 감지한 발견물의 정보를 출력할 수 있다. 출력부(173)는 발견물의 식별 정보를 출력할 수 있다. 출력부(173)는 발견물의 위치 정보를 출력할 수 있다.The
무인 항공기(100)는 맵핑 및/또는 현재 위치를 인식하는 등 각종 정보를 처리하고 판단하는 프로세서(140)를 포함한다. 프로세서(140)는 무인 비행체(100)를 구성하는 각종 구성들의 제어를 통해, 무인 비행체(100)의 동작 전반을 제어할 수 있다.The unmanned
프로세서(140)는 커뮤니케이션 모듈(170)로부터 정보를 받아 처리할 수 있다. 프로세서(140)는 입력부(171)로부터 정보를 입력 받아 처리할 수 있다. 프로세서(140)는 무선 통신부(175)로부터 정보를 받아 처리할 수 있다.The
프로세서(140)는 센싱부(130)로부터 감지 정보를 입력 받아 처리할 수 있다. 프로세서(140)는 모터(12)의 구동을 제어할 수 있다. 프로세서(140)는 작업 모듈(40)의 동작을 제어할 수 있다.The
무인 항공기(100)는 각종 데이터를 저장하는 메모리(150)를 포함한다. 메모리(150)는 무인 비행체(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다.The unmanned
메모리(150)에는 주행구역에 대한 맵이 저장될 수 있다. 맵은 무인 비행체(100)와 무선 통신부(175)를 통해 정보를 교환할 수 있는 외부 단말기(300)에 의해 입력된 것일 수도 있고, 무인 비행체(100)가 스스로 학습을 하여 생성한 것일 수도 있다. 전자의 경우, 외부 단말기(300)로는 맵 설정을 위한 어플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다.The
도 3은 본 발명의 일 실시예에 따른 항공 제어 시스템의 주요 구성들 간의 제어관계를 도시한 블록도이다.3 is a block diagram illustrating a control relationship between main components of an aviation control system according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 다른 항공 제어 시스템은 무인 비행체(100)와 서버(200)를 포함하거나, 무인 비행체(100), 단말기(300) 및 서버(200)를 포함할 수 있다. 무인 비행체(100), 단말기(300) 및 서버(200)는 서로 무선 통신 방법으로 연결된다.Referring to FIG. 3 , the flight control system according to an embodiment of the present invention may include an unmanned
무선 통신 방법은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 사용될 수 있다.The wireless communication method is GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband) CDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), etc. may be used.
무선 통신 방법은 무선 인터넷 기술이 사용될 수 있다. 무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G 등이 있다. 특히 5G 통신망을 이용하여 데이터를 송수신함으로써 보다 빠른 응답이 가능하다.As the wireless communication method, wireless Internet technology may be used. As wireless Internet technologies, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G, and the like. In particular, faster response is possible by transmitting and receiving data using the 5G communication network.
본 명세서에서 기지국은 단말과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미를 갖는다. 본 명세서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다. 즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 단말과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있음은 자명하다. '기지국(BS: Base Station)'은 고정국(fixed station), Node B, eNB(evolved-NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), gNB(Next generation NodeB) 등의 용어에 의해 대체될 수 있다. 또한, '단말(Terminal)'은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치 등의 용어로 대체될 수 있다.In this specification, the base station has a meaning as a terminal node of a network that directly communicates with the terminal. A specific operation described as being performed by the base station in this specification may be performed by an upper node of the base station in some cases. That is, it is obvious that various operations performed for communication with the terminal in a network including a plurality of network nodes including the base station may be performed by the base station or other network nodes other than the base station. 'Base station (BS: Base Station)' is a fixed station (fixed station), Node B, eNB (evolved-NodeB), BTS (base transceiver system), access point (AP: Access Point), gNB (Next generation NodeB), such as may be replaced by terms. In addition, 'terminal' may be fixed or have mobility, UE (User Equipment), MS (Mobile Station), UT (user terminal), MSS (Mobile Subscriber Station), SS (Subscriber Station), AMS ( Advanced Mobile Station), a wireless terminal (WT), a machine-type communication (MTC) device, a machine-to-machine (M2M) device, a device-to-device (D2D) device, and the like.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다.Hereinafter, downlink (DL: downlink) means communication from a base station to a terminal, and uplink (UL: uplink) means communication from a terminal to a base station. In the downlink, the transmitter may be a part of the base station, and the receiver may be a part of the terminal. In the uplink, the transmitter may be a part of the terminal, and the receiver may be a part of the base station.
이상 무인 항공기와 관련된 기술로 대한민국 공개특허공보 10-2019-0110499가 있다. As a technology related to the above unmanned aerial vehicle, there is Korean Patent Publication No. 10-2019-0110499.
본 발명의 일 목적은 실내 및 실외에서도 강인한 비행을 수행하는 무인 항공기 및 그것의 제어 방법을 제공하는 것이다. One object of the present invention is to provide an unmanned aerial vehicle that performs robust flight indoors and outdoors, and a control method thereof.
본 발명은 센싱 정보를 이용하여 실내와 실외를 구분하며, 본체의 위치에 따라 효율적으로 배터리를 관리할 수 있는 무인 항공기 및 그것의 제어 방법을 제공한다. The present invention provides an unmanned aerial vehicle capable of classifying indoors and outdoors by using sensing information, and efficiently managing a battery according to the location of a main body, and a control method thereof.
나아가, 실내와 실외의 공간적 특수성을 고려하여 서로 다른 기능을 수행하도록 가드를 활용하는 무인 항공기 및 그것의 제어 방법을 제공한다. Furthermore, an unmanned aerial vehicle using a guard to perform different functions in consideration of the spatial specificity of indoors and outdoors, and a control method thereof are provided.
상술한 과제를 해결하기 위하여 본 발명은 무인 항공기 및 그것의 제어 방법을 제공한다. In order to solve the above problems, the present invention provides an unmanned aerial vehicle and a control method thereof.
상기 무인 항공기는, 본체; 상기 본체에 구비되는 센서; 상기 본체가 수평이동 및 수직이동 중 적어도 하나를 수행하도록 동력을 제공하는 복수의 모터들; 및 상기 센서로부터 수신되는 센싱 정보에 근거하여 상기 복수의 모터들 중 적어도 하나를 제어하는 프로세서를 포함하며, 서로 다른 지점에 설치된 복수의 카메라들 중 적어도 하나를 통해 타겟이 탐색되는 경우, 상기 타겟에 대응하는 타겟 정보를 수신하는 무선 통신부를 더 포함하며, 상기 프로세서는, 상기 타겟 정보에 근거하여 목적지 및 이동 경로 중 적어도 하나를 설정하고, 상기 본체가 상기 목적지로 이동하도록 상기 모터들 중 적어도 하나를 제어하며, 상기 복수의 카메라들 중 상기 타겟이 탐색된 카메라가 달리짐에 따라 상기 목적지도 가변된다.The unmanned aerial vehicle may include: a main body; a sensor provided in the body; a plurality of motors for providing power to the main body to perform at least one of a horizontal movement and a vertical movement; and a processor for controlling at least one of the plurality of motors based on the sensing information received from the sensor. Further comprising a wireless communication unit for receiving the corresponding target information, the processor, based on the target information to set at least one of a destination and a movement path, and to move at least one of the motors so that the main body moves to the destination and the destination is also varied as the camera for which the target is searched from among the plurality of cameras runs.
일 실시 예에 따르면, 상기 무선 통신부를 통해 상기 타겟을 촬영한 타겟 이미지가 수신되며, 상기 센서에는 이미지를 생성하는 이미지 센서가 포함되고, 상기 프로세서는, 상기 목적지에 도착하는 경우, 상기 이미지 센서 및 상기 타겟 이미지를 이용하여 상기 타겟을 탐색할 수 있다.According to an embodiment, a target image obtained by photographing the target is received through the wireless communication unit, the sensor includes an image sensor generating an image, and the processor, when arriving at the destination, the image sensor and The target may be searched for by using the target image.
일 실시 예에 따르면, 상기 프로세서는, 상기 이미지 센서를 통해 상기 타겟이 탐색되는 경우, 상기 타겟을 추종하는 추종 비행이 이루어지도록 상기 모터들 중 적어도 하나를 제어할 수 있다. According to an embodiment, when the target is searched for through the image sensor, the processor may control at least one of the motors to make a follow-up flight following the target.
일 실시 예에 따르면, 상기 센싱 정보에 의하여 상기 본체의 위치가 결정되며, 상기 프로세서는, 상기 본체의 위치가 실내인 경우 제1 추종 비행이 이루어지도록 상기 모터들 중 적어도 하나를 제어하고, 상기 본체의 위치가 실외인 경우 상기 제1 추종 비행과 다른 제2 추종 비행이 이루어지도록 상기 모터들 중 적어도 하나를 제어할 수 있다.According to an embodiment, the position of the main body is determined by the sensing information, and the processor controls at least one of the motors to make a first following flight when the position of the main body is indoors, and the main body When the position of is outdoors, at least one of the motors may be controlled so that a second following flight different from the first following flight is performed.
또한, 본 발명의 일 실시 예에 따른 무인 항공기는, 본체; 상기 본체가 수평이동 및 수직이동 중 적어도 하나를 수행하도록 동력을 제공하는 복수의 모터들; 상기 본체를 기준으로 적어도 일 방향을 촬영한 이미지를 생성하는 이미지 센서; 상기 이미지를 이용하여 사용자의 제스처를 탐색하는 제스처 탐지부; 및 상기 제스처 탐지부가 기 설정된 제스처를 탐색하는 경우, 상기 본체가 상기 기 설정된 제스처에 대응하는 움직임을 수행하도록 상기 프로펠러들 중 적어도 하나를 제어하는 프로세서를 포함할 수 있다.In addition, the unmanned aerial vehicle according to an embodiment of the present invention, the main body; a plurality of motors for providing power to the main body to perform at least one of a horizontal movement and a vertical movement; an image sensor for generating an image photographed in at least one direction with respect to the body; a gesture detection unit that searches for a user's gesture using the image; and a processor for controlling at least one of the propellers so that, when the gesture detector detects a preset gesture, the main body performs a movement corresponding to the preset gesture.
일 실시 예에 따르면, 상기 기 설정된 제스처에 대응하는 상기 움직임의 움직임 방향은 상기 본체와 상기 사용자의 상대적 위치에 따라 가변될 수 있다.According to an embodiment, the movement direction of the movement corresponding to the preset gesture may vary according to the relative positions of the main body and the user.
또한, 본 발명의 일 실시 예에 따른 무인 항공기는, 본체; 위성으로부터 수신되는 신호를 이용하여 상기 본체의 위치 정보를 생성하는 위치 정보 모듈; 상기 본체에 구비되는 센서; 및 상기 센서에서 생성되는 센싱 정보에 의하여 상기 본체의 위치가 실내 또는 실외 중 어느 하나로 결정되며, 상기 본체의 위치에 근거하여 상기 위치 정보를 선택적으로 이용하는 프로세서를 포함할 수 있다.In addition, the unmanned aerial vehicle according to an embodiment of the present invention, the main body; a location information module for generating location information of the main body using a signal received from a satellite; a sensor provided in the body; and a processor in which the location of the main body is determined to be either indoors or outdoors by the sensing information generated by the sensor, and selectively uses the location information based on the location of the main body.
일 실시 예에 따르면, 상기 프로세서는, 상기 본체의 위치가 실내인 경우 상기 위치 정보 모듈을 오프 시키고, 상기 본체의 위치가 실외인 경우 상기 위치 정보 모듈을 온 시킬 수 있다.According to an embodiment, the processor may turn off the location information module when the location of the main body is indoors, and turn on the location information module when the location of the main body is outdoors.
또한, 본 발명의 일 실시 예에 따른 무인 항공기는, 본체; 상기 본체가 수평이동 및 수직이동 중 적어도 하나를 수행하도록 동력을 제공하는 복수의 모터들; 및 상기 본체가 비행하도록 상기 모터들 중 적어도 하나를 제어하는 프로세서를 포함하며, 상기 본체의 일 면에 연결되는 제1 가드; 상기 본체의 타 면에 연결되는 제2 가드; 기준축을 중심으로 상기 제1 가드가 시계방향으로 회전하도록 외력을 제공하는 제1 액츄에이터; 및 상기 기준축을 중심으로 상기 제2 가드가 반시계방향으로 회전하도록 외력을 제공하는 제2 액츄에이터를 더 포함할 수 있다.In addition, the unmanned aerial vehicle according to an embodiment of the present invention, the main body; a plurality of motors for providing power to the main body to perform at least one of a horizontal movement and a vertical movement; and a processor for controlling at least one of the motors so that the main body flies, a first guard connected to one surface of the main body; a second guard connected to the other surface of the body; a first actuator for providing an external force to rotate the first guard clockwise about a reference axis; and a second actuator providing an external force so that the second guard rotates counterclockwise about the reference axis.
일 실시 예에 따르면, 제1 상태에서 상기 제1 가드 및 상기 제2 가드는 상기 복수의 모터들 위에 위치하며, 제2 상태에서 상기 제1 가드 및 상기 제2 가드는 상기 복수의 모터들 아래에 위치할 수 있다.According to an embodiment, in a first state, the first guard and the second guard are positioned above the plurality of motors, and in a second state, the first guard and the second guard are located below the plurality of motors. can be located
일 실시 예에 따르면, 상기 제1 가드 및 상기 제2 가드는, 상기 제1 상태에서 상기 프로펠러들이 외부로 노출되는 것을 방지하도록 이루어지고, 상기 제2 상태에서 어느 물체가 상기 본체의 아래에 적재되도록 이루어질 수 있다.According to an embodiment, the first guard and the second guard are configured to prevent the propellers from being exposed to the outside in the first state, and an object to be loaded under the main body in the second state can be done
일 실시 예에 따르면, 상기 본체에 구비되는 센서를 더 포함하며, 상기 프로세서는, 상기 센서로부터 수신되는 센싱 정보에 근거하여 상기 본체의 위치를 결정하고, 상기 본체의 위치에 따라 상기 제1 상태 또는 상기 제2 상태 중 어느 하나가 되도록 상기 제1 액츄에이터 및 상기 제2 액츄에이터를 제어할 수 있다.According to an embodiment, further comprising a sensor provided in the main body, the processor determines the position of the main body based on sensing information received from the sensor, and the first state or The first actuator and the second actuator may be controlled to be in any one of the second states.
일 실시 예에 따르면, 상기 프로세서는, 어느 물체가 상기 제1 가드 및 상기 제2 가드 중 적어도 하나에 의해 가해지는 힘에 의하여 상기 제1 가드 및 상기 제2 가드 사이에서 고정되도록 상기 제1 및 제2 액츄에이터를 제어하며, 상기 물체가 상기 제1 가드 및 상기 제2 가드 사이에 고정된 상태로 상기 본체가 비행하도록 상기 모터들 중 적어도 하나를 제어할 수 있다.According to an embodiment, the processor is configured such that an object is fixed between the first guard and the second guard by a force applied by at least one of the first guard and the second guard. 2 actuators may be controlled, and at least one of the motors may be controlled so that the body flies while the object is fixed between the first guard and the second guard.
일 실시 예에 따르면, 상기 센서에는 상기 물체를 촬영하는 이미지 센서가 포함되며, 상기 프로세서는, 상기 이미지 센서를 이용하여 상기 물체의 형태 및 크기 중 적어도 하나를 포함하는 물체 정보를 생성하고, 상기 물체 정보에 근거하여 상기 제1 및 제2 액츄에이터를 제어할 수 있다.According to an embodiment, the sensor includes an image sensor for photographing the object, and the processor generates object information including at least one of a shape and a size of the object using the image sensor, and the object The first and second actuators may be controlled based on the information.
일 실시 예에 따르면, 상기 프로세서는, 상기 물체 정보에 근거하여 상기 본체와 상기 물체 사이의 기준 거리를 결정하고, 상기 물체로부터 상기 기준 거리만큼 떨어진 위치에서 상기 본체가 호버링 하도록 상기 모터들 중 적어도 하나를 제어하며, 상기 본체가 상기 물체로부터 상기 기준 거리만큼 떨어진 위치에서 호버링 하는 동안 상기 제1 상태가 상기 제2 상태가 되도록 상기 제1 액츄에이터 및 상기 제2 액츄에이터를 제어할 수 있다.According to an embodiment, the processor determines a reference distance between the main body and the object based on the object information, and at least one of the motors so that the main body hovers at a position away from the object by the reference distance. and control the first actuator and the second actuator so that the first state becomes the second state while the main body hovers at a position separated by the reference distance from the object.
일 실시 예에 따르면, 상기 본체에 구비되는 무선 통신부를 더 포함하며, 상기 프로세서는, 상기 물체 정보에 근거하여 상기 물체가 상기 제1 가드 및 상기 제2 가드 사이에 고정 가능한지 여부를 판단하고, 고정이 불가능한 경우, 적재 불가 메시지가 외부 장치로 전송되도록 상기 무선 통신부를 제어할 수 있다.According to one embodiment, further comprising a wireless communication unit provided in the main body, the processor, based on the object information to determine whether the object can be fixed between the first guard and the second guard, fixed If this is not possible, the wireless communication unit may be controlled to transmit a load impossible message to an external device.
일 실시 예에 따르면, 상기 제1 가드는 상기 모터들 중 제1그룹에 포함된 모터의 프로펠러들을 보호하도록 이루어지고, 상기 제2 가드는 상기 모터들 중 제2그룹에 포함된 모터의 프로펠러들을 보호하도록 이루어질 수 있다.According to an embodiment, the first guard is configured to protect propellers of a motor included in a first group among the motors, and the second guard protects propellers of a motor included in a second group of the motors. can be done to do so.
일 실시 예에 따르면, 상기 제1 가드 및 상기 제2 가드는 상호 거울 대칭의 형태를 가질 수 있다. According to an embodiment, the first guard and the second guard may have a shape of mutual mirror symmetry.
CCTV와 같은 고정형 카메라를 이용하여 방법을 수행하던 예전 방식에 비행이 가능한 무인 항공기가 투입됨으로써 보다 능동적인 방범이 이뤄질 수 있다. 특히, 각종 알림을 무인 항공기를 통해 타겟에게 직접적으로 제공할 수 있기 때문에, 방범 효과를 극대화할 수 있다.More active crime prevention can be achieved by introducing an unmanned aerial vehicle capable of flying in the old method using a fixed camera such as CCTV. In particular, since various notifications can be directly provided to the target through the unmanned aerial vehicle, the crime prevention effect can be maximized.
도 1은 본 발명에 따른 무인 항공기의 일 형태를 나타내는 사시도
도 2는 본 발명에 따른 무인 항공기를 설명하기 위한 블록도
도 3은 본 발명의 일 실시예에 따른 항공 제어 시스템의 주요 구성들 간의 제어관계를 도시한 블록도
도 4는 본 발명의 일 실시 예에 따른 무인 항공기가 방범 기능을 수행하는 방법을 설명하기 위한 흐름도
도 5는 본 발명의 일 실시 예에 따른 무인 항공기가 버틀러 기능을 수행하는 방법을 설명하기 위한 흐름도
도 6은 본 발명의 일 실시 예에 따른 무인 항공기가 구급 기능을 수행하는 방법을 설명하기 위한 흐름도
도 7은 본 발명의 일 실시 예에 따른 무인 항공기가 본체의 위치에 따라 배터리를 효율적으로 관리하는 방법을 설명하기 위한 흐름도
도 8a 내지 도 8f는 본 발명의 일 실시 예에 따른 무인 항공기의 가드를 설명하기 위한 예시도들
도 9a 내지 도 9f는 본 발명의 일 실시 예에 따른 무인 항공기의 가드를 설명하기 위한 예시도들 1 is a perspective view showing one form of an unmanned aerial vehicle according to the present invention;
2 is a block diagram illustrating an unmanned aerial vehicle according to the present invention;
3 is a block diagram illustrating a control relationship between main components of an aviation control system according to an embodiment of the present invention;
4 is a flowchart illustrating a method of performing a crime prevention function by an unmanned aerial vehicle according to an embodiment of the present invention;
5 is a flowchart illustrating a method for an unmanned aerial vehicle to perform a butler function according to an embodiment of the present invention;
6 is a flowchart illustrating a method for an unmanned aerial vehicle to perform an emergency function according to an embodiment of the present invention;
7 is a flowchart for explaining a method for efficiently managing a battery according to a location of a body of an unmanned aerial vehicle according to an embodiment of the present invention;
8A to 8F are exemplary views for explaining a guard of an unmanned aerial vehicle according to an embodiment of the present invention;
9A to 9F are exemplary views for explaining a guard of an unmanned aerial vehicle according to an embodiment of the present invention;
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have a meaning or role distinct from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
본 명세서에서 기술되는 무인 항공기는 드론(Drone), RPV(Remote Piloted Vehicle), UAS(Unmanned Aircraft System), PAV(Piloted Air/Aerial Vehicle)일 수 있다. The unmanned aerial vehicle described herein may be a drone, a remote piloted vehicle (RPV), an unmanned aircraft system (UAS), or a piloted air/aerial vehicle (PAV).
나아가, 무인 항공기는 조종사가 무인 항공기에 탑승하지 않고 지상에서 원격조종이나 사전 설정된 경로에 따라 자동/반자동으로 비행하거나 인공지능 탑재하여 자체 판단에 따라 임무를 수행하는 비행체와 지상통제장비 및 통신장비, 지원 장비 등의 전체 시스템(Unmanned Aerial System, UAS)으로 이루어질 수 있다. Furthermore, unmanned aerial vehicles (UAVs) can be remotely controlled or automatically/semi-automatically fly according to a preset route on the ground without the pilot boarding the unmanned aerial vehicle, or are equipped with artificial intelligence to perform missions according to their own judgment, ground control equipment and communication equipment; It may consist of an entire system (Unmanned Aerial System, UAS) such as support equipment.
무인 항공기(100)는 본체(20), 본체(20)에 구비되는 센서(130), 본체(20)가 수평이동 및 수직이동 중 적어도 하나를 수행하도록 동력을 제공하는 복수의 모터들(12) 및 상기 센서(130)로부터 수신되는 센싱 정보에 근거하여 상기 복수의 모터들(12) 중 적어도 하나를 제어하는 프로세서(140)를 포함한다. 나아가, 무인 항공기(100)는 서버(200) 및 이동 단말기(300) 중 적어도 하나와 무선으로 통신하는 무선 통신부(175)를 구비한다. The unmanned
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.
도 4는 본 발명의 일 실시 예에 따른 무인 항공기가 방범 기능을 수행하는 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method of performing a crime prevention function by an unmanned aerial vehicle according to an embodiment of the present invention.
본 발명에 따른 무인 항공 시스템에는 무인 항공기(100)가 포함되며, 추가적으로 서버(200) 및 이동 단말기(300) 중 적어도 하나가 포함될 수 있다. The unmanned aerial vehicle system according to the present invention includes the unmanned
상기 서버(200)는 서로 다른 지점에 설치된 복수의 카메라들로부터 이미지를 수신하고, 기 설정된 조건을 만족하는 타겟을 센싱할 수 있다(S410).The
예를 들어, 집이나 사무실과 같은 소정 영역에는 CCTV와 같은 카메라가 서로 다른 지점에 설치될 수 있다. 그리고 서버(200)는 복수의 카메라들로부터 수신되는 이미지를 이용하여 소정 영역에 기 설정된 조건을 만족하는 타겟을 센싱할 수 있다. For example, in a predetermined area such as a house or an office, cameras such as CCTV may be installed at different points. In addition, the
여기서, 기 설정된 조건을 만족하는 타겟은 접근 권한이 없는 사람이나 로봇일 수 있다. 예를 들어, 가족이나 회사 직원은 접근 권한이 있는 사람일 수 있다. Here, the target satisfying the preset condition may be a person or robot without access right. For example, a family member or company employee may be a person with access rights.
상기 기 설정된 조건은 상기 소정 영역에 따라 가변될 수 있다. 상기 소정 영역은 다시 복수의 구역들로 구획되고, 각 구역에는 서로 다른 조건이 설정될 수 있다. 예를 들어, 야드가 있는 집이 소정 영역으로 설정되는 경우, 집 내부는 제1구역 집 외부의 야드는 제2 구역으로 구획될 수 있다. 가족은 상기 제1구역 및 상기 제2구역에 모두 진입 가능하지만, 택배를 배달하는 택배기사는 제2구역에만 진입 가능할 수 있다. The preset condition may vary according to the predetermined region. The predetermined area is further divided into a plurality of areas, and different conditions may be set in each area. For example, when a house with a yard is set as a predetermined area, the inside of the house may be divided into a first zone, and the yard outside the house may be partitioned into a second zone. A family may enter both the first zone and the second zone, but a courier delivering a parcel may be able to enter only the second zone.
서버(200)는 카메라로부터 수신되는 복수의 이미지를 이용하여 이동 물체가 상기 기 설정된 조건을 만족하는 타겟인지 여부를 판단할 수 있다. The
서버(200)는 무인 항공기(100)와 무선으로 통신 가능한 모든 장치로 확장될 수 있다. 예를 들어, 집에서는 냉장고가 서버(200)의 역할을 할 수 있고, 회사에서는 방범장치가 서버(200)의 역할을 할 수 있다.The
기 설정된 조건을 만족하는 타겟이 센싱되는 경우, 서버(200)는 무인 항공기(200)로 타겟 정보를 송신한다. 타겟 정보는 타겟이 촬영된 이미지, 타겟의 형태, 크기, 종류 및 위치 중 적어도 하나를 포함할 수 있다. When a target satisfying a preset condition is sensed, the
무인 항공기(100)는 무선 충전 스테이션(미도시)에서 무선 충전을 수행하며 대기하다가 서버(200)로부터 타겟 정보가 수신되는 경우, 타겟에 대응하는 목적지로 비행한다(S430).The unmanned
보다 구체적으로, 무인 항공기(100)는 서로 다른 지점에 설치된 복수의 카메라들 중 적어도 하나를 통해 타겟이 탐색되는 경우, 상기 타겟에 대응하는 타겟 정보를 수신한다.More specifically, when a target is detected through at least one of a plurality of cameras installed at different points, the unmanned
무인 항공기(100)는 타겟 정보에 근거하여 목적지 및 비행 경로 중 적어도 하나를 설정하고, 본체가 상기 목적지로 이동하도록 상기 모터들 중 적어도 하나를 제어한다. The unmanned
서로 다른 지점에 설치된 복수의 카메라들 중 타겟이 탐색된 카메라가 달라짐에 따라 무인 항공기(100)의 목적지도 가변된다. 예를 들어, 제1 지점에 설치된 제1 카메라에 타겟이 탐색된 경우, 제1 지점에 대응하는 제1 목적지가 설정되지만, 제2 지점에 설치된 제2 카메라에 타겟이 탐색된 경우, 제2 지점에 대응하는 제2 목적지가 설정될 수 있다. The destination of the unmanned
타겟의 위치에 따라 비행 경로는 서로 다른 방식으로 설정될 수 있다. 예를 들어, 타겟의 위치가 실내인 경우, 무선 충전 스테이션에서 타겟 위치로 갈 수 있는 최단 거리의 비행 경로가 설정되지만, 타겟 위치가 실외인 경우, 무선 충전 스테이션에서 실외로 나갈 수 잇는 최단 거리의 비행경로가 설정된 후, 일정 고도 이상으로 수직 이동한다. 이후 일정 고도에서 타겟 위치로의 최단 거리가 비행 경로로 설정될 수 있다. Depending on the location of the target, the flight path may be set in different ways. For example, if the location of the target is indoors, the shortest flight path from the wireless charging station to the target location is set, but if the target location is outdoors, the shortest distance from the wireless charging station to the outdoors is set. After the flight path is set, it moves vertically above a certain altitude. Thereafter, the shortest distance to the target location at a certain altitude may be set as the flight path.
타겟은 이동하는 물체이므로, 서로 다른 카메라에서 타겟이 센싱될 수 있다. 예를 들어, t 시점에서 제1 카메라에서 타겟이 탐색된 후 일정 시간이 지난 후 제2 카메라에서 타겟이 탐색될 수 있다. 이 경우, 무인 항공기(100)는 t 시점에서 제1 카메라에 대응하는 제1 지점을 목적지로 설정해 비행하다가 일정 시간이 지난 후에는 제1 지점이 아닌 제2 카메라에 대응하는 제2 지점을 목적지로 설정해 비행할 수 있다. 이처럼, 타겟이 탐색된 카메라에 따라 실시간으로 무인 항공기(100)의 목적지가 가변될 수 있다. Since the target is a moving object, the target may be sensed by different cameras. For example, a target may be searched for by the second camera after a predetermined time has elapsed after the target is searched for by the first camera at time t. In this case, the unmanned
무인 항공기(100)는 센서(130)로부터 수신되는 센싱 정보에 근거하여 목적지 도착 여부를 판단하고, 목적지에 도착한 경우 타겟 탐색을 시작한다. The unmanned
상기 무선 통신부(175)를 통해 타겟을 촬영한 타겟 이미지가 수신되며, 상기 센서(130)에는 이미지를 생성하는 이미지 센서가 포함될 수 있다. 그리고, 무인 항공기(100)는 상기 이미지 센서 및 상기 타겟 이미지를 이용하여 상기 타겟을 탐색할 수 있다. A target image obtained by photographing the target is received through the
타겟이 탐색되는 경우, 무인 항공기(100)는 이미지 센서를 이용해 타겟 이미지를 생성하고 무선 통신부(175)를 통해 타겟 이미지를 서버(200) 및 이동 단말기(300) 중 적어도 하나로 전송할 수 있다(S450). 상기 서버(200)에는 경찰서, 소방서 등과 같은 관제 센터가 더 포함될 수 있다. When the target is found, the unmanned
무인 항공기(100)는 이미지 센서를 통해 타겟이 탐색되는 경우, 타겟을 추종하는 추종 비행이 이루어지도록 모터들(12) 중 적어도 하나를 제어한다(S470).When the target is searched for through the image sensor, the unmanned
센서(130)에서 생성되는 센싱 정보에 의하여 무인 항공기(100)의 위치가 결정될 수 있다. 보다 구체적으로, 무인 항공기(100)의 위치를 나타내는 좌표 정보 및 이미지 정보 중 적어도 하나가 생성되며, 무인 항공기(100)가 천장이 있는 실내에 위치하는지 또는 천장이 없는 실외에 위치하는지가 결정될 수 있다.The location of the unmanned
무인 항공기(100)는 본체(20)의 위치가 실내인 경우 제1 추종 비행이 이루어지도록 상기 모터들(130) 중 적어도 하나를 제어하고, 상기 본체의 위치가 실외인 경우 상기 제1 추종 비행과 다른 제2 추종 비행이 이루어지도록 상기 모터들(13) 중 적어도 하나를 제어할 수 있다. The unmanned
예를 들어, 제1 추종 비행은 타겟과 본체의 거리가 일정 거리가 유지하면서 타겟을 따라다니는 비행 방식(Follow)이고, 제2 추종 비행은 타겟을 중심으로 일정 거리의 반경으로 회전 이동하는 비행 방식(Orbit)일 수 있다. For example, the first following flight is a flight method that follows the target while maintaining a constant distance between the target and the main body, and the second following flight is a flight method that rotates and moves around the target in a radius of a predetermined distance. (Orbit).
나아가, 무인 항공기(100)에는 스피커와 같은 음성 정보를 출력하는 출력부(173)가 포함될 수 있다. 무인 항공기(100)는 타겟이 탐색된 경우, 기 설정된 음성 정보를 출력부(173)를 통해 출력할 수 있다. 예를 들어, "소정 영역에 접근이 금지됩니다. 소정 영역 밖으로 나가주세요."와 같은 음성 정보가 출력될 수 있다. 이동 단말기(300)로부터 수신된 텍스트가 음성으로 전환되어 상기 출력부(173)를 통해 출력될 수 있다. 예를 들어, 이동 단말기(300)의 마이크 등을 통해 "누구세요"라는 텍스트가 생성되어 무인 항공기(100)로 전송될 수 있다. "누구세요"라는 음성 정보는 무인 항공기(100)의 출력부(173)를 통해 타겟에 전달 될 수 있다. Furthermore, the unmanned
무인 항공기(100)에는 소음을 측정하는 소음 측정 센서가 구비될 수 있다. 소음 측정 센서에서 센싱되는 소음 수준에 따라 출력부(173)의 음성 정보 출력 세기가 달라질 수 있다. 나아가, 무인 항공기(100)는 타겟과 본체가 소정 거리가 되도록 비행하는데, 상기 소음 수준에 따라 상기 소정 거리를 변경할 수 있다. 예를 들어, 타겟과 제1 거리로 떨어진 위치에서 비행하는 중에 음성 정보를 출력해야 하는 경우, 제1 거리보다 가까운 제2 거리만큼 떨어진 위치로 이동한 후 음성 정보를 출력할 수 있다. 음성 정보의 출력이 완료되는 경우, 다시 제1 거리 만큼 떨어진 위치로 이동할 수 있다. The unmanned
타겟이 소정 영역에서 벗어나는 경우, 무인 항공기(100)는 무선 충전 스테이션으로 복귀하는 복귀 비행을 수행할 수 있다(S490).When the target deviates from the predetermined area, the unmanned
일 예로, 사용자는 외부에서 수상한 소리가 들려 밖에 상황이 궁금할 수 있다. 사용자는 자신의 이동 단말기(300)로 무인 항공기(100)를 보내 어떤 상황인지 파악할 수 있다. 무인 항공기(100)는 자율 비행으로 집 주위를 조사하고, 의심스러운 침입자를 자동으로 포착하여 침입자를 따라 다니며 실시간으로 영상을 촬영해 사용자의 이동 단말기(300)로 전송할 수 있다.For example, the user may hear a suspicious sound from outside and may be curious about the situation outside. The user may send the unmanned
다른 일 예로, 사용자는 외부에 외출중 일 수 있다. 카메라로 감시중이던 드론에 침입자가 있는 것이 포착된 경우, 무인 항공기(100)는 스스로 비행하여 침입자 주위를 촬영하며 현재 상황을 사용자의 이동 단말기(100)로 알람 메시지와 영상으로 전달한다. 침입자는 돌을 던져 드론을 추락시키려고 하지만, 무인 항공기(100)는 센싱 정보에 근거하여 날아오는 돌을 스스로 회피할 수 있다. 사용자는 영상과 함께 현재 상황에 대해 경찰에 신고할 수 있으며, 무인 항공기(100)가 스스로 자체 기준에 따라 경찰에 영상을 제보할 수도 있다. 사용자는 추가 모듈로 무인 항공기(100)에 장착된 스피커를 통해 침입자에게 경고 메시지를 전달할 수 있다. 이를 통해, 침입자는 자신이 발각된 것을 인지하고 도망간다.As another example, the user may be going out. When it is detected that there is an intruder in the drone being monitored by the camera, the unmanned
CCTV와 같은 고정형 카메라를 이용하여 방법을 수행하던 예전 방식에 비행이 가능한 무인 항공기가 투입됨으로써 보다 능동적인 방범이 이뤄질 수 있다. 특히, 각종 알림을 무인 항공기를 통해 타겟에게 직접적으로 제공할 수 있기 때문에, 방범 효과를 극대화할 수 있다.More active crime prevention can be achieved by introducing an unmanned aerial vehicle capable of flying in the old method using a fixed camera such as CCTV. In particular, since various notifications can be directly provided to the target through the unmanned aerial vehicle, the crime prevention effect can be maximized.
도 5는 본 발명의 일 실시 예에 따른 무인 항공기가 버틀러 기능을 수행하는 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method for an unmanned aerial vehicle to perform a butler function according to an embodiment of the present invention.
이동 단말기(300)는 무인 항공기를 호출할 수 있다(S510). 이때, 이동 단말기(300)의 위치 정보가 무인 항공기(100)로 전송된다. The
무인 항공기(100)는 호출에 응답하여 자율 비행으로 이동 단말기(300)의 사용자를 탐색할 수 있다(S530). 무인 항공기(100)는 위치 정보 및 센서로부터 수신되는 센싱 정보를 이용하여 사용자의 위치로 자율 비행할 수 있다. The unmanned
무인 항공기(100)는 이미지 센서를 이용하여 탐색한 사용자의 제스처를 탐색하고(S550), 제스처에 대응하는 기능을 실행할 수 있다(S570).The unmanned
보다 구체적으로, 무인 항공기(100)에는 본체(20)를 기준으로 적어도 일 방향을 촬영한 이미지를 생성하는 이미지 센서 및 상기 이미지를 이용하여 사용자의 제스처를 탐색하는 제스처 탐지부가 구비될 수 있다. 제스처 탐지부는 제스처에 대응하는 기능을 결정할 수 있다.More specifically, the unmanned
무인 항공기(100)는 제스처 탐지부가 기 설정된 제스처를 탐색하는 경우, 본체(20)가 기 설정된 제스처에 대응하는 움직임을 수행하도록 모터들(13) 중 적어도 하나를 제어할 수 있다.When the gesture detector detects a preset gesture, the unmanned
일 예로, 사용자가 아이들과 앞 뜰에서 즐겁게 놀이를 하는 중에 아이들과 재미있게 놀고 있는 모습을 촬영해서 추억으로 남기고 싶은 상황을 가정한다. 사용자는 이동 단말기(100)에 음성인식 명령을 입력하여 무인 항공기(100)를 앞 뜰로 오도록 할 수 있다. 사용자가 무인 항공기(100)를 향해 팔을 크게 원을 그리며 회전시키자 무인 항공기(100)는 전면 LED에 ORBIT이라는 글자를 표시하고 사용자 주위를 돌며 아이와 노는 모습을 촬영한다. 사용자가 머리 위로 두팔을 이용하여 하트를 표시하자 드론의 전면 LED에 하트가 나타나며 사용자를 따라 다니며 촬영한다. 사용자가 이동 단말기(100)에 음성인식 명령으로 '복귀'라고 입력 하자 무인 항공기(100)는 충전 스테이션으로 복귀한다.As an example, it is assumed that a user wants to record a picture of a user having fun with children while having fun playing with them in the front yard to leave as a memory. The user may input a voice recognition command to the
일 예로, 아이가 공을 가지고 놀다가 지붕위로 공이 올라간 상황을 가정한다. 지붕에 올라가기에는 지붕이 무너지거나 떨어질 위험이 있다. 사용자는 이동 단말기(300)를 통해 무인 항공기(100)를 호출하고, 지붕을 가리키는 제스처를 무인 항공기(100)에 입력할 수 있다. 무인 항공기(100)는 지붕으로 이동해 공이 어디에 있는지 파악하고 추가 모듈로 장착된 로봇 팔을 이용하여 공을 안전하게 수거해 사용자에게 수송할 수 있다.As an example, it is assumed that the child is playing with the ball and the ball goes up on the roof. Climbing on the roof risks collapsing or falling. The user may call the unmanned
기능 실행 결과는, 무선 통신부(175)를 통해 서버(200) 및 이동 단말기(300) 중 적어도 하나로 전송될 수 있다. The function execution result may be transmitted to at least one of the
한편, 기 설정된 제스처에 대응하는 움직임의 움직임 방향은 본체(20)와 사용자의 상대적 위치에 따라 가변될 수 있다. Meanwhile, the movement direction of the movement corresponding to the preset gesture may be changed according to the relative position of the
무인 항공기(100)는 중력 방향을 기준으로 모든 방향으로 이동할 수 있다. 무인 항공기(100)는 얼굴이라고 불리는 정면이 사용자를 향하도록 비행한다. The unmanned
사용자가 복수명인 경우, 무인 항공기(100)의 얼굴은 제1 사용자를 향하지만, 측면 또는 후면은 제2 사용자를 향할 수 있다. 제1 사용자 또는 제2 사용자가 동일한 제스처를 입력하는 경우, 동일한 기능이 실행되지만 본체(20)의 움직임 방향은 달라질 수 있다. When there are a plurality of users, the face of the unmanned
예를 들어, 제1 사용자가 우측으로 이동하라는 제스처를 입력한 경우, 무인 항공기(100)는 본체(20)의 우측면이 향하는 방향으로 이동한다. 이와 달리, 제2 사용자가 우측으로 이동하라는 제스처를 입력한 경우, 무인 항공기(100)는 본체(20)의 정면이 향하는 방향으로 이동한다. For example, when the first user inputs a gesture to move to the right, the unmanned
다수의 사용자가 있는 경우, 무인 항공기 중심으로 비행하는 것이 아니라 제스처를 입력한 사용자 중심으로 비행하기 때문에, 사용자 친화적인 인터페이스가 구현된다. When there are a large number of users, a user-friendly interface is implemented because the flight is centered on the user who input the gesture rather than flying with the drone center.
도 6은 본 발명의 일 실시 예에 따른 무인 항공기가 구급 기능을 수행하는 방법을 설명하기 위한 흐름도이다. 6 is a flowchart illustrating a method of performing an emergency function by an unmanned aerial vehicle according to an embodiment of the present invention.
서버(200) 및/또는 이동 단말기(300)는 사용자의 생체 신호를 감지하고 이를 무인 항공기(100)에 전송할 수 있다(S610),The
생체 신호에 이상이 있거나, 생체 신호가 감지되지 않는 경우, 무인 항공기(100)는 자율 비행으로 사용자 탐색을 시작할 수 있다(S630). 메모리에 저장되어 있는 실내 지도 및 센서로부터 수신되는 센싱 정보 중 적어도 하나에 근거하여 사용자를 탐색한다. If there is an abnormality in the biosignal or no biosignal is detected, the unmanned
무인 항공기(100)는 고유의 알고리즘에 근거하여 사용자 탐색을 시작할지 여부를 결정할 수 있다. 예를 들어, 사람이 넘어져 바닥에 쓰러질 때 나는 소리가 감지되거나 일정 시간 동안 사용자의 움직임이 없는 경우 등과 같은 상황에서 사용자 탐색을 위한 자율 비행을 시작할 수 있다. The unmanned
사용자가 탐색되는 경우, 사용자 주변을 호버링 하며 사용자 상태를 체크한다(S650). 사용자 상태는 본체(20)에 구비된 이미지 센서를 통해 체크될 수 있다. 예를 들어, 사용자가 일정 시간동안 움직이지 않는 경우, 침대나 쇼파가 아닌 곳에 넘어져 있는 경우 등이 인공지능을 통해 문제가 있는 것으로 체크될 수 있다. 출력부를 통해 사용자 상태를 체크하는 음성 정보를 출력할 수도 있다. When the user is searched, the user hovers around the user and checks the user's status (S650). The user state may be checked through an image sensor provided in the
문제가 발견된 경우, 사용자 이미지를 생성하고 서버(200) 및/또는 이동 단말기(300)로 새성된 사용자 이미지를 전송할 수 있다. 이와 달리, 문제가 발견되지 않은 경우, 무인 항공기(100)는 무선 충전 스테이션으로 복귀할 수 있다(S690).When a problem is found, a user image may be created and the newly created user image may be transmitted to the
무인 항공기(100)가 간병인의 역할을 수행함으로써 보다 빠르고 정확하게 구급 기능을 수행할 수 있다. Since the unmanned
도 7은 본 발명의 일 실시 예에 따른 무인 항공기가 본체의 위치에 따라 배터리를 효율적으로 관리하는 방법을 설명하기 위한 흐름도이다.7 is a flowchart for explaining a method of efficiently managing a battery according to a location of a main body of an unmanned aerial vehicle according to an embodiment of the present invention.
무인 항공기(100)에는 위성으로부터 수신되는 신호를 이용하여 상기 본체의 위치 정보를 생성하는 위치 정보 모듈이 구비될 수 있다. 예를 들어, GPS가 위치 정보 모듈에 포함될 수 있다. The unmanned
무인 항공기(100)는 센싱 정보에 의하여 본체의 위치가 실내 또는 실외 중 어느 하나로 결정할 수 있다(S710).The unmanned
예를 들어, 이미지 센서에서 생성된 이미지, 본체(100)와 물체와의 거리를 측정하는 거리 측정 센서에서 생성된 거리, GPS 신호 세기 중 적어도 하나를 인공지능을 이용하여 학습하고, 학습 결과에 따라 본체의 위치가 실내인지 또는 실외인지 여부를 결정할 수 있다. For example, at least one of the image generated by the image sensor, the distance generated by the distance measuring sensor that measures the distance between the
무인 항공기(100)는 본체의 위치에 근거하여 위치 정보 모듈이 생성하는 위치 정보를 선택적으로 이용할 수 있다(S730). 예를 들어, 무인 항공기(100)는 상기 본체의 위치가 실내인 경우 상기 위치 정보 모듈을 오프 시키고, 상기 본체의 위치가 실외인 경우 상기 위치 정보 모듈을 온 시킬 수 있다. 이를 통해 위치 정보 모듈에 의하여 불필요하게 전원이 사용되는 것이 방지되며, 배터리가 효율적으로 관리될 수 있다. The unmanned
도 8 및 도 9는 무인 항공기에 구비된 가드를 설명하기 위한 2가지 종류의 실시 예를 도시하고 있다. 도 8a 및 도 9a는 제1 상태를 설명하기 위한 사시도이고, 도 8d 및 도 9d는 제2 상태를 설명하기 위한 사시도이다. 도 8a 내지 도 8c는 제1 실시 예의 제1 상태를 도시하고 있고, 도 8d 내지 도 8f는 제1 실시 예의 제2 상태를 도시하고 있다. 도 9a 내지 도 9c는 제2 실시 예의 제1 상태를 도시하고 있고, 도 9d 내지 도 9f는 제2 실시 예의 제2 상태를 도시하고 있다. 8 and 9 show two types of embodiments for explaining the guard provided in the unmanned aerial vehicle. 8A and 9A are perspective views for explaining a first state, and FIGS. 8D and 9D are perspective views for explaining a second state. 8A to 8C show a first state of the first embodiment, and FIGS. 8D to 8F show a second state of the first embodiment. 9A to 9C show a first state of the second embodiment, and FIGS. 9D to 9F show a second state of the second embodiment.
본 발명에 따른 무인 항공기는 프로펠러를 보호하기 위한 가드를 구비할 수 있다. 보다 구체적으로, 본체(20)의 일 면에 연결되는 제1 가드; 본체(20)의 타 면에 연결되는 제2 가드; 기준축을 중심으로 상기 제1 가드가 시계방향으로 회전하도록 외력을 제공하는 제1 액츄에이터; 및 상기 기준축을 중심으로 상기 제2 가드가 반시계방향으로 회전하도록 외력을 제공하는 제2 액츄에이터가 무인 항공기(100)에 구비될 수 있다. The unmanned aerial vehicle according to the present invention may be provided with a guard for protecting the propeller. More specifically, a first guard connected to one surface of the
여기서 기준축은 본체의 전면 및 후면을 잇는 가상의 축일 수 있다. Here, the reference axis may be a virtual axis connecting the front and rear surfaces of the body.
제1 상태에서 상기 제1 가드 및 상기 제2 가드는 상기 복수의 모터들 위에 위치하고, 제2 상태에서 상기 제1 가드 및 상기 제2 가드는 상기 복수의 모터들 아래에 위치한다. In the first state, the first guard and the second guard are located above the plurality of motors, and in the second state, the first guard and the second guard are located below the plurality of motors.
상기 제1 가드는 상기 모터들 중 제1그룹에 포함된 모터의 프로펠러들을 보호하도록 이루어지고, 상기 제2 가드는 상기 모터들 중 제2그룹에 포함된 모터의 프로펠러들을 보호하도록 이루어진다. 예를 들어, 본체의 정면을 기준으로 우측에 위치한 2개의 모터들은 제1 가드에 의하여 보호되고, 좌측에 위치한 2개의 모터들은 제2 가드에 의하여 보호될 수 있다. The first guard is configured to protect the propellers of the motor included in the first group of the motors, the second guard is configured to protect the propellers of the motor included in the second group of the motors. For example, two motors located on the right side with respect to the front of the body may be protected by the first guard, and the two motors located on the left side may be protected by the second guard.
상기 제1 가드 및 상기 제2 가드는 상호 거울 대칭의 형태를 가질 수 있다. The first guard and the second guard may have a form of mutual mirror symmetry.
상기 제1 가드 및 상기 제2 가드는 상기 제1 상태에서 상기 프로펠러들이 외부로 노출되는 것을 방지하도록 이루어지고, 상기 제2 상태에서 어느 물체가 상기 본체의 아래에 적재되도록 이루어진다. The first guard and the second guard are configured to prevent the propellers from being exposed to the outside in the first state, and an object to be loaded under the main body in the second state.
한편, 무인 항공기(100)는 센서로부터 수신되는 센싱 정보에 근거하여 상기 본체의 위치를 결정하고, 상기 본체의 위치에 따라 상기 제1 상태 또는 상기 제2 상태 중 어느 하나가 되도록 상기 제1 액츄에이터 및 상기 제2 액츄에이터를 제어할 수 있다. 예를 들어, 무인 항공기(100)는 실내에서 제1 상태를 만들고 실외에서 제2 상태를 만들 수 있다. On the other hand, the unmanned
실내에서는 GPS를 사용할 수 없기 때문에 비행 정확도가 다소 떨어지며, 천장과 같은 실내를 구성하는 물체에 의하여 무인 항공기(100)의 충돌이 발생할 우려가 있다. 나아가, 좁은 공간에서 사용자와 무인 항공기(100) 사이의 충돌도 발생할 수 있다. 프로펠러 및 사용자를 보호하기 위하여, 실내에서는 제1 상태가 되도록 액츄에이터들을 제어한다. Since the GPS cannot be used indoors, flight accuracy is somewhat lowered, and there is a risk that the unmanned
이와 달리, 실외에서는 GPS를 사용할 수 있기 때문에 비행 정확도가 실내보다 향상된다. 불필요할 수 있는 가드를 제2 상태로 전환하여 물건을 수송할 수 있는 바구니로 사용한다. 무인 항공기(100)는 계란과 같은 물건을 바구니에 담아 수송할 수 있다. In contrast, the use of GPS outdoors improves flight accuracy compared to indoors. Guards that may be unnecessary are converted to a second state and used as a basket to transport items. The unmanned
한편, 무인 항공기(100)는 제1 가드 및 제2 가드를 로봇 암과 같이 물건을 집는 집게(또는 손)로 사용할 수 있다. Meanwhile, the unmanned
무인 항공기(100)는 어느 물체가 상기 제1 가드 및 상기 제2 가드 중 적어도 하나에 의해 가해지는 힘에 의하여 상기 제1 가드 및 상기 제2 가드 사이에서 고정되도록 상기 제1 및 제2 액츄에이터를 제어하며, 상기 물체가 상기 제1 가드 및 상기 제2 가드 사이에 고정된 상태로 상기 본체가 비행하도록 상기 모터들 중 적어도 하나를 제어할 수 있다.The unmanned
상기 센서에는 상기 물체를 촬영하는 이미지 센서가 포함되며, 무인 항공기(100)는 상기 이미지 센서를 이용하여 상기 물체의 형태 및 크기 중 적어도 하나를 포함하는 물체 정보를 생성하고, 상기 물체 정보에 근거하여 상기 제1 및 제2 액츄에이터를 제어할 수 있다. 즉, 수송해야 하는 물체의 특성을 고려하여 액츄에이터가 생성하는 힘의 크기와 방향 등을 조절할 수 있다. The sensor includes an image sensor for photographing the object, and the unmanned
무인 비행기(100)는 제1 및 제2 가드로 집어야 하는 물건과의 거리를 조절해 안전한 비행을 수행할 수 있다.The unmanned
무인 비행기(100)는 이미지 센서로부터 획득된 물체 정보에 근거하여 상기 본체와 상기 물체 사이의 기준 거리를 결정할 수 있다. 나아가, 상기 물체로부터 상기 기준 거리만큼 떨어진 위치에서 상기 본체가 호버링 하도록 상기 모터들 중 적어도 하나를 제어하며, 상기 본체가 상기 물체로부터 상기 기준 거리만큼 떨어진 위치에서 호버링 하는 동안 상기 제1 상태가 상기 제2 상태가 되도록 상기 제1 액츄에이터 및 상기 제2 액츄에이터를 제어한다. The unmanned
상기 본체에는 무선 통신부가 구비되며, 상기 무인 항고기(100)는 상기 물체 정보에 근거하여 상기 물체가 상기 제1 가드 및 상기 제2 가드 사이에 고정 가능한지 여부를 판단하고, 고정이 불가능한 경우, 적재 불가 메시지가 외부 장치로 전송되도록 상기 무선 통신부를 제어할 수 있다. The main body is provided with a wireless communication unit, and the unmanned
본 발명에 따른 무인 항공기는 실내에서는 제1 상태를 통해 안전을 도모하고, 실외에서는 제2 상태를 통해 물건을 수송할 수 있다. 사용자 명령이 이동 단말기(300)를 통해 수신되는 경우, 실내에서도 제1 상태를 제2 상태로 전환해 특정 물건을 제1위치에서 제2위치로 수송할 수 있다. The unmanned aerial vehicle according to the present invention can promote safety through the first state indoors, and transport goods through the second state outdoors. When the user command is received through the
이상에서 설명된 실시 예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성하는 것도 가능하다. 본 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which elements and features of the present invention are combined in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, it is also possible to configure an embodiment of the present invention by combining some elements and/or features. The order of operations described in embodiments of the present invention may be changed. Some features or features of one embodiment may be included in another embodiment, or may be replaced with corresponding features or features of another embodiment. It is obvious that claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.
본 발명에 따른 실시 예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal rocessing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of implementation by hardware, an embodiment of the present invention provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), a processor, a controller, a microcontroller, a microprocessor, and the like.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present invention may be implemented in the form of modules, procedures, functions, etc. that perform the functions or operations described above. The software code may be stored in the memory and driven by the processor. The memory may be located inside or outside the processor, and may transmit/receive data to and from the processor by various known means.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 통상의 기술자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It is apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.
Claims (10)
상기 본체에 구비되는 센서;
상기 본체가 수평이동 및 수직이동 중 적어도 하나를 수행하도록 동력을 제공하는 복수의 모터들; 및
상기 센서로부터 수신되는 센싱 정보에 근거하여 상기 복수의 모터들 중 적어도 하나를 제어하는 프로세서를 포함하며,
서로 다른 지점에 설치된 복수의 카메라들 중 적어도 하나를 통해 타겟이 탐색되는 경우, 상기 타겟에 대응하는 타겟 정보를 수신하는 무선 통신부를 더 포함하며,
상기 프로세서는,
상기 타겟 정보에 근거하여 목적지 및 이동 경로 중 적어도 하나를 설정하고, 상기 본체가 상기 목적지로 이동하도록 상기 모터들 중 적어도 하나를 제어하며,
상기 복수의 카메라들 중 상기 타겟이 탐색된 카메라가 달리짐에 따라 상기 목적지도 가변되는 것을 특징으로 하는 무인 항공기.main body;
a sensor provided in the body;
a plurality of motors for providing power to the main body to perform at least one of a horizontal movement and a vertical movement; and
A processor for controlling at least one of the plurality of motors based on the sensing information received from the sensor,
When a target is searched for through at least one of a plurality of cameras installed at different points, further comprising a wireless communication unit for receiving target information corresponding to the target,
The processor is
setting at least one of a destination and a movement path based on the target information, and controlling at least one of the motors so that the main body moves to the destination,
The unmanned aerial vehicle, characterized in that the destination also varies as the camera for which the target is searched among the plurality of cameras is running.
상기 무선 통신부를 통해 상기 타겟을 촬영한 타겟 이미지가 수신되며,
상기 센서에는 이미지를 생성하는 이미지 센서가 포함되고,
상기 프로세서는,
상기 목적지에 도착하는 경우, 상기 이미지 센서 및 상기 타겟 이미지를 이용하여 상기 타겟을 탐색하는 것을 특징으로 하는 무인 항공기.According to claim 1,
A target image obtained by photographing the target is received through the wireless communication unit,
The sensor includes an image sensor that generates an image,
The processor is
When arriving at the destination, the unmanned aerial vehicle, characterized in that the search for the target using the image sensor and the target image.
상기 프로세서는,
상기 이미지 센서를 통해 상기 타겟이 탐색되는 경우, 상기 타겟을 추종하는 추종 비행이 이루어지도록 상기 모터들 중 적어도 하나를 제어하는 것을 특징으로 하는 무인 항공기.3. The method of claim 2,
The processor is
When the target is detected through the image sensor, the unmanned aerial vehicle, characterized in that for controlling at least one of the motors so as to make a flight following the target.
상기 센싱 정보에 의하여 상기 본체의 위치가 결정되며,
상기 프로세서는,
상기 본체의 위치가 실내인 경우 제1 추종 비행이 이루어지도록 상기 모터들 중 적어도 하나를 제어하고,
상기 본체의 위치가 실외인 경우 상기 제1 추종 비행과 다른 제2 추종 비행이 이루어지도록 상기 모터들 중 적어도 하나를 제어하는 것을 특징으로 하는 무인 항공기. 4. The method of claim 3,
The position of the main body is determined by the sensing information,
The processor is
When the location of the main body is indoors, controlling at least one of the motors so that the first following flight is made,
When the position of the main body is outdoors, the unmanned aerial vehicle according to claim 1, wherein at least one of the motors is controlled so that a second following flight different from the first following flight is performed.
상기 본체가 수평이동 및 수직이동 중 적어도 하나를 수행하도록 동력을 제공하는 복수의 모터들;
상기 본체를 기준으로 적어도 일 방향을 촬영한 이미지를 생성하는 이미지 센서;
상기 이미지를 이용하여 사용자의 제스처를 탐색하는 제스처 탐지부; 및
상기 제스처 탐지부가 기 설정된 제스처를 탐색하는 경우, 상기 본체가 상기 기 설정된 제스처에 대응하는 움직임을 수행하도록 상기 모터들 중 적어도 하나를 제어하는 프로세서를 포함하는 무인 항공기.main body;
a plurality of motors for providing power to the main body to perform at least one of a horizontal movement and a vertical movement;
an image sensor for generating an image photographed in at least one direction with respect to the body;
a gesture detection unit that searches for a user's gesture using the image; and
and a processor for controlling at least one of the motors so that the main body performs a movement corresponding to the preset gesture when the gesture detector detects a preset gesture.
상기 기 설정된 제스처에 대응하는 상기 움직임의 움직임 방향은 상기 본체와 상기 사용자의 상대적 위치에 따라 가변되는 것을 특징으로 하는 무인 항공기.6. The method of claim 5,
The direction of movement of the movement corresponding to the preset gesture is variable according to the relative position of the main body and the user.
위성으로부터 수신되는 신호를 이용하여 상기 본체의 위치 정보를 생성하는 위치 정보 모듈;
상기 본체에 구비되는 센서; 및
상기 센서에서 생성되는 센싱 정보에 의하여 상기 본체의 위치가 실내 또는 실외 중 어느 하나로 결정되며, 상기 본체의 위치에 근거하여 상기 위치 정보를 선택적으로 이용하는 프로세서를 포함하는 무인 항공기.main body;
a location information module for generating location information of the main body using a signal received from a satellite;
a sensor provided in the body; and
and a processor in which the location of the main body is determined either indoors or outdoors by the sensing information generated by the sensor, and selectively uses the location information based on the location of the main body.
상기 프로세서는,
상기 본체의 위치가 실내인 경우 상기 위치 정보 모듈을 오프 시키고, 상기 본체의 위치가 실외인 경우 상기 위치 정보 모듈을 온 시키는 것을 특징으로 하는 무인 항공기.8. The method of claim 7,
The processor is
When the location of the main body is indoors, the location information module is turned off, and when the location of the main body is outdoors, the location information module is turned on.
상기 본체가 수평이동 및 수직이동 중 적어도 하나를 수행하도록 동력을 제공하는 복수의 모터들; 및
상기 본체가 비행하도록 상기 모터들 중 적어도 하나를 제어하는 프로세서를 포함하며,
상기 본체의 일 면에 연결되는 제1 가드;
상기 본체의 타 면에 연결되는 제2 가드;
기준축을 중심으로 상기 제1 가드가 시계방향으로 회전하도록 외력을 제공하는 제1 액츄에이터; 및
상기 기준축을 중심으로 상기 제2 가드가 반시계방향으로 회전하도록 외력을 제공하는 제2 액츄에이터를 더 포함하는 것을 특징으로 하는 무인 항공기.main body;
a plurality of motors for providing power to the main body to perform at least one of a horizontal movement and a vertical movement; and
A processor for controlling at least one of the motors so that the main body flies,
a first guard connected to one surface of the body;
a second guard connected to the other surface of the body;
a first actuator for providing an external force to rotate the first guard clockwise about a reference axis; and
The unmanned aerial vehicle according to claim 1, further comprising a second actuator providing an external force to rotate the second guard in a counterclockwise direction about the reference axis.
제1 상태에서 상기 제1 가드 및 상기 제2 가드는 상기 복수의 모터들 위에 위치하며,
제2 상태에서 상기 제1 가드 및 상기 제2 가드는 상기 복수의 모터들 아래에 위치하는 것을 특징으로 하는 무인 항공기.10. The method of claim 9,
In a first state, the first guard and the second guard are positioned above the plurality of motors,
In a second state, the first guard and the second guard are located under the plurality of motors.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200039607A KR20210122458A (en) | 2020-04-01 | 2020-04-01 | Unmanned aerial vehicle and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200039607A KR20210122458A (en) | 2020-04-01 | 2020-04-01 | Unmanned aerial vehicle and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210122458A true KR20210122458A (en) | 2021-10-12 |
Family
ID=78078581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200039607A KR20210122458A (en) | 2020-04-01 | 2020-04-01 | Unmanned aerial vehicle and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210122458A (en) |
-
2020
- 2020-04-01 KR KR1020200039607A patent/KR20210122458A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11873091B2 (en) | Landing and payload loading structures | |
US11697411B2 (en) | Apparatus and methods for obstacle detection | |
US10683102B2 (en) | Home station for unmanned aerial vehicle | |
US10345803B2 (en) | Multi-part navigation process by an unmanned aerial vehicle for navigation | |
US9665094B1 (en) | Automatically deployed UAVs for disaster response | |
JP6393918B2 (en) | Audio transmission system | |
KR102280688B1 (en) | Controller for Unmanned Aerial Vehicle | |
US12091163B2 (en) | Locomotion systems and methods for aerial vehicles | |
US20240062135A1 (en) | Control apparatus for aircraft and control method therefor | |
US20220100208A1 (en) | Autonomous Multifunctional Aerial Drone | |
KR101990981B1 (en) | Method for dropping rescue equipment and drone for rescue using the same | |
JP2025016555A (en) | Position calculation method and information processing system | |
JP2019028712A (en) | Guidance method, guidance device, and guidance system of flying body | |
WO2018111075A1 (en) | Automatic landing system with high-speed descent for drones | |
KR102057657B1 (en) | Earth's surface detector, drone with the same and method for landing of the drone | |
KR102467485B1 (en) | Flight method for unmanned aerial vehicle tracking objects based on pixel coordinates | |
KR20210122458A (en) | Unmanned aerial vehicle and control method thereof | |
KR20220115461A (en) | Fire Fight Drone | |
US20200019191A1 (en) | Method for following wearable device and robot thereof | |
US20210011472A1 (en) | System, device and method for time limited communication for remotely controlled vehicles | |
US20220343779A1 (en) | System, device and method for time limited communication for remotely controlled vehicles | |
KR20220115456A (en) | Drone logistics system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20200401 |
|
PG1501 | Laying open of application |