[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102453446B1 - System for checking defect and method thereof - Google Patents

System for checking defect and method thereof Download PDF

Info

Publication number
KR102453446B1
KR102453446B1 KR1020210170011A KR20210170011A KR102453446B1 KR 102453446 B1 KR102453446 B1 KR 102453446B1 KR 1020210170011 A KR1020210170011 A KR 1020210170011A KR 20210170011 A KR20210170011 A KR 20210170011A KR 102453446 B1 KR102453446 B1 KR 102453446B1
Authority
KR
South Korea
Prior art keywords
drone
flight
subject
blade
camera
Prior art date
Application number
KR1020210170011A
Other languages
Korean (ko)
Other versions
KR102453446B9 (en
Inventor
이병윤
정영석
최재혁
Original Assignee
(주)니어스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)니어스랩 filed Critical (주)니어스랩
Priority to KR1020210170011A priority Critical patent/KR102453446B1/en
Application granted granted Critical
Publication of KR102453446B1 publication Critical patent/KR102453446B1/en
Publication of KR102453446B9 publication Critical patent/KR102453446B9/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D17/00Monitoring or testing of wind motors, e.g. diagnostics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/888Marking defects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/70Wind energy
    • Y02E10/72Wind turbines with rotation axis in wind direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Tourism & Hospitality (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Sustainable Development (AREA)
  • Sustainable Energy (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to a system and a method for inspecting a defect. The system comprises: a control device transmitting a light command signal to a drone and receiving a defect detection result of a subject from the drone; the drone receiving the flight command signal to fly; a gymball attached to a front side of the drone; a camera fixated to the gymball and enabling a viewing angle according to driving of the gymball; and a lidar sensor fixated to the gymball and detecting a distance from the subject.

Description

결함 점검 시스템 및 그 방법{System for checking defect and method thereof}Defect checking system and method thereof

본 발명은 결함 점검 시스템 및 그 방법에 관한 것이다. 구체적으로, 본 발명은 드론이 1차 이륙하여 피사체의 노즈의 위치에서 탑미션 비행을 수행하고, 2차 이륙하여 피사체의 노즈 위치에서 바텀미션을 수행하는 결함 점검 시스템 및 그 방법에 관한 것이다. The present invention relates to a defect inspection system and method therefor. Specifically, the present invention relates to a defect inspection system and method in which a drone performs a top mission flight at a nose position of a subject after taking off first, and performing a bottom mission at a nose position of a subject after taking off a second time.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다. The content described in this section merely provides background information for the present embodiment and does not constitute the prior art.

최근 드론을 이용하여 촬영하는 기술이 상용화되어 있다. 또한, 드론을 이용하여 촬영하는 기술은 다양한 기술분야와 접목되어 실시되고 있으며, 풍력 발전기 블레이드를 점검하기 위해, AI를 활용한 결함 검출 시스템에 대한 필요성이 증가되고 있다. Recently, a technology for photographing using a drone has been commercialized. In addition, the technology of photographing using a drone is being grafted into various technical fields, and the need for a defect detection system using AI is increasing in order to check the blades of a wind power generator.

기존의 풍력 발전기 블레이드를 점검 방법은 수작업으로 진행하는 경우, 많은 인원과 여러 장비가 필요하고, 많은 시간과 비용이 소요될 수 있다.In the case of manually inspecting the existing wind turbine blades, a large number of personnel and equipment are required, and a large amount of time and money may be consumed.

또한, 드론을 이용하여 블레이드를 점검할 경우, 풍력 발전기 블레이드 면에 수직하게 촬영하기 위해서는 드론에 설치된 카메라를 다양한 각도로 조절하여 정확하게 블레이드 면을 촬영하는 니즈가 존재하였다. In addition, when inspecting the blade using a drone, there was a need to accurately photograph the blade surface by adjusting the camera installed in the drone at various angles in order to photograph the wind turbine blade surface perpendicular to the blade surface.

따라서, 풍력 발전기 블레이드를 점검하기 위한 시간과 비용을 최소화하면서 정확히 결함 부분을 검출하는 시스템 및 그 방법에 대한 수요가 많은 실정이다. Accordingly, there is a high demand for a system and method for accurately detecting a defective part while minimizing time and cost for inspecting a wind turbine blade.

본 발명의 목적은, 드론으로 비행 명령 신호를 전송하고, 피사체의 결함 검출 결과를 드론으로부터 수신하는 제어 장치, 비행 명령 신호를 수신하여 비행하는 드론, 드론의 전방에 부착되는 짐벌, 짐벌에 고정되고, 짐벌의 구동에 따라서 시야각이 조절되는 카메라 및 짐벌에 고정되고, 피사체와의 거리를 감지하는 라이다 센서를 포함하는 결함 점검 시스템을 제공하는 것이다. An object of the present invention is to transmit a flight command signal to a drone and receive a defect detection result of a subject from the drone, a control device that receives a flight command signal to fly, a gimbal attached to the front of the drone, and a gimbal fixed to , to provide a defect inspection system including a camera and a gimbal whose viewing angle is adjusted according to the driving of the gimbal, and a lidar sensor that detects a distance from a subject.

또한, 본 발명의 목적은, 드론이 1차 이륙하여 피사체의 노즈의 위치에서 탑미션 비행을 수행하고, 2차 이륙하여 피사체의 노즈 위치에서 바텀미션을 수행하는 결함 점검 방법을 관한 제공하는 것이다. Another object of the present invention is to provide a defect checking method in which a drone performs a top mission flight at a nose position of a subject after taking off first, and performing a bottom mission at a nose position of a subject after taking off a second time.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 결함 점검 시스템은 드론으로 비행 명령 신호를 전송하고, 피사체의 결함 검출 결과를 상기 드론으로부터 수신하는 제어 장치, 상기 비행 명령 신호를 수신하여 비행하는 드론, 상기 드론의 전방에 부착되는 짐벌, 상기 짐벌에 고정되고, 상기 짐벌의 구동에 따라서 시야각이 조절되는 카메라 및 상기 짐벌에 고정되고, 상기 피사체와의 거리를 감지하는 라이다 센서를 포함할 수 있다.A defect inspection system according to some embodiments of the present invention for solving the above problems transmits a flight command signal to a drone, a control device for receiving a defect detection result of a subject from the drone, and receives the flight command signal to fly A drone, a gimbal attached to the front of the drone, a camera fixed to the gimbal and having a viewing angle adjusted according to the driving of the gimbal, and a lidar sensor fixed to the gimbal and detecting a distance to the subject have.

또한, 상기 짐벌은, 상기 드론의 전방에 연결되고, 상기 카메라가 상기 드론의 움직임에도 수평을 유지하도록 고정하는 서포팅 암과, 상기 서포팅 암에 연결되어 상기 카메라의 각도를 변경하는 구동 모터를 포함할 수 있다. In addition, the gimbal includes a supporting arm connected to the front of the drone and fixing the camera to remain horizontal even in the movement of the drone, and a driving motor connected to the supporting arm to change the angle of the camera. can

또한, 상기 라이다 센서는 상기 카메라의 하부에 위치할 수 있다. In addition, the lidar sensor may be located under the camera.

또한, 상기 제어 장치는, 상기 드론으로 상기 비행 명령 신호를 전송하는 조종부와, 상기 결함 검출 결과를 표시하는 디스플레이부를 포함할 수 있다. In addition, the control device may include a control unit for transmitting the flight command signal to the drone, and a display unit for displaying the defect detection result.

또한, 상기 결함 검출 결과는 상기 카메라로 촬영한 이미지와 상기 이미지에 포함된 상기 피사체의 결함 부분을 포함하되, 상기 결함 검출 결과를 이용하여, 리포트 데이터, 차트 데이터 및 히스토리 데이터를 생성하는 결함 점검 서버를 더 포함할 수 있다. In addition, the defect detection result includes an image captured by the camera and a defect part of the subject included in the image, and a defect inspection server that generates report data, chart data, and history data using the defect detection result may further include.

또한, 상기 드론에 부착되는 미션 프로세서를 더 포함하고, 상기 미션 프로세서는, 상기 제어 장치로부터 상기 비행 명령 신호를 수신하고, 짐벌 제어 신호, 카메라 제어 신호, 라이다 센서 제어 신호 및 비행 제어부 제어 신호 생성하여 각각 상기 짐벌, 상기 카메라, 상기 라이다 센서 및 비행 제어부로 전송하고, 상기 비행 제어부는 상기 비행 제어부 제어 신호를 수신하고, 상기 드론의 비행을 제어할 수 있다. In addition, further comprising a mission processor attached to the drone, wherein the mission processor receives the flight command signal from the control device, and generates a gimbal control signal, a camera control signal, a lidar sensor control signal and a flight controller control signal to the gimbal, the camera, the lidar sensor and the flight controller, respectively, and the flight controller may receive the flight controller control signal and control the flight of the drone.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 결함 점검 방법은, 드론이 제어 장치로부터 비행 명령 신호를 수신하는 단계;Defect checking method according to some embodiments of the present invention for solving the above problems, the drone receiving a flight command signal from a control device;

상기 비행 명령 신호를 기초로, 상기 드론이 1차 이륙하여 피사체의 노즈의 위치까지 이동하는 단계, 상기 드론이 상기 노즈의 위치에서 탑미션 비행을 수행하는 단계, 상기 탑미션 비행이 종료된 후, 상기 드론이 1차 착륙하는 단계, 상기 드론이 2차 이륙하여 상기 피사체의 노즈의 위치까지 이동하는 단계, 상기 드론이 상기 노즈의 위치에서부터 바텀미션 비행을 수행하는 단계 및 상기 바텀미션 비행이 종료된 후, 상기 드론이 2차 착륙하는 단계를 포함할 수 있다. Based on the flight command signal, the drone first takes off and moves to the position of the subject's nose, the drone performing a top mission flight at the position of the nose, after the top mission flight is finished, The first landing of the drone, the second taking off of the drone and moving to the position of the nose of the subject, the steps of the drone performing a bottom mission flight from the position of the nose, and the bottom mission flight is finished After that, the drone may include a second landing.

또한, 상기 피사체의 노즈의 위치까지 이동하는 단계는, 상기 드론에 포함된 라이다 센서로 상기 피사체를 인식하는 단계와, 상기 라이다 센서로부터 수신한 거리 데이터를 이용하여, 상기 피사체의 타워와 일정 거리만큼 떨어져 상승 비행하는 단계와, 상기 드론에 포함된 카메라에서 실시간 영상 데이터를 생성하는 단계와, 상기 실시간 영상 데이터를 이용하여 상기 드론이 상기 피사체의 노즈 부분을 인식하는 단계를 포함할 수 있다. In addition, the step of moving to the position of the nose of the subject includes recognizing the subject with a lidar sensor included in the drone, and using distance data received from the lidar sensor to set a constant distance with the tower of the subject. It may include the steps of flying upward by a distance, generating real-time image data from a camera included in the drone, and recognizing, by the drone, a nose portion of the subject using the real-time image data.

또한, 상기 탑미션 비행을 수행하는 단계는, 상기 피사체의 제1 블레이드의 하측면과 상기 제1 블레이드의 리딩 엣지를 따라 비행하는 단계와, 상기 피사체의 제2 블레이드의 우측면과 상기 제2 블레이드의 리딩 엣지를 따라 비행하는 단계와, 상기 피사체의 제3 블레이드의 하측면과 상기 제3 블레이드의 트레일링 엣지를 따라 비행하는 단계를 포함할 수 있다. In addition, performing the top mission flight includes flying along the lower surface of the first blade of the subject and the leading edge of the first blade, the right side of the second blade of the subject and the second blade It may include flying along the leading edge, and flying along the lower surface of the third blade of the subject and the trailing edge of the third blade.

또한, 상기 바텀미션 비행을 수행하는 단계는, 상기 피사체의 제3 블레이드의 상측면과 상기 제3 블레이드의 리딩 엣지를 따라 비행하는 단계와, 상기 피사체의 제2 블레이드의 좌측면과 상기 제2 블레이드의 트레일링 엣지를 따라 비행하는 단계와, 상기 피사체의 제1 블레이드의 상측면과 상기 제1 블레이드의 트레일링 엣지를 따라 비행하는 단계를 포함할 수 있다. In addition, the performing of the bottom mission flight includes flying along the upper surface of the third blade of the subject and the leading edge of the third blade, the left side of the second blade of the subject and the second blade It may include flying along the trailing edge of the subject, and flying along the upper surface of the first blade of the subject and the trailing edge of the first blade.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다. The specific effects of the present invention in addition to the above will be described together while explaining the specific details for carrying out the invention below.

본 발명의 결함 점검 시스템 및 그 방법은, 드론의 전방에 부착되는 짐벌, 짐벌의 구동에 따라서 시야각이 조절되는 카메라 및 짐벌에 고정되고, 피사체와의 거리를 감지하는 라이다 센서를 포함할 수 있다. 따라서, 드론의 전방에 짐벌이 부착되어 카메라의 시야각을 상하로 조절할 수 있고, 라이다 센서로 피사체와의 떨어진 거리를 측정하여, 드론이 피사체와 거리를 유지하면서 안정적으로 비행할 수 있다. The defect inspection system and method of the present invention may include a gimbal attached to the front of the drone, a camera whose viewing angle is adjusted according to the driving of the gimbal, and a lidar sensor fixed to the gimbal and detecting a distance from the subject. . Therefore, a gimbal is attached to the front of the drone to adjust the camera's viewing angle up and down, and by measuring the distance from the subject with the lidar sensor, the drone can fly stably while maintaining the distance from the subject.

또한, 본 발명의 결함 점검 시스템 및 그 방법은, 드론이 1차 이륙하여 피사체의 노즈의 위치에서 탑미션 비행을 수행하고, 2차 이륙하여 피사체의 노즈 위치에서 바텀미션을 수행할 수 있다. 따라서, 드론이 탑미션 비행을 수행하고 1차 착륙 후, 2차 이륙하여 피사체의 노즈 부분을 인식하고, 노즈의 위치에서 바텀미션을 수행하여 비행알고리즘을 단순화할 수 있다. In addition, the defect inspection system and method of the present invention may perform a top mission flight at the position of the subject's nose after the first takeoff of the drone, and the second takeoff to perform a bottom mission at the nose position of the subject. Therefore, the drone performs a top mission flight, takes off a second time after landing, and recognizes the nose part of the subject, and the flight algorithm can be simplified by performing the bottom mission at the position of the nose.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.The specific effects of the present invention in addition to the above will be described together while explaining the specific details for carrying out the invention below.

도 1은 본 발명의 몇몇 실시예에 따른 결함 점검 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 드론 및 결함 점검 시스템의 서버를 세부적으로 설명하기 위한 블록도이다.
도 3은 도 1의 제어 장치 및 결함 점검 시스템의 서버를 세부적으로 설명하기 위한 블록도이다.
도 4는 도 1의 결함 점검 시스템을 세부적으로 설명하기 위한 블록도이다.
도 5는 본 발명의 몇몇 실시예에 따른 드론을 설명하기 위한 도면이다.
도 6은 도 2의 드론의 미션 프로세서를 설명하기 위한 도면이다.
도 7은 도 2의 카메라, 짐벌 및 라이다 센서의 연결 관계를 설명하기 위한 도면이다.
도 8은 도 7의 카메라 및 짐벌의 연결 관계를 설명하기 위한 도면이다.
도 9는 본 발명의 몇몇 실시예에 따른 리포트 데이터를 설명하기 위한 사용자 인터페이스의 예시도이다.
도 10은 본 발명의 몇몇 실시예에 따른 히스토리 데이터를 설명하기 위한 사용자 인터페이스의 예시도이다.
도 11은 본 발명의 몇몇 실시예에 따른 차트 데이트를 설명하기 위한 사용자 인터페이스의 예시도이다.
도 12는 본 발명의 몇몇 실시예에 따른 제1 딥러닝 모듈 및 제2 딥러닝 모듈을 개략적으로 설명하기 위한 블록도이다.
도 13은 도 12의 제1 딥러닝 모듈 및 제2 딥러닝 모듈의 구성을 도시한 도면이다.
도 14는 본 발명의 몇몇 실시예에 따른 결함 점검 방법을 설명하기 위한 순서도이다.
도 15는 도 14의 결함 점검 방법을 설명하기 위한 도면이다.
도 16은 도 14의 노즈의 위치까지 이동하는 단계를 세부적으로 설명하기 위한 순서도이다.
도 17은 도 16의 라이다 센서에서 수시한 거리 데이터를 이용하여, 타워와 일정 거리만큼 떨어져 상승 비행하는 단계를 설명하기 위한 도면이다.
도 18은 도 16의 피사체의 노즈 부분을 인식하는 단계를 설명하기 위한 도면이다.
도 19는 도 14의 탑미션 비행을 수행하는 단계를 세부적으로 설명하기 위한 순서도이다.
도 20은 도 14의 탑미션 비행을 수행하는 단계를 설명하기 위한 도면이다.
도 21은 도 14의 바텀미션 비행을 수행하는 단계를 세부적으로 설명하기 위한 순서도이다.
도 22는 도 14의 바텀미션 비행을 수행하는 단계를 설명하기 위한 도면이다.
1 is a conceptual diagram for explaining a defect inspection system according to some embodiments of the present invention.
FIG. 2 is a block diagram for explaining in detail the drone of FIG. 1 and the server of the defect inspection system.
FIG. 3 is a block diagram illustrating in detail the control device and the server of the defect inspection system of FIG. 1 .
FIG. 4 is a block diagram illustrating in detail the defect inspection system of FIG. 1 .
5 is a view for explaining a drone according to some embodiments of the present invention.
FIG. 6 is a view for explaining a mission processor of the drone of FIG. 2 .
7 is a diagram for explaining a connection relationship between the camera, gimbal, and lidar sensor of FIG. 2 .
8 is a diagram for explaining a connection relationship between the camera and the gimbal of FIG. 7 .
9 is an exemplary diagram of a user interface for describing report data according to some embodiments of the present invention.
10 is an exemplary diagram of a user interface for describing historical data according to some embodiments of the present invention.
11 is an exemplary diagram of a user interface for explaining chart data according to some embodiments of the present invention.
12 is a block diagram schematically illustrating a first deep learning module and a second deep learning module according to some embodiments of the present invention.
13 is a diagram illustrating the configuration of the first deep learning module and the second deep learning module of FIG. 12 .
14 is a flowchart illustrating a defect checking method according to some embodiments of the present invention.
FIG. 15 is a view for explaining the defect checking method of FIG. 14 .
16 is a flowchart for explaining in detail the step of moving to the position of the nose of FIG. 14 .
FIG. 17 is a view for explaining the step of ascending flight away from the tower by a certain distance by using the distance data received from the lidar sensor of FIG. 16 .
FIG. 18 is a diagram for explaining a step of recognizing a nose portion of the subject of FIG. 16 .
19 is a flowchart for describing in detail the step of performing the top mission flight of FIG. 14 .
FIG. 20 is a view for explaining a step of performing the top mission flight of FIG. 14 .
21 is a flowchart for explaining in detail the step of performing the bottom mission flight of FIG. 14 .
22 is a view for explaining a step of performing the bottom mission flight of FIG. 14 .

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. In accordance with the principle that the inventor can define a term or concept of a word to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, the embodiments described in the present specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all the technical spirit of the present invention, so they can be replaced at the time of the present application. It should be understood that there may be various equivalents and modifications and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. used in this specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.

이하에서는, 도 1 내지 도 22를 참조하여, 본 발명의 몇몇 실시예들에 따른 결함 점검 시스템 빛 그 방법에 대해 자세히 설명하도록 한다.Hereinafter, with reference to FIGS. 1 to 22, a defect inspection system light method according to some embodiments of the present invention will be described in detail.

도 1은 본 발명의 몇몇 실시예에 따른 결함 점검 시스템을 설명하기 위한 개념도이고, 도 2는 도 1의 드론 및 결함 점검 시스템의 서버를 세부적으로 설명하기 위한 블록도이다. 도 3은 도 1의 제어 장치 및 결함 점검 시스템의 서버를 세부적으로 설명하기 위한 블록도이고, 도 4는 도 1의 결함 점검 시스템을 세부적으로 설명하기 위한 블록도이다. 도 5는 본 발명의 몇몇 실시예에 따른 드론을 설명하기 위한 도면이고, 도 6은 도 2의 드론의 미션 프로세서를 설명하기 위한 도면이다. 도 7은 도 2의 카메라, 짐벌 및 라이다 센서의 연결 관계를 설명하기 위한 도면이고, 도 8은 도 7의 카메라 및 짐벌의 연결 관계를 설명하기 위한 도면이다. 1 is a conceptual diagram for explaining a defect inspection system according to some embodiments of the present invention, and FIG. 2 is a block diagram for explaining in detail the drone of FIG. 1 and a server of the defect inspection system. FIG. 3 is a block diagram for explaining in detail the control device and the server of the defect inspection system of FIG. 1 , and FIG. 4 is a block diagram for describing the defect inspection system of FIG. 1 in detail. 5 is a diagram for explaining a drone according to some embodiments of the present invention, and FIG. 6 is a diagram for explaining a mission processor of the drone of FIG. 2 . FIG. 7 is a diagram for explaining a connection relationship between the camera, gimbal, and lidar sensor of FIG. 2 , and FIG. 8 is a diagram for explaining a connection relationship between the camera and the gimbal of FIG. 7 .

도 1 내지 도 8를 참조하면, 본 발명의 몇몇 실시예들에 따른 결함 점검 시스템(1000)은 드론(100), 제어 장치(200) 및 서버(300)를 포함할 수 있다. 이하에서는 결함 점검 시스템(1000)에 포함된 각 구성 요소에 대해 자세히 설명하도록 한다. 1 to 8 , a defect inspection system 1000 according to some embodiments of the present invention may include a drone 100 , a control device 200 , and a server 300 . Hereinafter, each component included in the defect inspection system 1000 will be described in detail.

우선, 도 1 내지 도 4를 참조하면, 드론(100), 제어 장치(200) 및 서버(300)는 네트워크를 통해서 데이터를 전송할 수 있다. 또한, 드론(100), 제어 장치(200) 및 서버(300)는 네트워크를 통해서 데이터를 수신할 수 있다. First, referring to FIGS. 1 to 4 , the drone 100 , the control device 200 , and the server 300 may transmit data through a network. Also, the drone 100 , the control device 200 , and the server 300 may receive data through a network.

이때, 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.In this case, the network may include a network based on a wired Internet technology, a wireless Internet technology, and a short-range communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technology is, for example, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet) Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) and 5G New Radio (NR) technology. However, the present embodiment is not limited thereto.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include. However, the present embodiment is not limited thereto.

네트워크를 통해서 통신하는 드론(100), 제어 장치(200) 및 서버(300)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The drone 100 , the control device 200 , and the server 300 communicating through the network may comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO). , at least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR). may include. However, the present embodiment is not limited thereto.

예를 들어, 드론(100)은 제어 장치(200)와 근거리 통신 기술로 연결될 수 있고, 제어 장치(200)와 서버(300)는 유무선 인터넷 기술로 연결될 수 있다. 단, 이에 제한되는 것은 아니다.For example, the drone 100 may be connected to the control device 200 through a short-range communication technology, and the control device 200 and the server 300 may be connected to the control device 200 through a wired/wireless Internet technology. However, the present invention is not limited thereto.

드론(100)에는 카메라(110), 짐벌(120), 라이다 센서(130), 메모리(140) 및 미션 프로세서(150)가 장착될 수 있다.The drone 100 may be equipped with a camera 110 , a gimbal 120 , a lidar sensor 130 , a memory 140 , and a mission processor 150 .

카메라(110)는 카메라 제어 신호에 응답하여 인물, 배경, 사물의 이미지 및 동영상을 촬영할 수 있다. 촬영된 이미지 및 동영상은 메모리(140)에 저장될 수 있다. The camera 110 may capture an image and a moving picture of a person, a background, and an object in response to a camera control signal. The captured image and video may be stored in the memory 140 .

이때, 카메라(110)에서 촬영된 이미지 데이터 또는 실시간 영상 데이터는 물체의 모습이 포함된 이미지 또는 영상일 수 있다. 이하에서는, 설명의 편의를 위해 카메라(110)에 촬영된 물체의 모습을 '피사체'로 정의하여 설명하도록 한다. 이때, 피사체는 예를 들어 풍력 발전기일 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.In this case, the image data or real-time image data captured by the camera 110 may be an image or an image including the appearance of an object. Hereinafter, for convenience of description, the appearance of an object photographed by the camera 110 will be defined as a 'subject'. In this case, the subject may be, for example, a wind power generator. However, the present embodiment is not limited thereto.

짐벌(120)은 드론(100)에 전방에 연결되고, 드론(100)의 움직임에도 카메라(110)를 고정시킬 수 있다. 또한, 짐벌(120)은 카메라(110)의 시야각을 조절할 수도 있다. 이에 대한 구체적인 설명은 도 5 내지 도 8을 참조하여 자세히 설명하도록 한다. The gimbal 120 is connected to the front of the drone 100 , and the camera 110 can be fixed even when the drone 100 moves. Also, the gimbal 120 may adjust the viewing angle of the camera 110 . A detailed description thereof will be described in detail with reference to FIGS. 5 to 8 .

라이다 센서(130)는 짐벌(120)에 고정되고 주변의 피사체를 감지할 수 있다. 이때, 라이다 센서(130)는 카메라(110)의 하부에 위치할 수 있다. 라이다 센서(130)는 드론(100)과 피사체가 서로 충돌하지 않도록 주변의 피사체를 감지하고, 이를 통해서 드론(100)이 비행할 때 피사체와 거리를 유지할 수 있다. The lidar sensor 130 is fixed to the gimbal 120 and may detect a surrounding subject. In this case, the lidar sensor 130 may be located under the camera 110 . The lidar sensor 130 detects a surrounding subject so that the drone 100 and the subject do not collide with each other, and through this, the drone 100 can maintain a distance from the subject when the drone 100 flies.

메모리(140)는 카메라(110)로부터 획득한 이미지 데이터 또는 실시간 영상 데이터를 저장할 수 있다. 구체적으로, 메모리(140)는 기 분석된 피사체의 결함 상태와 관련된 데이터를 저장할 수 있다. 이때의 결함은 예를 들어, 결함(crack)과 같은 형태로 존재할 수 있다. 예를 들어, 메모리(140)는 피사체의 결함의 크기 및 위치 등을 저장할 수 있다. 또한, 메모리(140)는 이미지 데이터 또는 실시간 영상 데이터에 대한 난수를 저장할 수 있다. The memory 140 may store image data or real-time image data acquired from the camera 110 . Specifically, the memory 140 may store data related to the previously analyzed defect state of the subject. In this case, the defect may exist in the form of, for example, a defect (crack). For example, the memory 140 may store the size and location of a defect in the subject. Also, the memory 140 may store a random number for image data or real-time image data.

미션 프로세서(150)는 미션 프로세서(150)는 카메라(110), 짐벌(120), 라이다 센서(130) 및 메모리(140)와 전기적으로 연결되어, 상기 부품들을 제어할 수 있다. 예를 들어, 미션 프로세서(150)는 짐벌 제어 신호, 라이다 센서 제어 신호 및 메모리 제어 신호를 각각 라이다 센서(130), 짐벌(120) 및 메모리(140)로 전송할 수 있다. 이를 통해서, 미션 프로세서(150)는 라이다 센서(130), 짐벌(120) 및 메모리(140)의 구동을 각각 제어할 수 있다. The mission processor 150 is electrically connected to the camera 110 , the gimbal 120 , the lidar sensor 130 , and the memory 140 , and the mission processor 150 may control the components. For example, the mission processor 150 may transmit a gimbal control signal, a lidar sensor control signal, and a memory control signal to the lidar sensor 130 , the gimbal 120 , and the memory 140 , respectively. Through this, the mission processor 150 may control the driving of the lidar sensor 130 , the gimbal 120 , and the memory 140 , respectively.

미션 프로세서(150)는 비행 제어부(151)와 임무 제어부(153)을 포함할 수 있다. 임무 제어부(153)는 제어 장치(200)로부터 비행 명령 신호를 수신하고, 비행 제어부 제어 신호를 생성할 수 있다. 비행 제어부(151)는 임무 제어부(153)로부터 비행 제어부 제어 신호를 수신하고, 드론(100)의 비행을 제어할 수 있다. 예를 들어, 제어 장치(200)로부터 자율 비행을 요청하는 비행 명령 신호를 수신할 경우, 비행 제어부(151)는 드론(100)이 자율 비행할 수 있도록 제어할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니며, 수동 비행을 요청하는 비행 명령 신호를 수신할 수도 있다. The mission processor 150 may include a flight control unit 151 and a mission control unit 153 . The mission controller 153 may receive a flight command signal from the control device 200 and generate a flight controller control signal. The flight controller 151 may receive a flight controller control signal from the mission controller 153 and control the flight of the drone 100 . For example, when receiving a flight command signal requesting autonomous flight from the control device 200 , the flight controller 151 may control the drone 100 to fly autonomously. However, the present embodiment is not limited thereto, and may receive a flight command signal requesting manual flight.

임무 제어부(153)는 제어 장치(200)로부터 비행 명령 신호를 수신하고, 카메라 제어 신호, 짐벌 제어 신호 및 라이다 센서 신호를 생성하여, 각각 카메라(110), 짐벌(120) 및 라이다 센서(130)으로 전송할 수 있다. The mission control unit 153 receives a flight command signal from the control device 200 and generates a camera control signal, a gimbal control signal, and a lidar sensor signal, respectively, to the camera 110 , the gimbal 120 and the lidar sensor ( ). 130) can be transmitted.

구체적으로, 임무 제어부(153)는 카메라 제어 신호, 짐벌 제어 신호 및 라이다 센서 신호를 카메라 드라이버(118), 짐벌 드라이버(128) 및 라이다 드라이버(138)로 전송할 수 있다. Specifically, the mission controller 153 may transmit a camera control signal, a gimbal control signal, and a lidar sensor signal to the camera driver 118 , the gimbal driver 128 , and the lidar driver 138 .

이때, 카메라 제어 신호는 촬영 시작 또는 촬영 중지 신호를 포함하고, 짐벌 제어 신호는 짐벌의 구동 모터를 동작시키는 신호를 포함하고, 라이다 제어 신호는 센서 작동 또는 작동 중지 신호를 포함할 수 있다. 예를 들어, 임무 제어부(153)는 카메라 제어 신호 중 촬영 시작 신호를 카메라 드라이버(118)로 전송한 경우, 카메라 드라이버(118)는 카메라(110)를 작동시켜 촬영할 수 있다. 단 본 실시예가 이에 제한되는 것은 아니며, 카메라 제어 신호, 짐벌 제어 신호 및 라이다 제어 신호는 다양하게 변형되어 실시될 수 있다. In this case, the camera control signal may include a photographing start or photographing stop signal, the gimbal control signal may include a signal for operating a driving motor of the gimbal, and the lidar control signal may include a sensor operation or operation stop signal. For example, when the mission control unit 153 transmits a photographing start signal among the camera control signals to the camera driver 118 , the camera driver 118 may operate the camera 110 to photograph. However, the present embodiment is not limited thereto, and the camera control signal, the gimbal control signal, and the lidar control signal may be variously modified and implemented.

구체적으로 도 5 내지 도 8을 참조하면, 드론(100)의 전방으로 짐벌(120)이 설치될 수 있다. 드론(100)의 후방의 A영역에는 미션 프로세서(150)가 설치될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니며, 미션 프로세서(150)의 위치는 다양하게 변형될 수 있다. Specifically, referring to FIGS. 5 to 8 , the gimbal 120 may be installed in front of the drone 100 . A mission processor 150 may be installed in region A of the rear of the drone 100 . However, the present embodiment is not limited thereto, and the position of the mission processor 150 may be variously modified.

짐벌(120)은 드론(100)의 전방에 연결되고, 짐벌(120)의 B영역에는 카메라(110)와 라이다 센서(130)가 설치될 수 있다. 카메라(110)는 드론(100)의 전방에 부착되는 짐벌(120)에 고정될 수 있다. 즉, 카메라(110)도 드론(100)의 전방에 배치될 수 있다. 또한 라이다 센서(130)도 드론(100)의 전방에 배치될 수 있다. The gimbal 120 is connected to the front of the drone 100 , and the camera 110 and the lidar sensor 130 may be installed in the region B of the gimbal 120 . The camera 110 may be fixed to the gimbal 120 attached to the front of the drone 100 . That is, the camera 110 may also be disposed in front of the drone 100 . Also, the lidar sensor 130 may be disposed in front of the drone 100 .

짐벌(120)은 드론(100)의 움직임에도 수평을 유지하도록 고정하는 제1 및 제2 서포팅암(121, 123)과 제1 및 제2 서포팅암(121, 123)에 연결되어 카메라(110)의 각도를 변경하는 제1 및 제2 구동 모터(125, 127)를 포함할 수 있다. 제1 및 제2 구동 모터(125, 127)는 회전하여 카메라(110)의 시야각을 변경할 수 있다. 예를 들어, 카메라(110)가 전방을 바라보고 있고 제1 구동 모터와 제2 구동 모터(125, 127)가 시계 방향으로 45˚ 회전한 경우, 카메라(110)의 시야각은 45˚ 기울어질 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니며, 제1 구동 모터와 제2 구동 모터(125, 127)는 다양한 각도로 회전할 수 있다. The gimbal 120 is connected to the first and second supporting arms 121 and 123 and the first and second supporting arms 121 and 123 that are fixed so as to remain horizontal even in the movement of the drone 100 and are connected to the camera 110 . It may include first and second driving motors 125 and 127 for changing the angle of . The first and second driving motors 125 and 127 may rotate to change the viewing angle of the camera 110 . For example, when the camera 110 is facing forward and the first and second driving motors 125 and 127 rotate 45˚ clockwise, the viewing angle of the camera 110 may be inclined by 45˚. have. However, the present embodiment is not limited thereto, and the first and second driving motors 125 and 127 may rotate at various angles.

한편, 드론(100)과 짐벌(120) 사이에는 댐퍼(DP)가 위치할 수 있다. 댐퍼(DP)는 드론(100)의 진동 에너지를 흡수하는 장치일 수 있다. Meanwhile, a damper DP may be positioned between the drone 100 and the gimbal 120 . The damper DP may be a device that absorbs vibration energy of the drone 100 .

이를 통해, 본 발명에 몇몇 실시예에 따른 드론(100)은 전방에 짐벌(120)이 부착되어 카메라(110)의 시야각을 조절할 수 있어 다양한 각도에서 피사체를 촬영할 수 있다. Through this, the drone 100 according to some embodiments of the present invention has a gimbal 120 attached to the front so that the viewing angle of the camera 110 can be adjusted, so that a subject can be photographed from various angles.

다시, 도 1 내지 도 4를 참조하면, 제어 장치(200)는 조종부(210)와 디스플레이부(220)를 포함할 수 있다. Again, referring to FIGS. 1 to 4 , the control device 200 may include a control unit 210 and a display unit 220 .

조종부(210)는 드론(100)으로 비행 명령 신호를 전송할 수 있다. 이때, 비행 명령 신호는 자율 비행 또는 수동 비행 신호를 포함할 수 있다. 자율 비행 신호는 미션 프로세서(150)를 이용하여 드론(100)을 자율 비행하는 신호일 수 있다. 수동 비행 신호는 조종부(210)를 이용하여 드론(100)에게 지속적으로 신호를 전송하여 수동 비행하는 신호일 수 있다. The control unit 210 may transmit a flight command signal to the drone 100 . In this case, the flight command signal may include an autonomous flight or a manual flight signal. The autonomous flight signal may be a signal for autonomously flying the drone 100 using the mission processor 150 . The manual flight signal may be a signal for manually flying by continuously transmitting a signal to the drone 100 using the control unit 210 .

디스플레이부(220)는 예를 들어, 퍼스널 컴퓨터(Personal Computer), 워크스테이션(workstation), 개인 휴대용 정보 단말기(PDA, personal digital assistant), 포터블 컴퓨터(portable computer), 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 디지털 뮤직 플레이어(digital music player), 메모리 카드(memory card), 또는 정보를 무선환경에서 송신 및/또는 수신할 수 있는 모든 전자 제품에 적용될 수 있다. The display unit 220 is, for example, a personal computer, a workstation, a personal digital assistant (PDA), a portable computer, a web tablet, a wireless It can be applied to a wireless phone, a mobile phone, a digital music player, a memory card, or any electronic product that can transmit and/or receive information in a wireless environment. .

서버(300)는 통신부(310), 비행 경로 결정부(320), 메타 데이터 관리부(330), 결과 데이터 생성부(340) 및 메모리부(350)를 포함할 수 있다. The server 300 may include a communication unit 310 , a flight path determination unit 320 , a metadata management unit 330 , a result data generation unit 340 , and a memory unit 350 .

통신부(310)는 비행 명령 신호를 제어 장치(200)로 전송할 수 있다. 통신부(310)는 비행 신호를 드론(100)으로부터 수신할 수 있다. 구체적으로, 통신부(310)에서 전송한 비행 명령 신호를 제어 장치(200)에서 수신하고, 제어 장치(200)는 수신한 비행 명령 신호를 드론(100)으로 전송할 수 있다. 이에 드론(100)이 전송한 비행 신호를 통신부(310)가 수신할 수 있다. 이때, 비행 신호는 드론(100)이 지면에서부터 이륙할 경우 전송하는 신호일 수 있다. The communication unit 310 may transmit a flight command signal to the control device 200 . The communication unit 310 may receive a flight signal from the drone 100 . Specifically, the control device 200 may receive the flight command signal transmitted from the communication unit 310 , and the control device 200 may transmit the received flight command signal to the drone 100 . Accordingly, the communication unit 310 may receive the flight signal transmitted by the drone 100 . In this case, the flight signal may be a signal transmitted when the drone 100 takes off from the ground.

또한, 통신부(310)는 카메라(110)가 촬영한 이미지 데이터 및 실시간 영상 데이터를 수신할 수 있다. 또한, 통신부(310)는 라이다 센서(130)로부터 거리 데이터를 수신할 수 있다. 이때 거리 데이터는 라이다 센서(130)와 피사체 사이의 거리를 나타내는 데이터일 수 있다. Also, the communication unit 310 may receive image data captured by the camera 110 and real-time image data. Also, the communication unit 310 may receive distance data from the lidar sensor 130 . In this case, the distance data may be data representing a distance between the lidar sensor 130 and the subject.

비행 경로 결정부(320)는 실시간 영상 데이터 및 거리 데이터를 이용하여 자율 비행 경로를 생성할 수 있다. 예를 들어, 실시간 영상 데이터 및 거리 데이터는 통신부(310)를 통해 비행 경로 결정부(320)에 제공될 수 있다. 이에 대한 구체적인 내용은 도 12를 참조하여 구체적으로 설명하도록 한다. The flight path determiner 320 may generate an autonomous flight path using real-time image data and distance data. For example, real-time image data and distance data may be provided to the flight path determining unit 320 through the communication unit 310 . A detailed description thereof will be described in detail with reference to FIG. 12 .

메타 데이터 관리부(330)는 이미지 데이터를 이용하여 메타 데이터를 생성할 수 있다. 예를 들어, 이미지 데이터는 통신부(310)를 통해 메타 데이터 관리부(330)에 제공될 수 있다. 메타 데이터는 이미지 데이터에 대한 촬영된 위치, 피사체까지의 거리, 피사체의 각도 중 적어도 하나를 포함할 수 있다. The metadata management unit 330 may generate metadata using image data. For example, the image data may be provided to the metadata management unit 330 through the communication unit 310 . The metadata may include at least one of a photographed location of image data, a distance to a subject, and an angle of the subject.

또한, 메타 데이터는 난수를 생성하여 저장할 수 있다. 이때, 메타 데이터의 난수는 대응되는 이미지 데이터가 메모리(140)에 이미지 데이터를 저장할 때 생성했던 난수와 동일한 난수로 저장될 수 있다. In addition, the metadata may generate and store a random number. In this case, the random number of the meta data may be stored as a random number identical to the random number generated when the image data corresponding to the image data is stored in the memory 140 .

메타 데이터 관리부(330)는 메타 데이터와 이미지 데이터를 매칭시키기 위해 난수를 비교할 수 있다. 예를 들어, 메모리(140)에 저장된 이미지 데이터의 난수는 123이고, 메타 데이터 관리부(330)에서 생성한 메타 데이터의 난수가 456일 경우, 이미지 데이터와 메타 데이터는 대응되는 데이터가 아니므로 메타 데이터 관리부(330)는 이미지 데이터와 메타 데이터를 매칭시킬 수 없다. The metadata management unit 330 may compare random numbers to match metadata and image data. For example, if the random number of the image data stored in the memory 140 is 123 and the random number of the metadata generated by the metadata management unit 330 is 456, the image data and the metadata do not correspond to the metadata. The management unit 330 cannot match the image data and the metadata.

다른 예로서, 메모리(140)에 저장된 이미지 데이터의 난수는 123이고, 메타 데이터 관리부(330)에서 생성한 메타 데이터의 난수가 123일 경우, 이미지 데이터와 메타 데이터는 대응되는 데이터이므로 메타 데이터 관리부(330)는 이미지 데이터와 메타 데이터를 매칭시킬 수 있다.As another example, when the random number of the image data stored in the memory 140 is 123 and the random number of the metadata generated by the metadata management unit 330 is 123, since the image data and the metadata are corresponding data, the metadata management unit ( 330) may match image data and metadata.

결과 데이터 생성부(340)는 이미지 데이터를 이용하여 리포트 데이터, 차트 데이터 및 히스토리 데이터를 생성할 수 있다. 예를 들어, 이미지 데이터는 통신부(310)를 통해 결과 데이터 생성부(340)에 제공될 수 있다. 이에 대한 구체적인 설명은 도 9 내지 도 11을 참조하여 자세히 설명하도록 한다. The result data generator 340 may generate report data, chart data, and history data using the image data. For example, the image data may be provided to the result data generation unit 340 through the communication unit 310 . A detailed description thereof will be described in detail with reference to FIGS. 9 to 11 .

본 명세서에서는 설명의 편의상 비행 경로 결정부(320), 메타 데이터 관리부(330) 및 결과 데이터 생성부(340)가 모두 서버(300)에 포함된 것으로 설명하였으나, 실시예들이 이에 제한되는 것은 아니다. 몇몇 실시예에 따르면, 비행 경로 결정부(320), 메타 데이터 관리부(330) 및 결과 데이터 생성부(340) 중 적어도 일부는 드론(100)의 미션 프로세서(150)에 포함될 수 있다. 예를 들어, 메타 데이터 관리부(330)는 서버(300)에 포함되고, 비행 경로 결정부(320) 및 결과 데이터 생성부(340)는 미션 프로세서(150)에 포함될 수 있다. 다른 예를 들어, 메타 데이터 관리부(330) 및 결과 데이터 생성부(340)는 서버(300)에 포함되고, 비행 경로 결정부(320)는 미션 프로세서(150)에 포함될 수 있다. 본 발명의 기술 분야에서 통상의 지식을 가진 자는 사용 환경에 따라 혹은 미션 프로세서(150)의 스펙 등에 따라, 비행 경로 결정부(320), 메타 데이터 관리부(330) 및 결과 데이터 생성부(340) 중 적어도 일부의 기능을 드론(100) 내에서 온-디바이스로 구현할 수 있을 것이다.In the present specification, it has been described that the flight path determining unit 320 , the meta data management unit 330 , and the result data generating unit 340 are all included in the server 300 for convenience of description, but embodiments are not limited thereto. According to some embodiments, at least some of the flight path determining unit 320 , the metadata management unit 330 , and the result data generating unit 340 may be included in the mission processor 150 of the drone 100 . For example, the metadata management unit 330 may be included in the server 300 , and the flight path determining unit 320 and the result data generation unit 340 may be included in the mission processor 150 . As another example, the metadata management unit 330 and the result data generation unit 340 may be included in the server 300 , and the flight path determining unit 320 may be included in the mission processor 150 . A person having ordinary knowledge in the technical field of the present invention according to the usage environment or the specification of the mission processor 150, among the flight path determining unit 320, the meta data management unit 330, and the result data generation unit 340 At least some functions may be implemented in the drone 100 on-device.

메모리부(350)는 통신부(310)에서 수신한 데이터 및 비행 경로 결정부(320), 메타 데이터 관리부(330) 및 결과 데이터 생성부(340)에서 생성한 데이터를 저장할 수 있다. 구체적으로, 통신부(310)에서 수신한 거리 데이터, 이미지 데이터 및 실시간 영상 데이터와 비행 경로 결정부(320)에서 생성한 자율 비행 경로와 메타 데이터 관리부(330)에서 생성한 메타 데이터 및 결과 데이터 생성부(340)에서 생성한 리포트 데이터, 차트 데이터 및 히스토리 데이터를 저장할 수 있다. The memory unit 350 may store data received from the communication unit 310 and data generated by the flight path determination unit 320 , the metadata management unit 330 , and the result data generation unit 340 . Specifically, distance data, image data, and real-time image data received from the communication unit 310 and the autonomous flight path generated by the flight path determining unit 320 and metadata generated by the metadata management unit 330 and result data generation unit The report data, chart data, and history data generated in 340 may be stored.

도 4에서 도시된, 통신장치(TM)는 드론(100)과 제어 장치(200)의 통신을 이행하는 장치로서, 와이파이나 RF 통신과 같은 근거리 네트워킹을 수행하는 장치일 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.As shown in FIG. 4 , the communication device TM is a device that performs communication between the drone 100 and the control device 200 , and may be a device that performs short-range networking such as Wi-Fi or RF communication. However, the present embodiment is not limited thereto.

이하에서는, 도 9 내지 도 11을 참조하여, 본 발명의 몇몇 실시예들에 따른 결과 데이터에 대해 설명한다.Hereinafter, result data according to some embodiments of the present invention will be described with reference to FIGS. 9 to 11 .

도 9는 본 발명의 몇몇 실시예에 따른 리포트 데이터를 설명하기 위한 사용자 인터페이스의 예시도이고, 도 10은 본 발명의 몇몇 실시예에 따른 히스토리 데이터를 설명하기 위한 사용자 인터페이스의 예시도이고, 도 11은 본 발명의 몇몇 실시예에 따른 차트 데이트를 설명하기 위한 사용자 인터페이스의 예시도이다. 9 is an exemplary diagram of a user interface for explaining report data according to some embodiments of the present invention, FIG. 10 is an exemplary diagram of a user interface for describing history data according to some embodiments of the present invention, and FIG. 11 is an exemplary diagram of a user interface for describing chart data according to some embodiments of the present invention.

도 9를 참조하면, 디스플레이부(220)는 리포트 데이터(RE)를 표시할 수 있다. 리포트 데이터(RE)는 코멘트 데이터(SM), 테이블 데이터(AN) 및 이미지 데이터(IM)를 포함할 수 있다.Referring to FIG. 9 , the display 220 may display report data RE. The report data RE may include comment data SM, table data AN, and image data IM.

코멘트 데이터(SM)는 피사체의 어느 위치에 어떤 결함이 존재하는 지에 대한 자세한 코멘트를 포함할 수 있다. 코멘트 데이터(SM)는 결함(CP)의 위치, 형태 및 종류를 설명하고, 어떤 카테고리에 속하는 지에 대해서 기재할 수 있다.The comment data SM may include a detailed comment on which defect exists in which position of the subject. The comment data SM may describe the location, form, and type of the defect CP, and may describe to which category it belongs.

테이블 데이터(AN)는 결함의 타입, 카테고리, 상태, 조치 요구 기한, 설명 및 위치 중 적어도 하나를 테이블 형식으로 제공할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The table data AN may provide at least one of a type, category, state, action request deadline, description, and location of the defect in a tabular form. However, the present embodiment is not limited thereto.

이미지 데이터(IM)는 결함(CP)의 위치와 형태를 알 수 있도록 결함(CP)의 이미지를 포함할 수 있다. 이때, 이미지 데이터(IM)는 위치를 알 수 있는 이미지와 형태를 자세히 알 수 있는 확대 이미지를 포함할 수 있다.The image data IM may include an image of the defect CP so that the position and shape of the defect CP may be known. In this case, the image data IM may include an image from which a location can be identified and an enlarged image from which a shape can be identified in detail.

도 10을 참조하면, 디스플레이부(220)는 히스토리 데이터(HS1, HS2)를 표시할 수 있다. 히스토리 데이터(HS1, HS2)는 제1 히스토리 데이터(HS1) 및 제2 히스토리 데이터(HS2)를 포함할 수 있다. 제1 히스토리 데이터(HS1) 및 제2 히스토리 데이터(HS2)는 동일한 부분의 다른 시점의 모습을 나타낸 데이터일 수 있다. 이를 통해서, 피사체의 어느 부분이 시간이 지남에 따라 어떻게 변하는 지를 명확하고 직관적으로 표현할 수 있다.Referring to FIG. 10 , the display 220 may display history data HS1 and HS2. The history data HS1 and HS2 may include first history data HS1 and second history data HS2 . The first history data HS1 and the second history data HS2 may be data representing different viewpoints of the same part. Through this, it is possible to clearly and intuitively express which part of the subject changes over time.

도 11을 참조하면, 디스플레이부(220)는 차트 데이터(CA)를 표시할 수 있다. 차트 데이터(CA)는 지도 및 다양한 그래프 형태로 표시될 수 있다. 이를 통해서, 본 발명의 결함 점검 시스템은 피사체의 위치, 피사체의 결함의 위치, 결함의 특징 등을 그래피컬하게 직관적으로 제공할 수 있다. Referring to FIG. 11 , the display 220 may display chart data CA. The chart data CA may be displayed in the form of a map and various graphs. Through this, the defect inspection system of the present invention can graphically and intuitively provide the position of the subject, the position of the defect of the subject, the characteristics of the defect, and the like.

이하에서는, 자율 비행 경로 및 결과 데이터를 생성하는 딥러닝 모듈에 대해 구체적으로 설명하기 위해, 도 13 및 도 14를 더 참조한다. Hereinafter, in order to describe in detail the deep learning module for generating autonomous flight routes and result data, further reference is made to FIGS. 13 and 14 .

도 12는 본 발명의 몇몇 실시예에 따른 제1 딥러닝 모듈 및 제2 딥러닝 모듈을 개략적으로 설명하기 위한 블록도이고, 도 13은 도 12의 제1 딥러닝 모듈 및 제2 딥러닝 모듈의 구성을 도시한 도면이다. 12 is a block diagram schematically illustrating a first deep learning module and a second deep learning module according to some embodiments of the present invention, and FIG. 13 is a first deep learning module and a second deep learning module of FIG. It is a drawing showing the configuration.

도 1, 도 12을 참조하면, 서버(300)는 딥러닝 모듈을 포함할 수 있다. 딥러닝 모듈은 제1 딥러닝 모듈(DM1) 및 제2 딥러닝 모듈(DM2)을 포함할 수 있다. 예를 들어, 비행 경로 결정부(320)는 제1 딥러닝 모듈(DM1)을 포함하고, 결과 데이터 생성부(340)는 제2 딥러닝 모듈(DM2)를 포함할 수 있다. 전술한 바와 같이, 다른 몇몇 실시예에 따른 결함 점검 시스템은, 비행 경로 결정부(320) 및 결과 데이터 생성부(340) 중 적어도 일부가 드론(100)의 미션 프로세서(150)에 포함될 수 있다. 예를 들어, 비행 경로 결정부(320)는 미션 프로세서(150)에 포함되고, 결과 데이터 생성부(340)는 서버(300)에 포함될 수 있다. 이 경우, 제1 딥러닝 모듈(DM1)은 드론(100)의 미션 프로세서(150)에 포함되고, 제2 딥러닝 모듈(DM2)은 서버(300)에 포함될 수 있다. 본 발명의 기술 분야에서 통상의 지식을 가진 자는 사용 환경에 따라 혹은 미션 프로세서(150)의 스펙 등에 따라, 제1 딥러닝 모듈(DM1) 및 제2 딥러닝 모듈(DM2)을 서버(300)에서 구현할지, 혹은 드론(100)에서 온-디바이스로 구현할지 여부를 선택할 수 있을 것이다.1 and 12 , the server 300 may include a deep learning module. The deep learning module may include a first deep learning module DM1 and a second deep learning module DM2. For example, the flight path determining unit 320 may include a first deep learning module DM1, and the result data generating unit 340 may include a second deep learning module DM2. As described above, in the defect inspection system according to some other embodiments, at least a portion of the flight path determining unit 320 and the result data generating unit 340 may be included in the mission processor 150 of the drone 100 . For example, the flight path determining unit 320 may be included in the mission processor 150 , and the result data generating unit 340 may be included in the server 300 . In this case, the first deep learning module DM1 may be included in the mission processor 150 of the drone 100 , and the second deep learning module DM2 may be included in the server 300 . A person having ordinary knowledge in the technical field of the present invention according to the user environment or the specification of the mission processor 150, the first deep learning module (DM1) and the second deep learning module (DM2) in the server 300 It may be possible to choose whether to implement it or whether to implement it on-device in the drone 100 .

제1 딥러닝 모듈(DM1)은 거리 데이터(DA) 및 실시간 영상 데이터(VA)를 입력으로 알고리즘을 수행하여 자율 비행 경로(FR)를 도출할 수 있다. 제2 딥러닝 모듈(DM2)은 이미지 데이터(IM)를 입력으로 알고리즘을 수행하여 결과 데이터인 리포트 데이터(RE), 히스토리 데이터(HI) 및 차트 데이터(CA)를 도출할 수 있다. The first deep learning module DM1 may derive the autonomous flight path FR by performing an algorithm by inputting the distance data DA and the real-time image data VA. The second deep learning module DM2 may derive the report data RE, the history data HI, and the chart data CA, which are result data, by performing an algorithm with the image data IM as input.

제1 및 제2 딥러닝 모듈(DM1, DM2)은 공지된 다양한 신경망 구조를 이용할 수 있다. 예를 들어, 제1 및 제2 딥러닝 모듈(DM1, DM2)은 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 및 GNN(Graph Neural Network) 중 적어도 하나를 포함할 수 있다.The first and second deep learning modules DM1 and DM2 may use various well-known neural network structures. For example, the first and second deep learning modules (DM1, DM2) include at least one of a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), a Deep Belief Network (DBN), and a Graph Neural Network (GNN). can do.

한편, 제1 및 제2 딥러닝 모듈(DM1, DM2)의 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 가중치(Weight)를 조정(필요한 경우 바이어스(Bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 제1 및 제2 딥러닝 모듈(DM1, DM2)은 학습에 의해 가중치(Weight) 값을 지속적으로 업데이트 시킬 수 있다. On the other hand, learning of the first and second deep learning modules DM1 and DM2 is performed by adjusting the weight of the connection line between nodes (and adjusting the bias value if necessary) so that a desired output is obtained for a given input. can In addition, the first and second deep learning modules DM1 and DM2 may continuously update a weight value by learning.

이하에서는, 전술한 제1 및 제2 딥러닝 모듈(DM1, DM2)의 일 예에 대해 살펴보도록 한다.Hereinafter, an example of the above-described first and second deep learning modules DM1 and DM2 will be described.

도 13 및 도 14를 참조하면, 딥러닝 모듈(DM)은 제1 및 제2 딥러닝 모듈(DM1, DM2)를 포함할 수 있다. 13 and 14 , the deep learning module DM may include first and second deep learning modules DM1 and DM2.

제1 딥러닝 모듈(DM1)은 거리 데이터(DA) 및 실시간 영상 데이터(VA)를 입력 받는 입력노드를 포함하는 입력 레이어(Input)와, 자율 비행 경로(FR)를 출력하는 출력노드를 포함하는 출력 레이어(Output)와, 입력 레이어와 출력 레이어 사이에 배치되는 M 개의 히든 레이어를 포함한다.The first deep learning module (DM1) includes an input layer (Input) including an input node that receives distance data (DA) and real-time image data (VA), and an output node that outputs an autonomous flight path (FR) It includes an output layer (Output) and M hidden layers disposed between the input layer and the output layer.

제2 딥러닝 모듈(DM2)은 이미지 데이터(IM)를 입력 받는 입력노드를 포함하는 입력 레이어(Input)와, 리포트 데이터(RE), 히스토리 데이터(HI) 및 차트 데이터(CA)를 출력하는 출력노드를 포함하는 출력 레이어(Output)와, 입력 레이어와 출력 레이어 사이에 배치되는 M 개의 히든 레이어를 포함한다.The second deep learning module DM2 has an input layer (Input) including an input node that receives image data (IM), and an output that outputs report data (RE), history data (HI) and chart data (CA). It includes an output layer (Output) including nodes, and M hidden layers disposed between the input layer and the output layer.

여기서, 각 레이어들의 노드를 연결하는 에지(Edge)에는 가중치가 설정될 수 있다. 이러한 가중치 혹은 에지의 유무는 학습 과정에서 추가, 제거, 또는 업데이트 될 수 있다. 따라서, 학습 과정을 통하여, k개의 입력노드와 i개의 출력노드 사이에 배치되는 노드들 및 에지들의 가중치는 업데이트될 수 있다.Here, a weight may be set on an edge connecting the nodes of each layer. The presence or absence of such weights or edges may be added, removed, or updated during the learning process. Accordingly, through the learning process, weights of nodes and edges disposed between k input nodes and i output nodes may be updated.

제1 딥러닝 모듈(DM1)이 학습을 수행하기 전에는 모든 노드와 에지는 초기값으로 설정될 수 있다. 그러나, 누적하여 정보가 입력될 경우, 노드 및 에지들의 가중치는 변경되고, 이 과정에서 학습인자로 입력되는 파라미터들(즉, 거리 데이터 및 실시간 영상 데이터)과 출력노드로 할당되는 값(즉, 자율 비행 경로) 사이의 매칭이 이루어질 수 있다. Before the first deep learning module DM1 performs learning, all nodes and edges may be set to initial values. However, when accumulated information is input, the weights of nodes and edges are changed, and in this process, parameters input as learning factors (ie, distance data and real-time image data) and values assigned to output nodes (ie, autonomy) flight paths) can be matched.

제2 딥러닝 모듈(DM2)이 학습을 수행하기 전에는 모든 노드와 에지는 초기값으로 설정될 수 있다. 그러나, 누적하여 정보가 입력될 경우, 노드 및 에지들의 가중치는 변경되고, 이 과정에서 학습인자로 입력되는 파라미터들(즉, 이미지 데이터)과 출력노드로 할당되는 값(즉, 리포트 데이터, 히스토리 데이터, 차트 데이터) 사이의 매칭이 이루어질 수 있다. Before the second deep learning module DM2 performs learning, all nodes and edges may be set to initial values. However, when cumulative information is input, the weights of nodes and edges are changed, and in this process, parameters input as learning factors (ie, image data) and values assigned to output nodes (ie, report data, history data) , chart data) can be matched.

추가적으로, 클라우드 서버를 이용하는 경우, 딥러닝 모듈(DM)은 많은 수의 파라미터들을 수신하여 처리할 수 있다. 따라서, 딥러닝 모듈(DM)은 방대한 데이터에 기반하여 학습을 수행할 수 있다.Additionally, when using a cloud server, the deep learning module (DM) may receive and process a large number of parameters. Therefore, the deep learning module (DM) can perform learning based on massive data.

또한, 딥러닝 모듈(DM)을 구성하는 입력노드와 출력노드 사이의 노드 및 에지의 가중치는 딥러닝 모듈(DM)의 학습 과정에 의해 업데이트될 수 있다. 또한, 제1 딥러닝 모듈(DM1)에서 출력되는 파라미터는 자율 비행 경로와 제2 딥러닝 모듈(DM2)에서 출력되는 파라미터는 리포트 데이터, 히스토리 데이터 및 차트 데이터 외에도 다양한 데이터로 추가 확장될 수 있음은 물론이다.In addition, the weights of nodes and edges between the input node and the output node constituting the deep learning module (DM) may be updated by the learning process of the deep learning module (DM). In addition, the parameters output from the first deep learning module (DM1) are autonomous flight paths and the parameters output from the second deep learning module (DM2) can be further expanded to various data in addition to report data, history data, and chart data. Of course.

이하, 도 4 및 도 14 내지 도 22를 참조하여, 본 발명의 몇몇 실시예들에 따른 결함 점검 방법을 설명한다. 상술한 실시예와 중복되는 설명은 간략히 하거나 생략한다.Hereinafter, a defect checking method according to some embodiments of the present invention will be described with reference to FIGS. 4 and 14 to 22 . Descriptions overlapping with the above-described embodiments will be simplified or omitted.

도 14는 본 발명의 몇몇 실시예에 따른 결함 점검 방법을 설명하기 위한 순서도이고, 도 15는 도 14의 결함 점검 방법을 설명하기 위한 도면이다. 도 16은 도 14의 노즈의 위치까지 이동하는 단계를 세부적으로 설명하기 위한 순서도이고, 도 17은 도 16의 라이다 센서에서 수시한 거리 데이터를 이용하여, 타워와 일정 거리만큼 떨어져 상승 비행하는 단계를 설명하기 위한 도면이다. 도 18은 도 16의 피사체의 노즈 부분을 인식하는 단계를 설명하기 위한 도면이고, 도 19는 도 14의 탑미션 비행을 수행하는 단계를 세부적으로 설명하기 위한 순서도이다. 도 20은 도 14의 탑미션 비행을 수행하는 단계를 설명하기 위한 도면이고, 도 21은 도 14의 바텀미션 비행을 수행하는 단계를 세부적으로 설명하기 위한 순서도이다. 도 22는 도 14의 바텀미션 비행을 수행하는 단계를 설명하기 위한 도면이다.14 is a flowchart for explaining a defect checking method according to some embodiments of the present invention, and FIG. 15 is a diagram for explaining the defect checking method of FIG. 14 . 16 is a flowchart for explaining in detail the step of moving to the position of the nose of FIG. 14, and FIG. 17 is a step of ascending flying away from the tower by a certain distance using the distance data received from the lidar sensor of FIG. 16 It is a drawing for explaining. FIG. 18 is a view for explaining the step of recognizing the nose portion of the subject of FIG. 16 , and FIG. 19 is a flowchart for explaining in detail the step of performing the top mission flight of FIG. 14 . FIG. 20 is a view for explaining the step of performing the top mission flight of FIG. 14 , and FIG. 21 is a flowchart for explaining in detail the step of performing the bottom mission flight of FIG. 14 . 22 is a view for explaining a step of performing the bottom mission flight of FIG. 14 .

도 14 및 도 15를 참조하면, 먼저 비행 신호를 수신한다(S100). 도 15의 준비 단계를 의미할 수 있다.14 and 15 , a flight signal is first received (S100). It may refer to the preparation step of FIG. 15 .

구체적으로, 도 4를 참조하면, 미션 프로세서(150)는 비행 제어부(151)와 임무 제어부(153)을 포함할 수 있다. 임무 제어부(153)는 제어 장치(200)로부터 비행 명령 신호를 수신하고, 비행 제어부 제어 신호를 생성할 수 있다. 비행 제어부(151)는 임무 제어부(153)로부터 비행 제어부 제어 신호를 수신하고, 드론(100)의 비행을 제어할 수 있다.Specifically, referring to FIG. 4 , the mission processor 150 may include a flight control unit 151 and a mission control unit 153 . The mission controller 153 may receive a flight command signal from the control device 200 and generate a flight controller control signal. The flight controller 151 may receive a flight controller control signal from the mission controller 153 and control the flight of the drone 100 .

다시, 도 14 및 도 15를 참조하면, 1차 이륙하여 피사체의 노즈의 위치까지 이동한다(S200). 이때, 피사체는 풍력 발전기(WT)로서, 노즈는 풍력 발전기(WT)의 블레이드가 합쳐지는 부분을 의미할 수 있다. Again, referring to FIGS. 14 and 15 , the first takes off and moves to the position of the subject's nose ( S200 ). In this case, the subject may be the wind power generator WT, and the nose may mean a portion where the blades of the wind power generator WT are combined.

세부적으로, 도 16을 참조하면, 라이다 센서로 피사체를 인식하고(S210), 라이다 센서에서 수신한 거리 데이터를 이용하여 타워와 일정거리만큼 떨어져 상승비행한다(S220).In detail, referring to FIG. 16 , the subject is recognized by the lidar sensor (S210), and it flies upwardly away from the tower by a certain distance using the distance data received from the lidar sensor (S220).

구체적으로, 도 17을 참조하면, 드론(100)의 라이다 센서(130)는 풍력 발전기(WT)의 타워(TO)를 감지할 수 있다. 라이다 센서(130)는 타워(TO)와의 거리(DI)를 측정할 수 있으므로, 드론(100)은 타워(TO)를 따라 노즈까지 상승 비행을 수행할 수 있다. Specifically, referring to FIG. 17 , the lidar sensor 130 of the drone 100 may detect the tower TO of the wind power generator WT. Since the lidar sensor 130 may measure the distance DI to the tower TO, the drone 100 may perform an ascending flight along the tower TO to the nose.

다시, 도 16을 참조하면, 카메라에서 실시간 영상 데이터를 생성하고(S230), 피사체의 노즈 부분을 인식한다(S240).Again, referring to FIG. 16 , the camera generates real-time image data (S230), and recognizes the nose portion of the subject (S240).

구체적으로, 도 2 및 도 18을 참조하면, b1에서와 같이 노즈(NO)는 제1 블레이드(BL1), 제2 블레이드(BL2) 및 제3 블레이드(BL3)가 합쳐지는 부분일 수 있다. 드론(100)의 카메라(110)는 노즈(NO)의 이미지를 촬영하면서 노즈(NO)를 감지할 수 있다.Specifically, referring to FIGS. 2 and 18 , as in b1 , the nose NO may be a portion in which the first blade BL1 , the second blade BL2 , and the third blade BL3 are merged. The camera 110 of the drone 100 may detect the nose NO while capturing an image of the nose NO.

다시, 도 14 및 도 15를 참조하면, 탑 미션 비행을 수행한다(S300).Again, referring to FIGS. 14 and 15 , a top mission flight is performed ( S300 ).

세부적으로, 도 19를 참조하면, 제1 블레이드의 하측면과 리딩 엣지를 따라 비행한다(S310).In detail, referring to FIG. 19 , it flies along the lower surface and the leading edge of the first blade ( S310 ).

구체적으로, 도 2 및 도 20을 참조하면, 풍력 발전기(WT)의 3개의 블레이드는 누운 Y자 형태로 멈추어 있을 수 있다. 이때, 풍력 발전기(WT)의 블레이드 개수는 예시적인 것으로 얼마든지 달라질 수 있다. 또한, 블레이드의 멈추어 있는 형상도 달라질 수 있다.Specifically, referring to FIGS. 2 and 20 , the three blades of the wind power generator WT may be stopped in a lying Y-shape. In this case, the number of blades of the wind power generator WT is exemplary and may be varied. Also, the resting shape of the blades may vary.

제1 블레이드(BL1)는 풍력 발전기(WT)의 정면에서 보았을 때, 우측 하단을 향하는 블레이드를 의미하고, 제2 블레이드(BL2) 및 제3 블레이드(BL3)는 제1 블레이드(BL1)로부터 순차적으로 반시계방향으로 위치한 블레이드를 각각 의미할 수 있다. 각 블레이드는 2개의 면과 전면에 위치한 리딩 엣지와 후면에 위치한 트레일링 엣지를 포함할 수 있다.The first blade BL1 refers to a blade facing the lower right when viewed from the front of the wind power generator WT, and the second blade BL2 and the third blade BL3 are sequentially from the first blade BL1. Each of the blades located in the counterclockwise direction may refer to. Each blade may have two faces and a leading edge located in the front and a trailing edge located in the rear.

탑 미션 비행은 먼저 제1 블레이드(BL1)의 하측면과 리딩 엣지를 따라 비행하면서 결함을 검출한다(①, ②). 이때, 드론(100)의 전방에 위치한 짐벌(120)에 부착된 카메라(110)는 자유롭게 위 방향으로 시야를 확보할 수 있어 드론의 아래에 위치한 짐벌에 부착된 카메라에 비해서 블레이드의 하측면에 대한 훨씬 자유로운 촬영이 가능할 수 있다. 결함의 검출은 표면과 수직한 시야를 확보할수록 더욱 정밀하게 진행되므로 이러한 전방 짐벌(120)에 고정된 카메라(110)가 훨씬 정밀하게 결함을 찾아낼 수 있다.The top mission flight first detects defects while flying along the lower surface and leading edge of the first blade BL1 (①, ②). At this time, the camera 110 attached to the gimbal 120 located in the front of the drone 100 can freely secure the view in the upward direction, so that compared to the camera attached to the gimbal located below the drone, It can be much more liberating to shoot. Since the detection of the defect proceeds more precisely as the field of view perpendicular to the surface is secured, the camera 110 fixed to the front gimbal 120 can find the defect much more precisely.

다시, 도 19를 참조하면, 제2 블레이드의 우측면과 리딩 엣지를 따라 비행한다(S320).Again, referring to FIG. 19, it flies along the right side and the leading edge of the second blade (S320).

탑 미션 비행은 이어서, 제2 블레이드(BL2)의 우측면과 리딩 엣지를 따라 비행하면서 결함을 검출한다(③, ④). 드론(100)의 전방에 설치된 짐벌(120)에 고정된 카메라에 의해서 우측면과 수직으로 카메라(110)가 촬영을 할 수 있어 더욱 정밀한 측정이 가능하다.The top mission flight then detects defects while flying along the right side and leading edge of the second blade BL2 (③, ④). By the camera fixed to the gimbal 120 installed in front of the drone 100, the camera 110 can take a picture perpendicular to the right side, so that more precise measurement is possible.

이어서, 제3 블레이드의 하측면과 트레일링 엣지를 따라 비행한다(S330).Then, it flies along the lower side of the third blade and the trailing edge (S330).

탑 미션 비행은 이어서, 제3 블레이드(BL3)의 하측면과 트레일링 엣지를 따라 비행하면서 결함을 검출한다(⑤, ⑥). 역시, 드론(100)의 전방에 위치한 짐벌(120)에 부착된 카메라(110)는 자유롭게 위 방향으로 시야를 확보할 수 있어 드론의 아래에 위치한 짐벌에 부착된 카메라에 비해서 블레이드의 하측면에 대한 훨씬 자유로운 촬영이 가능할 수 있다. The top mission flight then detects defects while flying along the lower surface and trailing edge of the third blade BL3 (⑤, ⑥). Also, the camera 110 attached to the gimbal 120 located in the front of the drone 100 can freely secure the view in the upward direction, so that compared to the camera attached to the gimbal located below the drone, It can be much more liberating to shoot.

이와 같이, 각 블레이드 당 1개씩의 면과 엣지를 따라 비행하는 것은 비행의 동선을 최적화하기 위함이다. 이에 따라서, 각 블레이드의 2개의 면과 2개의 엣지 중 절반에 대한 촬영이 탑 미션 플라이트로 완료될 수 있다.In this way, flying along one surface and one edge for each blade is to optimize the flow of flight. Accordingly, shooting of the two faces of each blade and half of the two edges can be completed with a top mission flight.

다시, 도 14 및 도 15를 참조하면, 1차 착륙을 한다(S400). 이어서, 2차 이륙하여 피사체의 노즈의 위치까지 이동한다(S500).Again, referring to FIGS. 14 and 15 , a first landing is made ( S400 ). Then, it takes off a second time and moves to the position of the subject's nose (S500).

착륙을 하고 다시 이륙을 하는 이유는 드론의 비행 동선을 명확히 하여 정밀한 측정을 하기 위함일 수 있다. 즉, 최적의 동선을 통해서 효율적인 측정을 수행하되, 비행 시간을 길게 가짐으로써 발생할 수 있는 오류를 줄이기 위해서 착륙과 이륙을 수행할 수 있다.The reason for landing and taking off again may be to make precise measurements by clarifying the flight path of the drone. That is, effective measurement is performed through an optimal movement route, but landing and take-off can be performed to reduce errors that may occur due to a long flight time.

이어서, 바텀 미션 비행을 수행한다(S600).Then, the bottom mission flight is performed (S600).

세부적으로, 도 21을 참조하면, 제3 블레이드의 상측면과 리딩 엣지를 따라 비행한다(S610).In detail, referring to FIG. 21 , it flies along the upper surface and leading edge of the third blade ( S610 ).

구체적으로, 도 2 및 도 22를 참조하면, 바텀 미션 비행은 먼저 제3 블레이드(BL3)의 상측면과 리딩 엣지를 따라 비행하면서 결함을 검출한다(⑦, ⑧). Specifically, referring to FIGS. 2 and 22 , the bottom mission flight first detects defects while flying along the upper surface and leading edge of the third blade BL3 (⑦, ⑧).

다시, 도 21을 참조하면, 제2 블레이드의 좌측면과 트레일링 엣지를 따라 비행한다(S620).Again, referring to FIG. 21 , it flies along the left side of the second blade and the trailing edge ( S620 ).

구체적으로 도 22를 참조하면, 바텀 미션 비행은 이어서, 제2 블레이드(BL2)의 좌측면과 트레일링 엣지를 따라 비행하면서 결함을 검출한다(⑨, ⑩). 드론(100)의 전방에 설치된 짐벌(120)에 고정된 카메라에 의해서 좌측면과 수직으로 카메라(110)가 촬영을 할 수 있어 더욱 정밀한 측정이 가능하다.Specifically, referring to FIG. 22 , the bottom mission flight detects defects while flying along the left surface and the trailing edge of the second blade BL2 ( ⑨ , ⑩ ). By the camera fixed to the gimbal 120 installed in front of the drone 100, the camera 110 can take a picture perpendicular to the left side, so that more precise measurement is possible.

이어서, 제1 블레이드의 상측면과 트레일링 엣지를 따라 비행한다(S630).Then, it flies along the upper surface and the trailing edge of the first blade (S630).

바텀 미션 비행은 이어서, 제1 블레이드(BL1)의 상측면과 트레일링 엣지를 따라 비행하면서 결함을 검출한다(⑪, ⑫). 역시, 드론(100)의 전방에 위치한 짐벌(120)에 부착된 카메라(110)는 자유롭게 위 방향으로 시야를 확보할 수 있어 드론의 아래에 위치한 짐벌에 부착된 카메라에 비해서 블레이드의 하측면에 대한 훨씬 자유로운 촬영이 가능할 수 있다. The bottom mission flight then detects defects while flying along the upper surface and trailing edge of the first blade BL1 (⑪, ⑫). Also, the camera 110 attached to the gimbal 120 located in the front of the drone 100 can freely secure the view in the upward direction, so that compared to the camera attached to the gimbal located below the drone, It can be much more liberating to shoot.

이에 따라서, 탑 미션 플라이트로 완료되지 못한 측정이 바텀 미션 플라이트로 완료될 수 있다. 즉, 모든 블레이드의 모든 면과 엣지가 측정될 수 있다.Accordingly, measurements not completed with the top mission flight may be completed with the bottom mission flight. That is, all sides and edges of all blades can be measured.

다시, 도 14를 참조하면, 2차 착륙을 한다(S700).Again, referring to FIG. 14 , a second landing is made ( S700 ).

본 실시예에 따른 결함 점검 방법은 누운 Y자 형태의 블레이드의 결함을 검출하기 위한 최적의 동선을 통해서 정확하고 면밀하게 결함을 검출할 수 있다. 또한, 비행 시간의 조절을 통해서 오류 없는 결함 검출이 가능할 수 있다.The defect inspection method according to the present embodiment can accurately and closely detect the defect through the optimal movement line for detecting the defect of the Y-shaped blade lying down. In addition, error-free defect detection may be possible through adjustment of flight time.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible without departing from the essential characteristics of the present embodiment by those of ordinary skill in the art to which this embodiment belongs. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

Claims (10)

드론으로 비행 명령 신호를 전송하고, 피사체의 결함 검출 결과를 상기 드론으로부터 수신하는 제어 장치;
상기 비행 명령 신호를 수신하여 비행하는 드론;
상기 드론의 전방에 부착되는 짐벌;
상기 짐벌에 고정되고, 상기 짐벌의 구동에 따라서 시야각이 조절되는 카메라; 및
상기 짐벌에 고정되고, 상기 피사체와의 거리를 감지하는 라이다 센서를 포함하되,
상기 드론은,
상기 비행 명령 신호를 기초로 1차 이륙하여 상기 피사체의 노즈의 위치까지 이동하고,
상기 노즈의 위치에서 탑미션 비행을 수행하고,
상기 탑미션 비행이 종료된 후, 1차 착륙하고,
2차 이륙하여 상기 피사체의 노즈의 위치까지 이동하고,
상기 노즈의 위치에서부터 바텀미션 비행을 수행하고,
상기 바텀미션 비행이 종료된 후, 2차 착륙하는
결함 점검 시스템.
a control device for transmitting a flight command signal to the drone and receiving a defect detection result of a subject from the drone;
a drone that receives the flight command signal and flies;
a gimbal attached to the front of the drone;
a camera fixed to the gimbal and having a viewing angle adjusted according to the driving of the gimbal; and
It is fixed to the gimbal, including a lidar sensor for detecting the distance to the subject,
The drone is
First take off based on the flight command signal and move to the position of the nose of the subject,
Perform a top mission flight at the position of the nose,
After the top mission flight is over, the first landing,
After the second takeoff, it moves to the position of the subject's nose,
Perform a bottom mission flight from the position of the nose,
After the bottom mission flight is over, the second landing
Fault checking system.
제1 항에 있어서,
상기 짐벌은,
상기 드론의 전방에 연결되고, 상기 카메라가 상기 드론의 움직임에도 수평을 유지하도록 고정하는 서포팅 암과,
상기 서포팅 암에 연결되어 상기 카메라의 각도를 변경하는 구동 모터를 포함하는
결함 점검 시스템.
The method of claim 1,
The gimbal is
a supporting arm connected to the front of the drone and fixing the camera to remain horizontal even in the movement of the drone;
and a drive motor connected to the supporting arm to change the angle of the camera
Fault checking system.
제1 항에 있어서,
상기 라이다 센서는 상기 카메라의 하부에 위치하는
결함 점검 시스템.
The method of claim 1,
The lidar sensor is located under the camera
Fault checking system.
제1 항에 있어서,
상기 제어 장치는,
상기 드론으로 상기 비행 명령 신호를 전송하는 조종부와,
상기 결함 검출 결과를 표시하는 디스플레이부를 포함하는
결함 점검 시스템.
The method of claim 1,
The control device is
a control unit for transmitting the flight command signal to the drone;
and a display unit for displaying the defect detection result
Fault checking system.
제4 항에 있어서,
상기 결함 검출 결과는 상기 카메라로 촬영한 이미지와 상기 이미지에 포함된 상기 피사체의 결함 부분을 포함하되,
상기 결함 검출 결과를 이용하여, 리포트 데이터, 차트 데이터 및 히스토리 데이터를 생성하는 결함 점검 서버를 더 포함하는
결함 점검 시스템.
5. The method of claim 4,
The defect detection result includes an image taken with the camera and a defective part of the subject included in the image,
Using the defect detection result, further comprising a defect inspection server for generating report data, chart data, and history data
Fault checking system.
제1 항에 있어서,
상기 드론에 부착되는 미션 프로세서를 더 포함하고,
상기 미션 프로세서는,
상기 제어 장치로부터 상기 비행 명령 신호를 수신하고, 짐벌 제어 신호, 카메라 제어 신호, 라이다 센서 제어 신호 및 비행 제어부 제어 신호 생성하여 각각 상기 짐벌, 상기 카메라, 상기 라이다 센서 및 비행 제어부로 전송하고,
상기 비행 제어부는 상기 비행 제어부 제어 신호를 수신하고, 상기 드론의 비행을 제어하는
결함 점검 시스템.
The method of claim 1,
Further comprising a mission processor attached to the drone,
The mission processor,
Receives the flight command signal from the control device, generates a gimbal control signal, a camera control signal, a lidar sensor control signal, and a flight controller control signal and transmits them to the gimbal, the camera, the lidar sensor and the flight controller, respectively,
The flight controller receives the flight controller control signal, and controls the flight of the drone.
Fault checking system.
드론이 제어 장치로부터 비행 명령 신호를 수신하는 단계;
상기 비행 명령 신호를 기초로, 상기 드론이 1차 이륙하여 피사체의 노즈의 위치까지 이동하는 단계;
상기 드론이 상기 노즈의 위치에서 탑미션 비행을 수행하는 단계;
상기 탑미션 비행이 종료된 후, 상기 드론이 1차 착륙하는 단계;
상기 드론이 2차 이륙하여 상기 피사체의 노즈의 위치까지 이동하는 단계;
상기 드론이 상기 노즈의 위치에서부터 바텀미션 비행을 수행하는 단계; 및
상기 바텀미션 비행이 종료된 후, 상기 드론이 2차 착륙하는 단계를 포함하는
결함 점검 방법.
receiving, by the drone, a flight command signal from a control device;
based on the flight command signal, the drone first takes off and moves to the position of the subject's nose;
performing, by the drone, a top mission flight at the position of the nose;
After the top mission flight is finished, the first landing of the drone;
moving the drone to the position of the nose of the subject by taking off a second time;
performing, by the drone, a bottom mission flight from the position of the nose; and
After the bottom mission flight is finished, the drone comprising the step of a second landing
How to check for defects.
제7 항에 있어서,
상기 피사체의 노즈의 위치까지 이동하는 단계는,
상기 드론에 포함된 라이다 센서로 상기 피사체를 인식하는 단계와,
상기 라이다 센서로부터 수신한 거리 데이터를 이용하여, 상기 피사체의 타워와 일정 거리만큼 떨어져 상승 비행하는 단계와,
상기 드론에 포함된 카메라에서 실시간 영상 데이터를 생성하는 단계와,
상기 실시간 영상 데이터를 이용하여 상기 드론이 상기 피사체의 노즈 부분을 인식하는 단계를 포함하는
결함 점검 방법.
8. The method of claim 7,
The step of moving to the position of the nose of the subject is,
Recognizing the subject with a lidar sensor included in the drone;
Using the distance data received from the lidar sensor, the step of flying upward by a certain distance from the tower of the subject;
generating real-time image data from a camera included in the drone;
Recognizing, by the drone, a nose portion of the subject using the real-time image data
How to check for defects.
제7 항에 있어서,
상기 탑미션 비행을 수행하는 단계는,
상기 피사체의 제1 블레이드의 하측면과 상기 제1 블레이드의 리딩 엣지를 따라 비행하는 단계와,
상기 피사체의 제2 블레이드의 우측면과 상기 제2 블레이드의 리딩 엣지를 따라 비행하는 단계와,
상기 피사체의 제3 블레이드의 하측면과 상기 제3 블레이드의 트레일링 엣지를 따라 비행하는 단계를 포함하는
결함 점검 방법.
8. The method of claim 7,
The step of performing the top mission flight,
Flying along the lower surface of the first blade of the subject and the leading edge of the first blade;
Flying along the right side of the second blade of the subject and the leading edge of the second blade;
Comprising the step of flying along the lower surface of the third blade of the subject and the trailing edge of the third blade
How to check for defects.
제7 항에 있어서,
상기 바텀미션 비행을 수행하는 단계는,
상기 피사체의 제3 블레이드의 상측면과 상기 제3 블레이드의 리딩 엣지를 따라 비행하는 단계와,
상기 피사체의 제2 블레이드의 좌측면과 상기 제2 블레이드의 트레일링 엣지를 따라 비행하는 단계와,
상기 피사체의 제1 블레이드의 상측면과 상기 제1 블레이드의 트레일링 엣지를 따라 비행하는 단계를 포함하는
결함 점검 방법.
8. The method of claim 7,
The step of performing the bottom mission flight,
Flying along the upper surface of the third blade of the subject and the leading edge of the third blade;
Flying along the left side of the second blade of the subject and the trailing edge of the second blade;
Comprising the step of flying along the upper surface of the first blade of the subject and the trailing edge of the first blade
How to check for defects.
KR1020210170011A 2021-12-01 2021-12-01 System for checking defect and method thereof KR102453446B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210170011A KR102453446B1 (en) 2021-12-01 2021-12-01 System for checking defect and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210170011A KR102453446B1 (en) 2021-12-01 2021-12-01 System for checking defect and method thereof

Publications (2)

Publication Number Publication Date
KR102453446B1 true KR102453446B1 (en) 2022-10-17
KR102453446B9 KR102453446B9 (en) 2024-03-13

Family

ID=83810074

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210170011A KR102453446B1 (en) 2021-12-01 2021-12-01 System for checking defect and method thereof

Country Status (1)

Country Link
KR (1) KR102453446B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102629871B1 (en) * 2023-11-03 2024-01-30 (주)니어스랩 Device and method for blade modeling

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017090145A (en) * 2015-11-06 2017-05-25 株式会社日立製作所 Windmill blade deformation measurement device, and windmill blade deformation evaluation system
JP2018181235A (en) * 2017-04-21 2018-11-15 古河電気工業株式会社 Report generator, wind power generation equipment inspection system, program, and method for generating inspection report of wind power generation equipment
WO2020053560A1 (en) * 2018-09-10 2020-03-19 Perceptual Robotics Limited Control and navigation systems
KR20200033822A (en) * 2018-03-15 2020-03-30 (주)니어스랩 Apparatus and Method for Detecting/Analyzing Defect of Windturbine Blade
JP2021196360A (en) * 2020-06-09 2021-12-27 エアロファシリティー株式会社 Wind power generator blade inspection device, wind power generator blade inspection system, and wind power generator blade inspection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017090145A (en) * 2015-11-06 2017-05-25 株式会社日立製作所 Windmill blade deformation measurement device, and windmill blade deformation evaluation system
JP2018181235A (en) * 2017-04-21 2018-11-15 古河電気工業株式会社 Report generator, wind power generation equipment inspection system, program, and method for generating inspection report of wind power generation equipment
KR20200033822A (en) * 2018-03-15 2020-03-30 (주)니어스랩 Apparatus and Method for Detecting/Analyzing Defect of Windturbine Blade
WO2020053560A1 (en) * 2018-09-10 2020-03-19 Perceptual Robotics Limited Control and navigation systems
JP2021196360A (en) * 2020-06-09 2021-12-27 エアロファシリティー株式会社 Wind power generator blade inspection device, wind power generator blade inspection system, and wind power generator blade inspection method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102629871B1 (en) * 2023-11-03 2024-01-30 (주)니어스랩 Device and method for blade modeling

Also Published As

Publication number Publication date
KR102453446B9 (en) 2024-03-13

Similar Documents

Publication Publication Date Title
CN106124517B (en) The multi-rotor unmanned aerial vehicle detection platform system of detection structure part surface crack and its method for detection structure part surface crack
US11810376B2 (en) Method, apparatus and storage medium for detecting small obstacles
US20190041856A1 (en) Methods and apparatus to capture tomograms of structures using unmanned aerial vehicles
WO2018045538A1 (en) Unmanned aerial vehicle, obstacle avoidance method for same, and obstacle avoidance system thereof
CN106292126B (en) A kind of intelligence aerial survey flight exposal control method, unmanned aerial vehicle (UAV) control method and terminal
CN112789672B (en) Control and navigation system, gesture optimization, mapping and positioning techniques
CN108139758A (en) Apparatus of transport positioning based on significant characteristics
CN114594792A (en) Device and method for controlling a movable object
US20170221241A1 (en) System, method and apparatus for generating building maps
Hrabar An evaluation of stereo and laser‐based range sensing for rotorcraft unmanned aerial vehicle obstacle avoidance
JP6761146B1 (en) Information processing system, information processing method and program
CN107561547A (en) Distance measurement method, apparatus and system of the transmission line of electricity to object
WO2024114209A1 (en) Intelligent path planning method for inspection of full-automatic unmanned aerial vehicle in rtk-signal-free scenario
EP3531224A1 (en) Environment-adaptive sense and avoid system for unmanned vehicles
CN109716255A (en) For operating movable object with the method and system of avoiding barrier
Schofield et al. Cloud to cable: A drone framework for autonomous power line inspection
CN111796603A (en) Smoke inspection unmanned aerial vehicle system, inspection detection method and storage medium
CN204660021U (en) The unmanned reconnaissance helicopter system of a kind of six rotor
KR102453446B1 (en) System for checking defect and method thereof
Gu et al. Autonomous wind turbine inspection using a quadrotor
KR102448233B1 (en) Drone controlling method for precise landing
Schofield et al. Autonomous power line detection and tracking system using UAVs
US20230059562A1 (en) Methods and Systems for Comparing Resultant Status of Autonomous Vehicle Simulations
CN109885091B (en) Unmanned aerial vehicle autonomous flight control method and system
JP2021100234A (en) Aircraft imaging method and information processing device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]