[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101870761B1 - System and method for supporting drone imaging by using aviation integrated simulation - Google Patents

System and method for supporting drone imaging by using aviation integrated simulation Download PDF

Info

Publication number
KR101870761B1
KR101870761B1 KR1020160134951A KR20160134951A KR101870761B1 KR 101870761 B1 KR101870761 B1 KR 101870761B1 KR 1020160134951 A KR1020160134951 A KR 1020160134951A KR 20160134951 A KR20160134951 A KR 20160134951A KR 101870761 B1 KR101870761 B1 KR 101870761B1
Authority
KR
South Korea
Prior art keywords
storyboard
image
uav
information
flight
Prior art date
Application number
KR1020160134951A
Other languages
Korean (ko)
Other versions
KR20180042601A (en
Inventor
나종화
이동우
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Priority to KR1020160134951A priority Critical patent/KR101870761B1/en
Publication of KR20180042601A publication Critical patent/KR20180042601A/en
Application granted granted Critical
Publication of KR101870761B1 publication Critical patent/KR101870761B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8541Content authoring involving branching, e.g. to different story endings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

스토리보드 생성 시스템에 관한 것이며, 스토리보드 생성 시스템은, 가상 촬영환경 정보 및 무인기와 관련된 촬영 방식 정보를 포함하는 비행 시나리오를 항공 그래픽 시뮬레이터로 전송하는 지상통제시스템, 상기 지상통제시스템으로부터 수신한 상기 비행 시나리오에 기초하여 상기 무인기를 제어하고, 상기 무인기를 통해 촬영된 촬영 영상을 상기 지상통제시스템으로 제공하는 항공 그래픽 시뮬레이터 및 상기 지상통제시스템으로부터 상기 촬영 영상을 획득하고, 상기 획득한 촬영 영상으로부터 기설정된 상황조건에 기반하여 선정된 스토리보드 영상을 이용하여 상기 비행 시나리오에 대응하는 스토리보드를 생성하는 영상 스토리보드 제작기를 포함할 수 있다.The storyboard generating system includes a ground control system for transmitting a flight scenario including virtual shooting environment information and shooting mode information related to a UAV to an air graphic simulator, An aerial graphic simulator for controlling the UAV, based on a scenario, for providing the photographed image photographed through the UAV to the ground control system, and a control unit for acquiring the photographed image from the ground control system, And an image storyboard maker for generating a storyboard corresponding to the flight scenario using the selected storyboard image based on the situation condition.

Description

항공통합시뮬레이션을 이용한 드론영상촬영 지원시스템 및 방법 {SYSTEM AND METHOD FOR SUPPORTING DRONE IMAGING BY USING AVIATION INTEGRATED SIMULATION}TECHNICAL FIELD [0001] The present invention relates to a system and a method for supporting a drone image capturing using an aviation integrated simulation,

본원은 무인기 기반의 영상 스토리보드 생성 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for generating a video storyboard based on UAV.

스토리보드는 영상의 흐름을 설명하기 위한 스토리나 구성요소, 촬영정보, 동선 등 촬영에 대한 설계서 역할을 담당하며, 일반적으로 미술 관련 전문 인력에 의하여, 스케치 또는 스케치 소프트웨어를 사용하여 제작된다. 전문 인력은 스토리보드 제작 전에 현장조사를 하며, 촬영 장소의 분위기와 영화 스토리를 고려하여 스토리보드를 창작한다. 영화감독은 이러한 스토리보드를 사용하여 카메라의 구도와 거리, 조명, 배우의 동작 등을 구성한 다음 영화에서 추구하는 영상미학 기준에 적합한지 확인한 후에 촬영을 시작한다.The storyboard plays a role of designing the story, component, shooting information, and copper line to explain the flow of the image. Generally, it is produced by professional art worker using sketch or sketch software. Expert personnel conduct field research before storyboard production, and create storyboards considering the mood and movie story of the location. The film director uses these storyboards to construct the composition of the camera, the distance, the lighting, the motion of the actor, etc., and then starts shooting after confirming that it conforms to the visual aesthetic criteria sought in the film.

한편, 영화 관련 분야에서는 비행기 액션 등과 같은 항공촬영을 소재로 한 영화가 꾸준히 제작되고 있는데, 항공기를 이용한 항공촬영의 경우, 크레인 또는 레일을 이용하는 지상 촬영과는 달리, 기체가 3차원 공간을 이동할 수 있는 자유도와 짐벌에 장착된 카메라를 3차원 공간에서 조종할 수 있으므로 영화감독이 상상하지 못했던 영상을 촬영할 수 있는 장점이 있다.On the other hand, in the film-related field, films based on aerial photographing such as airplane action are constantly being produced. Unlike the aerial photographing using an airplane, unlike the ground photographing using a crane or a rail, And the camera mounted on the gimbal can be manipulated in a three-dimensional space, which is advantageous in that it is possible to shoot an image that the film director can not imagine.

그러나, 항공촬영은 특성상 공중에서 대상을 조망함에 따라 종래의 스토리보드 제작 방법을 적용하는 데에는 한계가 있으며, 또한, 항공기 제어기, 조종자, 지역 및 기상 환경 조건 등의 다양한 변수가 존재함에 따라 종래의 항공촬영 기술로는 영화감독이나 촬영감독 등이 원하는 항공영상의 구도를 획득하지 못하는 단점이 있다. 또한, 항공촬영 시 NG 등에 의하여 촬영을 다시 수행해야 하는 경우에는 영화감독과 촬영기사 뿐만 아니라 주연 배우, 조연 배우 등의 많은 인력이 낭비되고, 시간과 자원 또한 낭비되는 단점이 있다.However, due to the characteristics of aerial photographing, there are limitations in applying the conventional storyboard making method in view of the object in the air, and there are various variables such as an aircraft controller, a controller, The technique of shooting has a disadvantage in that it can not acquire the composition of the aerial image desired by the film director or the cinematographer. In addition, when the photographing is to be performed again due to NG at the time of aerial photographing, not only a film director and a photographer but also a lot of manpower such as a main actor and an assistant actor are wasted, and time and resources are also wasted.

본원의 배경이 되는 기술은 한국공개특허공보 제 10-2010-0054078호(공개일: 2010.05.24)에 개시되어 있다.The background technology of the present application is disclosed in Korean Patent Publication No. 10-2010-0054078 (published on May 24, 2010).

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 항공촬영을 수행함에 있어서 영화감독이나 촬영감독이 원하는 임의의 각도에서의 3D 영상을 저비용으로 단시간에 획득할 수 있도록 하는 스토리보드 생성 시스템 및 방법을 제공하려는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned problems of the conventional art, and it is an object of the present invention to provide a storyboard creation system and method capable of acquiring a 3D image at an arbitrary angle desired by a film director or a cinematographer at a low cost in a short time, The purpose of this paper is to provide

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 항공촬영 시 NG 등에 의하여 촬영을 다시 수행해야 하는 경우에 발생되는 인력, 시간, 자원 등의 낭비를 해소할 수 있는 스토리보드 생성 시스템 및 방법을 제공하려는 것을 목적으로 한다.The present invention has been made to solve the above problems of the conventional art, and it is an object of the present invention to provide a storyboard creation system and method capable of eliminating waste of manpower, time, resources, and the like, The purpose is to provide.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 영화감독이나 촬영감독이 실사 항공영상을 획득하기 위해 현지 촬영을 시작하기 이전에, 무인기, 비행 시뮬레이션 기술, 3D 그래픽스 기술 및 영상처리 기술 등을 융합한 기술을 이용함으로써 항공 관련 지식이 없는 영화감독이나 촬영감독이 원하는 3D 항공영상을 보다 용이하게 획득할 수 있도록 하는 스토리보드 생성 시스템 및 방법을 제공하려는 것을 목적으로 한다.The present invention has been made to solve the above-described problems of the prior art, and it is an object of the present invention to provide an image processing apparatus and a method for acquiring a real- The present invention aims to provide a system and method for creating a storyboard that enables a movie director who does not have knowledge on aviation or a 3D aerial image desired by a cinematographer to more easily acquire a 3D aerial image.

본원은 실제 항공촬영시 실제 항공기(또는 실제 무인기)의 웨이포인트(way point)로 사용될 수 있는 스토리보드 생성 시스템 및 방법을 제공하려는 것을 목적으로 한다. It is an object of the present invention to provide a storyboard creation system and method that can be used as a way point of an actual aircraft (or actual UAV) during actual aerial photographing.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It is to be understood, however, that the technical scope of the embodiments of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 스토리보드 생성 시스템은, 가상 촬영환경 정보 및 무인기와 관련된 촬영 방식 정보를 포함하는 비행 시나리오를 항공 그래픽 시뮬레이터로 전송하는 지상통제시스템, 상기 지상통제시스템으로부터 수신한 상기 비행 시나리오에 기초하여 상기 무인기를 제어하고, 상기 무인기를 통해 촬영된 촬영 영상을 상기 지상통제시스템으로 제공하는 항공 그래픽 시뮬레이터 및 상기 지상통제시스템으로부터 상기 촬영 영상을 획득하고, 상기 획득한 촬영 영상으로부터 기설정된 상황조건에 기반하여 선정된 스토리보드 영상을 이용하여 상기 비행 시나리오에 대응하는 스토리보드를 생성하는 영상 스토리보드 제작기를 포함할 수 있다.As a technical means for accomplishing the above technical object, a storyboard generating system according to an embodiment of the present invention includes a ground control unit for transmitting a flight scenario including virtual shooting environment information and photographing method information related to a UAV to an air graphic simulator System, an aviation graphic simulator for controlling the UAV based on the flight scenario received from the terrestrial control system, and providing the captured image photographed through the UAV to the terrestrial control system, And an image storyboard maker for generating a storyboard corresponding to the flight scenario using the selected storyboard image based on predetermined conditional conditions from the obtained shot image.

또한, 상기 영상 스토리보드 제작기는, 스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하는 상황조건을 설정하는 상황 설정부 및 상기 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정하는 비디오 분석부를 포함하되, 상기 상황조건은, 상기 스토리보드 영상으로 선정됨에 있어서 상기 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수를 포함할 수 있다.The video storyboard maker may further include a situation setting unit for setting a situation condition corresponding to a characteristic for selecting a scene stored in the storyboard, and a video analysis unit for selecting a storyboard image from the shot video based on the situation condition The situation condition may include a situation variable depending on a degree of importance of a characteristic appearing in each scene included in the photographed image in the selection of the storyboard image.

또한, 상기 무인기는, 상기 항공 그래픽 시뮬레이터 내에서 비행하는 가상의 무인기일 수 있다.Also, the UAV may be a virtual UAV flying in the air graphic simulator.

또한, 상기 영상 스토리보드 제작기는, 상기 스토리보드 영상 및 상기 촬영 영상에서 상기 스토리보드 영상에 대응하는 촬영 시점의 상기 무인기의 비행정보를 통합하여 상기 스토리보드를 생성하는 스토리보드 생성부를 더 포함할 수 있다.The video storyboard maker may further include a storyboard generating unit for generating the storyboard by combining the storyboard video and the flight information of the UAV at a shooting time corresponding to the storyboard video in the shot video have.

또한, 상기 무인기의 비행정보는 상기 촬영 영상에서 상기 스토리보드 영상에 대응하는 촬영 시점에 대한 무인기 시간 정보를 포함하되, 상기 스토리보드 생성부는, 상기 무인기 시간 정보를 상기 무인기를 통제하는 시스템의 시스템 시간 정보와 비교하여 상기 무인기 시간 정보에 오차가 존재하는 것으로 판단되는 경우, 상기 시스템 시간 정보에 기반하여 상기 무인기 시간 정보의 오차를 보정할 수 있다.In addition, the flight information of the UAV may include UAV time information corresponding to the shooting point corresponding to the storyboard image in the captured image, and the storyboard generating unit may calculate the UAV time information from the system time Information on the basis of the system time information when it is determined that there is an error in the UAV time information, the error of the UAV time information can be corrected.

또한, 상기 스토리보드 영상에 대응하는 촬영 시점의 상기 무인기의 비행정보는, 실제 무인기를 통한 영상 촬영시 상기 실제 무인기의 웨이포인트(way point)로 사용될 수 있다.In addition, the flight information of the UAV at the time of photographing corresponding to the storyboard image can be used as a way point of the actual UAV when an image is captured through an actual UAV.

또한, 상기 상황조건은 상기 촬영 영상 내에 포함된 객체에 대한 객체 상황변수를 포함할 수 있다.In addition, the context condition may include an object context variable for an object included in the captured image.

또한, 상기 객체 상황변수는, 객체의 특성, 객체의 숫자, 객체의 위치 중 적어도 하나와 관련한 변수일 수 있다.In addition, the object situation variable may be a variable related to at least one of the property of the object, the number of the object, and the position of the object.

또한, 상기 상황조건은, 상기 촬영 영상의 화면 변화에 대한 화면 상황변수를 포함할 수 있다.In addition, the conditional condition may include a screen condition variable for a screen change of the photographed image.

또한, 상기 화면 상황변수는, 배경의 전환 유무 및 상기 배경의 전환 속도 중 적어도 하나와 관련된 변수일 수 있다.In addition, the screen status variable may be a variable related to at least one of whether or not the background is switched and the switching speed of the background.

또한, 상기 비디오 분석부는, 상기 상황조건에 복수의 상황변수가 포함되는 경우, 상기 복수의 상황변수를 함께 고려하여 상기 스토리보드 영상을 선정할 수 있다.In addition, the video analysis unit may select the storyboard image considering the plurality of context variables together when a plurality of context variables are included in the context condition.

또한, 상기 복수의 상황변수는 스칼라 값이고, 상기 비디오 분석부는, 상기 촬영 영상에 포함되는 장면 각각에 대하여 복수의 상황변수의 스칼라 값을 합산한 합산 정보에 기초하여 상기 스토리보드 영상을 선정할 수 있다.The video analysis unit may select the storyboard image based on summation information obtained by summing the scalar values of a plurality of context variables for each scene included in the shot image have.

또한, 상기 상황 설정부에는 스토리보드에 포함되는 상기 스토리보드 영상의 최대 개수가 설정되고, 상기 비디오 분석부는 상기 촬영 영상에 포함되는 장면 각각에 대하여 산출된 합산 정보 값을 크기순으로 정렬한 후 상기 정렬된 합산 정보 값에 기초하여 상기 최대 개수에 대응하는 장면들을 상기 스토리보드 영상으로 선정할 수 있다.In addition, in the situation setting unit, a maximum number of the storyboard images included in the storyboard is set, and the video analyzer aligns the sum information values calculated for each scene included in the shot image in order of magnitude, And the scenes corresponding to the maximum number can be selected as the storyboard images based on the sorted summation information values.

한편, 본원의 일 실시예에 따른 영상 스토리보드 제작기는, 스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하는 상황조건을 설정하는 상황 설정부 및 상기 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정하는 비디오 분석부를 포함하되, 상기 상황조건은, 상기 스토리보드 영상으로 선정됨에 있어서 상기 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수를 포함할 수 있다.Meanwhile, the video storyboard maker according to one embodiment of the present invention includes a situation setting unit for setting a situation condition corresponding to a characteristic for selecting a scene stored in a storyboard, The situation condition may include a situation parameter that is assigned according to the importance of a characteristic appearing in each scene included in the shot image when the storyboard image is selected.

또한, 상기 촬영 영상은 무인기를 통해 촬영된 영상일 수 있다.In addition, the photographed image may be an image photographed through a UAV.

또한, 상기 무인기는, 항공 그래픽 시뮬레이터 내에서 비행하는 가상의 무인기일 수 있다.In addition, the UAV may be a virtual UAV flying in an air graphic simulator.

한편, 본원의 일 실시예에 따른 스토리보드 생성 방법은, 지상통제시스템에서, 가상 촬영환경 정보 및 무인기와 관련된 촬영 방식 정보를 포함하는 비행 시나리오를 항공 그래픽 시뮬레이터로 전송하는 단계, 상기 항공 그래픽 시뮬레이터에서, 상기 지상통제시스템으로부터 수신한 상기 비행 시나리오에 기초하여 상기 무인기를 제어하고, 상기 무인기를 통해 촬영된 촬영 영상을 상기 지상통제시스템으로 제공하는 단계 및 영상 스토리보드 제작기에서, 상기 지상통제시스템으로부터 상기 촬영 영상을 획득하고, 상기 획득한 촬영 영상으로부터 기설정된 상황조건에 기반하여 선정된 스토리보드 영상을 이용하여 상기 비행 시나리오에 대응하는 스토리보드를 생성하는 단계를 포함할 수 있다.Meanwhile, the storyboard generating method according to an embodiment of the present invention includes the steps of transmitting, in a ground control system, a flight scenario including virtual shooting environment information and photographing method information related to a UAV to an air graphic simulator, Controlling the UAV based on the flight scenario received from the terrestrial control system and providing the captured image photographed through the UAV to the terrestrial control system, And generating a storyboard corresponding to the flight scenario using the selected storyboard image based on a predetermined situation condition from the obtained shot image.

한편, 본원의 일 실시예에 따른 영상 스토리보드 제작기를 통한 영상 스토리보드 제작 방법은, 스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하는 상황조건을 설정하는 단계 및 상기 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정하는 단계를 포함하되, 상기 상황조건은, 상기 스토리보드 영상으로 선정됨에 있어서 상기 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for producing an image storyboard through a video storyboard maker, the method comprising: setting a situation condition corresponding to a characteristic for selecting a scene to be stored in a storyboard; And selecting a storyboard image from the image, wherein the situation condition may include a situation variable that is assigned according to the importance of a characteristic appearing in each scene included in the shot image when the storyboard image is selected .

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described task solution is merely exemplary and should not be construed as limiting the present disclosure. In addition to the exemplary embodiments described above, there may be additional embodiments in the drawings and the detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 가상의 무인기와 같은 무인기를 통해 촬영된 촬영 영상으로부터 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수를 포함하는 상황조건에 기반하여 스토리보드 영상을 선정하고, 선정된 스토리보드 영상을 이용해 스토리보드를 생성함으로써, 항공 관련 지식이 없는 영화감독이나 촬영감독이 원하는 3D 항공영상을 보다 용이하게 획득할 수 있는 효과가 있다.According to the above-mentioned problem solving means of the present invention, based on a situation condition including a situation variable given according to the importance of characteristics appearing in each scene included in a shot image from a shot image shot through a UAV, such as a virtual UAV, A 3D aerial image desired by a film director or a cinematographer who does not have knowledge on aviation can be acquired more easily by selecting a board image and generating a storyboard using the selected storyboard image.

전술한 본원의 과제 해결 수단에 의하면, 가상의 무인기를 통해 획득한 촬영 영상과 해당 촬영 영상을 촬영한 시점에서의 무인기의 비행정보를 연계하여 스토리보드를 생성함으로써, 실제 항공촬영시 스토리보드를 실제 항공기(또는 실제 무인기)의 웨이포인트(way point)로 사용할 수 있어, 영화감독이나 촬영감독이 원하는 임의의 각도에서의 3D 영상을 저비용으로 단시간에 획득할 수 있으며, NG 등에 의하여 야기되는 인력, 시간, 자원 등의 낭비를 해소할 수 있는 효과가 있다.According to the above-mentioned problem solving means of the present invention, a storyboard is created by linking a shot image acquired through a virtual unmanned aerial vehicle with flight information of an unmanned aerial vehicle at the time of shooting the shot image, It can be used as a way point of an aircraft (or an actual UAV) so that a 3D image at an arbitrary angle desired by a film director or a cinematographer can be acquired at a low cost in a short time, And waste of resources and the like can be solved.

도 1은 본원의 일 실시예에 따른 스토리보드 생성 시스템의 개략적인 구성을 나타낸 도면이다.
도 2는 본원의 일 실시예에 따른 스토리보드 생성 시스템에서 지상통제시스템의 동작 흐름을 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 스토리보드 생성 시스템에서 항공 그래픽 시뮬레이터의 동작 흐름을 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 영상 스토리보드 제작기의 구성을 개략적으로 나타낸 블록도이다.
도 5는 본원의 일 실시예에 따른 영상 스토리보드 제작기에서 상황 설정부의 동작 흐름을 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 영상 스토리보드 제작기에서 비디오 분석부의 동작 흐름을 나타낸 도면이다.
도 7은 본원의 일 실시예에 따른 영상 스토리보드 제작기에서 스토리보드 생성부의 동작 흐름을 나타낸 도면이다.
도 8은 본원의 일 실시예에 따른 스토리보드 생성 방법에 대한 동작 흐름도이다.
도 9는 본원의 일 실시예에 따른 영상 스토리보드 제작기를 통한 영상 스토리보드 제작 방법에 대한 동작 흐름도이다.
1 is a diagram illustrating a schematic configuration of a storyboard generating system according to an embodiment of the present invention.
2 is a flowchart illustrating an operation of a ground control system in a storyboard generating system according to an embodiment of the present invention.
3 is a flowchart illustrating an operation flow of an aviation graphic simulator in a storyboard generating system according to an embodiment of the present invention.
4 is a block diagram schematically illustrating the configuration of an image storyboard maker according to an embodiment of the present invention.
5 is a flowchart illustrating an operation flow of a situation setting unit in an image storyboard maker according to an embodiment of the present invention.
FIG. 6 is a flowchart illustrating an operation of a video analysis unit in an image storyboard maker according to an exemplary embodiment of the present invention.
7 is a flowchart illustrating an operation flow of a storyboard generating unit in the video storyboard producing unit according to an embodiment of the present invention.
8 is a flowchart illustrating a method of generating a storyboard according to an embodiment of the present invention.
FIG. 9 is a flowchart illustrating an operation of a method for producing an image storyboard through an image storyboard maker according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be understood, however, that the present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, the same reference numbers are used throughout the specification to refer to the same or like parts.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when an element is referred to as being "connected" to another element, it is intended to be understood that it is not only "directly connected" but also "electrically connected" or "indirectly connected" "Is included.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.It will be appreciated that throughout the specification it will be understood that when a member is located on another member "top", "top", "under", "bottom" But also the case where there is another member between the two members as well as the case where they are in contact with each other.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when an element is referred to as "including " an element, it is understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise.

본원은 실사 항공영상을 획득하기 이전에, 무인기, 비행 시뮬레이션 기술, 3D 그래픽스 기술 및 영상처리 기술 등의 융합 기술을 통해 항공 관련 지식이 없는 영화감독이나 촬영감독이라 할지라도 원하는 3D 항공영상을 저비용으로 용이하게 획득할 수 있도록 하는 스토리보드 생성 시스템 및 방법에 관한 것이다.Before acquiring real-life aerial images, we are developing 3D aerial images, 3D simulation technology, 3D image technology, and image processing technology, which are suitable for low-cost 3D aerial images And more particularly, to a system and method for generating a storyboard.

도 1은 본원의 일 실시예에 따른 스토리보드 생성 시스템(10)의 개략적인 구성을 나타낸 도면이다. 설명에 앞서, 본원의 일 실시예에 따른 스토리보드 생성 시스템(10)은 달리 표현하여 항공통합시뮬레이션을 이용한 드론영상촬영 지원시스템이라 할 수 있다.1 is a diagram showing a schematic configuration of a storyboard generating system 10 according to an embodiment of the present invention. Prior to the description, the storyboard generating system 10 according to an embodiment of the present invention may be referred to as a dronesimaging support system using aerial integration simulation.

도 1을 참조하면, 본원의 일 실시예에 따른 스토리보드 생성 시스템(10)은 지상통제시스템(100), 시뮬레이션 데이터 교환부(200), 항공 그래픽 시뮬레이터(300), 영상 스토리보드 제작기(400) 및 데이터베이스(500)를 포함할 수 있다.1, a storyboard creating system 10 according to an embodiment of the present invention includes a ground control system 100, a simulation data exchange unit 200, an aviation graphic simulator 300, an image storyboard maker 400, And a database 500.

지상통제시스템(100)은 가상 촬영환경 정보 및 무인기와 관련된 촬영 방식 정보를 포함하는 비행 시나리오를 항공 그래픽 시뮬레이터(300)로 전송할 수 있다.The ground control system 100 may transmit to the aviation graphic simulator 300 a flight scenario including virtual shooting environment information and shooting mode information related to the UAV.

지상통제시스템(100)에 대한 설명은 도 2를 참조하여 보다 쉽게 이해될 수 있다.A description of the terrestrial control system 100 may be more readily understood with reference to FIG.

도 2는 본원의 일 실시예에 따른 스토리보드 생성 시스템(10)에서 지상통제시스템(100)의 동작 흐름을 나타낸 도면이다.2 is a flowchart illustrating an operation of the terrestrial control system 100 in the storyboard creating system 10 according to an embodiment of the present invention.

도 2를 참조하면, 지상통제시스템(100)은 사용자(또는 운용자) 입력에 기초하여 항공 그래픽 시뮬레이터(300)에 포함된 비행 시뮬레이터 및 무인기를 제어하기 위한 제어명령 내지 비행 시나리오를 설정할 수 있다. 여기서, 무인기는 항공 그래픽 시뮬레이터(300) 내에서 비행하는 가상의 무인기일 수 있다.Referring to FIG. 2, the ground control system 100 may set control commands or flight scenarios for controlling the flight simulator and UAV included in the aviation graphic simulator 300 based on the user (or operator) input. Here, the UAV may be a virtual UAV flying in the air graphic simulator 300.

또한, 지상통제시스템(100)은 비행 시뮬레이터 및 무인기를 제어하기 위한 제어명령 내지 비행 시나리오를 사용자로부터 입력받기 위한 유저 인터페이스(미도시)를 포함할 수 있으며, 유저 인터페이스는 키보드, 터치 스크린, 마우스 등으로 구현 가능하다.The ground control system 100 may include a user interface (not shown) for receiving a control command or a flying scenario for controlling the flight simulator and the UAV from a user. The user interface may include a keyboard, a touch screen, a mouse, .

사용자는 지상통제시스템(100)를 통해 비행 시뮬레이터를 제어하기 위해, 시뮬레이션 데이터 교환부(200)를 통해 비행 시뮬레이터에 접속한 후 비행 시나리오를 항공 그래픽 시뮬레이터(300)로 전송(S21)할 수 있다. 이때, 비행 시나리오에 기초하여 무인기가 제어될 수 있으며, 사용자는 지상통제시스템(100)를 통해, 무인기에 의하여 촬영된 영상 및 무인기와 관련된 정보(예를 들어, 비행 정보 등)를 실시간으로 모니터링할 수 있다.The user may access the flight simulator through the simulation data exchange unit 200 to control the flight simulator through the ground control system 100, and then transmit the flight scenario to the aerial graphic simulator 300 (S21). At this time, the UAV can be controlled on the basis of the flight scenario, and the user can monitor, in real time, the information (for example, flight information and the like) related to the UAV and the image photographed by the UAV through the ground control system 100 .

비행 시나리오를 전송하기 이전에, 지상통제시스템(100)은 시뮬레이션 데이터 교환부(200)로 TCP(UDP)/IP 접속을 수행할 수 있으며, 시뮬레이션 데이터 교환부(200)는 지상통제시스템(100)와 항공 그래픽 시뮬레이터(300)를 네트워크 상에 연결시킬 수 있다. 여기서, 네트워크의 일예로는, 무선 센서 네트워크(wireless sensor networks, WSNs), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network) 등일 수 있으며, 이에 한정된 것은 아니다.The ground control system 100 may perform a TCP (UDP) / IP connection to the simulation data exchange unit 200 and the simulation data exchange unit 200 may transmit the TCP (UDP) / IP connection to the ground control system 100, And the aviation graphic simulator 300 on the network. Here, examples of the network include wireless sensor networks (WSNs), Bluetooth networks, NFC (Near Field Communication) networks, Internet, LAN (Local Area Network), Wireless LAN Area Network), and the like.

또한, 비행 시나리오는 일예로, 영화감독이나 촬영감독 등과 같이 항공촬영 영상을 획득하고자 하는 사용자에 의하여 기설정될 수 있다. 기설정된 비행 시나리오 정보에는 비행 시뮬레이터에서 사용할 가상 촬영환경 정보 및 무인기와 관련된 촬영 방식 정보가 포함될 수 있다. In addition, the flight scenario may be pre-set by a user who wishes to acquire an aerial shot image, such as a movie director or a cinematographer. The predetermined flight scenario information may include virtual photography environment information to be used in the flight simulator and photographing method information related to the UAV.

가상 촬영환경 정보는 영화감독이나 촬영감독 등의 사용자가 요구하는 촬영환경에 대한 정보로서, 자연 경관, 건축물 등과 같은 배경 관련 정보 및 사람, 차량 등과 같은 객체(또는 대상) 관련 정보 등이 포함될 수 있다. 무인기와 관련된 촬영 방식 정보에는 무인기 모델 정보, 무인기 모듈의 유형, 무인기의 비행경로(또는 무인기의 이동 동선, 움직임 등), 비행 속도 등의 정보 뿐만 아니라 카메라 촬영 기법에 따른 무인기의 움직임, 영상 구도 등과 같은 카메라 촬영 방식에 대한 정보 등이 포함될 수 있다. 특히, 무인기의 비행경로의 경우에는 무인기를 좌측에서 우측으로 또는 우측에서 좌측으로 이동하면서 촬영하는 팬(panning) 기법, 무인기를 상하 수직방향으로 이동하면서 촬영하는 틸트(tilt) 기법 및 멀리 있는 피사체에서 접근하거나, 그와는 반대로 멀어지면서 촬영하는 줌잉(zooming) 기법 등에 따라 보다 다양하게 설정될 수 있다.The virtual photographing environment information is information on a photographing environment required by a user such as a film director or a photographing director, and may include background-related information such as a natural landscape, a building, etc., and information related to an object . The shooting method information related to the UAV includes not only the information of the UAV model, the type of the UAV module, the flight path of the UAV (or the movement line of the UAV, the flight speed etc.), the movement speed of the UAV according to the camera shooting technique, Information about the same camera photographing method, and the like. Particularly, in the case of a UAV flight path, a panning technique for shooting the UAV from left to right or from the right to the left, a tilt technique for shooting the UAV in the vertical and vertical directions, Or a zooming technique in which a subject is photographed while moving away from the subject, or vice versa.

무인기는 3차원 공간 상에서 이동함에 따라 다양한 경로의 이동이 가능하므로, 이에 따라 지상통제시스템(100)은, 동일한 가상 촬영환경에서도 다양한 경로에 따라 경로별로 비행 시나리오를 설정할 수 있다. 달리 표현하여 지상통제시스템(100)은 다양한 비행경로와 카메라의 구도에 따라 반복적인 촬영을 수행할 수 있도록, 비행 시나리오로서 비행 시뮬레이터 및 무인기와 관련된 제어 명령 정보를 설정할 수 있다. 이후 지상통제시스템(100)은 설정된 비행 시나리오를 시뮬레이션 데이터 교환부(200)를 통해 항공 그래픽 시뮬레이터(300)로 전송할 수 있다. Since the UAV can move various paths as it moves in the three-dimensional space, the ground control system 100 can set the flight scenarios according to various paths in the same virtual photographing environment. In other words, the ground control system 100 can set control command information related to the flight simulator and the UAV as flight scenarios so as to perform repetitive shooting according to various flight paths and camera configurations. Then, the ground control system 100 can transmit the set flight scenario to the aviation graphic simulator 300 through the simulation data exchange unit 200.

비행 시나리오를 전송(S21)한 이후에, 항공 그래픽 시뮬레이터(300)는 비행 시나리오에 기초하여 무인기를 제어하고, 무인기를 제어함에 따라 촬영된 촬영 영상을 획득할 수 있다. 이후, 지상통제시스템(100)은 항공 그래픽 시뮬레이터(300)에서 획득한 촬영 영상(달리 말해, 무인기를 통해 촬영된 촬영 영상)을 항공 그래픽 시뮬레이터(300)로부터 수신(S22)할 수 있다.After the flight scenario is transmitted (S21), the aviation graphic simulator 300 controls the UAV based on the flight scenario, and can acquire the photographed image by controlling the UAV. The ground control system 100 can then receive the captured image (in other words, the captured image captured through the UAV) from the aviary graphic simulator 300 (S22).

단계S22에서 지상통제시스템(100)은 무인기를 통해 촬영된 촬영 영상 뿐만 아니라 해당 촬영 영상을 촬영하는 시점에서의 무인기의 비행정보 및 해당 촬영 영상을 촬영하는 시점의 시간 정보를 함께 수신할 수 있다. 여기서 무인기의 비행정보로는 무인기의 상태 정보, 위도(latitude), 경도(longitude) 및 고도(altitude) 등의 위치 정보, GPS 정보, 롤(roll), 피치(pitch) 및 요(yaw) 등의 자세 정보, 속도 정보, 비행경로 정보 등을 포함할 수 있다. 또한, 단계S22에서 지상통제시스템(100)은 항공 그래픽 시뮬레이터(300)에서 설정된 지연 시간에 따라 촬영 영상 및 무인기의 비행정보를 수신할 수 있으며, 지연 시간에 대한 설명은 도 3을 통해 보다 자세히 설명하기로 한다.In step S22, the terrestrial control system 100 can receive not only the image captured through the UAV, but also the flight information of the UAV at the time of shooting the captured image and the time information at the time of shooting the corresponding captured image. Here, the flight information of the UAV may include position information of the UAV, latitude, longitude and altitude, GPS information, roll, pitch, and yaw Attitude information, speed information, flight path information, and the like. In addition, in step S22, the ground control system 100 can receive the flight information of the shot image and the UAV according to the delay time set in the air graphic simulator 300, and the description of the delay time will be described in more detail with reference to FIG. 3 .

이때, 지상통제시스템(100)은 항공 그래픽 시뮬레이터(300)로부터 전송된 촬영 영상을 영상 수신부(미도시)를 통해 수신할 수 있다. 영상의 경우에는 텍스트 형태의 비행정보와는 달리 용량이 크기 때문에, 항공 그래픽 시뮬레이터(300)로부터 영상을 수신하는 과정에서 전체 시스템(10)의 지연이 발생할 수 있다. 따라서, 영상 수신부(미도시)는 지상통제시스템(100)와는 별도로 구성으로 분리되어 구현될 수 있으며, 영상 수신부(미도시)를 비동기 데이터 통신으로 구현함으로써 영상 수신 지연으로 인한 전체 시스템(10)의 성능 저하가 최소화될 수 있다.At this time, the ground control system 100 can receive the photographed image transmitted from the aviation graphic simulator 300 through an image receiving unit (not shown). In the case of the image, since the capacity is large unlike the flight information of the text form, a delay of the entire system 10 may occur in the process of receiving the image from the air graphic simulator 300. Accordingly, the image receiving unit (not shown) may be implemented separately from the terrestrial control system 100, and the image receiving unit (not shown) may be implemented as asynchronous data communication so that the entire system 10 Performance degradation can be minimized.

다음으로, 단계S23에서 지상통제시스템(100)은 항공 그래픽 시뮬레이터(300)로부터 수신한 촬영 영상 및 무인기의 비행정보를 영상 스토리보드 제작기(400)로 전송할 수 있다. 이후 영상 스토리보드 제작기(400)에서는 지상통제시스템(100)로부터 수신한 촬영 영상 및 무인기의 비행정보에 기초하여 스토리보드를 생성할 수 있으며, 이는 후술하여 보다 자세히 설명하기로 한다.Next, in step S23, the ground control system 100 can transmit the photographed image and the UAV's flight information received from the aviary graphic simulator 300 to the video storyboard maker 400. FIG. Thereafter, the video storyboard maker 400 can generate a storyboard based on the shot image and the UAV's flight information received from the terrestrial control system 100, which will be described later in more detail.

단계S23 이후에, 지상통제시스템(100)은 단계S21에서 전송한 비행 시나리오에 대한 시뮬레이션이 종료되었는지 여부를 확인(S24)할 수 있다. 이때, 시뮬레이션이 종료되지 않은 것으로 판단되는 경우(S24-N), 지상통제시스템(100)은 단계S22로 돌아갈 수 있다. 한편, 단계S21에서 전송한 비행 시나리오에 대한 시뮬레이션이 종료된 것으로 판단되는 경우(S24-Y), 지상통제시스템(100)은 다음 비행 시나리오가 존재하는지 여부를 확인(S25)할 수 있다. 지상통제시스템(100)은, 다음 비행 시나리오가 존재하는 것으로 판단되는 경우(S25-Y)에는 단계S21로 돌아가고, 다음 비행 시나리오가 존재하지 않는 것으로 판단되는 경우(S25-N)에는 지상통제시스템(100)의 동작을 종료할 수 있다.After step S23, the terrestrial control system 100 can check whether the simulation for the flight scenario transmitted in step S21 is terminated (S24). At this time, if it is determined that the simulation is not ended (S24-N), the ground control system 100 may return to step S22. On the other hand, if it is determined that the simulation for the flight scenario transmitted in step S21 is terminated (S24-Y), the terrestrial control system 100 can confirm whether or not the next flight scenario exists (S25). If it is determined that the next flight scenario exists (S25-Y), the ground control system 100 returns to step S21. If it is determined that the next flight scenario does not exist (S25-N) 100 can be terminated.

한편, 시뮬레이션 데이터 교환부(200)는 지상통제시스템(100)와 항공 그래픽 시뮬레이터(300) 사이의 인터페이스로서, 앞서 말한 바와 같이 지상통제시스템(100)와 항공 그래픽 시뮬레이터(300)를 네트워크 상에 연결시킬 수 있다. 상용 비행 시뮬레이터를 사용하는 경우에는 외부 소프트웨어에서 비행 시뮬레이터에 대한 직접적인 제어가 어려우므로, 본원의 일 실시예에 따른 스토리보드 생성 시스템(10)은 시뮬레이션 데이터 교환부(200)를 통해 비행 시뮬레이터에서 지원하는 API(Application Program Interface)를 이용함으로써 간접적으로 비행 시뮬레이터를 제어할 수 있다. 이에 따라, 시뮬레이션 데이터 교환부(200)는 비행 시뮬레이터를 구동시키기 위한 지상통제시스템(100)의 제어 명령에 따라, 해당 제어 명령에 대응하는 API를 호출함으로써 지상통제시스템(100)와 항공 그래픽 시뮬레이터(300) 사이를 네트워크로 연결시킬 수 있다.The simulation data exchange unit 200 is an interface between the ground control system 100 and the aviation graphic simulator 300 and connects the ground control system 100 and the aviation graphic simulator 300 on the network . In the case of using the commercial flight simulator, it is difficult to directly control the flight simulator in the external software. Therefore, the storyboard generating system 10 according to the embodiment of the present invention is capable of supporting the flight simulator through the simulation data exchanger 200 The flight simulator can be indirectly controlled by using API (Application Program Interface). Accordingly, the simulation data exchange unit 200 calls the API corresponding to the control command in accordance with the control command of the ground control system 100 for driving the flight simulator, so that the ground control system 100 and the air graphic simulator 300 can be connected by a network.

항공 그래픽 시뮬레이터(300)는 지상통제시스템(200)로부터 수신한 비행 시나리오에 기초하여 무인기를 제어하고, 무인기를 통해 촬영된 촬영 영상을 지상통제시스템(200)로 제공할 수 있다. 항공 그래픽 시뮬레이터(300)에 대한 설명은 도 3을 참조하여 보다 쉽게 이해될 수 있다.The aviation graphic simulator 300 controls the UAV based on the flight scenario received from the ground control system 200 and can provide the photographed image photographed through the UAV to the ground control system 200. The description of the aviation graphic simulator 300 can be more easily understood with reference to Fig.

도 3은 본원의 일 실시예에 따른 스토리보드 생성 시스템(10)에서 항공 그래픽 시뮬레이터(300)의 동작 흐름을 나타낸 도면이다.3 is a flowchart illustrating an operation flow of the aviation graphic simulator 300 in the storyboard creating system 10 according to an embodiment of the present invention.

도 3을 참조하면, 먼저, 항공 그래픽 시뮬레이터(300)는 비행 시뮬레이터와 영화 세트장 그래픽 시뮬레이터가 연동된 장치일 수 있다. 비행 시뮬레이터에는 일예로 촬영 모듈, 영상 저장 모듈 및 데이터(예를 들어, 영상, 비행정보 등) 전송 모듈이 탑재될 수 있으며, 이에 한정되는 것은 아니다. 영화 세트장 그래픽 시뮬레이터는 영화 촬영지의 배경, 등장 인물, 차량 등의 촬영환경을 컴퓨터 그래픽스 기술로 제공하는 장치일 수 있다.Referring to FIG. 3, the aviation graphic simulator 300 may be an apparatus in which a flight simulator and a movie set scene graphic simulator are interlocked. The flight simulator may include, for example, a photographing module, an image storing module, and a data transmitting module (e.g., image, flight information, etc.). The movie set scene graphic simulator may be a device for providing a shooting environment such as background, character, vehicle, etc. of a movie shooting place using computer graphics technology.

단계S31에서 항공 그래픽 시뮬레이터(300)는 비행 시뮬레이터에 가상 비행환경(또는 가상 촬영환경)을 구축할 수 있다.In step S31, the aviation graphic simulator 300 can construct a virtual flight environment (or a virtual photography environment) in the flight simulator.

일예로, X-plane, Flight Simulator등의 비행 시뮬레이터는 시뮬레이션 환경에 배경, 건물, 배우 등의 3D 모델을 추가할 수 있는 툴(예를 들어, World Editor 등)이 공개되어 있으며, 단계S31에서 항공 그래픽 시뮬레이터(300)는 이러한 공개되어 있거나 상용 3D모델링 툴을 사용하여 비행 시뮬레이터에서 사용할 환경 및 대상을 모델링할 수 있다. 또한, 항공 그래픽 시뮬레이터(300)에는 각 대상(예를 들어, 사람, 자동차 등)의 움직임에 대한 시나리오가 설정될 수 있다.For example, a flight simulator such as an X-plane or a flight simulator has a tool (for example, World Editor) that can add a 3D model such as a background, a building, and an actor to a simulation environment. In step S31, The graphics simulator 300 may use such open or commercial 3D modeling tools to model the environment and objects to use in the flight simulator. In addition, a scenario for the movement of each object (e.g., a person, an automobile, etc.) may be set in the aviation graphic simulator 300.

비행환경을 구축한 이후 또는 비행환경을 구축할 때 항공 그래픽 시뮬레이터(300)에 포함된 비행 시뮬레이터는, 시뮬레이션 데이터 교환부(200)로 TCP(UDP)/IP 접속을 수행할 수 있다. 시뮬레이션 데이터 교환부(200)에는 운용환경에 따라 N 개의 비행 시뮬레이터가 연동될 수 있다. 이러한 경우, 일예로 시뮬레이션 데이터 교환부(200)는 서버 형태이고 비행 시뮬레이터는 클라이언트 형태인 네트워크로 구성될 수 있다.The flight simulator included in the aviation graphic simulator 300 can perform a TCP (UDP) / IP connection to the simulation data exchange unit 200 after the flight environment is established or when the flight environment is established. The simulation data exchange unit 200 may be interlocked with N flight simulators according to the operating environment. In this case, for example, the simulation data exchange unit 200 may be a server type and the flight simulator may be a client type network.

시뮬레이션 데이터 교환부(200)에 접속한 이후 항공 그래픽 시뮬레이터(300)는 지상통제시스템(100)로부터 비행 시나리오를 수신할 수 있다. 항공 그래픽 시뮬레이터(300)는 비행 시나리오의 수신 여부를 확인(S32)한 이후, 단계S32에서 비행 시나리오를 수신한 것으로 판단되는 경우, 시뮬레이션 환경을 비행 시나리오에 맞추어 셋팅(또는 초기화)할 수 있다. 이러한 과정을 통해 항공 그래픽 시뮬레이터(300)는 시뮬레이션을 수행하기 전에 시뮬레이션할 가상 촬영환경과 무인기를 셋팅할 수 있다.After connecting to the simulation data exchange unit 200, the aviation graphic simulator 300 can receive the flight scenario from the ground control system 100. [ The aviation graphic simulator 300 can confirm (or initialize) the simulation environment according to the flight scenario if it is determined that the flight scenario has been received in step S32 after confirming whether the flight scenario has been received (step S32). Through this process, the aviation graphic simulator 300 can set the virtual shooting environment and the UAV to be simulated before performing the simulation.

이후, 항공 그래픽 시뮬레이터(300)는 수신한 비행 시나리오에 기초하여 무인기를 제어(S33)하고, 무인기를 제어함에 따라 무인기를 통해 촬영된 촬영 영상을 획득(S34)할 수 있다. Thereafter, the aviation graphic simulator 300 controls the UAV based on the received flight scenario (S33), and acquires the captured image through the UAV (S34) by controlling the UAV.

보다 구체적으로, 비행 시나리오를 수신한 이후, 항공 그래픽 시뮬레이터(300)는 구축된 가상 촬영환경에서 무인기를 구동시키고, 무인기를 통한 영상 촬영을 수행함으로써 비행 시나리오에 대한 시뮬레이션을 수행할 수 있다. 이때, 무인기는 비행 시나리오에 기초하여 사전에 기설정된 항로를 따라 비행하면서 영상 촬영을 수행할 수 있으며, 무인기를 통한 촬영의 경우 공중에서 피사체를 조망할 수 있으므로, 일예로 무인기는 익스트림 롱 샷, 롱샷, 풀샷, 루즈 샷 등의 영상을 촬영하여 획득할 수 있다.More specifically, after receiving the flight scenario, the aviation graphic simulator 300 can execute the simulation of the flight scenario by driving the UAV in the established virtual shooting environment and performing image shooting through UAV. In this case, the UAV can perform the image shooting while flying along the predetermined route based on the flight scenario, and the UAV can view the object in the air when shooting through the UAV. For example, the UAV may be an extreme long shot, a long shot, A full shot, a loose shot, and the like can be captured and acquired.

또한, 항공 그래픽 시뮬레이터(300)는 무인기를 통한 촬영 영상 뿐만 아니라, 비행 시뮬레이터 자체의 줌인, 줌 아웃 기능을 이용하여 촬영된 촬영 영상을 획득할 수 있다. 비행 시뮬레이터 자체의 줌인, 줌 아웃 기능을 이용하여 촬영된 촬영 영상으로는, 일예로 니샷, 웨이스트 샷, 바스트 샷, 클로즈 샷, 클로즈업 샷, 익스트림 클로즈업 샷, 타이트 샷 등의 영상이 포함될 수 있다. 이에 따라, 항공 그래픽 시뮬레이터(300)는 후술할 단계S35에서 촬영 영상을 지상통제시스템(100)로 전송할 때, 무인기를 통해 촬영된 촬영 영상을 전송할 수도 있고, 시뮬레이터 자체 기능에 의하여 촬영된 촬영 영상을 전송할 수도 있다.In addition, the aviation graphic simulator 300 can acquire the photographed image by using the zoom-in and zoom-out functions of the flight simulator itself as well as the photographed image through the UAV. The photographed images photographed using the zoom-in / zoom-out function of the flight simulator itself may include images such as nose shot, waist shot, bust shot, close shot, close-up shot, extreme close-up shot, and tight shot. Accordingly, when the aerial graphic simulator 300 transmits the photographed image to the ground control system 100 in step S35, which will be described later, the aerial graphic simulator 300 may transmit the photographed image photographed through the UAV, .

즉, 본원의 일 실시예에 따른 스토리보드 생성 시스템(10)에서는 전반적으로 지상통제시스템(100)가 항공 그래픽 시뮬레이터(300)로부터 획득하는 촬영 영상으로서, 무인기를 통해 촬영된 촬영 영상만 획득하는 것으로 예시하였으나, 이에 한정되는 것은 아니고, 앞서 말한 바와 같이 항공 그래픽 시뮬레이터(300)로부터 획득하는 촬영 영상에는 항공 그래픽 시뮬레이터(300)에 자체적으로 구비된 촬영모듈을 통해 촬영된 촬영 영상도 포함될 수 있다. 이에 따라 후술할 영상 스토리보드 제작기(400) 또한 무인기를 통해 촬영된 촬영 영상에 기반하여 스토리보드를 생성할 뿐만 아니라 항공 그래픽 시뮬레이터(300)에 자체 구비된 촬영모듈을 통해 촬영된 촬영 영상에 기반하여 스토리보드를 생성할 수도 있다. 또는, 영상 스토리보드 제작기(400)는 무인기를 통해 촬영된 촬영 영상과 항공 그래픽 시뮬레이터(300)의 자체 구비된 촬영모듈을 통해 촬영된 촬영 영상을 연계한 촬영 영상을 이용하여 스토리보드를 생성할 수도 있다. That is, in the storyboard generating system 10 according to the embodiment of the present invention, the ground control system 100 obtains only the photographed image photographed through the UAV, as the photographed image acquired from the aviation graphic simulator 300 However, the present invention is not limited thereto. As described above, the aerial graphic simulator 300 may include an aerial image simulated by the aerial graphic simulator 300. Accordingly, the video storyboard maker 400, which will be described later, not only generates the storyboard based on the shot image photographed through the UAV, but also generates the storyboard based on the shot image photographed through the shooting module built in the aviation graphic simulator 300 You can also create a storyboard. Alternatively, the video storyboard maker 400 may generate a storyboard using an image captured through the UAV and an image captured through the self-contained shooting module of the air graphic simulator 300 .

한편, 단계S34에서 항공 그래픽 시뮬레이터(300)는 기설정된 지연 시간을 고려하여 촬영 영상을 획득할 수 있다. 여기서, 지연 시간은 무인기를 통해 촬영된 촬영 영상(또는 항공 그래픽 시뮬레이터(300) 자체에 구비된 촬영모듈을 통해 촬영된 촬영 영상)을 지상통제시스템(100)로 전송하기 위한 대기 시간을 의미할 수 있으며, 기설정된 지연 시간에 의하여 항공 그래픽 시뮬레이터(300)가 무인기를 통해 촬영된 촬영 영상을 획득하는 영상획득 속도가 결정될 수 있다. 일예로, 지연 시간이 0.1초로 설정된 경우, 항공 그래픽 시뮬레이터(300)는 최대 10 frame/second의 속도로 무인기를 통해 촬영된 촬영 영상을 획득할 수 있다. Meanwhile, in step S34, the aviation graphic simulator 300 can acquire the photographed image in consideration of the predetermined delay time. Here, the delay time may mean a waiting time for transmitting the photographed image photographed through the UAV (or the photographed image photographed through the photographic module provided in the aviation graphic simulator 300 itself) to the ground control system 100 And the image acquisition speed at which the aviation graphic simulator 300 acquires the photographed image photographed through the UAV can be determined by the predetermined delay time. For example, when the delay time is set to 0.1 second, the aviation graphic simulator 300 can acquire the photographed image photographed through the UAV at a rate of up to 10 frames / second.

또한, 항공 그래픽 시뮬레이터(300)는 무인기를 통해 촬영된 촬영 영상을 일예로 캡처(capture)하여 후술할 데이터베이스(500)에 저장할 수 있다. 이때, 항공 그래픽 시뮬레이터(300)는 촬영 영상 저장시, 캡처된 영상을 촬영할 때의 무인기의 비행정보를 캡처된 영상과 연계하여 함께 데이터베이스(500)에 저장할 수 있다.In addition, the aviation graphic simulator 300 may capture an image photographed through a UAV, for example, and store the captured image in a database 500 to be described later. At this time, the aviation graphic simulator 300 may store the flight information of the UAV when capturing the captured image in the database 500 together with the captured image at the time of storing the captured image.

단계S34 이후에, 항공 그래픽 시뮬레이터(300)는 무인기를 통해 촬영된 촬영 영상 및 해당 촬영 영상을 촬영할 때의 무인기의 비행정보를 함께 지상통제시스템(100)로 전송(S35)할 수 있다.After step S34, the aviation graphic simulator 300 can transmit the shot image shot through the UAV and the flight information of the UAV when shooting the shot image together to the ground control system 100 (S35).

단계S35이후, 항공 그래픽 시뮬레이터(300)는 지상통제시스템(100)로부터 수신한 비행 시나리오에 대한 시뮬레이션이 종료되었는지 여부를 확인(S36)할 수 있다. 비행 시나리오에 대한 시뮬레이션이 종료되지 않은 것으로 판단되는 경우(S36-N), 항공 그래픽 시뮬레이터(300)는 단계S34로 돌아가 무인기를 통해 촬영된 촬영 영상을 획득하고, 비행 시나리오에 대한 시뮬레이션이 종료된 것으로 판단되는 경우 (S36-Y)에는 항공 그래픽 시뮬레이터(300)의 동작을 종료할 수 있다.After step S35, the aviation graphic simulator 300 can confirm whether the simulation for the flight scenario received from the terrestrial control system 100 has been completed (S36). If it is determined that the simulation for the flight scenario is not terminated (S36-N), the aviation graphic simulator 300 returns to step S34 to acquire the shot image photographed through the unmanned aerial vehicle, and the simulation for the flight scenario is terminated If it is judged (S36-Y), the operation of the aviation graphic simulator 300 can be terminated.

한편, 데이터베이스(500)는 스토리보드 생성 시스템(10)과 관련된 정보를 모두 저장할 수 있다. 일예로, 데이터베이스(500)는 지상통제시스템(100)를 통해 설정된 비행 시나리오 정보, 항공 그래픽 시뮬레이터(300)를 통해 획득된 촬영 영상(예를 들어, 무인기를 통해 촬영된 촬영 영상, 시뮬레이터 자체 촬영모듈을 통해 촬영된 촬영 영상 등), 무인기의 비행정보, 영상 스토리보드 제작기(400)를 통해 선정된 스토리보드 영상 및 영상 스토리보드 제작기(400)를 통해 생성된 스토리보드 등의 정보를 저장할 수 있다.On the other hand, the database 500 may store all information related to the storyboard creation system 10. For example, the database 500 may include information on flight scenarios set through the ground control system 100, an image captured through an aerial graphic simulator 300 (e.g., an image captured through an unmanned aerial vehicle, The flight information of the UAV, the storyboard image selected through the image storyboard maker 400, and the storyboard generated through the image storyboard maker 400. [0051] FIG.

영상 스토리보드 제작기(400)는 지상통제시스템(100)로부터 촬영 영상을 획득하고, 획득한 촬영 영상으로부터 기설정된 상황조건에 기반하여 스토리보드 영상을 선정하고, 선정된 스토리보드 영상에 기초하여 비행 시나리오에 대응하는 스토리보드를 생성할 수 있다.The video storyboard maker 400 acquires a shot image from the ground control system 100, selects a storyboard image based on a preset situation condition from the acquired shot image, Can be generated.

영상 스토리보드 제작기(400)에 대한 설명은 도 4 내지 도 7을 통해 보다 쉽게 이해될 수 있다.The description of the video storyboard maker 400 can be more easily understood from FIG. 4 through FIG.

도 4는 본원의 일 실시예에 따른 영상 스토리보드 제작기(400)의 구성을 개략적으로 나타낸 블록도이다.4 is a block diagram schematically showing a configuration of an image storyboard maker 400 according to an embodiment of the present invention.

도 4를 참조하면, 본원의 일 실시예에 따른 영상 스토리보드 제작기(400)는 상황 설정부(410), 비디오 분석부(420) 및 스토리보드 생성부(430)를 포함할 수 있다.Referring to FIG. 4, the video storyboard maker 400 according to one embodiment of the present invention may include a situation setting unit 410, a video analyzing unit 420, and a storyboard generating unit 430.

영상 스토리보드 제작기(400)는 사용자로부터 스토리보드 생성과 관련된 제어 입력(예를 들어, 상황조건 설정, 스토리보드 영상의 최대 개수 설정, 알고리즘 설정 등)을 사용자로부터 입력받을 수 있으며, 이때 스토리보드 생성과 관련된 제어 입력은 지상통제시스템(100)에 포함된 유저 인터페이스(미도시)를 통해 입력받거나 또는 지상통제시스템(100)에 포함된 유저 인터페이스와는 별도로 영상 스토리보드 제작기(400) 내에 포함된 유저 인터페이스(미도시)를 통해 입력받을 수 있다. 영상 스토리보드 제작기(400)에 포함된 유저 인터페이스 또한 키보드, 터치 스크린, 마우스 등으로 구현 가능하며, 이에 한정되는 것은 아니다.The video storyboard maker 400 can receive input from a user from a user a control input related to creating a storyboard (for example, setting a condition condition, setting a maximum number of storyboard images, setting an algorithm, etc.) (Not shown) included in the terrestrial control system 100 or a user included in the video storyboard maker 400 separately from the user interface included in the terrestrial control system 100, And input via an interface (not shown). The user interface included in the video storyboard maker 400 may also be implemented by a keyboard, a touch screen, a mouse, and the like, but is not limited thereto.

상황 설정부(410)는 스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하는 상황조건을 설정할 수 있다. 달리 표현하여, 상황 설정부(410)는, 촬영 영상에 포함된 장면들 중에서 스토리보드 영상으로 선정될 장면을 추출하기 위한 기준 조건을 설정할 수 있으며, 상기 기준 조건은 앞서 말한 상황조건 또는 스토리보드 영상 추출 조건 등으로 표현될 수 있다. 여기서, 장면이라 함은 하나의 프레임에 대응하는 컷을 의미할 수도 있고, 또는 단일한 상황으로 인식될 수 있는 복수의 프레임의 집합을 의미할 수도 있다. 예를 들면, 장면은 하나의 상황을 담은 씬(scene)의 개념과 동일 내지 유사하게 이해될 수 있다. 또한 상황조건은, 스토리보드 영상으로 선정됨에 있어서 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수를 포함할 수 있다. 상황변수는 일예로 사람의 수, 차량의 수, 사람의 특정한 동작, 특정한 이벤트 등과 같이 분석 알고리즘을 통해 식별 가능한 특징이나 사건(상황)을 계량화한 변수를 의미할 수 있다.The situation setting unit 410 can set a situation condition corresponding to a characteristic for selecting a scene stored in the storyboard. In other words, the situation setting unit 410 may set a reference condition for extracting a scene to be selected as a storyboard image from scenes included in the photographed image, and the reference condition may be a situation condition or a storyboard image Extraction conditions, and the like. Here, a scene may mean a cut corresponding to one frame, or a set of a plurality of frames that can be recognized as a single situation. For example, a scene can be understood to be the same as or similar to the concept of a scene containing one scene. In addition, the situation condition may include a situation variable that is given in accordance with the importance of the characteristic appearing in each scene included in the shot image in the selection of the storyboard image. The context variables can be, for example, variables that quantify features or events that can be identified through analysis algorithms such as the number of people, the number of vehicles, a specific action of a person, a specific event, and the like.

보다 자세하게, 상황 조건은 촬영 영상 내에 포함된 객체에 대한 객체 상황변수를 포함할 수 있으며, 객체 상황변수는 객체의 특성, 객체의 숫자 및 객체의 위치 중 적어도 하나와 관련한 변수일 수 있다.More specifically, the context condition may include an object context variable for an object included in the captured image, and the object context variable may be a variable related to at least one of an object's property, a number of objects, and a location of the object.

예를 들어, 객체의 특성과 관련한 변수는 객체의 종류나 특성에 따른 변수로서, 사람인지 사물인지, 사람인 경우 남자인지 여자인지, 사람인 경우 주연인지 조연인지 엑스트라인지 카메오인지 등, 사람인 경우 특정 배우가 등장했는지 퇴장했는지, 사물인 경우 차량인지 비행기인지 기차인지 전철인지 버스인지 자연지물인지 등, 자연지물인 경우 건물인지 나무인지 등, 차량인 경우 A 차종인지 B 차종인지 등, 차량인 경우 색상이 A 색상인지 B 색상인지 등, 건물인 경우 아파트인지 저층주택인지 고층빌딩인지 타워형 아파트인지 등을 고려한 변수를 포함할 수 있으며, 또한, 얼굴의 특성, 신체의 특성, 특정 부위의 특성 및 동작의 특성, 사물의 특성 등을 고려한 변수를 포함할 수 있다. 객체의 숫자와 관련한 변수는 객체의 수가 0개인지, 1개인지 2개인지 등을 고려한 변수를 포함할 수 있다. 객체의 위치와 관련한 변수는 객체가 정지한 상태인지 이동하고 있는 상태인지 등, 이동하는 경우 어느 방향으로 이동하는지 어느 이동경로로 이동하는지, 이동시 어느 속도로 이동하는지 등과 같이 위치와 관련한 변수를 포함할 수 있다.For example, a variable related to the characteristics of an object is a variable depending on the kind or characteristics of an object, and it is a variable such as a person or object, a man or woman, a person, a star or an assistant, Whether it is a vehicle, a plane, a train, a train, a bus, or a natural property, such as a natural building, a building or a tree, etc. If the vehicle is a vehicle A or a vehicle B, Color, and B color, and the like, it may include variables considering the apartment, the low-rise house, the high-rise building, or the tower-type apartment in the case of the building, and the characteristics of the face, the body, And the characteristics of objects. Variables related to the number of objects can include variables that take into account whether the number of objects is 0, 1 or 2. Variables related to the position of an object include variables related to the position, such as whether the object is in a stopped state or moving state, in which direction it is moved, on which path it travels, .

또한, 상황조건은 촬영 영상의 화면 변화에 대한 화면 상황변수를 포함할 수 있으며, 화면 상황변수는 배경의 전환 유무, 배경의 급격한 전환 유무 및 배경의 전환 속도 중 적어도 하나와 관련된 변수일 수 있다. 여기서 배경이라 함은, 하늘과 같은 자연 배경, 실내 공간 내의 배경, 도로, 골목, 가로수길 등과 같은 실외 공간의 배경 등을 포함할 수 있다.In addition, the conditional condition may include a screen condition variable for the screen change of the photographed image, and the screen condition parameter may be a variable related to at least one of whether the background is switched, whether the background is rapidly changed, and the background switching speed. Here, the background may include a background such as a sky, a background in an indoor space, a background in an outdoor space such as a road, an alley, a boulevard, and the like.

또한, 배경에는 중요도가 부여되지 않은 객체가 포함될 수 있다. 예를 들어, 촬영 영상에 포함된 특정 장면이, 빌딩 앞 버스 정류장에 주차된 승용차 한대와 승용차 옆에 서 있는 한 사람이 포함되어 있는 장면이고, 이러한 장면 내에서 사람만이 중요도가 부여된 상황변수인 것으로 가정하자. 이때, 일반적으로는 특정 장면 내에서 빌딩, 승용차 및 사람 각각이 객체 상황변수로 인식될 수 있으나, 앞선 가정에서는 사람만이 중요도가 부여된 상황변수인 것으로 가정했으므로, 사람은 객체 상황변수로 인식되고, 승용차 및 빌딩은 해당 속성으로 인해 객체로 구분될 지라도 중요도가 부여되지 않음에 따라 배경으로 인식될 수 있다. 이에 따라, 화면 상황변수에는 비행기와 같은 객체가 배경으로 인식되는 경우, 비행기의 비행경로의 변경 등과 관련된 변수가 포함될 수 있다.In addition, the background may include objects that are not assigned importance. For example, a specific scene included in a photographed image is a scene including a passenger car parked at a bus stop in front of a building and a person standing next to the passenger car. In this scene, . At this time, generally, each building, passenger car, and person can be recognized as an object situation variable in a specific scene, but in the above assumption, it is assumed that only a person is a situation variable to which importance is given, , Passenger cars and buildings can be recognized as backgrounds even though they are classified as objects due to their properties but they are not assigned importance. Accordingly, when the object such as an airplane is recognized as a background, variables related to the change of the flight path of the airplane may be included in the screen status variable.

또한, 상황 설정부(410)는 촬영 영상에 포함된 장면들 중에서 스토리보드에 저장되는 장면을 선정하기 위한 분석 알고리즘을 설정할 수 있다. 상황 설정부(410)는 도 5를 참조하여 보다 쉽게 이해될 수 있다.In addition, the situation setting unit 410 may set an analysis algorithm for selecting a scene stored in the storyboard among the scenes included in the shot image. The situation setting unit 410 can be more easily understood with reference to Fig.

도 5는 본원의 일 실시예에 따른 영상 스토리보드 제작기(400)에서 상황 설정부(410)의 동작 흐름의 일예를 나타낸 도면이다.5 is a diagram illustrating an example of the operation flow of the situation setting unit 410 in the video storyboard maker 400 according to an embodiment of the present invention.

도 5를 참조하면, 단계S51에서 상황 설정부(410)는 사용자(예를 들어, 영화 감독, 촬영감독 등) 입력에 기초하여 스토리보드에 포함되는 스토리보드 영상의 최대 개수를 설정할 수 있다. 이때, 스토리보드 영상의 최대 개수는 스토리의 흐름 및 촬영 영상의 총 길이(또는 시간) 등을 고려하여 상기 사용자에 의하여 설정될 수 있다.Referring to FIG. 5, in step S51, the situation setting unit 410 may set a maximum number of storyboard images included in a storyboard based on input of a user (for example, a movie director, a cinematographer, etc.). At this time, the maximum number of storyboard images can be set by the user in consideration of the story flow and the total length (or time) of the shot images.

이때, 스토리보드 영상의 최대 개수가 적게 설정되는 경우에는 실제 무인기를 통한 영상 촬영시 정밀도가 저하될 수 있고, 스토리보드 영상의 최대 개수가 많게 설정되는 경우에는 생성된 스토리보드를 실제 무인기를 통한 영상 촬영의 참고자료로서 활용하고자 할 경우, 스토리보드를 검토하는 데에 많은 시간이 소요될 수 있으므로, 스토리보드 영상의 최대 개수는 스토리의 전개와 무인기의 촬영 동선 등을 종합적으로 고려하여 적절한 수로 설정됨이 바람직하다.In this case, if the maximum number of storyboard images is set to a small value, the accuracy may be lowered when photographing images through an actual UAV. If the maximum number of storyboard images is set to a large value, If you want to use it as a reference for shooting, it may take a lot of time to review the storyboard. Therefore, the maximum number of storyboard images is set to an appropriate number considering the development of the story and the shooting motion of the UAV. desirable.

한편, 후술할 스토리보드 생성부(430)를 통해 생성된 스토리보드의 경우, 스토리보드에 포함된 각각의 스토리보드 영상에는 스토리보드 영상에 대응하는 촬영 영상 뿐만 아니라 스토리보드 영상에 대응하는 촬영 시점에서의 무인기의 비행정보가 포함될 수 있어, 스토리보드에 포함된 각각의 스토리보드 영상은 실제 무인기를 통한 영상 촬영시 실제 무인기의 웨이포인트(way point)로 사용될 수 있다. 또한 스토리보드에 포함된 각각의 스토리보드 영상은 촬영감독 또는 영화감독으로 하여금 편집점으로 이용될 수 있다.On the other hand, in the case of the storyboard generated through the storyboard generating unit 430 to be described later, not only the shot image corresponding to the storyboard image but also the storyboard image corresponding to the storyboard image And the flight information of the UAV of the UAV can be included. Thus, each storyboard image included in the storyboard can be used as a way point of the UAV when the image is captured through the actual UAV. In addition, each storyboard image included in the storyboard can be used as an editing point by the cinematographer or film director.

다음으로, 단계S52에서 상황 설정부(410)는 촬영 영상에 포함된 장면들 중에서 스토리보드에 저장되는 장면을 선정하기 위해 비디오 분석부(420)가 이용할 알고리즘을 설정할 수 있다. 달리 말해, 상황 설정부(410)는 설정된 상황조건에 해당하는 장면을 식별하기 위한 알고리즘을 설정할 수 있다.Next, in step S52, the situation setting unit 410 can set an algorithm to be used by the video analysis unit 420 to select scenes stored in the storyboard among the scenes included in the shot image. In other words, the situation setting unit 410 can set an algorithm for identifying a scene corresponding to the set conditional condition.

일예로, 상황 설정부(410)에서 설정 가능한 알고리즘으로는, 얼굴 검출 알고리즘, 다중 얼굴 검출 알고리즘, 성별 검출 알고리즘, 인체 검출 알고리즘, 객체(예를 들어, 사람, 차량, 기차, 상표, 자연지물 등) 검출 알고리즘, 화면의 전환 알고리즘, 이동방향 검출 알고리즘 외에도 촬영 영상의 특정 상황을 식별할 수 있는 검출 알고리즘 등이 포함될 수 있으며, 이에 한정되는 것은 아니다.For example, the algorithms that can be set by the situation setting unit 410 include a face detection algorithm, a multiple face detection algorithm, a gender detection algorithm, a human body detection algorithm, an object (such as a person, a vehicle, a train, ) Detecting algorithm, a screen switching algorithm, a moving direction detecting algorithm, and a detection algorithm capable of identifying a specific situation of a photographed image, and the like, but the present invention is not limited thereto.

상황 설정부(410)에서 기설정된 복수의 알고리즘에 기초하여, 후술할 비디오 분석부(420)는 상황조건에 포함된 각각의 상황변수에 대응하는 알고리즘을 이용해 촬영 영상에 포함되는 장면 각각에 대한 스칼라 값을 산출할 수 있고, 이를 통해 스토리보드 영상을 선정할 수 있다. 또한, 후술할 비디오 분석부(420)는 상황조건에 복수의 상황변수가 포함되는 경우, 복수의 상환변수 각각에 대응하는 복수의 알고리즘을 이용함으로써 스토리보드 영상을 선정할 수 있다. 즉, 비디오 분석부(420)는 스토리보드 영상을 선정함에 있어서, 하나의 알고리즘 또는 둘 이상의 복수의 알고리즘의 조합을 이용하여 스토리보드 영상을 선정할 수 있다. 또한 비디오 분석부(420)는 분석 알고리즘 간의 우선순위 또는 선후관계 등의 조합을 고려함으로써 스토리보드 영상을 선정할 수 있다. 이때 분석 알고리즘 간의 우선순위는 상황조건 설정시 상황변수에 따라 부여된 특성 별 중요도 정도에 기초하여 결정될 수 있다. 예를 들어, 여자와 나무가 포함된 장면에서 여자가 나무보다 중요도가 더 높게 부여된 경우, 나무를 식별하기 위한 알고리즘보다 사람을 식별하기 위한 알고리즘이 우선으로 이용될 수 있다. Based on a plurality of algorithms previously set in the situation setting unit 410, a video analyzing unit 420, which will be described later, calculates a scalar value for each scene included in the photographed image by using an algorithm corresponding to each situation variable included in the situation condition Value can be calculated, and a storyboard image can be selected through this. In addition, the video analysis unit 420 may select a storyboard image by using a plurality of algorithms corresponding to each of a plurality of redeeming variables, when the situation condition includes a plurality of situation variables. That is, in selecting the storyboard image, the video analyzer 420 may select a storyboard image using one algorithm or a combination of two or more algorithms. In addition, the video analysis unit 420 can select a storyboard image by considering a combination of priorities or posterior relations among analysis algorithms. At this time, the priority among the analysis algorithms can be determined based on the degree of importance of each property given according to the situation variable when setting the condition condition. For example, in a scene involving a woman and a tree, if a woman is given a higher importance than a tree, an algorithm for identifying a person may be used first rather than an algorithm for identifying the tree.

다음으로, 단계S53에서 상황 설정부(410)는 비디오 분석 로직을 구성할 수 있다. 보다 자세하게 상황 설정부(410)는 후술할 비디오 분석부(420)가 기설정된 스토리보드 영상의 최대 개수와 기설정된 분석 알고리즘에 기초하여 스토리보드 영상을 선정할 수 있도록, 비디오 분석과 관련한 설정 파일 또는 변수를 변경하는 비디오 분석 로직을 구성할 수 있다. Next, in step S53, the situation setting unit 410 may configure the video analysis logic. In more detail, the situation setting unit 410 may be configured to set a storyboard image based on a maximum number of predetermined storyboard images and a predetermined analysis algorithm, You can configure the video analysis logic to change the variables.

한편, 비디오 분석부(420)는 상황 설정부(410)에서 설정된 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정할 수 있다. 이때, 촬영 영상은 무인기를 통해 촬영된 영상일 수 있으며, 여기서, 무인기는 항공 그래픽 시뮬레이터(300) 내에서 비행하는 가상의 무인기를 의미할 수 있다. 또한, 앞서 말한 바와 같이, 촬영 영상에는 무인기를 통해 촬영된 영상 뿐만 아니라 항공 그래픽 시뮬레이터(300)에 자체 구비된 촬영모듈을 통해 촬영된 영상이 포함될 수도 있다.On the other hand, the video analyzer 420 can select a storyboard image from the photographed image based on the status condition set in the situation setting unit 410. [ At this time, the photographed image may be an image photographed through a UAV, where the UAV may mean a virtual UAV flying in the aviation graphic simulator 300. As described above, the photographed image may include not only the image photographed through the UAV, but also the image photographed through the photographing module provided in the aviation graphic simulator 300 itself.

또한, 비디오 분석부(420)는 상황 설정부(410)에서 설정된 상황조건을 충족하는 장면을 촬영 영상 내에서 추출함으로써, 추출된 장면을 스토리보드 영상으로 선정할 수 있다. In addition, the video analyzer 420 can extract a scene that satisfies the set condition set by the situation setting unit 410 in the shot image, and can select the extracted scene as the storyboard image.

또한, 비디오 분석부(420)는 상황조건에 복수의 상황변수가 포함되는 경우, 복수의 상황변수를 함께 고려하여 스토리보드 영상을 선정할 수 있다. 이때, 복수의 상황변수는 스칼라 값으로 표현될 수 있으며, 비디오 분석부(420)는 촬영 영상에 포함된 장면 각각에 대하여 복수의 상황변수의 스칼라 값을 합산한 합산 정보에 기초하여 스토리보드 영상을 선정할 수 있다.In addition, when a plurality of context variables are included in the context condition, the video analysis unit 420 may select a storyboard image by considering a plurality of context variables together. At this time, the plurality of context variables may be expressed as scalar values, and the video analyzer 420 may calculate the storyboard image based on the sum information obtained by summing the scalar values of the plurality of context variables for each scene included in the shot image Can be selected.

또한, 비디오 분석부(420)는 촬영 영상에 포함되는 장면 각각에 대하여 산출된 합산 정보 값을 크기순(일예로, 크기가 큰 순으로)으로 정렬한 후 정렬된 합산 정보 값에 기초하여 상황 설정부(410)에서 기설정된 스토리보드 영상의 최대 개수에 대응하는 장면들을 스토리보드 영상으로 선정할 수 있다.In addition, the video analyzer 420 sorts the sum information values calculated for each of the scenes included in the photographed image in order of magnitude (for example, in descending order of magnitude), and then, based on the summed sum information values, Scenes corresponding to the maximum number of storyboard images preset in the unit 410 can be selected as storyboard images.

또한, 촬영 영상에 포함된 프레임들 중에서 n번째 프레임부터 (n+10)번째 프레임까지 프레임 각각에 대한 합산 정보 값이 모두 동일한 경우, n번째 프레임부터 (n+10)번째 프레임까지는 프레임은 상이하나 모두 단일한 의미를 갖는 상황, 즉 동일한 상황으로서 하나의 장면으로 인식될 수 있다. 즉, 촬영 영상의 타임라인 상에서, 서로 이웃한 프레임들에 대하여 동일한 합산 정보 값이 산출된 경우에는, 동일한 합산 정보 값을 갖는 서로 이웃한 프레임들이 동일한 장면인 것으로 인식될 수 있다. 이러한 경우, 비디오 분석부(420)는 동일한 합산 정보 값을 갖는 이웃한 프레임들(예를 들어, n 번째 프레임부터 (n+10) 번째 프레임까지의 프레임들) 중 한 프레임 또는 복수의 프레임을 조합한 프레임을 해당 장면을 대표하는 프레임으로 추출하여 추출된 프레임을 스토리보드 영상으로 선정할 수 있으나, 이에만 한정되는 것은 아니다.If the sum information values of the frames from the nth frame to the (n + 10) th frame are all the same among the frames included in the photographed image, the frame is different from the nth frame to the (n + 10) th frame Can be recognized as a scene having a single meaning, that is, as a single scene as the same situation. That is, when the same summation information value is calculated for neighboring frames on the timeline of the photographed image, it can be recognized that neighboring frames having the same summation information value are the same scene. In this case, the video analyzer 420 may combine one frame or a plurality of frames among neighboring frames having the same sum information value (for example, frames from the nth frame to the (n + 10) One frame may be extracted as a frame representative of the scene, and the extracted frame may be selected as a storyboard image, but the present invention is not limited thereto.

한편, 일예로, 촬영 영상에 포함된 장면들 중에서 사람 3명과 차량 1대가 포함되어 있는 장면을 스토리보드 영상으로서 선정하고자 하는 경우, 상황 설정부(410)에서는 상황조건으로서 사람이 3명이면서 차량이 1대인 상황조건이 설정되어 있을 수 있다. 이때, 비디오 분석부(420)는 촬영 영상에 포함된 장면들 중에서 사람이 3명이면서 차량이 1대가 포함되어 있는 장면을 스토리보드 영상으로서 선정하기 위해, 복수의 상황변수로서 사람인 객체의 수를 고려한 상황변수와 사물(즉, 차량)인 객체의 수를 고려한 상황변수를 이용할 수 있으며, 각 상황변수에 대한 스칼라 값(또는 각 상황변수 별로 부여된 중요도 정도로서 가중치 값)을 산출할 수 있다.Meanwhile, for example, when a scene including three persons and one vehicle among the scenes included in the photographed image is to be selected as a storyboard image, the situation setting unit 410 sets three conditions One condition condition may be set. At this time, in order to select, as a storyboard image, a scene in which three persons are included in the shot image and one vehicle is included among the scenes included in the shot image, the video analyzer 420 considers the number of human objects A situation variable can be used that takes into account the context variables and the number of objects that are objects (ie, vehicles), and a scalar value for each context variable (or a weight value as the importance assigned to each context variable) can be calculated.

보다 자세하게는, 일예로, 촬영 영상에 포함된 장면들 중에서 3명의 사람이 포함되어 있는 장면에는 10점의 가중치(이때, 가중치는 각 상황변수 별 부여된 중요도 정도로서, 각 상황변수 마다 0~10점 사이의 가중치가 부여될 수 있음)가 부여되고, 2명 또는 4명의 사람이 포함되어 있는 장면에는 7점의 가중치가 부여되고, 1명 또는 5명의 사람이 포함되어 있는 장면에는 3점의 가중치가 부여되고, 0명 또는 6명 이상의 사람이 포함되어 있는 장면에는 0점의 가중치가 부여될 수 있다. 또한, 촬영 영상에 포함된 장면들 중에서 일예로, 1대의 차량이 포함되어 있는 장면에는 10점의 가중치가 부여되고, 0대의 차량이 포함되어 있는 장면(즉, 차량이 없는 장면)에는 3점의 가중치가 부여되고, 2대 이상의 차량이 포함되어 있는 장면에는 0점의 가중치가 부여될 수 있다.More specifically, for example, a scene including three persons among the scenes included in the photographed image has a weight of 10 points (in this case, the weight is a degree of importance given to each situation variable, and 0 to 10 points , A scene having two or four persons is given a weight of 7, and a scene having one or five persons is given a weight of 3 points And a scene having 0 or 6 or more persons may be given a weight of zero. Of the scenes included in the photographed image, for example, a scene including one vehicle is given a weight of 10 points, and a scene including zero vehicles (i.e., a scene without a vehicle) A weight is given, and a scene having two or more vehicles can be given a weight of zero.

또한, 상황 설정부(410)에서는 사람이 3명이면서 차량이 1대인 상황조건 외에 사람 한명이 승용차에서 내리는 상황조건, 사람 5명이 a 지점에서 b 지점으로 이동하는 상황조건, a배우 한명의 얼굴이 클로즈업되는 상황조건 등이 설정되어 있을 수 있다. 이때 비디오 분석부(420)는 촬영 영상에 포함된 장면들 각각에 대하여, 상황설정부(410)에서 설정된 복수의 상황조건 별로 상황조건 각각에 포함된 상황변수들에 대한 스칼라 값의 합산 정보를 산출할 수 있다.In the situation setting unit 410, a situation condition in which one person comes down from the passenger car in addition to a situation condition in which there are three persons and one vehicle, a situation condition in which five persons move from a point to point b, A situation condition may be set. At this time, the video analyzer 420 calculates the sum information of the scalar values for the context variables included in each of the contextual conditions for each of the plurality of contextual conditions set by the context setting unit 410, for each scene included in the captured image can do.

일예로, 비디오 분석부(420)는 합산 정보로서, 3명의 사람과 1대의 차량이 포함되어 있는 장면에 대해서는 20점의 가중치에 대응하는 스칼라 값을 산출하고, 3명의 사람과 0대의 차량이 포함되어 있는 장면에 대해서는 13점의 가중치에 대응하는 스칼라 값을 산출하고, 1명의 사람과 2대의 차량이 포함되어 있는 장면에 대해서는 3점의 가중치에 대응하는 스칼라 값을 산출할 수 있다. 또한, 일예로, 비디오 분석부(420)는 합산 정보로서, 사람 5명이 a 지점에서 b 지점으로 이동하는 장면에 대해서는 30점의 가중치에 대응하는 스칼라 값을 산출하고, 3명이 a 지점에서 b 지점으로 이동하면 14점의 가중치에 대응하는 스칼라 값을 산출하고, 1명이 a지점에서 b 지점의 반대인 c 지점으로 이동하면 2점의 가중치에 대응하는 스칼라 값을 산출할 수 있다.For example, as the summation information, the video analyzing unit 420 calculates a scalar value corresponding to a weight of 20 points for a scene including three persons and one vehicle, and includes three persons and zero vehicles A scalar value corresponding to a weight of 13 points can be calculated for a scene in which a person is present and a scalar value corresponding to a weight of three points can be calculated for a scene in which one person and two vehicles are included. For example, the video analyzing unit 420 may calculate a scalar value corresponding to a weight of 30 points for a scene in which five people move from a point to point b as summing information, , A scalar value corresponding to the weight of 14 points is calculated, and when one person moves from point a to point c opposite to point b, a scalar corresponding to the weight of two points can be calculated.

이처럼, 비디오 분석부(420)는 스칼라 값 산출 시, 사람의 수, 차량의 수 등과 같이 객체의 숫자와 관련된 상황변수 뿐만 아니라, 객체의 특성, 위치, 배경의 전환 유무, 배경의 전환 속도 등 특정 상황에 대한 식별(또는 인식)이 가능한 상황변수를 이용해 스칼라 값을 산출할 수 있다.As described above, the video analyzer 420 can calculate the scalar value based on not only the status variables related to the number of objects such as the number of people, the number of vehicles, Scalar values can be calculated using context variables that can be identified (or recognized) for the situation.

이후 비디오 분석부(420)는 촬영 영상에 포함된 장면들 각각에 대하여 산출된 스칼라 값에 따른 합산 정보 값을 크기 순으로(예를 들어, 크기가 큰 순으로) 정렬하고, 정렬된 합산 정보 값에 기초하여 기설정된 스토리보드 영상의 최대 개수에 대응하는 장면들을 스토리보드 영상으로 선정할 수 있다. 이때, 크기 순으로 정렬된 장면들 중 상위 리스트에는, 특성의 중요도에 따라 부여된 상황변수를 고려하여 스칼라 값을 산출함에 따라 상황설정부(410)에서 설정된 복수의 상황조건에 가장 유사하거나 복수의 상황조건에 가장 부합하는 장면이 위치해 있을 수 있다. 이에 따라, 비디오 분석부(420)는 합산 정보 값이 높은 순을 기준으로, 스토리보드 영상의 최대 개수에 대응하는 장면을 스토리보드 영상으로서 선정할 수 있다. Then, the video analyzer 420 sorts the sum information values according to the calculated scalar values for each of the scenes included in the photographed image in order of magnitude (for example, in descending order of size) Scenes corresponding to the maximum number of preset storyboard images may be selected as storyboard images. At this time, the upper list among the scenes sorted in order of magnitude may include a plurality of scene conditions that are most similar to or more similar to the plurality of situation conditions set in the situation setting unit 410, The scene that best matches the situation condition may be located. Accordingly, the video analyzer 420 can select, as a storyboard image, a scene corresponding to the maximum number of storyboard images on the basis of the order in which the sum information value is high.

또한, 비디오 분석부(420)는 무인기를 통해 촬영된 촬영 영상을 분석함으로써 스토리보드 영상을 선정하고, 선정된 스토리보드 영상을 시간순으로 정렬할 수 있으며, 이는 도 6을 통해 보다 쉽게 이해될 수 있다.In addition, the video analysis unit 420 can select a storyboard image by analyzing the shot image photographed through the UAV, and sort the selected storyboard images in chronological order, which can be more easily understood from FIG. 6 .

도 6을 참조하면, 단계S61에서 비디오 분석부(420)는 스토리보드 영상 선정을 위하여 촬영 영상을 분석할 수 있다. 이를 위해, 먼저 비디오 분석부(420)는 무인기를 통해 촬영된 촬영 영상을 지상통제시스템(100)로부터 획득할 수 있다. 이때, 획득된 촬영 영상은 무인기를 통해 촬영된 영상일 수도 있고, 또는 항공 그래픽 시뮬레이터(300)에 자체 구비된 촬영 모듈을 통해 촬영된 영상일 수도 있다.Referring to FIG. 6, in step S61, the video analysis unit 420 may analyze the photographed image to select a storyboard image. To this end, the video analysis unit 420 can acquire the photographed image photographed through the UAV from the terrestrial control system 100 first. At this time, the obtained captured image may be an image photographed through a UAV, or an image photographed through a photographing module provided in the air graphic simulator 300 itself.

또한, 지상통제시스템(100)로부터 획득한 촬영 영상은 동영상 포맷 또는 정지영상 포맷일 수 있으며, 비디오 분석부(420)는 영상의 포맷에 따라 분석 가능한 포맷으로 변환할 수 있다. 일예로, 지상통제시스템(100)로부터 획득된 촬영 영상이 AVI 형태의 동영상 파일 포맷인 경우, 비디오 분석부(420)는 이를 OpenCV 라이브러리를 사용하여 Mat 구조체의 RGB 포맷으로 변환할 수 있다. 이후 비디오 분석부(420)는 분석 가능한 포맷으로 변환된 입력 영상을 분석이 용이하도록 전처리할 수 있다.In addition, the photographed image obtained from the terrestrial control system 100 may be a moving image format or a still image format, and the video analysis unit 420 may convert the format into a format that can be analyzed according to the image format. For example, when the photographed image obtained from the terrestrial control system 100 is a video file format of the AVI format, the video analysis unit 420 can convert it into the RGB format of the Mat structure using the OpenCV library. The video analyzer 420 may then pre-process the input image, which has been converted into an analytical format, to facilitate analysis.

이후, 비디오 분석부(420)는 상황 설정부(410)에서 설정된 상황조건에 기반하여, 촬영 영상에서 특정 상황, 특정 인물 등의 상황을 검출하는 영상 분석을 수행함으로써 스토리보드 영상을 선정(S62)할 수 있다.Then, the video analysis unit 420 selects a storyboard image (S62) by performing an image analysis for detecting a specific situation, a specific person, and the like on the photographed image based on the set conditional condition set by the situation setting unit 410, can do.

비디오 분석부(420)는 앞서 상황 설정부(410)에서 정의된 알고리즘을 이용함으로써 촬영 영상에 포함된 장면들 내에서 특정 상황에 대응하는 장면을 스토리보드 영상으로서 선정할 수 있다. 예를 들어, 촬영 영상에서 'A' 상황에 대응하는 장면을 스토리보드 영상으로 선정하기 위해, 비디오 분석부(420)는 'A' 상황을 검출하기 위한 a 알고리즘, b 알고리즘 및 c 알고리즘 등의 조합을 통해 영상 분석을 실시할 수 있다. 이때, 비디오 분석부(420)는 영상 분석을 통해 촬영 영상에 포함된 장면들 각각에 대하여 산출된 스칼라 값을 정렬하고, 정렬된 스칼라 값에 기초하여 스토리보드 영상을 선정할 수 있다.The video analysis unit 420 can select a scene corresponding to a specific situation in the scenes included in the shot image as a storyboard image by using the algorithm defined in the situation setting unit 410. [ For example, in order to select a scene corresponding to the 'A' situation in the photographed image as a storyboard image, the video analyzer 420 may combine a, b, and c algorithms for detecting the 'A' To perform image analysis. At this time, the video analyzer 420 may sort the calculated scalar values for each scene included in the photographed image through image analysis, and select a storyboard image based on the sorted scalar value.

이후, 비디오 분석부(420)는 선정된 스토리보드 영상을 데이터베이스(500)에 저장할 수 있다.Then, the video analysis unit 420 may store the selected storyboard image in the database 500. [

한편, 스토리보드 생성부(430)는 비디오 분석부(420)에서 선정된 스토리보드 영상과 촬영 영상에서 상기 선정된 스토리보드 영상에 대응하는 촬영 시점의 무인기의 비행정보를 통합하여 스토리보드를 생성할 수 있다. 이때, 스토리보드 영상에 대응하는 촬영 시점의 무인기의 비행정보는, 실제 무인기를 통한 영상 촬영시 실제 무인기의 웨이포인트(way point)로 사용될 수 있다.On the other hand, the storyboard generating unit 430 combines the storyboard image selected by the video analyzer 420 and the flight information of the UAV at the photographing point corresponding to the selected storyboard image to generate a storyboard . At this time, the flight information of the UAV at the time of photographing corresponding to the storyboard image can be used as a way point of the actual UAV when the image is captured through the actual UAV.

또한, 무인기의 비행정보는 촬영 영상에서 스토리보드 영상에 대응하는 촬영 시점에 대한 무인기 시간 정보를 포함할 수 있으며, 스토리보드 생성부(430)는 무인기 시간 정보를 무인기를 통제하는 시스템의 시스템 시간 정보와 비교하여 무인기의 일시적 장애로 인한 지연 등으로 인해 무인기 시간 정보에 오차가 존재하는 것으로 판단되는 경우, 시스템 시간 정보에 기반하여 무인기 시간 정보의 오차를 보정할 수 있으며, 보정된 무인기 시간 정보에 기초하여 스토리보드를 생성할 수 있다.In addition, the flight information of the UAV may include UAV information about the shooting time corresponding to the storyboard image in the captured image, and the storyboard generating unit 430 may transmit UAV time information to the system time information , It is possible to correct the error of the UAV time information based on the system time information when it is determined that there is an error in the UAV time information due to the delay caused by the temporary failure of the UAV, To create a storyboard.

스토리보드 생성부(430)에 대한 설명은 도 7을 참조하여 보다 쉽게 이해될 수 있다.The description of the storyboard generating unit 430 can be more easily understood with reference to FIG.

도 7은 본원의 일 실시예에 따른 영상 스토리보드 제작기(400)에서 스토리보드 생성부(430)의 동작 흐름을 나타낸 도면이다.7 is a flowchart illustrating an operation flow of the storyboard generating unit 430 in the video storyboard maker 400 according to an embodiment of the present invention.

도 7을 참조하면, 스토리보드 생성부(430)는 비디오 분석부(420)에서 영상 분석에 의하여 선정된 스토리보드 영상 각각에 부가 정보로서 해당 스토리보드 영상 각각에 대응하는 촬영 시점에서의 무인기의 비행정보를 통합한 후, 무인기의 비행정보가 고려된 스토리보드 영상들을 시간순으로 정렬하여 하나의 스토리보드로 생성할 수 있다. 이때, 스토리보드 생성부(430)는 무인기의 비행정보로서 무인기의 자세 정보, 위치 정보 등 뿐만 아니라 스토리보드 영상에 대응하는 영상이 촬영된 시간 정보 및 스토리보드 영상 간에 시간 간격 등을 포함시켜 스토리보드를 생성할 수 있다. 이에 따라, 스토리보드 생성부(430)는, 단순히 촬영 영상만을 이용하여 스토리보드를 생성하는 것이 아니라 실제 무인기를 통한 영상 촬영시 이용할 수 있는 무인기의 비행정보를 함께 포함시켜 스토리보드를 생성할 수 있어, 스토리보드 생성부(430)를 통해 생성된 스토리보드는 실제 무인기를 통한 영상 촬영에 있어서 유용한 촬영 지표로 활용될 수 있다.Referring to FIG. 7, the storyboard generation unit 430 generates a storyboard image by adding the storyboard images selected by the image analysis in the video analysis unit 420, as additional information, After the information is integrated, the storyboard images considering the flight information of the UAV can be sorted in chronological order and generated as one storyboard. At this time, as the flight information of the UAV, the storyboard generating unit 430 may include not only attitude information of the UAV, position information, time information of the image corresponding to the storyboard image, Lt; / RTI > Accordingly, the storyboard generating unit 430 can generate the storyboard by including the flight information of the UAV, which is available when shooting the image through the actual UAV, together with not only the storyboard by using only the captured image , And the storyboard generated through the storyboard generating unit 430 can be utilized as photographing indicators useful in real-time photographing through UAV.

이를 위해, 단계S71에서 스토리보드 생성부(430)는 스토리보드 영상의 촬영시간을 조회할 수 있다. For this purpose, in step S71, the storyboard generating unit 430 can inquire the photographing time of the storyboard image.

이때, 스토리보드 영상의 촬영시간은 스토리보드 영상에 대응하는 촬영 영상이 무인기에 의하여 촬영된 시간 정보를 의미할 수 있다.At this time, the shooting time of the storyboard image may be time information of the shot image corresponding to the storyboard image taken by the UAV.

한편, 무인기에 의하여 촬영된 촬영 영상이 스토리보드 생성 시스템(10)에 저장될 때, 촬영 영상이 무인기에 의하여 촬영된 시간 정보(즉, 무인기 시간 정보) 뿐만 아니라 촬영 영상이 스토리보드 생성 시스템(10)에 저장되는 시간 정보(즉, 시스템 시간 정보)도 함께 저장될 수 있다. 일예로, 항공 그래픽 시뮬레이터(300)를 통한 시뮬레이션 중 일시적인 장애로 인해 무인기를 통한 영상 획득 시간에 지연이 발생하고, 이에 따라 무인기 시간 정보에 오차가 발생한 경우, 무인기 시간 정보에 대한 오차는 시스템 시간 정보에 기초하여 보정될 수 있다. On the other hand, when the photographed image photographed by the UAV is stored in the storyboard creating system 10, not only the time information (i.e., UAV information) captured by the UAV, but also the photographed image is recorded in the storyboard creating system 10 (I.e., system time information) may be stored together with the time information. For example, when a delay occurs in the image acquisition time through the UAV due to a temporary failure during the simulation through the aviation graphic simulator 300 and thus an error occurs in the UAV time information, As shown in FIG.

따라서, 스토리보드 영상의 촬영시간은 스토리보드 영상에 대응하는 촬영 영상이 무인기에 의하여 촬영된 시간 정보이되, 이는 시스템 시간 정보에 의하여 오차가 보정된 시간 정보일 수 있다. 그리고, 스토리보드 영상 간에 시간 정보는 실제 무인기를 통한 영상 촬영시, 외부환경에 따른 무인기의 추력, 자세 제어 등을 결정하는데 이용될 수 있다. 또한, 스토리보드 영상 간에 시간 정보를 통해 실제 무인기를 통한 항공 영상 촬영 시 영상물에 대한 방송 시간을 예상할 수 있다.Accordingly, the shooting time of the storyboard image may be the time information of the shot image corresponding to the storyboard image taken by the UAV, and may be the time information whose error has been corrected by the system time information. The time information between the storyboard images can be used to determine the thrust, attitude control, and the like of the UAV according to the external environment when photographing the image through the actual UAV. In addition, it is possible to estimate the broadcast time of the video image during aerial image capturing through the real UAV through time information between storyboard images.

다음으로, 단계S72에서 스토리보드 생성부(430)는 스토리보드 영상에 대응하는 촬영 시점에서의 무인기의 비행정보를 조회할 수 있다. 이때, 무인기의 비행정보로는 앞서 설명한 바와 같이, 위도, 경도, 고도 등의 위치 정보, 롤, 피치, 요 등의 자세 정보, 속도 정보 등 무인기의 비행과 관련된 모든 정보를 포함할 수 있다.Next, in step S72, the storyboard generating unit 430 can inquire about the flight information of the UAV at the photographing time corresponding to the storyboard image. At this time, the flight information of the UAV may include all information related to the flight of the UAV, such as position information such as latitude, longitude, and altitude, attitude information such as roll, pitch, yaw, speed information and the like.

이후, 단계S73에서 스토리보드 생성부(430)는 비디오 분석부(420)에서 선정된 스토리보드 영상 각각에 대하여 조회된 무인기 시간 정보와 무인기 비행정보를, 스토리보드 영상 각각에 통합함으로써 스토리보드를 생성할 수 있다.Then, in step S73, the storyboard generating unit 430 generates a storyboard by integrating the searched UAV time information and the UAV information on each of the storyboard images selected by the video analyzer 420, can do.

이렇게 생성된 스토리보드에 포함된 각각의 스토리보드 영상은, 촬영 영상의 색인으로 추가되어 같은 색인의 비행정보 및 조종정보가 공유될 수 있다. 따라서, 일예로 영화감독 등이 해당 스토리보드를 선택하는 경우, 영화감독은 스토리보드에 포함된 색인 값을 이용하여 무인기의 비행정보 및 조종정보를 제공받을 수 있다. 이후 영화감독이 스토리보드를 통해 제공받은 무인기의 비행정보 또는 조종정보 값을 실제 무인기의 제어 입력 값으로 입력하는 경우, 실제 무인기는 입력된 무인기의 비행정보 또는 조종정보 값에 기초하여 지정된 비행경로에 따라 운행하면서 실제 무인기에 장착된 카메라 등을 통해 영상을 촬영할 수 있다. 이때, 실제 무인기는 시물레이션 영상과 동일하거나 유사한 실사 영상을 촬영할 수 있으며, 촬영된 실사 영상을 실제 무인기 자체에 구비된 저장 모듈에 저장하거나 또는 지상통제시스템(100)로 전송할 수 있다. 일예로, 지상통제시스템(100)은 실제 무인기를 통해 획득된 실사 영상을 실사영상 데이터베이스(미도시)에 저장할 수 있으며, 실사영상 데이터베이스(미도시)에 저장된 영상은 실제 영화 제작시 활용될 수 있다.Each of the storyboard images included in the generated storyboard is added to the index of the shot image so that the flight information and the steering information of the same index can be shared. Accordingly, for example, when a movie director or the like selects the storyboard, the film director can receive flight information and maneuvering information of the UAV by using the index values included in the storyboard. When the movie director inputs the flight information or the control information value of the UAV provided through the storyboard as a control input value of the actual UAV, the actual UAV is inputted to the designated flight path based on the inputted UAV's flight information or the control information value It is possible to take an image through a camera or the like mounted on a real UAV while driving along. At this time, the actual UAV can shoot the same or similar live image as the simulation image, and the captured live image can be stored in the storage module provided in the actual UAV, or transmitted to the ground control system 100. For example, the terrestrial control system 100 may store a real image obtained through an actual UAV in a real image database (not shown), and the image stored in a real image database (not shown) .

또한, 본원의 일 실시예에 따른 스토리보드 생성 시스템(10)은 실제 항공촬영을 수행하기 앞서, 비행 시뮬레이터 또는 가상의 무인기를 이용하여 카메라의 구도와 등장 인물(캐릭터)의 동선, 장면의 분위기 등에 따른 영상을 획득하고, 획득한 영상에 기초하여 스토리보드를 생성할 수 있다. 이때, 스토리보드를 생성함에 있어서, 영상 스토리보드 제작기(400)는 획득한 영상에서 영화감독이나 촬영감독 등의 사용자가 사전에 설정한 스토리보드 생성 조건(예를 들어, 스토리보드 영상 선정을 위한 다양한 상황조건 설정 등)에 맞는 비디오 분석을 수행함으로써 스토리보드를 생성할 수 있다. 이에 따라, 사용자는 다양한 비행 시나리오에 따라 다양한 구도에서 촬영된 복수의 촬영 영상을, 복수의 촬영 영상 각각에 대하여 생성된 스토리보드에 기초하여 해당 촬영 영상을 보다 빠르게 검토할 수 있다. 또한, 스토리보드에는 촬영 영상 뿐만 아니라 무인기의 비행정보가 포함되어 있어, 실제 항공영상 촬영시 스토리보드에 기초하여 해당 장면의 촬영을 용이하게 수행할 수 있다. 이에 따라, 본원은 항공영상 촬영시 소요되는 시간과 비용을 효과적으로 줄일 수 있고, 반복적인 항공기 등의 운용으로 발생할 수 있는 사고를 예방할 수 있다.In addition, the storyboard generating system 10 according to an embodiment of the present invention may use a flight simulator or a virtual unmanned aerial vehicle to perform composition of a camera, a moving line of a character (character), an atmosphere of a scene And generates a storyboard based on the acquired image. At this time, in generating the storyboard, the video storyboard maker 400 generates a storyboard creation condition (for example, a variety of options for selecting a storyboard video) preset by a user, such as a movie director or a cinematographer, Condition setting, and so on). Accordingly, the user can quickly review a plurality of photographed images photographed in various compositions according to various flight scenarios based on a storyboard generated for each of the plurality of photographed images. In addition, since the storyboard includes not only shot images but also flight information of UAV, shooting of the scenes can be easily performed on the basis of the storyboard when shooting actual aerial images. Accordingly, the present invention can effectively reduce the time and cost required for aerial image capturing, and prevent accidents caused by repetitive operations of aircraft and the like.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, the operation flow of the present invention will be briefly described based on the details described above.

도 8은 본원의 일 실시예에 따른 스토리보드 생성 방법에 대한 동작 흐름도이다.8 is a flowchart illustrating a method of generating a storyboard according to an embodiment of the present invention.

도 8에 도시된 스토리보드 생성 방법은 앞서 설명된 스토리보드 생성 시스템(10)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 스토리보드 생성 시스템(10)에 대하여 설명된 내용은 도 8에도 동일하게 적용될 수 있다.The storyboard generating method shown in FIG. 8 can be performed by the storyboard generating system 10 described above. Therefore, even if the contents are omitted in the following description, the contents described with respect to the storyboard creating system 10 can be similarly applied to FIG.

도 8을 참조하면, 단계810에서 지상통제시스템(100)은 가상 촬영환경 정보 및 무인기와 관련된 촬영 방식 정보를 포함하는 비행 시나리오를 항공 그래픽 시뮬레이터(300)로 전송할 수 있다.Referring to FIG. 8, in step 810, the ground control system 100 may transmit to the aviation graphic simulator 300 a flight scenario including virtual photography environment information and photographing method information related to the UAV.

다음으로, 단계S820에서 항공 그래픽 시뮬레이터(300)는 지상통제시스템(100)로부터 수신한 비행 시나리오에 기초하여 무인기를 제어하고, 무인기를 통해 촬영된 촬영 영상을 지상통제시스템(100)로 제공할 수 있다.Next, in step S820, the aviation graphic simulator 300 controls the UAV based on the flight scenario received from the ground control system 100, and provides the captured image through the UAV to the ground control system 100 have.

다음으로, 단계S830에서 영상 스토리보드 제작기(400)는, 지상통제시스템(100)로부터 촬영 영상을 획득하고, 획득한 촬영 영상으로부터 기설정된 상황조건에 기반하여 선정된 스토리보드 영상을 이용하여 비행 시나리오에 대응하는 스토리보드를 생성할 수 있다.Next, in step S830, the video storyboard maker 400 acquires the shot image from the terrestrial control system 100, and uses the selected storyboard image based on the preset situation condition from the shot image to obtain a flight scenario Can be generated.

상술한 설명에서, 단계 S810 내지 S830은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S810 through S830 may be further divided into further steps, or combined in fewer steps, according to embodiments of the present disclosure. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed.

한편, 도 9는 본원의 일 실시예에 따른 영상 스토리보드 제작기를 통한 영상 스토리보드 제작 방법에 대한 동작 흐름도이다.9 is a flowchart illustrating a method for producing an image storyboard through a video storyboard maker according to an embodiment of the present invention.

도 9에 도시된 영상 스토리보드 제작 방법은 앞서 설명된 영상 스토리보드 제작기(400)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 영상 스토리보드 제작기(400)에 대하여 설명된 내용은 도 9에도 동일하게 적용될 수 있다.9 may be performed by the video storyboard maker 400 described above. Accordingly, the contents described with respect to the video storyboard maker 400 can be similarly applied to FIG. 9, even if omitted from the following description.

도 9를 참조하면, 영상 스토리보드 제작기(400)의 상황설정부(410)는 스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하는 상황조건을 설정(S910)할 수 있다.Referring to FIG. 9, the situation setting unit 410 of the video storyboard maker 400 may set a condition condition corresponding to a characteristic for selecting a scene stored in the storyboard (S910).

다음으로, 영상 스토리보드 제작기(400)의 비디오 분석부(420)는 단계S910에서 설정된 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정(S920)할 수 있다. Next, the video analyzer 420 of the video storyboard maker 400 may select a storyboard image from the shot image based on the set conditional condition at step S910 (S920).

다음으로, 영상 스토리보드 제작기(400)의 스토리보드 생성부(420)는 단계S920에서 선정된 스토리보드 영상 및 촬영 영상에서 상기 스토리보드 영상에 대응하는 촬영 시점의 무인기의 비행정보를 통합하여 스토리보드를 생성(S930)할 수 있다.Next, the storyboard generating unit 420 of the video storyboard maker 400 integrates the flight information of the UAV at the shooting point corresponding to the storyboard image in the storyboard image and the shot image selected in step S920, (S930).

상술한 설명에서, 단계 S910 내지 S930은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S910 through S930 may be further divided into further steps, or combined in fewer steps, according to embodiments of the present disclosure. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed.

본원의 일 실시 예에 따른 스토리보드 생성 방법 및 영상 스토리보드 제작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The storyboard creating method and the story story board creating method according to an exemplary embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 스토리보드 생성 방법 및 영상 스토리보드 제작 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described storyboard generating method and image storyboard producing method may be implemented in the form of a computer program or an application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those of ordinary skill in the art that the foregoing description of the embodiments is for illustrative purposes and that those skilled in the art can easily modify the invention without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be interpreted as being included in the scope of the present invention.

10: 스토리보드 제작 시스템
100: 지상통제시스템
200: 시뮬레이션 데이터 교환부
300: 항공 그래픽 시뮬레이터
400: 영상 스토리보드 제작기
500: 데이터베이스
10: storyboard production system
100: Ground control system
200: Simulation data exchange part
300: Aviation graphic simulator
400: Video storyboard maker
500: Database

Claims (19)

가상 촬영환경 정보 및 무인기와 관련된 촬영 방식 정보를 포함하는 비행 시나리오를 항공 그래픽 시뮬레이터로 전송하는 지상통제시스템;
상기 지상통제시스템으로부터 수신한 상기 비행 시나리오에 기초하여 상기 무인기를 제어하고, 상기 무인기를 통해 촬영된 촬영 영상을 상기 지상통제시스템으로 제공하는 항공 그래픽 시뮬레이터; 및
상기 지상통제시스템으로부터 상기 촬영 영상을 획득하고, 상기 획득한 촬영 영상으로부터 기설정된 상황조건에 기반하여 선정된 스토리보드 영상을 이용하여 상기 비행 시나리오에 대응하는 스토리보드를 생성하는 영상 스토리보드 제작기,
를 포함하되,
상기 무인기는 상기 항공 그래픽 시뮬레이터 내에서 비행하는 가상의 무인기이고,
상기 영상 스토리보드 제작기는,
스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하여, 상기 스토리보드 영상으로 선정됨에 있어서 상기 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수를 포함하는 상황조건을 설정하는 상황 설정부;
상기 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정하는 비디오 분석부, 및
상기 스토리보드 영상 및 상기 촬영 영상에서 상기 스토리보드 영상 각각에 대응하는 촬영 시점의 상기 무인기의 비행정보를 통합하여 상기 스토리보드를 생성하는 스토리보드 생성부를 포함하고,
상기 상황조건은 상기 촬영 영상 내에 포함된 객체에 대한 객체 상황변수 및 상기 촬영 영상의 화면 전환에 대한 화면 상황변수를 포함하며,
상기 스토리보드 영상 각각에 대응하는 촬영 시점의 상기 무인기의 비행정보는, 상기 무인기의 위치 정보, 자세 정보 및 속도 정보를 포함하고, 실제 무인기를 통한 영상 촬영시 상기 실제 무인기의 웨이포인트(way point)로 사용되는 것인, 스토리보드 생성 시스템.
A ground control system for transmitting a flight scenario including virtual shooting environment information and shooting mode information related to a UAV to an aerial graphic simulator;
An aviation graphic simulator for controlling the unmanned aircraft based on the flight scenario received from the terrestrial control system and providing the photographed image photographed through the unmanned aerial vehicle to the terrestrial control system; And
An image storyboard maker for acquiring the photographed image from the terrestrial control system and generating a storyboard corresponding to the flight scenario using the selected storyboard image based on a predetermined situation condition from the obtained photographed image,
, ≪ / RTI &
The UAV is a virtual UAV flying in the air graphic simulator,
The video storyboard maker includes:
A situation condition including a situation variable that is given according to the importance of a characteristic appearing in each scene included in the photographed image is set in correspondence with a characteristic for selecting a scene to be stored in the storyboard A situation setting section;
A video analysis unit for selecting a storyboard image from the photographed image based on the situation condition, and
And a storyboard generating unit for generating the storyboard by integrating the storyboard image and the flight information of the UAV at an imaging time corresponding to each storyboard image in the captured image,
Wherein the context condition includes an object context variable for an object included in the captured image and a screen context variable for screen transition of the captured image,
The flight information of the unmanned aerial vehicle at the shooting time corresponding to each of the storyboard images includes position information, attitude information, and speed information of the unmanned aerial vehicle. Wherein the storyboard creation system is used to create a storyboard.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 무인기의 비행정보는 상기 촬영 영상에서 상기 스토리보드 영상에 대응하는 촬영 시점에 대한 무인기 시간 정보를 포함하되,
상기 스토리보드 생성부는, 상기 무인기 시간 정보를 상기 무인기를 통제하는 시스템의 시스템 시간 정보와 비교하여 상기 무인기 시간 정보에 오차가 존재하는 것으로 판단되는 경우, 상기 시스템 시간 정보에 기반하여 상기 무인기 시간 정보의 오차를 보정하는 것인, 스토리보드 생성 시스템.
The method according to claim 1,
Wherein the flight information of the UAV includes UAV time information about a shooting time point corresponding to the storyboard image in the captured image,
The storyboard generating unit compares the UAV time information with the system time information of the system controlling the UAV, and when it is determined that there is an error in the UAV time information, And correcting the error.
삭제delete 삭제delete 제1항에 있어서,
상기 객체 상황변수는, 객체의 특성, 객체의 숫자, 객체의 위치 중 적어도 하나와 관련한 변수인 것인, 스토리보드 생성 시스템.
The method according to claim 1,
Wherein the object context variable is a variable associated with at least one of an object's property, a number of objects, and an object's location.
삭제delete 제1항에 있어서,
상기 화면 상황변수는, 배경의 전환 유무 및 상기 배경의 전환 속도 중 적어도 하나와 관련된 변수인 것인, 스토리보드 생성 시스템.
The method according to claim 1,
Wherein the screen status variable is a variable related to at least one of whether or not the background is switched and the switching speed of the background.
제1항에 있어서,
상기 비디오 분석부는, 상기 상황조건에 복수의 상황변수가 포함되는 경우, 상기 복수의 상황변수를 함께 고려하여 상기 스토리보드 영상을 선정하는 것인, 스토리보드 생성 시스템.
The method according to claim 1,
Wherein the video analysis unit selects the storyboard image by considering the plurality of context variables together when a plurality of context variables are included in the context condition.
제11항에 있어서,
상기 복수의 상황변수는 스칼라 값이고,
상기 비디오 분석부는, 상기 촬영 영상에 포함되는 장면 각각에 대하여 복수의 상황변수의 스칼라 값을 합산한 합산 정보에 기초하여 상기 스토리보드 영상을 선정하는 것인, 스토리보드 생성 시스템.
12. The method of claim 11,
Wherein the plurality of context variables are scalar values,
Wherein the video analysis unit selects the storyboard image based on summation information obtained by summing a plurality of scalar values of the plurality of context variables for each scene included in the captured image.
제12항에 있어서,
상기 상황 설정부에는 스토리보드에 포함되는 상기 스토리보드 영상의 최대 개수가 설정되고,
상기 비디오 분석부는 상기 촬영 영상에 포함되는 장면 각각에 대하여 산출된 합산 정보 값을 크기순으로 정렬한 후 상기 정렬된 합산 정보 값에 기초하여 상기 최대 개수에 대응하는 장면들을 상기 스토리보드 영상으로 선정하는 것인, 스토리보드 생성 시스템.
13. The method of claim 12,
The maximum number of the storyboard images included in the storyboard is set in the situation setting unit,
The video analyzer may sort the summation information values calculated for each of the scenes included in the shot image in order of magnitude and then select scenes corresponding to the maximum number as the storyboard images based on the sorted summation information value Storyboard creation system.
항공 그래픽 시뮬레이터 내에서 비행하는 가상의 무인기를 통해 촬영하여 획득된 촬영 영상으로부터 기설정된 상황조건에 기반하여 선정된 스토리보드 영상을 이용하여 비행 시나리오에 대응하는 스토리보드를 생성하는 영상 스토리보드 제작기로서,
스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하는 상황조건을 설정하는 상황 설정부;
상기 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정하는 비디오 분석부; 및
상기 스토리보드 영상 및 상기 촬영 영상에서 상기 스토리보드 영상 각각에 대응하는 촬영 시점의 상기 무인기의 비행정보를 통합하여 상기 스토리보드를 생성하는 스토리보드 생성부를 포함하되,
상기 상황조건은, 상기 스토리보드 영상으로 선정됨에 있어서 상기 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수로서, 상기 촬영 영상 내에 포함된 객체에 대한 객체 상황변수 및 상기 촬영 영상의 화면 전환에 대한 화면 상황변수를 포함하고,
상기 스토리보드 영상 각각에 대응하는 촬영 시점의 상기 무인기의 비행정보는, 상기 무인기의 위치 정보, 자세 정보 및 속도 정보를 포함하고, 실제 무인기를 통한 영상 촬영시 상기 실제 무인기의 웨이포인트(way point)로 사용되는 것인, 영상 스토리보드 제작기.
An image storyboard maker for generating a storyboard corresponding to a flight scenario using a selected storyboard image based on predetermined conditional conditions from a shot image obtained by shooting through a virtual unmanned aerial vehicle flying in an aviation graphic simulator,
A situation setting unit for setting a situation condition corresponding to a characteristic for selecting a scene stored in the storyboard;
A video analyzer for selecting a storyboard image from the photographed image based on the conditional condition; And
And a storyboard generating unit for generating the storyboard by integrating the storyboard image and the flight information of the UAV at an imaging point corresponding to each storyboard image in the captured image,
Wherein the context condition is a context parameter assigned according to a degree of importance of a characteristic appearing in each scene included in the captured image when the storyboard image is selected as an object situation variable for an object included in the captured image, The screen status variable for screen switching of the screen,
The flight information of the unmanned aerial vehicle at the shooting time corresponding to each of the storyboard images includes position information, attitude information, and speed information of the unmanned aerial vehicle. A video storyboarder.
삭제delete 삭제delete 지상통제시스템에서, 가상 촬영환경 정보 및 무인기와 관련된 촬영 방식 정보를 포함하는 비행 시나리오를 항공 그래픽 시뮬레이터로 전송하는 단계;
상기 항공 그래픽 시뮬레이터에서, 상기 지상통제시스템으로부터 수신한 상기 비행 시나리오에 기초하여 상기 무인기를 제어하고, 상기 무인기를 통해 촬영된 촬영 영상을 상기 지상통제시스템으로 제공하는 단계; 및
영상 스토리보드 제작기에서, 상기 지상통제시스템으로부터 상기 촬영 영상을 획득하고, 상기 획득한 촬영 영상으로부터 기설정된 상황조건에 기반하여 선정된 스토리보드 영상을 이용하여 상기 비행 시나리오에 대응하는 스토리보드를 생성하는 단계,
를 포함하되,
상기 무인기는 상기 항공 그래픽 시뮬레이터 내에서 비행하는 가상의 무인기이고,
상기 스토리보드를 생성하는 단계는,
상기 스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하여, 상기 스토리보드 영상으로 선정됨에 있어서 상기 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수를 포함하는 상황조건을 설정하는 단계;
상기 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정하는 단계; 및
상기 스토리보드 영상 및 촬영 영상에서 상기 스토리보드 영상 각각에 대응하는 촬영 시점의 무인기의 비행정보를 통합하여 스토리보드를 생성하는 단계를 포함하고,
상기 상황조건은 상기 촬영 영상 내에 포함된 객체에 대한 객체 상황변수 및 상기 촬영 영상의 화면 전환에 대한 화면 상황변수를 포함하며,
상기 스토리보드 영상 각각에 대응하는 촬영 시점의 상기 무인기의 비행정보는, 상기 무인기의 위치 정보, 자세 정보 및 속도 정보를 포함하고, 실제 무인기를 통한 영상 촬영시 상기 실제 무인기의 웨이포인트(way point)로 사용되는 것인, 스토리보드 생성 방법.
Transmitting, in the ground control system, a flight scenario including virtual shooting environment information and shooting mode information related to the UAV to an aerial graphic simulator;
Controlling the UAV based on the flight scenario received from the ground control system in the air graphic simulator and providing the captured image photographed through the UAV to the ground control system; And
In the video storyboard maker, the shot image is acquired from the ground control system, and a storyboard corresponding to the flight scenario is generated from the shot image using the selected storyboard image based on predetermined conditional conditions step,
, ≪ / RTI &
The UAV is a virtual UAV flying in the air graphic simulator,
The step of generating the storyboard may include:
A situation condition including a situation variable, which is given according to the importance of a characteristic appearing in each scene included in the shot image, is set in correspondence with a characteristic for selecting a scene stored in the storyboard ;
Selecting a storyboard image from the photographed image based on the conditional condition; And
And generating a storyboard by integrating the flight information of the UAV at the photographing point corresponding to each of the storyboard images in the storyboard image and the shot image,
Wherein the context condition includes an object context variable for an object included in the captured image and a screen context variable for screen transition of the captured image,
The flight information of the unmanned aerial vehicle at the shooting time corresponding to each of the storyboard images includes position information, attitude information, and speed information of the unmanned aerial vehicle. ≪ / RTI >
항공 그래픽 시뮬레이터 내에서 비행하는 가상의 무인기를 통해 촬영하여 획득된 촬영 영상으로부터 기설정된 상황조건에 기반하여 선정된 스토리보드 영상을 이용하여 비행 시나리오에 대응하는 스토리보드를 생성하는 영상 스토리보드 제작기를 통한 영상 스토리보드 제작 방법으로서,
스토리보드에 저장되는 장면을 선정하기 위한 특성에 대응하는 상황조건을 설정하는 단계;
상기 상황조건에 기반하여 촬영 영상으로부터 스토리보드 영상을 선정하는 단계; 및
상기 스토리보드 영상 및 촬영 영상에서 상기 스토리보드 영상 각각에 대응하는 촬영 시점의 무인기의 비행정보를 통합하여 스토리보드를 생성하는 단계를 포함하되,
상기 상황조건은, 상기 스토리보드 영상으로 선정됨에 있어서 상기 촬영 영상에 포함되는 장면 각각에 나타나는 특성의 중요도에 따라 부여되는 상황변수로서, 상기 촬영 영상 내에 포함된 객체에 대한 객체 상황변수 및 상기 촬영 영상의 화면 전환에 대한 화면 상황변수를 포함하고,
상기 스토리보드 영상 각각에 대응하는 촬영 시점의 상기 무인기의 비행정보는, 상기 무인기의 위치 정보, 자세 정보 및 속도 정보를 포함하고, 실제 무인기를 통한 영상 촬영시 상기 실제 무인기의 웨이포인트(way point)로 사용되는 것인, 영상 스토리보드 제작 방법.
Through a video storyboard maker that generates storyboards corresponding to flight scenarios using selected storyboard images based on predefined situation conditions from captured images obtained by shooting through virtual unmanned aerials flying in an aviation graphic simulator A method for producing a video storyboard,
Setting a situation condition corresponding to a characteristic for selecting a scene stored in a storyboard;
Selecting a storyboard image from the photographed image based on the conditional condition; And
And generating storyboards by integrating the flight information of the UAV at the shooting time corresponding to each of the storyboard images in the storyboard image and the shot image,
Wherein the context condition is a context parameter assigned according to a degree of importance of a characteristic appearing in each scene included in the captured image when the storyboard image is selected as an object situation variable for an object included in the captured image, The screen status variable for screen switching of the screen,
The flight information of the unmanned aerial vehicle at the shooting time corresponding to each of the storyboard images includes position information, attitude information, and speed information of the unmanned aerial vehicle. The method comprising the steps of:
제17항 또는 제18항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터에서 판독 가능한 기록매체.A computer-readable recording medium recording a program for executing the method of claim 17 or 18 in a computer.
KR1020160134951A 2016-10-18 2016-10-18 System and method for supporting drone imaging by using aviation integrated simulation KR101870761B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160134951A KR101870761B1 (en) 2016-10-18 2016-10-18 System and method for supporting drone imaging by using aviation integrated simulation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160134951A KR101870761B1 (en) 2016-10-18 2016-10-18 System and method for supporting drone imaging by using aviation integrated simulation

Publications (2)

Publication Number Publication Date
KR20180042601A KR20180042601A (en) 2018-04-26
KR101870761B1 true KR101870761B1 (en) 2018-06-25

Family

ID=62082511

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160134951A KR101870761B1 (en) 2016-10-18 2016-10-18 System and method for supporting drone imaging by using aviation integrated simulation

Country Status (1)

Country Link
KR (1) KR101870761B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102416275B1 (en) 2021-06-10 2022-07-05 에스큐엔지니어링(주) the verification standard chart of photographing apparatus for facilities inspecting drone and the method of evaluating photographing performance using the same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110291776B (en) * 2018-05-30 2021-08-03 深圳市大疆创新科技有限公司 Flight control method and aircraft
JP6956132B2 (en) * 2019-03-29 2021-10-27 本田技研工業株式会社 Shooting system, server, control method and program
KR102376580B1 (en) * 2020-12-08 2022-03-22 박현준 How to take pictures with a drone

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005524916A (en) * 2002-05-07 2005-08-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Scalable video summarization
KR20160119956A (en) * 2015-04-07 2016-10-17 (주)코아텍 System for tracking using drone

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005524916A (en) * 2002-05-07 2005-08-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Scalable video summarization
KR20160119956A (en) * 2015-04-07 2016-10-17 (주)코아텍 System for tracking using drone

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Joubert, Niels, et al. "An interactive tool for designing quadrotor camera shots." ACM Transactions on Graphics (TOG) 34.6 (2015): 238.(2015.11.30.) 1부. *
일본 공표특허공보 특표2005-524916호(2005.08.18.) 1부. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102416275B1 (en) 2021-06-10 2022-07-05 에스큐엔지니어링(주) the verification standard chart of photographing apparatus for facilities inspecting drone and the method of evaluating photographing performance using the same

Also Published As

Publication number Publication date
KR20180042601A (en) 2018-04-26

Similar Documents

Publication Publication Date Title
US20220044019A1 (en) Augmented reality smartglasses for use at cultural sites
US10977868B2 (en) Remote collaboration methods and systems
CN107943072B (en) UAV flight path generation method, device, storage medium and device
KR101870761B1 (en) System and method for supporting drone imaging by using aviation integrated simulation
CN105120146B (en) It is a kind of to lock filming apparatus and image pickup method automatically using unmanned plane progress moving object
US9729765B2 (en) Mobile virtual cinematography system
Mademlis et al. Autonomous unmanned aerial vehicles filming in dynamic unstructured outdoor environments [applications corner]
CN102647449A (en) Intelligent shooting method and intelligent shooting device based on cloud service and mobile terminal
Surmann et al. Integration of uavs in urban search and rescue missions
KR102166432B1 (en) Method for replying disaster situation using smart drone
CN108600607A (en) A kind of fire-fighting panoramic information methods of exhibiting based on unmanned plane
CN105676864A (en) Simulation system of UAV (Unmanned Aerial Vehicle) aerial photography program
KR20220087687A (en) 3d digital twin visualization system interlocked with real and virtual iot devices and the method thereof
CN109076173A (en) Image output generation method, equipment and unmanned plane
CN113566825B (en) Unmanned aerial vehicle navigation method, system and storage medium based on vision
Mademlis et al. A multiple-UAV architecture for autonomous media production
CN115115785A (en) Multi-machine collaborative 3D modeling system and method for search and rescue in wild mountain and forest environment
JP2015114954A (en) Photographing image analysis method
Ibrahim et al. An interactive model-driven path planning and data capture system for camera-equipped aerial robots on construction sites
Valenti et al. An autonomous flyer photographer
JP2938845B1 (en) 3D CG live-action image fusion device
CN115222905B (en) Air-ground multi-robot map fusion method based on visual features
KR101799351B1 (en) Automatic photographing method of aerial video for rendering arbitrary viewpoint, recording medium and device for performing the method
JP7620099B2 (en) Method, system and non-transitory computer-readable recording medium for supporting sharing of experiences between users - Patents.com
JP2010183384A (en) Photographic camera learning apparatus and program therefor

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20161018

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20170717

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20180201

Patent event code: PE09021S02D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20180614

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20180619

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20180619

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20210601

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20220404

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20230607

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20240619

Start annual number: 7

End annual number: 7