[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101518814B1 - Method of authoring broadcasting contents using 360 degree surround view movie data - Google Patents

Method of authoring broadcasting contents using 360 degree surround view movie data Download PDF

Info

Publication number
KR101518814B1
KR101518814B1 KR1020130108945A KR20130108945A KR101518814B1 KR 101518814 B1 KR101518814 B1 KR 101518814B1 KR 1020130108945 A KR1020130108945 A KR 1020130108945A KR 20130108945 A KR20130108945 A KR 20130108945A KR 101518814 B1 KR101518814 B1 KR 101518814B1
Authority
KR
South Korea
Prior art keywords
surround
view image
authoring
input
view
Prior art date
Application number
KR1020130108945A
Other languages
Korean (ko)
Other versions
KR20130107263A (en
Inventor
김용대
Original Assignee
(주) 메리제이콘텐츠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 메리제이콘텐츠 filed Critical (주) 메리제이콘텐츠
Priority to KR1020130108945A priority Critical patent/KR101518814B1/en
Publication of KR20130107263A publication Critical patent/KR20130107263A/en
Application granted granted Critical
Publication of KR101518814B1 publication Critical patent/KR101518814B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법이 개시된다. 다수의 360도 서라운드 뷰 영상 카메라를 이용하여 촬영된 360도 서라운드 뷰 영상 데이터를 서라운드 뷰 영상 재생기에 적재하는 단계, 마우스 입력 이벤트에 따라 서라운드 뷰 영상 재생기가 실시간으로 카메라 각도, 화각, 이펙트 가운데 하나 이상을 제어하면, 저작환경 연동 수단이 상기 서라운드 뷰 영상 재생기에 의한 출력화면을 동영상으로 캡쳐하는 단계 및 저작환경 연동 수단이 캡쳐된 동영상을 동영상 저작도구의 타임라인으로 익스포트하는 단계에 의하여 서라운드 뷰 영상 재생기와 동영상 저작도구 간의 연동 및 편집이 가능해진다.A method of authoring broadcast content using 360-degree surround view video data is disclosed. A step of loading 360-degree surround-view image data photographed using a plurality of 360-degree surround-view image cameras in a surround-view image reproducer, and a step in which the surround-view image reproducer realizes at least one of camera angle, angle of view, The authoring environment linking unit captures the output screen of the surround view image player as a moving image and the authoring environment linking unit exports the captured moving image to the timeline of the moving image authoring tool, And the video authoring tool can be linked and edited.

Description

360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법{METHOD OF AUTHORING BROADCASTING CONTENTS USING 360 DEGREE SURROUND VIEW MOVIE DATA}METHOD OF AUTHORING BROADCASTING CONTENTS USING 360 DEGREE SURROUND VIEW MOVIE DATA BACKGROUND OF THE INVENTION [0001]

본 발명은 방송 컨텐츠의 저작 및 편집기술 분야에 속한다.The present invention belongs to the field of authoring and editing broadcasting contents.

방송 컨텐츠의 제작은 카메라를 이용한 촬영, 촬영된 영상에 대한 편집을 통해 이루어진다.The production of broadcast contents is performed by photographing using a camera and editing the captured image.

편집 과정을 통해서는 여러 개의 클립들을 자르고 순서를 정한 다음, 자막이나 음향 기타의 이펙트를 주는 것이 가능하다.Through the editing process, it is possible to cut and arrange several clips, and then give effects such as subtitles or acoustic guitars.

그러나, 촬영 이후 영상을 확인하면서 이 시점에는 다른 각도로 촬영해야 한다거나, 줌인을 해서 촬영해야 한다는 등 카메라 촬영 자체와 관련한 수정의 필요성이 발생한다면, 이는 편집에 의하여 해결이 불가능하며 촬영을 새로 하는 수밖에 없다.However, if there is a necessity of correction related to the camera shooting itself, such as that it should be shot at a different angle at this point while checking the image after shooting, or that it should be shot by zooming in, this can not be solved by editing, none.

그러나, 시간적 여유가 없다거나, 동일 환경에서의 촬영이 더 이상 불가능하다거나, 예산상의 어려움 등 여러 이유에 의하여 새로 촬영하는 것이 어려운 경우도 많다.However, there are many cases in which it is difficult to take a new picture due to various reasons such as the lack of time, the impossibility of shooting in the same environment, the difficulty of the budget, and the like.

한편, 편집과정에서 촬영 영상을 확인하다 특정 시점의 영상과 관련하여, 카메라에는 담기지 않았으나 당시 피사체의 주위 상황에 대해 추가로 영상에 담을 필요성이 발생한다면, 별도로 추가촬영을 하여 마치 해당 시점에 동시에 촬영이 이루어진 것처럼 편집을 하는 수밖에 없다.On the other hand, if it is necessary to capture the image of the specific point in the editing process and the image of the subject at the time is not included in the camera but the situation of the subject at that time needs to be additionally recorded in the image, I have to edit as if shooting was done.

그러나, 같은 이유에서 그것이 여의치 않은 경우도 많으며, 무엇보다 시차를 두고서 촬영한 다음 마치 동시에 촬영된 것인 양 편집하여야만 하므로 리얼리티가 떨어질 수 있다는 문제가 있다.However, there are many cases where it is not feasible for the same reason, and there is a problem that the reality may be lowered because it is necessary to edit the image taken at a time difference and then taken at the same time.

이에 따라 후발적인 카메라 앵글, 화각에 대한 편집 필요성에 대응할 수 있는 기술의 개발이 필요하다.Accordingly, it is necessary to develop a technology capable of coping with the necessity of later editing of camera angle and angle of view.

문헌 1. 대한민국특허청, 등록특허 제10-0942765호 "360도 서라운드 뷰 영상 편집을 위한 장치 및 방법"Document 1: Korean Intellectual Property Office, Registered Patent No. 10-0942765 "Apparatus and Method for 360 Degree Surround View Image Editing" 문헌 2. 대한민국특허청, 등록특허 제10-1021269호 "디지털 항공촬영 정보의 편집을 대상물별로 진행하여 3차원 도화이미지를 합성하는 360도 서라운드 뷰 영상 도화시스템"2. Korean Patent Office, Registered Patent No. 10-1021269 "A 360-degree surround view image drawing system for synthesizing a three-dimensional drawing image by advancing the editing of digital aerial photographing information for each object" 문헌 3. 대한민국특허청, 특허공개 제10-2006-0096878호 "입체신문의 제작 및 지면 360도 서라운드 뷰 영상의 온라인 서비스 제공 방법"Literature 3. Korea Intellectual Property Office, Patent Publication No. 10-2006-0096878 "Production of stereoscopic newspaper and method of providing online service of 360-degree surround view image on the ground" 문헌 4. 한국방송공학회, "비선형 편집기반의 360도 서라운드 뷰 영상 제작 흐름에 관한 연구", 한국방송공학회지 제15권 제3호 통권 제54호, 2010. 5, 391-406쪽"A Study on the Flow of 360-degree Surround View Image Production Based on Nonlinear Editing," Korean Broadcasting Engineering Society, Vol. 15, No. 3, pp. 54, 2010. 5, 391-406

여러 각도를 향하는 다수의 카메라를 이용하여 동시에 촬영된 결과물을 이용하여 원하는 앵글에 따라 실시간으로 돌려볼 수 있는 360도 서라운드 뷰 영상 기술이 개발된 바 있다. A 360-degree surround-view imaging technology has been developed that can be rotated in real time according to a desired angle using a plurality of cameras directed at different angles and simultaneously shot images.

도 1은 구글 스트리트 뷰의 실행화면으로 비록 스틸이미지이지만 - 사용자는 마우스를 이용하여 다양한 각도와 방향으로 돌려볼 수 있다.Fig. 1 shows an execution screen of Google Street View, although it is a still image - the user can turn it at various angles and directions using the mouse.

본 발명은 이러한 360도 서라운드 뷰 영상 기술을 보조적으로 활용함으로써 후발적으로 카메라 화각이나 앵글에 대한 편집 필요성이 발생한 경우에 대응할 수 있는 방법을 제시하고자 한다.The present invention utilizes the 360-degree surround-view image technology as an auxiliary, thereby providing a method that can cope with the necessity of editing the camera angle of view or angle later.

한편, 공지의 360도 서라운드 뷰 영상 기술은 영상을 촬영한 다음에 마우스 등의 입력장치를 이용하여 화각이나 앵글을 실시간으로 돌려볼 수 있도록 하는 기술로서, 사용자와의 실시간 인터랙션을 위하여 개발된 기술인 반면, Meanwhile, the known 360-degree surround-view imaging technology is a technique for real-time interaction with a user, which is a technique for realizing a viewing angle or an angle by using an input device such as a mouse after photographing the image, ,

방송 컨텐츠는 완결된 동영상의 형태로 저작되어 일방향적인 방송매체를 통해 시청자들에게 송출되는 것인바 360도 서라운드 뷰 영상 자체와는 다소 거리가 있다.Broadcasting contents are written in the form of completed video and sent out to viewers through unidirectional broadcasting medium, which is somewhat distant from the 360 degree surround view image itself.

따라서, 360도 서라운드 뷰 영상을 방송용 컨텐츠의 형태로 가공하는 편집과정을 거쳐야 하며, 이때 기존의 방송용 컨텐츠 저작도구와 360도 서라운드 뷰 영상 소프트웨어 간의 연동 이슈가 있다.Accordingly, the 360 degree surround view image must be processed in the form of broadcast contents. At this time, there is an interlocking issue between the existing broadcast content authoring tool and the 360 degree surround view image software.

본 발명은 더 나아가 이러한 연동 문제를 해소하여 촬영된 360도 서라운드 뷰 영상을 이용하여 간편하게 방송용 컨텐츠를 저작할 수 있도록 하거나, 또는 역으로 방송용 컨텐츠의 편집 도중 360도 서라운드 뷰 영상을 호출하여 필요한 형태의 클립을 얻을 수 있도록 하는 기술을 제시하고자 한다.The present invention further solves the problem of interlocking to solve the problem of interlocking, so that the 360-degree surround-view image can be easily used to author the broadcast content, or conversely, the 360-degree surround view image can be called during editing of the broadcast- I would like to present a technique for obtaining clips.

상기와 같은 목적을 달성하기 위하여 본 발명에 의한 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법은 다수의 360도 서라운드 뷰 영상 카메라를 이용하여 촬영된 360도 서라운드 뷰 영상 데이터를 서라운드 뷰 영상 재생기에 적재하는 110 단계;According to another aspect of the present invention, there is provided a method of authoring broadcast content using 360-degree surround view image data, the method comprising: generating 360-degree surround view image data captured using a plurality of 360- ; ≪ / RTI >

마우스 입력 이벤트에 따라 서라운드 뷰 영상 재생기가 실시간으로 카메라 각도, 화각, 이펙트 가운데 하나 이상을 제어하면, 저작환경 연동 수단이 상기 서라운드 뷰 영상 재생기에 의한 출력화면을 동영상으로 캡쳐하는 120 단계; 및When the surround-view image player controls at least one of the camera angle, the angle of view, and the effect in real time according to the mouse input event, the authoring environment linking means captures the output screen of the surround-view image player as a moving image; And

저작환경 연동 수단이 캡쳐된 동영상을 동영상 저작도구의 타임라인으로 익스포트하는 130 단계;를 포함한다.And a step 130 of exporting the captured moving image to the timeline of the moving image authoring tool.

이때, 상기 저작환경 연동수단은 상기 360도 서라운드 뷰 영상 카메라에 의해 저장된 태그로부터 촬영시간값, 360도 서라운드 뷰 영상 정보를 인출하고, 사용자로부터 입력된 프로젝트 정보를 이용하여 메타데이터를 생성하여 상기 캡쳐한 동영상에 저장하며,At this time, the authoring environment linking means fetches the photographing time value and the 360-degree surround view image information from the tag stored by the 360-degree surround view image camera, generates metadata using the project information input from the user, Save to one video,

상기 캡쳐된 동영상의 정보를 파라메타로 하여 동영상 저작수단을 호출하되,Calling the moving picture authoring means with the captured moving picture information as parameters,

호출된 동영상 저작수단이 상기 캡쳐된 동영상의 메타데이터를 읽어 대응되는 프로젝트를 열고, 해당 프로젝트의 타임라인의 클립들의 태그로부터 상기 캡쳐한 동영상의 메타데이터와 일치하는 것을 판정하는 제 141 단계; 및A step 141 of opening the corresponding project by reading the metadata of the captured moving picture and determining that the metadata matches the metadata of the captured moving picture from the tags of the clips of the timeline of the corresponding project by the called moving picture authoring means; And

판정된 클립 사이에 상기 캡쳐된 동영상을 삽입하는 제 142 단계;를 더 포함할 수 있다.And inserting the captured moving image between the determined clips.

한편, 상기 캡쳐된 동영상에 대한 편집 기능이 선택됨에 따라 상기 저작환경 연동수단은 상기 판정된 입력의 유형과 크기값을 화면에 표시하되, 상기 입력의 유형과 크기값의 편집 인터페이스를 제공하는 제 151 단계;Meanwhile, as the editing function for the captured moving image is selected, the authoring environment linking unit displays the type and size of the input determined on the screen, and the editing interface for the type and size of the input step;

사용자에 의하여 입력의 유형, 크기값의 직접 입력이 있으면 이를 마우스 입력이벤트로 변환한 다음 상기 서라운드 뷰 영상 재생기로 인가하는 제 152 단계; 및 A step 152 of converting a type of the input and a size value of the input directly into a mouse input event and then applying the converted input event to the surround view image player; And

저작환경 연동 수단이 상기 서라운드 뷰 영상 재생기에 의한 출력화면을 동영상으로 캡쳐하는 제 153 단계;를 더 포함할 수 있다.And the authoring environment linking unit captures the output screen of the surround view image player as a moving picture.

한편, 상기 저작환경 연동수단이 마우스 입력이벤트를 인터셉트하여 판정된 입력의 유형과 크기값을 수집하되, 수집된 다수의 데이터로부터 입력 유형의 순서가 일치하는 것으로 빈도수가 소정빈도 이상인 것을 판정하는 제 161 단계;Meanwhile, the authoring environment interlinking means intercepts the mouse input event and collects the type and magnitude value of the input determined, and determines whether or not the input type matches the order of the input types from the collected data, step;

상기 입력 유형의 순서가 일치하는 데이터들의 각 입력 유형별 크기값으로부터 이상값을 제거하고 평균을 구하는 제 162 단계; 및A step 162 of removing an ideal value from a magnitude value of each input type of data having the same order of the input type and obtaining an average; And

상기 순서가 일치하는 입력 유형의 순서 및 유형별 평균값을 저장하는 제 163 단계;를 더 포함할 수 있다.The method may further include storing the order and the average of the input types corresponding to the order in operation 163.

이러한 본 발명에 의할 때,According to the present invention,

방송용 컨텐츠의 편집 과정에서 후발적으로 카메라 앵글이나 화각에 대한 편집 필요성이 대두되는 경우에 효과적으로 대응할 수 있다.It is possible to effectively cope with a case in which a necessity of editing the camera angle or angle of view arises later in the editing process of the broadcast content.

따라서, 카메라 촬영이 이루어진 이후에 기존에는 불가능했던 카메라 화각, 앵글에 대한 편집을 다양한 방식으로 할 수 있게 된다.Therefore, after the camera shooting, editing of the camera angle of view and angle, which has not been possible in the past, can be performed in various ways.

뿐만 아니라, 단일 카메라로는 한 화면에 담아내기 어려운 특수한 화각의 영상을 간단한 편집 과정을 통해 방송용 컨텐츠의 일부로 포함시킬 수 있다.In addition, a single camera can include a specific angle of view image, which is hard to be captured on one screen, as a part of broadcasting contents through a simple editing process.

특히, 여러 각도에 걸친 많은 영상 정보를 한 화면에 표시하는 등의 기존에는 불가능했던 방식의 편집을 가능하게 한다.In particular, it enables editing of a method that has not been possible in the past, such as displaying a large amount of image information over a plurality of angles on one screen.

편집 과정에서의 편의성 측면에서 보자면 실시간 인터랙션을 통해 시점(Viewpoint)을 변경해가면서 재생하는 것이 가능한 360도 서라운드 뷰 영상 기술을, 이와는 전혀 무관한 방송 컨텐츠 저작도구와 연동해 줌으로써 양자를 오가며 간단히 편집, 저작이 가능하다는 효과가 있다.From the viewpoint of convenience in editing process, 360-degree surround-view video technology, which can be reproduced while changing viewpoint through real-time interaction, is linked with broadcasting content authoring tool having no relation thereto, This is effective.

도 1은 360도 서라운드 뷰 영상 기술이 적용된 구글 스트리트 뷰의 실행화면이며,
도 2는 360도 서라운드 뷰 영상 재생화면을 동영상으로 캡쳐하여 저작도구로 익스포트하는 과정을 예시하는 개념도이며,
도 3은 360도 서라운드 뷰 영상의 특수한 형태를 예시하는 도면이며,
도 4는 저작환경 연동수단이 동영상 저작도구와 서라운드 뷰 영상 재생기를 연동하는 과정을 설명하는 도면이며,
도 5는 본 발명에 의한 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법을 설명하는 플로우차트이며,
도 6은 도 5에 도시된 본 발명에서 동영상 편집과정에서 필요로 하는 360도 서라운드 뷰 영상을 호출하는 과정을 부연하는 플로우차트이며,
도 7은 도 5에 도시된 본 발명에서 캡쳐한 동영상을 익스포트하는 과정을 부연 설명하는 플로우차트이며,
도 8은 도 5에 도시된 본 발명에서 캡쳐한 동영상에 대한 편집과정을 부연 설명하는 플로우차트이며,
도 9는 도 5에 도시된 본 발명에서 사용자의 편집성향에 따른 매크로의 자동 추천기능을 부연 설명하는 플로우차트이다.
FIG. 1 is an execution view of Google Street View with 360-degree surround view video technology,
FIG. 2 is a conceptual diagram illustrating a process of capturing a 360-degree surround-view image playback screen as a moving image and exporting the 360-degree surround-
3 is a diagram illustrating a specific form of a 360-degree surround view image,
4 is a view for explaining a process in which the authoring environment linking means links the moving picture authoring tool and the surround view image player,
FIG. 5 is a flowchart illustrating a method of authoring broadcasting contents using 360-degree surround view image data according to the present invention,
FIG. 6 is a flow chart for explaining a process of calling a 360-degree surround view image required in a moving image editing process according to the present invention shown in FIG. 5,
FIG. 7 is a flow chart for explaining a process of exporting a captured moving image according to the present invention shown in FIG. 5,
FIG. 8 is a flow chart for explaining an editing process of a moving picture captured by the present invention shown in FIG. 5,
FIG. 9 is a flowchart further illustrating an automatic macro recommendation function according to the editing tendency of the user in the present invention shown in FIG.

이하에서는 본 발명의 바람직한 실시예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, the present invention will be described in detail with reference to preferred embodiments of the present invention and the accompanying drawings, wherein like reference numerals refer to like elements.

발명의 상세한 설명 또는 특허청구범위에서 어느 하나의 구성요소가 다른 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 당해 구성요소만으로 이루어지는 것으로 한정되어 해석되지 아니하며, 다른 구성요소들을 더 포함할 수 있는 것으로 이해되어야 한다.It is to be understood that when an element is referred to as being "comprising" another element in the description of the invention or in the claims, it is not to be construed as being limited to only that element, And the like.

또한, 발명의 상세한 설명 또는 특허청구범위에서 "~수단", "~부", "~모듈", "~블록"으로 명명된 구성요소들은 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이들 각각은 소프트웨어 또는 하드웨어, 또는 이들의 결합에 의하여 구현될 수 있다.Also, in the description of the invention or the claims, the components named as "means", "parts", "modules", "blocks" refer to units that process at least one function or operation, Each of which may be implemented by software or hardware, or a combination thereof.

도 2는 360도 서라운드 뷰 영상 재생화면을 동영상으로 캡쳐하여 저작도구로 익스포트하는 과정을 예시하는 개념도이다.FIG. 2 is a conceptual diagram illustrating a process of capturing a 360-degree surround-view image playback screen as a moving image and exporting the 360-degree surround view image playback screen to a authoring tool.

도 2의 (a)는 360도 서라운드 뷰 영상 카메라를 이용하여 촬영된 서라운드 뷰 영상 데이터를 서라운드 뷰 영상 재생기(110)에 의하여 제어하는 모습을 예시한다.2 (a) illustrates surround view image data photographed using a 360-degree surround-view video camera by the surround-view image reproducer 110. FIG.

여러 방향으로 설치된 다수의 카메라를 이용하여 동시에 촬영된 영상을 결합하는 것에 의하여 360도 서라운드 뷰 영상 데이터가 획득된다. 360 degree surround view image data is acquired by combining images captured simultaneously using a plurality of cameras installed in various directions.

360도 서라운드 뷰 영상 카메라는 공지의 구성요소에 해당하며, 이를 이용하여 촬영된 360도 서라운드 뷰 영상 데이터를 실시간으로 제어하여 재생하기 위한 소프트웨어 패키지 또한 공지의 구성요소에 해당한다.The 360-degree surround-view video camera corresponds to a known component, and a software package for controlling and reproducing 360-degree surround-view video data photographed using the 360-degree surround-view video camera corresponds to a known component.

서라운드 뷰 영상 재생기(110)는 이러한 소프트웨어 패키지에 대응되는 요소로서, 후술하는 바와 같이 저작환경 연동수단(120)과 연동되는 점에서 공지의 소프트웨어 패키지와 상이하다.The surround-view image reproducer 110 is a component corresponding to this software package, and differs from a known software package in that it is interlocked with the authoring environment linkage unit 120 as described later.

서라운드 뷰 영상 재생기(110)는 우선 얻어진 360도 서라운드 뷰 영상 데이터를 메모리에 적재한 다음, 소정의 앵글과 화각으로 재생한다. 이때, 사용자가 마우스를 이용하여 줌인, 줌아웃과 같은 동작을 제어하면 영상을 확대 축소하는 방식에 의해 화각이 동적으로 제어되는 것과 같은 기능을 처리한다.The surround-view image reproducer 110 first loads the obtained 360-degree surround-view image data into the memory, and then reproduces the 360-degree surround-view image data at a predetermined angle and angle of view. At this time, if the user controls operations such as zooming in and zooming out by using a mouse, the image processing device performs a function of dynamically controlling the angle of view by enlarging and reducing the image.

한편, 사용자가 마우스를 이용하여 드래그하는 등의 방식에 의해 카메라의 방향을 좌우로 변경하면, 다수의 360도 서라운드 뷰 영상 카메라에 의해 촬영된 영상 가운데 선택된 앵글에 해당하는 영상의 조합에 의하여 카메라 방향의 동적 변경을 처리한다.On the other hand, if the direction of the camera is changed to the right or left by a method such as dragging with a mouse or the like, by combining the images corresponding to the selected angles among the images captured by the plurality of 360 degree surround- Lt; / RTI >

이외에도 사용자가 마우스를 이용하여 파노라마 뷰 기능을 선택하면 다수의 360도 서라운드 뷰 영상 카메라에 의해 촬영된 영상들이 화면 중앙을 기준으로 좌우로 이어붙이기 되어 한 화면에 모두 표시되도록 처리한다.In addition, when the user selects the panoramic view function using the mouse, the images photographed by a plurality of 360-degree surround-view image cameras are connected to the left and right with reference to the center of the screen so that they are all displayed on one screen.

또는 사용자가 어안렌즈 뷰 기능을 선택하면 다수의 360도 서라운드 뷰 영상 카메라에 의해 촬영된 영상들을 화면 중앙을 기준으로 원모양을 이루며 둥글게 이어붙이기 하여 극단적인 광각렌즈에 의해 위에서 촬영한 것과 같은 모양이 되도록 처리한다.Or, when the user selects the fisheye lens view function, images captured by a plurality of 360 ° surround view cameras are circularly formed in the shape of a circle based on the center of the screen and are shaped like extreme wide angle lenses .

도 3은 360도 서라운드 뷰 영상의 특수한 형태를 예시하는 도면이다.3 is a diagram illustrating a specific form of a 360-degree surround view image.

도 3의 (a)는 다수의 카메라를 이용하여 촬영된 영상을 횡으로 이어붙이기 하여 파노라마 영상을 만든 것을 예시하며,3 (a) illustrates an example in which a panoramic image is created by horizontally connecting images photographed using a plurality of cameras,

도 3의 (b)는 다수의 카메라를 이용하여 촬영된 영상을 원형으로 이어붙이기 하여 어안렌즈 뷰 영상을 만든 것을 예시한다.FIG. 3 (b) illustrates a fisheye lens view image created by attaching images captured using a plurality of cameras to a circular shape.

한편, 사용자는 도 2의 (a)에 도시된 바와 같이 서라운드 뷰 영상 재생기(110)에 서라운드 뷰 영상 데이터를 적재하여 재생하되, 실시간으로 화각이나 앵글을 제어하여 돌려본다.On the other hand, as shown in FIG. 2 (a), the user loads surround view image data into the surround view image reproducer 110 and reproduces them by controlling the angle of view or angle in real time.

서라운드 뷰 영상이란 이와 같이 재생도중 실시간으로 화각이나 앵글을 조작할 수 있도록 제공되는 인터랙티브한 영상인데,Surround view video is an interactive video provided to manipulate the angle of view or angle in real time during playback,

저작환경 연동수단(120)은 도 2의 (b)에 도시된 바와 같이 사용자가 실시간으로 화각이나 앵글 등을 조작하여 돌려보는 화면을 동영상으로 캡쳐한다.The authoring environment linking means 120 captures a moving picture that the user manipulates in real time by manipulating the angle of view or angle, as shown in FIG. 2 (b).

이에 더하여 후술하는 바와 같이 동영상 저작도구(130)와 서라운드 뷰 영상 재생기(110)를 연동하는 역할을 더 수행한다.In addition, it further plays a role of linking the moving picture authoring tool 130 and the surround view image reproducer 110 as described later.

저작환경 연동수단(120)은 캡쳐된 영상을 동영상 저작도구(130)로 익스포트(Export) 한다.The authoring environment linking means 120 exports the captured image to the moving image authoring tool 130.

익스포트 된 영상은 동영상 저작도구(130)의 편집화면의 타임라인상 소정 위치에 삽입된다.The exported image is inserted at a predetermined position on the time line of the editing screen of the moving image authoring tool 130. [

동영상 저작도구(130)은 동영상 편집 소프트웨어 패키지로서, 타임라인에 다수의 클립들을 삽입하고 각종 효과를 준 다음 이를 최종 결과물로 렌더링하는 역할을 한다.The video authoring tool 130 is a video editing software package that inserts a plurality of clips into a timeline, provides various effects, and then renders the clips as a final result.

후술하는 바와 같이 저작환경 연동수단(120)과 연동된다는 점에서 공지의 동영상 저작 소프트웨어와 상이하다.And is operative with the authoring environment linking means 120 as will be described later.

본 발명에 의한 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법은 상기와 같은 서라운드 뷰 영상 재생기(110), 저작환경 연동 수단(120) 및 동영상 저작도구(130)에서 실행될 수 있다.The method of authoring broadcasting contents using the 360-degree surround view image data according to the present invention can be executed in the surround-view image reproducer 110, the authoring environment linking means 120, and the moving image authoring tool 130.

서라운드 뷰 영상 재생기(110), 저작환경 연동 수단(120) 및 동영상 저작도구(130)는 컴퓨터에서 실행되는 소프트웨어이거나 또는 컴퓨터 하드웨어 자원의 형태일 수 있다.Surround view image player 110, authoring environment linkage means 120 and moving picture authoring tool 130 may be software running on a computer or in the form of computer hardware resources.

이하에서는 도 4 및 도 5를 참조하여 본 발명에 의한 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법을 상세하게 살펴보기로 한다.Hereinafter, a method of authoring broadcasting contents using 360-degree surround view image data according to the present invention will be described in detail with reference to FIGS. 4 and 5. FIG.

도 4는 저작환경 연동수단이 동영상 저작도구와 서라운드 뷰 영상 재생기를 연동하는 과정을 설명하는 도면이며,4 is a view for explaining a process in which the authoring environment linking means links the moving picture authoring tool and the surround view image player,

도 5는 본 발명에 의한 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법을 설명하는 플로우차트이다.FIG. 5 is a flowchart illustrating a method of authoring broadcasting contents using 360-degree surround view image data according to the present invention.

도 4 및 도 5에 도시된 바에 의할 때,4 and 5,

먼저 서라운드 뷰 영상 재생기(110)가 촬영된 360도 서라운드 뷰 영상 데이터를 메모리에 적재한다(S110).First, the surround view image reproducer 110 loads 360-degree surround view image data photographed in the memory (S110).

이후, 저작환경 연동 수단(120)은 서라운드 뷰 영상 재생기로 입력되는 마우스 입력이벤트를 인터셉트하여 입력종류, 크기 또는 빈도로 변환한 다음 저장하고, 입력값을 서라운드 뷰 영상 재생기로 바이패스 한다.Then, the authoring environment linking unit 120 intercepts a mouse input event input to the surround-view image player, converts the input event into an input type, a size or a frequency, stores the input type, size or frequency, and bypasses the input value to the surround-view image player.

한편, 저작환경 연동 수단(120)은 서라운드 뷰 영상 재생기(110)에 의한 화면 출력을 동영상으로 캡쳐를 시작한다(S120).Meanwhile, the authoring environment linking means 120 starts capturing the screen output by the surround-view image reproducer 110 as a moving image (S120).

서라운드 뷰 영상 재생기(110)가 바이패스된 마우스 입력값에 따라 서라운드 뷰 영상을 실시간으로 제어하여 출력하면 저작환경 연동 수단(120)은 이를 동영상의 형태로 캡쳐한 다음 동영상 저작도구(130)로 익스포트 한다(S130).When the surround-view image reproducer 110 controls and outputs the surround-view image in real time according to the bypassed mouse input value, the authoring environment linkage unit 120 captures the surround-view image in the form of a moving image, (S130).

이때, 저작환경 연동수단(120)은 바람직하게는 캡쳐된 360도 서라운드 뷰 영상으로부터 마우스 커서를 제거한다. 엄밀하게는 캡쳐시에 마우스 커서를 제외하고 서라운드 뷰 영상 재생기(110)에 의한 화면 출력만을 캡쳐함으로써 이러한 처리를 수행할 수 있다.At this time, the authoring environment linking means 120 preferably removes the mouse cursor from the captured 360-degree surround view image. Strictly speaking, this processing can be performed by capturing only the screen output by the surround-view image reproducer 110 except for the mouse cursor at the time of capture.

한편, 저작환경 연동수단(120)은 연속 프레임간 변화가 없는 영역을 판정한다.On the other hand, the authoring environment linking means 120 determines an area in which there is no change between consecutive frames.

화면의 가장자리 영역에 서라운드 뷰 영상 재생기(110)의 사용자 인터페이스가 표시되며, 저작환경 연동수단(120)이 캡쳐한 동영상에 이러한 사용자 인터페이스가 더 포함될 수 있다.The user interface of the surround view video player 110 is displayed in the edge area of the screen and the user interface is further included in the moving picture captured by the authoring environment interlocking unit 120. [

사용자 인터페이스는 연속 프레임간 변화가 없는 영역에 해당하며, 저작환경 연동수단(120)은 해당 영역이 완전히 제거될 수 있도록 크롭(Crop)한다.The user interface corresponds to an area where there is no change between consecutive frames, and the authoring environment linking unit 120 crops so that the corresponding area can be completely removed.

즉, 캡쳐한 영상 가장자리의 사용자 인터페이스 부분을 모두 제거한 나머지 영상 부분만이 남도록 잘라낸다.That is, the user interface part of the captured image edge is removed and only the remaining image part is cut out.

이후, 저작환경 연동수단(120)은 후술하는 바와 같이 소정의 메타데이터를 자동 생성하여 상기 캡쳐한 영상에 저장한다.Then, the authoring environment linking means 120 automatically generates predetermined meta data as described later and stores the generated meta data in the captured image.

이후, 상기 캡쳐한 영상 또는 메타데이터의 정보를 파라메타로 하여 동영상 저작도구(130)를 호출한다.Then, the moving picture authoring tool 130 is called with the information of the captured image or metadata as a parameter.

호출된 동영상 저작도구(130)는 타임라인 상의 클립들의 태그를 읽어 상기 메타데이터와 일치하는 클립을 판정하고, 해당 클립들 사이에 상기 캡쳐된 360도 서라운드 영상을 삽입한다.The called video authoring tool 130 reads the tags of the clips on the timeline to determine clips that match the metadata and inserts the captured 360 degree surround image between the clips.

이하에서는 도 6을 참조하여 동영상 저작도구를 이용한 방송 컨텐츠의 편집과정에서 서라운드 뷰 영상 재생기를 호출하는 과정을 살펴보기로 한다.Hereinafter, referring to FIG. 6, a process of calling a surround-view image player in the process of editing broadcast content using the moving-image authoring tool will be described.

도 6은 도 5에 도시된 본 발명에서 동영상 편집과정에서 필요로 하는 360도 서라운드 뷰 영상을 호출하는 과정을 부연하는 플로우차트이다.FIG. 6 is a flowchart illustrating a process of calling a 360-degree surround view image required in a moving image editing process according to the present invention shown in FIG.

상기에서는 사용자가 서라운드 뷰 재생기(110)에 306도 서라운드 뷰 영상 데이터를 적재하여 실시간으로 화각 앵글 등을 제어하는 것으로부터 편집과정이 시작되어, 동영상 저작도구(130)를 호출하는 것으로 설명하였으나,In the above description, the user has loaded the surround view image data in the surround view reproducer 110 to control the angle of view angle and the like in real time, and the editing process is started to call the moving picture authoring tool 130. However,

동영상 저작도구(130)를 이용하여 일반적인 카메라를 통해 촬영된 영상을 클립 단위로 타임라인에 배열하고 편집을 수행하던 도중, 편집하던 영상과 관련하여 앵글이나 화각에 변화를 줄 필요성이 있다거나, 또는 파노라마 뷰나 어안렌즈 뷰와 같은 특수한 형태로 편집할 필요성이 있다고 판단되는 경우에, 반대로 필요로하는 서라운드 뷰 영상을 얻기 위하여 서라운드 뷰 재생기(110)를 호출할 수도 있다.There is a need to change angles and angle of view with respect to the edited image while arranging the images photographed through a general camera on a timeline and editing the images using a video authoring tool 130, If it is determined that there is a need to edit in a special form such as a panoramic view or a fisheye lens view, the surround view reproducer 110 may be called to obtain a desired surround view image.

도 6에 도시된 바에 의할 때, As shown in Fig. 6,

S110 단계에서, 사용자가 동영상 저작수단(110)의 타임라인 상의 임의의 동영상 클립을 선택한 다음, 360도 서라운드 뷰 영상 삽입 기능을 선택하면,If the user selects an arbitrary movie clip on the timeline of the moving picture authoring means 110 and then selects the 360 degree surround view image inserting function in step S110,

저작환경 연동수단(120)은 상기 선택된 동영상 클립의 태그를 읽어 GPS좌표, 촬영시간 정보를 인출한다.The authoring environment linking means 120 reads the tags of the selected moving picture clip and extracts GPS coordinates and photographing time information.

그리고, 360도 서라운드 뷰 영상 데이터들의 태그 가운데 일치하는 것을 판정한다(S111).Then, it is determined that the tags match among the tags of the 360-degree surround view video data (S111).

촬영지의 GPS좌표와 촬영시간은 카메라가 영상을 녹화하거나 이미지를 촬영할 때에 태그로 저장한다.The GPS coordinates of the shooting location and the shooting time are stored as tags when the camera records images or images.

즉, 일반 카메라와 360도 서라운드 뷰 카메라에 의하여 비슷한 시간에, 비슷한 좌표에서 촬영이 이루어진 경우를 전제한다.That is, it is presupposed that a similar camera is taken at a similar time by a general camera and a 360-degree surround-view camera.

이후, 저작환경 연동수단(120)은 판정된 360도 서라운드 뷰 영상 데이터의 정보를 파라메타로 하여 서라운드 뷰 영상 재생기(110)를 호출한다(S112).Then, the authoring environment linking means 120 calls the surround-view image reproducer 110 with the information of the determined 360-degree surround-view image data as parameters (S112).

이에 따라, 서라운드 뷰 영상 재생기(110)는 실행과 동시에 파라메타로 넘겨받은 360도 서라운드 뷰 영상 데이터를 읽어와 메모리에 적재한다(S113).Accordingly, the surround-view image reproducer 110 reads the 360-degree surround view image data transferred as parameters at the same time as the execution, and loads the 360-degree surround view image data in the memory (S113).

이후, S120 단계로 진행하여 서라운드 뷰 영상 재생기(110)를 통해 서라운드 뷰 영상을 제어하여 필요로 하는 영상을 얻을 수 있다.Thereafter, in step S120, a surround view image is controlled through the surround view image reproducer 110 to obtain a desired image.

즉, 사용자는 동영상 저작도구(130)를 이용한 편집도중, 간단히 서라운드 뷰 이미지 삽입 기능을 선택하는 것만으로, 자신이 필요로 하는 360도 서라운드 뷰 영상을 서라운드 뷰 영상 재생기(110)에 적재하여 간단히 서라운드 뷰 영상을 획득할 수 있게 된다.That is, the user simply selects the surround-view image insertion function during editing using the moving-image authoring tool 130, loads the 360-degree surround-view image required by the user into the surround-view image reproducer 110, The view image can be obtained.

저작환경 연동수단(120)은 단순히 촬영장소와 시간이 일치하는 서라운드 뷰 영상 데이터를 선택해 줌으로써 동영상 저작도구(130)와 서라운드 뷰 영상 재생기(110)를 연동하는데,The authoring environment linking unit 120 links the moving picture authoring tool 130 and the surround view image player 110 by selecting the surround view image data whose time coincides with the photographing place,

여기에 더하여 동영상 저작도구(130)의 타임라인 상에서 사용자가 선택한 클립과 같은 카메라 앵글, 화각으로 서라운드 뷰 영상 데이터를 일치시켜 줄 수도 있다.In addition, it is possible to match the surround view image data with the camera angle and the view angle such as the clip selected by the user on the timeline of the moving picture authoring tool 130. [

이를 위하여, 저작환경 연동수단(120)은 우선 S110 단계에서, 상기 동영상 클립의 태그로부터 카메라의 촬영 방향 및 화각 정보를 더 인출한다.To this end, in step S110, the authoring environment linking means 120 further fetches the photographing direction and angle of view information of the camera from the tag of the moving image clip.

카메라의 화각 정보와 조리개 값 등은 카메라가 촬영시에 영상에 저장하는 것으로 공지기술에 의하여 구현될 수 있다. 한편, 촬영 방향은 G센서 등에 의해 검출된 값을 별도의 태그로 저장할 수 있는데, 이는 기성의 카메라에 별도의 G센서를 갖는 악세서리를 부착하여 구현할 수 있다.The angle of view information and the aperture value of the camera can be realized by a known technique that the camera stores in the image at the time of shooting. On the other hand, the photographing direction can store the value detected by the G sensor or the like as a separate tag, which can be implemented by attaching an accessory having a separate G sensor to the existing camera.

저작환경 연동수단(120)은 카메라의 촬영 방향 정보에 더하여 공지의 화각 정보를 인출한다(S111).The authoring environment linking means 120 fetches the known angle-of-view information in addition to the photographing direction information of the camera (S111).

이후, S113 단계에서 서라운드 뷰 영상 재생기(110)가 해당하는 360도 서라운드 뷰 영상 데이터를 메모리에 적재함에 따라 저작환경 연동수단(120)은 상기 인출된 카메라의 촬영방향 및 화각정보에 해당하는 마우스 이벤트를 생성하여 상기 서라운드 뷰 영상 재생기(110)로 인가한다(114).Thereafter, in step S113, the surround-view image reproducer 110 loads the corresponding 360-degree surround-view image data into the memory, so that the authoring environment interlocking unit 120 detects mouse events corresponding to the photographing direction and angle- And applies it to the surround-view image reproducer 110 (114).

후술하는 바와 같이 서라운드 뷰 영상 재생기(110)는 마우스 클릭이나 드래그 등의 방식에 의한 화각이나 앵글의 조작을 지원하는데, 저작환경 연동수단(120)은 원하는 앵글, 화각으로 맞추기 위하여 마우스 이벤트를 인위적으로 생성한 다음 서라운드 뷰 영상 재생기(110)로 인가함으로써 이를 처리한다.As described later, the surround-view image reproducer 110 supports the operation of the angle of view or angle by a mouse click or a drag. The authoring environment interlocking means 120 artificially raises a mouse event to a desired angle and angle of view And then processes it by applying it to the surround-view image reproducer 110.

한편, 이하에서는 도 7을 참조하여 캡쳐한 동영상을 동영상 저작도구로 익스포트 하는 과정을 살펴보기로 한다.Hereinafter, the process of exporting the captured moving image to the moving image authoring tool will be described with reference to FIG.

도 7은 도 5에 도시된 본 발명에서 캡쳐한 동영상을 익스포트하는 과정을 부연 설명하는 플로우차트이다.FIG. 7 is a flowchart further illustrating a process of exporting a captured moving image according to the present invention shown in FIG.

S120 단계에서 저작환경 연동수단(120)은 상기 360도 서라운드 뷰 영상 카메라에 의해 저장된 태그로부터 촬영시간값, 360도 서라운드 뷰 영상 정보를 인출하고, 사용자로부터 입력된 프로젝트 정보를 이용하여 메타데이터를 생성한다.In step S120, the authoring environment linking unit 120 fetches the photographing time value and the 360-degree surround view image information from the tag stored by the 360-degree surround-view image camera, and generates metadata using the project information input from the user do.

서라운드 뷰 영상 재생기(110)와 동영상 저작도구(130)는 애초 사용 목적이 상이한 것인 바 상호간 연동이 지원되지 않으며, 저작환경 연동수단(120)은 이들의 연동을 위하여 메타데이터를 생성하여 캡쳐한 서라운드 뷰 영상에 저장한다.Since the surround-view image reproducer 110 and the moving-image authoring tool 130 are different in purpose from each other, the interoperability between them is not supported, and the authoring environment linking means 120 generates metadata It is saved in the surround view video.

메타데이터는 서라운드 뷰 영상 재생기(110)와 동영상 저작도구(130)의 연동 방법이나 수준에 따라 적절하게 정의될 수 있으며,The metadata may be appropriately defined according to a method and level of interlocking between the surround-view image reproducer 110 and the moving-image authoring tool 130,

사용자가 저작환경 연동수단(120)에서 동영상을 캡쳐하면서 저장한 프로젝트 정보(문서명칭, 파일명, 폴더명 등을 포함)와 카메라에 의해 자동저장되는 태그값을 소정의 방식으로 파싱함으로써 생성할 수 있다.The user can generate the project information (including the document name, file name, folder name, etc.) captured while capturing the moving image in the authoring environment linkage unit 120 and the tag value automatically stored by the camera in a predetermined manner .

이와 같이 메타데이터를 캡쳐한 동영상에 저장한 다음,In this way, the metadata is stored in the captured video,

저작환경 연동수단(120)은 S130 단계에서 캡쳐된 동영상의 정보를 파라메타로 하여 동영상 저작수단을 호출한다.The authoring environment linking means 120 calls the moving image authoring means with the information of the moving image captured in step S130 as parameters.

이후 호출된 동영상 저작수단(130)이 상기 캡쳐된 동영상의 메타데이터를 읽어 대응되는 프로젝트를 열고, 해당 프로젝트의 타임라인의 클립들의 태그로부터 상기 캡쳐한 동영상의 메타데이터와 일치하는 것을 판정한다(S141).Then, the called moving picture authoring means 130 reads the metadata of the captured moving picture to open a corresponding project, and judges that it matches the metadata of the captured moving picture from the tags of the clips of the timeline of the corresponding project (S141 ).

그리고, 타임라인상 판정된 클립 사이의 위치에 상기 캡쳐된 동영상을 삽입한다(S142).Then, the captured moving image is inserted at a position between the clips judged on the time line (S142).

이하에서는 도 8을 참조하여 캡쳐한 동영상을 편집하는 과정을 상세히 살펴보기로 한다.Hereinafter, a process of editing a captured moving image will be described in detail with reference to FIG.

도 8은 도 5에 도시된 본 발명에서 캡쳐한 동영상에 대한 편집과정을 부연 설명하는 플로우차트이다.FIG. 8 is a flowchart illustrating an editing process of a moving picture captured by the present invention shown in FIG.

저작환경 연동수단(120)에 의하여 서라운드 뷰 영상 재생기(110)의 출력화면을 한번 캡쳐하면, 또다시 화각이나 앵글 등을 변경하기 위해서는 다시 서라운드 뷰 영상 재생기(110)을 실행하여 원하는 시점부터 재생을 시작하되 화각이나 앵글을 실시간으로 조금씩 달리하면서 새롭게 캡쳐를 하는 수 밖에 없다.When the output screen of the surround-view image reproducer 110 is once captured by the authoring environment linking means 120, the surround-view image reproducer 110 is executed again to change the angle of view or angle, I can not but start capturing a new angle while changing angle of view or angle in real time.

즉, 벡터 데이터가 아니기 때문에 수정이 불가능하고 처음부터 다시 캡쳐를 하여야 한다. 그러나, 마우스 제어를 통해 실시간으로 앵글과 화각을 변경하면서 실시간으로 캡쳐를 하기 때문에 단 한차례의 조작만으로 원하는 최종 결과물을 얻어낼 수 있어야 하며, 결국 원하는 수준의 결과물을 얻기 위해서는 많은 시간을 들여 수차례 캡쳐를 하고, 그 가운데 가장 나은 것을 선택할 수 밖에 없다.That is, since it is not vector data, it can not be modified and must be captured again from the beginning. However, since capturing is performed in real time while changing angles and angle of view in real time through mouse control, it is necessary to be able to obtain desired end result with only one operation. In order to obtain desired result, I can not help but choose the best one among them.

그러나, 한번 캡쳐를 한 다음 마치 벡터 그래픽 데이터를 조정하듯 미세하게 수정을 할 수 있다면 편집과정이 훨씬 간단해 질 수 있다.However, once you capture it, you can make the editing process much simpler if you can fine-tune it as if you were editing the vector graphics data.

이를 위하여 저작환경 연동수단(120)은 사용자가 서라운드 뷰 영상 재생기(110)를 실행한 다음 마우스 입력을 하면 이를 인터셉트하여 다음과 같이 분석한 다음 저장한다.To this end, the authoring environment linkage unit 120 intercepts the mouse after inputting a mouse after executing the surround-view image player 110, and analyzes it as follows.

우선, 저작환경 연동수단(120)은 S120 단계에서 서라운드 뷰 영상 재생기(110)로 입력되는 마우스 입력이벤트를 인터셉트하여 입력의 유형을 판정한다.First, the authoring environment linking unit 120 intercepts the mouse input event input to the surround-view image player 110 in step S120, and determines the type of input.

서라운드 뷰 영상 재생기(110)는 도 1의 공지기술과 마찬가지로 화면의 특정 좌표를 클릭하면 화면을 우측으로 1도 회전하거나, 10mm 화각만큼 줌인한다는 등의 제어동작을 처리를 위한 사용자 인터페이스를 제공한다.1, the surround-view image reproducer 110 provides a user interface for processing a control operation such as rotating the screen by one degree to the right or zooming in by a 10-mm view angle when a specific coordinate of the screen is clicked.

저작환경 연동수단(120)은 마우스 입력이 클릭인지, 드래그인지, 더블 탭인지 등을 판단하고, 입력이 이루어진 화면 좌표를 분석하여 서라운드 뷰 영상 재생기(110)의 사용자 인터페이스 가운데 어느 곳에 어떤 입력이 있었는지 - 입력의 유형을 판정한다.The authoring environment linking unit 120 determines whether the mouse input is a click, a drag, a double tap, or the like, and analyzes the input screen coordinates to find out which input was located in the user interface of the surround-view image player 110 Determines the type of input.

그리고, 입력의 크기값을 판정하여 수집한다.Then, the size value of the input is determined and collected.

즉, 몇 초간 클릭을 하고 있었는지, 몇 차례나 클릭을 했는지, 몇 초간 몇 픽셀만큼 드래그를 했는지 등을 판정한다.That is, it is determined whether the user clicked for several seconds, how many times the click was made, how many pixels were dragged for several seconds, and the like.

한편, 이와 같이 사용자의 마우스 입력을 인터셉트하여 분석한 다음, 상기 마우스 입력이벤트를 상기 서라운드 뷰 영상 재생기(110)로 바이패스한다.Meanwhile, the mouse input of the user is intercepted and analyzed, and then the mouse input event is bypassed to the surround-view image reproducer 110.

즉, 서라운드 뷰 영상 재생기(110)는 전단에서 어떤 일이 일어나는지 알지 못한 채 사용자 조작에 따라 카메라 화각, 앵글 등을 실시간으로 제어한다.That is, the surround-view image reproducer 110 controls the camera angle of view, angle, and the like in real time according to user's operation without knowing what is happening at the front end.

한편, 저작환경 연동수단(120)은 서라운드 뷰 영상 재생기(110)에 의한 출력 화면을 캡쳐하는 동안 사용자의 마우스 조작을 모두 인터셉트하여 분석하고 이를 순차적으로 저장한다.Meanwhile, the authoring environment linking unit 120 intercepts and analyzes all mouse operations of the user while capturing an output screen by the surround-view image player 110, and sequentially stores the analyzed results.

다시 말해, 저장한 값을 서라운드 뷰 영상 재생기(110)로 다시 한번 인가한다면 서라운드 뷰 영상 재생기(110)는 사용자가 조작했던 것과 동일하게 카메라 화각, 앵글 등을 다시 한번 제어하게 된다.In other words, if the stored value is once again applied to the surround-view image reproducer 110, the surround-view image reproducer 110 controls the camera angle of view, angle, and the like again as the user manipulated.

한편, S130 단계에서 동영상 저작도구(130)를 이용하여 편집을 하던 과정에서, 캡쳐한 서라운드 뷰 영상의 화각이나 앵글 등을 미세하게 다시 조정하기를 원하는 경우 사용자가 동영상 저작도구(130)의 타임라인 상에서 상기 캡쳐된 동영상에 대한 편집 기능을 선택하면,If it is desired to fine-tune the angle of view or angle of the captured surround-view image in the course of editing using the video authoring tool 130 in step 130, If the editing function for the captured moving image is selected on the screen,

저작환경 연동수단(120)은 해당 캡쳐된 동영상을 캡쳐하는 동안 사용자가 입력했던 마우스 입력값들의 입력의 유형과 크기값을 순차적으로 화면에 모두 표시한다.The authoring environment linking means 120 sequentially displays the input type and the magnitude value of the mouse input values inputted by the user while capturing the captured moving image sequentially on the screen.

이때, 상기 입력의 유형과 크기값을 직접 편집할 수 있는 편집 인터페이스를 화면에 더 표시한다(S151).At this time, an editing interface capable of directly editing the type and size of the input is displayed on the screen (S151).

예컨대 "우측으로 카메라 이동, 클릭수 20회"를 "우측으로 카메라 이동, 클릭수 10회"로 직접 수정할 수 있다.For example, "moving the camera to the right side, 20 times of clicks" can be directly changed to "camera movement to the right side, 10 times of clicks ".

한편, 이와 같이 사용자가 자신의 마우스 입력 가운데 임의의 어느 하나를 선택하여 입력의 유형, 크기값을 직접 입력하여 수정하면, 저작환경 연동수단(120)은 수정된 입력의 유형, 크기값에 해당하는 마우스 이벤트로 변환한 다음, 상기 서라운드 뷰 영상 재생기(110)로 인가한다(S152).If the user selects any one of his / her mouse inputs and directly inputs and corrects the type and size of the input, the authoring environment linking unit 120 determines whether or not the type and size of the input Mouse event, and then, it is applied to the surround-view image reproducer 110 (S152).

물론, 서라운드 뷰 영상 재생기(110)는 해당하는 서라운드 뷰 영상 데이터를 메모리에 적재한 상태여야 한다.Of course, the surround-view image reproducer 110 must have the corresponding surround-view image data loaded in the memory.

한편, 수정된 마우스 이벤트가 모두 순차적으로 서라운드 뷰 영상 재생기(110)로 인가되는 동안, 저작환경 연동 수단(120)은 상기 서라운드 뷰 영상 재생기(110)에 의한 출력화면을 동영상으로 캡쳐한다(S153).Meanwhile, while all the modified mouse events are sequentially applied to the surround-view image reproducer 110, the authoring environment linking unit 120 captures the output screen of the surround-view image reproducer 110 as a moving image (S 153) .

이와 같이 캡쳐된 동영상을 S130 단계로 분기하여 다시 한번 동영상 저작수단(130)으로 익스포트한다.The captured moving image is branched to the step S130 and is once again exported to the moving image authoring means 130.

동영상 저작수단(130)은 기존 타임라인 상의 캡쳐된 영상을 삭제하고 새로 익스포트된 영상을 기존 캡쳐된 영상의 위치에 삽입한다.The moving picture authoring means 130 deletes the captured image on the existing time line and inserts the newly exported image into the position of the existing captured image.

이에 의하여 상호 연동되지 않는 동영상 저작수단(130)과 서라운드 뷰 영상 재생기(110)를 오가며 교차 편집이 가능해진다.Thus, cross-editing can be performed between the moving picture authoring means 130 and the surround-view image reproducer 110, which are not linked to each other.

이하에서는 도 9를 참조하여 매크로를 설정하는 과정을 상세히 살펴보기로 한다.Hereinafter, a process of setting a macro will be described in detail with reference to FIG.

도 9는 도 5에 도시된 본 발명에서 사용자의 편집성향에 따른 매크로의 자동 추천기능을 부연 설명하는 플로우차트이다.FIG. 9 is a flowchart further illustrating an automatic macro recommendation function according to the editing tendency of the user in the present invention shown in FIG.

저작환경 연동수단(120)은 사용자가 서라운드 뷰 영상 재생기(110)로 마우스 입력을 통해 다수 회에 걸쳐 동영상을 캡쳐하면,When the user captures a moving image a plurality of times through a mouse input to the surround view video player 110,

동영상의 캡쳐시마다 사용자의 마우스 입력이벤트를 인터셉트하여 판정된 입력의 유형과 크기값을 수집한 다음,Each capture of a video intercepts a user's mouse input event and collects the type and size value of the determined input,

충분한 정도로 데이터가 축적되면, 수집된 다수의 데이터로부터 입력 유형의 순서가 일치하는 것으로 빈도수가 소정빈도 이상인 것을 판정한다(S161).When the data is accumulated to a sufficient extent, it is determined that the frequency of the input type matches the order of the input types from the collected plurality of data (S161).

예컨대, "카메라를 우측으로 회전하다가, 다시 좌측으로 회전하다가 파노라마 뷰로 변경"하는 조작을 일정 빈도 이상 수행하였다면,For example, if the operation of rotating the camera to the right and then turning to the left to change to the panoramic view is performed for a certain frequency or more,

사용자가 서라운드 뷰 영상을 만들기 위하여 자주 하는 조작의 하나로 판단할 수 있다.The user can judge it as one of the frequently operated operations for creating the surround view image.

이에 따라, 저작환경 연동수단(120)은 이와 같이 입력 유형의 순서가 일치하는 데이터들을 대상으로, 각 입력 유형별 크기값으로부터 이상값을 제거하고 평균을 구한다(S162).Accordingly, the authoring environment linking unit 120 removes an ideal value from the magnitude values for each input type with respect to the data having the same order of the input types and obtains the average (S162).

그리고, 상기 입력 유형의 순서 및 유형별 평균값을 저장한다(S163).Then, the average value of the order and type of the input type is stored (S163).

사용자는 해당 입력의 유형의 순서, 유형별 평균값의 조합에 대하여 제목을 붙일 수 있으며, 이는 마치 일종의 매크로 기능과 유사하게 사용될 수 있다.The user can give a title to the combination of the order of the type of the input and the average value of each type, and it can be used like a macro function.

즉, 저작환경 연동수단(120)이 다수의 매크로를 저장하였다가 사용자가 그 가운데 어느 하나를 선택하기만 하면, 해당 입력의 순서와 유형별 평균값을 이용하여 마우스 입력값을 생성하고 생성된 마우스 입력값을 서라운드 뷰 영상 재생기(110)로 인가할 수 있다.That is, when the authoring environment linking means 120 stores a plurality of macros and the user selects any one of them, the mouse input value is generated using the input order and the average value according to the type, To the surround-view image reproducer 110. The surround-

따라서, 새로운 서라운드 뷰 영상을 얻고자 하는 경우 사용자는 매크로를 이용하여 기존에 만들었던 것과 유사한 패턴의 서라운드 뷰 영상을 간단히 얻을 수 있게 된다.Therefore, when a new surround view image is to be obtained, a user can easily obtain a surround view image of a pattern similar to that of a conventional one using a macro.

한편, 본 발명에 의한 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법은 컴퓨터가 판독할 수 있는 명령어의 집합인 소프트웨어의 형태로 구현되어 기록 매체에 수록될 수 있다.Meanwhile, the method of authoring broadcasting contents using 360-degree surround view image data according to the present invention can be implemented in the form of software, which is a set of instructions that can be read by a computer, and can be recorded on a recording medium.

이때, 기록매체는 컴퓨터에 의하여 읽을 수 있는 모든 종류의 매체를 포함할 수 있으며, 그 예로는 DVD-ROM, CD-ROM, 하드 디스크, USB 메모리, 플래쉬 메모리와 같은 유형물을 들 수 있다.In this case, the recording medium may include any type of medium readable by a computer, such as DVD-ROM, CD-ROM, hard disk, USB memory, and flash memory.

한편, 기록매체에 수록된다는 표현은 이와 같은 유형의 기록매체에 수록되는 경우는 물론, 무형의 반송파(Carrier Wave)의 형태로 통신회선을 통해 제공되는 경우를 포함한다.On the other hand, the expression to be recorded on the recording medium includes not only the case of being recorded on the recording medium of this type but also the case of being provided through a communication line in the form of an intangible carrier wave (Carrier Wave).

본 발명은 첨부 도면 및 상기와 같은 실시예를 참조하여 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다.While the present invention has been described with reference to the accompanying drawings and embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. .

본 발명은 방송 기술 분야에 적용될 수 있다.The present invention can be applied to the broadcasting technology field.

110 : 서라운드 뷰 영상 재생기
120 : 저작환경 연동 수단
130 : 동영상 저작도구
110: Surround view video player
120: authoring environment linking means
130: Video Authoring Tools

Claims (8)

다수의 360도 서라운드 뷰 영상 카메라를 이용하여 촬영된 360도 서라운드 뷰 영상 데이터를 서라운드 뷰 영상 재생기에 적재하는 110 단계;
마우스 입력 이벤트에 따라 서라운드 뷰 영상 재생기가 실시간으로 카메라 각도, 화각, 이펙트 가운데 하나 이상을 제어하면, 저작환경 연동 수단이 상기 서라운드 뷰 영상 재생기에 의한 출력화면을 동영상으로 캡쳐하는 120 단계;
저작환경 연동 수단이 캡쳐된 동영상을 동영상 저작도구의 타임라인으로 익스포트하는 130 단계;를 포함하되,
상기 제 120 단계에서, 상기 저작환경 연동수단은 서라운드 뷰 영상 재생기로 입력되는 마우스 입력이벤트를 인터셉트하여 입력의 유형을 판정하고, 크기값을 판정하여 수집하되, 상기 마우스 입력이벤트를 상기 서라운드 뷰 영상 재생기로 바이패스하는 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법.
A step 110 of loading 360-degree surround view image data photographed using a plurality of 360-degree surround-view image cameras into a surround-view image reproducer;
When the surround-view image player controls at least one of the camera angle, the angle of view, and the effect in real time according to the mouse input event, the authoring environment linking means captures the output screen of the surround-view image player as a moving image;
And authoring environment linking means (130) for exporting the captured video to the timeline of the video authoring tool,
In operation 120, the authoring environment linking unit intercepts a mouse input event input to the surround-view image player to determine the type of input, determines a size value and collects the mouse input event, A method of authoring broadcast contents using 360 degree surround view image data.
삭제delete 삭제delete 제 1 항에 있어서,
상기 제 130 단계 이후,
상기 캡쳐된 동영상에 대한 편집 기능이 선택됨에 따라 상기 저작환경 연동수단은 상기 판정된 입력의 유형과 크기값을 화면에 표시하되, 상기 입력의 유형과 크기값의 편집 인터페이스를 제공하는 제 151 단계;
사용자에 의하여 입력의 유형, 크기값의 직접 입력이 있으면 이를 마우스 입력이벤트로 변환한 다음 상기 서라운드 뷰 영상 재생기로 인가하는 제 152 단계; 및
저작환경 연동 수단이 상기 서라운드 뷰 영상 재생기에 의한 출력화면을 동영상으로 캡쳐한 후 제 130 단계로 분기하는 제 153 단계;를 더 포함하는 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법.
The method according to claim 1,
After step 130,
The editing environment for the captured moving picture is selected, the authoring environment linking unit displays the type and the size of the determined input on a screen, and provides an editing interface for the type and size of the input;
A step 152 of converting a type of the input and a size value of the input directly into a mouse input event and then applying the converted input event to the surround view image player; And
And the authoring environment linking unit captures the output screen of the surround-view image player as a moving picture and then branches to step 130. The method of claim 1,
제 1 항에 있어서,
상기 제 130 단계 이후,
상기 저작환경 연동수단은 마우스 입력이벤트를 인터셉트하여 판정된 입력의 유형과 크기값을 수집하되, 수집된 다수의 데이터로부터 입력 유형의 순서가 일치하는 것으로 빈도수가 소정빈도 이상인 것을 판정하는 제 161 단계;
상기 입력 유형의 순서가 일치하는 데이터들의 각 입력 유형별 크기값으로부터 이상값을 제거하고 평균을 구하는 제 162 단계; 및
상기 순서가 일치하는 입력 유형의 순서 및 유형별 평균값을 저장하는 제 163 단계;를 포함하는 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법.
The method according to claim 1,
After step 130,
The authoring environment interlinking means intercepts the mouse input event and collects the type and size of the input determined by the mouse input event, and determines whether the input order matches the order of the input data from the collected data and that the frequency is equal to or greater than a predetermined frequency;
A step 162 of removing an ideal value from a magnitude value of each input type of data having the same order of the input type and obtaining an average; And
And storing the average of the order and the type of the input type corresponding to the order in step 163.
삭제delete 제 1 항에 있어서,
상기 제 110 단계는,
동영상 저작수단의 타임라인 상의 임의의 동영상 클립에 대한 360도 서라운드 뷰 영상 삽입 기능이 선택됨에 따라, 저작환경 연동수단이 상기 선택된 동영상 클립의 태그를 읽어 GPS좌표, 촬영시간 정보를 인출한 다음, 360도 서라운드 뷰 영상 데이터들의 태그 가운데 일치하는 것을 판정하는 제 111 단계;
판정된 360도 서라운드 뷰 영상 데이터의 정보를 파라메타로 하여 서라운드 뷰 영상 재생기를 호출하는 제 112 단계;
호출된 서라운드 뷰 영상 재생기가 상기 판정된 360도 서라운드 뷰 영상 데이터를 적재하는 제 113 단계;를 포함하는 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법.
The method according to claim 1,
In operation 110,
The 360 ° surround view image inserting function for any moving picture clip on the time line of the moving picture authoring means is selected so that the authoring environment interlinking means reads the tag of the selected moving picture clip to retrieve the GPS coordinates and the photographing time information, 111) determining whether the surround view video data matches the tags of the surround view video data;
A step 112 of calling the surround-view image reproducer using the information of the determined 360-degree surround-view image data as parameters;
And the called surround-view image reproducer loads the determined 360-degree surround-view image data.
제 7 항에 있어서,
상기 제 111 단계에서, 저작환경 연동수단이 상기 동영상 클립의 태그로부터 카메라의 촬영 방향 및 화각정보를 더 인출하되,
상기 제 113 단계 이후,
상기 저작환경 연동수단이 상기 인출된 카메라의 촬영방향 및 화각정보에 해당하는 마우스 이벤트를 생성하여 상기 서라운드 뷰 영상 재생기로 인가하는 제 114 단계;를 더 포함하는 360도 서라운드 뷰 영상 데이터를 이용한 방송 컨텐츠의 저작방법.
8. The method of claim 7,
In step 111, the authoring environment linking means further fetches the photographing direction and angle of view information of the camera from the tag of the moving picture clip,
After step 113,
Wherein the authoring environment linking unit generates a mouse event corresponding to the photographing direction and the view angle information of the drawn camera and applies the generated mouse event to the surround view image player, The authoring method of.
KR1020130108945A 2013-09-11 2013-09-11 Method of authoring broadcasting contents using 360 degree surround view movie data KR101518814B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130108945A KR101518814B1 (en) 2013-09-11 2013-09-11 Method of authoring broadcasting contents using 360 degree surround view movie data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130108945A KR101518814B1 (en) 2013-09-11 2013-09-11 Method of authoring broadcasting contents using 360 degree surround view movie data

Publications (2)

Publication Number Publication Date
KR20130107263A KR20130107263A (en) 2013-10-01
KR101518814B1 true KR101518814B1 (en) 2015-05-28

Family

ID=49630687

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130108945A KR101518814B1 (en) 2013-09-11 2013-09-11 Method of authoring broadcasting contents using 360 degree surround view movie data

Country Status (1)

Country Link
KR (1) KR101518814B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10349046B2 (en) 2016-07-28 2019-07-09 Samsung Electronics Co., Ltd. Image display apparatus and method of displaying image for displaying 360-degree image on plurality of screens, each screen representing a different angle of the 360-degree image
US11062423B2 (en) 2016-08-16 2021-07-13 Samsung Electronics Co., Ltd. Image display apparatus and method of operating the same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9699437B2 (en) * 2014-03-03 2017-07-04 Nextvr Inc. Methods and apparatus for streaming content
KR101606539B1 (en) 2014-07-29 2016-03-25 주식회사 삼우소프트 Method for rendering three dimensional image of circle type display
US10805637B2 (en) 2016-05-16 2020-10-13 Samsung Electronics Co., Ltd. Video encoding method and apparatus, video decoding method and apparatus
WO2018169176A1 (en) * 2017-03-17 2018-09-20 엘지전자 주식회사 Method and device for transmitting and receiving 360-degree video on basis of quality
WO2018169139A1 (en) * 2017-03-17 2018-09-20 엘지전자 주식회사 Method and device for transmitting region information of 360-degree video
US20190387212A1 (en) * 2017-05-26 2019-12-19 Lg Electronics Inc. 360 video processing method and apparatus therefor
KR102274723B1 (en) * 2019-01-02 2021-07-08 주식회사 케이티 Device, method and computer program for editing time slice images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050003690A (en) * 2003-07-04 2005-01-12 주식회사 엠투그래픽스 System and method of automatic moving picture editing and storage media for the method
KR20090099860A (en) * 2008-03-18 2009-09-23 (주)블루비스 Apparatus and method for editing 3d image
KR20100039635A (en) * 2008-10-08 2010-04-16 삼성에스디에스 주식회사 Management system and method for virtual reality image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050003690A (en) * 2003-07-04 2005-01-12 주식회사 엠투그래픽스 System and method of automatic moving picture editing and storage media for the method
KR20090099860A (en) * 2008-03-18 2009-09-23 (주)블루비스 Apparatus and method for editing 3d image
KR20100039635A (en) * 2008-10-08 2010-04-16 삼성에스디에스 주식회사 Management system and method for virtual reality image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10349046B2 (en) 2016-07-28 2019-07-09 Samsung Electronics Co., Ltd. Image display apparatus and method of displaying image for displaying 360-degree image on plurality of screens, each screen representing a different angle of the 360-degree image
US11062423B2 (en) 2016-08-16 2021-07-13 Samsung Electronics Co., Ltd. Image display apparatus and method of operating the same

Also Published As

Publication number Publication date
KR20130107263A (en) 2013-10-01

Similar Documents

Publication Publication Date Title
KR101518814B1 (en) Method of authoring broadcasting contents using 360 degree surround view movie data
US12087330B2 (en) Masking in video stream
US10902676B2 (en) System and method of controlling a virtual camera
JP4760892B2 (en) Display control apparatus, display control method, and program
US20180249077A1 (en) Image processing apparatus, image processing method, and program
US11438510B2 (en) System and method for editing video contents automatically technical field
US9959905B1 (en) Methods and systems for 360-degree video post-production
JP2009077363A (en) Image processing device, dynamic image reproduction device, and processing method and program for them
JP2012085197A (en) Method and device for superimposition on wide-angle photographic image
JP2022510658A (en) Systems and methods for determining virtual camera paths
JP4697221B2 (en) Image processing apparatus, moving image reproduction apparatus, processing method and program therefor
US10554948B2 (en) Methods and systems for 360-degree video post-production
JP5393237B2 (en) Image display apparatus, control method therefor, program, and storage medium
US10582135B2 (en) Computer generated imagery compositors
US10536685B2 (en) Method and apparatus for generating lens-related metadata
KR20100065318A (en) Method and device for creating a modified video from an input video
JP5089648B2 (en) Video comparison device, video comparison method, video comparison program, and video comparison program recording medium
JP5473517B2 (en) Image processing device
WO2023100703A1 (en) Image production system, image production method, and program
JP2023070220A (en) Camera operation simulation device and program thereof, and camera image generation device and program thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180425

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee