KR20190043452A - Method and apparatus for monitoring moving picture using omni-directional multi-camera - Google Patents
Method and apparatus for monitoring moving picture using omni-directional multi-camera Download PDFInfo
- Publication number
- KR20190043452A KR20190043452A KR1020180073980A KR20180073980A KR20190043452A KR 20190043452 A KR20190043452 A KR 20190043452A KR 1020180073980 A KR1020180073980 A KR 1020180073980A KR 20180073980 A KR20180073980 A KR 20180073980A KR 20190043452 A KR20190043452 A KR 20190043452A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- image
- time
- real
- input image
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H04N5/23216—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
- H04N5/65—Holding-devices for protective discs or for picture masks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 동영상 실시간 모니터링을 수행하는 방법에 관한 것이다. 보다 상세하게는, 전방위 멀티카메라를 이용하여 동영상 실시간 모니터링을 수행하는 방법에 대한 것이다. The present invention relates to a method for performing real-time video monitoring. More particularly, the present invention relates to a method for performing real time video monitoring using a omnidirectional multi-camera.
고화질 전방위 카메라 영상을 획득하고자 하는 경우, 단일 카메라 촬영 방식으로는 렌즈왜곡 때문에 고품질 영상 획득이 불가능하므로, 두 개 이상의 카메라를 장착한 리그를 활용하는 촬영방식이 주류를 이루고 있다. In the case of acquiring a high-quality omnidirectional camera image, a single camera shooting method is not able to acquire high-quality images due to lens distortion, and thus, a shooting method utilizing a league equipped with two or more cameras is mainstream.
다만, 상술한 특수 촬영 방식에는 단일 카메라에 장착된 뷰파인더를 활용하여야 하였다. 이때, 기존의 촬영 영상 모니터링 방식으로는 장착된 멀티카메라의 자세, 색상 등을 일치시킬 수 없기 때문에 후 보정 작업이 필요할 수 있었다. 이때, 후 보정 작업을 수행하여야 하는바, 촬영의 실패 및 영상화질 열화 등의 문제로 전방위 동영상 중계 및 촬영에 어려움을 겪고 있는 상황이다.However, in the above-described special shooting method, a viewfinder mounted on a single camera has to be utilized. At this time, it is impossible to match the posture, color, etc. of the mounted multi-camera according to the conventional image monitoring method, so post-correction work may be required. In this case, since the post-correction operation must be performed, it is difficult to relay and capture an omnidirectional video due to problems such as failure in shooting and deterioration in image quality.
본 발명은 동영상 실시간 모니터링을 수행하는 방법 및 장치를 제공하는데 목적이 있다.It is an object of the present invention to provide a method and apparatus for performing real time video monitoring.
본 발명은 고화질 전방위 카메라 영상을 획득하는 경우에 촬영의 불편함을 해소하고, 전방위 동영상 품질을 개선하는 방법을 제공하는데 목적이 있다.An object of the present invention is to provide a method for solving the inconvenience of shooting when acquiring a high-quality omnidirectional camera image and improving omnidirectional moving image quality.
본 발명은 전방위 멀티카메라 촬영에 적합한 실시간 모니터링 기술을 제공하는데 목적이 있다. It is an object of the present invention to provide a real-time monitoring technology suitable for taking a panoramic multi-camera.
본 발명은 전방위 동영상 품질을 개선하기 위한 전방위 멀티카메라 촬영에 적합한 실시간 모니터링 방법 및 장치를 제공하는데 목적이 있다.It is an object of the present invention to provide a real-time monitoring method and apparatus suitable for omnidirectional multi-camera shooting for improving omnidirectional moving image quality.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.
본 발명의 일 실시예에 따라, 멀티카메라를 이용한 동영상 실시간 모니터링 방법을 제공할 수 있다. 이때, 멀티카메라를 이용한 동영상 실시간 모니터링 방법은 멀티카메라로부터 입력 영상을 수신하는 단계, 수신한 멀티카메라 입력 영상을 동기화 기반으로 실시간으로 캡처 및 재생하는 단계로써, 수신한 멀티카메라 입력 영상에서 ROI(Region Of Interest) 영역이 지정되고, 지정된 ROI 영역에 대한 마스크가 생성되어 캡처 및 재생이 수행되며, 재생되는 멀티카메라 입력 영상에 대한 실시간 카메라 자세 및 컬러보정처리기반의 실시간 스티칭 영상 처리를 수행하는 단계 및 영상 처리가 수행된 멀티카메라 입력 영상을 출력하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a video real-time monitoring method using a multi-camera can be provided. In this case, the video real-time monitoring method using a multi-camera includes receiving an input image from a multi-camera, capturing and reproducing the received multi-camera input image in real time based on synchronization, Performing a real-time stitching image processing based on a real-time camera posture and a color correction process for a multi-camera input image in which a mask for a specified ROI area is specified and captured and reproduced, And outputting the multi-camera input image subjected to the image processing.
본 발명에 따르면, 동영상 실시간 모니터링을 수행하는 방법 및 장치를 제공할 수 있다.According to the present invention, it is possible to provide a method and apparatus for performing real-time video monitoring.
본 발명에 따르면, 고화질 전방위 카메라 영상을 획득하는 경우에 촬영의 불편함을 해소하고, 전방위 동영상 품질을 개선하는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method for solving the inconvenience of shooting when acquiring a high-quality omnidirectional camera image and improving omnidirectional moving image quality.
본 발명에 따르면, 전방위 멀티카메라 촬영에 적합한 실시간 모니터링 기술을 제공할 수 있다.According to the present invention, it is possible to provide a real-time monitoring technique suitable for shooting in omnidirectional multi-cameras.
본 발명에 따르면, 전방위 동영상 품질을 개선하기 위한 전방위 멀티카메라 촬영에 적합한 실시간 모니터링 방법 및 장치를 제공할 수 있다.According to the present invention, it is possible to provide a real-time monitoring method and apparatus suitable for omnidirectional multi-camera shooting for improving omnidirectional moving image quality.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.
도 1은 타임코드 포맷을 화면에 표시하는 방법을 나타낸 도면이다.
도 2는 촬영자의 의도에 따라 입력 영상에 대하여 FOV(Field Of View)기반으로 크롭한 화면을 나타낸 도면이다.
도 3은 사용자가 수동으로 ROI 영역을 지정하는 화면을 나타낸 도면이다.
도 4는 사용자가 수동으로 ROI 영역을 지정하여 생성된 마스크를 나타내는 화면에 대한 도면이다.
도 5는 멀티카메라를 이용한 동영상 실시간 모니터링 방법을 나타낸 순서도이다.1 is a diagram showing a method of displaying a time code format on a screen.
2 is a view showing a screen that is cropped based on FOV (Field Of View) with respect to an input image according to a photographer's intention.
3 is a diagram illustrating a screen in which a user manually designates an ROI area.
4 is a diagram illustrating a mask that is created by a user manually designating an ROI area.
5 is a flowchart illustrating a method for real-time monitoring of moving images using a multi-camera.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.
본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description, well-known functions or constructions are not described in detail since they may obscure the subject matter of the present invention. In the drawings, parts not related to the description of the present invention are omitted, and like parts are denoted by similar reference numerals.
본 발명에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present invention, when an element is referred to as being " connected ", " coupled ", or " connected " to another element, this means not only a direct connection relationship but also an indirect connection relationship May also be included. Also, when an element is referred to as " comprising " or " having " another element, it is meant to include not only excluding another element but also another element .
본 발명에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 발명의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.In the present invention, the terms first, second, etc. are used only for the purpose of distinguishing one element from another, and the order or importance of the elements is not limited unless otherwise stated. Thus, within the scope of the present invention, the first component in one embodiment may be referred to as a second component in another embodiment, and similarly the second component in one embodiment may be referred to as a first component .
본 발명에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 발명의 범위에 포함된다.In the present invention, the components that are distinguished from each other are intended to clearly describe the respective features, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or a single component may be distributed into a plurality of hardware or software units. Accordingly, such integrated or distributed embodiments are included within the scope of the present invention, unless otherwise noted.
본 발명에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다.In the present invention, the components described in the various embodiments are not necessarily essential components, and some may be optional components. Accordingly, embodiments consisting of a subset of the components described in one embodiment are also included in the scope of the present invention. Also, embodiments that include other components in addition to the components described in the various embodiments are also included in the scope of the present invention.
하기에서는 본 발명의 실시예들에 따라 전방위 멀티카메라 촬영에 적합한 실시간 모니터링 방법 및 장치의 구현 내용을 서술한다.Hereinafter, real-time monitoring methods and apparatuses suitable for the omni-directional multi-camera shooting according to embodiments of the present invention will be described.
멀티카메라 입력영상 동기화 기반 실시간 캡처/재생 구현Real-time capture / playback based on multi-camera input video synchronization
일 예로, 멀티카메라로부터 입력 받은 영상을 동기화 기반으로 실시간 캡처하고 재생할 수 있다. 보다 상세하게는, 복수 개의 카메라로부터 수신한 입력 영상에 대한 동기화를 수행하여 결합된 영상을 실시간으로 캡처하고 재생할 수 있다. 이때, 영상캡처카드에서 지원하는 영상포맷품질을 갖는 복수 개의 영상 소스를 실시간으로 동시에 캡처 및 재생할 필요성이 있다. 일 예로, 복수 개의 영상은 10 내지 12개 이상의 영상 소스일 수 있다.For example, images input from a multi-camera can be captured and reproduced in real time based on synchronization. More particularly, the present invention can synchronize input images received from a plurality of cameras to capture and play back combined images in real time. At this time, there is a need to simultaneously capture and reproduce a plurality of image sources having the image format quality supported by the image capture card in real time. For example, the plurality of images may be 10 to 12 or more image sources.
기본 영상소스 캡처포맷은 “1920x1080@59.94fps, yuv422@8bits”일 수 있다. 이때, 상술한 캡처포맷 이외의 영상캡처포맷은 캡처카드가 제공하는 모든 캡처포맷을 지원해야 하며, 영상포맷 선택은 사용자가 선택하거나 자동으로 입력영상 포맷을 인식하여 캡처, 재생, 상태정보를 표식하고, 구별할 수 있어야 한다. 다만, 일 예로, 기본 영상소스의 캡처포맷은 다르게 설정될 수 있으며, 상술한 실시예로 한정되지 않는다.The default video source capture format may be " 1920x1080@59.94fps, yuv422 @ 8bits ". At this time, the image capture format other than the above-described capture format must support all the capture formats provided by the capture card, and the user can select the image format or automatically recognize the input image format to capture, , Should be distinguishable. However, as an example, the capture format of the basic video source may be set differently, and is not limited to the above-described embodiment.
또한, 일 예로, 캡처되는 영상소스 내의 타임코드를 영상별로 표시하여 재생 영상간의 동기화 여부를 확인할 수 있다. 보다 상세하게는, 멀티카메라로부터 획득되는 복수 개의 영상에 대해서 각각의 타임코드를 영상별로 표시하여 영상에 대한 동기화 여부를 확인할 수 있다. 이때, 일 예로, 캡처되는 영상소스 내에 인베딩된 “RT188 VITC” 타임코드를 영상별로 표시하여 재생 영상간의 동기화 여부를 확인할 수 있다. 이때, 타임코드에 대한 차이가 발생하는 경우, 차이점을 인지 및 확인할 수 있도록 구현될 수 있다. 이를 통해, 멀티카메라에서 복수 개의 영상에 대한 동기화가 수행될 수 있다.In addition, for example, the time code in the captured image source may be displayed for each image to confirm whether or not the reproduced images are synchronized with each other. More specifically, it is possible to confirm whether or not the images are synchronized by displaying each time code for each of a plurality of images obtained from the multi-camera. At this time, for example, the "RT188 VITC" time code embedded in the captured image source may be displayed for each image to confirm whether or not the reproduced images are synchronized with each other. At this time, when a difference occurs in the time code, the difference can be recognized and confirmed. Thus, synchronization of a plurality of images can be performed in the multi-camera.
또한, 일 예로, 캡처보드를 활용한 카메라 영상 모니터링 방식 이외에 저장된 동영상파일 및 이미지를 로딩하여 모니터링을 할 수 있다. 이때, 동영상 재생포맷, 압축 포맷 및 이미지 포맷 등 다양하게 지원될 수 있다. 일 예로, 재생 포맷은 AVI(UYUV 등 YUV 포맷)을 지원할 수 있으나, 상술한 실시예로 한정되지 않는다. 또한, 압축포맷은 mp4, HEVC, H264 등이 지원될 수 있으나, 상술한 실시예로 한정되지 않는다. 또한, 이미지 포맷은 BMP, PNG, JPG, TIFF 등이 지원될 수 있으나, 상술한 실시예로 한정되지 않는다. 이때, 일 예로, 동영상의 경우 개별 또는 전체 타임라인을 표식하여 사용자가 랜덤 액세스 등 파일재생 제어가 가능하도록 구현될 필요성이 있다.In addition, for example, video files and images stored in addition to a camera image monitoring method using a capture board can be loaded and monitored. At this time, various formats such as a moving picture playback format, a compression format, and an image format can be supported. For example, the playback format may support AVI (YUV format such as UYUV), but is not limited to the above-described embodiment. In addition, mp4, HEVC, H264, and the like may be supported as the compression format, but the present invention is not limited to the above-described embodiments. The image format may be BMP, PNG, JPG, TIFF, or the like, but is not limited to the above embodiment. In this case, for example, in the case of a moving image, it is necessary that the individual or all timelines be marked so that the user can control the file playback, such as random access.
또한, 입력영상은 개별/일괄로 좌우상하플립, 좌우회전, 확대축소 등 사용자 선택에 따른 변환제어가 가능할 수 있다. 이때, 일 예로, 상술한 변환제어는 속도저하 문제가 없도록 GPU 기반으로 구현될 필요성이 있다. 즉, 입력 영상에 대한 변환 제어도 가능할 수 있으며, 상술한 실시예로 한정되지 않는다.In addition, the input image can be converted / controlled according to user's selection such as left / right flip, left / right rotation, enlargement / reduction in individual / In this case, for example, the conversion control described above needs to be implemented on a GPU basis so that there is no speed reduction problem. That is, conversion control on the input image may be possible and is not limited to the above-described embodiment.
또한, 캡처된 입력 영상을 재생하는 경우, 다양한 재생 뷰가 지원되어야 한다. 이때, 재생은 프로젝션 뷰에 기초하여 재생될 수 있다. 또한, 일 예로, 모델방식은 2D 뷰, Equirectangular 뷰, Sphere 뷰, Cylinderical 뷰 및 Cubic 뷰 중 적어도 어느 하나 이상을 지원할 수 있다. 또한, 재생하는 영상에 대해서 입력 정보에 기초하여 확대 축소 등과 같은 변환 동작들이 처리속도 저하없이 구현될 수 있다. 이때, 일 예로, 마우스 등의 이벤트 수신 시 확대 축소되는 등의 기본적인 디지털 줌재생 트릭모드가 전체 처리속도저하 없이 구현될 수 있다. In addition, when reproducing the captured input image, various playback views must be supported. At this time, the reproduction can be reproduced based on the projection view. Also, as an example, the modeling scheme may support at least one of a 2D view, Equirectangular view, Sphere view, Cylinderical view, and Cubic view. Further, for the video to be reproduced, the conversion operations such as enlargement or reduction based on the input information can be implemented without degrading the processing speed. In this case, for example, a basic digital zoom reproduction trick mode such as zooming in upon reception of an event such as a mouse can be implemented without degrading the overall processing speed.
또한, 재생 시 그 위치에 따른 영상간 중첩부분에서는 알파블렌딩을 지원하고 그 농도를 제어할 수 있다. 이때, 본 발명의 실시예들에 의한 알고리즘에 따른 영상 중복도 자동 계산 표식이 전체 처리속도저하 없이 구현될 수 있다. 즉, 멀티카메라의 복수 영상 간의 중첩 부분에 대한 처리를 수행하여 상술한 바와 같이 캡처 및 재생될 수 있도록 할 수 있다.In addition, alpha blending can be supported and its density can be controlled in overlapping portions of images according to their positions during reproduction. At this time, the image redundancy automatic calculation mark according to the algorithm according to the embodiments of the present invention can be implemented without degrading the entire processing speed. That is, it is possible to perform processing for the overlapping portion between a plurality of images of the multi-camera so as to be captured and reproduced as described above.
또한, 본 발명의 실시예들에 따른 알고리즘 및 설계에 따라 색상 비교 방법을 구현하여 계산 표식이 필요할 수 있다. 이때, 그리드 및 수평/수직계 등 픽 방식 등 촬영 편의 툴 기능이 전체 처리속도저하 없이 구현될 필요성이 있다.In addition, calculation indications may be required by implementing the color comparison method according to the algorithm and design according to embodiments of the present invention. At this time, there is a need to realize a function of photographing convenience tool such as a grid and a horizontal / vertical system picking method without deteriorating the entire processing speed.
도 1은 타임코드 포맷을 화면에 표시하는 방법을 나타낸 도면이다.1 is a diagram showing a method of displaying a time code format on a screen.
도 1을 참조하면, 캡처보드를 활용한 카메라 영상 모니터링 방식 이외에 저장된 동영상파일 및 이미지를 로딩하여 모니터링을 할 수 있다. 이때, 동영상 재생포맷, 압축 포맷 및 이미지 포맷 등 멀티 포맷이 지원될 수 있으며, 이에 대해서는 상술한 바와 같다. 또한, 일 예로, 동영상의 경우, 개별 또는 전체 타임 라인(110)을 표식할 수 있다. 이를 통해, 사용자가 랜덤 액세스 등 파일 재생 제어가 가능하도록 할 수 있다. 보다 상세하게는, 도 1처럼 타임 라인(110)이 동영상에 포함될 수 있고, 이에 대한 정보는 파일 재생을 제어하는데 활용될 수 있다. 즉, 복수 개의 영상에서 상호 간의 타임 라인(110)을 확인하고, 이에 기초하여 동기화가 수행될 수 있다. 또한, 동영상에 포함된 타임 라인에 대한 정보를 이용하면 동영상을 제어하는데 도움이 될 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 타임 라인(110)을 통해 프로젝트 생성시 카메라 입력과 동영상 입력 이미지 입력을 선택할 수 있다. Referring to FIG. 1, video files and images stored in addition to the camera image monitoring method using the capture board can be loaded and monitored. At this time, a multi-format such as a moving picture playback format, a compression format, and an image format can be supported, as described above. In addition, for example, in the case of a moving picture, an individual or an
또한, 일 예로, 입력 영상 각각에 대해서 변환 제어가 가능할 수 있다. 또한, 일 예로, 입력 영상에 대해 일괄적으로 변환 제어가 가능할 수 있다. 즉, 멀티카메라 영상에서 변환 제어에 대해서는 개별 또는 일괄적으로 수행될 수 있다. 이때, 변환 제어는 좌우상하플립, 좌우회전 및 확대축소 등과 같은 사용자 입력에 의해 수행되는 제어일 수 있으며, 일 예로 표 1과 같을 수 있다.In addition, for example, conversion control may be possible for each input image. In addition, for example, conversion control can be collectively performed on the input image. That is, the conversion control in the multi-camera image can be performed individually or collectively. In this case, the conversion control may be a control performed by a user input such as left / right flip, left / right rotation, and enlargement / reduction, and may be as shown in Table 1 as an example.
[표 1][Table 1]
또한, 상술한 바와 같이, 캡처된 입력 영상을 재생하는 경우, 다양한 재생 뷰가 지원될 수 있다. 이때, 재생은 프로젝션 뷰에 기초하여 재생될 수 있다. 또한, 일 예로, 모델방식은 2D 뷰, Equirectangular 뷰, Sphere 뷰, Cylinderical 뷰 및 Cubic 뷰 중 적어도 어느 하나 이상을 지원할 수 있다. 또한, 재생하는 영상에 대해서 입력 정보에 기초하여 확대 축소 등과 같은 변환 동작들이 처리속도 저하없이 구현될 수 있다. 이때, 일 예로, 마우스 등의 이벤트 수신 시 확대 축소되는 등의 기본적인 디지털 줌재생 트릭모드가 전체 처리속도저하 없이 구현될 수 있다. 이때, 일 예로, GPU기반으로 Media Framework이 구현될 수 있다.Also, as described above, when reproducing the captured input image, various playback views can be supported. At this time, the reproduction can be reproduced based on the projection view. Also, as an example, the modeling scheme may support at least one of a 2D view, Equirectangular view, Sphere view, Cylinderical view, and Cubic view. Further, for the video to be reproduced, the conversion operations such as enlargement or reduction based on the input information can be implemented without degrading the processing speed. In this case, for example, a basic digital zoom reproduction trick mode such as zooming in upon reception of an event such as a mouse can be implemented without degrading the overall processing speed. At this time, for example, a Media Framework may be implemented based on a GPU.
또한, 일 예로, 영상을 재생하는 경우, 영생의 재생 위치에 따른 영상간 중첩부분에서는 알파블렌딩을 지원할 수 있다. 일 예로, 알파 블렌딩은 픽셀값을 주는 기능일 수 있으며, 알파블렌딩에 기초한 알고리즘에 따른 영상중복도 자동 계산 표식이 전체 처리속도 저하없이 구현될 수 있다. 이때, 화면에 알파 블랜딩을 수행하는 기능으로 체크박스를 활성화하고, 알파값 적용 수치를 넣으면 중복영역에 대한 블랜딩을 수행할 수 있다. 일 예로, 블랜딩 값은 0~1.0 값일 수 있으나, 이에 한정되지 않는다.In addition, for example, when an image is reproduced, alpha blending can be supported in an overlapping portion between images according to the reproduction position of eternal life. For example, alpha blending may be a function of giving a pixel value, and an image redundancy automatic calculation mark according to an algorithm based on alpha blending may be implemented without degrading the overall processing speed. At this time, it is possible to perform blending on overlapping area by activating the check box as a function of performing alpha blending on the screen and inserting an alpha value. For example, the blending value may be a value between 0 and 1.0, but is not limited thereto.
또한, 일 예로, 소정의 알고리즘 및 설계에 따라 칼라비교 방법을 구현하여 계산표식해야 하며 그리드 수평 / 수직계 등 픽 방식 등 촬영편의 툴 기능이 전체 처리속도저하 없이 구현할 수 있다. 이때, 일 예로, 영상을 보는 사용자는 영상에 있는 물체가 수평/수직선상에 있는지 육안으로 확인이 어려울 수 있다. 따라서, 영상에서 수평 수직선을 표시하여 사용자가 이를 구분함에 어렵지 않도록 제공해줄 필요성이 있다.In addition, for example, a color comparison method is required to be calculated and marked according to a predetermined algorithm and design, and a photographing convenience tool function such as a grid horizontal / vertical system pick method can be implemented without degrading the entire processing speed. In this case, for example, a user viewing an image may have difficulty visually confirming whether the object in the image is on a horizontal / vertical line. Therefore, there is a need to provide horizontal lines perpendicular to the image so that the user can easily distinguish them.
하기에서는 상술한 바에 기초하여 멀티카메라 입력영상 실시간 렌즈보정 영상 처리 구현 방법에 대해 서술한다.Hereinafter, a method for realizing the multi-camera input image real-time lens correction image processing will be described based on the above description.
멀티카메라 입력영상 실시간 렌즈보정 영상처리 구현Implementation of multi-camera input image real-time lens correction image processing
상술한 바에 기초하여, 멀티카메라에서 입력 영상을 실시간으로 캡처 및 재생할 수 있다. 이때, 일 예로, 소정의 운용절차에 따라 촬영렌즈 타입(Rectlinear, Circular Fish eye, Full frame Fisheye)과 렌즈 화각을 실시간으로 반영하여 재생하는 방법이 필요할 수 있다. 이때, 일 예로, 렌즈왜곡(Barrel, Pincusion)을 보정값을 수동 조정할 수 있는 툴이 구현되어야 할 필요성이 있다 이때, 일 예로, 입력 영상에 대해서 FOV(Field of View) 기반으로 크롭하거나 ViewPoint(image Center)을 수동 조정하여 영상 변환 재생을 수행할 수 있다. 즉, 촬영자의 의도에 따라 입력 영상을 변환하여 재생을 수행할 수 있다.Based on the above description, it is possible to capture and reproduce an input image in real time in a multi-camera. In this case, for example, a method of reflecting a photographic lens type (Rectlinear, Circular Fish eye, Full frame Fisheye) and a lens angle of view in real time according to a predetermined operation procedure may be required. In this case, for example, there is a need to implement a tool capable of manually adjusting the correction value of the lens distortion (Barrel, Pincusion). For example, the input image may be cropped based on a field of view (FOV) Center) can be manually adjusted to perform image conversion playback. That is, the input image can be converted according to the intention of the photographer to perform the reproduction.
일 예로, 도 2는 촬영자의 의도에 따라 입력 영상에 대하여 FOV기반으로 크롭한 화면을 나타낸 도면이다. 도 2를 참조하면, 실시간 스티칭 재생을 위해서 캡처 영상이 GPU에서 처리되도록 메모리 관리를 바탕으로 하는 고속영상 데이터 처리 구현방식이 지원되어야 하며 사용자의 요구에 따라 해당 영상의 구역을 설정하여 필요 해상도만큼의 업샘플링하여 전방위 동영상 실시간 생성이 되도록 구현할 수 있다. 보다 상세하게는, 이를 통해, 도 2(a)처럼 멀티카메라 각각은 입력 영상을 획득할 수 있다. 이때, 멀티카메라로부터 획득한 복수 개의 영상을 이용하여 실시간으로 스티칭 재생을 수행할 수 있다. 이때, 일 예로, 복수 개의 영상은 상술한 바와 같이 GPU에서 처리되도록 메모리 관리를 바탕으로 하는 고속영상 데이터 처리 구현방식이 지원될 수 있다. 또한, 일 예로, 해당 영상의 구역을 설정하여 필요 해상도만큼의 업샘플링하여 전방위 동영상 실시간 생성이 되도록 구현하여 도 2(b)와 같이 출력할 수 있다.For example, FIG. 2 is a view showing a screen in which an input image is cropped based on FOV according to the intention of a photographer. Referring to FIG. 2, a high-speed image data processing implementation method based on memory management is supposed to be supported so that the captured image is processed in the GPU for real-time stitching reproduction. So that the real-time moving image is generated in real time. More specifically, through this, each of the multi-cameras can acquire an input image as shown in FIG. 2 (a). At this time, the stitching reproduction can be performed in real time using a plurality of images obtained from the multi-camera. In this case, for example, a high-speed image data processing implementation scheme based on memory management may be supported so that a plurality of images are processed in the GPU as described above. In addition, for example, a zone of a corresponding image is set up, and up-sampling is performed by a required resolution to realize real-time moving image generation in real time, and output as shown in FIG. 2 (b).
또한, 도 3은 사용자가 수동으로 ROI(Region of Interest) 영역을 지정하는 화면을 나타낸 도면이다. 또한, 도 4는 사용자가 수동으로 ROI 영역을 지정하여 생성된 마스크를 나타내는 화면이다. 이때, 도 3 및 도 4를 참조하면, 두 영상의 중첩 영역의 의미는 동일한 공간 혹은 피사체를 두 영상이 포함하고 있음을 의미할 수 있다. 기본적으로는 이러한 중첩영역에서 두 영상을 이어 붙일 수 있는 SEAM을 도출할 수 있다. 이때, 두 영상의 중복 영역의 중앙에 위치한 픽셀을 선으로 연결하여 두 영상을 이어 붙이는 SEAM을 도출하는 경우를 화각 거리 중심 기반의 SEAM이라 할 수 있다. 하지만, 카메라 자세 좌표값으로만 할 경우 피사체의 거리 등 촬영 환경에 따라 화각 거리 중심 SEMA만으로 부족하기 때문에 사용자가 수동으로 ROI 영역을 지정하여 마스크를 생성하도록 할 수 있다. 즉, 영상에서 특정 영역을 사용자가 관심 있는 영역으로 지정하여 화각 중심 거리의 가중치를 부여할 수 있게 한다. 이때 마스크의 의미는 가중치를 가감할 수 있도록 중첩영역을 비선형적으로 정의하기 위해 ROI 마스크를 생성하도록 할 수 있다. 이때, ROI 영역은 사용자 입력에 기초하여 지정될 수 있다. 즉, 특정 영역이 ROI로 설정되고, 이 영역에 대한 마스크가 설정될 수 있다. 즉, 사용자가 관심 있는 영역에 대해서 영상 처리를 수행하여 관심 영역에 대한 출력 정보를 제공할 수 있으며, 상술한 실시예로 한정되지 않는다.FIG. 3 is a diagram illustrating a screen in which a user manually designates a region of interest (ROI) region. 4 is a screen showing a mask generated by a user manually designating an ROI area. 3 and 4, the meaning of the overlap region of two images may mean that the two images include the same space or the same object. Basically, we can derive a SEAM that can join two images in this overlapping region. In this case, the SEAM that connects the two images by connecting the pixels located at the center of the overlapped region of the two images is derived as SEAM based on the angle of view distance center. However, when only the camera posture coordinate value is used, only the SEMA of the angle of view is insufficient depending on the shooting environment such as the distance of the subject, so that the user can manually create the mask by designating the ROI area. That is, it is possible to designate a specific region in the image as a region of interest by the user, and to assign a weight of the angle of view center distance. At this time, the meaning of the mask may be such that an ROI mask is generated to nonlinearly define the overlapping area so as to add or subtract a weight. At this time, the ROI area can be specified based on the user input. That is, the specific area is set to ROI, and a mask for this area can be set. That is, the user can perform image processing on an area of interest to provide output information on a region of interest, and the present invention is not limited to the above-described embodiments.
또한, 하기에서는 상술한 바에 기초하여 실시간 카메라자세 및 컬러보정처리기반의 실시간 스티칭 영상처리 구현 방법에 대해 서술한다.In the following, a real-time camera posture and a real-time stitching image processing method based on color correction processing will be described on the basis of the above description.
실시간 카메라자세 및 컬러보정처리기반의 실시간 스티칭 영상처리 구현Real-time stitching image processing based on real-time camera posture and color correction processing
일 예로, 상술한 실시간 모니터링 재생(프로젝션)방식 환경에서 각 모델마다 입력되는 개별 영상별로 3~6축 자세 수동 조정이 가능할 수 있다. 또한, 조정된 기하학 정보를 바탕으로 GPU 영상처리되어 실시간 재생하도록 구현될 수 있다. 이때, 일 예로, 상술한 실시간 모니터링 재생(프로젝션)방식 환경 자세 조정 시 연관된 프로젝션 방식간(2D-3D간)에서는 기하학 변환식을 통하여 자세정보의 공유 및 일치화 기능이 지원되도록 구현될 수 있다.For example, in the above-described real-time monitoring reproduction (projection) system environment, it is possible to manually adjust the 3- to 6-axis position for each individual image input for each model. In addition, GPU image processing can be performed based on the adjusted geometry information and real time reproduction can be realized. At this time, for example, in the above-described real-time monitoring (projection) type environment posture adjustment, between the related projection methods (between 2D and 3D), the sharing and matching function of the attitude information can be supported through the geometric transformation.
이때, 상술한 실시간 모니터링 재생(프로젝션 방식)에서 처리되는 영상 중첩구간의 알파블렌딩 상황에서, 블랜딩 처리 알고리즘에 따라 영상중첩 구간의 Seam 처리, 블랜딩 처리를 조절하여 처리가 되도록 고속 GPU 영상처리가 구현될 수 있다. At this time, in the alpha blending state of the image overlapping section processed in the real-time monitoring reproduction (projection method), the high-speed GPU image processing is implemented so that the Seam processing and the blending processing of the image overlapping section are controlled according to the blending processing algorithm .
또한, 실시간 스티칭 재생을 위해서 캡처 영상이 GPU에서 처리되도록 메모리 관리를 바탕으로 하는 고속영상 데이터 처리 구현방식이 지원되어야 하며 사용자의 요구에 따라 해당 영상의 구역을 설정하여 필요 해상도만큼의 업샘플링하여 전방위 동영상 실시간 생성이 되도록 구현할 수 있다. 이때, 입력영상소스를 개별/일괄로 R/G/B 별 색조정, White Balance 조정에 대하여 실시간으로 변환하여 재생할 수 있도록 구현될 수 있다. 또한, 조정된 기하학 및 컬러정보 등은 재생방식을 포함하여 상태정보가 저장되는 템플릿기반 저장 기능이 구현되어야 하며 저장된 템플릿 로딩시 목적한 바 대로 재생되도록 구현할 수 있다. 즉, 복수 개의 영상에 대해서 상술한 보정 작업을 통해 원하는 영상을 출력할 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 임의의 워크 플로우에 기초하여 GUI를 구현할 수 있다. In addition, for real-time stitching playback, a high-speed image data processing method based on memory management should be supported so that the captured image is processed by the GPU. In accordance with the user's request, the corresponding image area is set up, Real-time video creation can be realized. At this time, it can be implemented so that the input image source can be converted in real time for the R / G / B color adjustment and the white balance adjustment individually / collectively and reproduced. In addition, the adjusted geometry, color information, and the like must be implemented in a template-based storage function that stores the state information including the reproduction method, and can be implemented so as to be reproduced as desired when the stored template is loaded. That is, a desired image can be output through the above-described correction operation for a plurality of images, and the present invention is not limited to the above-described embodiments. In addition, a GUI can be implemented based on any workflow.
도 5는 본 발명에 기초하여 전방위 멀티카메라를 이용하여 동영상 실시간 모니터링을 수행하는 방법을 나타낸 도면이다.FIG. 5 is a diagram illustrating a method for real-time monitoring of a moving image using a multi-camera using a panorama based on the present invention.
도 5를 참조하면, 멀티카메라로부터 입력 영상을 수신할 수 있다.(S510) 이때, 멀티카메라는 전방위 멀티카메라로 각각의 영상을 촬영하고, 이에 기초한 영상을 획득할 수 있다. 다음으로, 멀티카메라 입력 영상을 동기화 기반으로 실시간으로 캡처 및 재생을 수행할 수 있다.(S520) 이때, 도 1 내지 도 4에서 상술한 바와 같이, 입력 영상에 대한 동기화를 수행하기 위해서 타임 코드가 각각의 영상에 포함될 수 있으며, 상술한 바와 같은 포맷을 사용할 수 있다. 또한, 일 예로, 실시간 캡처 및 재생을 수행하는 경우에 있어서 캡처카드에서 지원하는 영상포맷품질을 갖는 복수 개의 영상 소스를 실시간으로 동시에 캡처하고 재생할 수 있다. 즉, 복수 개의 영상에 대해서 동일한 영상포맷품질에 기초하여 실시간으로 캡처 및 재생을 수행할 수 있다.5, an input image can be received from a multi-camera (S510). At this time, the multi-camera can capture each image with the multi-directional camera and acquire an image based on the image. Next, the multi-camera input image can be captured and reproduced in real time on the basis of synchronization (S520). As described above with reference to FIGS. 1 to 4, in order to perform synchronization on the input image, May be included in each image, and the above-described format may be used. In addition, for example, when performing real-time capturing and playback, a plurality of image sources having image format quality supported by the capture card can be simultaneously captured and reproduced in real time. That is, capture and playback can be performed in real time based on the same image format quality for a plurality of images.
또한, 일 예로, 멀티카메라의 입력 영상 동기화 기반 실시간 캡처 및 재생을 수행하는 경우에 있어서 재생 위치에 따른 영상간 중첩 부분에서는 알파블렌딩 처리를 수행하고, 그에 기초하여 농도를 제어할 수 있다. 이때, 일 예로, 재생 위치에 따른 영상간 중첩 부분은 상술한 타임 코드에 기초하여 동기화 여부를 통해 수행될 수 있으며, 이는 상술한 바와 같다.In addition, for example, when performing real-time capturing and playback based on input image synchronization of a multi-camera, alpha blending processing can be performed in overlapping portions between images according to the playback position, and concentration can be controlled based thereon. In this case, for example, overlapping portions between images according to the playback position may be performed through synchronization based on the time code described above, as described above.
다음으로, 실시간 카메라 자세 및 컬러보정처리기반의 실시간 스티칭 영상 처리를 수행할 수 있다.(S530) 그 후, 영상에 대한 출력을 수행할 수 있다.(S540) 이때, 도 1 내지 도 4에서 상술한 바와 같이, 실시간 카메라 자세 및 컬러보정처리기반의 실시간 스티칭 영상처리는 실시간 모니터링 재생에서 환경 자세 조정시 연관된 프로젝션 방식간(2D-3D간)에서는 기하학 변환식을 통하여 자세정보의 공유 및 일치화를 통해 수행될 수 있다. 또한, 실시간 카메라자세 및 컬러보정처리기반의 실시간 스티칭 영상처리 수행은 실시간 모니터링 재생에서 처리되는 영상 중첩구간의 알파블렌딩 상황에서, 소정의 블랜딩처리 알고리즘에 따라 영상중첩 구간의 Seam 처리, 블랜딩 처리를 조절하여 처리가 되도록 고속 GPU에 기초하여 수행될 수 있다. 또한, 일 예로, 실시간 카메라자세 및 컬러보정처리기반의 실시간 스티칭 영상처리는 사용자의 요구에 따라 해당 영상의 구역을 설정하여 필요 해상도만큼의 업샘플링하여 전방위 동영상을 실시간 생성하여 수행할 수 있으며, 상술한 실시예로 한정되지 않는다.Next, the real-time stitching image processing based on the real-time camera position and color correction processing can be performed (S530). Thereafter, the image can be output (S540) As described above, the real-time stitching image processing based on the real-time camera posture and the color correction processing is performed by sharing and matching attitude information through the geometric transformation between the related projection methods (2D-3D) . Also, real-time stitching image processing based on the real-time camera posture and color correction processing is performed by adjusting the seam processing and blending processing of the image overlapping section according to a predetermined blending processing algorithm in the alpha blending state of the image overlapping section processed in real- Gt; GPU < / RTI > In addition, the real-time stitching image processing based on the real-time camera posture and the color correction processing can be performed by creating a real-time moving image in real time by setting up a zone of the image according to a request of the user and up- It is not limited to an embodiment.
즉, 상술한 멀티카메라에 기초하여 넓은 화각을 동시에 촬영하기 위해 다수 개의 카메라로 구조화하여 화각을 나누어 촬영하는 방식에서 입력영상을 실시간으로 캡처 재생할 수 있도록 함으로서, 영상을 출력할 수 있으며, 상술한 실시예로 한정되지 않는다.That is, in order to simultaneously capture a wide angle of view on the basis of the above-described multi-camera, a plurality of cameras are structured to photograph the input image in real time in a manner of taking an image by dividing the angle of view, thereby outputting an image. But is not limited to an example.
본 발명의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 발명에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of the present invention are represented by a series of acts for clarity of explanation, they are not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present invention, the illustrative steps may additionally include other steps, include the remaining steps except for some steps, or may include additional steps other than some steps.
본 발명의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 발명의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the present invention are not intended to be all-inclusive and are intended to illustrate representative aspects of the present invention, and the elements described in the various embodiments may be applied independently or in a combination of two or more.
또한, 본 발명의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Furthermore, various embodiments of the invention may be implemented by means of hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays A general processor, a controller, a microcontroller, a microprocessor, and the like.
본 발명의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present invention includes software or machine-executable instructions (e.g., operating system, applications, firmware, programs, etc.) that cause an operation in accordance with the methods of the various embodiments to be performed on a device or computer, Instructions, and the like are stored and are non-transitory computer-readable medium executable on the device or computer.
--
Claims (1)
상기 멀티카메라로부터 입력 영상을 수신하는 단계;
상기 수신한 멀티카메라 입력 영상을 동기화 기반으로 실시간으로 캡처 및 재생하는 단계로써, 상기 수신한 멀티카메라 입력 영상에서 ROI(Region Of Interest) 영역이 지정되고, 상기 지정된 ROI 영역에 대한 마스크가 생성되어 상기 캡처 및 상기 재생이 수행되며;
상기 재생되는 멀티카메라 입력 영상에 대한 실시간 카메라 자세 및 컬러보정처리기반의 실시간 스티칭 영상 처리를 수행하는 단계; 및
상기 영상 처리가 수행된 멀티카메라 입력 영상을 출력하는 단계;를 포함하는 멀티카메라를 이용한 동영상 실시간 모니터링 방법.A video real-time monitoring method using a multi-camera,
Receiving an input image from the multi-camera;
Capturing and reproducing the received multi-camera input image in real time based on synchronization, the ROI (Region Of Interest) region is designated in the received multi-camera input image, a mask for the designated ROI region is generated, Capture and playback are performed;
Performing real-time stitching image processing based on a real-time camera posture and a color correction process on the multi-camera input image to be reproduced; And
And outputting the multi-camera input image on which the image processing has been performed.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170135465 | 2017-10-18 | ||
KR20170135465 | 2017-10-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190043452A true KR20190043452A (en) | 2019-04-26 |
KR102314478B1 KR102314478B1 (en) | 2021-10-19 |
Family
ID=66281422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180073980A KR102314478B1 (en) | 2017-10-18 | 2018-06-27 | Method and apparatus for monitoring moving picture using omni-directional multi-camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102314478B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120092090A (en) * | 2009-06-18 | 2012-08-20 | 스케일러블 디스플레이 테크놀로지스, 인크. | Applying mapping functions to image display |
KR20150141171A (en) * | 2013-12-09 | 2015-12-17 | 씨제이씨지브이 주식회사 | Method and system of generating images for multi-surface display |
-
2018
- 2018-06-27 KR KR1020180073980A patent/KR102314478B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120092090A (en) * | 2009-06-18 | 2012-08-20 | 스케일러블 디스플레이 테크놀로지스, 인크. | Applying mapping functions to image display |
KR20150141171A (en) * | 2013-12-09 | 2015-12-17 | 씨제이씨지브이 주식회사 | Method and system of generating images for multi-surface display |
Non-Patent Citations (2)
Title |
---|
비특허문헌 1(한국통신학회, 한국통신학회 학술대회논문집, 2014.06.30) * |
비특허문헌 2(한국통신학회. 한국통신학회 학술대회논문집. 2017.06.30) * |
Also Published As
Publication number | Publication date |
---|---|
KR102314478B1 (en) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10665261B2 (en) | Camera array including camera modules | |
US10368011B2 (en) | Camera array removing lens distortion | |
KR101201107B1 (en) | Minimizing dead zones in panoramic images | |
US9264695B2 (en) | System and method for multi-viewpoint video capture | |
US10154194B2 (en) | Video capturing and formatting system | |
US10116880B2 (en) | Image stitching method and image processing apparatus | |
KR20130112574A (en) | Apparatus and method for improving quality of enlarged image | |
US20200275079A1 (en) | Generating three-dimensional video content from a set of images captured by a camera array | |
JP2009124685A (en) | Method and system for combining videos for display in real-time | |
US10186301B1 (en) | Camera array including camera modules | |
WO2015198675A1 (en) | Image capture equipment | |
JP2007295559A (en) | Video processing and display | |
KR101725024B1 (en) | System for real time making of 360 degree VR video base on lookup table and Method for using the same | |
US10554948B2 (en) | Methods and systems for 360-degree video post-production | |
JP7424076B2 (en) | Image processing device, image processing system, imaging device, image processing method and program | |
US20220230275A1 (en) | Imaging system, image processing apparatus, imaging device, and recording medium | |
KR101704362B1 (en) | System for real time making of panoramic video base on lookup table and Method for using the same | |
US20130044258A1 (en) | Method for presenting video content on a hand-held electronic device | |
WO2019155904A1 (en) | Image processing device, image processing method, program, and projection system | |
JP6312426B2 (en) | Imaging apparatus and control method thereof | |
US11825213B2 (en) | Removal of image capture device from omnidirectional image created by stitching partial images | |
CN111200686A (en) | Photographed image synthesizing method, terminal, and computer-readable storage medium | |
JP2014176053A (en) | Image signal processor | |
KR102314478B1 (en) | Method and apparatus for monitoring moving picture using omni-directional multi-camera | |
JP2017050819A (en) | Generation device for panoramic image data, generation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |