[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100961616B1 - Method and system for calibrating of omnidirectional camera based on contour matching - Google Patents

Method and system for calibrating of omnidirectional camera based on contour matching Download PDF

Info

Publication number
KR100961616B1
KR100961616B1 KR1020080069151A KR20080069151A KR100961616B1 KR 100961616 B1 KR100961616 B1 KR 100961616B1 KR 1020080069151 A KR1020080069151 A KR 1020080069151A KR 20080069151 A KR20080069151 A KR 20080069151A KR 100961616 B1 KR100961616 B1 KR 100961616B1
Authority
KR
South Korea
Prior art keywords
reference image
contours
contour
epipolar
image
Prior art date
Application number
KR1020080069151A
Other languages
Korean (ko)
Other versions
KR20100008595A (en
Inventor
홍현기
황용호
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020080069151A priority Critical patent/KR100961616B1/en
Publication of KR20100008595A publication Critical patent/KR20100008595A/en
Application granted granted Critical
Publication of KR100961616B1 publication Critical patent/KR100961616B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 컨투어 정합을 이용한 전방향 카메라 보정 방법 및 시스템에 관한 것으로, 적어도 두 개의 전방향 영상에서 에피폴라(Epipolar) 기하 추정을 실행하고, 상기 적어도 두 개의 전방향 영상에 대하여 컨투어(contour)를 검출하며, 상기 에피폴라 기하 추정을 이용하여, 상기 검출된 컨투어를 정합하고, 상기 정합된 컨투어의, 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화하며, 상기 최소화된 에피폴라 평면 및 3차원 벡터의 각도 오차에 기초하여, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라간의 회전 및 이동 정보를 추정한다.The present invention relates to a method and system for omnidirectional camera correction using contour matching, wherein an epipolar geometric estimation is performed on at least two omnidirectional images, and a contour is performed on the at least two omnidirectional images. Detect and use the epipolar geometry estimation to match the detected contours, minimize angular errors of epipolar planes and three-dimensional vectors of the matched contours, and minimize the epipolar planes and three-dimensional vectors. Rotation and movement information between the cameras photographing the at least two omnidirectional images are estimated based on the angle error of.

컨투어 정합, 전방향 카메라, 보정 Contour registration, omni-directional camera, correction

Description

컨투어 정합을 이용한 전방향 카메라 보정 방법 및 시스템{METHOD AND SYSTEM FOR CALIBRATING OF OMNIDIRECTIONAL CAMERA BASED ON CONTOUR MATCHING}Method and system for omnidirectional camera correction using contour matching {METHOD AND SYSTEM FOR CALIBRATING OF OMNIDIRECTIONAL CAMERA BASED ON CONTOUR MATCHING}

본 발명은 컨투어 정합을 이용한 전방향 카메라 보정 방법 및 시스템에 관한 것으로, 보다 상세하게는 카메라의 회전 및 이동 정보를 추정할 수 있는 컨투어 정합을 이용한 전방향 카메라 보정 방법 및 시스템에 관한 것이다.The present invention relates to a omnidirectional camera correction method and system using contour matching, and more particularly, to a omnidirectional camera correction method and system using contour matching that can estimate the rotation and movement information of the camera.

넓은 시야각을 가지는 전방향(omnidirectional) 카메라 시스템은 감시 및 로보트 분야 등에서 다양하게 사용되고 있으며, 전방향 영상 시퀀스로부터 3차원 정보나 카메라의 움직임 정보를 해석하는 연구도 활발하게 진행되고 있다. 이 과정에서 영상 내의 모서리(corner), 직선, 곡선 등과 같은 특징 성분을 정확하게 검출 및 정합(matching) 기술을 전방향 영상에 적용하기 위한 추가적인 고려가 필요하다. 특히, 건물 등의 인공 구조물에서 흔히 존재하는 직선 등은 전방향 영상에서 컨투어(contour)로 사영(projection)되지만, 이를 자동으로 매칭하고 카메라의 움직임을 해석하는 연구는 비교적 적었다.The omnidirectional camera system having a wide viewing angle has been widely used in surveillance and robot fields, and researches for analyzing 3D information or camera motion information from omnidirectional video sequences are being actively conducted. In this process, further consideration is needed to apply a technique for accurately detecting and matching feature components such as corners, straight lines, curves, and the like to the omnidirectional image. In particular, straight lines and the like, which are commonly found in artificial structures such as buildings, are projected as contours in omnidirectional images, but there are relatively few studies for automatically matching them and analyzing camera movements.

종래의 전방향 영상 및 관련 이미징 시스템에서는, 대상 카메라 시스템의 사영 모델의 해석, 카메라의 움직임 정보를 포함하는 외부 매개변수의 추정과 3차원 공간의 해석, 이를 위한 전방향 영상의 처리 방법, 그리고 이후의 다양한 활용 등으로 구분된다. In the conventional omnidirectional image and related imaging system, the analysis of the projection model of the target camera system, the estimation of the external parameters including the motion information of the camera and the analysis of the three-dimensional space, the method of processing the omnidirectional image for this, and then It is divided into various uses.

다양하게 설계된 전방향 이미징 시스템의 사영 관계를 수학 및 실험적으로 해석하는 연구는 다중뷰(multi-view) 기하의 사용 여부에 따라 구분된다. 물체가 지니는 선형성(linearity) 또는 3차원 위치 등이 사전에 정의된 보정(calibration) 패턴 등을 기술과, 카메라의 움직임에 따라 취득된 영상 시퀀스에서의 기하조건을 이용하는 기술 등이 있다.The study of mathematically and experimentally interpreting the projective relationship of various designed omnidirectional imaging systems is divided according to the use of multi-view geometry. There are techniques such as a calibration pattern in which linearity or three-dimensional position of an object is defined in advance, and a technique using geometric conditions in an image sequence acquired according to the movement of a camera.

그러나, 종래에는 사용자가 직접 사전에 장면간의 대응관계(correspondence)를 설정해야 하며, 전방향 영상에서 컨투어 정보를 자동으로 정합하지 못하였다.However, in the related art, a user must set a correlation between scenes in advance, and the contour information cannot be automatically matched in the omnidirectional image.

본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 사전에 해석된 전방향 카메라의 사영모델을 대상으로 영상 내에 존재하는 대응 컨투어를 자동으로 검출한 다음, 각도 오차함수 최소화 과정을 통해 카메라의 회전 및 이동 정보를 추정 가능하도록 하는 것을 목적으로 한다.The present invention has been made to improve the prior art as described above, and automatically detects the corresponding contour existing in the image of the projection model of the omnidirectional camera previously analyzed, and then through the process of minimizing the angle error function An object of the present invention is to make it possible to estimate the rotational and movement information of.

또한, 본 발명은 컨투어를 자동으로 매칭하여 대응관계를 효율적으로 설정하는 방법을 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to provide a method for automatically setting contours and efficiently setting correspondences.

상기의 목적을 이루고 종래기술의 문제점을 해결하기 위하여 본 발명의 일측에 따른 컨투어 정합을 이용한 카메라간의 회전 및 이동 정보를 추정하는 방법은, 전방향 영상에서 기준 영상 및 참조 영상을 선택하고, 상기 기준 영상 및 참조 영상에서 에피폴라(Epipolar) 기하 추정을 실행하는 단계; 상기 에피폴라 기하 추정을 이용하여, 기준 영상 및 참조 영상 각각으로부터 컨투어(contour)들을 검출하는 단계; 상기 기준 영상 및 상기 참조 영상에 대해 일정 크기의 윈도우로 정규화된 영역 내에 밝기분포를 이용하여 상기 기준 영상 및 참조 영상 각각으로부터 검출된 컨투어들을 정합하는 단계; 상기 정합된 컨투어들 각각을 구성하는 양 끝점을 대상으로 에피폴라 평면을 구하는 단계; 상기 에피폴라 평면 및 상기 에피폴라 평면과 상기 정합된 컨투어가 이루는 평면과의 교선인 3차원 벡터의 각도 오차를 최소화하는 단계; 및 상기 최소화된 에피폴라 평면 및 3차원 벡터의 각도 오차에 기초하여, 상기 기준 영상 및 참조 영상을 촬영한 카메라간의 회전 및 이동 정보를 추정하는 단계를 포함한다.In order to achieve the above object and solve the problems of the prior art, a method for estimating rotation and movement information between cameras using contour matching according to one aspect of the present invention, selecting a reference image and a reference image from the omnidirectional image, Performing Epipolar geometric estimation on the image and the reference image; Detecting contours from each of a reference image and a reference image using the epipolar geometric estimation; Matching contours detected from each of the reference image and the reference image using a brightness distribution in a region normalized to a window having a predetermined size with respect to the reference image and the reference image; Obtaining an epipolar plane for both endpoints constituting each of the matched contours; Minimizing an angular error of a three-dimensional vector that is an intersection of the epipolar plane and the plane formed by the epipolar plane and the matched contour; And estimating rotation and movement information between cameras photographing the reference image and the reference image, based on the angle error of the minimized epipolar plane and the 3D vector.

본 발명의 또 다른 일측에 따르면, 상기 적어도 두 개의 전방향 영상에서 에피폴라 기하 추정을 실행하는 단계는, 해리스 모서리 연산자를 이용하여 특징점을 검출하는 단계, 및 상기 적어도 두 개의 전방향 영상의 특정 해당 영역의 상관도를 검사하여, 상기 적어도 두 개의 전방향 영상의 대응점을 결정하는 단계를 포함한다.According to another aspect of the present invention, the step of performing epipolar geometric estimation on the at least two omnidirectional images, detecting a feature point using a Harris corner operator, and the specific corresponding of the at least two omnidirectional images Determining a correspondence point of the at least two omnidirectional images by examining a correlation of an area.

본 발명의 또 다른 일측에 따르면, 상기 적어도 두 개의 전방향 영상의 대응점을 결정하는 단계는, 적어도 8개 이상의 상기 대응점에 의한 RANSAC 알고리즘에 의해 인라이어(inlier) 집합을 선택하여, 상기 적어도 두 개의 전방향 영상의 대응점을 결정하는 단계이다.According to another aspect of the invention, the step of determining the corresponding point of the at least two omnidirectional image, selecting an inlier set by the RANSAC algorithm by at least eight or more corresponding points, the at least two In this step, the corresponding point of the omnidirectional image is determined.

본 발명의 또 다른 일측에 따르면, 상기 적어도 두 개의 전방향 영상에 대하여 컨투어를 검출하는 단계는, 상기 적어도 두 개의 전방향 영상에 대하여 케니 연산자와 에지 연결 알고리즘을 이용하여, 컨투어를 검출하는 단계이다.According to another aspect of the present invention, the detecting of the contour of the at least two omnidirectional images is a step of detecting the contour of the at least two omnidirectional images using a Kenny operator and an edge connection algorithm. .

본 발명의 또 다른 일측에 따르면, 상기 적어도 두 개의 전방향 영상에 대하여 컨투어를 검출하는 단계는, 한 픽셀 두께의 컨투어를 검출하는 단계이다.According to another aspect of the present invention, detecting the contour of the at least two omnidirectional images is detecting a contour of one pixel thickness.

본 발명의 또 다른 일측에 따르면, 상기 에피폴라 기하 추정을 이용하여, 상기 검출된 컨투어를 정합하는 단계는, 검출된 컨투어를 구성하는 후보 점들의 일치 여부를 검사하는 단계, 상기 적어도 두 개의 전방향 영상 중에서 어느 하나의 영상인 제1영상의 끝점을 제1끝점 후보로 설정하고, 상기 적어도 두 개의 전방향 영상 중에서 어느 하나의 영상인 제2영상에서의 에피폴라 곡선과 컨투어의 연장선과의 교점을 대응 컨투어의 제2끝점 후보로 설정하는 단계, 및 상기 제1끝점 후보 및 제2끝점 후보를 이용한 3차원 벡터를 계산에 의하여, 상기 검출된 컨투어를 구성하는 끝점들을 정합하는 단계를 포함한다.According to another aspect of the invention, the step of matching the detected contour using the epipolar geometric estimation, checking whether the candidate points constituting the detected contour match, the at least two omnidirectional An end point of the first image, which is one of the images, is set as a first endpoint candidate, and an intersection of the epipolar curve and the extension line of the contour in the second image, which is one of the at least two omnidirectional images, is obtained. Setting the second endpoint candidate of the corresponding contour, and matching the endpoints constituting the detected contour by calculating a three-dimensional vector using the first endpoint candidate and the second endpoint candidate.

본 발명의 또 다른 일측에 따르면, 에피폴라 평면 및 3차원 벡터의 각도 오 차를 최소화하는 단계는, 상기 정합된 컨투어의, 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화하는 카메라 매개 변수를 추정하는 단계이고, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라의 회전 및 이동 정보를 추정하는 단계는, 상기 추정된 매개 변수에 기초하여, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라의 회전 및 이동 정보를 추정하는 단계이다.According to another aspect of the invention, minimizing the angular error of the epipolar plane and the three-dimensional vector, the camera parameters for minimizing the angular error of the epipolar plane and three-dimensional vector of the matched contour And estimating rotation and movement information of the camera photographing the at least two omnidirectional images, based on the estimated parameter, rotation and movement of the camera photographing the at least two omnidirectional images It is a step of estimating information.

본 발명의 일측에 따른 컨투어 정합을 이용한 전방향 카메라 보정 시스템은, 적어도 두 개의 전방향 영상에서 에피폴라(Epipolar) 기하 추정을 실행하는 에피폴라 기하 추정부, 상기 적어도 두 개의 전방향 영상에 대하여 컨투어(contour)를 검출하는 컨투어 검출부, 상기 에피폴라 기하 추정을 이용하여, 상기 검출된 컨투어를 정합하는 컨투어 정합부, 상기 정합된 컨투어의, 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화하는 오차 조정부, 및 상기 최소화된 에피폴라 평면 및 3차원 벡터의 각도 오차에 기초하여, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라간의 회전 및 이동 정보를 추정하는 카메라 보정부를 포함한다.An omnidirectional camera correction system using contour matching according to an aspect of the present invention includes an epipolar geometry estimator that performs epipolar geometry estimation on at least two omnidirectional images, and a contour on the at least two omnidirectional images. a contour detection unit for detecting a contour, a contour matching unit for matching the detected contours using the epipolar geometric estimation, and an error adjusting unit for minimizing an angular error of an epipolar plane and a three-dimensional vector of the matched contours And a camera correction unit for estimating rotation and movement information between cameras photographing the at least two omnidirectional images based on the angle error of the minimized epipolar plane and the 3D vector.

본 발명의 또 다른 일측에 따르면, 상기 에피폴라 기하 추정부는, 해리스 모서리 연산자를 이용하여 특징점을 검출하는 특징점 검출부, 및 상기 적어도 두 개의 전방향 영상의 특정 해당 영역의 상관도를 검사하여, 상기 적어도 두 개의 전방향 영상의 대응점을 결정하는 대응점 결정부를 포함한다.According to another aspect of the invention, the epipolar geometry estimator, a feature point detector for detecting a feature point using a Harris corner operator, and by examining the correlation of the particular corresponding region of the at least two omnidirectional image, And a correspondence point determiner for determining corresponding points of two omnidirectional images.

본 발명의 또 다른 일측에 따르면, 상기 대응점 결정부는, 적어도 8개 이상의 상기 대응점에 의한 RANSAC 알고리즘에 의해 인라이어(inlier) 집합을 선택하여, 상기 적어도 두 개의 전방향 영상의 대응점을 결정한다.According to another aspect of the present invention, the correspondence point determination unit selects an inlier set by a RANSAC algorithm based on at least eight correspondence points, and determines corresponding points of the at least two omnidirectional images.

본 발명의 또 다른 일측에 따르면, 상기 컨투어 검출부는, 상기 적어도 두 개의 전방향 영상에 대하여 케니 연산자와 에지 연결 알고리즘을 이용하여, 컨투어를 검출한다.According to another aspect of the present invention, the contour detection unit detects a contour on the at least two omnidirectional images by using a Kenny operator and an edge connection algorithm.

본 발명의 또 다른 일측에 따르면, 상기 컨투어 검출부는, 한 픽셀 두께의 컨투어를 검출한다.According to another aspect of the invention, the contour detector detects a contour of one pixel thickness.

본 발명의 또 다른 일측에 따르면, 상기 컨투어 정합부는, 검출된 컨투어를 구성하는 후보 점들의 일치 여부를 검사하고, 상기 적어도 두 개의 전방향 영상 중에서 어느 하나의 영상인 제1영상의 끝점을 제1끝점 후보로 설정하고, 상기 적어도 두 개의 전방향 영상 중에서 어느 하나의 영상인 제2영상에서의 에피폴라 곡선과 컨투어의 연장선과의 교점을 대응 컨투어의 제2끝점 후보로 설정하며, 상기 제1끝점 후보 및 제2끝점 후보를 이용한 3차원 벡터를 계산에 의하여, 상기 검출된 컨투어를 구성하는 끝점들을 정합한다.According to another aspect of the present invention, the contour matching unit checks whether the candidate points constituting the detected contour match, and determines an end point of the first image, which is one of the at least two omnidirectional images, of the first image. An intersection point between an epipolar curve and an extension line of a contour in a second image, which is one of the at least two omnidirectional images, is set as an endpoint candidate, and the first endpoint By calculating a three-dimensional vector using the candidate and the second endpoint candidate, the endpoints constituting the detected contour are matched.

본 발명의 또 다른 일측에 따르면, 상기 오차 조정부는, 상기 정합된 컨투어의, 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화하는 카메라 매개 변수를 추정하고, 상기 카메라 보정부는, 상기 추정된 매개 변수에 기초하여, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라의 회전 및 이동 정보를 추정한다.According to another aspect of the invention, the error adjusting unit, the camera parameters for minimizing the angular error of the epipolar plane and the three-dimensional vector of the matched contour, the camera correction unit, the estimated parameters The rotation and movement information of the camera photographing the at least two omnidirectional images is estimated.

본 발명에 따르면, 사전에 해석된 전방향 카메라의 사영모델을 대상으로 영상 내에 존재하는 대응 컨투어를 자동으로 검출한 다음, 각도 오차함수 최소화 과정을 통해 카메라의 회전 및 이동 정보를 추정할 수 있다.According to the present invention, it is possible to automatically detect the corresponding contour existing in the image of the projected model of the omnidirectional camera analyzed in advance, and then estimate the rotation and movement information of the camera by minimizing the angle error function.

또한, 본 발명에 따르면, 컨투어를 자동으로 매칭하여 대응관계를 효율적으로 설정하는 방법을 제공할 수 있다.In addition, according to the present invention, it is possible to provide a method for efficiently setting the correspondence by automatically matching the contour.

또한, 본 발명에 따르면, 영상 시퀀스로부터 카메라의 위치를 자동으로 추적하거나, 대상 장면의 3차원 구조를 복원하고 이를 이용하여 가상의 물체를 3차원적으로 합성하는 소프트웨어 등에 유용하게 사용될 수 있다. 특히, 보안 및 감시, 로봇 자동주행 등의 유비쿼터스 환경 구현분야의 핵심기술에 적용이 가능하며, 가상현실, 컴퓨터 애니메이션, 영화의 시각효과 등의 첨단 디지털 영상 콘텐츠 제작분야, 그리고 사진, 실내 건축 관련 서비스 산업 등에 널리 적용이 가능하다.Further, according to the present invention, the position of the camera can be automatically tracked from the image sequence, or the software can be useful for restoring the three-dimensional structure of the target scene and using this to synthesize virtual objects three-dimensionally. In particular, it can be applied to the core technologies in the realization of ubiquitous environment such as security, surveillance, and autonomous driving of robots, and the production of high-tech digital image contents such as virtual reality, computer animation, and visual effects of film, and services related to photography and interior architecture. It is widely applicable to industry.

이하 첨부된 도면들 및 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, but the present invention is not limited or limited to the embodiments. Like reference numerals in the drawings denote like elements.

도 1은 본 발명의 일례에 따른 컨투어 정합을 이용한 전방향 카메라 보정 시스템의 구성도이다. 도 1을 참조하여 본 발명의 일례에 따른 컨투어 정합을 이용한 전방향 카메라 보정 시스템을 설명하기로 한다.1 is a block diagram of a omni-directional camera correction system using contour matching according to an example of the present invention. An omnidirectional camera correction system using contour matching according to an example of the present invention will be described with reference to FIG. 1.

도 1에 도시된 바와 같이, 본 발명의 일례에 따른 컨투어 정합을 이용한 전방향 카메라 보정 시스템은, 에피폴라 기하 추정부(110), 컨투어 검출부(120), 컨투어 정합부(130), 오차 조정부(140), 및 카메라 보정부(150)를 포함하여 구성된다.As shown in FIG. 1, the omnidirectional camera correction system using contour matching according to an example of the present invention includes an epipolar geometry estimation unit 110, a contour detection unit 120, a contour matching unit 130, and an error adjustment unit ( 140, and a camera corrector 150.

참고적으로, 도 1에서는 본 발명과 직간접적으로 관련된 모듈(module)을 중심으로 도시하였다. 물론, 다른 도면들도 마찬가지로 적용될 수 있다. 다만, 당해 명세서에서 도시된 블록들은 모듈로 설계 가능하며, 상기 모듈은 특정한 기능이나 동작을 처리하는 하나의 단위를 의미한다. 그리고, 상기 모듈은 하드웨어 또는 소프트웨어로 구현할 수 있고, 하드웨어 및 소프트웨어의 결합으로 구현할 수도 있다.For reference, FIG. 1 illustrates a module directly or indirectly related to the present invention. Of course, other drawings may apply as well. However, blocks shown in the present specification can be designed as a module, and the module means one unit for processing a specific function or operation. The module may be implemented in hardware or software, or may be implemented in a combination of hardware and software.

에피폴라 기하 추정부(110)는 기준 영상 및 참조 영상을 포함하는 전방향 영상에서 에피폴라(Epipolar) 기하 추정을 실행한다.The epipolar geometry estimator 110 performs epipolar geometry estimation on an omnidirectional image including a reference image and a reference image.

상기 에피폴라 기하 추정부(110)는, 해리스 모서리 연산자를 이용하여 특징점을 검출하는 특징점 검출부, 및 상기 적어도 두 개의 전방향 영상의 특정 해당 영역의 상관도를 검사하여, 상기 적어도 두 개의 전방향 영상의 대응점을 결정하는 대응점 결정부를 포함하여 구성될 수 있다.The epipolar geometry estimator 110 detects a feature point by using a Harris edge operator, and examines a correlation between a specific corresponding region of the at least two omnidirectional images, thereby detecting the at least two omnidirectional images. It may be configured to include a corresponding point determiner for determining the corresponding point of the.

특히, 상기 대응점 결정부는, 적어도 8개 이상의 상기 대응점에 의한 RANSAC 알고리즘에 의해 인라이어(inlier) 집합을 선택하여, 상기 적어도 두 개의 전방향 영상의 대응점을 결정할 수 있다.In particular, the correspondence point determiner may select an inlier set by a RANSAC algorithm based on at least eight correspondence points to determine corresponding points of the at least two omnidirectional images.

일반적으로 두 시점에서 얻어진 전방향 영상간에는 에피폴라 구속조건(constraint)이 존재하며, 얻어진 요소 행렬로부터 에피폴라 기하를 추정하기 위해 최소 8개 이상의 대응점을 필요로 한다.In general, epipolar constraints exist between omnidirectional images obtained from two viewpoints, and at least eight corresponding points are required to estimate the epipolar geometry from the obtained element matrix.

해리스 모서리 연산자를 이용하여 특징점을 검출하고, 해당 영역의 상관도를 검사하여 두 영상의 대응점을 결정한다. 특징점의 대응관계를 바탕으로 요소 행렬 과 에피폴라 기하를 구하게 된다. 이 과정에서 영상간에 잘못 정합된 특징점으로 인해 정확하지 않은 요소 행렬이 추정되기 때문에, 강건한 알고리즘인 8 점(point) RANSAC 방법을 사용하여 인라이어(inlier) 집합을 선택하게 된다. 또한, 특이값 분해(Singular Value Decomposition)를 이용해, 요소 행렬을 상대적인 회전과 이동의 단위 방향벡터로 각각 분해하여 대응 컨투어의 정합을 위한 초기 매개변수로 사용한다.Feature points are detected using the Harris edge operator, and the corresponding points of the two images are determined by checking the correlation of the corresponding area. Based on the correspondence of the feature points, we obtain the element matrix and epipolar geometry. In this process, because an incorrect element matrix is estimated due to mismatched feature points between images, an inlier set is selected using a robust algorithm, 8 point RANSAC method. In addition, by using singular value decomposition, the element matrix is decomposed into unit rotation vectors of relative rotation and movement, and used as an initial parameter for matching the corresponding contour.

컨투어 검출부(120)는 적어도 두 개의 전방향 영상에 대하여 컨투어(contour)를 검출하게 된다.The contour detector 120 detects a contour on at least two omnidirectional images.

상기 컨투어 검출부(120)는 상기 적어도 두 개의 전방향 영상에 대하여 케니 연산자와 에지 연결 알고리즘을 이용하여 컨투어를 검출할 수 있으며, 특히 한 픽셀 두께의 컨투어를 검출할 수 있다. 즉, 컨투어 검출부(120)는 에피폴라 기하 추정을 이용하여, 기준 영상 및 참조 영상 각각으로부터 컨투어(contour)들을 검출할 수 있다.The contour detector 120 may detect a contour of the at least two omnidirectional images by using a Kenny operator and an edge connection algorithm. In particular, the contour detector 120 may detect a contour of one pixel thickness. That is, the contour detector 120 may detect contours from each of the reference image and the reference image by using epipolar geometry estimation.

컨투어 정합부(130)는 상기 에피폴라 기하 추정을 이용하여, 상기 검출된 컨투어를 정합한다.The contour matching unit 130 matches the detected contours using the epipolar geometric estimation.

보다 상세하게 설명하면, 상기 컨투어 정합부(130)는, 검출된 컨투어를 구성하는 후보 점들의 일치 여부를 검사하고, 상기 적어도 두 개의 전방향 영상 중에서 어느 하나의 영상인 제1영상의 끝점을 제1끝점 후보로 설정할 수 있다. 또한, 상기 적어도 두 개의 전방향 영상 중에서 어느 하나의 영상인 제2영상에서의 에피폴라 곡선과 컨투어의 연장선과의 교점을 대응 컨투어의 제2끝점 후보로 설정할 수 있다. 따라서, 컨투어 정합부(130)는 상기 제1끝점 후보 및 제2끝점 후보를 이용한 3차원 벡터를 계산에 의하여, 상기 검출된 컨투어를 구성하는 끝점들을 정합할 수 있다. 즉, 컨투어 정합부(130)는 기준 영상 및 참조 영상에 대해 일정 크기의 윈도우로 정규화된 영역 내에 밝기분포를 이용하여 상기 기준 영상 및 참조 영상 각각으로부터 검출된 컨투어들을 정합할 수 있다. In more detail, the contour matching unit 130 checks whether candidate points constituting the detected contour coincide with each other and checks an endpoint of the first image, which is one of the at least two omnidirectional images. Can be set as one endpoint candidate. The intersection of the epipolar curve and the extension line of the contour in the second image, which is one of the at least two omnidirectional images, may be set as the second endpoint candidate of the corresponding contour. Accordingly, the contour matching unit 130 may match the endpoints constituting the detected contour by calculating a three-dimensional vector using the first and second endpoint candidates. That is, the contour matching unit 130 may match the contours detected from each of the reference image and the reference image by using a brightness distribution in a region normalized to a window having a predetermined size with respect to the reference image and the reference image.

오차 조정부(140)는 상기 정합된 컨투어의, 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화한다.The error adjusting unit 140 minimizes the angle error of the epipolar plane and the three-dimensional vector of the matched contour.

카메라 보정부(150)는 상기 최소화된 에피폴라 평면 및 3차원 벡터의 각도 오차에 기초하여, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라간의 회전 및 이동 정보를 추정한다.The camera corrector 150 estimates rotation and movement information between the cameras photographing the at least two omnidirectional images based on the angle error of the minimized epipolar plane and the 3D vector.

이때, 상기 오차 조정부(140)는, 상기 정합된 컨투어의, 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화하는 카메라 매개 변수를 추정하고, 상기 카메라 보정부(150)는, 상기 추정된 매개 변수에 기초하여, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라의 회전 및 이동 정보를 추정할 수 있다.In this case, the error adjusting unit 140 estimates a camera parameter that minimizes an angular error of an epipolar plane and a three-dimensional vector of the matched contour, and the camera corrector 150 calculates the estimated parameter. The rotation and movement information of the camera photographing the at least two omnidirectional images may be estimated based on.

도 2는 본 발명의 일례에 따른 3차원 평면의 법선 벡터를 이용한 컨투어 분리를 설명하기 위한 도면이고, 도 3은 본 발명의 일례에 따른 컨투어가 이루는 3차원 평면의 법선벡터를 이용한 병합을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating contour separation using a three-dimensional plane normal vector according to an example of the present invention, and FIG. 3 illustrates a merge using a three-dimensional plane normal vector formed by a contour according to an example of the present invention. It is for the drawing.

도 2를 참조하여 본 발명의 일례에 따른 컨투어 검출 방법을 설명하고, 도 3을 참조하여 본 발명의 일례에 따른 컨투어가 이루는 3차원 평면의 법선벡터를 이용한 병합을 설명하기로 한다.A contour detection method according to an example of the present invention will be described with reference to FIG. 2, and merging using a normal vector of a three-dimensional plane formed by the contour according to an example of the present invention will be described with reference to FIG. 3.

각 영상에 대해 케니 연산자와 에지 연결 알고리즘을 이용해 한 픽셀(pixel) 두께의 컨투어를 검출하게 된다. 도 2는, 3차원 공간상에서 두 개의 선분이 전방향 영상에서 하나의 컨투어로 사영되는 경우, 카메라 중심과 3차원 선분으로 구성된 평면의 법선 벡터를 이용하여, 각기 다른 두 개의 컨투어로 구분하는 방법을 도 시하고 있다.For each image, Kenny's operator and edge concatenation algorithm are used to detect contours one pixel thick. FIG. 2 illustrates a method of dividing into two different contours by using a normal vector of planes composed of a camera center and three-dimensional segments when two line segments are projected as one contour in the omnidirectional image in three-dimensional space. It is also shown.

도 2에 도시된 바와 같이, Cs(210) 및 Ce(220)는 컨투어의 양 끝점이며 Ps(230), Pe(240)는 카메라 중심 Co(250)로 입사되어 각각 Cs(210) 및 Ce(220)에 사영되는 3차원 벡터이다.As shown in FIG. 2, Cs 210 and Ce 220 are both endpoints of the contour and Ps 230 and Pe 240 are incident on camera center Co 250 and Cs 210 and Ce ( Is a three-dimensional vector projected to 220).

한 개 이상의 3차원 선분이 연결된 컨투어를 분리하기 위해, 시작점 Cs(210)부터 Ce(220)까지 궤적을 추적하면서 두 개의 3차원 벡터를 외적(Ps×Pk)한다. 계산된 법선 벡터가 사전에 설정된 임계값보다 크게 변화하면, Ck(260)를 기준으로 별개의 컨투어로 분리된다. 대상 컨투어가 이루는 법선 벡터의 방향이 일정한 오차범위 내에 있는 경우, 연결된 하나의 컨투어로 병합한다. In order to separate the contour to which one or more three-dimensional line segments are connected, two three-dimensional vectors are cross-marked (Ps × Pk) while tracking a trajectory from the starting point Cs 210 to Ce 220. If the calculated normal vector changes larger than a preset threshold, it is separated into separate contours based on Ck 260. When the direction of the normal vector formed by the target contour is within a certain error range, merged into one connected contour.

도 3은 이와 같이, 초기 단계에서 얻어진 짧은 컨투어들을 하나의 컨투어로 병합하는 과정을 도시하고 있다.3 shows a process of merging the short contours obtained in the initial stage into one contour.

도 4는 본 발명의 일례에 따른 기준 영상의 컨투어에 대한 참조 영상의 각 투어어의 후보 끝점의 위치를 설명하기 위한 도면이다. 도 4를 참조하여 본 발명의 일례에 따른 기준 영상의 컨투어에 대한 참조 영상의 각 투어어의 후보 끝점의 위치를 설명하기로 한다.4 is a diagram for describing positions of candidate end points of each tourer of a reference image with respect to a contour of the reference image according to an embodiment of the present invention. Referring to FIG. 4, positions of candidate end points of respective tourers of the reference image with respect to the contour of the reference image according to an example of the present invention will be described.

초기에 추정된 에피폴라 기하를 이용하여 영상간 컨투어의 대응관계를 결정하고 컨투어 양 끝점의 대응점을 일치시킨다.The epipolar geometry estimated at the beginning is used to determine the correspondence of the contours between the images and to match the corresponding points of both contours.

컨투어는 두개의 끝점(440, 450)으로 기술되는 경우에는, 제1영상(기준 영상)의 컨투어에 대응되는 제2영상(참조 영상)의 컨투어를 결정하기 위해, 대상 컨투어를 구성하는 후보 점들의 일치 여부를 검사한다. 기준 영상의 컨투어 끝 점(420)에 대하여, 참조 영상에서의 에피폴라 곡선(450)과 각 컨투어의 연장선(430)과의 교점을 대응 컨투어의 양 끝점(440) 후보로 설정한다. 이 때, 양 끝점에 사영되는 3차원 벡터는 에피폴라 평면과 컨투어가 이루는 평면과의 교선이므로 두 평면의 법선 벡터의 외적으로 계산할 수 있다. When the contour is described as two end points 440 and 450, the candidate points constituting the target contour may be used to determine the contour of the second image (reference image) corresponding to the contour of the first image (reference image). Check for match. For the contour end point 420 of the reference image, the intersection point of the epipolar curve 450 and the extension line 430 of each contour in the reference image is set as candidates for both end points 440 of the corresponding contour. At this time, since the three-dimensional vector projected at both ends is an intersection between the epipolar plane and the plane formed by the contour, it can be calculated as the external of the normal vectors of the two planes.

두 장의 영상에서 컨투어의 대응관계를 결정하기 위해 각 컨투어를 구성하는 끝점들을 정확하게 정합해야 한다. 강건한 방법을 적용해도 특징점의 정합에 의해 얻어진 초기 에피폴라 기하정보는 어느 정도의 오차가 발생한다. 따라서, 참조 영상에서 컨투어의 끝점 후보 위치가 정확하지 않기 때문에 일반적인 영상에 사용되는 정방형(rectangular) 윈도우는 전방향 영상의 정합과정에서 정확한 결과를 얻기 힘들다. In order to determine the correspondence of the contours in the two images, the end points constituting each contour must be accurately matched. Even if the robust method is applied, the initial epipolar geometry obtained by the matching of the feature points causes some error. Therefore, since the end point candidate position of the contour in the reference image is not accurate, the rectangular window used for the general image is difficult to obtain an accurate result in the matching process of the omnidirectional image.

따라서, 전방향 영상 내의 위치에 따라 고려되는 영역을 가변적으로 설정하고, 이를 일정 크기의 윈도우로 정규화하는 능동적 정합 방법을 이용하게 된다.Accordingly, an active matching method of variably setting a region considered according to a position in the omnidirectional image and normalizing it to a window having a predetermined size is used.

정규화된 영역 내에 밝기분포를 비교하여 일치 여부를 판단하기 위하여 다음의 수학식1이 사용된다.Equation 1 is used to compare the brightness distributions within the normalized area and determine whether they match.

Figure 112008051170264-pat00001
Figure 112008051170264-pat00001

(단, I 및 J는 윈도우 내 영상의 밝기,

Figure 112008051170264-pat00002
Figure 112008051170264-pat00003
는 윈도우 내 밝기의 평균임 .) Where I and J are the brightness of the image in the window,
Figure 112008051170264-pat00002
And
Figure 112008051170264-pat00003
Is the average of the brightness within the window.)

상기와 같은 수학식1의 계산을 통하여 가장 높은 값을 갖는 컨투어가 제2영상(참조 영상)에서의 대응 컨투어로 결정되며, 동시에 해당 위치가 제1영상(기준 영상) 내 컨투어의 끝점과 대응되는 점이다.Through the calculation of Equation 1, the contour having the highest value is determined as the corresponding contour in the second image (reference image), and at the same time, the corresponding position corresponds to the end point of the contour in the first image (reference image). Is the point.

최종적으로 양 끝점을 일치시킨 대응 컨투어로부터 대응 평면의 각도 오차 최소화를 통해 카메라의 매개변수를 추정한다. 두 영상에서 서로 대응되는 m개의 컨투어를 구성하는 2m개의 양 끝점을 대상으로 에피폴라 평면을 구하며, 각 평면의 법선 벡터와 대응점의 3차원 벡터를 고려하여 회전 및 이동정보에 따른 각도의 오차를 계산한다.Finally, the parameters of the camera are estimated by minimizing the angular error of the corresponding plane from the corresponding contour that coincides both ends. The epipolar plane is obtained from the 2m end points that make up the m contours corresponding to each other in the two images, and the angle error is calculated based on the rotation and movement information by considering the normal vector of each plane and the 3D vector of the corresponding point. do.

전방향 카메라 모델을 이용하여 제1영상(기준 영상) 및 제2영상(참조 영상)의 각각의 중심에서부터 해당 영상 내 존재하는 i번째 대응점을 지나는 3차원 벡터(Pi0 와 Pi1)를 구하게 된다. 두 영상의 중심을 연결한 기저선(baseline) 벡터와 Pi0 가 이루는 참조 영상의 에피폴라 평면의 법선벡터(ni1), 그리고 같은 방식으로 기준 영상의 평면 법선벡터(ni0)를 다음의 수학식 2를 이용해 구한다.Using the omnidirectional camera model, three-dimensional vectors Pi0 and Pi1 passing from the center of each of the first image (reference image) and the second image (reference image) passing through the i-th corresponding point existing in the image are obtained. The baseline vector connecting the centers of the two images, the normal vector of the epipolar plane of the reference image formed by Pi0 (ni1), and the planar normal vector of the reference image (ni0) in the same manner are expressed by the following equation (2). Obtain

Figure 112008051170264-pat00004
Figure 112008051170264-pat00004

(단, '^'는 벡터의 단위벡터를 나타내며, Θ와 Φ는 각각 회전과 이동의 y축에 대한 회전각임.)('^' Represents the unit vector of the vector, and Θ and Φ are rotation angles about the y-axis of rotation and movement, respectively.)

카메라의 회전과 이동에 대한 추정이 정확한 경우와 그렇지 않은 경우에 상기 수학식 2의 결과는 각각 0, 1의 값을 나타내게 되며, 대응 컨투어의 양 끝점에 대해 기준시점과 참조시점에서 각도 오차를 계산하기 때문에 0과 1사이로 정규화하기 위해 4m으로 나누게 된다.When the estimation of the rotation and movement of the camera is accurate or not, the result of Equation 2 shows values of 0 and 1, respectively, and calculates the angle error at the reference point and the reference point for both end points of the corresponding contour. We divide by 4m to normalize between 0 and 1.

도 5는 본 발명의 일례에 따른 해리스 모서리 검출기로 검출된 특징점을 도시한 도면이다.5 is a diagram illustrating feature points detected by a Harris corner detector according to an example of the present invention.

본 발명의 일례에 따르면, 두 장의 전방향 영상으로부터 대응 컨투어를 자동으로 결정하고, 기하학적 관계를 이용하여 카메라의 회전과 이동에 대한 방향벡터를 추정할 수 있다.According to an example of the present invention, a corresponding contour is automatically determined from two omnidirectional images, and a geometric vector can be used to estimate a direction vector for rotation and movement of a camera.

제안된 알고리즘의 정확도를 검증하기 위해 POV-Ray 렌더링 소프트웨어를 이용하여, 등거리 사영모델을 갖는 가상의 카메라로 취득한 합성영상과 어안렌즈를 장착한 디지털 카메라로 취득된 영상을 이용할 수 있다.In order to verify the accuracy of the proposed algorithm, we can use the POV-Ray rendering software to use the composite image acquired by the virtual camera with equidistant projection model and the image acquired by the digital camera equipped with fisheye lens.

도 5는 등거리 사영모델을 갖는 전방향 영상에서, 초기 에피폴라 기하를 추정하기 위해 해리스 모서리 검출기를 이용하여 특징점을 얻은 결과를 도시하고 있다.FIG. 5 illustrates the results of obtaining feature points using a Harris edge detector to estimate an initial epipolar geometry in an omnidirectional image having an equidistant projection model.

영상의 둘레에 존재하는 경계부분은 카메라의 움직임에 따라 중복되지 않을 수 있기 때문에 전방향 영상의 중심으로부터 반지름 95% 이내에 있는 특징점만 선 택하게 된다. 제1영상(기준 영상)(510)의 경우에는 1193개의 특징점이 검출될 수 있고, 제2영상(참조 영상)(520)의 경우에는 1169개의 특징점이 검출될 수 있다.Since the boundary part around the image may not overlap with the movement of the camera, only the feature points within 95% of the radius of the omnidirectional image are selected. In the case of the first image (reference image) 510, 1193 feature points may be detected, and in the case of the second image (reference image) 520, 1169 feature points may be detected.

도 6은 본 발명의 일례에 따른 컨투어 병합을 위해 3차원 선분별로 분리된 컨투어 성분을 도시한 도면이고, 도 7은 본 발명의 일례에 따른 두 개 이상의 컨투어가 인접한 특징점을 도시한 도면이다.FIG. 6 is a diagram illustrating contour components separated by three-dimensional line segments for merging contours according to an example of the present invention, and FIG. 7 is a diagram illustrating two or more contours adjacent feature points according to an example of the present invention.

도 6에 도시된 바와 같이, 제1영상(기준 영상)(610)에는 89개의 컨투어가 분포하고, 제2영상(참조 영상)에는 104개의 컨투어가 분포하게 된다.As illustrated in FIG. 6, 89 contours are distributed in the first image (reference image) 610, and 104 contours are distributed in the second image (reference image).

또한, 도 7에 도시된 바와 같이, 제1영상(기준 영상)(710) 및 제2영상(참조 영상)에는 각각 213개, 217개의 특징점이 선택될 수 있다.As illustrated in FIG. 7, 213 and 217 feature points may be selected for the first image (reference image) 710 and the second image (reference image), respectively.

도 8은 본 발명의 일례에 따른 병합된 컨투어 영상을 도시한 도면이다.8 illustrates a merged contour image according to an example of the present invention.

도 8에 도시된 바와 같이, 컨투어가 이루는 평면의 법선벡터의 방향의 오차범위 2°내에 있는 성분끼리 병합하여 긴 컨투어를 구성하게 된다.As shown in FIG. 8, components within an error range of 2 ° in the direction of the normal vector of the plane formed by the contour are merged to form a long contour.

본 발명의 일례에 따르면 제1영상(기준 영상)(810)과 제2영상(참조 영상)(820)에서 각각 16개, 23개의 컨투어가 결정되었으며, 각도만을 고려했기 때문에 잘못 병합된 컨투어도 존재하지만 이 정보는 대응 컨투어의 정합과정에서 보정된다.According to an example of the present invention, 16 and 23 contours are determined in the first image (the reference image) 810 and the second image (the reference image) 820, respectively, and the contours that are incorrectly merged are also present because only the angle is considered. However, this information is corrected during matching of the corresponding contour.

도 9는 본 발명의 일례에 따른 컨투어 끝점이 일치된 8쌍의 대응 컨투어를 도시한 도면이다.9 illustrates eight pairs of corresponding contours whose contour endpoints coincide in accordance with an example of the present invention.

본 발명의 일례에 따르면, 능동적 윈도우 내에 밝기의 상관도를 이용해도 일부 끝점에서 오차가 존재하지만, 제1영상(기준 영상)(910)과 제2영상(참조 영 상)(920)에서 컨투어의 대응관계가 정확하게 설정된다.According to an example of the present invention, although there is an error at some end points even when the correlation of brightness is used in the active window, the contour of the contour in the first image (the reference image) 910 and the second image (the reference image) 920 is used. Correspondence is set correctly.

도 10은 본 발명의 일례에 따른 컨투어 정합을 이용한 전방향 카메라 보정 방법을 설명하기 위한 흐름도이다. 도 10를 참조하여 본 발명의 일례에 따른 컨투어 정합을 이용한 전방향 카메라 보정 방법을 설명하기로 한다.10 is a flowchart illustrating a omnidirectional camera correction method using contour matching according to an example of the present invention. An omnidirectional camera correction method using contour matching according to an example of the present invention will be described with reference to FIG. 10.

전방향 카메라의 사영 모델을 추정한 후(S1010), 적어도 두 개의 전방향 영상에서 에피폴라(Epipolar) 기하 추정을 실행한다(S1020).After estimating the projection model of the omnidirectional camera (S1010), epipolar geometric estimation is performed on at least two omnidirectional images (S1020).

상기 에피폴라 기하 추정을 실행 시에는, 해리스 모서리 연산자를 이용하여 특징점을 검출하고, 상기 적어도 두 개의 전방향 영상의 특정 해당 영역의 상관도를 검사하여, 상기 적어도 두 개의 전방향 영상의 대응점을 결정할 수 있다.In performing the epipolar geometry estimation, a feature point is detected using a Harris corner operator, and a correlation point of a specific corresponding region of the at least two omnidirectional images is determined to determine corresponding points of the at least two omnidirectional images. Can be.

또한, 상기와 같이 적어도 두 개의 전방향 영상의 대응점을 결정 시에는, 적어도 8개 이상의 상기 대응점에 의한 RANSAC 알고리즘에 의해 인라이어(inlier) 집합을 선택하여, 상기 적어도 두 개의 전방향 영상의 대응점을 결정할 수 있다.In addition, when determining a corresponding point of at least two omnidirectional images as described above, an inlier set is selected by a RANSAC algorithm by at least eight corresponding points, and the corresponding points of the at least two omnidirectional images are selected. You can decide.

이후, 상기 적어도 두 개의 전방향 영상에 대하여 컨투어(contour)를 검출한다(S1030).Thereafter, a contour is detected with respect to the at least two omnidirectional images (S1030).

이때, 상기 적어도 두 개의 전방향 영상에 대하여 케니 연산자와 에지 연결 알고리즘을 이용하여 컨투어를 검출할 수 있으며, 한 픽셀 두께의 컨투어를 검출할 수 있다.In this case, a contour may be detected on the at least two omnidirectional images using a Kenny operator and an edge connection algorithm, and a contour having a thickness of one pixel may be detected.

이후, 상기 에피폴라 기하 추정을 이용하여, 상기 검출된 컨투어를 정합한다(S1040).Thereafter, the detected contour is matched using the epipolar geometry estimation (S1040).

이때, 검출된 컨투어를 구성하는 후보 점들의 일치 여부를 검사하며, 상기 적어도 두 개의 전방향 영상 중에서 어느 하나의 영상인 제1영상의 끝점을 제1끝점 후보로 설정하고, 상기 적어도 두 개의 전방향 영상 중에서 어느 하나의 영상인 제2영상에서의 에피폴라 곡선과 컨투어의 연장선과의 교점을 대응 컨투어의 제2끝점 후보로 설정할 수 있다. 그리고, 상기 제1끝점 후보 및 제2끝점 후보를 이용한 3차원 벡터를 계산에 의하여, 상기 검출된 컨투어를 구성하는 끝점들을 정합할 수 있다.In this case, the candidate points constituting the detected contour are matched to each other, and an end point of a first image, which is one of the at least two omnidirectional images, is set as a first endpoint candidate, and the at least two omnidirectional directions An intersection of the epipolar curve and the extension line of the contour in the second image, which is one of the images, may be set as the second endpoint candidate of the corresponding contour. The endpoints constituting the detected contour may be matched by calculating a three-dimensional vector using the first and second endpoint candidates.

이후, 상기 정합된 컨투어의, 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화하고(S1050), 상기 최소화된 에피폴라 평면 및 3차원 벡터의 각도 오차에 기초하여, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라간의 회전 및 이동 정보를 추정할 수 있다(S1060).Then, the angle error of the epipolar plane and the three-dimensional vector of the matched contour is minimized (S1050), and based on the angle error of the minimized epipolar plane and the three-dimensional vector, the at least two omnidirectional images are taken. Rotation and movement information between the photographed cameras may be estimated (S1060).

이때, 상기 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화 시에, 상기 정합된 컨투어의, 에피폴라 평면 및 3차원 벡터의 각도 오차를 최소화하는 카메라 매개 변수를 추정할 수 있다.At this time, when minimizing the angular error of the epipolar plane and the three-dimensional vector, it is possible to estimate a camera parameter that minimizes the angular error of the epipolar plane and the three-dimensional vector of the matched contour.

또한, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라의 회전 및 이동 정보를 추정할 때에, 상기 추정된 매개 변수에 기초하여, 상기 적어도 두 개의 전방향 영상을 촬영한 카메라의 회전 및 이동 정보를 추정하도록 구성될 수 있다.In addition, when estimating rotation and movement information of the camera photographing the at least two omnidirectional images, the rotation and movement information of the camera photographing the at least two omnidirectional images is estimated based on the estimated parameter. It can be configured to.

따라서, 본 발명의 일례에 따르면, 사전에 해석된 전방향 카메라의 사영모델을 대상으로 영상 내에 존재하는 대응 컨투어를 자동으로 검출한 다음, 각도 오차함수 최소화 과정을 통해 카메라의 회전 및 이동 정보를 추정할 수 있다.Therefore, according to an example of the present invention, a corresponding contour existing in the image is automatically detected for a projected model of the omnidirectional camera previously analyzed, and then the rotation and movement information of the camera is estimated by minimizing the angle error function. can do.

또한 본 발명의 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함 한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들 이거나 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. Embodiments of the invention also include computer-readable media containing program instructions for performing various computer-implemented operations. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions may be those specially designed and constructed for the purposes of the present invention, or they may be known and available to those skilled in the art. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

도 1은 본 발명의 일례에 따른 컨투어 정합을 이용한 전방향 카메라 보정 시스템의 구성도이다.1 is a block diagram of a omni-directional camera correction system using contour matching according to an example of the present invention.

도 2는 본 발명의 일례에 따른 3차원 평면의 법선 벡터를 이용한 컨투어 분리를 설명하기 위한 도면이다.2 is a view for explaining contour separation using a normal vector of a three-dimensional plane according to an example of the present invention.

도 3은 본 발명의 일례에 따른 컨투어가 이루는 3차원 평면의 법선 벡터를 이용한 병합을 설명하기 위한 도면이다.3 is a diagram for explaining merging using a normal vector of a three-dimensional plane formed by a contour according to an example of the present invention.

도 4는 본 발명의 일례에 따른 기준 영상의 컨투어에 대한 참조 영상의 각 투어어의 후보 끝점의 위치를 설명하기 위한 도면이다.4 is a diagram for describing positions of candidate end points of each tourer of a reference image with respect to a contour of the reference image according to an embodiment of the present invention.

도 5는 본 발명의 일례에 따른 해리스 모서리 검출기로 검출된 특징점을 도시한 도면이다.5 is a diagram illustrating feature points detected by a Harris corner detector according to an example of the present invention.

도 6은 본 발명의 일례에 따른 컨투어 병합을 위해 3차원 선분별로 분리된 컨투어 성분을 도시한 도면이다.6 is a diagram illustrating contour components separated by three-dimensional line segments for contour merging according to an example of the present invention.

도 7은 본 발명의 일례에 따른 두 개 이상의 컨투어가 인접한 특징점을 도시한 도면이다.7 is a diagram illustrating feature points where two or more contours are adjacent according to an example of the present invention.

도 8은 본 발명의 일례에 따른 병합된 컨투어 영상을 도시한 도면이다.8 illustrates a merged contour image according to an example of the present invention.

도 9는 본 발명의 일례에 따른 컨투어 끝점이 일치된 8쌍의 대응 컨투어를 도시한 도면이다.9 illustrates eight pairs of corresponding contours whose contour endpoints coincide in accordance with an example of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

110: 에피폴라 기하 추정부110: Epipolar Geometry

120: 컨투어 검출부120: contour detection unit

130: 컨투어 정합부130: contour matching unit

140: 오차 조정부140: error adjustment unit

150: 카메라 보정부150: camera correction unit

Claims (15)

전방향 영상에서 기준 영상 및 참조 영상을 선택하고, 상기 기준 영상 및 참조 영상에서 에피폴라(Epipolar) 기하 추정을 실행하는 단계;Selecting a reference image and a reference image from an omnidirectional image, and performing epipolar geometric estimation on the reference image and the reference image; 상기 에피폴라 기하 추정을 이용하여, 기준 영상 및 참조 영상 각각으로부터 컨투어(contour)들을 검출하는 단계;Detecting contours from each of a reference image and a reference image using the epipolar geometric estimation; 상기 기준 영상 및 상기 참조 영상에 대해 일정 크기의 윈도우로 정규화된 영역 내에 밝기분포를 이용하여 상기 기준 영상 및 참조 영상 각각으로부터 검출된 컨투어들을 정합하는 단계; Matching contours detected from each of the reference image and the reference image using a brightness distribution in a region normalized to a window having a predetermined size with respect to the reference image and the reference image; 상기 정합된 컨투어들 각각을 구성하는 양 끝점을 대상으로 에피폴라 평면을 구하는 단계;Obtaining an epipolar plane for both endpoints constituting each of the matched contours; 상기 에피폴라 평면 및 상기 에피폴라 평면과 상기 정합된 컨투어가 이루는 평면과의 교선인 3차원 벡터의 각도 오차를 최소화하는 단계; 및Minimizing an angular error of a three-dimensional vector that is an intersection of the epipolar plane and the plane formed by the epipolar plane and the matched contour; And 상기 최소화된 에피폴라 평면 및 3차원 벡터의 각도 오차에 기초하여, 상기 기준 영상 및 참조 영상을 촬영한 카메라간의 회전 및 이동 정보를 추정하는 단계Estimating rotation and movement information between cameras photographing the reference image and the reference image based on the angle error of the minimized epipolar plane and the 3D vector 를 포함하는 것을 특징으로 하는 컨투어 정합을 이용한 카메라간의 회전 및 이동 정보를 추정하는 방법.Method for estimating rotation and movement information between cameras using contour matching, comprising a. 삭제delete 제1항에 있어서,The method of claim 1, 상기 에피폴라(Epipolar) 기하 추정은, 적어도 8개 이상의 대응점에 의한 RANSAC 알고리즘을 이용하는 것을 특징으로 하는 컨투어 정합을 이용한 카메라간의 회전 및 이동 정보를 추정하는 방법.The epipolar geometric estimation method for estimating rotation and movement information between cameras using contour matching, characterized in that it uses a RANSAC algorithm with at least eight corresponding points. 제1항에 있어서,The method of claim 1, 상기 컨투어(contour)들을 검출하는 단계는,Detecting the contours (contours), 상기 기준 영상 및 참조 영상에 대하여 케니 연산자와 에지 연결 알고리즘을 이용하여, 컨투어를 검출하는 단계인 것을 특징으로 하는 컨투어 정합을 이용한 카메라간의 회전 및 이동 정보를 추정하는 방법.And detecting a contour of the reference image and the reference image using a Kenny operator and an edge connection algorithm. 제1항에 있어서,The method of claim 1, 상기 컨투어(contour)들을 검출하는 단계는,Detecting the contours (contours), 한 픽셀 두께의 컨투어를 검출하는 단계인 것을 특징으로 하는 컨투어 정합을 이용한 카메라간의 회전 및 이동 정보를 추정하는 방법.Detecting a contour of one pixel thickness, wherein the rotation and movement information between the cameras using the contour matching is estimated. 제1항에 있어서,The method of claim 1, 상기 컨투어들을 정합하는 단계는, Matching the contours, 상기 기준 영상으로부터 추출된 컨투어들 각각에 대하여, 각 컨투어 성분이 이루는 평면의 법선 벡터 방향을 기준으로 컨투어들을 병합하여 상기 기준 영상에 대한 병합된 컨투어들을 생성하는 단계;For each of the contours extracted from the reference image, merging the contours based on a normal vector direction of a plane formed by each contour component to generate merged contours for the reference image; 상기 참조 영상으로부터 추출된 컨투어들 각각에 대하여, 각 컨투어 성분이 이루는 평면의 법선 벡터 방향을 기준으로 컨투어들을 병합하여 상기 참조 영상에 대한 병합된 컨투어들을 생성하는 단계; 및For each of the contours extracted from the reference image, merging the contours based on a normal vector direction of a plane formed by each contour component to generate merged contours for the reference image; And 상기 기준 영상 및 상기 참조 영상에 대해 일정 크기의 윈도우로 정규화된 영역 내에 밝기분포를 비교하여, 상기 기준 영상에 대한 병합된 컨투어들과 상기 참조 영상에 대한 컨투어들 간의 대응 컨투어들을 결정하는 단계Comparing brightness distributions within a region normalized to a window of a predetermined size with respect to the reference image and the reference image, and determining corresponding contours between the merged contours of the reference image and the contours of the reference image; 를 포함하는 것을 특징으로 하는 컨투어 정합을 이용한 카메라간의 회전 및 이동 정보를 추정하는 방법.Method for estimating rotation and movement information between cameras using contour matching, comprising a. 제6항에 있어서,The method of claim 6, 상기 대응 컨투어들을 결정하는 단계는, Determining the corresponding contours, 하기 수학식에 의하여 상기 기준 영상 및 상기 참조 영상에 대해 일정 크기의 윈도우로 정규화된 영역 내에 밝기분포를 비교하고, A brightness distribution is compared within a region normalized to a window of a predetermined size with respect to the reference image and the reference image by the following equation, [수학식][Equation]
Figure 112010003393610-pat00015
Figure 112010003393610-pat00015
(단, I 및 J는 윈도우 내 영상의 밝기,
Figure 112010003393610-pat00016
Figure 112010003393610-pat00017
는 윈도우 내 밝기의 평균임)
Where I and J are the brightness of the image in the window,
Figure 112010003393610-pat00016
And
Figure 112010003393610-pat00017
Is the average brightness in the window)
상기 수학식의 계산을 통하여 가장 높은 값을 갖는 병합된 컨투어를 상기 참조 영상에서의 대응 컨투어로 결정하는 것을 특징으로 하는 컨투어 정합을 이용한 카메라간의 회전 및 이동 정보를 추정하는 방법.A method of estimating rotation and movement information between cameras using contour matching, wherein the merged contour having the highest value is determined as a corresponding contour in the reference image through the calculation of the equation.
제3항 내지 제7항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium in which a program for executing the method of any one of claims 3 to 7 is recorded. 기준 영상 및 참조 영상을 포함하는 전방향 영상에서, 에피폴라(Epipolar) 기하 추정을 실행하는 에피폴라 기하 추정부;An epipolar geometry estimator for performing epipolar geometry estimation in an omnidirectional image including a reference image and a reference image; 상기 에피폴라 기하 추정을 이용하여, 기준 영상 및 참조 영상 각각으로부터 컨투어(contour)들을 검출하는 컨투어 검출부;A contour detector which detects contours from each of a reference image and a reference image using the epipolar geometric estimation; 상기 기준 영상 및 상기 참조 영상에 대해 일정 크기의 윈도우로 정규화된 영역 내에 밝기분포를 이용하여 상기 기준 영상 및 참조 영상 각각으로부터 검출된 컨투어들을 정합하는 컨투어 정합부;A contour matching unit matching contours detected from each of the reference image and the reference image by using a brightness distribution in a region normalized to a window having a predetermined size with respect to the reference image and the reference image; 상기 정합된 컨투어들 각각을 구성하는 양 끝점을 대상으로 에피폴라 평면을 구하고, 상기 에피폴라 평면 및 상기 에피폴라 평면과 상기 정합된 컨투어가 이루는 평면과의 교선인 3차원 벡터의 각도 오차를 최소화하는 오차 조정부; 및Obtaining an epipolar plane for both end points constituting each of the matched contours, and minimizing the angular error of the three-dimensional vector that is the intersection of the epipolar plane and the plane formed by the epipolar plane and the matched contour An error adjusting unit; And 상기 최소화된 에피폴라 평면 및 3차원 벡터의 각도 오차에 기초하여, 상기 기준 영상 및 참조 영상을 촬영한 카메라간의 회전 및 이동 정보를 추정하는 카메라 보정부Camera correction unit for estimating the rotation and movement information between the camera taking the reference image and the reference image based on the angle error of the minimized epipolar plane and the three-dimensional vector 를 포함하는 것을 특징으로 하는 카메라간의 회전 및 이동 정보를 추정하는 장치.Apparatus for estimating rotation and movement information between the camera comprising a. 삭제delete 삭제delete 삭제delete 삭제delete 제9항에 있어서,10. The method of claim 9, 상기 컨투어 정합부는,The contour matching unit, 상기 기준 영상으로부터 추출된 컨투어들 각각에 대하여, 각 컨투어 성분이 이루는 평면의 법선 벡터 방향을 기준으로 컨투어들을 병합하여 상기 기준 영상에 대한 병합된 컨투어들을 생성하고, For each of the contours extracted from the reference image, merge the contours based on the normal vector direction of the plane formed by each contour component to generate merged contours for the reference image, 상기 참조 영상으로부터 추출된 컨투어들 각각에 대하여, 각 컨투어 성분이 이루는 평면의 법선 벡터 방향을 기준으로 컨투어들을 병합하여 상기 참조 영상에 대한 병합된 컨투어들을 생성하고, For each of the contours extracted from the reference image, merge the contours based on the direction of the normal vector of the plane formed by each contour component to generate merged contours for the reference image, 상기 기준 영상 및 상기 참조 영상에 대해 일정 크기의 윈도우로 정규화된 영역 내에 밝기분포를 비교하여, 상기 기준 영상에 대한 병합된 컨투어들과 상기 참조 영상에 대한 컨투어들 간의 대응 컨투어들을 결정하는Comparing brightness distributions within a region normalized to a window of a predetermined size with respect to the reference image and the reference image, to determine corresponding contours between the merged contours for the reference image and the contours for the reference image. 것을 특징으로 하는 카메라간의 회전 및 이동 정보를 추정하는 장치.Apparatus for estimating rotation and movement information between the camera, characterized in that. 제14항에 있어서,The method of claim 14, 상기 대응 컨투어들의 결정은,The determination of the corresponding contours, 하기 수학식에 의하여 상기 기준 영상 및 상기 참조 영상에 대해 일정 크기의 윈도우로 정규화된 영역 내에 밝기분포를 비교하고, A brightness distribution is compared within a region normalized to a window of a predetermined size with respect to the reference image and the reference image by the following equation, [수학식][Equation]
Figure 112010003393610-pat00018
Figure 112010003393610-pat00018
(단, I 및 J는 윈도우 내 영상의 밝기,
Figure 112010003393610-pat00019
Figure 112010003393610-pat00020
는 윈도우 내 밝기의 평균임)
Where I and J are the brightness of the image in the window,
Figure 112010003393610-pat00019
And
Figure 112010003393610-pat00020
Is the average brightness in the window)
상기 수학식의 계산을 통하여 가장 높은 값을 갖는 병합된 컨투어를 상기 참조 영상에서의 대응 컨투어로 결정하는 것을 특징으로 하는 카메라간의 회전 및 이동 정보를 추정하는 장치.And determining the merged contour having the highest value as the corresponding contour in the reference image through the calculation of the equation.
KR1020080069151A 2008-07-16 2008-07-16 Method and system for calibrating of omnidirectional camera based on contour matching KR100961616B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080069151A KR100961616B1 (en) 2008-07-16 2008-07-16 Method and system for calibrating of omnidirectional camera based on contour matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080069151A KR100961616B1 (en) 2008-07-16 2008-07-16 Method and system for calibrating of omnidirectional camera based on contour matching

Publications (2)

Publication Number Publication Date
KR20100008595A KR20100008595A (en) 2010-01-26
KR100961616B1 true KR100961616B1 (en) 2010-06-04

Family

ID=41817185

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080069151A KR100961616B1 (en) 2008-07-16 2008-07-16 Method and system for calibrating of omnidirectional camera based on contour matching

Country Status (1)

Country Link
KR (1) KR100961616B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701837A (en) * 2016-03-21 2016-06-22 完美幻境(北京)科技有限公司 Geometric calibration processing method and apparatus for camera
CN106199066B (en) * 2016-07-08 2019-09-24 上海与德通讯技术有限公司 The direction calibration method, apparatus of intelligent terminal
CN113052918B (en) * 2021-04-23 2024-06-04 北京机械设备研究所 Method, device, medium and equipment for evaluating calibration error of opposite-pole binocular camera

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
황용호, 이재만, 홍현기, 사영 컨투어를 이용한 전방향 카메라의 움직임 추정 방법, 대한전자공학회논문지SP, 제44권, 제5호, pp. 35-44, 2007년 9월.
황용호, 이재만, 홍현기, 사영된 컨투어를 이용한 전방향 카메라 모델의 검증 방법, HCI2007 논문지, pp. 994-999, 2007년 2월.

Also Published As

Publication number Publication date
KR20100008595A (en) 2010-01-26

Similar Documents

Publication Publication Date Title
KR102468897B1 (en) Method and apparatus of estimating depth value
US10133279B2 (en) Apparatus of updating key frame of mobile robot and method thereof
US8855408B2 (en) Method and apparatus for recovering depth information of image
US10275649B2 (en) Apparatus of recognizing position of mobile robot using direct tracking and method thereof
JP6902028B2 (en) Methods and systems for large scale determination of RGBD camera orientation
US8447099B2 (en) Forming 3D models using two images
US11568516B2 (en) Depth-based image stitching for handling parallax
US20190012804A1 (en) Methods and apparatuses for panoramic image processing
EP3159126A1 (en) Device and method for recognizing location of mobile robot by means of edge-based readjustment
EP2756482B1 (en) Resolving homography decomposition ambiguity based on orientation sensors
Wu et al. A framework for fast and robust visual odometry
US20050265604A1 (en) Image processing apparatus and method thereof
JP6515039B2 (en) Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
KR20150065445A (en) Apparatus and method for detecting frontal face image using facial pose
CN110751685B (en) Depth information determination method, determination device, electronic device and vehicle
WO2016208404A1 (en) Device and method for processing information, and program
JP2008309595A (en) Object recognizing device and program used for it
KR100961616B1 (en) Method and system for calibrating of omnidirectional camera based on contour matching
WO2019145411A1 (en) Method and system for head pose estimation
US11145048B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program
KR101828710B1 (en) Apparatus and method for object occlusion detection
Xu et al. Optical flow-based video completion in spherical image sequences
JP2008015895A (en) Image processor and image processing program
WO2016107989A1 (en) Estimation of lower bounds for deviations of as-built structures from as-designed models

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130429

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140326

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190807

Year of fee payment: 10