[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20080033287A - Method and apparatus for determining a location associated with an image - Google Patents

Method and apparatus for determining a location associated with an image Download PDF

Info

Publication number
KR20080033287A
KR20080033287A KR1020087001769A KR20087001769A KR20080033287A KR 20080033287 A KR20080033287 A KR 20080033287A KR 1020087001769 A KR1020087001769 A KR 1020087001769A KR 20087001769 A KR20087001769 A KR 20087001769A KR 20080033287 A KR20080033287 A KR 20080033287A
Authority
KR
South Korea
Prior art keywords
image
information
imaging system
determining
earth
Prior art date
Application number
KR1020087001769A
Other languages
Korean (ko)
Inventor
월터 에스 스콧
제임스 지 맥클레랜드
크리스토퍼 제이 콤프
제럴드 제이 스미스
우드슨 베르코
Original Assignee
디지털글로브 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디지털글로브 인코포레이티드 filed Critical 디지털글로브 인코포레이티드
Publication of KR20080033287A publication Critical patent/KR20080033287A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

The adverse effects of various sources of error present in satellite imaging when determining ground location information are reduced to provide more accurate ground location information for imagery, thereby rendering the information more useful for various entities utilizing the images. The determination of ground location coordinates associated with one or more pixels/sub-pixels of an image acquired by an imaging system includes obtaining a reference image, obtaining a target image associated with an earth view and the target image does not overlap the reference image. Known location information associated with the reference image is used to determine location information associated with the target image.

Description

이미지와 관련된 위치를 결정하는 방법 및 장치{METHOD AND APPARATUS FOR DETERMINING A LOCATION ASSOCIATED WITH AN IMAGE}METHOD AND APPARATUS FOR DETERMINING A LOCATION ASSOCIATED WITH AN IMAGE}

본 발명은 이미지와 관련된 지상 좌표의 결정에 관한 것으로 특히, 이미징 시스템에 의하여 생성된 하나 또는 그 이상의 이미지들로부터 다른 이미지들까지의 보상된 좌표 정보의 해석에 관한 것이다.The present invention relates to the determination of ground coordinates associated with an image, and more particularly to the interpretation of compensated coordinate information from one or more images generated by an imaging system to other images.

오늘날 인공위성과 항공 애플리케이션(airborne applications)의 원격 탐사 시스템(remote sensing systems)은, 이미지 프레임을 구성하는 화소열(rows of pixels)들을 포함하도록 처리될 수 있는 이미지들을 일반적으로 제공한다. 많은 애플리케이션의 경우, 이미지 내의 하나 또는 그 이상의 화소들의 지상 위치를 인식하는 것이 바람직하다. 예를 들면, 경도, 위도, 고도와 같은 지리학적 용어로 표현된, 이미지 화소의 지상 위치를 갖는 것이 필요할 수 있다. 어떤 지점의 정확한 지상 위치를 표현하기 위하여 기존의 많은 방법들이 사용된다. 일반적으로, 횡축 메르카토르 도법(UTM : Universal Transverse Mercator)과 같은 기준 투사(reference projection)는, 미국 측지기준망 27(NAD27 : North American Datum of 1927), 미국 측지기준망 83(NAD83 : North American Datum of 1983) 및 세계측지계(WGS84 : World Geodetic System of 1984)와 같은 다양한 수평 및 수직 데이텀(datums)을 따라 측정된다. 또한, 미국 내의 이미지에 대해서는, 특정한 주(state)나 카운티(county)의 타운십/레인지/섹션(township/range/section)과 같이 미국 국유지 조사 시스템(PLSS : Public Land Survey System)을 통해 이미지 내의 화소 또는 물체의 위치를 표현하는 것이 필요할 수도 있다.Today, remote sensing systems of satellite and airborne applications generally provide images that can be processed to include the rows of pixels that make up the image frame. For many applications, it is desirable to recognize the ground position of one or more pixels in an image. For example, it may be necessary to have the ground position of an image pixel, expressed in geographic terms such as longitude, latitude, altitude. Many existing methods are used to represent the exact ground position of a point. In general, reference projections, such as the Universal Transverse Mercator (UTM), are known as US Geodetic Reference Network 27 (NAD27: North American Datum of 1927), US Geodetic Reference Network 83 (NAD83: North American Datum of 1983) and the World Geodetic System of 1984 (WGS84) along various horizontal and vertical datums. In addition, for images in the United States, pixels within the image may be obtained through a public land survey system (PLSS), such as a township / range / section of a particular state or county. Or it may be necessary to express the position of the object.

원격 탐사 시스템에 의해 수집된 이미지의 정확한 지상 위치 정보를 얻어내고 그것을 상기 언급한 표준 또는 다른 표준에 의해 표현하기 위해서는, 이미지 수집 당시의 이미징 시스템의 상태가 어느 정도 확실한 수준까지 알려져 있어야 한다. 이미징 시스템에 의해 이미지화된 정확한 영역을 결정하는, 이미징 시스템의 상태를 구성하는 수많은 변수들이 존재한다. 예를 들어 인공위성의 이미징 애플리케이션에서, 인공위성의 궤도 포지션(position), 이미징 시스템의 자세(attitude), 인공위성 또는 그것의 이미징 시스템의 대기 효과(atmospheric effects) 및 열 왜곡(thermal distortion)을 포함한 다양한 다른 요인 등은 모두가 이미징 시스템에 의하여 이미지화되는 영역을 결정할 수 있는 정확도에 기여한다. 이러한 요인들 각각을 인식하는 것에서의 오류는, 이미징 시스템에 의하여 이미지화된 영역들의 지상 위치를 결정하는데 부정확을 야기한다.In order to obtain accurate ground position information of the image collected by the remote sensing system and to express it by the above-mentioned standard or other standards, the state of the imaging system at the time of image acquisition must be known to a certain degree. There are a number of variables that make up the state of the imaging system, which determines the precise area imaged by the imaging system. For example, in satellite imaging applications, various other factors include the orbital position of the satellite, the attitude of the imaging system, the atmospheric effects and thermal distortion of the satellite or its imaging system. Etc. all contribute to the accuracy with which the area to be imaged by the imaging system can be determined. Errors in recognizing each of these factors cause inaccuracies in determining the ground position of the areas imaged by the imaging system.

본 발명은, 모든 요인들이 그러한 것은 아니지만, 원격 탐사 플랫폼에 의해 수집된 미가공 이미지 데이터(raw image data)에 대한 지상 위치 정보를 생성하기 위해 사용된 많은 요인들이, 관련된 이미지에 대한 부정확한 지상 위치 정보의 도출로 이어지는 오류들에 영향을 받는다는 것을 인식하였다.Although the present invention is not all of the factors, many factors used to generate ground position information for raw image data collected by a remote sensing platform may result in inaccurate ground position information for the associated image. It was recognized that it was affected by the errors that led to the derivation.

본 발명은 적어도 하나의 오류 원인에 의한 역효과를 감소시키고, 이미지에 대한 좀 더 정확한 지상 위치 정보를 도출함으로써, 그 이미지를 이용하는 다양한 개체들에 대하여 그 정보를 더욱 유용하게 만든다. 그 결과, 어떤 관계있는 개체가 하나의 지상 이미지를 수신했다면, 그 지상 이미지 내의 다양한 지형들의 위치는 향상된 정확도를 갖고 식별될 것이고, 그럼으로써 그러한 이미지들을 보다 폭넓은 종류의 애플리케이션에 이용할 수 있는 능력을 향상시킨다.The present invention reduces the adverse effect of at least one error cause and derives more accurate ground position information for the image, making the information more useful for the various entities using the image. As a result, if a related entity has received a single ground image, the location of the various terrains within that ground image will be identified with improved accuracy, thereby improving the ability to use such images for a wider variety of applications. Improve.

본 발명의 일 실시예에서는 하나의 인공위성 이미지 내의 화소들에 대한 지상 위치 좌표를 결정하는 방법을 제공한다. 이 방법은 (a) 적어도 하나의 기준 이미지(reference image)를 획득하는 단계; (b) 상기 적어도 하나의 기준 이미지에서 적어도 하나의 제 1 화소의 위치를 알아내는 단계―여기서, 상기 제 1 화소는 기존에 알려진 지구 위치 좌표를 갖는 하나의 지점과 대응함―; (c) 인공위성에 대하여 입수가능한 적어도 하나의 자세, 포지션 및 왜곡 정보를 이용하여 상기 제 1 이미지 내에서 예측된 상기 지점의 화소 위치를 결정하는 단계; (d) 상기 지점의 예측된 상기 화소 위치와 상기 제 1 화소의 알려진 위치의 비교 결과에 기반한, 적어도 하나의 보상 요인을 계산하는 단계; (e) 지구 관측(earth view)에 의한 적어도 하나의 목표 이미지(target image)를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―;및 (f) 인공위성에 대하여 입수 가능한 상기 비행자세, 포지션 및 왜곡 정보와 함께 상기 보상 요인을 이용하여 상기 적어도 하나의 목표 이미지 내의 적어도 하나의 화소에 대한 지구 위치 좌표를 결정하는 단계를 포함한다.One embodiment of the present invention provides a method of determining ground position coordinates for pixels in a satellite image. The method comprises the steps of (a) obtaining at least one reference image; (b) locating at least one first pixel in the at least one reference image, wherein the first pixel corresponds to a point having known global position coordinates; (c) determining a pixel position of the predicted point in the first image using at least one attitude, position and distortion information available for the satellite; (d) calculating at least one compensation factor based on a result of comparing the predicted pixel position of the point with a known position of the first pixel; (e) obtaining at least one target image by earth view, wherein the at least one target image does not overlap with the at least one reference image; and (f) Determining earth position coordinates for at least one pixel in the at least one target image using the compensation factor along with the flight attitude, position and distortion information available for the satellite.

상기 보상 요인은 하나의 이미지에 대한 플랫폼 포지션, 자세, 왜곡 및 지상 위치 정보와 관련된 하나의 방정식 세트를 풀어서 계산되며, 그에 따라서 하나 또는 그 이상의 포지션, 자세 및 왜곡에 대한 조정치들이 획득된다. 포지션, 자세, 왜곡 및 지상 위치 정보는 조정치들에 우선하여 정확도의 레벨들을 변화시키는 것으로 알려져 있다. 또한, 조정에 앞선 포지션, 자세, 왜곡 각각의 정확도 레벨과 관련된 그들의 조정치를 획득하기 위하여, 공분산 행렬(covariance matrices)의 형태로 나타낸, 선행하는 정확도 불확실성(accuracy uncertainties)과 함께 하나의 방정식 세트를 푸는 것은 증대될 수 있다. 그리고나서, 그 조정된 자세, 조정된 포지션, 조정된 왜곡 정보 또는 그들의 모든 조합은 그 목표 이미지에 대한 위치 좌표를 결정할 때 보상 요인으로서 이용된다. 목표 이미지는 이미징 시스템에 의해 기준 이미지의 수집 전 또는 후에 수집될 수 있다.The compensation factor is calculated by solving one set of equations related to platform position, attitude, distortion and ground position information for one image, so that adjustments for one or more positions, attitudes and distortions are obtained. Position, posture, distortion, and ground position information is known to change levels of accuracy in preference to adjustments. In addition, to obtain their adjustments related to the accuracy levels of each of the positions, attitudes, and distortions prior to adjustment, one set of equations, together with the preceding accuracy uncertainties in the form of covariance matrices, is solved. Can be augmented. Then, the adjusted posture, adjusted position, adjusted distortion information or any combination thereof is used as a compensation factor when determining the position coordinates for the target image. The target image may be collected before or after the collection of the reference image by the imaging system.

본 발명의 또 다른 실시예에서는 원격 탐지 플랫폼으로부터 획득된 지상 이미지의 위치 정보를 결정하는 방법을 제공한다. 그 방법은 (a) 적어도 하나의 기준 이미지를 획득하는 단계; (b) 하나의 지구 관측과 관련된 적어도 하나의 목표 이미지를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―;및 (c) 상기 적어도 하나의 목표 이미지와 관련된 위치 정보를 결정하기 위하여 상기 적어도 하나의 기준 이미지와 관련된 알려진 위치 정보를 이용하는 단계를 포함한다.Another embodiment of the present invention provides a method for determining location information of a terrestrial image obtained from a remote detection platform. The method includes (a) acquiring at least one reference image; (b) obtaining at least one target image associated with one earth observation, wherein the at least one target image does not overlap with the at least one reference image; and (c) the at least one target image Using known location information associated with the at least one reference image to determine location information associated with the at least one reference image.

또한 본 발명의 또 다른 실시예는 다수의 화소와, 화소들 중 적어도 하나의 지상 위치 좌표들을 모두 포함하는 지상 영역의 이미지를 제공한다. 그 화소들과 좌표들은 (a) 적어도 하나의 기준 이미지를 획득하는 단계―여기서, 상기 기준 이미지는 대대수의 화소들을 포함함―; (b) 한 지점과 관련된 상기 적어도 하나의 기준 이미지 내에서 적어도 하나의 제 1 화소의 위치를 알아내는 단계―여기서, 상기 지점은 이미 알려진 지구 위치 좌표를 가짐―; (c) 상기 적어도 하나의 기준 이미지 내의 상기 지점의 예측된 화소 위치 및 상기 적어도 하나의 제 1 기준 이미지 내의 상기 제 1 화소의 상기 알려진 위치와의 비교 결과에 기반하여 보상 요인을 계산하는 단계; (d) 지구 관측에 의한 적어도 하나의 목표 이미지를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 다수의 화소를 포함하며, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―;및 (e) 상기 보상 요인에 기반하여 상기 적어도 하나의 목표 이미지의 적어도 하나의 화소에 대하여 지구 위치 좌표를 결정하는 단계에 의하여 획득된다.Yet another embodiment of the present invention provides an image of a terrestrial area that includes both a plurality of pixels and at least one ground position coordinate of the pixels. The pixels and coordinates are (a) acquiring at least one reference image, wherein the reference image comprises a plurality of pixels; (b) locating at least one first pixel within the at least one reference image associated with a point, wherein the point has a known global position coordinate; (c) calculating a compensation factor based on a result of comparison with the predicted pixel position of the point in the at least one reference image and the known position of the first pixel in the at least one first reference image; (d) obtaining at least one target image by earth observation, wherein the at least one target image comprises a plurality of pixels, wherein the at least one target image does not overlap with the at least one reference image And (e) determining global position coordinates for at least one pixel of the at least one target image based on the compensation factor.

또 다른 실시예에서는 통신망을 통하여 하나의 이미지를 하나의 관련된 개체에게 전송하는 방법을 제공한다. 이 방법은 그 통신 망의 한 부분을 통해 다수의 화소를 포함하는 디지털 이미지를 전송하는 단계를 포함하고, 그 화소들 중 적어도 하나는, 적어도 하나의 기준 이미지로부터 얻은 적어도 하나의 지상 지점에 기반하여 결정된 보상 요인에 기초하여 유도된 지상 위치 정보와 관련이 있으며, 이 방법에 있어서 상기 적어도 하나의 기준 이미지는 상기 디지털 이미지와 서로 상이하고 서로 중복되지 않는다. Yet another embodiment provides a method of transmitting one image to one related entity via a communication network. The method includes transmitting a digital image comprising a plurality of pixels over a portion of the communication network, wherein at least one of the pixels is based on at least one ground point obtained from at least one reference image. And the ground position information derived based on the determined compensation factor, in which the at least one reference image differs from the digital image and does not overlap with each other.

도 1은 지상의 이미지를 획득하는 지구 궤도상의 인공위성을 도시하는 도면이고,1 is a diagram showing a satellite on Earth orbit to acquire the image of the ground,

도 2는 본 발명의 일 실시예에서 나타난 인공위성을 도시하는 블록도이며,2 is a block diagram showing a satellite shown in an embodiment of the present invention,

도 3은 본 발명의 일 실시예에서 인공위성의 이미지와 관련된 위치 좌표를 결정하는 수행 단계를 도시한 흐름도이고,3 is a flowchart illustrating a performing step of determining position coordinates associated with an image of a satellite in an embodiment of the present invention;

도 4는 정확한 위치가 알려져 있는 지점들을 포함하는 기준 이미지를 도시한도면이며,4 is a diagram showing a reference image including points at which an exact position is known,

도 5는 본 발명의 일 실시예에서 몇몇의 이미지화된 영역을 포함하는 경로를도시한 도면이다.5 is a diagram illustrating a path including several imaged regions in one embodiment of the invention.

일반적으로, 본 발명은 인공위성이나 다른 원격 탐지 플랫폼에 탑재된 이미징 시스템에 의하여 획득된, 적어도 하나의 이미지 화소와 관련된 지상 위치 정보의 결정에 관한 것이다. 지상 위치 정보를 생성하는 프로세스는 (a) 그 위치가 정확하게 알려져 있는 지점들을 포함하는 영역들의 하나 또는 그 이상의 이미지(기준 이미지)들을 획득하는 단계, (b) 이미징 시스템에 대하여 입수 가능한, 시간에 따라 변하는 포지션, 비행 자세 및 왜곡 정보를 이용하여 상기 지점들의 위치를 예측 하는 단계, (c) 하나 또는 그 이상의 보상 요인을 유도하기 위해, 데이터 피팅 알고리즘(data fitting algorithm)을 이용하여 이미 알려진 위치와 상기 예측된 위치를 비교하는 단계, (d) 상기 보상 요인(들)을 시간의 다른 순간들에 내삽(interpolateing) 또는 외삽(extrapolating)하는 단계 및, 그리고 나서 (e) 상기 기준 이미지들의 정확하게 알려진 위치를 갖는 지점들을 포함하지 않는 영역들의 하나 또는 그 이상의 다른 이미지(목표 이미지)들에 대하여 상기 보상 요인(들)을 적용하는 단계를 포함한다. 이 프로세스는 상기 기준 이미지와 중복되지 않는 목표 이미지에 대해서도 적용될 수 있다.In general, the present invention relates to the determination of ground position information associated with at least one image pixel, obtained by an imaging system mounted on a satellite or other remote detection platform. The process of generating ground position information includes (a) acquiring one or more images (reference images) of areas containing points whose location is known precisely, (b) over time, available to the imaging system. Predicting the location of the points using varying position, flight attitude and distortion information; (c) using a data fitting algorithm to derive one or more compensation factors; Comparing the predicted positions, (d) interpolating or extrapolating the compensation factor (s) at different moments of time, and then (e) determining the exact known positions of the reference images. The compensation factor for one or more other images (target images) of areas that do not contain points having Applying (s). This process can be applied to a target image that does not overlap with the reference image.

상기 이미지와 지상 위치 정보를 생성하는 프로세스에 대하여 개괄적으로 기술했는데, 그의 일 실시예가 좀 더 자세하게 기술된다. 도 1을 참조하면, 지구 (104)의 궤도를 돌고 있는 인공위성(100)이 도시되어 있다. 처음에, 여기에 있는 지구를 참조할 때, 행성체와 연관되어 관련 위치를 갖는 이미지 또는 다른 원격 탐지 정보를 획득하는 데 바람직한 어떠한 천체로도 참조가 이루어질 수 있다. 또한, 여기에 있는 인공위성을 참조할 때, 이미지를 획득할 능력을 수반한 어떠한 우주선, 인공위성, 항공기 또는 다른 원격 탐지 플랫폼으로도 참조가 이루어질 수 있다. 또한 여기에 포함되어 있는 그려진 도형들 중 어느 것도 일정한 비율에 맞게 그려진 것이 아니며, 그러한 그림들은 단지 도해의 목적으로 그려진 것임을 언급한다.The process of generating the image and ground position information is outlined, but one embodiment thereof is described in more detail. Referring to FIG. 1, a satellite 100 orbiting the earth 104 is shown. Initially, when referring to the earth herein, the reference may be made to any object that is desirable to obtain an image or other remote detection information that has an associated location associated with the planetary body. In addition, when referring to satellites herein, reference may be made to any spacecraft, satellite, aircraft or other remote detection platform with the ability to acquire images. It is also noted that none of the figures drawn here are drawn to scale, and such drawings are drawn for illustrative purposes only.

도 1에 도시된 것과 같이, 인공위성(100)은 궤도 경로(108)를 따라 지구(104)의 궤도를 돌고 있다. 궤도 경로(108)를 따르는 인공위성(100)의 포지션은, 내부 경로 위치(in-track location), 횡단 경로 위치(cross-track location) 및 방사 거리 위치(radial distance location)를 포함하는 몇 개의 변수들로 정의될 수 있다. 내부 경로 위치는 그 인공위성이 지구(104)궤도를 따라 돌 때 궤도 경로(108)을 따라서 인공위성의 포지션과 관련된다. 횡단 경로 위치는 궤도(108)내의 운동 방향과 연관된 인공위성(100)의 측면 포지션과 관련된다. 방사 거리 위치는 지구(104)로부터 인공위성(100)까지의 방사거리에 관련된다(도 1과 관련, 이것은 그 페이지의 안과 밖에 존재할 것이다.). 인공위성의 물리적인 포지션과 관련된 이러한 요인들은 집합적으로 그 인공위성의 추산 위치(ephemeris)로서 언급된다. 여기서 인공위성의 '포지션'을 언급할 때, 이러한 요인들에 대하여 참조가 이루어진다. 또한, 궤도 경로와 관련하여, 그 인공위성(100)은 그것의 자세로써 집합적으로 언급되는 피치(pitch), 편요각(yaw) 및 로울(roll)의 방향(orientation)값을 갖게 될 수 있다. 인공위성(100)에 탑재된 이미징 시스템은 지구(104) 표면의 일부분을 포함하는 이미지(112)를 획득 가능하다. 이미지(112)는 다수의 화소로 이루어진다.As shown in FIG. 1, the satellite 100 orbits the earth 104 along an orbit path 108. The position of the satellite 100 along the orbit path 108 may include several variables, including an in-track location, a cross-track location and a radial distance location. It can be defined as. The internal path location is relative to the position of the satellite along the orbit path 108 as the satellite orbits the Earth 104 orbit. The transverse path position is associated with the side position of the satellite 100 in relation to the direction of motion within the orbit 108. The radiation distance location is related to the radiation distance from the earth 104 to the satellite 100 (in relation to FIG. 1, this will be inside and outside of the page). These factors related to the physical position of the satellite are collectively referred to as the ephemeris of the satellite. When referring to the "position" of the satellite, reference is made to these factors. Also, with respect to the orbital path, the satellite 100 may have orientation values of pitch, yaw and roll, collectively referred to as its attitude. The imaging system mounted on the satellite 100 is capable of acquiring an image 112 that includes a portion of the earth 104 surface. Image 112 consists of a plurality of pixels.

인공위성(100)이 지구(104) 표면의 이미지를 획득할 때, 이미징 시스템의 포지션, 자세 및 왜곡 정보를 포함한 그것의 상태에 관련된 정보에 기반하여, 어떤 특정한 이미지 화소(들)의 연관된 지상 위치가 계산될 수 있으며, 이는 아래에 좀 더 자세히 기술될 것이다. 그 지상 위치는 위도, 경도 및 고도, 또는 그 밖에 다른 적용가능한 좌표계의 용어로 계산될 수 있다. 그러한 인공위성으로부터 얻어진 이미지와 연관된 하나 또는 그 이상의 지형의 위치에 대해 인식하는 것이 종종 바람직하며, 또한 각각의 이미지 화소의 상대적으로 정확한 위치 정보를 인식하는 것이 종종 바람직하다. 그 인공위성을 통해 수집된 이미지는 상업적 그리고 비상업적 애플리케이션에서 이용될 수 있다. 이미지(112)가 유용하게 쓰일 수 있는 애플리케이션의 숫자는, 보다 높은 해상도를 가진 이미징 시스템에서 증가하며, 이미지(112)에 포함된 하나 또는 그 이상의 화소의 지상 위치가 보다 정확하게 알려질 때 더욱 증가된다.When satellite 100 acquires an image of the earth 104 surface, based on information related to its state, including position, pose and distortion information of the imaging system, the associated ground position of any particular image pixel (s) is determined. It can be calculated, which will be described in more detail below. The ground position may be calculated in terms of latitude, longitude and altitude, or other applicable coordinate system. It is often desirable to recognize the location of one or more terrain associated with an image obtained from such satellites, and it is often desirable to also recognize the relatively accurate positional information of each image pixel. Images collected via the satellite can be used in commercial and non-commercial applications. The number of applications in which the image 112 can be usefully increased in imaging systems with higher resolution, and increased further when the ground position of one or more pixels included in the image 112 is known more accurately.

도 2를 참고하면, 본 발명의 일 실시예에 나타난 이미징 인공위성(100)을 표시한 블록도가 묘사된다. 그 이미징 인공위성(100)은, 포지션 측량 시스템(116), 자세 측량 시스템(120), 열 측량 시스템(124), 송/수신 회로(128), 인공위성 운동 시스템(132), 전원 시스템(136) 및 이미징 시스템(140)을 포함하는 많은 기구들을 구비한다. 본 실시예의 포지션 측량 시스템(116)은 다수의 위성항법장치(GPS : Global Positioning System) 인공위성으로부터 포지션 정보를 수신하는 GPS 수신기를 포함하며, 이는 당업계에 잘 알려져 있다. 포지션 측량 시스템(116)은 주기적인 간격으로 GPS 인공위성으로부터 정보를 획득한다. 만약 그 주기적인 간격 사이에 그 인공위성(100)의 포지션이 시간에 맞추어 결정되는 것이 희망된다면, 그 시간 내의 특정한 지점에 대한 인공위성의 포지션을 생성하기 위하여, 그 포지션 측량 시스템으로부터의 GPS 정보는 그 인공위성의 궤도와 관련된 다른 정보와 함께 결합된다. 그러한 시스템에서 전형적인 것처럼, 포지션 측량 시스템(116)에 의해 획득된 인공위성(100)의 포지션은, 포지션 측량 시스템(116) 및 관련된 GPS 인공위성의 한계로 인한 일정량의 오류를 포함한다. 일 실시예에서, 포지션 측량 시스템(116) 데이터로부터 유도 및 정제된 데이터를 이용하여, 인공위성(100)의 포지션이 수 미 터 이내로 알려진다. 이러한 오류는 비록 작기는 하나, 종종 지상 이미지의 화소들과 연관된 지상 위치의 불확실성에 비교적 상당하게 공헌한다.2, a block diagram depicting an imaging satellite 100 shown in one embodiment of the present invention is depicted. The imaging satellite 100 includes a position surveying system 116, a posture surveying system 120, a thermal surveying system 124, a transmit / receive circuit 128, a satellite motion system 132, a power supply system 136, and the like. Many instruments are included, including imaging system 140. Position surveying system 116 of the present embodiment includes a GPS receiver that receives position information from multiple Global Positioning System (GPS) satellites, which are well known in the art. Position surveying system 116 obtains information from the GPS satellites at periodic intervals. If it is desired that the position of the satellite 100 be determined in time between the periodic intervals, the GPS information from the position surveying system is generated by the satellite in order to generate the position of the satellite for a particular point within that time. It is combined with other information related to its orbit. As is typical of such a system, the position of the satellite 100 obtained by the position surveying system 116 includes a certain amount of error due to the limitations of the position surveying system 116 and the associated GPS satellites. In one embodiment, using data derived and purified from position survey system 116 data, the position of satellite 100 is known to be within a few meters. This error, although small, often contributes significantly to the uncertainty of ground position associated with the pixels of the ground image.

자세 측량 시스템(120)은 이미징 시스템(140)에 대한 자세 정보를 결정하는 데 이용된다. 일 실시예에서, 자세 측량 시스템(120)은 각도를 측량하는 하나 또는 그 이상의 자이로스코프 및 다양한 천체의 이미지를 획득하는 하나 또는 그 이상의 스타 트랙커(star tracker)를 포함한다. 스타 트랙커에 의해 획득되는 이미지 내의 다양한 천체들의 위치는 이미징 시스템(140)의 자세를 결정하기 위해 이용된다. 일 실시예에서, 스타 트랙커는 이미징 시스템(140)에 고정된 기준 좌표 시스템(reference coordinate system)에 대한 로울, 피치 및 편요각의 방향 정보를 제공하기 위해 배치된다. 포지션 측량 시스템(116)에 대하여 위에 기술된 것과 유사하게, 자세 측량 시스템의 스타 트랙커는 이미지를 획득하기 위하여 주기적인 간격으로 동작한다. 이미징 시스템(140)의 자세는 이러한 주기적인 간격 사이에서 변할 수 있고, 또 종종 변한다. 예를 들면 일 실시예에서는, 비록 그 주파수가 증가되거나 감소될 수 있기는 하나, 약 10 Hz의 속도로 스타 트랙커가 이미지를 수집한다. 본 실시예에서, 비록 그 주파수들 또한 증가되거나 감소될 수 있기는 하나, 7 kHz 에서 24 kHz 사이의 라인 속도로 이미징 시스템(140)이 이미지를 획득하기 위해 동작한다. 어느 경우에나, 이미징 시스템(140)은 일반적으로 스타 트랙커보다 높은 속도로 동작하며, 그 결과 스타 트랙커로부터 연속하는 자세 측량기 사이에서 다수의 지상 이미지 화소들이 획득된다. 스타 트랙커의 연속적인 이미지 사이의 시간 간격에 대한 이미징 시스템(140)의 자세는, 자이로스코프로부터의 각속도 정 보(angular rate information)와 같은 추가적인 정보와 함께 스타 트랙커의 정보를 이용하여 이미징 시스템(140)의 자세를 예측하기 위한 목적으로 결정된다. 자이로스코프는 이미징 시스템(140)의 각속도를 탐지하기 위해 이용되며, 이러한 정보와 함께 이미징 시스템(140)에 대한 자세 정보를 조절하기 위해 이용된다. 자세 측량 시스템(120) 또한 제공되는 정보의 정확도에 대한 한계로 인해 이미징 시스템(140)의 예측된 자세에 대한 오류를 낳게 된다. 이러한 오류들은 일반적으로 작긴 하지만, 종종 지상 이미지 내의 화소들과 연관된 지상 위치의 불확실성에 대하여 비교적 상당하게 공헌한다. Posture measurement system 120 is used to determine posture information for imaging system 140. In one embodiment, posture measurement system 120 includes one or more gyroscopes for measuring angles and one or more star trackers for obtaining images of various objects. The positions of the various objects in the image obtained by the star tracker are used to determine the pose of the imaging system 140. In one embodiment, the star tracker is arranged to provide direction information of the roll, pitch, and yaw angle for a reference coordinate system fixed to the imaging system 140. Similar to that described above for the position survey system 116, the star tracker of the attitude survey system operates at periodic intervals to acquire an image. The attitude of the imaging system 140 can and often varies between these periodic intervals. For example, in one embodiment, the star tracker collects images at a rate of about 10 Hz, although the frequency may be increased or decreased. In this embodiment, the imaging system 140 operates to acquire an image at a line rate between 7 kHz and 24 kHz, although the frequencies may also be increased or decreased. In either case, the imaging system 140 generally operates at a higher speed than the star tracker, so that a plurality of terrestrial image pixels are obtained between the star tracker and the continuous attitude instrument. The attitude of the imaging system 140 with respect to the time interval between successive images of the star tracker is determined by using the star tracker's information along with additional information such as angular rate information from the gyroscope. Is determined for the purpose of predicting the posture. The gyroscope is used to detect the angular velocity of the imaging system 140 and, together with this information, is used to adjust posture information for the imaging system 140. Posture surveying system 120 also introduces errors in the predicted posture of imaging system 140 due to limitations on the accuracy of the information provided. These errors are generally small, but often contribute relatively significantly to the uncertainty of ground position associated with pixels in the ground image.

열 측량 시스템(124)는 이미징 시스템(140)의 열적 특성들을 결정하는 데 이용된다. 본 실시예에서, 열적 특성들은 이미징 시스템(140) 내의 열 왜곡을 보상하는 데에 이용된다. 잘 알려진 대로, 그러한 인공위성 기반의 이미징 시스템(140)에 의해 수집된 이미지와 관련된 지상 위치를 결정할 때의 오류 원인은 이미징 시스템 내의 왜곡이다. 열 측량 시스템(124)에 의해 모니터되는 열 변화는 본 실시예에서 이미징 시스템(140) 내의 왜곡을 보상하기 위해 이용된다. 예를 들면, 그러한 열 변화는, 인공위성(100) 또는 인공위성(100)의 일부분들이 지구나 그 인공위성(100)의 다른 부분들에 의한 음영 캐스트(shadows cast)때문에 햇빛의 안팎으로 움직일 때 발생한다. 이미징 시스템(140)의 구성요소들에서 수신되는 에너지의 상이함은 그 구성요소들이 가열되는 결과를 낳고, 그에 따라 이미징 시스템(140)의 왜곡 및/또는, 이미징 시스템(140)과 포지션(116) 및 자세 측량 시스템(120) 사이의 정렬에서의 변화를 초래한다. 예를 들면 그러한 에너지 변화는, 인공위성(100)의 태양 전 판이 인공위성 본체와 관련된 방향을 바꿀 때 일어날 수 있고, 그 결과 이미징 시스템의 구성요소들이 태양으로부터의 부가적인 방사선에 영향을 받게 된다. 인공위성(100)의 구성요소 부분들로부터의 반사 및 지구 그림자의 안팎으로 움직이는 인공위성(100)뿐만 아니라, 지구 자체로부터 반사된 에너지도 이미징 시스템(140)의 열 변화를 유발할 수 있다. 예를 들어, 만약 이미징 시스템(140)에 빛을 반사시키는 지구의 일부분이 특히 흐리다면(cloudy), 흐리지 않은 지역에서 수신된 에너지에 비해 인공위성(100)에서는 더 많은 에너지가 수신되며, 그 결과 부가적인 열 왜곡이 나타난다. 열 측량 시스템(124)는 변화하는 열 특성을 모니터링하며, 이 정보는 그러한 열 왜곡을 보상하기 위해 이용된다. 열 측량 시스템(124)은 제공되는 정보의 정확도에 대한 한계로 인해 인공위성(100)의 이미징 시스템(140)의 열 보상에서 오류를 낳게 된다. 이러한 오류는 일반적으로 작긴 하지만, 지구 표면의 일부분을 포함하는 이미지 내의 화소들의 지상 위치를 결정하는 데 쓰이는 경우에는 이러한 오류 또한 지상 위치 탐색의 불확실성에 기여하게 된다. Thermal survey system 124 is used to determine the thermal characteristics of imaging system 140. In this embodiment, the thermal characteristics are used to compensate for thermal distortions in the imaging system 140. As is well known, the source of error in determining ground position relative to the image collected by such satellite based imaging system 140 is distortion in the imaging system. Thermal changes monitored by thermal survey system 124 are used in this embodiment to compensate for distortion in imaging system 140. For example, such thermal changes occur when satellites 100 or portions of satellites move in and out of sunlight due to shadows cast by the earth or other portions of the satellites 100. The difference in energy received at the components of the imaging system 140 results in the components being heated, thus distorting the imaging system 140 and / or the imaging system 140 and the position 116. And a change in alignment between the posture measurement system 120. For example, such energy changes can occur when the solar plate of satellite 100 changes orientation with respect to the satellite body, such that the components of the imaging system are subject to additional radiation from the sun. Reflections from the component parts of satellite 100 and satellite 100 moving in and out of the shadow of the earth, as well as energy reflected from the earth itself, can cause thermal changes in imaging system 140. For example, if a portion of the earth that reflects light to imaging system 140 is particularly cloudy, more energy is received in satellite 100 compared to the energy received in non-cloudy areas, resulting in additional Thermal distortion appears. Thermal survey system 124 monitors changing thermal characteristics, and this information is used to compensate for such thermal distortion. Thermal survey system 124 introduces errors in thermal compensation of imaging system 140 of satellite 100 due to limitations on the accuracy of the information provided. Although these errors are generally small, they also contribute to the uncertainty of ground position search when used to determine the ground position of pixels in an image that includes a portion of the earth's surface.

이미징 시스템(140)으로부터의 열 왜곡 외에도, 이미징 시스템(140)의 오류를 증대시키는 대기 왜곡 또한 나타나게 된다. 그러한 대기 왜곡은, 몇 개의 예를 들자면, 가열, 수증기, 오염물질 및 상대적으로 높거나 낮은 에어로졸의 농도 등을 포함하는, 이미지화되는 영역과 관련된 대기 내의 다양한 원인에 의하여 유발될 수 있다. 이러한 대기 왜곡에 의하여 생기는 이미지 왜곡은 이미징 시스템(140)에 의해 이미지화되는 영역과 관련된 지상 위치 정보를 결정할 때, 한층 더한 오류의 구성요소가 된다. 또한 포지션, 자세 및 왜곡 정보의 오류 외에도, 인공위성(100)의 속도가 수신된 정보에서의 상대론적인 왜곡을 초래한다. 일 실시예에서, 인공위성(100)은 초당 약 7.5 킬로미터의 속도로 움직인다. 이러한 속도에서는, 상대적으로 작긴 하지만, 그럼에도 불구하고 상대론적인 고려사항들이 존재하며, 일 실시예에서 인공위성(100)에 의해 수집된 이미지들은 그러한 고려사항을 반영하기 위해 보상된다. 비록 이러한 보상이 상대적으로 높은 수준의 정확도를 가지고 수행되지만, 상대론적인 변화들 때문에 다소의 오류는 존재한다. 이러한 오류는 일반적으로 작긴 하지만, 종종 지상 이미지의 화소들과 관련된 지상 위치 탐색의 불확실성에 상대적으로 심각한 영향을 미친다.In addition to thermal distortion from imaging system 140, atmospheric distortion is also present which increases the error of imaging system 140. Such atmospheric distortion can be caused by various causes in the atmosphere associated with the area being imaged, including, for example, heating, water vapor, contaminants and concentrations of relatively high or low aerosols. Image distortion caused by such atmospheric distortion becomes a further component of error when determining ground position information related to the area imaged by imaging system 140. In addition to errors in position, posture and distortion information, the speed of the satellite 100 results in relativistic distortion in the received information. In one embodiment, satellite 100 moves at a speed of about 7.5 kilometers per second. At this speed, although relatively small, there are nonetheless relativistic considerations, and in one embodiment the images collected by the satellite 100 are compensated to reflect such considerations. Although this compensation is performed with a relatively high level of accuracy, some errors exist due to relativistic changes. These errors are generally small, but often have a relatively serious impact on the uncertainty of ground position search associated with the pixels of the ground image.

포지션 측량 시스템(116), 자세 측량 시스템(120), 열 측량 시스템(124), 대기 왜곡 및 상대론적인 변화들의 부가된 오류는, 일 실시예에서 약 20미터 정도의 불확실성을 갖는 지상 위치 계산으로 이어진다. 이러한 불확실성은 일반적인 인공위성 이미징 시스템에서 상대적으로 작긴 하지만, 이 불확실성을 더욱 감소시킨다면 더 많은 수의 사용자들에 대한 그 지상 이미지의 유용성을 증대시킬 수 있을 것이며, 또한 더 많은 수의 애플리케이션에서 그 이미지가 사용 가능하게 될 것이다.Added errors in position surveying system 116, posture surveying system 120, thermal surveying system 124, atmospheric distortion and relativistic changes lead to ground position calculations with an uncertainty of about 20 meters in one embodiment. . Although this uncertainty is relatively small in a typical satellite imaging system, further reducing this uncertainty may increase the usefulness of the ground image for a larger number of users, and also allow the image to be used in a larger number of applications. It will be possible.

본 실시예의 송/수신 회로(128)는 인공위성(100) 및 지상 관측소 및/또는 다른 인공위성들을 통한 통신에 대한 잘 알려진 구성요소들을 포함한다. 인공위성(100)은 ① 인공위성(100)의 포지션 컨트롤링, ② 이미징 시스템(140), 다양한 송/수신 안테나 및/또는 태양 전지판의 포인팅 제어와 관련된 지시 정보를 일반적으로 수신한다. 인공위성(100)은 위치 측정 시스템(116), 자세 측정 시스템(120), 열 측정 시스템(24)으로부터 얻어진 인공위성 정보 및 인공위성 시스템(100)의 모 니터링과 제어에 사용된 다른 정보와 함께 이미지 데이터를 일반적으로 송신한다.The transmit / receive circuit 128 of this embodiment includes well-known components for communication via satellite 100 and ground stations and / or other satellites. The satellite 100 generally receives indication information relating to the position control of the satellite 100, the imaging system 140, the pointing control of various transmit / receive antennas and / or solar panels. The satellite 100 displays image data along with the satellite information obtained from the position measuring system 116, the posture measuring system 120, the thermal measuring system 24, and other information used for monitoring and controlling the satellite system 100. In general, transmit.

운동 시스템(132)은 다수의 모멘텀 장치(momentum devices) 및 쓰러스트 장치(thrust devices)를 포함한다. 모멘텀 장치는 당업계에 잘 알려진 바와 같이 관성 자세 컨트롤(inertial attitude control)을 제공함으로써 인공위성(100)의 컨트롤에 이용된다. 또한 당업계에 잘 알려진 바와 같이 인공위성 포지션은, 인공위성에 탑재되어 그 인공위성(100)을 다양한 궤도 포지션에 배치하기 위해 동작되는 쓰러스트 장치들에 의해 컨트롤된다. 그 운동 시스템은 인공위성의 위치를 변화시키기 위하여, 그리고 태양의 배치 또는 안테나의 운동, 대기 항력(atmospheric drag), 일사 압력(solar radiation pressure), 중력 경사 효과(gravity gradient effects) 또는 다른 외부적 또는 내부적 힘과 같은 수많은 환경 요인으로부터 기인하는 다양한 섭동(perturbations)에 대한 보상을 위하여 이용된다. The exercise system 132 includes a number of momentum devices and thrust devices. The momentum device is used to control the satellite 100 by providing inertial attitude control as is well known in the art. As is well known in the art, the satellite position is controlled by thrust devices mounted on the satellite and operated to position the satellite 100 at various orbital positions. The motion system can be used to change the position of the satellites, and to position the sun or move the antenna, atmospheric drag, solar radiation pressure, gravity gradient effects or other external or internal effects. It is used to compensate for various perturbations resulting from numerous environmental factors such as forces.

인공위성 시스템(100)은 또한 전원 시스템(136)을 포함한다. 전원 시스템은 인공위성의 전원을 생성하기 위해 이용되는 어떠한 전원 시스템이라도 될 수 있다. 일 실시예예서, 전원 시스템은 태양 전지판에서 수신된 빛으로부터 전기를 생성하기 위해 작동하는 다수의 태양 전지(solar cells)를 갖는 태양 전지판(도시되지 않음)을 포함한다. 태양 전지판은 전원 시스템의 나머지 부분과 연결되는데, 그 나머지 부분은 배터리, 전원 조절 장치(power regulator), 전원 공급 장치 및 태양 전지판 방향 전환 회로를 포함한다. 이 태양 전지판 방향 전환 회로는 위성 시스템(100)에 대한 태양 전지판의 방향을 전환하여 태양과 적절히 정렬하도록 함으로써 태양 전지판으로부터 출력되는 전력을 높이는 동작을 한다. Satellite system 100 also includes a power system 136. The power system can be any power system used to generate satellite power. In one embodiment, the power system includes a solar panel (not shown) having a plurality of solar cells that operate to generate electricity from light received at the solar panel. The solar panel is connected to the rest of the power system, which includes a battery, a power regulator, a power supply and a solar panel redirection circuit. This solar panel redirection circuit operates to increase the power output from the solar panel by redirecting the solar panel relative to the satellite system 100 so as to align it properly with the sun.

상기 언급한 대로 이미징 시스템(140)은 지구의 지표면 또는 수면의 전부 또는 일부분을 포함하는 이미지를 수집하기 위해 이용된다. 이러한 이미지는, 이에 한정되는 것은 아니지만, 건물, 도로, 운송 수단, 지질학적 랜드마크(geological landmarks), 농지(agricultural elements), 선박 또는 승강장 등을 포함하는 자연의 또는 인공의 지형물들을 담고 있을 수 있다. 일 실시예에서, 이미징 시스템(140)은 7 kHz 와 24 kHz 사이의 조절가능한 주파수에서 화소 라인(lines of pixels)을 수집하기 위해 작동하는 푸시브룸(pushbroom) 타입의 이미저(imager)를 이용한다. 이미징 시스템(140)은 상이한 파장 대역 내에서 이미지를 수집하기 위해 작동하는 다수의 이미저(imager)를 포함할 수 있다. 일 실시예에서, 이미징 시스템(140)은 적색, 녹색, 파란색 및 가까운 적외선 대역에 대한 이미저들을 포함한다. 이러한 대역에서 수집된 이미지들은 이미지화된 표면에서 반사된 가시광선의 컬러 이미지를 만들어내기 위해 서로 결합될 수 있다. 이와 유사하게, 어느 한 영역 또는 영역의 조합으로부터의 이미지는 농업적 정보, 대기 질(air quality) 정보 등과 같은, 이미지화된 표면과 관련된 다양한 타입의 정보를 획득하기 위해 이용될 수 있다. 위에서 이미지의 4가지 대역만이 기술되었지만, 다른 실시예에서는 더 많은 또는 더 적은 대역에서 센서를 통하여 데이터를 수집할 수 있다. 또한 다른 실시예에서는, 다른 센서 타입, 능동 또는 수동형 수집 기술(active or passive collection technology)을 이용한 센서, 센서 타입들의 조합, 상이한 수집 모드를 갖는 센서 또는 그 데이터로부터 위치 정보가 유도될 수 있거나 그 데이터에 위치정보가 적용될 수 있는 모든 원격 탐지 장치로부터 데이터를 수집할 수 있다. 센서 타입의 예시로서 적외선 센서, 자외선 센서, 레이더 센서(radar sensors), 광선 레이더 센서(lidar sensors) 및 열 대역 센서(thermal band sensors)가 포함되나 이에 한정된 것은 아니다. 또한, 다른 실시예에서는 능동 또는 수동형 수집 기술과 함께 이러한 센서 타입을 이용할 수 있다. 예를 들면, 일 실시예에서는 능동형, 바이스태틱 레이더(active, bi-static radar) 기술을 이용해 레이더 이미지를 수집할 수 있고, 또다른 실시예에서는 수동형, CCD 이미징(passive, CCD imaging) 기술을 이용해 적외선 이미지를 수집할 수 있다. 일 실시예에서, 이미징 시스템(140)은 센서 타입의 서로 연관된 방향이 알려져 있거나 또는 그 방향이 미리 계산된 정확도까지 측량된, 센서 타입들의 조합으로 구성된다. 다른 실시예에서는, 이에 한정된 것은 아니나, 스팟 스캐너(spot scanner), 위스크브룸 이미저(whiskbroom imagers), 본체 탑재용 프레임 카메라(body-mounted frame cameras) 및 1축 또는 2축 스티어링 미러(one-axis or two axis steering mirrors)를 이용하는 프레임 카메라를 포함하는, 상이한 수집 모드를 갖는 센서를 사용한다. 센서 타입, 수집 기술, 센서 타입의 조합 및 주어진 실시예에서 사용된 수집 모드는, 그 데이터를 이용하는 애플리케이션에 의존할 것이다. 일 실시예에서, 이미징 시스템(140)은 CCD 화소들의 어레이(array)로 구성되는 이미저를 포함하는데, 여기서 각 화소는 2048 레벨의 밝기까지 획득할 수 있으며 그 후 이미지 내의 각 화소에 대하여 이 밝기를 11비트(bit)의 데이터로 표시할 수 있다. 또 다른 실시예에서, 이미징 시스템(140)의 일 대역은, 바다 표면의 위 또는 아래에 존재하는 암초나 그 밖의 다른 자연 또는 인공 구조물과 같은 이미지 지형들에 이용된다. As mentioned above, imaging system 140 is used to collect images that include all or a portion of the earth's surface or surface. Such images may contain natural or artificial features, including but not limited to buildings, roads, vehicles, geological landmarks, agricultural elements, ships or platforms. have. In one embodiment, imaging system 140 employs a pushbroom type imager that operates to collect lines of pixels at adjustable frequencies between 7 kHz and 24 kHz. Imaging system 140 may include a number of imagers that operate to collect images within different wavelength bands. In one embodiment, imaging system 140 includes imagers for red, green, blue and near infrared bands. Images collected in these bands can be combined with each other to produce a color image of visible light reflected from the imaged surface. Similarly, images from either region or combination of regions can be used to obtain various types of information related to the imaged surface, such as agricultural information, air quality information, and the like. Although only four bands of the image have been described above, other embodiments may collect data through the sensor in more or less bands. Also in other embodiments, location information may be derived from or may be derived from other sensor types, sensors using active or passive collection technology, combinations of sensor types, sensors with different acquisition modes, or data thereof. Data can be collected from any remote detection device for which location information can be applied. Examples of sensor types include, but are not limited to, infrared sensors, ultraviolet sensors, radar sensors, raydar sensors, and thermal band sensors. In addition, other embodiments may use this sensor type with active or passive acquisition techniques. For example, in one embodiment, radar images may be acquired using active, bi-static radar technology, and in another embodiment, passive, CCD imaging technology may be used. Infrared images can be collected. In one embodiment, imaging system 140 consists of a combination of sensor types, in which the associated directions of the sensor types are known or surveyed to a pre-calculated accuracy. In other embodiments, but not limited to spot scanners, whiskbroom imagers, body-mounted frame cameras, and one- or two-axis steering mirrors. Sensors with different acquisition modes are used, including frame cameras using axis or two axis steering mirrors. The sensor type, acquisition technique, combination of sensor types, and acquisition mode used in a given embodiment will depend on the application using that data. In one embodiment, imaging system 140 includes an imager comprised of an array of CCD pixels, where each pixel can achieve up to 2048 levels of brightness and then for each pixel in the image. Can be represented as 11 bits of data. In another embodiment, one zone of the imaging system 140 is used for image topography, such as reefs or other natural or man-made structures that exist above or below the ocean surface.

획득된 이미지에 기록된 컨트롤은 일 화소 이하의 지상 위치 정확도(geopositional accuracy)를 가질 수 있고, 획득된 이미지에 대한 그 컨트롤의 매칭은 또한 부화소 정확도(sub-pixel accuracy)를 가질 수 있다. 예를 들면, 이미지의 화소 사이즈가 지상에 투영된 상태에서 가로 0.6 미터, 세로 0.6 미터일 때, 지상에서의 컨트롤은 0.3미터 CE90 (90th-percentile circular error)의 수평 정확도 및 0.3 미터 LE90 (90th-percentile linear error)의 수직 정확도를 갖는 것으로 알려진다. 이러한 정확도 정보는 지상에서의 GPS(Global Positioning System) 위치 측량의 정확도로부터 유도될 수 있다. 그리고나서 그 컨트롤의 그러한 지상 위치는 그 컨트롤을 둘러싸고, 포함하고 있는 인접한 영역의 개별적인 "컨트롤 칩" 이미지를 통해 정의될 수 있으며, 그 컨트롤 칩은 그 자체가 가로 0.6 미터, 세로 0.6 미터의 사이즈가 될 수 있는 화소들로 이루어진 작은 이미지이다. 컨트롤 칩 이미지상의 그 컨트롤의 정의된 위치는 부화소 레벨에서 정의될 수 있으며, 따라서 컨트롤 칩 상의 컨트롤 특성의 배치의 정확도는 부화소 레벨이 될 것이다. 그리고나서 그 컨트롤 칩은 획득된 이미지에 대한 칩의 중복(overlap)내에서의 공통 특성 정보를 이용하여 획득된 이미지에 기록(매치)된다. 전체 공통 영역에 걸쳐서, 컨트롤 칩과 획득된 이미지를 서로 대비하는 매쳐(matcher)의 능력은, 매칭 정확도를 획득된 이미지의 화소 사이즈보다 더 작게 한다. 부화소 정확도 레벨에서 그 칩에 대한 획득된 이미지의 매칭과 함께, 부화소 정확도 레벨에서 컨트롤 특성의 컨트롤칩에의 배치 정확도, 부화소 정확도 레벨에서 지상 컨트롤의 정확도, 이미지에 대한 컨트롤 기록의 유래된 정확도는 부화소 레벨이 될 수 있다. 이 기록으로부터 유 도된 보상 요인은 따라서 부화소 레벨이 될 수 있으며, 연속적으로 획득되는 목표 이미지의 오류 레벨은 기준 이미지의 캡쳐 전후의 결정된 일정 시간 동안 부화소 레벨이 될 것이다.The controls recorded in the acquired image may have geopositional accuracy of one pixel or less, and the matching of those controls to the acquired image may also have sub-pixel accuracy. For example, when the image's pixel size is 0.6 meters wide and 0.6 meters high, with the pixel size projected on the ground, the control at ground level is 0.3 meters CE90 (90th-percentile circular error) horizontal accuracy and 0.3 meters LE90 (90th- It is known to have a vertical accuracy of percentile linear error. Such accuracy information can be derived from the accuracy of GPS (Global Positioning System) positioning at ground level. The ground position of the control can then be defined by an individual "control chip" image of the adjoining area that surrounds the control, and the control chip itself is 0.6 meters wide by 0.6 meters high. It is a small image composed of possible pixels. The defined position of the control on the control chip image can be defined at the subpixel level, so that the accuracy of the placement of the control feature on the control chip will be at the subpixel level. The control chip is then written (matched) to the acquired image using common characteristic information in the chip's overlap to the acquired image. Over the entire common area, the matcher's ability to contrast the control chip and the acquired image with each other makes the matching accuracy smaller than the pixel size of the acquired image. With matching of the acquired image for that chip at the subpixel accuracy level, the placement accuracy of the control characteristics at the subpixel accuracy level, the accuracy of the ground control at the subpixel accuracy level, the resulting control records for the image Accuracy can be at the subpixel level. The compensation factor derived from this recording can thus be the subpixel level, and the error level of the successively acquired target image will be the subpixel level for a predetermined time determined before and after the capture of the reference image.

도 3을 참고하면, 인공위성 시스템에 의해 이미지화된 영역의 지상 위치 정보 결정에서 이용되는 조작 상의 단계들이 본 발명의 일 실시예로 기술되어 있다. 일 실시예에서, 인공위성은 그것의 궤도 경로를 따라서 다수의 이미지를 수집한다. 동시에, 포지션 측량 시스템, 자세 측량 시스템 및 열 측량 시스템으로부터 미리 결정된 간격마다 정보가 연속으로 수집된다. 이러한 이미지들은 하나 또는 그 이상의 지상 스테이션을 통해, 이미지 및 그와 관련된 포지션, 자세 및 왜곡 정보가 인공위성 시스템과 관련된 어떠한 다른 알려진 정보와 함께 처리되는 이미지 생성 시스템으로 포지션, 자세 및 열 정보를 따라서 전송된다. 그 프로세싱은 어느 때라도 발생할 수 있으며 거의 실시간에 근접하게 처리된다. 본 실시예에서, 이미지는 기준 이미지 및 목표 이미지 모두를 포함한다. 전에 언급한 바대로, 기준 이미지는 높은 수준의 정확도까지 알려진 위치 좌표를 갖는 하나 또는 그 이상의 지상 위치와 중복되는 이미지이며, 목표 이미지는 높은 수준의 정확도까지 알려진 위치 좌표를 갖는 하나 또는 그 이상의 지상 위치와 중복되지 않는 이미지이다. 도 3의 실시예에서, 블록 200에서 나타낸 대로 제 1 기준 이미지에 대하여 인공위성의 포지션이 결정된다. 위에서 언급한 대로, 그 포지션은 제 1 기준 이미지가 수집된 시간에서의 인공위성의 궤도 포지션과 관련있는 정보를 포함하며, 또한 내부 경로 위치(in-track location), 횡단 경로 위치(cross-track location) 및 방사 거리 위 치(radial distance location)를 포함한다. 그 포지션은 포지션 측량 시스템으로부터의 정보 및 포지션 정보 전체를 개선시키기 위해 이용되는 다른 지상 정보를 이용하여 결정될 수 있다. 블록 204에서, 이미징 시스템에 대한 자세 정보가 결정된다. 앞서 논의된 바대로, 이미징 시스템의 자세는 이미징 시스템의 기준 좌표 시스템의 궤도 경로에 대한 이미징 시스템의 피치(pitch), 로울(roll) 및 편요각(yaw)의 방향을 포함한다. 자세 정보를 결정할 때, 자세 측량 시스템의 다양한 구성 요소로부터 정보가 수집된다. 이 정보는 이미징 시스템의 자세를 결정하기 위하여 분석된다. 블록 208에서, 이미징 시스템에 대한 왜곡 정보가 결정된다. 열 측량 시스템에 의해 모니터링됨에 따라서, 그 왜곡 정보는 광학 구성 요소들의 열 왜곡 변화와 함께 이미징 시스템의 광학 구성 요소 내의 알려진 변화를 포함한다. 지구 대기로부터의 왜곡 또한 그 왜곡 정보에 포함된다.Referring to FIG. 3, operational steps used in determining terrestrial position information of an area imaged by a satellite system are described as an embodiment of the present invention. In one embodiment, the satellite collects multiple images along its orbital path. At the same time, information is continuously collected at predetermined intervals from the position surveying system, the posture surveying system and the thermal surveying system. These images are transmitted along the position, attitude and thermal information through one or more ground stations to an image generation system where the image and its associated position, pose and distortion information are processed along with any other known information related to the satellite system. . The processing can occur at any time and is processed in near real time. In this embodiment, the image includes both the reference image and the target image. As mentioned previously, the reference image is an image that overlaps one or more ground positions with known position coordinates up to a high level of accuracy, and the target image is one or more ground positions with known position coordinates up to a high level of accuracy. The image does not overlap with. In the embodiment of FIG. 3, the position of the satellite is determined with respect to the first reference image as shown in block 200. As mentioned above, the position includes information relating to the orbital position of the satellite at the time the first reference image was collected, and also includes in-track location, cross-track location. And a radial distance location. The position can be determined using information from the position surveying system and other terrestrial information used to improve the position information as a whole. At block 204, attitude information about the imaging system is determined. As discussed above, the pose of the imaging system includes the direction of the pitch, roll, and yaw of the imaging system relative to the orbital path of the reference coordinate system of the imaging system. When determining attitude information, information is collected from various components of the attitude survey system. This information is analyzed to determine the pose of the imaging system. At block 208, distortion information for the imaging system is determined. As monitored by the thermal survey system, the distortion information includes known changes in the optical components of the imaging system along with changes in the thermal distortion of the optical components. Distortion from the Earth's atmosphere is also included in the distortion information.

포지션, 자세 및 왜곡 정보의 결정 이후에는, 블록 212에 따라 적어도 하나의 미리 결정된 지상 지점의 예측된 화소 위치가 계산된다. 일 실시예에서, 그 이미지내의 적어도 하나의 화소의 지상 위치를 계산하기 위해, 그 이미징 시스템의 포지션, 자세 및 왜곡 정보를 이용하여 이 예측된 화소 위치가 결정된다. 보다 명확히 말하면, 포지션은 지구 표면 위에서 이미징 시스템의 위치를 제시하고, 자세는 이미징 시스템이 이미지를 수집하고 있는 방향을 제시하며, 왜곡은 만약 열, 대기 또는 상대론적인 효과들이 없었을 경우 광선이 존재했을 상태에서 얼마만큼 왜곡되었는지를 제시한다. 이미징 시스템이 포인트되는 방향과 함께, 이미징 시스템의 위치 및 이미징 시스템 상의 왜곡의 효과는 이미징 시스템에 의해 수신된 빛을 생성하는 지구 표현상의 이론적인 위치로 나타난다. 그리고나서 이 이론적인 위치는 산악 지대와 같은 지구 표면상의 위치의 표면 지형에 기반하여 더욱 조정된다. 이러한 부가적인 계산이 행해지고, 예측된 화소 위치가 생성된다.After the determination of the position, attitude and distortion information, the predicted pixel position of the at least one predetermined ground point is calculated according to block 212. In one embodiment, this predicted pixel position is determined using the position, attitude, and distortion information of the imaging system to calculate the ground position of at least one pixel in the image. More specifically, the position gives the position of the imaging system on the earth's surface, the posture gives the direction in which the imaging system is collecting the image, and the distortion is the state of the ray if there were no thermal, atmospheric or relativistic effects. How much distortion is given in. Along with the direction in which the imaging system is pointed, the position of the imaging system and the effects of distortion on the imaging system are represented by the theoretical positions on the Earth representation that produce light received by the imaging system. This theoretical position is then further adjusted based on the surface topography of the location on the earth's surface, such as in mountainous areas. This additional calculation is made and a predicted pixel position is produced.

블록 216에 나타난 바와 같이, 기준 이미지 내의 각각의 미리 결정된 지상 지점의 예측된 화소 위치의 결정에 따라서, 기준 이미지 내의 각각의 미리 결정된 지상 지점의 예측된 화소 위치 및 각각의 미리 결정된 지상 지점의 실제 화소 위치와의 비교에 기반하여, 하나 또는 그 이상의 포지션, 자세 및 왜곡 정보에 대하여 보상 요인이 계산된다. 그 보상 요인(들)의 계산은 아래에서 좀 더 자세히 기술될 것이다.As indicated by block 216, in accordance with the determination of the predicted pixel position of each predetermined ground point in the reference image, the predicted pixel position of each predetermined ground point in the reference image and the actual pixel of each predetermined ground point. Based on the comparison with the position, a compensation factor is calculated for one or more position, pose and distortion information. The calculation of the compensation factor (s) will be described in more detail below.

보상 요인(들)의 계산에 따라서, 그 보상된 자세, 포지션 및/또는 왜곡 정보를 이용하여, 이미징 시스템에 의하여 수집된 다른 이미지 내의 적어도 하나의 화소의 지상 위치가 계산된다. 도 3의 실시예에서, 만약 목표 이미지 내의 화소의 위치 정확도가 다른 기존의 방법들을 이용하여 달성 가능한 정확도보다 높다면 그 보상 요인(들)이 이용된다. 위에서 논의된 바대로, 인공위성은 모든 궤도에 걸쳐서 다양한 섭동(perturbations) 및 온도 변화(temperature fluctuations)를 갖는다. 따라서, 기준 이미지 내의 미리 결정된 지상 지점의 예측된 화소 위치 및 기준 이미지 내의 미리 결정된 지상 지점의 실제 화소 위치와의 차이에 기반하여 보상 요인(들)이 계산될 때, 어느 지점에서 표준적인 센서에서 유도된(sensor-derived) 측량을 이용하여 예측된 화소의 지상 위치가 보상 요인(들)을 이용하여 결정된 지상 위치보다 더 정확할 때까지, 이미징 시스템의 포지션, 자세 또는 왜곡의 더 많은 변화는 보상 요인(들)의 정확도를 감소시킬 것이다. 그러한 경우, 보상 요인(들)은 이용되지 않을 수 있으며, 표준적인 센서에서 유도된 측량을 이용하여 예측된 화소의 지상 위치가 지상 위치 정보를 위해 이용될 것이다. 블록 220에서 언급되었듯이, 제 2 이미지 내의 하나 또는 그 이상의 화소의 지상 위치는 보상 요인(들)을 이용하여 결정된다. 이러한 방법에서, 기준 이미지를 획득하기 전 및/또는 후에 획득된 이미지의 지상 위치는 비교적 높은 수준의 정확도로 결정될 수 있다. 또한 이미지를 수집하는 동안의 궤도 중에 다양한 기준 이미지가 획득됐다면, 각각의 기준 이미지를 통해 생성된 조정 요인을 이용하여 그 궤도에 대해 획득된 모든 이미지의 지상 위치를 결정하는 것이 가능할 수도 있다.In accordance with the calculation of the compensation factor (s), using the compensated pose, position and / or distortion information, the ground position of at least one pixel in another image collected by the imaging system is calculated. In the embodiment of Figure 3, the compensation factor (s) is used if the positional accuracy of the pixels in the target image is higher than the accuracy achievable using other existing methods. As discussed above, satellites have various perturbations and temperature fluctuations over all orbits. Thus, at some point when the compensation factor (s) is calculated based on the difference between the predicted pixel position of the predetermined ground point in the reference image and the actual pixel position of the predetermined ground point in the reference image, the point is derived from the standard sensor. Until the ground position of the pixel predicted using sensor-derived surveying is more accurate than the ground position determined using the compensation factor (s), more changes in position, posture or distortion of the imaging system will result in the compensation factor ( S) will reduce the accuracy. In such a case, the compensation factor (s) may not be used, and the ground position of the pixel predicted using the survey derived from the standard sensor will be used for the ground position information. As mentioned at block 220, the ground position of one or more pixels in the second image is determined using the compensation factor (s). In this way, the ground position of the acquired image before and / or after acquiring the reference image can be determined with a relatively high level of accuracy. Also, if various reference images were acquired during the trajectory during image acquisition, it may be possible to determine the ground position of all the images acquired for that trajectory using the adjustment factors generated through each reference image.

도 3에 대하여 기술된 조작 상의 단계의 순서는 수정될 수 있음을 언급한다. 예를 들면, 제 2 이미지는 기준 이미지가 획득되기 전에 먼저 획득될 수 있다. 기준 이미지의 획득 전에 제 2 이미지가 획득될 수 있음에도 불구하고, 보상 요인은 제 2 이미지에 적용될 수 있다. 다른 실시예에서, 다양한 기준 이미지가 획득되며, 기준 이미지의 획득 사이에 얻어진 다양한 이미지들에 대한 보상 요인 세트를 유도하기 위하여 각각의 이미지 내의 각각의 미리 결정된 지상 지점에 대한 예측된 위치에 대해 피팅 알고리즘(fitting algorithm)이 적용된다. 그러한 피팅 알고리즘은 최소 자승 적합 연결(least squares fit)일 수 있다.Note that the order of operational steps described with respect to FIG. 3 can be modified. For example, the second image may be acquired first before the reference image is obtained. Although the second image may be obtained before the acquisition of the reference image, the compensation factor may be applied to the second image. In another embodiment, various reference images are obtained and a fitting algorithm for the predicted position for each predetermined ground point in each image to derive a set of compensation factors for the various images obtained between acquisition of the reference image. (fitting algorithm) is applied. Such a fitting algorithm may be a least squares fit.

이제 도 4를 참고하면, 본 발명의 일 실시예에 대한 보상 요인(들)의 결정에 대하여 기술되고 있다. 전에 논의한 바와 같이, 이미징 인공위성에 탑재된 이미징 시스템은, 하나 또는 그 이상의 미리 결정된 지상 지점과 중복되는 기준 이미 지(300)를 획득한다. 각각의 미리 결정된 지상 지점의 지구상의 위치는 WGS84와 같은 어떠한 적절한 기준에 대한 위도, 경도 및 고도로써 표현될 수 있다. 그러한 미리 결정된 지상 지점은, 알려진 위치를 갖는 지구 이미지 내에 포함된, 확인가능한 어떠한 자연의 또는 인공의 지형이 될 수 있다. 미리 결정된 지상 지점의 예로서, 이에 한정된 것은 아니지만, 인도 모퉁이(sidewalk corners), 건물 모퉁이, 주차장 모퉁이, 연안 지형 및 섬 위의 확인 가능한 지형을 들 수 있다. 미리 결정된 지상 지점의 선택에 있어 한 가지 고려할 점은 미리 결정된 지상 지점을 포함하는 지역의 이미지를 확인하는 것이 비교적 쉽다는 것이다. 비록 미리 결정된 지상 지점이 컴퓨터 시스템 또는 인간에 의해 확인 가능한 어떤 지점이라도 될 수 있지만, 이미지 내에서 주변 지역에 비해 높은 수준의 컨트라스트(contrast)를 갖고 알려진 위치를 갖는 지점이 종종 바람직하다. 일 실시예에서, 미리 결정된 지상 지점의 계산된 위치에서 나타나는 오류량을 결정하기 위해 이미지 기록(image registration)이 이용된다. 그러한 이미지 기록은 일반적인 지형, 라인 지형(line feature) 및/또는 지역 대비(area correlation)에 기반을 둘 수 있다. 이미지 기록에 기반한 지역 대비는 한 지점 주변 화소의 영역을 평가하며, 컨트롤 이미지 내의 유사한 사이즈를 갖는 지역에 그 지역을 기록한다. 그 컨트롤 이미지는 원격 이미징 플랫폼에 의해 획득되었으며, 높은 수준의 정확도로 알려진 실제 지역 위치를 갖는다. 그 지역에 대해 예측된 위치와 그 지역의 실제 위치 간의 오류량은 보상 요인을 결정하는데 이용된다. 지형 및 라인 기록은 건물이나 보도의 가장자리와 같이 이미지 내의 좀 더 구체적인 항목들을 확인하고 매치시킨다. 화소 그룹은 그 외곽선을 확인하거나 지형의 윤곽을 그리며, 그 화소 그룹핑(grouping)은 컨트롤 이미지 내의 똑같은 그룹핑과 비교된다. 상기 논의는 화소 공간에서 수행되는 기록에 대해 다루고 있지만, 미리 결정된 정확도를 가지고 화소 도메인에서 그 도메인으로, 또는 그 도메인으로부터 화소 도메인으로의 변환이 수행될 수 있는 어떠한 다른 도메인에서도 그와 똑같은 기록이 이루어질 수 있다. 예를 들면, 기준 이미지 내의 지형을 벡터로 나타내고 그것을 컨트롤 이미지 내의 지형에 대해 알려진 벡터에 기록함으로써 라인 지형 기록이 벡터 공간에서 이루어질 수 있다. 유사하게, 기준 이미지 내의 지역을 폴리곤으로 나타내고 그 폴리곤을 컨트롤 이미지 내의 알려진 폴리곤에 기록함으로써 지역 대비 기록이 이루어질 수 있다. 일 실시예에서, 기준 이미지(300)가 수집될 때 미리 결정된 지상 지점이 보일 가능성을 높이기 위하여, 구름이 덮일 가능성이 감소된 위치 내에서 미리 결정된 지상 지점이 선택된다.Referring now to FIG. 4, the determination of the compensation factor (s) for one embodiment of the present invention is described. As discussed previously, an imaging system mounted on an imaging satellite acquires a reference image 300 that overlaps with one or more predetermined ground points. The location on Earth of each predetermined ground point can be expressed as latitude, longitude, and altitude for any suitable reference, such as WGS84. Such predetermined ground point can be any identifiable natural or artificial terrain included in the Earth image with a known location. Examples of predetermined ground points include, but are not limited to, sidewalk corners, building corners, parking lot corners, coastal terrain, and verifiable terrain on islands. One consideration in the selection of predetermined ground points is that it is relatively easy to identify the image of the area that contains the predetermined ground points. Although the predetermined ground point can be any point visible to the computer system or human, it is often desirable to have a high level of contrast and a known position relative to the surrounding area within the image. In one embodiment, image registration is used to determine the amount of error that appears at the calculated location of the predetermined ground point. Such image recordings may be based on general terrain, line features, and / or area correlation. Region contrast based on image recording evaluates the area of pixels around a point and records the area in a similarly sized area within the control image. The control image was acquired by a remote imaging platform and has a real local location known to a high degree of accuracy. The amount of error between the predicted location for the area and the actual location of the area is used to determine the compensation factor. Terrain and line records identify and match more specific items in the image, such as the edge of a building or sidewalk. A group of pixels identifies its outline or outlines the terrain, and its grouping is compared to the same grouping in the control image. Although the above discussion deals with the recording performed in pixel space, the same recording can be made with a predetermined accuracy in any other domain in which the transformation from pixel domain to that domain or from domain to pixel domain can be performed. Can be. For example, line terrain recording can be made in vector space by representing the terrain in the reference image as a vector and recording it to a vector known for the terrain in the control image. Similarly, local contrast recording can be made by representing a region in the reference image as a polygon and recording the polygon to a known polygon in the control image. In one embodiment, in order to increase the likelihood that the predetermined ground point is visible when the reference image 300 is collected, the predetermined ground point is selected within the position where the likelihood of cloud cover is reduced.

도 4를 다시 참고하면, A, B, C 및 D로 도시된 네 개의 미리 결정된 지상 지점들의 예측된 화소 위치가 기준 이미지(300)에 대하여 결정된다. A, B, C 및 D의 위치는 도 4에서 도시된 것처럼, 이미징 인공위성에 대한 자세, 포지션, 왜곡 정보 그리고 지구 위치에 대한 고도와 같은 표면 위치 정보에 기반한 A, B, C, D의 예측된 화소 위치이다. A', B', C' 및 D'로 확인되는, 미리 결정된 지상 지점의 실제 화소 위치는 "선험적인(a priori)" 높은 수준의 정확도로 알려져 있다. 그리고나서, 예측된 화소 위치와 실제 화소 위치간의 차이는 보상 요인을 결정하기 위해 이용된다. 일 실시예에서, 그 보상 요인은 수정된 이미징 시스템 자세이다. 또다른 실시예에서, 그 보상 요인은 수정된 이미징 시스템 자세 및 수정된 이미징 시스템 포지션이다. 또다른 실시예에서, 보상 요인은 수정된 이미징 시스템 자세 및 수정된 이미징 시스템 포지션, 그리고 수정된 왜곡 정보이다. 이미징 시스템의 자세, 포지션 및 왜곡 중 하나 이상이 보상된 다른 실시예들에서, 하나의 요인은 다른 요인에 비해 더 많은 보상을 받게 된다. Referring again to FIG. 4, the predicted pixel position of four predetermined ground points, shown as A, B, C, and D, is determined relative to the reference image 300. The positions of A, B, C, and D are predicted of A, B, C, D based on surface position information such as attitude, position, distortion information, and altitude relative to the Earth's position on the imaging satellite, as shown in FIG. Pixel position. The actual pixel position of the predetermined ground point, identified as A ', B', C ', and D', is known for a high level of "a priori" accuracy. The difference between the predicted pixel position and the actual pixel position is then used to determine the compensation factor. In one embodiment, the compensating factor is a modified imaging system pose. In another embodiment, the compensating factors are a modified imaging system posture and a modified imaging system position. In another embodiment, the compensating factors are a modified imaging system attitude and a modified imaging system position, and corrected distortion information. In other embodiments where one or more of the attitude, position and distortion of the imaging system are compensated for, one factor will receive more compensation than the other.

일 실시예에서, 이미징 시스템의 포지션, 이미징 시스템의 자세, 이미징 시스템의 왜곡 및 이미징 시스템에 의해 획득된 이미지의 지상 위치와 관련된 변수들을 갖는 일련의 방정식의 해를 구함으로써 보상 요인이 결정된다. 이미징 시스템 자세가 보상되는 일 실시예에서, 도 3의 블록 200에서 결정되는 이미징 시스템의 포지션은 정확한 것으로 가정되고, 도 3의 블록 208에서 결정되는 이미징 시스템의 왜곡은 정확한 것으로 가정되며, 기준 이미지로부터 미리 결정된 지상 지점에 대응하는 화소의 지상 위치는, 기준 이미지에서 확인된 미리 결정된 지상 지점의 알려진 위치로 설정된다. 다음에 이미징 시스템의 보상된 자세를 결정하기 위해 방정식을 푼다. 그 후 이 보상된 자세는 다른 이미지 내에서 그 다른 이미지내의 화소의 지상 위치를 결정하는데 이용된다.In one embodiment, the compensation factor is determined by solving a series of equations with variables related to the position of the imaging system, the attitude of the imaging system, the distortion of the imaging system, and the ground position of the image obtained by the imaging system. In one embodiment where the imaging system posture is compensated, the position of the imaging system determined at block 200 in FIG. 3 is assumed to be correct, and the distortion of the imaging system determined at block 208 of FIG. 3 is assumed to be correct, and from the reference image The ground position of the pixel corresponding to the predetermined ground point is set to the known position of the predetermined ground point identified in the reference image. The equation is then solved to determine the compensated pose of the imaging system. This compensated pose is then used to determine the ground position of the pixel in that other image within the other image.

일 실시예에서, 보상된 이미징 시스템 자세를 계산하기 위해 삼각 측량(triangulation)이 이용된다. 이 실시예에서, 삼각 측량은 상태-공간 추정 방법(state-space estimation approach)을 이용하여 수행된다. 삼각 측량을 위한 상태-공간 방법은 최소 자승 방법(least square)을 이용할 수 있는데, 이 최소 자승 방법은 "선험적인" 정보, 혹은 통계적 또는 칼만 필터(Kalman filter)와 같은 베이시안 가정(Bayesian estimation)을 이용한다. 기본적인 최소한의 스퀘어 방법을 이 용하는 실시예에서, 포지션 및 왜곡은 정확한 것으로 추정되고, 미리 결정된 지상 지점에 대응하는 기준 이미지 내의 화소와 관련된 지상 위치는 정확한 것으로 추정된다. 다음에 자세는 보상요인에 대하여 해결되며 보상 요인으로서 이용된다.In one embodiment, triangulation is used to calculate the compensated imaging system pose. In this embodiment, triangulation is performed using a state-space estimation approach. State-space methods for triangulation can use least square methods, which are "a priori" information, or Bayesian estimation, such as statistical or Kalman filters. Use In an embodiment using the basic least square method, the position and distortion are estimated to be accurate, and the ground position relative to the pixel in the reference image corresponding to the predetermined ground point is estimated to be correct. Posture is then solved for compensation factors and used as compensation factors.

위에서 기술된 포지션 파라메터들은 정확하거나 작은 공분산(covariance)값을 갖는 것으로 추정되는 반면, 보상된 이미징 시스템 자세 정보를 결정할 때는 다른 대체값 또한 이용될 수 있다. 이미징 시스템 자세가 이 실시예에서 불확실성의 제 1 원인이기 때문에 위에 기술된 실시예에서는 이미징 시스템 자세가 선택된 것이다. 불확실성의 제 1 원인을 축소시킴으로써, 지상 컨트롤 지점과 중복되지 않는 다른 이미지와 관련된 지상 위치의 정확도가 증대된다. 이미징 시스템 자세가 불확실성의 제 1 원인이 아닌 다른 실시예에서는 다른 파라메터들이 적합하도록 보상될 수 있다.While the position parameters described above are assumed to have accurate or small covariance values, other alternative values may also be used when determining compensated imaging system attitude information. The imaging system pose is selected in the embodiment described above because the imaging system pose is the first source of uncertainty in this embodiment. By reducing the first cause of uncertainty, the accuracy of ground positions relative to other images that do not overlap with ground control points is increased. In other embodiments where the imaging system posture is not the first cause of uncertainty, other parameters may be compensated for as appropriate.

다른 실시예에서, "선험적인" 정보를 이용한 최소 자승 방법을 이용하여 보상 요인이 결정된다. 이 실시예에서, 이미징 시스템 포지션, 자세, 왜곡 및 미리 결정된 지상 지점의 화소 위치는, 이러한 요소들 각각과 관련된 "선험적인" 공분산 정보와 함께 보상 요인을 계산하는데 이용된다. 이 실시예에서, 그들 각각의 공분산값에 의해 제어되는 각각의 파라메터에 대한 보상의 총계와 함께 모든 요인들이 보상될 수 있다. 공분산값은 불확실성의 척도이며, 공분산 행렬(covariance matrix)로써 표현될 수 있다. 예를 들면, 3×3 공분산 행렬은 이미징 시스템의 내부 경로, 횡단 경로 및 방사 거리 포지션에 대응하는 그 행렬의 요소와 함께 이미징 시스템의 포지션을 위하여 이용될 수 있다. 그 3×3 행렬은 포지션 정보의 각 축(axis)에 대한 포지션 오류의 분산값인 대각 요소(diagonal elements)를 포함하고, 대각외 요소(off-diagonal elements)는 각 요소에 대한 포지션 오류 사이의 상관 요인(correlation factors)이다. 이미징 시스템 자세 정보, 왜곡 정보 및 미리 결정된 지상 지점 위치에 대한 다른 공분산 행렬(covariance matrices)이 생성될 수 있다.In another embodiment, the compensation factor is determined using a least squares method using "a priori" information. In this embodiment, the imaging system position, attitude, distortion, and pixel location of the predetermined ground point are used to calculate the compensation factor along with "a priori" covariance information associated with each of these elements. In this embodiment, all factors can be compensated with the total amount of compensation for each parameter controlled by their respective covariance value. Covariance values are a measure of uncertainty and can be expressed as a covariance matrix. For example, a 3x3 covariance matrix may be used for the position of the imaging system along with the elements of that matrix corresponding to the internal path, transversal path, and radiation distance positions of the imaging system. The 3x3 matrix contains diagonal elements, which are the variances of the position errors for each axis of position information, and the off-diagonal elements between the position errors for each element. Correlation factors. Imaging system attitude information, distortion information, and other covariance matrices for predetermined ground point locations may be generated.

"선험적인" 공분산 값과 함께 최소 자승 방법 또는 칼만 필터를 이용하여, 각각의 파라메터에 대한 보상이 이루어진다. 또한, 각 파라메터와 관련된 공분산 값도 생성된다. 따라서, 예를 들면 개선된 자세의 "후험적인(a posteriori)" 공분산은 자세 정정(attitude corrections)과 관련된 공분산을 이용하여 알려진다.Using a least square method or Kalman filter with "a priori" covariance values, compensation for each parameter is made. In addition, covariance values associated with each parameter are also generated. Thus, for example, "a posteriori" covariance of improved posture is known using covariance associated with attitude corrections.

전에 논의된 바와 같이, 일 실시예에서 이미징 시스템의 특정 궤도로부터 다양한 기준 이미지가 수집된다. 이 실시예에서, 도 5에 도시된 바와 같이, 다양한 이미지들이 인공위성 지상 접근 스워스(swath)(400)에서 수집된다. 수집된 이미지에 포함된 것은 제 1 기준 이미지(404) 및 제 2 기준 이미지(408)이다. 미리 결정된 지상 지점과 중복되는 인공위성 지상 접근 스워스(400)내의 지역으로부터 기준 이미지 404, 408이 수집된다. 실제 미리 결정된 지상 지점을 포함하는 지역들은 도 5에서 사선으로 표시된 컨트롤 이미지 406, 410으로 나타난다.도 5에 도시된 예에서, 제 3 이미지(412) 및 제 4 이미지(416) 또한 획득되는데, 둘 다 어떠한 미리 결정된 지상 지점들과도 중복되지 않는다. 이미지 412, 416은 목표 이미지들이다. 이 실시예에서, 제 1 기준 이미지(404)에 포함된 미리 결정된 지상 지점의 실제 위치는 제 1 기준 이미지(404)에 포함된 미리 결정된 지상 지점의 예측된 위치와 비 교된다. 예측된 미리 결정된 지상 지점 위치와 실제 미리 결정된 지상 지점 위치와의 차이에 기반하여 제 1 보상 요인이 결정된다.As discussed previously, in one embodiment various reference images are collected from a particular trajectory of the imaging system. In this embodiment, as shown in FIG. 5, various images are collected at the satellite ground approach swath 400. Included in the collected images are the first reference image 404 and the second reference image 408. Reference images 404 and 408 are collected from an area within the satellite ground access swath 400 that overlaps a predetermined ground point. The areas containing the actual predetermined ground point are represented by control images 406 and 410 indicated by the diagonal lines in Fig. 5. In the example shown in Fig. 5, the third image 412 and the fourth image 416 are also obtained. They do not overlap with any predetermined ground points. Images 412 and 416 are target images. In this embodiment, the actual position of the predetermined ground point included in the first reference image 404 is compared with the predicted position of the predetermined ground point included in the first reference image 404. The first compensation factor is determined based on the difference between the predicted predetermined ground point position and the actual predetermined ground point position.

유사하게, 제 2 기준 이미지(408)에 포함된 미리 결정된 지상 지점의 실제 위치는 제 2 기준 이미지(408)에 포함된 미리 결정된 지상 지점의 예측된 위치와 비교된다. 예측된 미리 결정된 지상 지점 위치와 실제 미리 결정된 지상 지점 위치와의 차이에 기반하여 제 2 보상 요인이 결정된다. 다음에, 위에서 기술된 것과 같이 목표 이미지 412, 416 각각의 하나 또는 그 이상의 화소에 대한 지상 위치를 결정하기 위하여 제 1 보상 요인과 제 2 보상 요인의 조합이 이용될 수 있다. Similarly, the actual position of the predetermined ground point included in the second reference image 408 is compared with the predicted position of the predetermined ground point included in the second reference image 408. The second compensation factor is determined based on the difference between the predicted predetermined ground point position and the actual predetermined ground point position. Next, a combination of the first compensation factor and the second compensation factor can be used to determine the ground position for one or more pixels of each of the target images 412, 416 as described above.

인공위성의 이미징 시스템은 다양한 이미지를 어떠한 순서로도 획득하도록 컨트롤 될 수 있다. 예를 들면, 인공위성은 제 3 이미지(412) 및 제 4 이미지(416)를 획득할 수 있고, 그 다음에 제 1 이미지(404) 및 제 2 이미지(408)를 획득할 수 있다. 일 실시예에서, 이미지는 다음의 순서로 획득된다. 제 1 기준 이미지(404)가 획득되고, 그 다음 제 3 이미지(412)가 획득되며, 그 다음 제 4 이미지(416)가 획득되고, 마지막으로 제 2 기준 이미지(408)가 획득된다. 이 예시에서, 제 3 이미지(412) 및 제 4 이미지(416)에 대한 보상 요인은 제 1 보상 요인 및 제 2 보상 요인의 최소 자승 적합 연결(a least squares fit)에 따라서 계산된다. 만약 그 이미지들이 다른 순서로 획득되었다면, 유사한 테크닉을 이용하여 제 3 이미지(412) 및 제 4 이미지(416)에 대한 보상 요인을 계산하는 것은 당 분야의 통상의 기술 능력 내에서 수월한 일이 될 것이다. The satellite's imaging system can be controlled to acquire various images in any order. For example, the satellite may acquire a third image 412 and a fourth image 416, and then obtain a first image 404 and a second image 408. In one embodiment, the images are obtained in the following order. A first reference image 404 is obtained, then a third image 412 is obtained, then a fourth image 416 is obtained, and finally a second reference image 408 is obtained. In this example, the compensation factors for the third image 412 and the fourth image 416 are calculated according to a least squares fit of the first compensation factor and the second compensation factor. If the images were acquired in a different order, it would be easy to calculate the compensation factors for the third image 412 and the fourth image 416 using similar techniques within ordinary skill in the art. .

위에서 언급한 대로, 일 실시예에서 둘 또는 그 이상의 기준 이미지가 수집 되며 그 이미지들은 보상 요인을 계산하기 위해 이용된다. 이 실시예에서, 각각에 대한 보상 요인을 결정하기 위해 각각의 이미지에 대해 독립적으로 삼각 측량(위에서 기술된 방법을 통한)이 실행된다. 그리고 나서, 미리 결정된 지상 지점을 이용하지 않고 결정된 지상 위치에서 수집된 이미지들과 관련된 지상 위치를 결정하는 데 이용하기 위해 이 보상 요인들은 결합된다. 그 보상 요인들은, 이에 한정된 것은 아니나, 내삽법(interpolation), 다항식 결합(polynomial fit), 단순 평균화(simple averaging) 및 공분산 가중 평균(covariance weighted averaging) 등 과 같은 방법을 이용하여 결합될 수 있다. 다른 방법으로, 모든 이미지들에 대해 한꺼번에 하나의 삼각 측량(위에서 기술한 똑같은 방법을 이용한)이 실행될 수 있는데, 이로써 적절한 타임프레임(timeframe) 내에서 궤도의 전체 스팬(span)에 적용할 수 있는 글로벌 보상 요인(a global compensation factor)을 얻게 된다. 이 글로벌 보상 요인은 미리 결정된 지상 지점의 이용 없이 어떠한 이미지에도 적용될 수 있다.As mentioned above, in one embodiment two or more reference images are collected and the images are used to calculate the compensation factor. In this embodiment, triangulation (through the method described above) is performed independently for each image to determine the compensation factor for each. These compensation factors are then combined to use to determine ground positions associated with images collected at the determined ground positions without using a predetermined ground point. The compensation factors may be combined using methods such as, but not limited to, interpolation, polynomial fit, simple averaging, and covariance weighted averaging. Alternatively, one triangulation (using the same method described above) can be performed on all images at once, thereby allowing global adaptation of the entire span of the trajectory within the appropriate timeframe. A global compensation factor is obtained. This global compensation factor can be applied to any image without the use of predetermined ground points.

전에 언급한 대로, 인공위성은 수집된 이미지를 지구상에 있는 적어도 하나의 지상 스테이션에 전송한다. 그 지상 스테이션은 궤도의 일부분에 대하여 그 지상 스테이션과 인공위성이 통신할 수 있는 곳에 위치한다. 지상 스테이션에서 수신된 이미지는, 그 이미지 내의 화소에 대한 위치 정보를 결정하기 위해 그 지상 스테이션에서 분석될 수 있고, 이 정보와 함께 사용자 또는 데이터 센터(이하 수신자)로 보내진다. 다른 방법으로, 지상 스테이션에서 인공위성으로부터 수신된 미가공 데이터(raw data)는, 이미지와 관련된 지상 위치 정보를 결정하기 위한 어떠한 처리도 없이 지상 스테이션으로부터 수신자에게 직접 보내질 수 있다. 이미징 시스 템의 포지션, 자세 및 왜곡에 관련된 정보를 포함하는 그 미가공 데이터는 미리 결정된 간격으로 계속해서 수집되며, 지상 접근 스워스(400)을 둘러싸게 된다. 그리고 나서 그 미가공 데이터는 미리 결정된 지상 지점을 포함하는 이미지를 결정하기 위해 분석될 수 있다. 그 이미지들 내의 미리 결정된 지상 지점을 이용하여, 다른 이미지들 내의 화소들에 대한 지상 위치는 위에서 기술된 다른 정보들과 함께 계산될 수 있다. 일 실시예에서, 이미지(들)은 인터넷을 통하여 수신자에게 전송될 수 있다. 일반적으로, 이미지는 압축된 형식으로 전달된다. 일단 이미지가 수신되면, 수신자는 그 이미지와 관련된 지상 위치 정보와 함께 지구 위치의 이미지를 생성할 수 있다. 또한 다른 방법을 통해 이미지를 수신자에게 전달하는 것도 가능하다. 예를 들면, 그 이미지(들)은 자기 디스크, CD, 테이프 또는 다른 기록 매체에 기록되어 수신자에게 우송될 수 있다. 만약 필요하다면 그 기록 매체는 인공위성의 포지션, 자세 및 왜곡 정보 또한 포함할 수 있다. 또한 이미지를 하드 카피(hard copy)로 출력해서 그 하드 카피를 수신자에게 우송하는 것도 가능하다. 그 하드 카피는 또한 수신자에게 팩스로 보내지거나 전자적으로 전송될 수 있다. As mentioned previously, satellites transmit the collected images to at least one ground station on Earth. The ground station is located where a satellite can communicate with the ground station for a portion of the orbit. The image received at the ground station can be analyzed at the ground station to determine positional information for the pixels in the image, and is sent to the user or data center (hereinafter called the receiver) with this information. Alternatively, raw data received from the satellite at the ground station can be sent directly from the ground station to the recipient without any processing to determine ground position information associated with the image. The raw data, including information related to the position, attitude, and distortion of the imaging system, is continuously collected at predetermined intervals and surrounds the ground access swath 400. The raw data can then be analyzed to determine an image that includes predetermined ground points. Using a predetermined ground point in those images, the ground position for the pixels in other images can be calculated along with the other information described above. In one embodiment, the image (s) may be sent to the recipient via the Internet. In general, images are delivered in a compressed format. Once the image is received, the receiver can create an image of the earth's location along with the ground location information associated with that image. It is also possible to deliver the image to the receiver in other ways. For example, the image (s) may be recorded on a magnetic disk, CD, tape or other recording medium and mailed to the recipient. If necessary, the recording medium may also include the position, attitude and distortion information of the satellite. It is also possible to print a hard copy of the image and mail the hard copy to the recipient. The hard copy can also be faxed to the recipient or sent electronically.

본 발명은 특히 바람직한 실시예를 통해 제시되고 기술되었으나, 본 발명의 정신과 범위를 벗어나지 않는 범위에서 형식과 세부 내용의 다양한 변화가 이루어질 수 있다는 것이 당업자들에게 이해될 것이다.While the present invention has been presented and described through particularly preferred embodiments, it will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the invention.

Claims (20)

지구 이미지의 위치 정보를 결정하는 방법에 있어서,In the method of determining the position information of the earth image, 적어도 하나의 기준 이미지(reference image)를 획득하는 단계;Obtaining at least one reference image; 지구 관측(earth view)과 관련된 적어도 하나의 목표 이미지(target image)를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―; 및Obtaining at least one target image associated with an earth view, wherein the at least one target image does not overlap with the at least one reference image; And 상기 적어도 하나의 목표 이미지와 관련된 위치 정보를 결정하기 위하여 상기 적어도 하나의 기준 이미지와 관련된 알려진 위치 정보를 이용하는 단계Using known location information associated with the at least one reference image to determine location information associated with the at least one target image. 를 포함하는 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.Position information determination method of the earth image comprising a. 제 1 항에 있어서,The method of claim 1, 상기 적어도 하나의 기준 이미지는 적어도 하나의 지구상의 지형(terrestrial feature) 또는 적어도 하나의 천체상의 물체(celestial object)와 관련된 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.And the at least one reference image is associated with at least one terrestrial feature or at least one celestial object on the earth. 제 1 항에 있어서,The method of claim 1, 상기 적어도 하나의 목표 이미지는 적어도 하나의 지구상의 자연적인 지형, 적어도 하나의 지구상의 인공적인 지형 또는 둘 모두와 관련된 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.Wherein said at least one target image is associated with at least one natural terrain on the earth, artificial terrain on the at least one earth, or both. 제 1 항에 있어서, The method of claim 1, 상기 적어도 하나의 목표 이미지와 관련된 위치 정보를 결정하는 단계는Determining location information associated with the at least one target image 상기 적어도 하나의 기준 이미지에 의해 이미지화된 적어도 하나의 천체상의 물체 또는 적어도 하나의 지구상의 지형의 알려진 위치 정보를 결정하는 단계;Determining known location information of at least one celestial object or at least one topographical feature imaged by the at least one reference image; 적어도 하나의 보상 요인(compensation factor) 및 적어도 하나의 오류 측량(error measurement)―여기서, 상기 적어도 하나의 오류 측량은 상기 적어도 하나의 목표 이미지에 대한 상기 적어도 하나의 보상 요인과 관련됨―을 결정하기 위하여, 알려진 위치 정보 및 이미징 시스템 운동 정보를 이용하는 단계; 및To determine at least one compensation factor and at least one error measurement, wherein the at least one error measurement is associated with the at least one compensation factor for the at least one target image. Using known location information and imaging system motion information; And 상기 적어도 하나의 오류 측량의 크기가 미리 결정된 오류 한계(error limit)보다 작을 때, 상기 적어도 하나의 목표 이미지와 관련된 위치 정보를 결정하기 위해 상기 적어도 하나의 보상 요인을 이용하는 단계Using the at least one compensation factor to determine location information associated with the at least one target image when the magnitude of the at least one error survey is less than a predetermined error limit. 를 포함하는 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.Position information determination method of the earth image comprising a. 제 4 항에 있어서,The method of claim 4, wherein 상기 미리 결정된 오류 한계는, 이미징 시스템과 관련된 적어도 하나의 자 세(attitude), 포지션(position) 및 왜곡(distortion) 측량 정보와 관련된 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.Wherein the predetermined error limit is associated with at least one attitude, position and distortion measurement information associated with an imaging system. 이미징 시스템으로부터 획득된 지구 이미지의 위치 정보를 결정하는 방법에 있어서,A method of determining position information of an earth image obtained from an imaging system, 적어도 하나의 기준 이미지를 획득하는 단계;Obtaining at least one reference image; 지구 관측과 관련된 적어도 하나의 목표 이미지를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―;Obtaining at least one target image associated with earth observation, wherein the at least one target image does not overlap with the at least one reference image; 알려진 지구 위치 정보를 갖는 상기 적어도 하나의 기준 이미지 내의 제 1 지상 지점의 위치를 알아내는 단계;Locating a first ground point in the at least one reference image with known geolocation information; 상기 이미징 시스템과 관련된 포지션, 자세 및 왜곡 정보 중 적어도 하나를 이용하여 상기 적어도 하나의 기준 이미지 내의 상기 제 1 지상 지점의 예상된 위치를 결정하는 단계; 및Determining an expected position of the first ground point in the at least one reference image using at least one of position, pose and distortion information associated with the imaging system; And 상기 예상된 위치 정보 및 상기 제 1 지상 지점의 알려진 위치 정보간의 비교를 기반으로 하여 적어도 하나의 보상 요인을 계산하는 단계; 및Calculating at least one compensation factor based on a comparison between the expected location information and known location information of the first ground point; And 상기 적어도 하나의 보상 요인에 기반하여 상기 적어도 하나의 목표 이미지의 위치 정보를 결정하는 단계Determining position information of the at least one target image based on the at least one compensation factor. 를 포함하는 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.Position information determination method of the earth image comprising a. 제 6 항에 있어서,The method of claim 6, 상기 적어도 하나의 기준 이미지는 적어도 하나의 지구상의 지형 또는 적어도 하나의 천체상의 물체와 관련되는 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.And the at least one reference image is associated with at least one topographical feature or at least one celestial object. 제 6 항에 있어서,The method of claim 6, 상기 적어도 하나의 목표 이미지는 적어도 하나의 지구상의 자연적인 지형, 적어도 하나의 지구상의 인공적인 지형 또는 둘 모두와 관련된 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.Wherein said at least one target image is associated with at least one natural terrain on the earth, artificial terrain on the at least one earth, or both. 제 6 항에 있어서,The method of claim 6, 상기 적어도 하나의 보상 요인을 계산하는 단계는Computing the at least one compensation factor 상기 적어도 하나의 기준 이미지가 이미징 시스템에 의하여 획득되었을 때, 이미징 시스템의 제 1 포지션 정보를 결정하는 단계;When the at least one reference image has been acquired by an imaging system, determining first position information of the imaging system; 상기 적어도 하나의 기준 이미지가 이미징 시스템에 의하여 획득되었을 때, 이미징 시스템의 제 1 자세 정보를 결정하는 단계;When the at least one reference image has been acquired by an imaging system, determining first attitude information of the imaging system; 상기 적어도 하나의 기준 이미지가 이미징 시스템에 의하여 획득되었을 때, 이미징 시스템의 제 1 왜곡 정보를 결정하는 단계; 및When the at least one reference image has been acquired by an imaging system, determining first distortion information of the imaging system; And 상기 적어도 하나의 기준 이미지 내의 상기 제 1 지상 지점의 위치와 상기 지상 지점의 상기 예상된 위치의 차이에 기반하여, 상기 제 1 포지션 정보, 상기 제 1 자세 정보 및 상기 제 1 왜곡 정보 중 적어도 하나에 대한 상기 적어도 하나의 보상 요인에 대하여 해를 구하는 단계At least one of the first position information, the first posture information, and the first distortion information based on a difference between the position of the first ground point in the at least one reference image and the expected position of the ground point. Solving for the at least one compensation factor for 를 포함하는 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.Position information determination method of the earth image comprising a. 제 9 항에 있어서, The method of claim 9, 상기 적어도 하나의 목표 이미지의 위치 정보를 결정하는 단계는Determining the position information of the at least one target image 상기 이미징 시스템에 의하여 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 포지션 정보를 결정하는 단계―여기서, 상기 제 2 포지션 정보는 상기 적어도 하나의 보상 요인에 의해 수정됨―;When the at least one target image has been acquired by the imaging system, determining second position information of the imaging system, wherein the second position information is modified by the at least one compensation factor; 상기 이미징 시스템에 의하여 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 자세 정보를 결정하는 단계―여기서, 상기 제 2 포지션 정보는 상기 적어도 하나의 보상 요인에 의해 수정됨―;When the at least one target image has been acquired by the imaging system, determining second attitude information of the imaging system, wherein the second position information is modified by the at least one compensation factor; 상기 이미징 시스템의 의하여 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 왜곡 정보를 결정하는 단계―여기서, 상기 제 2 포지션 정보는 상기 적어도 하나의 보상 요인에 의해 수정됨―; 및When the at least one target image has been acquired by the imaging system, determining second distortion information of the imaging system, wherein the second position information is modified by the at least one compensation factor; And 상기 적어도 하나의 목표 이미지 내의 적어도 하나의 위치에 대한 위치 정보 를 결정하는 단계Determining location information for at least one location in the at least one target image 를 포함하는 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법.Position information determination method of the earth image comprising a. 제 6 항에 있어서, The method of claim 6, 상기 적어도 하나의 보상 요인을 계산하는 단계는Computing the at least one compensation factor 상기 적어도 하나의 기준 이미지가 획득되었을 때, 상기 이미징 시스템의 제 1 포지션 정보 및 관련 공분산(covariance)을 결정하는 단계;When the at least one reference image has been acquired, determining first position information and associated covariance of the imaging system; 상기 적어도 하나의 기준 이미지가 획득되었을 때, 상기 이미징 시스템의 제 1 자세 정보 및 관련 공분산을 결정하는 단계;When the at least one reference image has been acquired, determining first attitude information and associated covariance of the imaging system; 상기 적어도 하나의 기준 이미지가 획득되었을 때, 상기 이미징 시스템의 제 1 왜곡 정보 및 관련 공분산을 결정하는 단계;When the at least one reference image has been acquired, determining first distortion information and associated covariance of the imaging system; 상기 적어도 하나의 기준 이미지 내의 상기 제 1 지상 지점의 위치와 상기 지상 지점의 상기 예상된 위치의 차이에 기반하여, 상기 이미징 시스템의 상기 제 1 포지션 정보, 상기 제 1 자세 정보 및 상기 제 1 왜곡 정보 각각에 대한 상기 적어도 하나의 보상 요인에 대하여 해를 구하는 단계를 포함하고, The first position information, the first attitude information, and the first distortion information of the imaging system based on a difference between the position of the first ground point in the at least one reference image and the expected position of the ground point. Solving for the at least one compensation factor for each, 상기 보상 요인은 그들 각각의 공분산에 의하여 가중되는 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법. And said compensation factors are weighted by their respective covariances. 제 11 항에 있어서, The method of claim 11, 상기 적어도 하나의 목표 이미지의 위치 정보를 결정하는 단계는Determining the position information of the at least one target image 상기 이미징 시스템에 의하여 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 포지션 정보를 결정하는 단계―여기서, 상기 제 2 포지션 정보는 상기 적어도 하나의 보상 요인에 의해 수정됨―;When the at least one target image has been acquired by the imaging system, determining second position information of the imaging system, wherein the second position information is modified by the at least one compensation factor; 상기 이미징 시스템에 의하여 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 자세 정보를 결정하는 단계―여기서, 상기 제 2 자세 정보는 상기 적어도 하나의 보상 요인에 의해 수정됨―;When the at least one target image has been acquired by the imaging system, determining second attitude information of the imaging system, wherein the second attitude information is modified by the at least one compensation factor; 상기 이미징 시스템에 의하여 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 왜곡 정보를 결정하는 단계―여기서, 상기 제 2 왜곡 정보는 상기 적어도 하나의 보상 요인에 의해 수정됨―; 및When the at least one target image has been acquired by the imaging system, determining second distortion information of the imaging system, where the second distortion information is modified by the at least one compensation factor; And 상기 적어도 하나의 목표 이미지 내의 상기 적어도 하나의 위치에 대한 위치 정보를 결정하는 단계Determining location information for the at least one location in the at least one target image 를 포함하는 것을 특징으로 하는 지구 이미지의 위치 정보 결정 방법. Position information determination method of the earth image comprising a. 다수의 화소 및 상기 화소들 중 적어도 하나의 지구 위치 좌표를 포함하는 지구 관측의 이미지에 있어서, An image of the earth observation comprising a plurality of pixels and at least one earth position coordinate of the pixels, 상기 다수의 화소 및 지구 위치 좌표는 The plurality of pixels and earth position coordinates 적어도 하나의 기준 이미지를 획득하는 단계―여기서, 상기 적어도 하나의 기준 이미지는 다수의 화소를 포함함―;Obtaining at least one reference image, wherein the at least one reference image comprises a plurality of pixels; 알려진 지구 위치를 갖고 있는 제 1 지상 지점과 관련된 상기 적어도 하나의 기준 이미지 내의, 적어도 하나의 제 1 화소의 제 1 화소 위치를 결정하는 단계;Determining a first pixel location of at least one first pixel in the at least one reference image associated with a first ground point having a known earth location; 상기 제 1 지상 지점의 예상된 화소 위치와 상기 제 1 화소 위치의 비교에 기반하여 적어도 하나의 보상 요인을 계산하는 단계;Calculating at least one compensation factor based on a comparison of the expected pixel position of the first ground point and the first pixel position; 적어도 하나의 지구 관측의 목표 이미지를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 다수의 화소를 포함하며, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―; 및Obtaining a target image of at least one earth observation, wherein the at least one target image comprises a plurality of pixels and the at least one target image does not overlap with the at least one reference image; And 상기 적어도 하나의 보상 요인에 기반하여 상기 적어도 하나의 목표 이미지의 적어도 하나의 화소에 대한 지구 위치를 결정하는 단계Determining an earth position for at least one pixel of the at least one target image based on the at least one compensation factor 에 의해 획득되는 것을 특징으로 하는 지구 관측의 이미지.Image of Earth observations, characterized in that obtained by. 제 13 항에 있어서,The method of claim 13, 상기 지구 위치는 부화소 정확도(sub-pixel precision)까지 그 위치를 찾을 수 있는 것을 특징으로 하는 지구 관측의 이미지.And wherein the earth position can find its position up to sub-pixel precision. 제 13 항에 있어서,The method of claim 13, 상기 지상 지점은 자연적 지형 또는 인공적 지형을 포함하는 것을 특징으로 하는 지구 관측의 이미지.And said ground point comprises natural or artificial terrain. 제 13 항에 있어서, The method of claim 13, 상기 적어도 하나의 보상 요인을 계산하는 단계는Computing the at least one compensation factor 상기 적어도 하나의 기준 이미지가 획득되었을 때, 이미징 시스템의 제 1 포지션 정보 및 관련된 공분산을 결정하는 단계;When the at least one reference image has been acquired, determining first position information and associated covariance of an imaging system; 상기 적어도 하나의 기준 이미지가 획득되었을 때, 이미징 시스템의 제 1 자세 정보 및 관련된 공분산을 결정하는 단계;When the at least one reference image has been acquired, determining first attitude information and associated covariance of an imaging system; 상기 적어도 하나의 기준 이미지가 획득되었을 때, 이미징 시스템의 제 1 왜곡 정보 및 관련된 공분산을 결정하는 단계;When the at least one reference image has been acquired, determining first distortion information and associated covariance of an imaging system; 상기 제 1 포지션 정보, 상기 제 1 자세 정보 및 상기 제 1 왜곡 정보에 기반하여 상기 제 1 지상 지점의 예상된 화소 위치를 계산하는 단계;Calculating an expected pixel position of the first ground point based on the first position information, the first attitude information and the first distortion information; 상기 예상된 화소 위치와 상기 제 1 화소 위치의 차이를 결정하는 단계; 및Determining a difference between the expected pixel position and the first pixel position; And 상기 차이에 기반한 상기 이미징 시스템의 포지션, 자세 및 왜곡 각각에 대한 적어도 하나의 보상 요인에 대하여 해를 구하는 단계를 포함하고,Solving at least one compensation factor for each of the position, attitude, and distortion of the imaging system based on the difference; 상기 보상 요인은 그들 각각의 공분산에 의해 가중되는 것을 특징으로 하는 지구 관측의 이미지.And said compensation factor is weighted by their respective covariances. 제 16 항에 있어서, The method of claim 16, 지구 위치를 결정하는 단계는Determining the location of the earth 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 포지션 정보를 결정하는 단계;When the at least one target image is obtained, determining second position information of the imaging system; 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 자세 정보를 결정하는 단계;Determining second attitude information of the imaging system when the at least one target image is obtained; 상기 적어도 하나의 목표 이미지가 획득되었을 때, 상기 이미징 시스템의 제 2 왜곡 정보를 결정하는 단계;When the at least one target image is obtained, determining second distortion information of the imaging system; 상기 보상 요인을 상기 제 2 포지션 정보, 상기 제 2 자세 정보 및 상기 제 2 왜곡 정보 중 적어도 하나에 대하여 적용하는 단계; 및Applying the compensation factor to at least one of the second position information, the second attitude information, and the second distortion information; And 상기 적어도 하나의 목표 이미지 내의 적어도 하나의 화소에 대한 지구 위치를 결정하는 단계Determining an earth position for at least one pixel in the at least one target image 를 포함하는 것을 특징으로 하는 지구 관측의 이미지.Image of earth observation, characterized in that it comprises a. 관련된 개체(interested entity)에게 통신망을 통해 이미지를 전송하는 방법에 있어서,In a method for transmitting an image over a communication network to an interested entity, 상기 통신망의 일부분을 통해, 다수의 화소를 포함하는 지구 관측의 디지털 이미지를 전달하는 단계―여기서, 상기 화소중 적어도 하나는, 적어도 하나의 기준 이미지로부터의 적어도 하나의 지상 지점에 기반하여 결정된 적어도 하나의 보상 요인에 기반하여 유도된 지상 위치 정보와 관련됨―를 포함하고,Delivering a digital image of an earth observation including a plurality of pixels through a portion of the communication network, wherein at least one of the pixels is at least one determined based on at least one ground point from at least one reference image Related to ground location information derived based on the compensation factor of 상기 적어도 하나의 기준 이미지는 상기 디지털 이미지와 상이하며 상기 적어도 하나의 기준 이미지는 상기 디지털 이미지와 중복되지 않는 것을 특징으로 하는 이미지 전송 방법.And the at least one reference image is different from the digital image and the at least one reference image does not overlap with the digital image. 제 18 항에 있어서, The method of claim 18, 상기 디지털 이미지는 적어도 하나의 지구상의 자연적인 지형, 적어도 하나의 지구상의 인공적인 지형 중 하나 또는 둘 모두와 관련된 것을 특징으로 하는 이미지 전송 방법.And the digital image is associated with at least one of the natural terrain on the earth, one or both of the at least one artificial terrain on the earth. 제 18 항에 있어서, The method of claim 18, 상기 적어도 하나의 기준 이미지는 적어도 하나의 지구상의 지형 또는 적어도 하나의 천체상의 물체 중 하나와 관련된 것을 특징으로 하는 이미지 전송 방법.And the at least one reference image is associated with at least one of the topographical features of the earth or at least one celestial object.
KR1020087001769A 2005-06-24 2005-12-23 Method and apparatus for determining a location associated with an image KR20080033287A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US52296105A 2005-06-24 2005-06-24
USPCT/US2005/22961 2005-06-24

Publications (1)

Publication Number Publication Date
KR20080033287A true KR20080033287A (en) 2008-04-16

Family

ID=39577618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087001769A KR20080033287A (en) 2005-06-24 2005-12-23 Method and apparatus for determining a location associated with an image

Country Status (1)

Country Link
KR (1) KR20080033287A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170047230A (en) * 2014-07-17 2017-05-04 엘비트 시스템스 엘티디. Stabilization and display of remote images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170047230A (en) * 2014-07-17 2017-05-04 엘비트 시스템스 엘티디. Stabilization and display of remote images

Similar Documents

Publication Publication Date Title
US20080063270A1 (en) Method and Apparatus for Determining a Location Associated With an Image
Grodecki et al. IKONOS geometric accuracy
Nagai et al. UAV-borne 3-D mapping system by multisensor integration
Li Potential of high-resolution satellite imagery for national mapping products
US8483960B2 (en) Self-calibrated, remote imaging and data processing system
US7725258B2 (en) Vehicle based data collection and processing system and imaging sensor system and methods thereof
GREJNER‐BRZEZINSKA Direct exterior orientation of airborne imagery with GPS/INS system: Performance analysis
Muller et al. A program for direct georeferencing of airborne and spaceborne line scanner images
CN108700470A (en) Thermal imaging and paradigmatic system based on UAV system and method
JP2006507483A (en) Data collection and processing system by mobile body
Poli A rigorous model for spaceborne linear array sensors
Burman Calibration and orientation of airborne image and laser scanner data using GPS and INS
WO2012134419A1 (en) Self-calibrated, remote imaging and data processing system
Seiz et al. Cloud mapping from the ground: Use of photogrammetric methods
CN110296688A (en) A kind of detecting one inclination aerial survey gondola based on passive geographic positioning technology
CN110986888A (en) Aerial photography integrated method
Speyerer et al. In-flight geometric calibration of the lunar reconnaissance orbiter camera
USRE49105E1 (en) Self-calibrated, remote imaging and data processing system
WO2007001471A2 (en) Method and apparatus for determining a location associated with an image
Breuer et al. Geometric correction of airborne whiskbroom scanner imagery using hybrid auxiliary data
KR20080033287A (en) Method and apparatus for determining a location associated with an image
Hu et al. Scan planning optimization for 2-D beam scanning using a future geostationary microwave radiometer
Ishii et al. Autonomous UAV flight using the Total Station Navigation System in Non-GNSS Environments
Perry et al. Precision directly georeferenced unmanned aerial remote sensing system: Performance evaluation
JPH01229910A (en) Navigating device

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination