KR20080033287A - Method and apparatus for determining a location associated with an image - Google Patents
Method and apparatus for determining a location associated with an image Download PDFInfo
- Publication number
- KR20080033287A KR20080033287A KR1020087001769A KR20087001769A KR20080033287A KR 20080033287 A KR20080033287 A KR 20080033287A KR 1020087001769 A KR1020087001769 A KR 1020087001769A KR 20087001769 A KR20087001769 A KR 20087001769A KR 20080033287 A KR20080033287 A KR 20080033287A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- information
- imaging system
- determining
- earth
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 48
- 238000003384 imaging method Methods 0.000 claims abstract description 134
- 238000005259 measurement Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 7
- 230000002411 adverse Effects 0.000 abstract description 2
- 238000009877 rendering Methods 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000005855 radiation Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 이미지와 관련된 지상 좌표의 결정에 관한 것으로 특히, 이미징 시스템에 의하여 생성된 하나 또는 그 이상의 이미지들로부터 다른 이미지들까지의 보상된 좌표 정보의 해석에 관한 것이다.The present invention relates to the determination of ground coordinates associated with an image, and more particularly to the interpretation of compensated coordinate information from one or more images generated by an imaging system to other images.
오늘날 인공위성과 항공 애플리케이션(airborne applications)의 원격 탐사 시스템(remote sensing systems)은, 이미지 프레임을 구성하는 화소열(rows of pixels)들을 포함하도록 처리될 수 있는 이미지들을 일반적으로 제공한다. 많은 애플리케이션의 경우, 이미지 내의 하나 또는 그 이상의 화소들의 지상 위치를 인식하는 것이 바람직하다. 예를 들면, 경도, 위도, 고도와 같은 지리학적 용어로 표현된, 이미지 화소의 지상 위치를 갖는 것이 필요할 수 있다. 어떤 지점의 정확한 지상 위치를 표현하기 위하여 기존의 많은 방법들이 사용된다. 일반적으로, 횡축 메르카토르 도법(UTM : Universal Transverse Mercator)과 같은 기준 투사(reference projection)는, 미국 측지기준망 27(NAD27 : North American Datum of 1927), 미국 측지기준망 83(NAD83 : North American Datum of 1983) 및 세계측지계(WGS84 : World Geodetic System of 1984)와 같은 다양한 수평 및 수직 데이텀(datums)을 따라 측정된다. 또한, 미국 내의 이미지에 대해서는, 특정한 주(state)나 카운티(county)의 타운십/레인지/섹션(township/range/section)과 같이 미국 국유지 조사 시스템(PLSS : Public Land Survey System)을 통해 이미지 내의 화소 또는 물체의 위치를 표현하는 것이 필요할 수도 있다.Today, remote sensing systems of satellite and airborne applications generally provide images that can be processed to include the rows of pixels that make up the image frame. For many applications, it is desirable to recognize the ground position of one or more pixels in an image. For example, it may be necessary to have the ground position of an image pixel, expressed in geographic terms such as longitude, latitude, altitude. Many existing methods are used to represent the exact ground position of a point. In general, reference projections, such as the Universal Transverse Mercator (UTM), are known as US Geodetic Reference Network 27 (NAD27: North American Datum of 1927), US Geodetic Reference Network 83 (NAD83: North American Datum of 1983) and the World Geodetic System of 1984 (WGS84) along various horizontal and vertical datums. In addition, for images in the United States, pixels within the image may be obtained through a public land survey system (PLSS), such as a township / range / section of a particular state or county. Or it may be necessary to express the position of the object.
원격 탐사 시스템에 의해 수집된 이미지의 정확한 지상 위치 정보를 얻어내고 그것을 상기 언급한 표준 또는 다른 표준에 의해 표현하기 위해서는, 이미지 수집 당시의 이미징 시스템의 상태가 어느 정도 확실한 수준까지 알려져 있어야 한다. 이미징 시스템에 의해 이미지화된 정확한 영역을 결정하는, 이미징 시스템의 상태를 구성하는 수많은 변수들이 존재한다. 예를 들어 인공위성의 이미징 애플리케이션에서, 인공위성의 궤도 포지션(position), 이미징 시스템의 자세(attitude), 인공위성 또는 그것의 이미징 시스템의 대기 효과(atmospheric effects) 및 열 왜곡(thermal distortion)을 포함한 다양한 다른 요인 등은 모두가 이미징 시스템에 의하여 이미지화되는 영역을 결정할 수 있는 정확도에 기여한다. 이러한 요인들 각각을 인식하는 것에서의 오류는, 이미징 시스템에 의하여 이미지화된 영역들의 지상 위치를 결정하는데 부정확을 야기한다.In order to obtain accurate ground position information of the image collected by the remote sensing system and to express it by the above-mentioned standard or other standards, the state of the imaging system at the time of image acquisition must be known to a certain degree. There are a number of variables that make up the state of the imaging system, which determines the precise area imaged by the imaging system. For example, in satellite imaging applications, various other factors include the orbital position of the satellite, the attitude of the imaging system, the atmospheric effects and thermal distortion of the satellite or its imaging system. Etc. all contribute to the accuracy with which the area to be imaged by the imaging system can be determined. Errors in recognizing each of these factors cause inaccuracies in determining the ground position of the areas imaged by the imaging system.
본 발명은, 모든 요인들이 그러한 것은 아니지만, 원격 탐사 플랫폼에 의해 수집된 미가공 이미지 데이터(raw image data)에 대한 지상 위치 정보를 생성하기 위해 사용된 많은 요인들이, 관련된 이미지에 대한 부정확한 지상 위치 정보의 도출로 이어지는 오류들에 영향을 받는다는 것을 인식하였다.Although the present invention is not all of the factors, many factors used to generate ground position information for raw image data collected by a remote sensing platform may result in inaccurate ground position information for the associated image. It was recognized that it was affected by the errors that led to the derivation.
본 발명은 적어도 하나의 오류 원인에 의한 역효과를 감소시키고, 이미지에 대한 좀 더 정확한 지상 위치 정보를 도출함으로써, 그 이미지를 이용하는 다양한 개체들에 대하여 그 정보를 더욱 유용하게 만든다. 그 결과, 어떤 관계있는 개체가 하나의 지상 이미지를 수신했다면, 그 지상 이미지 내의 다양한 지형들의 위치는 향상된 정확도를 갖고 식별될 것이고, 그럼으로써 그러한 이미지들을 보다 폭넓은 종류의 애플리케이션에 이용할 수 있는 능력을 향상시킨다.The present invention reduces the adverse effect of at least one error cause and derives more accurate ground position information for the image, making the information more useful for the various entities using the image. As a result, if a related entity has received a single ground image, the location of the various terrains within that ground image will be identified with improved accuracy, thereby improving the ability to use such images for a wider variety of applications. Improve.
본 발명의 일 실시예에서는 하나의 인공위성 이미지 내의 화소들에 대한 지상 위치 좌표를 결정하는 방법을 제공한다. 이 방법은 (a) 적어도 하나의 기준 이미지(reference image)를 획득하는 단계; (b) 상기 적어도 하나의 기준 이미지에서 적어도 하나의 제 1 화소의 위치를 알아내는 단계―여기서, 상기 제 1 화소는 기존에 알려진 지구 위치 좌표를 갖는 하나의 지점과 대응함―; (c) 인공위성에 대하여 입수가능한 적어도 하나의 자세, 포지션 및 왜곡 정보를 이용하여 상기 제 1 이미지 내에서 예측된 상기 지점의 화소 위치를 결정하는 단계; (d) 상기 지점의 예측된 상기 화소 위치와 상기 제 1 화소의 알려진 위치의 비교 결과에 기반한, 적어도 하나의 보상 요인을 계산하는 단계; (e) 지구 관측(earth view)에 의한 적어도 하나의 목표 이미지(target image)를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―;및 (f) 인공위성에 대하여 입수 가능한 상기 비행자세, 포지션 및 왜곡 정보와 함께 상기 보상 요인을 이용하여 상기 적어도 하나의 목표 이미지 내의 적어도 하나의 화소에 대한 지구 위치 좌표를 결정하는 단계를 포함한다.One embodiment of the present invention provides a method of determining ground position coordinates for pixels in a satellite image. The method comprises the steps of (a) obtaining at least one reference image; (b) locating at least one first pixel in the at least one reference image, wherein the first pixel corresponds to a point having known global position coordinates; (c) determining a pixel position of the predicted point in the first image using at least one attitude, position and distortion information available for the satellite; (d) calculating at least one compensation factor based on a result of comparing the predicted pixel position of the point with a known position of the first pixel; (e) obtaining at least one target image by earth view, wherein the at least one target image does not overlap with the at least one reference image; and (f) Determining earth position coordinates for at least one pixel in the at least one target image using the compensation factor along with the flight attitude, position and distortion information available for the satellite.
상기 보상 요인은 하나의 이미지에 대한 플랫폼 포지션, 자세, 왜곡 및 지상 위치 정보와 관련된 하나의 방정식 세트를 풀어서 계산되며, 그에 따라서 하나 또는 그 이상의 포지션, 자세 및 왜곡에 대한 조정치들이 획득된다. 포지션, 자세, 왜곡 및 지상 위치 정보는 조정치들에 우선하여 정확도의 레벨들을 변화시키는 것으로 알려져 있다. 또한, 조정에 앞선 포지션, 자세, 왜곡 각각의 정확도 레벨과 관련된 그들의 조정치를 획득하기 위하여, 공분산 행렬(covariance matrices)의 형태로 나타낸, 선행하는 정확도 불확실성(accuracy uncertainties)과 함께 하나의 방정식 세트를 푸는 것은 증대될 수 있다. 그리고나서, 그 조정된 자세, 조정된 포지션, 조정된 왜곡 정보 또는 그들의 모든 조합은 그 목표 이미지에 대한 위치 좌표를 결정할 때 보상 요인으로서 이용된다. 목표 이미지는 이미징 시스템에 의해 기준 이미지의 수집 전 또는 후에 수집될 수 있다.The compensation factor is calculated by solving one set of equations related to platform position, attitude, distortion and ground position information for one image, so that adjustments for one or more positions, attitudes and distortions are obtained. Position, posture, distortion, and ground position information is known to change levels of accuracy in preference to adjustments. In addition, to obtain their adjustments related to the accuracy levels of each of the positions, attitudes, and distortions prior to adjustment, one set of equations, together with the preceding accuracy uncertainties in the form of covariance matrices, is solved. Can be augmented. Then, the adjusted posture, adjusted position, adjusted distortion information or any combination thereof is used as a compensation factor when determining the position coordinates for the target image. The target image may be collected before or after the collection of the reference image by the imaging system.
본 발명의 또 다른 실시예에서는 원격 탐지 플랫폼으로부터 획득된 지상 이미지의 위치 정보를 결정하는 방법을 제공한다. 그 방법은 (a) 적어도 하나의 기준 이미지를 획득하는 단계; (b) 하나의 지구 관측과 관련된 적어도 하나의 목표 이미지를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―;및 (c) 상기 적어도 하나의 목표 이미지와 관련된 위치 정보를 결정하기 위하여 상기 적어도 하나의 기준 이미지와 관련된 알려진 위치 정보를 이용하는 단계를 포함한다.Another embodiment of the present invention provides a method for determining location information of a terrestrial image obtained from a remote detection platform. The method includes (a) acquiring at least one reference image; (b) obtaining at least one target image associated with one earth observation, wherein the at least one target image does not overlap with the at least one reference image; and (c) the at least one target image Using known location information associated with the at least one reference image to determine location information associated with the at least one reference image.
또한 본 발명의 또 다른 실시예는 다수의 화소와, 화소들 중 적어도 하나의 지상 위치 좌표들을 모두 포함하는 지상 영역의 이미지를 제공한다. 그 화소들과 좌표들은 (a) 적어도 하나의 기준 이미지를 획득하는 단계―여기서, 상기 기준 이미지는 대대수의 화소들을 포함함―; (b) 한 지점과 관련된 상기 적어도 하나의 기준 이미지 내에서 적어도 하나의 제 1 화소의 위치를 알아내는 단계―여기서, 상기 지점은 이미 알려진 지구 위치 좌표를 가짐―; (c) 상기 적어도 하나의 기준 이미지 내의 상기 지점의 예측된 화소 위치 및 상기 적어도 하나의 제 1 기준 이미지 내의 상기 제 1 화소의 상기 알려진 위치와의 비교 결과에 기반하여 보상 요인을 계산하는 단계; (d) 지구 관측에 의한 적어도 하나의 목표 이미지를 획득하는 단계―여기서, 상기 적어도 하나의 목표 이미지는 다수의 화소를 포함하며, 상기 적어도 하나의 목표 이미지는 상기 적어도 하나의 기준 이미지와 중복되지 않음―;및 (e) 상기 보상 요인에 기반하여 상기 적어도 하나의 목표 이미지의 적어도 하나의 화소에 대하여 지구 위치 좌표를 결정하는 단계에 의하여 획득된다.Yet another embodiment of the present invention provides an image of a terrestrial area that includes both a plurality of pixels and at least one ground position coordinate of the pixels. The pixels and coordinates are (a) acquiring at least one reference image, wherein the reference image comprises a plurality of pixels; (b) locating at least one first pixel within the at least one reference image associated with a point, wherein the point has a known global position coordinate; (c) calculating a compensation factor based on a result of comparison with the predicted pixel position of the point in the at least one reference image and the known position of the first pixel in the at least one first reference image; (d) obtaining at least one target image by earth observation, wherein the at least one target image comprises a plurality of pixels, wherein the at least one target image does not overlap with the at least one reference image And (e) determining global position coordinates for at least one pixel of the at least one target image based on the compensation factor.
또 다른 실시예에서는 통신망을 통하여 하나의 이미지를 하나의 관련된 개체에게 전송하는 방법을 제공한다. 이 방법은 그 통신 망의 한 부분을 통해 다수의 화소를 포함하는 디지털 이미지를 전송하는 단계를 포함하고, 그 화소들 중 적어도 하나는, 적어도 하나의 기준 이미지로부터 얻은 적어도 하나의 지상 지점에 기반하여 결정된 보상 요인에 기초하여 유도된 지상 위치 정보와 관련이 있으며, 이 방법에 있어서 상기 적어도 하나의 기준 이미지는 상기 디지털 이미지와 서로 상이하고 서로 중복되지 않는다. Yet another embodiment provides a method of transmitting one image to one related entity via a communication network. The method includes transmitting a digital image comprising a plurality of pixels over a portion of the communication network, wherein at least one of the pixels is based on at least one ground point obtained from at least one reference image. And the ground position information derived based on the determined compensation factor, in which the at least one reference image differs from the digital image and does not overlap with each other.
도 1은 지상의 이미지를 획득하는 지구 궤도상의 인공위성을 도시하는 도면이고,1 is a diagram showing a satellite on Earth orbit to acquire the image of the ground,
도 2는 본 발명의 일 실시예에서 나타난 인공위성을 도시하는 블록도이며,2 is a block diagram showing a satellite shown in an embodiment of the present invention,
도 3은 본 발명의 일 실시예에서 인공위성의 이미지와 관련된 위치 좌표를 결정하는 수행 단계를 도시한 흐름도이고,3 is a flowchart illustrating a performing step of determining position coordinates associated with an image of a satellite in an embodiment of the present invention;
도 4는 정확한 위치가 알려져 있는 지점들을 포함하는 기준 이미지를 도시한도면이며,4 is a diagram showing a reference image including points at which an exact position is known,
도 5는 본 발명의 일 실시예에서 몇몇의 이미지화된 영역을 포함하는 경로를도시한 도면이다.5 is a diagram illustrating a path including several imaged regions in one embodiment of the invention.
일반적으로, 본 발명은 인공위성이나 다른 원격 탐지 플랫폼에 탑재된 이미징 시스템에 의하여 획득된, 적어도 하나의 이미지 화소와 관련된 지상 위치 정보의 결정에 관한 것이다. 지상 위치 정보를 생성하는 프로세스는 (a) 그 위치가 정확하게 알려져 있는 지점들을 포함하는 영역들의 하나 또는 그 이상의 이미지(기준 이미지)들을 획득하는 단계, (b) 이미징 시스템에 대하여 입수 가능한, 시간에 따라 변하는 포지션, 비행 자세 및 왜곡 정보를 이용하여 상기 지점들의 위치를 예측 하는 단계, (c) 하나 또는 그 이상의 보상 요인을 유도하기 위해, 데이터 피팅 알고리즘(data fitting algorithm)을 이용하여 이미 알려진 위치와 상기 예측된 위치를 비교하는 단계, (d) 상기 보상 요인(들)을 시간의 다른 순간들에 내삽(interpolateing) 또는 외삽(extrapolating)하는 단계 및, 그리고 나서 (e) 상기 기준 이미지들의 정확하게 알려진 위치를 갖는 지점들을 포함하지 않는 영역들의 하나 또는 그 이상의 다른 이미지(목표 이미지)들에 대하여 상기 보상 요인(들)을 적용하는 단계를 포함한다. 이 프로세스는 상기 기준 이미지와 중복되지 않는 목표 이미지에 대해서도 적용될 수 있다.In general, the present invention relates to the determination of ground position information associated with at least one image pixel, obtained by an imaging system mounted on a satellite or other remote detection platform. The process of generating ground position information includes (a) acquiring one or more images (reference images) of areas containing points whose location is known precisely, (b) over time, available to the imaging system. Predicting the location of the points using varying position, flight attitude and distortion information; (c) using a data fitting algorithm to derive one or more compensation factors; Comparing the predicted positions, (d) interpolating or extrapolating the compensation factor (s) at different moments of time, and then (e) determining the exact known positions of the reference images. The compensation factor for one or more other images (target images) of areas that do not contain points having Applying (s). This process can be applied to a target image that does not overlap with the reference image.
상기 이미지와 지상 위치 정보를 생성하는 프로세스에 대하여 개괄적으로 기술했는데, 그의 일 실시예가 좀 더 자세하게 기술된다. 도 1을 참조하면, 지구 (104)의 궤도를 돌고 있는 인공위성(100)이 도시되어 있다. 처음에, 여기에 있는 지구를 참조할 때, 행성체와 연관되어 관련 위치를 갖는 이미지 또는 다른 원격 탐지 정보를 획득하는 데 바람직한 어떠한 천체로도 참조가 이루어질 수 있다. 또한, 여기에 있는 인공위성을 참조할 때, 이미지를 획득할 능력을 수반한 어떠한 우주선, 인공위성, 항공기 또는 다른 원격 탐지 플랫폼으로도 참조가 이루어질 수 있다. 또한 여기에 포함되어 있는 그려진 도형들 중 어느 것도 일정한 비율에 맞게 그려진 것이 아니며, 그러한 그림들은 단지 도해의 목적으로 그려진 것임을 언급한다.The process of generating the image and ground position information is outlined, but one embodiment thereof is described in more detail. Referring to FIG. 1, a
도 1에 도시된 것과 같이, 인공위성(100)은 궤도 경로(108)를 따라 지구(104)의 궤도를 돌고 있다. 궤도 경로(108)를 따르는 인공위성(100)의 포지션은, 내부 경로 위치(in-track location), 횡단 경로 위치(cross-track location) 및 방사 거리 위치(radial distance location)를 포함하는 몇 개의 변수들로 정의될 수 있다. 내부 경로 위치는 그 인공위성이 지구(104)궤도를 따라 돌 때 궤도 경로(108)을 따라서 인공위성의 포지션과 관련된다. 횡단 경로 위치는 궤도(108)내의 운동 방향과 연관된 인공위성(100)의 측면 포지션과 관련된다. 방사 거리 위치는 지구(104)로부터 인공위성(100)까지의 방사거리에 관련된다(도 1과 관련, 이것은 그 페이지의 안과 밖에 존재할 것이다.). 인공위성의 물리적인 포지션과 관련된 이러한 요인들은 집합적으로 그 인공위성의 추산 위치(ephemeris)로서 언급된다. 여기서 인공위성의 '포지션'을 언급할 때, 이러한 요인들에 대하여 참조가 이루어진다. 또한, 궤도 경로와 관련하여, 그 인공위성(100)은 그것의 자세로써 집합적으로 언급되는 피치(pitch), 편요각(yaw) 및 로울(roll)의 방향(orientation)값을 갖게 될 수 있다. 인공위성(100)에 탑재된 이미징 시스템은 지구(104) 표면의 일부분을 포함하는 이미지(112)를 획득 가능하다. 이미지(112)는 다수의 화소로 이루어진다.As shown in FIG. 1, the
인공위성(100)이 지구(104) 표면의 이미지를 획득할 때, 이미징 시스템의 포지션, 자세 및 왜곡 정보를 포함한 그것의 상태에 관련된 정보에 기반하여, 어떤 특정한 이미지 화소(들)의 연관된 지상 위치가 계산될 수 있으며, 이는 아래에 좀 더 자세히 기술될 것이다. 그 지상 위치는 위도, 경도 및 고도, 또는 그 밖에 다른 적용가능한 좌표계의 용어로 계산될 수 있다. 그러한 인공위성으로부터 얻어진 이미지와 연관된 하나 또는 그 이상의 지형의 위치에 대해 인식하는 것이 종종 바람직하며, 또한 각각의 이미지 화소의 상대적으로 정확한 위치 정보를 인식하는 것이 종종 바람직하다. 그 인공위성을 통해 수집된 이미지는 상업적 그리고 비상업적 애플리케이션에서 이용될 수 있다. 이미지(112)가 유용하게 쓰일 수 있는 애플리케이션의 숫자는, 보다 높은 해상도를 가진 이미징 시스템에서 증가하며, 이미지(112)에 포함된 하나 또는 그 이상의 화소의 지상 위치가 보다 정확하게 알려질 때 더욱 증가된다.When
도 2를 참고하면, 본 발명의 일 실시예에 나타난 이미징 인공위성(100)을 표시한 블록도가 묘사된다. 그 이미징 인공위성(100)은, 포지션 측량 시스템(116), 자세 측량 시스템(120), 열 측량 시스템(124), 송/수신 회로(128), 인공위성 운동 시스템(132), 전원 시스템(136) 및 이미징 시스템(140)을 포함하는 많은 기구들을 구비한다. 본 실시예의 포지션 측량 시스템(116)은 다수의 위성항법장치(GPS : Global Positioning System) 인공위성으로부터 포지션 정보를 수신하는 GPS 수신기를 포함하며, 이는 당업계에 잘 알려져 있다. 포지션 측량 시스템(116)은 주기적인 간격으로 GPS 인공위성으로부터 정보를 획득한다. 만약 그 주기적인 간격 사이에 그 인공위성(100)의 포지션이 시간에 맞추어 결정되는 것이 희망된다면, 그 시간 내의 특정한 지점에 대한 인공위성의 포지션을 생성하기 위하여, 그 포지션 측량 시스템으로부터의 GPS 정보는 그 인공위성의 궤도와 관련된 다른 정보와 함께 결합된다. 그러한 시스템에서 전형적인 것처럼, 포지션 측량 시스템(116)에 의해 획득된 인공위성(100)의 포지션은, 포지션 측량 시스템(116) 및 관련된 GPS 인공위성의 한계로 인한 일정량의 오류를 포함한다. 일 실시예에서, 포지션 측량 시스템(116) 데이터로부터 유도 및 정제된 데이터를 이용하여, 인공위성(100)의 포지션이 수 미 터 이내로 알려진다. 이러한 오류는 비록 작기는 하나, 종종 지상 이미지의 화소들과 연관된 지상 위치의 불확실성에 비교적 상당하게 공헌한다.2, a block diagram depicting an
자세 측량 시스템(120)은 이미징 시스템(140)에 대한 자세 정보를 결정하는 데 이용된다. 일 실시예에서, 자세 측량 시스템(120)은 각도를 측량하는 하나 또는 그 이상의 자이로스코프 및 다양한 천체의 이미지를 획득하는 하나 또는 그 이상의 스타 트랙커(star tracker)를 포함한다. 스타 트랙커에 의해 획득되는 이미지 내의 다양한 천체들의 위치는 이미징 시스템(140)의 자세를 결정하기 위해 이용된다. 일 실시예에서, 스타 트랙커는 이미징 시스템(140)에 고정된 기준 좌표 시스템(reference coordinate system)에 대한 로울, 피치 및 편요각의 방향 정보를 제공하기 위해 배치된다. 포지션 측량 시스템(116)에 대하여 위에 기술된 것과 유사하게, 자세 측량 시스템의 스타 트랙커는 이미지를 획득하기 위하여 주기적인 간격으로 동작한다. 이미징 시스템(140)의 자세는 이러한 주기적인 간격 사이에서 변할 수 있고, 또 종종 변한다. 예를 들면 일 실시예에서는, 비록 그 주파수가 증가되거나 감소될 수 있기는 하나, 약 10 Hz의 속도로 스타 트랙커가 이미지를 수집한다. 본 실시예에서, 비록 그 주파수들 또한 증가되거나 감소될 수 있기는 하나, 7 kHz 에서 24 kHz 사이의 라인 속도로 이미징 시스템(140)이 이미지를 획득하기 위해 동작한다. 어느 경우에나, 이미징 시스템(140)은 일반적으로 스타 트랙커보다 높은 속도로 동작하며, 그 결과 스타 트랙커로부터 연속하는 자세 측량기 사이에서 다수의 지상 이미지 화소들이 획득된다. 스타 트랙커의 연속적인 이미지 사이의 시간 간격에 대한 이미징 시스템(140)의 자세는, 자이로스코프로부터의 각속도 정 보(angular rate information)와 같은 추가적인 정보와 함께 스타 트랙커의 정보를 이용하여 이미징 시스템(140)의 자세를 예측하기 위한 목적으로 결정된다. 자이로스코프는 이미징 시스템(140)의 각속도를 탐지하기 위해 이용되며, 이러한 정보와 함께 이미징 시스템(140)에 대한 자세 정보를 조절하기 위해 이용된다. 자세 측량 시스템(120) 또한 제공되는 정보의 정확도에 대한 한계로 인해 이미징 시스템(140)의 예측된 자세에 대한 오류를 낳게 된다. 이러한 오류들은 일반적으로 작긴 하지만, 종종 지상 이미지 내의 화소들과 연관된 지상 위치의 불확실성에 대하여 비교적 상당하게 공헌한다.
열 측량 시스템(124)는 이미징 시스템(140)의 열적 특성들을 결정하는 데 이용된다. 본 실시예에서, 열적 특성들은 이미징 시스템(140) 내의 열 왜곡을 보상하는 데에 이용된다. 잘 알려진 대로, 그러한 인공위성 기반의 이미징 시스템(140)에 의해 수집된 이미지와 관련된 지상 위치를 결정할 때의 오류 원인은 이미징 시스템 내의 왜곡이다. 열 측량 시스템(124)에 의해 모니터되는 열 변화는 본 실시예에서 이미징 시스템(140) 내의 왜곡을 보상하기 위해 이용된다. 예를 들면, 그러한 열 변화는, 인공위성(100) 또는 인공위성(100)의 일부분들이 지구나 그 인공위성(100)의 다른 부분들에 의한 음영 캐스트(shadows cast)때문에 햇빛의 안팎으로 움직일 때 발생한다. 이미징 시스템(140)의 구성요소들에서 수신되는 에너지의 상이함은 그 구성요소들이 가열되는 결과를 낳고, 그에 따라 이미징 시스템(140)의 왜곡 및/또는, 이미징 시스템(140)과 포지션(116) 및 자세 측량 시스템(120) 사이의 정렬에서의 변화를 초래한다. 예를 들면 그러한 에너지 변화는, 인공위성(100)의 태양 전 판이 인공위성 본체와 관련된 방향을 바꿀 때 일어날 수 있고, 그 결과 이미징 시스템의 구성요소들이 태양으로부터의 부가적인 방사선에 영향을 받게 된다. 인공위성(100)의 구성요소 부분들로부터의 반사 및 지구 그림자의 안팎으로 움직이는 인공위성(100)뿐만 아니라, 지구 자체로부터 반사된 에너지도 이미징 시스템(140)의 열 변화를 유발할 수 있다. 예를 들어, 만약 이미징 시스템(140)에 빛을 반사시키는 지구의 일부분이 특히 흐리다면(cloudy), 흐리지 않은 지역에서 수신된 에너지에 비해 인공위성(100)에서는 더 많은 에너지가 수신되며, 그 결과 부가적인 열 왜곡이 나타난다. 열 측량 시스템(124)는 변화하는 열 특성을 모니터링하며, 이 정보는 그러한 열 왜곡을 보상하기 위해 이용된다. 열 측량 시스템(124)은 제공되는 정보의 정확도에 대한 한계로 인해 인공위성(100)의 이미징 시스템(140)의 열 보상에서 오류를 낳게 된다. 이러한 오류는 일반적으로 작긴 하지만, 지구 표면의 일부분을 포함하는 이미지 내의 화소들의 지상 위치를 결정하는 데 쓰이는 경우에는 이러한 오류 또한 지상 위치 탐색의 불확실성에 기여하게 된다.
이미징 시스템(140)으로부터의 열 왜곡 외에도, 이미징 시스템(140)의 오류를 증대시키는 대기 왜곡 또한 나타나게 된다. 그러한 대기 왜곡은, 몇 개의 예를 들자면, 가열, 수증기, 오염물질 및 상대적으로 높거나 낮은 에어로졸의 농도 등을 포함하는, 이미지화되는 영역과 관련된 대기 내의 다양한 원인에 의하여 유발될 수 있다. 이러한 대기 왜곡에 의하여 생기는 이미지 왜곡은 이미징 시스템(140)에 의해 이미지화되는 영역과 관련된 지상 위치 정보를 결정할 때, 한층 더한 오류의 구성요소가 된다. 또한 포지션, 자세 및 왜곡 정보의 오류 외에도, 인공위성(100)의 속도가 수신된 정보에서의 상대론적인 왜곡을 초래한다. 일 실시예에서, 인공위성(100)은 초당 약 7.5 킬로미터의 속도로 움직인다. 이러한 속도에서는, 상대적으로 작긴 하지만, 그럼에도 불구하고 상대론적인 고려사항들이 존재하며, 일 실시예에서 인공위성(100)에 의해 수집된 이미지들은 그러한 고려사항을 반영하기 위해 보상된다. 비록 이러한 보상이 상대적으로 높은 수준의 정확도를 가지고 수행되지만, 상대론적인 변화들 때문에 다소의 오류는 존재한다. 이러한 오류는 일반적으로 작긴 하지만, 종종 지상 이미지의 화소들과 관련된 지상 위치 탐색의 불확실성에 상대적으로 심각한 영향을 미친다.In addition to thermal distortion from
포지션 측량 시스템(116), 자세 측량 시스템(120), 열 측량 시스템(124), 대기 왜곡 및 상대론적인 변화들의 부가된 오류는, 일 실시예에서 약 20미터 정도의 불확실성을 갖는 지상 위치 계산으로 이어진다. 이러한 불확실성은 일반적인 인공위성 이미징 시스템에서 상대적으로 작긴 하지만, 이 불확실성을 더욱 감소시킨다면 더 많은 수의 사용자들에 대한 그 지상 이미지의 유용성을 증대시킬 수 있을 것이며, 또한 더 많은 수의 애플리케이션에서 그 이미지가 사용 가능하게 될 것이다.Added errors in
본 실시예의 송/수신 회로(128)는 인공위성(100) 및 지상 관측소 및/또는 다른 인공위성들을 통한 통신에 대한 잘 알려진 구성요소들을 포함한다. 인공위성(100)은 ① 인공위성(100)의 포지션 컨트롤링, ② 이미징 시스템(140), 다양한 송/수신 안테나 및/또는 태양 전지판의 포인팅 제어와 관련된 지시 정보를 일반적으로 수신한다. 인공위성(100)은 위치 측정 시스템(116), 자세 측정 시스템(120), 열 측정 시스템(24)으로부터 얻어진 인공위성 정보 및 인공위성 시스템(100)의 모 니터링과 제어에 사용된 다른 정보와 함께 이미지 데이터를 일반적으로 송신한다.The transmit / receive
운동 시스템(132)은 다수의 모멘텀 장치(momentum devices) 및 쓰러스트 장치(thrust devices)를 포함한다. 모멘텀 장치는 당업계에 잘 알려진 바와 같이 관성 자세 컨트롤(inertial attitude control)을 제공함으로써 인공위성(100)의 컨트롤에 이용된다. 또한 당업계에 잘 알려진 바와 같이 인공위성 포지션은, 인공위성에 탑재되어 그 인공위성(100)을 다양한 궤도 포지션에 배치하기 위해 동작되는 쓰러스트 장치들에 의해 컨트롤된다. 그 운동 시스템은 인공위성의 위치를 변화시키기 위하여, 그리고 태양의 배치 또는 안테나의 운동, 대기 항력(atmospheric drag), 일사 압력(solar radiation pressure), 중력 경사 효과(gravity gradient effects) 또는 다른 외부적 또는 내부적 힘과 같은 수많은 환경 요인으로부터 기인하는 다양한 섭동(perturbations)에 대한 보상을 위하여 이용된다. The
인공위성 시스템(100)은 또한 전원 시스템(136)을 포함한다. 전원 시스템은 인공위성의 전원을 생성하기 위해 이용되는 어떠한 전원 시스템이라도 될 수 있다. 일 실시예예서, 전원 시스템은 태양 전지판에서 수신된 빛으로부터 전기를 생성하기 위해 작동하는 다수의 태양 전지(solar cells)를 갖는 태양 전지판(도시되지 않음)을 포함한다. 태양 전지판은 전원 시스템의 나머지 부분과 연결되는데, 그 나머지 부분은 배터리, 전원 조절 장치(power regulator), 전원 공급 장치 및 태양 전지판 방향 전환 회로를 포함한다. 이 태양 전지판 방향 전환 회로는 위성 시스템(100)에 대한 태양 전지판의 방향을 전환하여 태양과 적절히 정렬하도록 함으로써 태양 전지판으로부터 출력되는 전력을 높이는 동작을 한다.
상기 언급한 대로 이미징 시스템(140)은 지구의 지표면 또는 수면의 전부 또는 일부분을 포함하는 이미지를 수집하기 위해 이용된다. 이러한 이미지는, 이에 한정되는 것은 아니지만, 건물, 도로, 운송 수단, 지질학적 랜드마크(geological landmarks), 농지(agricultural elements), 선박 또는 승강장 등을 포함하는 자연의 또는 인공의 지형물들을 담고 있을 수 있다. 일 실시예에서, 이미징 시스템(140)은 7 kHz 와 24 kHz 사이의 조절가능한 주파수에서 화소 라인(lines of pixels)을 수집하기 위해 작동하는 푸시브룸(pushbroom) 타입의 이미저(imager)를 이용한다. 이미징 시스템(140)은 상이한 파장 대역 내에서 이미지를 수집하기 위해 작동하는 다수의 이미저(imager)를 포함할 수 있다. 일 실시예에서, 이미징 시스템(140)은 적색, 녹색, 파란색 및 가까운 적외선 대역에 대한 이미저들을 포함한다. 이러한 대역에서 수집된 이미지들은 이미지화된 표면에서 반사된 가시광선의 컬러 이미지를 만들어내기 위해 서로 결합될 수 있다. 이와 유사하게, 어느 한 영역 또는 영역의 조합으로부터의 이미지는 농업적 정보, 대기 질(air quality) 정보 등과 같은, 이미지화된 표면과 관련된 다양한 타입의 정보를 획득하기 위해 이용될 수 있다. 위에서 이미지의 4가지 대역만이 기술되었지만, 다른 실시예에서는 더 많은 또는 더 적은 대역에서 센서를 통하여 데이터를 수집할 수 있다. 또한 다른 실시예에서는, 다른 센서 타입, 능동 또는 수동형 수집 기술(active or passive collection technology)을 이용한 센서, 센서 타입들의 조합, 상이한 수집 모드를 갖는 센서 또는 그 데이터로부터 위치 정보가 유도될 수 있거나 그 데이터에 위치정보가 적용될 수 있는 모든 원격 탐지 장치로부터 데이터를 수집할 수 있다. 센서 타입의 예시로서 적외선 센서, 자외선 센서, 레이더 센서(radar sensors), 광선 레이더 센서(lidar sensors) 및 열 대역 센서(thermal band sensors)가 포함되나 이에 한정된 것은 아니다. 또한, 다른 실시예에서는 능동 또는 수동형 수집 기술과 함께 이러한 센서 타입을 이용할 수 있다. 예를 들면, 일 실시예에서는 능동형, 바이스태틱 레이더(active, bi-static radar) 기술을 이용해 레이더 이미지를 수집할 수 있고, 또다른 실시예에서는 수동형, CCD 이미징(passive, CCD imaging) 기술을 이용해 적외선 이미지를 수집할 수 있다. 일 실시예에서, 이미징 시스템(140)은 센서 타입의 서로 연관된 방향이 알려져 있거나 또는 그 방향이 미리 계산된 정확도까지 측량된, 센서 타입들의 조합으로 구성된다. 다른 실시예에서는, 이에 한정된 것은 아니나, 스팟 스캐너(spot scanner), 위스크브룸 이미저(whiskbroom imagers), 본체 탑재용 프레임 카메라(body-mounted frame cameras) 및 1축 또는 2축 스티어링 미러(one-axis or two axis steering mirrors)를 이용하는 프레임 카메라를 포함하는, 상이한 수집 모드를 갖는 센서를 사용한다. 센서 타입, 수집 기술, 센서 타입의 조합 및 주어진 실시예에서 사용된 수집 모드는, 그 데이터를 이용하는 애플리케이션에 의존할 것이다. 일 실시예에서, 이미징 시스템(140)은 CCD 화소들의 어레이(array)로 구성되는 이미저를 포함하는데, 여기서 각 화소는 2048 레벨의 밝기까지 획득할 수 있으며 그 후 이미지 내의 각 화소에 대하여 이 밝기를 11비트(bit)의 데이터로 표시할 수 있다. 또 다른 실시예에서, 이미징 시스템(140)의 일 대역은, 바다 표면의 위 또는 아래에 존재하는 암초나 그 밖의 다른 자연 또는 인공 구조물과 같은 이미지 지형들에 이용된다. As mentioned above,
획득된 이미지에 기록된 컨트롤은 일 화소 이하의 지상 위치 정확도(geopositional accuracy)를 가질 수 있고, 획득된 이미지에 대한 그 컨트롤의 매칭은 또한 부화소 정확도(sub-pixel accuracy)를 가질 수 있다. 예를 들면, 이미지의 화소 사이즈가 지상에 투영된 상태에서 가로 0.6 미터, 세로 0.6 미터일 때, 지상에서의 컨트롤은 0.3미터 CE90 (90th-percentile circular error)의 수평 정확도 및 0.3 미터 LE90 (90th-percentile linear error)의 수직 정확도를 갖는 것으로 알려진다. 이러한 정확도 정보는 지상에서의 GPS(Global Positioning System) 위치 측량의 정확도로부터 유도될 수 있다. 그리고나서 그 컨트롤의 그러한 지상 위치는 그 컨트롤을 둘러싸고, 포함하고 있는 인접한 영역의 개별적인 "컨트롤 칩" 이미지를 통해 정의될 수 있으며, 그 컨트롤 칩은 그 자체가 가로 0.6 미터, 세로 0.6 미터의 사이즈가 될 수 있는 화소들로 이루어진 작은 이미지이다. 컨트롤 칩 이미지상의 그 컨트롤의 정의된 위치는 부화소 레벨에서 정의될 수 있으며, 따라서 컨트롤 칩 상의 컨트롤 특성의 배치의 정확도는 부화소 레벨이 될 것이다. 그리고나서 그 컨트롤 칩은 획득된 이미지에 대한 칩의 중복(overlap)내에서의 공통 특성 정보를 이용하여 획득된 이미지에 기록(매치)된다. 전체 공통 영역에 걸쳐서, 컨트롤 칩과 획득된 이미지를 서로 대비하는 매쳐(matcher)의 능력은, 매칭 정확도를 획득된 이미지의 화소 사이즈보다 더 작게 한다. 부화소 정확도 레벨에서 그 칩에 대한 획득된 이미지의 매칭과 함께, 부화소 정확도 레벨에서 컨트롤 특성의 컨트롤칩에의 배치 정확도, 부화소 정확도 레벨에서 지상 컨트롤의 정확도, 이미지에 대한 컨트롤 기록의 유래된 정확도는 부화소 레벨이 될 수 있다. 이 기록으로부터 유 도된 보상 요인은 따라서 부화소 레벨이 될 수 있으며, 연속적으로 획득되는 목표 이미지의 오류 레벨은 기준 이미지의 캡쳐 전후의 결정된 일정 시간 동안 부화소 레벨이 될 것이다.The controls recorded in the acquired image may have geopositional accuracy of one pixel or less, and the matching of those controls to the acquired image may also have sub-pixel accuracy. For example, when the image's pixel size is 0.6 meters wide and 0.6 meters high, with the pixel size projected on the ground, the control at ground level is 0.3 meters CE90 (90th-percentile circular error) horizontal accuracy and 0.3 meters LE90 (90th- It is known to have a vertical accuracy of percentile linear error. Such accuracy information can be derived from the accuracy of GPS (Global Positioning System) positioning at ground level. The ground position of the control can then be defined by an individual "control chip" image of the adjoining area that surrounds the control, and the control chip itself is 0.6 meters wide by 0.6 meters high. It is a small image composed of possible pixels. The defined position of the control on the control chip image can be defined at the subpixel level, so that the accuracy of the placement of the control feature on the control chip will be at the subpixel level. The control chip is then written (matched) to the acquired image using common characteristic information in the chip's overlap to the acquired image. Over the entire common area, the matcher's ability to contrast the control chip and the acquired image with each other makes the matching accuracy smaller than the pixel size of the acquired image. With matching of the acquired image for that chip at the subpixel accuracy level, the placement accuracy of the control characteristics at the subpixel accuracy level, the accuracy of the ground control at the subpixel accuracy level, the resulting control records for the image Accuracy can be at the subpixel level. The compensation factor derived from this recording can thus be the subpixel level, and the error level of the successively acquired target image will be the subpixel level for a predetermined time determined before and after the capture of the reference image.
도 3을 참고하면, 인공위성 시스템에 의해 이미지화된 영역의 지상 위치 정보 결정에서 이용되는 조작 상의 단계들이 본 발명의 일 실시예로 기술되어 있다. 일 실시예에서, 인공위성은 그것의 궤도 경로를 따라서 다수의 이미지를 수집한다. 동시에, 포지션 측량 시스템, 자세 측량 시스템 및 열 측량 시스템으로부터 미리 결정된 간격마다 정보가 연속으로 수집된다. 이러한 이미지들은 하나 또는 그 이상의 지상 스테이션을 통해, 이미지 및 그와 관련된 포지션, 자세 및 왜곡 정보가 인공위성 시스템과 관련된 어떠한 다른 알려진 정보와 함께 처리되는 이미지 생성 시스템으로 포지션, 자세 및 열 정보를 따라서 전송된다. 그 프로세싱은 어느 때라도 발생할 수 있으며 거의 실시간에 근접하게 처리된다. 본 실시예에서, 이미지는 기준 이미지 및 목표 이미지 모두를 포함한다. 전에 언급한 바대로, 기준 이미지는 높은 수준의 정확도까지 알려진 위치 좌표를 갖는 하나 또는 그 이상의 지상 위치와 중복되는 이미지이며, 목표 이미지는 높은 수준의 정확도까지 알려진 위치 좌표를 갖는 하나 또는 그 이상의 지상 위치와 중복되지 않는 이미지이다. 도 3의 실시예에서, 블록 200에서 나타낸 대로 제 1 기준 이미지에 대하여 인공위성의 포지션이 결정된다. 위에서 언급한 대로, 그 포지션은 제 1 기준 이미지가 수집된 시간에서의 인공위성의 궤도 포지션과 관련있는 정보를 포함하며, 또한 내부 경로 위치(in-track location), 횡단 경로 위치(cross-track location) 및 방사 거리 위 치(radial distance location)를 포함한다. 그 포지션은 포지션 측량 시스템으로부터의 정보 및 포지션 정보 전체를 개선시키기 위해 이용되는 다른 지상 정보를 이용하여 결정될 수 있다. 블록 204에서, 이미징 시스템에 대한 자세 정보가 결정된다. 앞서 논의된 바대로, 이미징 시스템의 자세는 이미징 시스템의 기준 좌표 시스템의 궤도 경로에 대한 이미징 시스템의 피치(pitch), 로울(roll) 및 편요각(yaw)의 방향을 포함한다. 자세 정보를 결정할 때, 자세 측량 시스템의 다양한 구성 요소로부터 정보가 수집된다. 이 정보는 이미징 시스템의 자세를 결정하기 위하여 분석된다. 블록 208에서, 이미징 시스템에 대한 왜곡 정보가 결정된다. 열 측량 시스템에 의해 모니터링됨에 따라서, 그 왜곡 정보는 광학 구성 요소들의 열 왜곡 변화와 함께 이미징 시스템의 광학 구성 요소 내의 알려진 변화를 포함한다. 지구 대기로부터의 왜곡 또한 그 왜곡 정보에 포함된다.Referring to FIG. 3, operational steps used in determining terrestrial position information of an area imaged by a satellite system are described as an embodiment of the present invention. In one embodiment, the satellite collects multiple images along its orbital path. At the same time, information is continuously collected at predetermined intervals from the position surveying system, the posture surveying system and the thermal surveying system. These images are transmitted along the position, attitude and thermal information through one or more ground stations to an image generation system where the image and its associated position, pose and distortion information are processed along with any other known information related to the satellite system. . The processing can occur at any time and is processed in near real time. In this embodiment, the image includes both the reference image and the target image. As mentioned previously, the reference image is an image that overlaps one or more ground positions with known position coordinates up to a high level of accuracy, and the target image is one or more ground positions with known position coordinates up to a high level of accuracy. The image does not overlap with. In the embodiment of FIG. 3, the position of the satellite is determined with respect to the first reference image as shown in
포지션, 자세 및 왜곡 정보의 결정 이후에는, 블록 212에 따라 적어도 하나의 미리 결정된 지상 지점의 예측된 화소 위치가 계산된다. 일 실시예에서, 그 이미지내의 적어도 하나의 화소의 지상 위치를 계산하기 위해, 그 이미징 시스템의 포지션, 자세 및 왜곡 정보를 이용하여 이 예측된 화소 위치가 결정된다. 보다 명확히 말하면, 포지션은 지구 표면 위에서 이미징 시스템의 위치를 제시하고, 자세는 이미징 시스템이 이미지를 수집하고 있는 방향을 제시하며, 왜곡은 만약 열, 대기 또는 상대론적인 효과들이 없었을 경우 광선이 존재했을 상태에서 얼마만큼 왜곡되었는지를 제시한다. 이미징 시스템이 포인트되는 방향과 함께, 이미징 시스템의 위치 및 이미징 시스템 상의 왜곡의 효과는 이미징 시스템에 의해 수신된 빛을 생성하는 지구 표현상의 이론적인 위치로 나타난다. 그리고나서 이 이론적인 위치는 산악 지대와 같은 지구 표면상의 위치의 표면 지형에 기반하여 더욱 조정된다. 이러한 부가적인 계산이 행해지고, 예측된 화소 위치가 생성된다.After the determination of the position, attitude and distortion information, the predicted pixel position of the at least one predetermined ground point is calculated according to block 212. In one embodiment, this predicted pixel position is determined using the position, attitude, and distortion information of the imaging system to calculate the ground position of at least one pixel in the image. More specifically, the position gives the position of the imaging system on the earth's surface, the posture gives the direction in which the imaging system is collecting the image, and the distortion is the state of the ray if there were no thermal, atmospheric or relativistic effects. How much distortion is given in. Along with the direction in which the imaging system is pointed, the position of the imaging system and the effects of distortion on the imaging system are represented by the theoretical positions on the Earth representation that produce light received by the imaging system. This theoretical position is then further adjusted based on the surface topography of the location on the earth's surface, such as in mountainous areas. This additional calculation is made and a predicted pixel position is produced.
블록 216에 나타난 바와 같이, 기준 이미지 내의 각각의 미리 결정된 지상 지점의 예측된 화소 위치의 결정에 따라서, 기준 이미지 내의 각각의 미리 결정된 지상 지점의 예측된 화소 위치 및 각각의 미리 결정된 지상 지점의 실제 화소 위치와의 비교에 기반하여, 하나 또는 그 이상의 포지션, 자세 및 왜곡 정보에 대하여 보상 요인이 계산된다. 그 보상 요인(들)의 계산은 아래에서 좀 더 자세히 기술될 것이다.As indicated by
보상 요인(들)의 계산에 따라서, 그 보상된 자세, 포지션 및/또는 왜곡 정보를 이용하여, 이미징 시스템에 의하여 수집된 다른 이미지 내의 적어도 하나의 화소의 지상 위치가 계산된다. 도 3의 실시예에서, 만약 목표 이미지 내의 화소의 위치 정확도가 다른 기존의 방법들을 이용하여 달성 가능한 정확도보다 높다면 그 보상 요인(들)이 이용된다. 위에서 논의된 바대로, 인공위성은 모든 궤도에 걸쳐서 다양한 섭동(perturbations) 및 온도 변화(temperature fluctuations)를 갖는다. 따라서, 기준 이미지 내의 미리 결정된 지상 지점의 예측된 화소 위치 및 기준 이미지 내의 미리 결정된 지상 지점의 실제 화소 위치와의 차이에 기반하여 보상 요인(들)이 계산될 때, 어느 지점에서 표준적인 센서에서 유도된(sensor-derived) 측량을 이용하여 예측된 화소의 지상 위치가 보상 요인(들)을 이용하여 결정된 지상 위치보다 더 정확할 때까지, 이미징 시스템의 포지션, 자세 또는 왜곡의 더 많은 변화는 보상 요인(들)의 정확도를 감소시킬 것이다. 그러한 경우, 보상 요인(들)은 이용되지 않을 수 있으며, 표준적인 센서에서 유도된 측량을 이용하여 예측된 화소의 지상 위치가 지상 위치 정보를 위해 이용될 것이다. 블록 220에서 언급되었듯이, 제 2 이미지 내의 하나 또는 그 이상의 화소의 지상 위치는 보상 요인(들)을 이용하여 결정된다. 이러한 방법에서, 기준 이미지를 획득하기 전 및/또는 후에 획득된 이미지의 지상 위치는 비교적 높은 수준의 정확도로 결정될 수 있다. 또한 이미지를 수집하는 동안의 궤도 중에 다양한 기준 이미지가 획득됐다면, 각각의 기준 이미지를 통해 생성된 조정 요인을 이용하여 그 궤도에 대해 획득된 모든 이미지의 지상 위치를 결정하는 것이 가능할 수도 있다.In accordance with the calculation of the compensation factor (s), using the compensated pose, position and / or distortion information, the ground position of at least one pixel in another image collected by the imaging system is calculated. In the embodiment of Figure 3, the compensation factor (s) is used if the positional accuracy of the pixels in the target image is higher than the accuracy achievable using other existing methods. As discussed above, satellites have various perturbations and temperature fluctuations over all orbits. Thus, at some point when the compensation factor (s) is calculated based on the difference between the predicted pixel position of the predetermined ground point in the reference image and the actual pixel position of the predetermined ground point in the reference image, the point is derived from the standard sensor. Until the ground position of the pixel predicted using sensor-derived surveying is more accurate than the ground position determined using the compensation factor (s), more changes in position, posture or distortion of the imaging system will result in the compensation factor ( S) will reduce the accuracy. In such a case, the compensation factor (s) may not be used, and the ground position of the pixel predicted using the survey derived from the standard sensor will be used for the ground position information. As mentioned at
도 3에 대하여 기술된 조작 상의 단계의 순서는 수정될 수 있음을 언급한다. 예를 들면, 제 2 이미지는 기준 이미지가 획득되기 전에 먼저 획득될 수 있다. 기준 이미지의 획득 전에 제 2 이미지가 획득될 수 있음에도 불구하고, 보상 요인은 제 2 이미지에 적용될 수 있다. 다른 실시예에서, 다양한 기준 이미지가 획득되며, 기준 이미지의 획득 사이에 얻어진 다양한 이미지들에 대한 보상 요인 세트를 유도하기 위하여 각각의 이미지 내의 각각의 미리 결정된 지상 지점에 대한 예측된 위치에 대해 피팅 알고리즘(fitting algorithm)이 적용된다. 그러한 피팅 알고리즘은 최소 자승 적합 연결(least squares fit)일 수 있다.Note that the order of operational steps described with respect to FIG. 3 can be modified. For example, the second image may be acquired first before the reference image is obtained. Although the second image may be obtained before the acquisition of the reference image, the compensation factor may be applied to the second image. In another embodiment, various reference images are obtained and a fitting algorithm for the predicted position for each predetermined ground point in each image to derive a set of compensation factors for the various images obtained between acquisition of the reference image. (fitting algorithm) is applied. Such a fitting algorithm may be a least squares fit.
이제 도 4를 참고하면, 본 발명의 일 실시예에 대한 보상 요인(들)의 결정에 대하여 기술되고 있다. 전에 논의한 바와 같이, 이미징 인공위성에 탑재된 이미징 시스템은, 하나 또는 그 이상의 미리 결정된 지상 지점과 중복되는 기준 이미 지(300)를 획득한다. 각각의 미리 결정된 지상 지점의 지구상의 위치는 WGS84와 같은 어떠한 적절한 기준에 대한 위도, 경도 및 고도로써 표현될 수 있다. 그러한 미리 결정된 지상 지점은, 알려진 위치를 갖는 지구 이미지 내에 포함된, 확인가능한 어떠한 자연의 또는 인공의 지형이 될 수 있다. 미리 결정된 지상 지점의 예로서, 이에 한정된 것은 아니지만, 인도 모퉁이(sidewalk corners), 건물 모퉁이, 주차장 모퉁이, 연안 지형 및 섬 위의 확인 가능한 지형을 들 수 있다. 미리 결정된 지상 지점의 선택에 있어 한 가지 고려할 점은 미리 결정된 지상 지점을 포함하는 지역의 이미지를 확인하는 것이 비교적 쉽다는 것이다. 비록 미리 결정된 지상 지점이 컴퓨터 시스템 또는 인간에 의해 확인 가능한 어떤 지점이라도 될 수 있지만, 이미지 내에서 주변 지역에 비해 높은 수준의 컨트라스트(contrast)를 갖고 알려진 위치를 갖는 지점이 종종 바람직하다. 일 실시예에서, 미리 결정된 지상 지점의 계산된 위치에서 나타나는 오류량을 결정하기 위해 이미지 기록(image registration)이 이용된다. 그러한 이미지 기록은 일반적인 지형, 라인 지형(line feature) 및/또는 지역 대비(area correlation)에 기반을 둘 수 있다. 이미지 기록에 기반한 지역 대비는 한 지점 주변 화소의 영역을 평가하며, 컨트롤 이미지 내의 유사한 사이즈를 갖는 지역에 그 지역을 기록한다. 그 컨트롤 이미지는 원격 이미징 플랫폼에 의해 획득되었으며, 높은 수준의 정확도로 알려진 실제 지역 위치를 갖는다. 그 지역에 대해 예측된 위치와 그 지역의 실제 위치 간의 오류량은 보상 요인을 결정하는데 이용된다. 지형 및 라인 기록은 건물이나 보도의 가장자리와 같이 이미지 내의 좀 더 구체적인 항목들을 확인하고 매치시킨다. 화소 그룹은 그 외곽선을 확인하거나 지형의 윤곽을 그리며, 그 화소 그룹핑(grouping)은 컨트롤 이미지 내의 똑같은 그룹핑과 비교된다. 상기 논의는 화소 공간에서 수행되는 기록에 대해 다루고 있지만, 미리 결정된 정확도를 가지고 화소 도메인에서 그 도메인으로, 또는 그 도메인으로부터 화소 도메인으로의 변환이 수행될 수 있는 어떠한 다른 도메인에서도 그와 똑같은 기록이 이루어질 수 있다. 예를 들면, 기준 이미지 내의 지형을 벡터로 나타내고 그것을 컨트롤 이미지 내의 지형에 대해 알려진 벡터에 기록함으로써 라인 지형 기록이 벡터 공간에서 이루어질 수 있다. 유사하게, 기준 이미지 내의 지역을 폴리곤으로 나타내고 그 폴리곤을 컨트롤 이미지 내의 알려진 폴리곤에 기록함으로써 지역 대비 기록이 이루어질 수 있다. 일 실시예에서, 기준 이미지(300)가 수집될 때 미리 결정된 지상 지점이 보일 가능성을 높이기 위하여, 구름이 덮일 가능성이 감소된 위치 내에서 미리 결정된 지상 지점이 선택된다.Referring now to FIG. 4, the determination of the compensation factor (s) for one embodiment of the present invention is described. As discussed previously, an imaging system mounted on an imaging satellite acquires a
도 4를 다시 참고하면, A, B, C 및 D로 도시된 네 개의 미리 결정된 지상 지점들의 예측된 화소 위치가 기준 이미지(300)에 대하여 결정된다. A, B, C 및 D의 위치는 도 4에서 도시된 것처럼, 이미징 인공위성에 대한 자세, 포지션, 왜곡 정보 그리고 지구 위치에 대한 고도와 같은 표면 위치 정보에 기반한 A, B, C, D의 예측된 화소 위치이다. A', B', C' 및 D'로 확인되는, 미리 결정된 지상 지점의 실제 화소 위치는 "선험적인(a priori)" 높은 수준의 정확도로 알려져 있다. 그리고나서, 예측된 화소 위치와 실제 화소 위치간의 차이는 보상 요인을 결정하기 위해 이용된다. 일 실시예에서, 그 보상 요인은 수정된 이미징 시스템 자세이다. 또다른 실시예에서, 그 보상 요인은 수정된 이미징 시스템 자세 및 수정된 이미징 시스템 포지션이다. 또다른 실시예에서, 보상 요인은 수정된 이미징 시스템 자세 및 수정된 이미징 시스템 포지션, 그리고 수정된 왜곡 정보이다. 이미징 시스템의 자세, 포지션 및 왜곡 중 하나 이상이 보상된 다른 실시예들에서, 하나의 요인은 다른 요인에 비해 더 많은 보상을 받게 된다. Referring again to FIG. 4, the predicted pixel position of four predetermined ground points, shown as A, B, C, and D, is determined relative to the
일 실시예에서, 이미징 시스템의 포지션, 이미징 시스템의 자세, 이미징 시스템의 왜곡 및 이미징 시스템에 의해 획득된 이미지의 지상 위치와 관련된 변수들을 갖는 일련의 방정식의 해를 구함으로써 보상 요인이 결정된다. 이미징 시스템 자세가 보상되는 일 실시예에서, 도 3의 블록 200에서 결정되는 이미징 시스템의 포지션은 정확한 것으로 가정되고, 도 3의 블록 208에서 결정되는 이미징 시스템의 왜곡은 정확한 것으로 가정되며, 기준 이미지로부터 미리 결정된 지상 지점에 대응하는 화소의 지상 위치는, 기준 이미지에서 확인된 미리 결정된 지상 지점의 알려진 위치로 설정된다. 다음에 이미징 시스템의 보상된 자세를 결정하기 위해 방정식을 푼다. 그 후 이 보상된 자세는 다른 이미지 내에서 그 다른 이미지내의 화소의 지상 위치를 결정하는데 이용된다.In one embodiment, the compensation factor is determined by solving a series of equations with variables related to the position of the imaging system, the attitude of the imaging system, the distortion of the imaging system, and the ground position of the image obtained by the imaging system. In one embodiment where the imaging system posture is compensated, the position of the imaging system determined at
일 실시예에서, 보상된 이미징 시스템 자세를 계산하기 위해 삼각 측량(triangulation)이 이용된다. 이 실시예에서, 삼각 측량은 상태-공간 추정 방법(state-space estimation approach)을 이용하여 수행된다. 삼각 측량을 위한 상태-공간 방법은 최소 자승 방법(least square)을 이용할 수 있는데, 이 최소 자승 방법은 "선험적인" 정보, 혹은 통계적 또는 칼만 필터(Kalman filter)와 같은 베이시안 가정(Bayesian estimation)을 이용한다. 기본적인 최소한의 스퀘어 방법을 이 용하는 실시예에서, 포지션 및 왜곡은 정확한 것으로 추정되고, 미리 결정된 지상 지점에 대응하는 기준 이미지 내의 화소와 관련된 지상 위치는 정확한 것으로 추정된다. 다음에 자세는 보상요인에 대하여 해결되며 보상 요인으로서 이용된다.In one embodiment, triangulation is used to calculate the compensated imaging system pose. In this embodiment, triangulation is performed using a state-space estimation approach. State-space methods for triangulation can use least square methods, which are "a priori" information, or Bayesian estimation, such as statistical or Kalman filters. Use In an embodiment using the basic least square method, the position and distortion are estimated to be accurate, and the ground position relative to the pixel in the reference image corresponding to the predetermined ground point is estimated to be correct. Posture is then solved for compensation factors and used as compensation factors.
위에서 기술된 포지션 파라메터들은 정확하거나 작은 공분산(covariance)값을 갖는 것으로 추정되는 반면, 보상된 이미징 시스템 자세 정보를 결정할 때는 다른 대체값 또한 이용될 수 있다. 이미징 시스템 자세가 이 실시예에서 불확실성의 제 1 원인이기 때문에 위에 기술된 실시예에서는 이미징 시스템 자세가 선택된 것이다. 불확실성의 제 1 원인을 축소시킴으로써, 지상 컨트롤 지점과 중복되지 않는 다른 이미지와 관련된 지상 위치의 정확도가 증대된다. 이미징 시스템 자세가 불확실성의 제 1 원인이 아닌 다른 실시예에서는 다른 파라메터들이 적합하도록 보상될 수 있다.While the position parameters described above are assumed to have accurate or small covariance values, other alternative values may also be used when determining compensated imaging system attitude information. The imaging system pose is selected in the embodiment described above because the imaging system pose is the first source of uncertainty in this embodiment. By reducing the first cause of uncertainty, the accuracy of ground positions relative to other images that do not overlap with ground control points is increased. In other embodiments where the imaging system posture is not the first cause of uncertainty, other parameters may be compensated for as appropriate.
다른 실시예에서, "선험적인" 정보를 이용한 최소 자승 방법을 이용하여 보상 요인이 결정된다. 이 실시예에서, 이미징 시스템 포지션, 자세, 왜곡 및 미리 결정된 지상 지점의 화소 위치는, 이러한 요소들 각각과 관련된 "선험적인" 공분산 정보와 함께 보상 요인을 계산하는데 이용된다. 이 실시예에서, 그들 각각의 공분산값에 의해 제어되는 각각의 파라메터에 대한 보상의 총계와 함께 모든 요인들이 보상될 수 있다. 공분산값은 불확실성의 척도이며, 공분산 행렬(covariance matrix)로써 표현될 수 있다. 예를 들면, 3×3 공분산 행렬은 이미징 시스템의 내부 경로, 횡단 경로 및 방사 거리 포지션에 대응하는 그 행렬의 요소와 함께 이미징 시스템의 포지션을 위하여 이용될 수 있다. 그 3×3 행렬은 포지션 정보의 각 축(axis)에 대한 포지션 오류의 분산값인 대각 요소(diagonal elements)를 포함하고, 대각외 요소(off-diagonal elements)는 각 요소에 대한 포지션 오류 사이의 상관 요인(correlation factors)이다. 이미징 시스템 자세 정보, 왜곡 정보 및 미리 결정된 지상 지점 위치에 대한 다른 공분산 행렬(covariance matrices)이 생성될 수 있다.In another embodiment, the compensation factor is determined using a least squares method using "a priori" information. In this embodiment, the imaging system position, attitude, distortion, and pixel location of the predetermined ground point are used to calculate the compensation factor along with "a priori" covariance information associated with each of these elements. In this embodiment, all factors can be compensated with the total amount of compensation for each parameter controlled by their respective covariance value. Covariance values are a measure of uncertainty and can be expressed as a covariance matrix. For example, a 3x3 covariance matrix may be used for the position of the imaging system along with the elements of that matrix corresponding to the internal path, transversal path, and radiation distance positions of the imaging system. The 3x3 matrix contains diagonal elements, which are the variances of the position errors for each axis of position information, and the off-diagonal elements between the position errors for each element. Correlation factors. Imaging system attitude information, distortion information, and other covariance matrices for predetermined ground point locations may be generated.
"선험적인" 공분산 값과 함께 최소 자승 방법 또는 칼만 필터를 이용하여, 각각의 파라메터에 대한 보상이 이루어진다. 또한, 각 파라메터와 관련된 공분산 값도 생성된다. 따라서, 예를 들면 개선된 자세의 "후험적인(a posteriori)" 공분산은 자세 정정(attitude corrections)과 관련된 공분산을 이용하여 알려진다.Using a least square method or Kalman filter with "a priori" covariance values, compensation for each parameter is made. In addition, covariance values associated with each parameter are also generated. Thus, for example, "a posteriori" covariance of improved posture is known using covariance associated with attitude corrections.
전에 논의된 바와 같이, 일 실시예에서 이미징 시스템의 특정 궤도로부터 다양한 기준 이미지가 수집된다. 이 실시예에서, 도 5에 도시된 바와 같이, 다양한 이미지들이 인공위성 지상 접근 스워스(swath)(400)에서 수집된다. 수집된 이미지에 포함된 것은 제 1 기준 이미지(404) 및 제 2 기준 이미지(408)이다. 미리 결정된 지상 지점과 중복되는 인공위성 지상 접근 스워스(400)내의 지역으로부터 기준 이미지 404, 408이 수집된다. 실제 미리 결정된 지상 지점을 포함하는 지역들은 도 5에서 사선으로 표시된 컨트롤 이미지 406, 410으로 나타난다.도 5에 도시된 예에서, 제 3 이미지(412) 및 제 4 이미지(416) 또한 획득되는데, 둘 다 어떠한 미리 결정된 지상 지점들과도 중복되지 않는다. 이미지 412, 416은 목표 이미지들이다. 이 실시예에서, 제 1 기준 이미지(404)에 포함된 미리 결정된 지상 지점의 실제 위치는 제 1 기준 이미지(404)에 포함된 미리 결정된 지상 지점의 예측된 위치와 비 교된다. 예측된 미리 결정된 지상 지점 위치와 실제 미리 결정된 지상 지점 위치와의 차이에 기반하여 제 1 보상 요인이 결정된다.As discussed previously, in one embodiment various reference images are collected from a particular trajectory of the imaging system. In this embodiment, as shown in FIG. 5, various images are collected at the satellite
유사하게, 제 2 기준 이미지(408)에 포함된 미리 결정된 지상 지점의 실제 위치는 제 2 기준 이미지(408)에 포함된 미리 결정된 지상 지점의 예측된 위치와 비교된다. 예측된 미리 결정된 지상 지점 위치와 실제 미리 결정된 지상 지점 위치와의 차이에 기반하여 제 2 보상 요인이 결정된다. 다음에, 위에서 기술된 것과 같이 목표 이미지 412, 416 각각의 하나 또는 그 이상의 화소에 대한 지상 위치를 결정하기 위하여 제 1 보상 요인과 제 2 보상 요인의 조합이 이용될 수 있다. Similarly, the actual position of the predetermined ground point included in the
인공위성의 이미징 시스템은 다양한 이미지를 어떠한 순서로도 획득하도록 컨트롤 될 수 있다. 예를 들면, 인공위성은 제 3 이미지(412) 및 제 4 이미지(416)를 획득할 수 있고, 그 다음에 제 1 이미지(404) 및 제 2 이미지(408)를 획득할 수 있다. 일 실시예에서, 이미지는 다음의 순서로 획득된다. 제 1 기준 이미지(404)가 획득되고, 그 다음 제 3 이미지(412)가 획득되며, 그 다음 제 4 이미지(416)가 획득되고, 마지막으로 제 2 기준 이미지(408)가 획득된다. 이 예시에서, 제 3 이미지(412) 및 제 4 이미지(416)에 대한 보상 요인은 제 1 보상 요인 및 제 2 보상 요인의 최소 자승 적합 연결(a least squares fit)에 따라서 계산된다. 만약 그 이미지들이 다른 순서로 획득되었다면, 유사한 테크닉을 이용하여 제 3 이미지(412) 및 제 4 이미지(416)에 대한 보상 요인을 계산하는 것은 당 분야의 통상의 기술 능력 내에서 수월한 일이 될 것이다. The satellite's imaging system can be controlled to acquire various images in any order. For example, the satellite may acquire a
위에서 언급한 대로, 일 실시예에서 둘 또는 그 이상의 기준 이미지가 수집 되며 그 이미지들은 보상 요인을 계산하기 위해 이용된다. 이 실시예에서, 각각에 대한 보상 요인을 결정하기 위해 각각의 이미지에 대해 독립적으로 삼각 측량(위에서 기술된 방법을 통한)이 실행된다. 그리고 나서, 미리 결정된 지상 지점을 이용하지 않고 결정된 지상 위치에서 수집된 이미지들과 관련된 지상 위치를 결정하는 데 이용하기 위해 이 보상 요인들은 결합된다. 그 보상 요인들은, 이에 한정된 것은 아니나, 내삽법(interpolation), 다항식 결합(polynomial fit), 단순 평균화(simple averaging) 및 공분산 가중 평균(covariance weighted averaging) 등 과 같은 방법을 이용하여 결합될 수 있다. 다른 방법으로, 모든 이미지들에 대해 한꺼번에 하나의 삼각 측량(위에서 기술한 똑같은 방법을 이용한)이 실행될 수 있는데, 이로써 적절한 타임프레임(timeframe) 내에서 궤도의 전체 스팬(span)에 적용할 수 있는 글로벌 보상 요인(a global compensation factor)을 얻게 된다. 이 글로벌 보상 요인은 미리 결정된 지상 지점의 이용 없이 어떠한 이미지에도 적용될 수 있다.As mentioned above, in one embodiment two or more reference images are collected and the images are used to calculate the compensation factor. In this embodiment, triangulation (through the method described above) is performed independently for each image to determine the compensation factor for each. These compensation factors are then combined to use to determine ground positions associated with images collected at the determined ground positions without using a predetermined ground point. The compensation factors may be combined using methods such as, but not limited to, interpolation, polynomial fit, simple averaging, and covariance weighted averaging. Alternatively, one triangulation (using the same method described above) can be performed on all images at once, thereby allowing global adaptation of the entire span of the trajectory within the appropriate timeframe. A global compensation factor is obtained. This global compensation factor can be applied to any image without the use of predetermined ground points.
전에 언급한 대로, 인공위성은 수집된 이미지를 지구상에 있는 적어도 하나의 지상 스테이션에 전송한다. 그 지상 스테이션은 궤도의 일부분에 대하여 그 지상 스테이션과 인공위성이 통신할 수 있는 곳에 위치한다. 지상 스테이션에서 수신된 이미지는, 그 이미지 내의 화소에 대한 위치 정보를 결정하기 위해 그 지상 스테이션에서 분석될 수 있고, 이 정보와 함께 사용자 또는 데이터 센터(이하 수신자)로 보내진다. 다른 방법으로, 지상 스테이션에서 인공위성으로부터 수신된 미가공 데이터(raw data)는, 이미지와 관련된 지상 위치 정보를 결정하기 위한 어떠한 처리도 없이 지상 스테이션으로부터 수신자에게 직접 보내질 수 있다. 이미징 시스 템의 포지션, 자세 및 왜곡에 관련된 정보를 포함하는 그 미가공 데이터는 미리 결정된 간격으로 계속해서 수집되며, 지상 접근 스워스(400)을 둘러싸게 된다. 그리고 나서 그 미가공 데이터는 미리 결정된 지상 지점을 포함하는 이미지를 결정하기 위해 분석될 수 있다. 그 이미지들 내의 미리 결정된 지상 지점을 이용하여, 다른 이미지들 내의 화소들에 대한 지상 위치는 위에서 기술된 다른 정보들과 함께 계산될 수 있다. 일 실시예에서, 이미지(들)은 인터넷을 통하여 수신자에게 전송될 수 있다. 일반적으로, 이미지는 압축된 형식으로 전달된다. 일단 이미지가 수신되면, 수신자는 그 이미지와 관련된 지상 위치 정보와 함께 지구 위치의 이미지를 생성할 수 있다. 또한 다른 방법을 통해 이미지를 수신자에게 전달하는 것도 가능하다. 예를 들면, 그 이미지(들)은 자기 디스크, CD, 테이프 또는 다른 기록 매체에 기록되어 수신자에게 우송될 수 있다. 만약 필요하다면 그 기록 매체는 인공위성의 포지션, 자세 및 왜곡 정보 또한 포함할 수 있다. 또한 이미지를 하드 카피(hard copy)로 출력해서 그 하드 카피를 수신자에게 우송하는 것도 가능하다. 그 하드 카피는 또한 수신자에게 팩스로 보내지거나 전자적으로 전송될 수 있다. As mentioned previously, satellites transmit the collected images to at least one ground station on Earth. The ground station is located where a satellite can communicate with the ground station for a portion of the orbit. The image received at the ground station can be analyzed at the ground station to determine positional information for the pixels in the image, and is sent to the user or data center (hereinafter called the receiver) with this information. Alternatively, raw data received from the satellite at the ground station can be sent directly from the ground station to the recipient without any processing to determine ground position information associated with the image. The raw data, including information related to the position, attitude, and distortion of the imaging system, is continuously collected at predetermined intervals and surrounds the
본 발명은 특히 바람직한 실시예를 통해 제시되고 기술되었으나, 본 발명의 정신과 범위를 벗어나지 않는 범위에서 형식과 세부 내용의 다양한 변화가 이루어질 수 있다는 것이 당업자들에게 이해될 것이다.While the present invention has been presented and described through particularly preferred embodiments, it will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the invention.
Claims (20)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US52296105A | 2005-06-24 | 2005-06-24 | |
USPCT/US2005/22961 | 2005-06-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20080033287A true KR20080033287A (en) | 2008-04-16 |
Family
ID=39577618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020087001769A KR20080033287A (en) | 2005-06-24 | 2005-12-23 | Method and apparatus for determining a location associated with an image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20080033287A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170047230A (en) * | 2014-07-17 | 2017-05-04 | 엘비트 시스템스 엘티디. | Stabilization and display of remote images |
-
2005
- 2005-12-23 KR KR1020087001769A patent/KR20080033287A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170047230A (en) * | 2014-07-17 | 2017-05-04 | 엘비트 시스템스 엘티디. | Stabilization and display of remote images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20080063270A1 (en) | Method and Apparatus for Determining a Location Associated With an Image | |
Grodecki et al. | IKONOS geometric accuracy | |
Nagai et al. | UAV-borne 3-D mapping system by multisensor integration | |
Li | Potential of high-resolution satellite imagery for national mapping products | |
US8483960B2 (en) | Self-calibrated, remote imaging and data processing system | |
US7725258B2 (en) | Vehicle based data collection and processing system and imaging sensor system and methods thereof | |
GREJNER‐BRZEZINSKA | Direct exterior orientation of airborne imagery with GPS/INS system: Performance analysis | |
Muller et al. | A program for direct georeferencing of airborne and spaceborne line scanner images | |
CN108700470A (en) | Thermal imaging and paradigmatic system based on UAV system and method | |
JP2006507483A (en) | Data collection and processing system by mobile body | |
Poli | A rigorous model for spaceborne linear array sensors | |
Burman | Calibration and orientation of airborne image and laser scanner data using GPS and INS | |
WO2012134419A1 (en) | Self-calibrated, remote imaging and data processing system | |
Seiz et al. | Cloud mapping from the ground: Use of photogrammetric methods | |
CN110296688A (en) | A kind of detecting one inclination aerial survey gondola based on passive geographic positioning technology | |
CN110986888A (en) | Aerial photography integrated method | |
Speyerer et al. | In-flight geometric calibration of the lunar reconnaissance orbiter camera | |
USRE49105E1 (en) | Self-calibrated, remote imaging and data processing system | |
WO2007001471A2 (en) | Method and apparatus for determining a location associated with an image | |
Breuer et al. | Geometric correction of airborne whiskbroom scanner imagery using hybrid auxiliary data | |
KR20080033287A (en) | Method and apparatus for determining a location associated with an image | |
Hu et al. | Scan planning optimization for 2-D beam scanning using a future geostationary microwave radiometer | |
Ishii et al. | Autonomous UAV flight using the Total Station Navigation System in Non-GNSS Environments | |
Perry et al. | Precision directly georeferenced unmanned aerial remote sensing system: Performance evaluation | |
JPH01229910A (en) | Navigating device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |