[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

RU2513900C1 - Method and device to determine object coordinates - Google Patents

Method and device to determine object coordinates Download PDF

Info

Publication number
RU2513900C1
RU2513900C1 RU2012152599/07A RU2012152599A RU2513900C1 RU 2513900 C1 RU2513900 C1 RU 2513900C1 RU 2012152599/07 A RU2012152599/07 A RU 2012152599/07A RU 2012152599 A RU2012152599 A RU 2012152599A RU 2513900 C1 RU2513900 C1 RU 2513900C1
Authority
RU
Russia
Prior art keywords
coordinates
group
lps
information
information inputs
Prior art date
Application number
RU2012152599/07A
Other languages
Russian (ru)
Inventor
Сергей Михайлович Вишняков
Антон Сергеевич Давыденко
Александр Геннадьевич Митянин
Павел Леонидович Смирнов
Андрей Викторович Терентьев
Олег Владимирович Царик
Александр Михайлович Шепилов
Александр Яковлевич Шишков
Original Assignee
Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации
Общество с ограниченной ответственностью "Специальный Технологический Центр"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации, Общество с ограниченной ответственностью "Специальный Технологический Центр" filed Critical Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации
Priority to RU2012152599/07A priority Critical patent/RU2513900C1/en
Application granted granted Critical
Publication of RU2513900C1 publication Critical patent/RU2513900C1/en

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

FIELD: measurement equipment.
SUBSTANCE: method is realised due to more accurate measurement of a direction vector to an object V П i j
Figure 00000234
in the system of coordinates of a video camera, reduction of accidental errors of assessment due to multiple detection of object coordinates by series of frames, and also due to taking into account features of area relief in the area of measurements.
EFFECT: increased accuracy of detection of object coordinates.
5 cl, 26 dwg

Description

Заявляемые объекты объединены единым изобретательским замыслом, относятся к области радиотехники, а именно к пассивной локации, и могут быть использованы в навигационных, пеленгационных, локационных средствах для визуального обнаружения и определения координат априорно неизвестных объектов с летно-подъемных средств (ЛПС).The inventive objects are united by a single inventive concept, relate to the field of radio engineering, namely to passive location, and can be used in navigation, direction-finding, location-based tools for visual detection and determination of coordinates of a priori unknown objects from flight-lifting means (LPS).

Известны способы определения координат подвижных и неподвижных объектов по пат. РФ 2251712 и пат. РФ 2154284, обеспечивающие определение координат объектов с помощью оптико-электронных устройств. Они предполагают определение угловой координаты изображения объекта вместе с изменяющими образ элементами в поле зрения с последующим пересчетом полученной величины в стабилизированную систему координат, определение величины и направления линейной скорости объекта в стабилизированной системе координат, формирование величины углового смещения в стабилизированной картинной плоскости исходя из полученной величины и координат, характеризующих линейное смещение изменяющих образ элементов относительно собственной системы координат объекта, и корректирование угловой координаты изображения объекта вместе с искажающими образ элементами в стабилизированной системе координат на величину углового смещения. Однако названные системы обладают существенным недостатком. Способы-аналоги реализуются на земной поверхности и обладают малым радиусом действия.Known methods for determining the coordinates of moving and stationary objects according to US Pat. RF 2251712 and US Pat. RF 2154284, providing the determination of the coordinates of objects using optoelectronic devices. They involve determining the angular coordinate of the image of the object along with image-changing elements in the field of view, followed by the conversion of the obtained value into a stabilized coordinate system, determining the magnitude and direction of the linear velocity of the object in a stabilized coordinate system, the formation of the angular displacement in the stabilized picture plane based on the obtained value and coordinates characterizing the linear displacement of the image-changing elements relative to their own coordinate system object, and adjusting the angular coordinate of the image of the object together with image-distorting elements in the stabilized coordinate system by the value of the angular displacement. However, these systems have a significant drawback. Analog methods are implemented on the earth's surface and have a small radius of action.

Известен способ по пат. РФ 2323851, МПК B64C 31/06, опубл. 10.05.2008 г. Аналог предполагает использование беспилотного летательного аппарата (БПЛА) в совокупности с видеокамерой. Аналог обеспечивает фотографирование земной поверхности под управлением наземного поста.The known method according to US Pat. RF 2323851, IPC B64C 31/06, publ. 05/10/2008. An analogue involves the use of an unmanned aerial vehicle (UAV) in conjunction with a video camera. An analogue provides photographing the earth's surface under the control of a ground post.

Аналог также обладает недостатком, связанным с отсутствием возможности определения координат обнаруженных объектов.The analogue also has the disadvantage associated with the inability to determine the coordinates of the detected objects.

Наиболее близким по технической сущности является способ определения местоположения источника радиоизлучений по пат. РФ №2465613, МПК G01S 3/14, опубл. 27.10.2012 г.The closest in technical essence is a method for determining the location of a source of radio emission according to US Pat. RF №2465613, IPC G01S 3/14, publ. 10/27/2012

Способ-прототип на подготовительном этапе включает установку под фюзеляжем ЛПС видеокамеры, определение ориентации видеокамеры и антенной системы (АС) пеленгатора относительно борта ЛПС (kk, lk, ζk), (kant, lant, ζant), где kk, lk, ζk, kant, lant, ζant - соответственно углы крена, тангажа и склонения видеокамеры и АС, а в процессе полета постоянное через заданный интервал времени Δt определение местоположения ЛПС (Blps, Llps, Hlps)i, где B lps i

Figure 00000001
, L lps i
Figure 00000002
, H lps i
Figure 00000003
, соответственно широта, долгота и высота ЛПС, и его пространственную ориентацию (kk, lk, ζk)i, где k lps i
Figure 00000004
, l lps i
Figure 00000005
, ζ lps i
Figure 00000006
соответственно углы крена, тангажа и склонения ЛПС в i-й момент времени, совместное запоминание навигационных и временных параметров ЛПС, а при обнаружении j-го заданного источника радиоизлучения (ИРИ) в момент времени ti предварительное определение его пространственно-информационных параметров: азимута θij и угла места βij в системе координат антенной системы, перевод координат ЛПС в геоцентрическую систему координат, а вектора направления на j-й объект V i j = ( θ , β j ) i
Figure 00000007
в левостороннюю систему декартовых координат V П i j = ( X j , Y j , Z j ) i
Figure 00000008
, коррекцию вектора направления на j-й ИРИ V i j ' = ( X j ' , Y j ' , Z j ' ) i
Figure 00000009
с учетом априорно известной ориентации антенной системы пеленгатора относительно борта ЛПС (kant, lant, ζant) путем последовательного умножения значений V П i j
Figure 00000010
на соответствующие углам Эйлера матрицы поворота, после чего в нормальной системе координат выполнение вычисления уточненного значения вектора направления V i j +
Figure 00000011
на j-й ИРИ с учетом измеренных в момент времени ti пространственных углов ЛПС: крена k lps i
Figure 00000012
, тангажа l lps i
Figure 00000013
и склонения ζ lps i
Figure 00000014
, определение уточненных значений азимута θ i j +
Figure 00000015
, угла места β i j +
Figure 00000016
и удаления ЛПС, находящегося в момент времени ti на высоте H lps i
Figure 00000003
, от j-го ИРИ d(Н0)ij, расположенного на поверхности "круглой" Земли, определение в геоцентрической системе координат значения истинного вектора направления на j-й объект V j ' '
Figure 00000017
, которое зависит от широты Blps, долготы Llps местоположения ЛПС, определение координаты точки пересечения вектора V j ' '
Figure 00000017
с "круглой" Землей V ф j
Figure 00000018
, преобразование геоцентрических координат j-го объекта V ф j
Figure 00000018
в географические V j = ( B j , L j )
Figure 00000019
, где Вj и Lj соответственно широта и долгота местоположения j-го ИРИ, определение удаления j-го ИРИ относительно координат ЛПС по параллели dLij, меридиану dBij и перпендикуляру (высоте) dHij, вычисление предварительных значений азимутального угла θ k j '
Figure 00000020
, угла места β k j '
Figure 00000021
настройки видеокамеры без учета пространственной ориентации ЛПС и видеокамеры, преобразование сферических координат θ k j '
Figure 00000022
и β k j '
Figure 00000023
j-го ИРИ в нормальную систему координат V 2 j = ( X 2 , Y 2 , Z 2 ) j
Figure 00000024
и далее в систему координат видеокамеры V 1 j = ( X 1 , Y 1 , Z 1 ) j
Figure 00000025
с учетом пространственной ориентации ЛПС и видеокамеры, определение истинных значений азимутального угла θkj и угла места βkj ориентации видеокамеры на i-й ИРИ, одновременное оценивание угла закрытия корпусом ЛПС направления на j-й ИРИ, а при выполнении условия βkj<0 ориентирование видеокамеры в соответствии с параметрами θkj и βkj.The preparatory method at the preparatory stage includes the installation of a video camera under the LPS fuselage, determining the orientation of the video camera and antenna system (AS) of the direction finder relative to the LPS side (kk, lk, ζk), (kantlantζant) where kk, lk, ζk, kantlantζant - respectively, the roll, pitch and declination angles of the video camera and the speaker, and during the flight, the location of the LPS is constant after a specified time interval Δt (Blps, Llps, Hlps)i, Where B lps i
Figure 00000001
, L lps i
Figure 00000002
, H lps i
Figure 00000003
, respectively, the latitude, longitude and height of the LPS, and its spatial orientation (kk, lk, ζk)iwhere k lps i
Figure 00000004
, l lps i
Figure 00000005
, ζ lps i
Figure 00000006
 accordingly, the angles of roll, pitch and declination of the LPS at the i-th moment of time, the joint storage of navigation and time parameters of the LPS, and upon detection of the j-th given source of radio emission (IRI) at time ti preliminary determination of its spatial information parameters: azimuth θij and elevation angle βij in the coordinate system of the antenna system, translation of the LPS coordinates into a geocentric coordinate system, and the direction vector to the j-th object V i j = ( θ , β j ) i
Figure 00000007
 to the left-handed Cartesian coordinate system V P i j = ( X j , Y j , Z j ) i
Figure 00000008
, direction vector correction on the j-th IRI V i j '' = ( X j '' , Y j '' , Z j '' ) i
Figure 00000009
 taking into account the a priori known orientation of the direction finder antenna system relative to the LPS side (kantlantζant) by sequentially multiplying the values V P i j
Figure 00000010
 to the rotation matrix corresponding to the Euler angles, after which, in a normal coordinate system, the calculation of the updated value of the direction vector V i j +
Figure 00000011
 on the j-th IRI taking into account measured at time ti spatial angles of LPS: roll k lps i
Figure 00000012
pitch l lps i
Figure 00000013
 and declensions ζ lps i
Figure 00000014
, determination of refined azimuth values θ i j +
Figure 00000015
elevation β i j +
Figure 00000016
 and removing the LPS located at time ti on high H lps i
Figure 00000003
, from the jth IRI d (Н0)ijlocated on the surface of the "round" Earth, determination in the geocentric coordinate system of the value of the true direction vector to the j-th object V j '' ''
Figure 00000017
which depends on latitude Blps, longitudes Llps location of the LPS, determining the coordinates of the intersection points of the vector V j '' ''
Figure 00000017
 with round earth V f j
Figure 00000018
, transformation of geocentric coordinates of the j-th object V f j
Figure 00000018
 into geographical V j = ( B j , L j )
Figure 00000019
, where inj and Lj respectively, the latitude and longitude of the location of the j-th IRI, determining the removal of the j-th IRI relative to the LPS coordinates along the parallel dLij, meridian dBij and perpendicular (height) dHij, calculation of preliminary values of the azimuthal angle θ k j ''
Figure 00000020
elevation β k j ''
Figure 00000021
 video camera settings without taking into account the spatial orientation of LPS and video cameras, conversion of spherical coordinates θ k j ''
Figure 00000022
 and β k j ''
Figure 00000023
 j-Iran into the normal coordinate system V 2 j = ( X 2 , Y 2 , Z 2 ) j
Figure 00000024
 and further into the coordinate system of the camcorder V one j = ( X one , Y one , Z one ) j
Figure 00000025
 taking into account the spatial orientation of the LPS and video camera, determining the true values of the azimuthal angle θkj and elevation angle βkj orientation of the camcorder to the i-th IRI, simultaneous estimation of the angle of closure by the LPS housing of the direction to the j-th IRI, and when condition β is satisfiedkj<0 camera orientation in accordance with the parameters θkjand βkj.

Способ позволяет с помощью видеокамеры и радиопеленгатора по радиоизлучениям определить местоположение ИРИ. Использование в прототипе видеокамеры повышает точностные характеристики измерителя.The method allows to determine the location of the IRI using a video camera and radio direction finder from radio emissions. The use of a video camera in the prototype improves the accuracy of the meter.

Способу-прототипу также присущ недостаток, связанный с относительно низкой точностью определения координат объектов. На практике, как правило, интерес представляет не сам источник радиоизлучения, а объект, на котором (или в котором) он размещается. В ситуации, когда ИРИ на объекте находится в выключенном состоянии, прототип теряет свою работоспособность. Кроме того, ИРИ часто выносят за пределы объекта, что также усугубляет ситуацию. Низкая точность измерений объясняется тем, что в видеокамере наблюдается достаточно большая площадь земной поверхности, много превышающая площадь объекта, что и влечет за собой ошибки в определении его координат (см. фиг.1а).The prototype method also has a disadvantage associated with the relatively low accuracy of determining the coordinates of objects. In practice, as a rule, the interest is not the source of radio emission itself, but the object on which (or in which) it is located. In a situation when the IRI at the facility is off, the prototype loses its functionality. In addition, Iran is often taken out of the facility, which also exacerbates the situation. The low accuracy of the measurements is explained by the fact that a rather large area of the earth's surface is observed in the video camera, much exceeding the area of the object, which entails errors in determining its coordinates (see figa).

Целью заявляемого технического решения является повышение точности определения координат объекта с борта ЛПС.The purpose of the proposed technical solution is to increase the accuracy of determining the coordinates of the object from the LPS.

Поставленная цель достигается тем, что в известном способе определения координат объектов, заключающемся в том, что на подготовительном этапе на борт летно-подъемного средства (ЛПС) под фюзеляжем устанавливают видеокамеру, определяют ориентацию видеокамеры относительно борта ЛПС (kk, lk, ζk), где kk, lk, ζk - соответственно углы крена, тангажа и склонения видеокамеры, а в процессе полета постоянно через заданный интервал времени Δt определяют местоположение ЛПС (Blps, Llps, Hlps), где B lps i

Figure 00000001
, L lps i
Figure 00000002
, H lps i
Figure 00000003
, соответственно широта, долгота и высота ЛПС, и его пространственную ориентацию (klps, llps, ζlps), где k lps i
Figure 00000026
, l lps i
Figure 00000027
, ζ lps i
Figure 00000028
соответственно углы крена, тангажа и склонения ЛПС в i-й момент времени, совместно запоминают навигационные и временные параметры ЛПС, а при визуальном обнаружении j-го заданного объекта в момент времени ti предварительно определяют вектор направления на него V П i j = ( X j , Y j , Z j ) i
Figure 00000008
в системе координат видеокамеры, переводят координаты ЛПС в геоцентрическую систему координат, корректируют вектор направления на j-й объект V i j ' = ( X j ' , Y j ' , Z j ' ) i
Figure 00000009
с учетом априорно известной ориентации камеры относительно борта ЛПС (kk, lk, ζk) путем последовательного умножения значений V П i j
Figure 00000010
на соответствующие углам Эйлера матрицы поворота, после чего в нормальной системе координат вычисляют уточненное значение вектора направления V i j +
Figure 00000029
на j-й объект с учетом измеренных в момент времени ti пространственных углов ЛПС: крена k lps i
Figure 00000030
, тангажа l lps i
Figure 00000031
и склонения ζ lps i
Figure 00000032
, определяют уточненные значения азимута θ i j +
Figure 00000015
, угла места β i j +
Figure 00000033
и удаление ЛПС, находящегося в момент времени ti на высоте H lps i
Figure 00000034
, от j-го объекта d(H0)ij, расположенного на поверхности "круглой" Земли, в геоцентрической системе координат определяют значение истинного вектора направления на j-й объект V j ' '
Figure 00000017
, которое зависит от широты Blps, долготы Llps местоположения ЛПС, определяют координаты точки пересечения вектора V j ' '
Figure 00000017
с "круглой" Землей V ф j
Figure 00000018
, преобразуют геоцентрические координаты j-го объекта V ф j
Figure 00000018
в географические V j = ( B j , L j )
Figure 00000019
, где Вj и Lj соответственно широта и долгота местоположения j-го объекта, отличающийся тем, что предварительно измеряют и запоминают коэффициенты дисторсии объектива видеокамеры k1, k2 и k3, положение видеокамеры относительно борта ЛПС фиксируют на весь период измерений, в качестве j-го объекта может выступать любой стационарный или подвижный физический объект, наблюдаемый в видеокамеру, причем решение о необходимости измерения координат наблюдаемого объекта принимает оператор, значение предварительного вектора направления на j-й объект V П i j = ( X j , Y j , Z j ) i
Figure 00000008
определяют по местоположению объекта на кадре в момент времени ti, уточняют значение предварительного вектора направления на j-й объект V П i j
Figure 00000010
путем устранения влияния на результаты измерений дисторсии объектива видеокамеры, при наличии n последовательных кадров, n=2, 3, …, N, с изображением j-го объекта выполняют n циклов измерений географических координат V j = ( B j , L j )
Figure 00000019
, а результаты измерений усредняют, при наличии цифровой карты местности района измерений, представляющей собой матрицу с заданной дискретностью по координатам района измерений с соответствующими значениями высот рельефа, уточняют географические координаты обнаруженного j-го объекта.This goal is achieved by the fact that in the known method for determining the coordinates of objects, which consists in the fact that at the preparatory stage, a video camera is installed on board the flight-lifting means (LPS) under the fuselage, the orientation of the video camera relative to the LPS side is determined (kk, lk, ζk), where kk, lk, ζk - respectively, the angles of roll, pitch and declination of the camera, and during the flight, the location of the LPS is constantly determined after a specified time interval Δt (Blps, Llps, Hlps), where B lps i
Figure 00000001
, L lps i
Figure 00000002
, H lps i
Figure 00000003
, respectively, the latitude, longitude and height of the LPS, and its spatial orientation (klps, llps, ζlps), where k lps i
Figure 00000026
, l lps i
Figure 00000027
, ζ lps i
Figure 00000028
 accordingly, the angles of roll, pitch and declination of the LPS at the i-th moment in time, together remember the navigation and time parameters of the LPS, and when the j-th target is visually detected at time ti pre-determine the direction vector to it V P i j = ( X j , Y j , Z j ) i
Figure 00000008
 in the coordinate system of the video camera, translate the LPS coordinates into a geocentric coordinate system, adjust the direction vector to the j-th object V i j '' = ( X j '' , Y j '' , Z j '' ) i
Figure 00000009
 taking into account the a priori known orientation of the camera relative to the LPS side (kk, lk, ζk) by sequentially multiplying the values V P i j
Figure 00000010
 to the rotation matrix corresponding to the Euler angles, after which, in the normal coordinate system, the updated value of the direction vector is calculated V i j +
Figure 00000029
 to the j-th object, taking into account measured at time ti spatial angles of LPS: roll k lps i
Figure 00000030
pitch l lps i
Figure 00000031
 and declensions ζ lps i
Figure 00000032
, determine the specified azimuth values θ i j +
Figure 00000015
elevation β i j +
Figure 00000033
 and removing the LPS at time ti on high H lps i
Figure 00000034
, from the jth object d (H0)ijlocated on the surface of the "round" Earth, in the geocentric coordinate system determine the value of the true direction vector to the j-th object V j '' ''
Figure 00000017
which depends on latitude Blps, longitudes Llps LPS locations, determine the coordinates of the intersection point of the vector V j '' ''
Figure 00000017
 with round earth V f j
Figure 00000018
transform geocentric coordinates of the j-th object V f j
Figure 00000018
 into geographical V j = ( B j , L j )
Figure 00000019
, where inj and Lj respectively, the latitude and longitude of the location of the j-th object, characterized in that the distortion coefficients of the camera lens k are previously measured and storedone, k2 and k3, the position of the video camera relative to the LPS board is fixed for the entire measurement period, any stationary or moving physical object observed in the video camera can act as the j-th object, and the operator decides whether to measure the coordinates of the observed object, the value of the preliminary direction vector to the j-th an object V P i j = ( X j , Y j , Z j ) i
Figure 00000008
 determined by the location of the object on the frame at time ti, specify the value of the preliminary direction vector to the j-th object V P i j
Figure 00000010
 by eliminating the effect on the distortion results of the camera lens, in the presence of n consecutive frames, n = 2, 3, ..., N, with the image of the j-th object, n cycles of measurements of geographical coordinates are performed V j = ( B j , L j )
Figure 00000019
and the measurement results are averaged, in the presence of a digital map of the terrain of the measurement region, which is a matrix with a given discreteness in the coordinates of the measurement region with the corresponding elevation heights, the geographical coordinates of the detected j-th object are specified.

Координаты j-го объекта (хr, уr)j в кадре определяют в пикселях, отсчитанных от верхнего левого угла кадра видеокамеры.The coordinates of the j-th object (x r , y r ) j in the frame are determined in pixels, counted from the upper left corner of the frame of the video camera.

Переход от координат j-го объекта в кадре к уточненному предварительному вектору направления на него V П i j

Figure 00000010
в системе координат видеокамеры осуществляют в соответствии с выражениемThe transition from the coordinates of the j-th object in the frame to the refined preliminary vector of direction to it V P i j
Figure 00000010
in the coordinate system of the camera is carried out in accordance with the expression

V П i j = x ˜ ' ' / ψ ( V П i j )

Figure 00000035
, V P i j = x ˜ '' '' / ψ ( V P i j )
Figure 00000035
,

где x ˜ ' ' = ( x ˜ r c ˜ ) / f

Figure 00000036
, x ˜ r = ( x r , y r ) T
Figure 00000037
, c ˜ = ( c x , c y ) T
Figure 00000038
- координаты центра матрицы (кадра) в пикселях, f - фокусное расстояние объектива видеокамеры, пересчитанное в пиксели матрицы, ψ ( V П i j ) = ( 1 + k 1 V П i j 2 + k 2 V П i j 4 + k 3 V П i j 6 )
Figure 00000039
, k1, k2, k3 - измеренные коэффициенты дисторсии объектива, с использованием метода простых итераций.Where x ˜ '' '' = ( x ˜ r - c ˜ ) / f
Figure 00000036
, x ˜ r = ( x r , y r ) T
Figure 00000037
, c ˜ = ( c x , c y ) T
Figure 00000038
- coordinates of the center of the matrix (frame) in pixels, f is the focal length of the lens of the camera, converted into pixels of the matrix, ψ ( V P i j ) = ( one + k one V P i j 2 + k 2 V P i j four + k 3 V P i j 6 )
Figure 00000039
, k 1 , k 2 , k 3 are the measured lens distortion coefficients using the simple iteration method.

При наличии цифровой карты рельефа местности района измерений формируют последовательный набор значений высот {Hi,m}, m=1, 2, …, М, который соответствует равномерно распределенным координатам на отрезке, соединяющем координаты (Blps, Llps) и (Bj, Lj), М=d(H0)/Δd, где Δd - шаг сканирования по вектору направления V j ' '

Figure 00000017
на j-й объект, определяется заданной точностью предварительного измерения координат объекта, рассчитывают координаты V ф , j , m
Figure 00000040
, соответствующие дискретно выделенным высотам рельефа местности Нi,m, а за предварительные координаты j-го объекта V ф , j , m
Figure 00000040
принимают первую точку разбиения вектора V j ' '
Figure 00000017
, находящуюся ниже уровня рельефа местности, уточняют местоположение j-го объекта путем выделения соседней точки разбиения V ф , j , m 1
Figure 00000041
, находящейся над рельефом местности, отрезок ( V ф , j , m 1 , V ф , j , m )
Figure 00000042
вектора направления на j-й объект V j ' '
Figure 00000017
делят на δ равных интервалов, Δδ<<Δd, где Δδ - шаг сканирования по выделенному отрезку вектора направления V j ' '
Figure 00000017
, и определяется конечной заданной точностью измерения координат объектов, для названных точек вычисляют координаты V ф , j , δ
Figure 00000043
и соответствующие им значения высоты рельефа местности Hi,m,δ, за точные координаты j-го объекта принимают значение V ф , j , m , δ
Figure 00000044
, находящееся между соседними точками, расположенными выше и ниже рельефа местности, а полученное значение координат j-го объекта V ф , j , m , δ
Figure 00000044
преобразуют в удобную географическую систему координат V j δ = ( B j , L j , H j )
Figure 00000045
.In the presence of a digital terrain map of the terrain of the measurement region, a sequential set of elevation values {H i, m }, m = 1, 2, ..., M, which corresponds to uniformly distributed coordinates on the segment connecting the coordinates (B lps , L lps ) and (B j , L j ), M = d (H 0 ) / Δd, where Δd is the scanning step along the direction vector V j '' ''
Figure 00000017
on the j-th object, determined by the specified accuracy of the preliminary measurement of the coordinates of the object, calculate the coordinates V f , j , m
Figure 00000040
corresponding to discrete selected heights of the terrain Н i, m , and for the preliminary coordinates of the j-th object V f , j , m
Figure 00000040
take the first split point of the vector V j '' ''
Figure 00000017
, located below the level of the terrain, specify the location of the j-th object by highlighting the neighboring break point V f , j , m - one
Figure 00000041
located above the terrain ( V f , j , m - one , V f , j , m )
Figure 00000042
direction vector to j-th object V j '' ''
Figure 00000017
divided into δ equal intervals, Δδ << Δd, where Δδ is the scanning step along the selected segment of the direction vector V j '' ''
Figure 00000017
, and is determined by the final specified accuracy of measuring the coordinates of objects, for the named points, coordinates are calculated V f , j , δ
Figure 00000043
and the corresponding values of the height of the terrain H i, m, δ , for the exact coordinates of the j-th object take the value V f , j , m , δ
Figure 00000044
located between neighboring points located above and below the terrain, and the obtained value of the coordinates of the j-th object V f , j , m , δ
Figure 00000044
convert to a convenient geographic coordinate system V j δ = ( B j , L j , H j )
Figure 00000045
.

Благодаря новой совокупности признаков в заявляемом способе достигается более точное измерение предварительного вектора V П i j

Figure 00000010
направления на объект благодаря учету его местоположения на кадре видеокамеры с возможностью последующего усреднения результатов оценивания по серии кадров, а итоговые усредненные координаты объекта уточняют в соответствии с особенностями рельефа местности района измерений.Thanks to the new set of features in the claimed method, a more accurate measurement of the preliminary vector is achieved. V P i j
Figure 00000010
directions to the object due to taking into account its location on the frame of the video camera with the possibility of subsequent averaging of the estimation results over a series of frames, and the final averaged coordinates of the object are specified in accordance with the terrain features of the measurement area.

Известны устройства по пат. РФ №2251712, МПК G01S 13/66; пат. РФ №2359288, МПК G01S 5/02. Аналоги обеспечивают определение координат объектов с помощью оптико-электронных средств. Однако им присущ существенный недостаток: они размещаются на земной поверхности, вследствие чего обладают маленьким радиусом действия.Known devices according to US Pat. RF №2251712, IPC G01S 13/66; US Pat. RF №2359288, IPC G01S 5/02. Analogs provide the determination of the coordinates of objects using optical-electronic means. However, they have a significant drawback: they are located on the earth's surface, as a result of which they have a small radius of action.

Наиболее близким по своей технической сущности к заявляемому устройству определения координат объектов является пат. РФ №2323851, МПК B64C 31/06 "Система наблюдения за земной поверхностью с беспилотным летательным аппаратом", опубл. 10.05.2008 г.The closest in its technical essence to the claimed device for determining the coordinates of objects is pat. RF №2323851, IPC B64C 31/06 "Earth observation system with unmanned aerial vehicle", publ. 05/10/2008

Устройство-прототип содержит затягивающую лебедку, беспилотный летательный аппарат (БЛА) и наземный пункт управления (НПУ), причем БЛА состоит из последовательно соединенных контроллера, рулевого привода и аэродинамических рулей, автопилота, группа информационных входов которого соединена с второй группой информационных выходов контроллера, первая группа информационных входов которого соединена с группой информационных выходов автопилота, двигательная установка, группа информационных входов которой соединена с третьей группой информационных выходов контроллера, блок видеонаблюдения, группа информационных входов которого соединена с четвертой группой информационных выходов контроллера, а группа информационных выходов - с второй группой информационных входов контроллера, и первый приемопередающий модуль, группа информационных входов которого соединена с пятой группой информационных выходов контроллера, третья группа информационных входов которого соединена с группой информационных выходов первого приемо-передающего модуля, а наземный пункт управления выполнен содержащим последовательно соединенные блок управления, второй приемо-передающий модуль и устройство обработки и отображения информации, вторая группа выходов блока управления является шиной управления НПУ, и соединена с затягивающей лебедкой.The prototype device contains a tightening winch, unmanned aerial vehicle (UAV) and ground control station (NPU), and the UAV consists of a series-connected controller, steering gear and aerodynamic rudders, an autopilot, the group of information inputs of which are connected to the second group of information outputs of the controller, the first a group of information inputs of which is connected to a group of information outputs of an autopilot, a propulsion system, a group of information inputs of which is connected to a third group of inf controller outputs, a video surveillance unit, the group of information inputs of which is connected to the fourth group of information outputs of the controller, and the group of information outputs - with the second group of information inputs of the controller, and the first transceiver module, the group of information inputs of which is connected to the fifth group of information outputs of the controller, the third group the information inputs of which are connected to the group of information outputs of the first transceiver module, and the ground control point is nen comprising a series-connected control unit, a second receiving-transmitting unit and a processing and displaying device, the second group control unit outputs a control bus NPU, and is connected to the clamping winch.

Прототип предназначен для получения фотоснимков земной поверхности с высоты порядка 100 метров. Однако устройство-прототип не обеспечивает измерение координат видимых объектов из-за отсутствия высокоточной системы навигации БЛА и высокоточной системы определения направления на него.The prototype is designed to take photographs of the earth's surface from a height of about 100 meters. However, the prototype device does not provide measurement of the coordinates of visible objects due to the lack of a high-precision UAV navigation system and a high-precision system for determining the direction to it.

Целью заявляемого технического решения является разработка устройства, обеспечивающего высокоточное измерение координат заданных объектов с борта БЛА.The purpose of the proposed technical solution is to develop a device that provides high-precision measurement of the coordinates of specified objects from the UAV.

Поставленная цель достигается тем, что в известном устройстве, состоящем из беспилотного летательного аппарата и наземного пункта управления, причем БЛА выполнен содержащим последовательно соединенные контроллер, рулевой привод и аэродинамические рули, автопилот, группа информационных входов которого соединена с второй группой информационных выходов контроллера, первая группа информационных входов которого соединена с группа информационных выходов автопилота, двигательная установка, группа информационных входов которой соединена с третьей группой информационных выходов контроллера, первый приемопередающий модуль, группа информационных входов которого соединена с четвертой группой информационных выходов контроллера, вторая группа информационных входов которого соединена с группой информационных выходов первого приемо-передающего модуля, и блок видеонаблюдения, а наземный пункт управления выполнен содержащим последовательно соединенные первый блок управления, второй приемо-передающий модуль и первое устройство обработки и отображения информации, отличающееся тем, что в БЛА дополнительно введены передающий модуль, блок навигации БЛА и запоминающее устройство, причем, первая группа информационных входов запоминающего устройства соединена с группой информационных выходов блока видеонаблюдения, вторая группа информационных входов соединена с группой информационных выходов блока навигации БЛА, а группа информационных выходов запоминающего устройства соединена с группой информационных входов передающего модуля, а в наземный пункт управления дополнительно введены последовательно соединенные приемный модуль и второе устройство обработки и индикации, второй блок управления, группа информационных входов которого объединена с первой группой информационных входов второго устройства обработки и отображения информации, а группа информационных выходов - со второй группой информационных входов второго устройства обработки и отображения информации.This goal is achieved by the fact that in the known device, consisting of an unmanned aerial vehicle and ground control station, and the UAV is made containing serially connected controller, steering gear and aerodynamic steering wheels, autopilot, the group of information inputs of which are connected to the second group of information outputs of the controller, the first group the information inputs of which are connected to the group of information outputs of the autopilot, a propulsion system, the group of information inputs of which is connected with the third group of information outputs of the controller, the first transceiver module, the group of information inputs of which is connected to the fourth group of information outputs of the controller, the second group of information inputs of which is connected to the group of information outputs of the first transceiver module, and the video surveillance unit, and the ground control station is made containing connected by the first control unit, the second transceiver module and the first information processing and display device, I distinguish in that the transmitting module, the UAV navigation unit and the storage device are additionally introduced into the UAV, moreover, the first group of information inputs of the storage device is connected to the group of information outputs of the video surveillance unit, the second group of information inputs is connected to the group of information outputs of the UAV navigation unit, and the group of information of the outputs of the storage device is connected to a group of information inputs of the transmitting module, and a serial connection is additionally introduced to the ground control point nennye receiving unit and the second processing unit and display unit, the second control unit, the group of information inputs of which is combined with the first group of information inputs of the second processing device and display information, and the group of information outputs - to the second group of information inputs of the second processing device and display information.

Перечисленная новая совокупность существенных признаков за счет того, что водятся новые элементы и связи, позволяет достичь цели изобретения: обеспечить высокоточное измерение координат заданных объектов за счет полного и объективного измерения пространственных параметров БЛА, углов ориентации видеокамеры и места объекта в кадре в условиях воздействия дестабилизирующих факторов (ветровой нагрузки, выполнения маневров БЛА и др.) и учету особенностей рельефа местности.The above-mentioned new set of essential features due to the fact that new elements and connections are being found allows achieving the objective of the invention: to provide high-precision measurement of the coordinates of the given objects due to the full and objective measurement of the spatial parameters of the UAV, the camera’s orientation angles and the object’s position in the frame under the influence of destabilizing factors (wind load, UAV maneuvers, etc.) and taking into account the terrain features.

Заявляемые объекты поясняются чертежами, на которых показаны:The inventive objects are illustrated by drawings, which show:

на фиг.1 иллюстрируются:figure 1 illustrates:

а) пятно засветки видеокамеры на земной поверхности с находящимся в нем объектом Оj;a) a spot of illumination of a video camera on the earth’s surface with an object О j located in it;

б) причина возникновения ошибок в определении координат объекта при отсутствии учета рельефа местности;b) the cause of errors in determining the coordinates of the object in the absence of taking into account the terrain;

на фиг.2 показан обобщенный алгоритм определения координат объекта;figure 2 shows a generalized algorithm for determining the coordinates of the object;

на фиг.3 приведена обобщенная структурная схема устройства определения координат объекта;figure 3 shows a generalized structural diagram of a device for determining the coordinates of an object;

на фиг.4 показан алгоритм определения координат объекта (B, L, H)j в географической системе координат по одному кадру;figure 4 shows the algorithm for determining the coordinates of the object (B, L, H) j in the geographical coordinate system in one frame;

на фиг.5 иллюстрируется алгоритм нахождения координат объекта [B, L, H)j в географической системе координат по серии кадров;figure 5 illustrates the algorithm for finding the coordinates of the object [B, L, H) j in the geographical coordinate system for a series of frames;

на фиг.6 иллюстрируется съемка плоской поверхности с двух разных положений видеокамеры;figure 6 illustrates the shooting of a flat surface from two different positions of the camcorder;

на фиг.7 поясняется порядок предварительного определения координат объекта;7 illustrates the procedure for preliminary determination of the coordinates of the object;

на фиг.8 поясняется порядок определения координат объекта с заданной точностью;on Fig explains the procedure for determining the coordinates of the object with a given accuracy;

на фиг.9 приведен алгоритм работы подсистемы видеонаблюдения, размещаемой на борту БЛА;figure 9 shows the algorithm of the video surveillance subsystem placed on board the UAV;

на фиг.10 показан алгоритм работы второго автоматизированного рабочего места наземного пункта управления;figure 10 shows the algorithm of the second automated workstation of the ground control point;

на фиг.11 иллюстрируется структурная схема второго устройства обработки и отображения информации;11 illustrates a structural diagram of a second device for processing and displaying information;

на фиг.12 приведена структурная схема седьмого вычислителя;on Fig shows a structural diagram of a seventh calculator;

на фиг.13 показана структурная схема блока коррекции дисторсии объектива видеокамеры;on Fig shows a structural diagram of a block distortion correction lens of the camera;

на фиг.14 приведена структурная схема блока обработки изображения;Fig. 14 is a structural diagram of an image processing unit;

на фиг.15 иллюстрируется алгоритм работы седьмого вычислителя по определению вектора направления на объект в системе координат видеокамеры;on Fig illustrates the algorithm of the seventh calculator to determine the direction vector to the object in the coordinate system of the camera;

на фиг.16 показан алгоритм работы блока обработки видеоизображения;on Fig shows the algorithm of the processing unit of the video image;

на фиг.17 приведен алгоритм работы восьмого вычислителя;on Fig shows the algorithm of the eighth calculator;

на фиг.18 показан алгоритм работы первого вычислителя;on Fig shows the algorithm of the first calculator;

на фиг.19 приведен алгоритм работы второго вычислителя;Fig.19 shows the algorithm of the second calculator;

на фиг.20 иллюстрируется алгоритм работы третьего вычислителя;on Fig illustrates the algorithm of the third computer;

на фиг.21 приведен алгоритм работы четвертого вычислителя;in Fig.21 shows the algorithm of the fourth calculator;

на фиг.22 приведен алгоритм работы пятого вычислителя;in Fig.22 shows the algorithm of the fifth transmitter;

на фиг.23 показан алгоритм работы шестого вычислителя;on Fig shows the algorithm of the sixth calculator;

на фиг.24 показан алгоритм работы девятого вычислителя;on Fig shows the algorithm of the ninth transmitter;

на фиг.25 приведен алгоритм работы третьего блока управления в режиме предварительного определения координат;on Fig the algorithm of the third control unit in the mode of preliminary determination of coordinates;

на фиг.26 приведен алгоритм работы второго блока управления.Fig.26 shows the algorithm of the second control unit.

Современные способы определения координат объектов с ЛПС, реализующих угломерно-дальномерный способ местоопределения, как правило базируются на использовании глобальных навигационных спутниковых систем (ГНСС) (см. В.С.Шебшаевич, П.П.Дмитриев, Н.В.Иванцевич и др. Спутниковые радионавигационные системы / Под ред. В.С.Шебшаевича. - М.: Радио и связь, 1993, стр.261-275). Однако кроме информации о собственном местоположении ЛПС и направлении его перемещения при решении задач местоопределения необходимо знание его пространственной ориентации: крена k lps i

Figure 00000046
, тангажа l lps i
Figure 00000047
и курсового угла α lps i
Figure 00000048
(угла сноса или склонения ζ lps i
Figure 00000049
), где ζ lps i = μ l p s i α l p s i
Figure 00000050
, μ l p s i
Figure 00000051
- значение путевого угла в момент времени ti. Информацию об этих параметрах можно получить с помощью известных устройств (см. пат. РФ №2374659, МПК G01IS 7/00, опубл. 27.11.2009 г. бюл. 33; пат. РФ №2371733, МПК G01S 5/10, опубл. 27.10.2009 г. бюл. 30). Поэтому основной акцент в описании предлагаемого изобретения сделан на особенностях преобразования изображения объекта на кадре видеокамеры в вектор направления V П i j = ( X j , Y j , Z j ) i
Figure 00000008
на него в системе координат видеокамеры с целью повышения точностных характеристик измерителя.Modern methods for determining the coordinates of objects with LPS, which implement the goniometric-range-finding method of positioning, are usually based on the use of global navigation satellite systems (GNSS) (see V.S.Shebshaevich, P.P.Dmitriev, N.V. Ivantsevich, etc. Satellite radio navigation systems / Under the editorship of V.S.Shebshaevich. - M.: Radio and communications, 1993, pp. 262-275). However, in addition to information about the LPS own location and the direction of its movement when solving location problems, it is necessary to know its spatial orientation: k lps i
Figure 00000046
pitch l lps i
Figure 00000047
and heading angle α lps i
Figure 00000048
(drift or declination angle ζ lps i
Figure 00000049
), where ζ lps i = μ l p s i - α l p s i
Figure 00000050
, μ l p s i
Figure 00000051
- the value of the track angle at time t i . Information on these parameters can be obtained using known devices (see US Pat. RF No. 2374659, IPC G01IS 7/00, publ. 11/27/2009 bull. 33; US Pat. RF No. 2371733, IPC G01S 5/10, publ. October 27, 2009 bull. 30). Therefore, the main emphasis in the description of the invention is made on the features of the conversion of the image of the object on the frame of the camera into the direction vector V P i j = ( X j , Y j , Z j ) i
Figure 00000008
on it in the coordinate system of the camera in order to improve the accuracy characteristics of the meter.

Реализация заявляемого способа поясняется следующим образом. На подготовительном этапе под фюзеляжем ЛПС устанавливают видеокамеру и фиксируют ее ориентацию. Измеряют ориентацию видеокамеры в трех плоскостях, принятых в авиации как крена k lps i

Figure 00000046
, тангажа l lps i
Figure 00000052
и склонения ζ lps i
Figure 00000053
(kk, lk, ζk) относительно корпуса ЛПС (см. фиг.2, 4). Полученные значения запоминают и в последующем используют для уточнения результатов измерений. Кроме того, измеряются и запоминаются коэффициенты дисторсии k1, k2, k3 объектива видеокамеры.The implementation of the proposed method is illustrated as follows. At the preparatory stage, a video camera is installed under the LPS fuselage and its orientation is recorded. The orientation of the video camera is measured in three planes adopted in aviation as a roll k lps i
Figure 00000046
pitch l lps i
Figure 00000052
and declensions ζ lps i
Figure 00000053
(k k , l k , ζ k ) relative to the housing of the LPS (see figure 2, 4). The obtained values are stored and subsequently used to refine the measurement results. In addition, distortion coefficients k 1 , k 2 , k 3 of the camera lens are measured and stored.

В процессе полета ЛПС по определенному маршруту с помощью видеокамеры осуществляется поиск заданных объектов. При визуальном обнаружении j-го объекта оператором принимается решение о необходимости измерения его координат. С этой целью местоположение объекта на кадре видеокамеры первоначально задается (определяется) оператором с помощью визира.During the flight of the LPS along a certain route, a specified camera is searched for with a video camera. When the j-th object is visually detected, the operator makes a decision on the need to measure its coordinates. To this end, the location of the object on the frame of the camcorder is initially set (determined) by the operator using the sight.

Полученные координаты j-го объекта ( x r , y r ) j T

Figure 00000054
на кадре (см фиг.1а) задаются в пикселях, при этом их отсчитывают от верхнего левого угла кадра.The obtained coordinates of the j-th object ( x r , y r ) j T
Figure 00000054
on the frame (see figa) are set in pixels, while they are counted from the upper left corner of the frame.

На следующем этапе необходимо преобразовать координаты j-го объекта ( x r , y r ) j T

Figure 00000055
в кадре на направление на объект в системе координат видеокамеры V П i j
Figure 00000010
. Данная операция выполняется в соответствии с выражениемThe next step is to transform the coordinates of the j-th object ( x r , y r ) j T
Figure 00000055
in the frame to the direction of the object in the coordinate system of the camera V P i j
Figure 00000010
. This operation is performed in accordance with the expression

( x r y r ) = f ( x ' ' y ' ' ) + ( c x c y ) , ( 1 )

Figure 00000056
( x r y r ) = f ( x '' '' y '' '' ) + ( c x c y ) , ( one )
Figure 00000056

где { x ' ' = x ' ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 ) y ' ' = y ' ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 )

Figure 00000057
,Where { x '' '' = x '' ( one + k one r 2 + k 2 r four + k 3 r 6 ) y '' '' = y '' ( one + k one r 2 + k 2 r four + k 3 r 6 )
Figure 00000057
,

r = x ' 2 + y ' 2

Figure 00000058
, r = x '' 2 + y '' 2
Figure 00000058
,

f - фокусное расстояние объектива видеокамеры, пересчитанное в пиксели матрицы (кадра), (сх, су)T - координаты центра матрицы в пикселях, k1, k2, k3 - измеренные коэффициенты дисторсии объектива (см. Szeliski, Richard. Computer: Algorithms and Applications. Sprintger, 2010). Произведя переобозначение ( x , y ) T = x ˜

Figure 00000059
выражение 1 принимает видf is the focal length of the lens of the camera, converted into pixels of the matrix (frame), (s x , s y ) T are the coordinates of the center of the matrix in pixels, k 1 , k 2 , k 3 are the measured distortion coefficients of the lens (see Szeliski, Richard. Computer: Algorithms and Applications. Sprintger, 2010). By reassigning ( x , y ) T = x ˜
Figure 00000059
expression 1 takes the form

x ˜ r = f x ˜ ' ' + c ˜ , ( 2 )

Figure 00000060
x ˜ r = f x ˜ '' '' + c ˜ , ( 2 )
Figure 00000060

где x ˜ ' ' = V П i j ( 1 + k 1 V П i j 2 + k 2 V П i j 4 + k 3 V П i j 6 )

Figure 00000061
. Вектор x ˜ ' '
Figure 00000062
определяется на основе известных параметров видеокамеры и координат j-го объекта на кадреWhere x ˜ '' '' = V P i j ( one + k one V P i j 2 + k 2 V P i j four + k 3 V P i j 6 )
Figure 00000061
. Vector x ˜ '' ''
Figure 00000062
determined based on the known parameters of the camera and the coordinates of the j-th object on the frame

x ˜ ' ' = ( x ˜ r c ˜ ) / f . ( 3 )

Figure 00000063
x ˜ '' '' = ( x ˜ r - c ˜ ) / f . ( 3 )
Figure 00000063

Таким образом, обозначив ψ ( x ˜ ) = ( 1 + k 1 V П i j 2 + k 2 V П i j 4 + k 3 V П i j 6 )

Figure 00000064
, получаем уравнение, решением которого является искомый вектор V i j
Figure 00000065
Thus, denoting ψ ( x ˜ ) = ( one + k one V P i j 2 + k 2 V P i j four + k 3 V P i j 6 )
Figure 00000064
, we obtain an equation whose solution is the desired vector V i j
Figure 00000065

V П i j = x ˜ ' ' / ψ ( V П i j ) . ( 4 )

Figure 00000066
V P i j = x ˜ '' '' / ψ ( V P i j ) . ( four )
Figure 00000066

Численное значение вектора V П i j

Figure 00000067
находится методом простых итераций.The numerical value of the vector V P i j
Figure 00000067
found by simple iteration.

Направление на j-й объект V i j

Figure 00000068
определено без учета ориентации видеокамеры относительно корпуса ЛПС и собственно ориентации ЛПС в пространстве. В силу названных причин в предлагаемом способе на первом этапе учитывают ориентацию видеокамеры относительно ЛПС и положение ЛПС в пространстве. Это достигается путем последовательного перехода из одной системы координат в другую, что удобнее и быстрее выполнять в декартовой системе координат. На втором этапе определения координат объектов учитывают особенности рельефа местности района измерений. Данные этапы достаточно полно освещены в пат. РФ №2419106, МПК G01S 13/46, опубл. 20.05.2011 г. и пат. РФ №2458360 МПК G01S 13/46, 5/02, 3/14, опубл. 1.08.2012 г.Direction to j-th object V i j
Figure 00000068
determined without taking into account the orientation of the camera relative to the LPS body and the actual orientation of the LPS in space. For these reasons, in the proposed method at the first stage take into account the orientation of the camera relative to the LPS and the position of the LPS in space. This is achieved by a sequential transition from one coordinate system to another, which is more convenient and faster to perform in a Cartesian coordinate system. At the second stage of determining the coordinates of objects, the terrain features of the measurement region are taken into account. These steps are fully covered in US Pat. RF №2419106, IPC G01S 13/46, publ. 05/20/2011 and Pat. RF №2458360 IPC G01S 13/46, 5/02, 3/14, publ. 01/08/2012

Координаты ЛПС V П i j = ( B l p s , L l p s , H l p s )

Figure 00000069
, измеренные в момент времени ti, преобразуют в геоцентрическую систему координат:LPS coordinates V P i j = ( B l p s , L l p s , H l p s )
Figure 00000069
measured at time t i transform into a geocentric coordinate system:

V l p s i Г = ( X l p s i Y l p s i Z l p s i ) = ( ( H l p s i + R ) cos ( B l p s i ) cos ( L l p s i ) ( H l p s i + R ) cos ( B l p s i ) sin ( L l p s i ) ( H l p s i + R ) sin ( B l p s i ) ) . ( 5 )

Figure 00000070
V l p s i G = ( X l p s i Y l p s i Z l p s i ) = ( ( H l p s i + R ) cos ( B l p s i ) cos ( L l p s i ) ( H l p s i + R ) cos ( B l p s i ) sin ( L l p s i ) ( H l p s i + R ) sin ( B l p s i ) ) . ( 5 )
Figure 00000070

В первом преобразовании вектора направления на j-й объект V П i j

Figure 00000010
учитывают априорно известную ориентацию видеокамеры относительно ЛПС на основе данных, полученных на подготовительном этапе. Коррекцию V П i j
Figure 00000010
осуществляют в плоскости трех углов Эйлера: крена kk, тангажа lk и склонения ζk. Исходный вектор V П i j
Figure 00000010
последовательно перемножают на три соответствующие углам Эйлера матрицы поворота (см. фиг.2)In the first transformation of the direction vector to the jth object V P i j
Figure 00000010
take into account the a priori known orientation of the camera relative to the LPS based on data obtained at the preparatory stage. Correction V P i j
Figure 00000010
carried out in the plane of three Euler angles: roll k k , pitch l k and declination ζ k . Source vector V P i j
Figure 00000010
successively multiplied by three rotation matrices corresponding to Euler angles (see FIG. 2)

V i j ' = E 3 ( ζ k ) E 2 ( l k ) E 1 ( k k ) V П i j , ( 6 )

Figure 00000071
V i j '' = E 3 ( ζ k ) E 2 ( l k ) E one ( k k ) V P i j , ( 6 )
Figure 00000071

где E 1 ( k k ) = [ 1 0 0 0 cos ( k k ) sin ( k k ) 0 sin ( k k ) cos ( k k ) ]

Figure 00000072
,Where E one ( k k ) = [ one 0 0 0 cos ( k k ) - sin ( k k ) 0 sin ( k k ) cos ( k k ) ]
Figure 00000072
,

E 2 ( l k ) = [ cos ( l k ) 0 sin ( l k ) 0 1 0 sin ( l k ) 0 cos ( l k ) ]

Figure 00000073
, E 2 ( l k ) = [ cos ( l k ) 0 sin ( l k ) 0 one 0 - sin ( l k ) 0 cos ( l k ) ]
Figure 00000073
,

E 1 ( ζ k ) = [ cos ( ζ k ) sin ( ζ k ) 0 sin ( ζ k ) cos ( ζ k ) 0 0 0 1 ]

Figure 00000074
. E one ( ζ k ) = [ cos ( ζ k ) - sin ( ζ k ) 0 sin ( ζ k ) cos ( ζ k ) 0 0 0 one ]
Figure 00000074
.

На следующем этапе в нормальной системе координат осуществляют преобразование скорректированного вектора направления на j-й объект V i j ' = ( X j ' , Y j ' , Z j ' ) i

Figure 00000075
с целью учета ориентации ЛПС относительно земной поверхности и положения ЛПС в пространстве, что позволяет получить уточненное значение вектора направления на j-й объект V i j + = ( X j + , Y j + , Z j + ) i
Figure 00000076
. Переход через эту систему координат продиктован тем, что в ней измеряются углы ориентации ЛПС. Получение вектора направления на источник V i j +
Figure 00000077
в нормальной системе координат также предпочтительно. Во-первых, вычисление уточненного угла места β i j +
Figure 00000078
возможно только в рассматриваемой системе координат, так как это фактически угол отклонения направления на объект от горизонтальной плоскости в точке нахождения ЛПС. Во-вторых, в этой системе координат удобно решать задачу определения точки пересечения вектора направления на объект с "круглой" Землей в силу того обстоятельства, что одна из осей системы направлена к центру Земли. Ориентация ЛПС обычно задается углами k lps i
Figure 00000079
, l lps i
Figure 00000080
, и ζ lps i
Figure 00000081
, которые определяют в каждой точке относительно плоскости, касательной к сферической модели земной поверхности. Ось крена k lps i
Figure 00000082
лежит в этой плоскости и направлена на географический север, ось склонения ζ lps i
Figure 00000083
перпендикулярна указанной плоскости и направлена к центру земли, ось тангажа l lps i
Figure 00000084
лежит в указанной плоскости таким образом, что тройка осей представляет правую декартову систему координат (см. Авиация: Энциклопедия. - М.: Большая Российская энциклопедия, 1994 г.). Полученный на предыдущем этапе вектор V i j '
Figure 00000085
последовательно перемножают на три соответствующие матрицы поворота (относительно каждой из названных осей)At the next stage, in the normal coordinate system, the corrected direction vector is converted to the jth object V i j '' = ( X j '' , Y j '' , Z j '' ) i
Figure 00000075
in order to take into account the orientation of the LPS relative to the earth's surface and the position of the LPS in space, which allows you to get the updated value of the direction vector to the j-th object V i j + = ( X j + , Y j + , Z j + ) i
Figure 00000076
. The transition through this coordinate system is dictated by the fact that LPS orientation angles are measured in it. Getting the direction vector to the source V i j +
Figure 00000077
in a normal coordinate system is also preferable. First, the calculation of the adjusted elevation angle β i j +
Figure 00000078
it is possible only in the coordinate system under consideration, since this is actually the angle of deviation of the direction of the object from the horizontal plane at the location of the LPS. Secondly, in this coordinate system it is convenient to solve the problem of determining the point of intersection of the direction vector of the object with the "round" Earth due to the fact that one of the axes of the system is directed toward the center of the Earth. LPS orientation is usually given by angles k lps i
Figure 00000079
, l lps i
Figure 00000080
, and ζ lps i
Figure 00000081
which are determined at each point relative to a plane tangent to a spherical model of the earth's surface. Roll axis k lps i
Figure 00000082
lies in this plane and is directed to geographical north, the declination axis ζ lps i
Figure 00000083
perpendicular to the indicated plane and directed towards the center of the earth, pitch axis l lps i
Figure 00000084
lies in the indicated plane in such a way that the three axes represent the right Cartesian coordinate system (see Aviation: Encyclopedia. - M.: Big Russian Encyclopedia, 1994). The vector obtained in the previous step V i j ''
Figure 00000085
successively multiplied by three corresponding rotation matrices (relative to each of the named axes)

V i j + ' = E 3 ( ζ l p s ) i E 2 ( l l p s ) i E 1 ( k l p s ) i V i j ' , ( 7 )

Figure 00000086
V i j + '' = E 3 ( ζ l p s ) i E 2 ( l l p s ) i E one ( k l p s ) i V i j '' , ( 7 )
Figure 00000086

где E 1 ( k l p s ) i = [ 1 0 0 0 cos ( k l p s ) i sin ( k l p s ) i 0 sin ( k l p s ) i cos ( k l p s ) i ]

Figure 00000087
,Where E one ( k l p s ) i = [ one 0 0 0 cos ( k l p s ) i - sin ( k l p s ) i 0 sin ( k l p s ) i cos ( k l p s ) i ]
Figure 00000087
,

E 2 ( l l p s ) i = [ cos ( l l p s ) i 0 sin ( l l p s ) i 0 1 0 sin ( l l p s ) i 0 cos ( l l p s ) i ]

Figure 00000088
, E 2 ( l l p s ) i = [ cos ( l l p s ) i 0 sin ( l l p s ) i 0 one 0 - sin ( l l p s ) i 0 cos ( l l p s ) i ]
Figure 00000088
,

E 3 ( ζ l p s ) i = [ cos ( ζ l p s ) i sin ( ζ l p s ) i 0 sin ( ζ l p s ) i cos ( ζ l p s ) i 0 0 0 1 ]

Figure 00000089
E 3 ( ζ l p s ) i = [ cos ( ζ l p s ) i - sin ( ζ l p s ) i 0 sin ( ζ l p s ) i cos ( ζ l p s ) i 0 0 0 one ]
Figure 00000089

Уточненные значения азимута θ i j +

Figure 00000090
и угла места β i j +
Figure 00000091
определяют из выражения (7) следующим образом:Refined azimuth values θ i j +
Figure 00000090
and elevation β i j +
Figure 00000091
determined from the expression (7) as follows:

β i j + = arccos ( Z i j + V i j + ) π 2 ; ( 8 )

Figure 00000092
β i j + = arccos ( Z i j + V i j + ) - π 2 ; ( 8 )
Figure 00000092

Figure 00000093
Figure 00000093

Здесь вектор V i j +

Figure 00000029
находится в нормальной системе координат: ОХ+ - направление на север, OY+ - на восток, OZ+ - к центру Земли.Here is the vector V i j +
Figure 00000029
is in the normal coordinate system: OX + - direction to the north, OY + - to the east, OZ + - to the center of the Earth.

Для нахождения расстояния между ЛПС и j-м объектом d(H0)ij необходимо учесть шарообразный характер поверхности Земли. Иначе, данная задача может быть интерпретирована как нахождение расстояния d(/H0)ij, на котором вектор V i j +

Figure 00000029
пересечется с "круглой" Землей на высоте d(H0)ij метров:To find the distance between the LPS and the jth object d (H 0 ) ij, it is necessary to take into account the spherical nature of the Earth's surface. Otherwise, this problem can be interpreted as finding the distance d (/ H 0 ) ij at which the vector V i j +
Figure 00000029
intersects with the “round” Earth at a height of d (H 0 ) ij meters:

d ( H 0 ) i j = ( H l p s i + R ) sin β i j + D , ( 10 )

Figure 00000094
d ( H 0 ) i j = ( H l p s i + R ) sin β i j + - D , ( 10 )
Figure 00000094

где D - дискриминант квадратного уравнения: D = ( H 0 + R ) 2 ( H l p s i + R ) 2 cos 2 β i j +

Figure 00000095
, R - радиус Земли, R=6370000 м. Следует отметить, что расстояние d (Н0)ij возможно определить при условии D≥0. В противном случае начинают новый цикл измерений пространственных параметров j-го объекта θ i + 1, j +
Figure 00000096
и β i + 1, j +
Figure 00000097
.where D is the discriminant of the quadratic equation: D = ( H 0 + R ) 2 - ( H l p s i + R ) 2 cos 2 β i j +
Figure 00000095
, R is the radius of the Earth, R = 6370000 m. It should be noted that the distance d (Н 0 ) ij can be determined under the condition D≥0. Otherwise, they begin a new cycle of measuring the spatial parameters of the j-th object θ i + one, j +
Figure 00000096
and β i + one, j +
Figure 00000097
.

Нормальная система координат, в которой на данном этапе находится уточненный вектор V i j +

Figure 00000029
, расположена с некоторым поворотом, который зависит от широты и долготы местоположения ЛПС. Для окончательного перехода в геоцентрическую систему координат необходимо довернуть вектор V i j +
Figure 00000029
на широту ЛПС и π/2 минус долготу ЛПС L lps i
Figure 00000002
, используя матрицы поворота, а затем перенести центр системы координат в центр Земли, используя геоцентрические координаты ЛПС. В результате имеем истинный вектор V i j ' '
Figure 00000098
направления на j-й объектThe normal coordinate system in which the specified vector is located at this stage V i j +
Figure 00000029
, is located with some rotation, which depends on the latitude and longitude of the location of the LPS. For the final transition to the geocentric coordinate system, you must rotate the vector V i j +
Figure 00000029
latitude LPS and π / 2 minus longitude LPS L lps i
Figure 00000002
using rotation matrices, and then transfer the center of the coordinate system to the center of the Earth using the geocentric coordinates of the LPS. As a result, we have a true vector V i j '' ''
Figure 00000098
directions to the j-th object

V i j ' ' = G 2 ( L l p s ) i G 1 ( B l p s + π 2 ) i V i j + , ( 11 )

Figure 00000099
V i j '' '' = G 2 ( L l p s ) i G one ( - B l p s + π 2 ) i V i j + , ( eleven )
Figure 00000099

где G 1 ( B l p s + π 2 ) i = [ cos ( B l p s + π 2 ) i 0 sin ( B l p s + π 2 ) i 0 1 0 sin ( B l p s + π 2 ) i 0 cos ( B l p s + π 2 ) i ]

Figure 00000100
,Where G one ( - B l p s + π 2 ) i = [ cos ( - B l p s + π 2 ) i 0 - sin ( - B l p s + π 2 ) i 0 one 0 - sin ( - B l p s + π 2 ) i 0 cos ( - B l p s + π 2 ) i ]
Figure 00000100
,

G 2 ( L l p s ) i = [ cos ( L l p s ) i sin ( L l p s ) i 0 sin ( L l p s ) i cos ( L l p s ) i 0 0 0 1 ]

Figure 00000101
. G 2 ( L l p s ) i = [ cos ( L l p s ) i - sin ( L l p s ) i 0 sin ( L l p s ) i cos ( L l p s ) i 0 0 0 one ]
Figure 00000101
.

На этом завершается первый этап измерений.This completes the first phase of the measurements.

На следующем этапе результаты вычислений угла места β i j +

Figure 00000102
сравнивают с пороговым значением Δβ, определяющим заданную потенциальную точность измерения местоположения объектов. Следует отметить, что угол места на источник β i j + = 0
Figure 00000103
соответствует горизонту, β i j + = 90 o
Figure 00000104
соответствует зениту.In the next step, the elevation angle calculation results β i j +
Figure 00000102
compared with a threshold value Δβ, which determines a given potential accuracy of measuring the location of objects. It should be noted that the elevation angle to the source β i j + = 0
Figure 00000103
corresponds to the horizon β i j + = - 90 o
Figure 00000104
corresponds to the zenith.

Координаты объекта на "круглой" Земле в геоцентрической системе координат по направлению и расстоянию на высоте Н0 могут быть найдены с помощью выражения:The coordinates of the object on the "round" Earth in a geocentric coordinate system in direction and distance at a height of H 0 can be found using the expression:

V ф j = ( X ф j Y ф j Z ф j ) = V l p s i Г + d ( H 0 ) i j V i j " . ( 12 )

Figure 00000105
V f j = ( X f j Y f j Z f j ) = V l p s i G + d ( H 0 ) i j V i j " . ( 12 )
Figure 00000105

Переход от (12) к более удобной географической системе координат V j = ( B j , L j )

Figure 00000019
осуществляют следующим образом:Transition from (12) to a more convenient geographical coordinate system V j = ( B j , L j )
Figure 00000019
carried out as follows:

широта B j = arcsin ( Z ф j / V ф j ) , ( 13 )

Figure 00000106
latitude B j = arcsin ( Z f j / V f j ) , ( 13 )
Figure 00000106

где V ф j = X ф j 2 + Y ф j 2 + Z ф j 2 ;

Figure 00000107
Where V f j = X f j 2 + Y f j 2 + Z f j 2 ;
Figure 00000107

долгота

Figure 00000108
.longitude
Figure 00000108
.

При малых значениях β i j +

Figure 00000109
(обеспечивается низкая точность измерения координат объекта), а также при выполнении пороговых условий и отсутствии цифровой карты рельефа местности района измерений, определяют координаты точки пересечения истинного вектора направления на j-й объект V i j ' '
Figure 00000110
с "круглой" Землей, которые далее поступают на выход и используются в качестве искомой величины.For small values β i j +
Figure 00000109
(low accuracy of measuring the coordinates of the object is ensured), as well as when the threshold conditions are met and there is no digital map of the terrain of the measurement region, the coordinates of the point of intersection of the true direction vector to the j-th object are determined V i j '' ''
Figure 00000110
with the "round" Earth, which then go to the exit and are used as the desired value.

При выполнении пороговых условий β i j + > Δ β

Figure 00000111
и наличия цифровой карты рельефа района измерений становится возможным более точное измерение координат, которое в свою очередь выполняют в два этапа. На первом этапе формируют последовательный набор значений высот {Hi,m}, m=1, 2, …, М, которые соответствуют равномерно распределенным координатам на отрезке, соединяющем координаты ЛПС ( B lps i
Figure 00000001
, L lps i
Figure 00000002
) и j-го объекта (Bj, Lj) (см. фиг.7). При этом количество названных точек М находится из соотношения: М=d(Н0)ij/Δd, где Δd - шаг сканирования по вектору направления V i j ' '
Figure 00000110
на j-й объект в момент времени ti. Значение Δd определяется заданной точностью определения координат объекта на первом (предварительном) этапе измерений, например, Δd=500 м. Рассчитывают координаты V ф i m
Figure 00000112
, соответствующие дискретно выделенным высотам рельефа местности Нim. За предварительные координаты j-го объекта V ф s i j
Figure 00000113
принимают первую точку разбиения вектора V j
Figure 00000114
, находящуюся ниже уровня рельефа местности.When the threshold conditions are met β i j + > Δ β
Figure 00000111
 and the availability of a digital elevation map of the measurement region, it becomes possible to more accurately measure the coordinates, which in turn is performed in two stages. At the first stage, a sequential set of heights {Hi, m}, m = 1, 2, ..., M, which correspond to uniformly distributed coordinates on the segment connecting the LPS coordinates ( B lps i
Figure 00000001
, L lps i
Figure 00000002
) and j-th object (Bj, Lj) (see Fig. 7). Moreover, the number of named points M is found from the relation: M = d (N0)ij/ Δd, where Δd is the scan step along the direction vector V i j '' ''
Figure 00000110
 to the jth object at time ti. The value Δd is determined by the specified accuracy of determining the coordinates of the object at the first (preliminary) measurement stage, for example, Δd = 500 m. The coordinates are calculated V f i m
Figure 00000112
corresponding to discrete selected heights of the terrain Nim. For the preliminary coordinates of the j-th object V f s i j
Figure 00000113
take the first split point of the vector V j
Figure 00000114
below ground level.

На втором этапе измерений уточняют местоположение j-го объекта путем выделения соседней точки разбиения V ф j , m 1

Figure 00000115
, находящейся над рельефом местности (см. фиг.8). Отрезок ( V ф j , m 1 , V ф j , m )
Figure 00000116
вектора направления на j-й объект V j
Figure 00000117
делят на δ равных интервалов, Δδ<<Δδ, где Δδ - шаг сканирования по выделенному отрезку истинного вектора направления V j
Figure 00000118
. Последний определяется конечной заданной точностью измерения координат объектов и разрешающей способностью (дискретностью) цифровой карты местности. Для названных точек вычисляют координаты V ф j , m , δ
Figure 00000119
и соответствующие им значения высот рельефа местности Hj,m,δ. За точные координаты j-го объекта на основе линейной интерполяции принимают значение V ф j , m , δ
Figure 00000120
, находящееся между соседними точками p и p-1, p∈δ, расположенные выше и ниже рельефа местности At the second stage of measurements, the location of the j-th object is clarified by selecting the neighboring split point V f j , m - one
Figure 00000115
located above the terrain (see Fig.8). Line segment ( V f j , m - one , V f j , m )
Figure 00000116
direction vector to j-th object V j
Figure 00000117
divided into δ equal intervals, Δδ << Δδ, where Δδ is the scanning step along the selected segment of the true direction vector V j
Figure 00000118
. The latter is determined by the final specified accuracy of measuring the coordinates of objects and the resolution (discreteness) of a digital terrain map. For the named points, the coordinates are calculated V f j , m , δ
Figure 00000119
and the corresponding elevation heights H j, m, δ . For the exact coordinates of the j-th object based on linear interpolation, take the value V f j , m , δ
Figure 00000120
located between adjacent points p and p-1, p∈δ located above and below the terrain

V ф j , m , δ = V ф j , m , p + ( V ф j , m , p 1 V ф j , m , p ) a a + b , ( 14 )

Figure 00000121
V f j , m , δ = V f j , m , p + ( V f j , m , p - one - V f j , m , p ) a a + b , ( fourteen )
Figure 00000121

где

Figure 00000122
, b = | V ф j , m , p 1 R H j , p 1 |
Figure 00000123
.Where
Figure 00000122
, b = | | | V f j , m , p - one - R - H j , p - one | | |
Figure 00000123
.

Результаты вычислений координат V ф j , m , δ

Figure 00000119
преобразуют в удобную географическую систему координат V j δ = ( B j , L j , H j )
Figure 00000045
в соответствии с выражением (13). Соответствующее значение H берется из массива цифровой карты рельефа местности.Coordinate Results V f j , m , δ
Figure 00000119
convert to a convenient geographic coordinate system V j δ = ( B j , L j , H j )
Figure 00000045
in accordance with the expression (13). The corresponding value of H is taken from an array of digital terrain maps.

Повышение точности определения координат объектов V = ( B j , L j )

Figure 00000124
достигается при работе с последовательностью видеокадров и привязанными к ним данными телеметрии (см. фиг.5 и 6). При этом в случае, когда j-й объект неподвижен, на изображении имеется достаточное число контрастных объектов, а нелинейное изменение рельефа в пределах кадра мало по сравнению с высотой ЛПС позволяет упростить действия оператора. В этой ситуации оператор отмечает j-й объект только на первом кадре последовательности, а на последующих кадрах положение объекта определяется автоматически.Improving the accuracy of determining the coordinates of objects V = ( B j , L j )
Figure 00000124
achieved when working with a sequence of video frames and telemetry data attached to them (see FIGS. 5 and 6). Moreover, in the case when the j-th object is stationary, the image has a sufficient number of contrasting objects, and the nonlinear change in the relief within the frame is small compared to the LPS height allows simplifying the operator’s actions. In this situation, the operator marks the j-th object only on the first frame of the sequence, and on subsequent frames the position of the object is determined automatically.

Координаты ( x r , y r ) l T

Figure 00000125
, можно использовать как для уточнения направления на объект в системе координат видеокамеры для начального положения БЛА V П i j
Figure 00000010
, так и для непосредственного определения координат объекта интереса V j = ( B j , L j ) l
Figure 00000126
.Coordinates ( x r , y r ) l T
Figure 00000125
, can be used as to clarify the direction to the object in the coordinate system of the camera for the initial position of the UAV V P i j
Figure 00000010
, and to directly determine the coordinates of the object of interest V j = ( B j , L j ) l
Figure 00000126
.

В первом варианте устраняется случайная составляющая погрешностей измерения направления на объект в системе координат видеокамеры, а определение координат объекта осуществляют лишь с использованием координат и ориентации БЛА, соответствующих первому кадру серии.In the first embodiment, the random component of the errors in measuring the direction to the object in the coordinate system of the camera is eliminated, and the coordinates of the object are determined only using the coordinates and orientation of the UAVs corresponding to the first frame of the series.

Во втором случае (являющемся ресурсоемким) для каждого кадра серии вычисляют координаты объекта интереса V j

Figure 00000118
. При этом обеспечивается более высокая точность, поскольку в этом режиме используют результаты измерений координат и ориентации БЛА, сделанные на всей серии кадров. В связи с этим в предлагаемых способе и устройстве реализуется данный подход к определению координат V j
Figure 00000118
.In the second case (being resource-intensive), for each frame of the series, the coordinates of the object of interest are calculated V j
Figure 00000118
. This provides higher accuracy, since in this mode, the results of measurements of the coordinates and orientation of the UAV made on the entire series of frames are used. In this regard, the proposed method and device implements this approach to the determination of coordinates V j
Figure 00000118
.

Запишем координаты j-го объекта в пикселях на l-м кадре ( x r , y r ) l j T

Figure 00000127
. Тогда координаты j-го объекта в l+1-м кадре примут вид ( x r , y r ) l + 1, j T
Figure 00000128
. Известно (см. Szeliski, Richard. Computer: Algorithms and Applications. Sprintger, 2010), что при съемке плоской поверхности (в данном случае земной поверхности) одной и той же видеокамерой с двух позиций справедливо выражение, связывающее координаты одного и того же объекта на l-м и +1-м кадрах:Write the coordinates of the j-th object in pixels on the l-th frame ( x r , y r ) l j T
Figure 00000127
. Then the coordinates of the j-th object in the l + 1st frame will take the form ( x r , y r ) l + one, j T
Figure 00000128
. It is known (see Szeliski, Richard. Computer: Algorithms and Applications. Sprintger, 2010) that when shooting a flat surface (in this case, the earth’s surface) with the same video camera from two positions, the expression connecting the coordinates of the same object on lth and + 1st frames:

( k x l + 1 k y l + 1 k ) = M l + 1 ( x l y l 1 ) , ( 15 )

Figure 00000129
( k x l + one k y l + one k ) = M l + one ( x l y l one ) , ( fifteen )
Figure 00000129

где Мl+1 - матрица проективного преобразования из l-го кадра в l+1-й. Определяется взаимным расположением видеокамер в l-й и l+1-й позициях и имеет вид:where М l + 1 is the matrix of the projective transformation from the l-th frame to l + 1-th. It is determined by the mutual arrangement of cameras in the l-th and l + 1-th positions and has the form:

M l + 1 = ( m 11 m 12 m 13 m 21 m 22 m 23 m 31 m 32 1 )

Figure 00000130
. M l + one = ( m eleven m 12 m 13 m 21 m 22 m 23 m 31 m 32 one )
Figure 00000130
.

Определение значения матрицы Мl+1 выполняют следующим образом. При помощи алгоритма SURF (см. Herbert Bay, Andreas Ess, Tinne Tnytelaars, Luc Van Gool SURF: Speeded Up Robust Features. - Computer Vision and Image Understanding (CVIU), Vol.110, №3, 2008, p.346-359) осуществляют поиск наборов контрастных точек на двух изображениях { x } l

Figure 00000131
и { x } l + 1
Figure 00000132
. Для каждой точки из набора контрастных точек реализуют вычисление ее характеристики при помощи алгоритма BRIEF (см. М.Colonder, V.Lepetit, С.Strecha, P.Fua. BRIEF: Bonary Robust Independent Elementary Features. ECCV, 2010). Далее путем попарного сравнения вычисленных характеристик точек находят множество пар точек { ( x l , x l + 1 ) }
Figure 00000133
, где x l
Figure 00000134
- контрастная точка в l-м изображении (кадре), а x l + 1
Figure 00000135
- найденная как соответствующая ей контрастная точка в l+1-м изображении.The determination of the value of the matrix M l + 1 is as follows. Using the SURF algorithm (see Herbert Bay, Andreas Ess, Tinne Tnytelaars, Luc Van Gool SURF: Speeded Up Robust Features. - Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, 2008, p. 346-359 ) search for sets of contrast points in two images { x } l
Figure 00000131
and { x } l + one
Figure 00000132
. For each point in the set of contrasting points, its characteristics are calculated using the BRIEF algorithm (see M. Colonder, V. Lepetit, C. Strecha, P. Fua. BRIEF: Bonary Robust Independent Elementary Features. ECCV, 2010). Next, by pairwise comparing the calculated characteristics of the points, many pairs of points are found { ( x l , x l + one ) }
Figure 00000133
where x l
Figure 00000134
- contrast point in the l-th image (frame), and x l + one
Figure 00000135
- found as the corresponding contrast point in l + 1-m image.

При обнаружении P пар соответствующих друг другу точек ( x l , x l + 1 ) p

Figure 00000136
, p=1, 2, …, Р, то согласно (5) имеют место 2Р линейных уравнений относительно восьми неизвестных коэффициентов матрицы М:Upon detection of P pairs of points corresponding to each other ( x l , x l + one ) p
Figure 00000136
, p = 1, 2, ..., P, then according to (5) there are 2P linear equations for eight unknown coefficients of the matrix M:

x l + 1 p ( m 31 x l p + m 32 y l p + 1 ) = m 11 x l p + m 12 y l p + m 13 y l + 1 p ( m 31 x l p + m 32 y l p + 1 ) = m 21 x l p + m 22 y l p + m 23 . ( 16 )

Figure 00000137
x l + one p ( m 31 x l p + m 32 y l p + one ) = m eleven x l p + m 12 y l p + m 13 y l + one p ( m 31 x l p + m 32 y l p + one ) = m 21 x l p + m 22 y l p + m 23 . ( 16 )
Figure 00000137

На практике число Р достаточно велико по сравнению с минимально необходимым для решения данной системы. Однако среди найденных соответствий контрастных точек могут быть ошибочные совпадения. Данная проблема устраняется при помощи алгоритма RANSAC (см. Martin A. Fischler and Robert С.Bolles {June 1981). Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography. Comm. of the ACM14 (6): 381-395. dot 10.1145/358669.358692). Алгоритм запускается на фиксированное число итераций, на каждой из которых из n найденных соответствий выбирается s случайных пар. Из выбранных пар получают систему из 2s линейных уравнений, которая решается методом наименьших квадратов. Для полученного решения считается невязка на всем наборе из 2n уравнений. После выполнения фиксированного числа итераций в качестве М выбирается наилучшее решение.In practice, the number P is large enough compared to the minimum necessary to solve this system. However, among the found correspondences of contrasting points, there may be erroneous coincidences. This problem is resolved using the RANSAC algorithm (see Martin A. Fischler and Robert C. Bolles {June 1981). Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography. Comm. of the ACM14 (6): 381-395. dot 10.1145 / 358669.358692). The algorithm runs at a fixed number of iterations, at each of which s random pairs are selected from n found matches. From the selected pairs, a system of 2s linear equations is obtained, which is solved by the least squares method. For the obtained solution, the discrepancy on the entire set of 2n equations is considered. After performing a fixed number of iterations, the best solution is chosen as M.

Таким образом, найдя матрицу проективного преобразования между соседними кадрами, представляется возможность нахождения координат объекта V j = ( B j , L j ) l + 1

Figure 00000138
на последующем l+1-м кадре последовательности. С каждым последующим кадром местоположение j-го объекта уточняется, что и приводит к повышению точности измерений. Переход от координат ( x r , y r ) l T
Figure 00000139
к вектору направления V i j
Figure 00000140
в координатах видеокамеры на каждом очередном кадре осуществляют в соответствии с выражениями (1)-(4).Thus, having found the matrix of projective transformation between adjacent frames, it is possible to find the coordinates of the object V j = ( B j , L j ) l + one
Figure 00000138
on the subsequent l + 1st frame of the sequence. With each subsequent frame, the location of the j-th object is refined, which leads to an increase in the accuracy of measurements. Transition from coordinates ( x r , y r ) l T
Figure 00000139
to direction vector V i j
Figure 00000140
in the coordinates of the camera on each next frame is carried out in accordance with the expressions (1) - (4).

Таким образом, в предлагаемом способе определения координат объектов повышение точностных характеристик достигается благодаря более точному измерению вектора направления на объект V П i j

Figure 00000010
в рамках координат видеокамеры, уменьшению случайных ошибок оценивания за счет многократного определения координат объектов по серии кадров, а также благодаря учету особенностей рельефа местности в районе измерений. Достигаемый при этом положительный эффект примерно может быть оценен через отношение площадей засветки земной поверхности видеокамерой к площади объекта (площади кадра к площади пятна засветки от j-го объекта).Thus, in the proposed method for determining the coordinates of objects, an increase in accuracy characteristics is achieved due to a more accurate measurement of the direction vector to the object V P i j
Figure 00000010
within the framework of the camera’s coordinates, the reduction of random estimation errors by repeatedly determining the coordinates of objects from a series of frames, and also by taking into account the features of the terrain in the measurement area. The positive effect achieved in this case can be approximately estimated through the ratio of the areas of illumination of the earth's surface by the video camera to the area of the object (the area of the frame to the area of the spot of illumination from the j-th object).

Устройство определения координат объектов, содержащее беспилотный летательный аппарат 1 (БЛА) и наземный пункт управления 2, причем БЛА 1 выполнен содержащим последовательно соединенные контроллер 8, рулевой привод 9 и аэродинамические рули 11, автопилот 4, группа информационных входов которого соединена с второй группой информационных выходов контроллера 8, первая группа информационных входов которого соединена с группой информационных выходов автопилота 4, двигательная установка 3, группа информационных входов которой соединена с третьей группой информационных выходов контроллера 8, первый приемо-передающий модуль 10, группа информационных входов которого соединена с четвертой группой информационных выходов контроллера 8, вторая группа информационных входов которого соединена с группой информационных выходов первого приемо-передающего модуля 10, и блок видеонаблюдения 5, а наземный пункт управления 2 выполнен содержащим последовательно соединенные первый блок управления 13, второй приемо-передающий модуль 14 и первое устройство обработки и отображения информации 17.A device for determining the coordinates of objects containing an unmanned aerial vehicle 1 (UAV) and ground control point 2, wherein the UAV 1 is made up of a controller 8, a steering gear 9 and aerodynamic control wheels 11, an autopilot 4, a group of information inputs of which is connected to a second group of information outputs controller 8, the first group of information inputs of which are connected to the group of information outputs of the autopilot 4, a propulsion system 3, the group of information inputs of which is connected to a third the first group of information outputs of controller 8, the first transceiver module 10, the group of information inputs of which is connected to the fourth group of information outputs of the controller 8, the second group of information inputs of which is connected to the group of information outputs of the first transceiver module 10, and the video surveillance unit 5, and ground control point 2 is made comprising serially connected first control unit 13, a second transceiver module 14 and a first information processing and display device 17.

Для обеспечения высокоточного измерения координат заданных объектов с борта БЛА 1 в него дополнительно введены передающий модуль 12, блок навигации БЛА 7 и запоминающее устройство 6, причем, первая группа информационных входов запоминающего устройства 6 соединена с группой информационных выходов блока видеонаблюдения 5, вторая группа информационных входов соединена с группой информационных выходов блока навигации БЛА 7, а группа информационных выходов запоминающего устройства 6 соединена с группой информационных входов передающего модуля 12. В наземный пункт управления 2 дополнительно введены последовательно соединенные приемный модуль 15 и второе устройство обработки и индикации 16, и второй блок управления 18, группа информационных входов которого объединена с первой группой информационных входов второго устройства обработки и отображения информации 16, а группа информационных выходов - со второй группой информационных входов второго устройства обработки и отображения информации 16.To ensure high-precision measurement of the coordinates of specified objects from the UAV 1, a transmitting module 12, a UAV navigation unit 7 and a storage device 6 are additionally introduced into it; moreover, the first group of information inputs of the storage device 6 is connected to the group of information outputs of the video surveillance unit 5, the second group of information inputs connected to the group of information outputs of the UAV navigation unit 7, and the group of information outputs of the storage device 6 is connected to the group of information inputs of the transmitting mode For 12. At ground control point 2, a receiver module 15 and a second processing and indicating device 16 and a second control unit 18 are additionally introduced in series, the group of information inputs of which is combined with the first group of information inputs of the second information processing and display device 16, and the group of information outputs - with a second group of information inputs of the second device for processing and displaying information 16.

Заявляемое устройство определения координат объектов работает следующим образом (см. фиг.3). На подготовительном этапе на БЛА 1 под фюзеляжем устанавливают блок видеонаблюдения 5 (видеокамеру), например IP камеру EVS (см. Мегапиксельные сетевые камеры EVS. . evs.ru/prod.php?gr=313). Определяют маршрут полета БЛА 1 (поиска заданных объектов).The inventive device for determining the coordinates of objects works as follows (see figure 3). At the preparatory stage, a UAV unit 5 (video camera) is installed on the UAV 1 under the fuselage, for example, an EVS IP camera (see EVS megapixel network cameras.. Evs.ru/prod.php?gr=313). Determine the flight path of the UAV 1 (search for specified objects).

Управление взлетом, полетом и посадкой БЛА 1 осуществляют с первого автоматизированного рабочего места (АРМ) наземного пункта управления 2, состоящего из блока управления 13, второго приемопередающего модуля 14 и первого устройства обработки и отображения информации 14. Данную операцию осуществляют по первому радиоканалу на частоте 0,9-0,92 МГц с использованием модулей 10 и 14. Команды управления БЛА с выхода блока 13 через приемо-передающие модули 14 и 10 поступают на вход контроллера 8. С выхода блока 8 они следуют на группу входов двигательной установки 3 и через рулевой привод 9 на аэродинамические рули 11.The take-off, flight and landing of the UAV 1 is controlled from the first automated workstation (AWP) of the ground control point 2, consisting of a control unit 13, a second transceiver module 14 and a first information processing and display device 14. This operation is carried out on the first radio channel at a frequency of 0 , 9-0.92 MHz using modules 10 and 14. The UAV control commands from the output of block 13 through the transceiver modules 14 and 10 are received at the input of the controller 8. From the output of block 8, they follow the group of inputs of the motor set lamb 3 and through the steering gear 9 to the aerodynamic steering wheels 11.

Команды, подаваемые на двигательную установку 3, могут включать в себя сигналы управления по включению/выключению двигателя 3, изменению скорости вращения винта и др.Commands supplied to the propulsion system 3 may include control signals for turning the engine 3 on / off, changing the rotational speed of the screw, etc.

Команды, подаваемые через рулевой привод 9 на аэродинамические рули 11 могут изменять углы наклона крыльев, конфигурацию их поверхности и другие параметры управления движением БЛА 1.The commands given through the steering gear 9 to the aerodynamic steering wheels 11 can change the angles of inclination of the wings, the configuration of their surface and other parameters for controlling the movement of the UAV 1.

Автопилот 4 обеспечивает необходимую стабилизацию положения БЛА 1 в пространстве на заданной блоком 13 высоте, парирование ветровых возмущений, движение по заданному маршруту и т.д. Воздействие автопилота 4 на двигательную установку 3 и через рулевой привод 9 - на аэродинамические рули 11 осуществляется через контроллер 8. Последний формирует по исходным данным блока 4 необходимые команды управления функциональным узлам БЛА 1. Следует отметить, что в настоящее время первое автоматизированное рабочее место в состоянии одновременно управлять полетом до четырех БЛА 1 типа "Орлан 10".Autopilot 4 provides the necessary stabilization of the position of the UAV 1 in space at a height set by the unit 13, parry of wind disturbances, movement along a given route, etc. The impact of the autopilot 4 on the propulsion system 3 and through the steering gear 9 - on the aerodynamic wheels 11 is carried out through the controller 8. The latter generates the necessary control commands for the functional units of the UAV 1 according to the initial data of block 4. It should be noted that the first automated workstation is currently in state simultaneously control the flight of up to four UAVs of the Orlan 10 type.

Непосредственное участие в измерении координат объектов на борту БЛА 1 принимают блок видеонаблюдения 5, запоминающее устройство 6, блок навигации БЛА 7 и передающий модуль 12, а в наземном пункте управления 2 - второе автоматизированное рабочее место в составе приемного модуля 15, второго устройства обработки и отображения информации 16 и второго блока управления 18.A video surveillance unit 5, a storage device 6, a UAV navigation unit 7 and a transmitting module 12 take a direct part in measuring the coordinates of objects on board the UAV 1, and in the ground control point 2, a second automated workstation as part of the receiving module 15, the second processing and display device information 16 and the second control unit 18.

При наличии данных о положении и ориентации БЛА 1 существует возможность в оперативном режиме определять координаты объектов на видеоизображении (см. фиг.9). Изображение, полученное блоком видеонаблюдения 5 (IP камерой EVS), в цифровом формате передается на НПУ 2 с помощью блоков 12 и 15 в диапазоне 2,4 ГГц. Скорость передачи информации составляет 4 Мбит/с. При пересылке данных в формате JPEG возможна передача двух-четырех кадров высокого разрешения в секунду или десяти-двенадцати кадров низкого разрешения в секунду при поддерживаемом разрешении 1600×1200 или 640×480 (для камеры EVS) соответственно. Определение координат объекта осуществляется на втором автоматизированном рабочем месте (блоки 15, 16 и 18), на которое и подается видеопоток с блока 5 в реальном масштабе времени (см. фиг.10). Получаемое на экране АРМ изображение позволяет оператору выбрать с помощью блока 18 заданный объект. Благодаря данным телеметрии БЛА 1 и положению объекта на текущем кадре делает возможным с некоторой погрешностью рассчитать географические координаты интересующего объекта.If there is data on the position and orientation of the UAV 1, it is possible to determine the coordinates of objects in the video image in an online mode (see Fig. 9). The image obtained by CCTV unit 5 (IP camera EVS), in digital format is transmitted to the NPU 2 using blocks 12 and 15 in the 2.4 GHz band. The data transfer rate is 4 Mbps. When sending data in JPEG format, it is possible to transfer two to four high-resolution frames per second or ten to twelve low-resolution frames per second with a supported resolution of 1600 × 1200 or 640 × 480 (for the EVS camera), respectively. The coordinates of the object are determined at the second automated workstation (blocks 15, 16 and 18), which receives the video stream from block 5 in real time (see Fig. 10). The image obtained on the AWP screen allows the operator to select the specified object using block 18. Thanks to the telemetry data of the UAV 1 and the position of the object in the current frame, it makes it possible with some error to calculate the geographical coordinates of the object of interest.

В функции блока 6 входит совместная запись кадров видеоизображения с блока 5 и соответствующих им навигационных данных БЛА1 с выхода блока 7.The functions of block 6 include the joint recording of video frames from block 5 and the corresponding navigation data of UAV1 from the output of block 7.

Выполненные экспериментальные исследования на базе БЛА "Орлан-10" показали, что на точность определения координат объектов влияет ряд факторов:The performed experimental studies based on the Orlan-10 UAV showed that a number of factors influence the accuracy of determining the coordinates of objects:

погрешность определения географических координат БЛА при помощи СгРЯ-приемника составляет 15-30 м, что влечет за собой погрешность в 15-30 метров;the error in determining the geographic coordinates of the UAV with the help of the СРРЯ-receiver is 15-30 m, which entails an error of 15-30 meters;

погрешность в определении углов ориентации БЛА "Орлан" при помощи встроенных акселерометров на данный момент составляет 1° (при малых, до 10°, отклонениях БЛА 1 от горизонта). Вклад, вносимый этой погрешностью, пропорционален высоте Н, БЛА 1 и для 1000 метров составляет около 15 м по каждому из углов;the error in determining the orientation angles of the Orlan UAV using the built-in accelerometers is currently 1 ° (for small, up to 10 °, UAV deviations 1 from the horizon). The contribution made by this error is proportional to the height H, UAV 1 and for 1000 meters is about 15 m in each of the angles;

погрешность, вызванная запаздыванием в процессе привязки телеметрии к кадру из-за задержек в канале связи. При полете со скоростью 100 км/ч БЛА за одну секунду пролетает 27 метров. Запаздывание телеметрии на одну секунду может внести погрешность в измерения порядка 25-30 м;the error caused by the delay in the process of linking telemetry to the frame due to delays in the communication channel. When flying at a speed of 100 km / h, a UAV flies 27 meters in one second. The delay of telemetry for one second may introduce an error in the measurements of the order of 25-30 m;

погрешность, вызванная запаздыванием при привязке телеметрии к кадру, вызванная низкой частотой обновления GPS-координат (один раз в секунду), что влечет погрешность также 25-30 м.the error caused by the delay in linking telemetry to the frame, caused by the low frequency of updating GPS coordinates (once per second), which also entails an error of 25-30 m.

Таким образом, суммарная погрешность определения координат с высоты 1000 м может составить 100 м.Thus, the total error in determining coordinates from a height of 1000 m can be 100 m.

В предлагаемых способе и устройстве приняты меры к повышению точности измерения координат:In the proposed method and device, measures have been taken to improve the accuracy of measuring coordinates:

используется более точное навигационное оборудование, позволяющее определять местоположения БЛА с точностью 3-5 м, а ориентацию БЛА с точностью до десятых градуса, выполненное в соответствии с пат. РФ №2371733 и №2374659. Вносимая при этом погрешность измерений составляет 2-10 метров;more accurate navigation equipment is used, which allows to determine the location of the UAV with an accuracy of 3-5 m, and the orientation of the UAV with an accuracy of tenths of a degree, made in accordance with US Pat. RF №2371733 and №2374659. The measurement error introduced in this case is 2-10 meters;

использование цифрового канала связи в совокупности с привязкой телеметрии к видео на борту ЛПС позволяет исключить погрешность, связанную с запаздыванием в каналах связи;the use of a digital communication channel in conjunction with the binding of telemetry to video on board the LPS eliminates the error associated with the delay in communication channels;

использование навигационного оборудования, позволяющего обновлять информацию о положении БЛА до 10 раз в секунду позволяет значительно уменьшить погрешность, связанную с привязкой телеметрии к кадру;the use of navigation equipment, which allows updating information on the UAV position up to 10 times per second, can significantly reduce the error associated with linking telemetry to the frame;

усреднение значений координат (Bj, Lj) или (хr, yr), достигаемое многопозиционным их измерением, позволяет уменьшить вклад, вносимый погрешностями измерений, носящий случайный характер.averaging the coordinates (B j , L j ) or (x r , y r ), achieved by their multi-position measurement, makes it possible to reduce the contribution made by measurement errors, which is random in nature.

Совокупное использование названных мер позволило обеспечить снижение суммарной погрешности в определении координат с высоты 1000 метров до 2-10 метров. Следует отметить, что наибольший вклад вносит погрешность определения местоположения БЛА, носящая систематический характер.The combined use of these measures allowed to reduce the total error in determining the coordinates from a height of 1000 meters to 2-10 meters. It should be noted that the largest contribution is made by the error in determining the location of UAVs, which is systematic in nature.

Все функциональные элементы и блоки предлагаемого устройства, широко освещены в литературе и серийно выпускаются.All functional elements and blocks of the proposed device are widely covered in the literature and are commercially available.

В качестве БЛА 1 целесообразно использовать серийно выпускаемый ООО "Специальный Технологический Центр" город Санкт-Петербург БЛА "Орлан 10" (см. 10.html).As a UAV 1, it is advisable to use the city of St. Petersburg UAV Orlan 10 (see 10.html), which is commercially available from Special Technological Center LLC.

Масса полезной нагрузки БЛА составляет 5 кг, способ старта - с разборной катапульты, приземление - на парашюте. Воздушная скорость БЛА 90-150 км/ч, максимальная продолжительность полета - 16 часов, максимальная дальность - 600 км, максимальная высота - 5 км.The UAV payload weight is 5 kg, the launch method is from a collapsible catapult, the landing is by parachute. UAV airspeed 90-150 km / h, maximum flight duration - 16 hours, maximum range - 600 km, maximum altitude - 5 km.

Блок видеонаблюдения 5 может быть реализован с помощью цифровой IP видеокамеры EVS. Блок навигации 7 может быть реализован в соответствии с пат. РФ №2371733 или пат. РФ №2374659.CCTV unit 5 can be implemented using a digital IP video camera EVS. The navigation unit 7 may be implemented in accordance with US Pat. RF №2371733 or US Pat. RF №2374659.

Управление БЛА 1 "Орлан-10" реализуют с первого АРМ по низкоскоростному дуплексному каналу связи на частотах 900-920 МГц в режиме псевдослучайной перестройки рабочей частоты. По этому каналу (блоки 10 и 14) осуществляют задание маршрута полета, высоту полета и порядок облета: проход на высоте или барражирование и т.д. Управляющая информация формируется с помощью блока 13, в качестве которого может использоваться ноутбук.UAV 1 "Orlan-10" control is implemented from the first workstation via a low-speed duplex communication channel at frequencies of 900-920 MHz in the pseudo-random tuning of the operating frequency. On this channel (blocks 10 and 14), the flight route, flight altitude and flight order are set: passage at altitude or barrage, etc. Control information is generated using block 13, which can be used as a laptop.

Видеоизображение объектов на НПУ 2 с борта БЛА 1 поступает по высокоскоростному симплексному каналу на частотах 2000-2500 МГц на второе АРМ. Скорость передачи информации 4 Мбит/с. Дальность связи зависит от высоты полета и местных условий и в среднем составляет 100-130 км.The video image of the objects on NPU 2 from the UAV 1 is supplied via a high-speed simplex channel at frequencies of 2000-2500 MHz to the second AWP. Information transfer speed 4 Mbps. The communication range depends on the flight altitude and local conditions and averages 100-130 km.

Второе устройство обработки и отображения информации 16 (см. фиг.11) предназначено для определения координат объектов (решение принимается оператором, команда на исполнение которого формируется с помощью блока 18), реализации операций в соответствии с выражениями 1-16, представления результатов измерений в заданной форме. Оно содержит первый вычислитель 19, второй вычислитель 20, третий вычислитель 21, четвертый вычислитель 22, пятый вычислитель 23, шестой вычислитель 24, седьмой вычислитель 25, второе запоминающее устройство 26, генератор синхроимпульсов 27, восьмой вычислитель 28, девятый вычислитель 29, блок коммутации 30, блок обработки изображения 31, третий блок управления 32, третье запоминающее устройство 33, блок усреднения координат 34, блок сравнения 35 и блок индикации 36.The second device for processing and displaying information 16 (see Fig. 11) is designed to determine the coordinates of objects (the decision is made by the operator, the command for the execution of which is generated using block 18), the implementation of operations in accordance with expressions 1-16, the presentation of measurement results in a given form. It contains the first calculator 19, the second calculator 20, the fourth calculator 21, the fifth calculator 23, the sixth calculator 24, the seventh calculator 25, the second storage device 26, the clock generator 27, the eighth calculator 28, the ninth calculator 29, the switching unit 30 , an image processing unit 31, a third control unit 32, a third storage device 33, an averaging unit 34, a comparison unit 35, and an indication unit 36.

Второе устройство обработки и отображения информации 16 работает следующим образом.The second device for processing and displaying information 16 operates as follows.

На подготовительном этапе с помощью блока управления 18 (в качестве последнего может быть использован ноутбук, работающий в соответствии с алгоритмом, представленным на фиг.26) задаются исходные данные:At the preparatory stage, using the control unit 18 (as the last, a laptop operating in accordance with the algorithm presented in Fig. 26 can be used), the initial data are set:

ориентация видеокамеры относительно борта (kk, lk, ζk);orientation of the camera relative to the side (k k , l k , ζ k );

измеренные коэффициенты дисторсии объектива видеокамеры k1, k2, k3;the measured distortion coefficients of the camera lens k 1 , k 2 , k 3 ;

пороговые значения Δβ, Δd и Δδ;threshold values Δβ, Δd and Δδ;

количество итераций при решении уравнения перехода от координат объекта в кадре ( x r , y r ) T

Figure 00000141
к вектору направления на него V П i j
Figure 00000010
;the number of iterations when solving the equation of transition from the coordinates of the object in the frame ( x r , y r ) T
Figure 00000141
to the direction vector to it V P i j
Figure 00000010
;

число итераций расчета в алгоритме RANSAC;the number of calculation iterations in the RANSAC algorithm;

цифровая карта района измерений с граничными характеристиками рельефа местности.digital map of the measurement area with boundary characteristics of the terrain.

В процессе работы видеоизображение считывается блоками 18 и 31. При обнаружении заданного объекта информация о нем с выхода блока 18 поступает на первую группу информационных входов седьмого вычислителя 25 в виде координат ( x r , y r ) j T

Figure 00000142
. В функции блока 25 (см. фиг.12 и 15) входит преобразование координат объекта в пикселях ( x r , y r ) j T
Figure 00000143
в вектор направления на него в системе координат видеокамеры 5 V П i j
Figure 00000010
в соответствии с выражениями 1-4.During operation, the video image is read by blocks 18 and 31. When a given object is detected, information about it from the output of block 18 is sent to the first group of information inputs of the seventh calculator 25 in the form of coordinates ( x r , y r ) j T
Figure 00000142
. The functions of block 25 (see Fig. 12 and 15) include the transformation of the coordinates of the object in pixels ( x r , y r ) j T
Figure 00000143
into the direction vector to it in the coordinate system of the camera 5 V P i j
Figure 00000010
in accordance with expressions 1-4.

Одновременно информация о пространственном положении БЛА (Blps, Llps, Hlps)i, а также θ l p s i

Figure 00000144
и β l p s i
Figure 00000145
поступает на группу информационных входов первого вычислителя 19. В его функции входит преобразование пространственных параметров БЛА V lps i
Figure 00000146
в геоцентрическую систему координат V l p s i Г = ( X l p s , Y l p s , Z l p s ) i
Figure 00000147
) в соответствии с выражением (5).At the same time, information about the spatial position of the UAV (B lps , L lps , H lps ) i , as well as θ l p s i
Figure 00000144
and β l p s i
Figure 00000145
arrives at the group of information inputs of the first calculator 19. Its function includes the transformation of the spatial parameters of the UAV V lps i
Figure 00000146
to geocentric coordinate system V l p s i G = ( X l p s , Y l p s , Z l p s ) i
Figure 00000147
) in accordance with expression (5).

Результаты вычислений V l p s i Г

Figure 00000148
поступают на первую группу информационных входов второго вычислителя 20, а на вторую группу его информационных входов - значение V П i j
Figure 00000010
с группы информационных выходов блока 25. В функции вычислителя 20 входит коррекция вектора направления на j-й объект V П i j
Figure 00000010
на основе априорно известной ориентации видеокамеры 5 относительно борта БЛА 1. Последняя поступает с первой группы информационных входов устройства 16 на входы второго запоминающего устройства 26, представляющего собой буферное запоминающее устройство. С информационных выходов блока 26 значения (kk, lk, ζk) следуют на третью группу информационных входов второго вычислителя 20. Скорректированный вектор V i j '
Figure 00000149
находят путем последовательного умножения вектора V П i j
Figure 00000010
на три соответствующие углам Эйлера матрицы поворота в соответствии с (6).Calculation results V l p s i G
Figure 00000148
enter the first group of information inputs of the second computer 20, and the second group of its information inputs - value V P i j
Figure 00000010
from the group of information outputs of block 25. The functions of the calculator 20 include the correction of the direction vector to the jth object V P i j
Figure 00000010
based on the a priori known orientation of the video camera 5 relative to the side of the UAV 1. The latter comes from the first group of information inputs of the device 16 to the inputs of the second storage device 26, which is a buffer storage device. From the information outputs of block 26, the values (k k , l k , ζ k ) follow the third group of information inputs of the second calculator 20. The adjusted vector V i j ''
Figure 00000149
found by sequentially multiplying the vector V P i j
Figure 00000010
into three rotation matrices corresponding to Euler angles in accordance with (6).

Значения скорректированного вектора V i j '

Figure 00000150
с выходов блока 20 поступают на первую группу информационных входов третьего вычислителя 21. В его функции входит определение уточненного вектора направления на j-й объект V i j + = ( X i j + , Y j + , Z j + ) i
Figure 00000151
с учетом измеренных в момент времени ti пространственных углов БЛА: крена k lps i
Figure 00000152
, тангажа l lps i
Figure 00000153
, курсового угла α lps i
Figure 00000154
и склонения ζ lps i
Figure 00000155
. Для этого используют нормальную систему координат. С учетом вышесказанного на вторую группу информационных входов блока 21 подают значения ( k lps i
Figure 00000156
, l lps i
Figure 00000157
, ζ lps i
Figure 00000155
), характеризующие ориентацию БЛА в пространстве в момент получения кадра видеоизображения с j-м объектом. Определение уточненного вектора направления V i j +
Figure 00000158
в блоке 21 выполняют в соответствии с выражением (7).Adjusted Vector Values V i j ''
Figure 00000150
from the outputs of block 20 go to the first group of information inputs of the third calculator 21. Its function is to determine the updated direction vector to the j-th object V i j + = ( X i j + , Y j + , Z j + ) i
Figure 00000151
taking into account the measured at time t i the spatial angles of the UAV: roll k lps i
Figure 00000152
pitch l lps i
Figure 00000153
heading angle α lps i
Figure 00000154
and declensions ζ lps i
Figure 00000155
. To do this, use the normal coordinate system. In view of the above, the values of ( k lps i
Figure 00000156
, l lps i
Figure 00000157
, ζ lps i
Figure 00000155
), characterizing the orientation of the UAV in space at the time of receipt of the video frame with the j-th object. Definition of a refined direction vector V i j +
Figure 00000158
in block 21 is performed in accordance with the expression (7).

Уточненное значение вектора направления на j-й объект V i j +

Figure 00000159
с информационных выходов блока 21 далее следует на первую группу информационных входов четвертого вычислителя 22. В функции последнего входит определение уточненных значений азимутального угла θ i j +
Figure 00000015
, угла места β i j +
Figure 00000160
и удаления j-го объекта от БЛА d(H0)ij. Пространственные углы θ i j +
Figure 00000015
и β i j +
Figure 00000161
находят в соответствии с выражениями (8) и (9) соответственно. Расстояние d(H0)ij между БЛА и j-м объектом определяют в соответствии с (10). Для обеспечения вычислений на вторую группу информационных входов блока 22 поступает значение H lps i
Figure 00000162
с первой группы информационных входов устройства 16. Радиус Земли известен, а его значение содержится в блоке 22. В случае невозможности определить расстояния d(H0)ij на выходе обнуления четвертого вычислителя 22 формируется сигнал, который поступает на входы обнуления первого 19, второго 20 и третьего 21 вычислителей. В результате значения векторов V П i j
Figure 00000010
, V i j '
Figure 00000149
и V i j +
Figure 00000159
в этих блоках обнуляются, а заявляемое устройство начинает новый цикл работы.The adjusted value of the direction vector to the jth object V i j +
Figure 00000159
from the information outputs of block 21, it then goes to the first group of information inputs of the fourth calculator 22. The function of the latter includes determining the updated values of the azimuthal angle θ i j +
Figure 00000015
elevation β i j +
Figure 00000160
and removing the j-th object from the UAV d (H 0 ) ij . Spatial angles θ i j +
Figure 00000015
and β i j +
Figure 00000161
find in accordance with expressions (8) and (9), respectively. The distance d (H 0 ) ij between the UAV and the j-th object is determined in accordance with (10). To provide calculations, the second group of information inputs of block 22 receives a value H lps i
Figure 00000162
from the first group of information inputs of device 16. The radius of the Earth is known, and its value is contained in block 22. If it is impossible to determine the distances d (H 0 ) ij at the zeroing output of the fourth calculator 22, a signal is generated that goes to the zeroing inputs of the first 19, second 20 and the third 21 calculators. As a result, the values of the vectors V P i j
Figure 00000010
, V i j ''
Figure 00000149
and V i j +
Figure 00000159
in these blocks are reset, and the inventive device begins a new cycle of work.

Для измерения d(H0)ij значение V i j +

Figure 00000159
с группы информационных выходов блока 21 через блок 22 поступает на группу информационных входов пятого вычислителя 23. В его функции входит преобразование уточненного вектора направления на j-й объект, находящегося в нормальной системе координат, в истинный вектор направления V i j ' '
Figure 00000163
в геоцентрической системе координат. Данную операцию в блоке 23 осуществляют в соответствии с выражением (11). Для этого на вторую группу информационных входов пятого вычислителя 23 подают значения B lps i
Figure 00000001
и L lps i
Figure 00000002
с первой группы информационных входов блока 16.To measure d (H 0 ) ij the value V i j +
Figure 00000159
from the group of information outputs of block 21 through block 22, it goes to the group of information inputs of the fifth calculator 23. Its function is to convert the refined direction vector to the jth object in the normal coordinate system into a true direction vector V i j '' ''
Figure 00000163
in a geocentric coordinate system. This operation in block 23 is carried out in accordance with the expression (11). To do this, the second group of information inputs of the fifth transmitter 23 serves the values B lps i
Figure 00000001
and L lps i
Figure 00000002
from the first group of information inputs of block 16.

На следующем этапе работы заявляемого устройства осуществляют преобразование вектора V i j ' '

Figure 00000164
. Последний поступает на вторую группу информационных входов шестого 22 и пятую группу информационных входов восьмого 28 вычислителей и вторую группу информационных входов третьего блока управления 32.At the next stage of operation of the inventive device, the vector is converted V i j '' ''
Figure 00000164
. The latter goes to the second group of information inputs of the sixth 22 and the fifth group of information inputs of the eighth 28 calculators and the second group of information inputs of the third control unit 32.

Назначение шестого вычислителя 24 состоит в определении координат точки пересечения вектора V i j ' '

Figure 00000164
с "круглой" Землей V ф j
Figure 00000165
и преобразовании геоцентрических координат j-го объекта в географические V j
Figure 00000166
. Первую из названных функций в блоке 24 выполняют в соответствии с выражением (12). Для этого значение V l p s i Г
Figure 00000167
, сформированное первым вычислителем 19, поступает на первую группу информационных входов шестого вычислителя 24. Кроме того, значение d(H0)ij, найденное блоком 22, через блок 23 поступает на вторую группу информационных входов 24. Далее осуществляют переход от геоцентрического вектора координат j-го объекта к его географическим координатам Вj и Lj в соответствии с (13). Результаты вычислений V j = ( B j , L j )
Figure 00000019
с выходов блока 24 следуют на вторую группу информационных входов блока коммутации 30.The purpose of the sixth calculator 24 is to determine the coordinates of the point of intersection of the vector V i j '' ''
Figure 00000164
with round earth V f j
Figure 00000165
and transforming the geocentric coordinates of the j-th object into geographical V j
Figure 00000166
. The first of these functions in block 24 is performed in accordance with expression (12). For this value V l p s i G
Figure 00000167
generated by the first calculator 19, goes to the first group of information inputs of the sixth calculator 24. In addition, the value d (H 0 ) ij found by block 22, through block 23 goes to the second group of information inputs 24. Next, the transition from the geocentric coordinate vector j -th object to its geographical coordinates B j and L j in accordance with (13). Calculation results V j = ( B j , L j )
Figure 00000019
from the outputs of block 24 are followed by a second group of information inputs of the switching unit 30.

Одновременно (с блоком 22) в блоке 28 в два этапа осуществляют определение координат j-го объекта с заданной точностью. Данную операцию выполняют совместно с блоком управления 32 и запоминающим устройством 33. На подготовительном этапе в запоминающее устройство 33 записывают цифровую карту рельефа местности района измерений. Данная операция выполняется с помощью блока 18 по первой группе информационных входов блока 16. Одновременно по этой же шине в блок управления 32 задают граничные значения матрицы высот (Ва, Lа) и (Bb,Lb) и количество точек разбиения J, а в блок 28 - количество шагов сканирования по вектору V i j ' '

Figure 00000168
на предварительном Δd и конечном Δδ этапах. В блок 33 осуществляют упорядоченную (по заданным адресам) запись цифровой карты рельефа местности. Матрица охватывает участок земной поверхности, ограниченный координатами (Ва, Lа) и (Bb,Lb). Назначение блока управления 32 состоит в преобразовании части вектора V i j ' '
Figure 00000169
, ограниченного точками ( B lps i
Figure 00000001
, L lps i
Figure 00000002
) и (Bj, Lj) в линейку адресов {Ai,j,δ}, соответствующих равномерно распределенным по его длине высотам {Hi,j,δ} рельефа местности. С этой целью на первую группу информационных входов блока 32 поступают координаты БЛА 1 ( B lps i
Figure 00000001
, L lps i
Figure 00000002
). На вторую группу информационных входов блока управления 32 подают значение вектора направления на j-й объект V i j ' '
Figure 00000169
с выходов блока 23. На третьей группе информационных входов блока управления 32 присутствует значение координат V j = ( B j , L j )
Figure 00000019
, поступившее с выхода шестого вычислителя 24. В блоке 32 названный отрезок вектора V i j ' '
Figure 00000169
преобразуют в последовательность адресов {Ai,j,δ}, которые поступают на адресные входы запоминающего устройства 33. Последние используются для формирования на его входе адресной линейки Ai,j,δ. В результате на третью группу информационных входов восьмого вычислителя 28 поступает последовательность высот {Hi,j,δ} рельефа местности, соответствующая заданному отрезку истинного вектора направления V i j ' '
Figure 00000169
. Емкость последовательности высот определяется значением М=max{J,δ}, где J=d(H0)ij/Δd, δ=Δd/Δδ. На фиг.17 приведен алгоритм работы блока 28 по поиску предварительного и точного (с заданной точностью) определения координат объектов V ф j δ
Figure 00000170
.At the same time (with block 22) in block 28 in two stages, the coordinates of the j-th object are determined with a given accuracy. This operation is performed in conjunction with the control unit 32 and the storage device 33. At the preparatory stage, a digital terrain map of the measurement area is recorded in the storage device 33. This operation is performed using block 18 along the first group of information inputs of block 16. At the same time, the boundary values of the DEM (B a , L a ) and (B b , L b ) and the number of split points J, and in block 28, the number of scanning steps along the vector V i j '' ''
Figure 00000168
at the preliminary Δd and final Δδ stages. In block 33 carry out an ordered (at given addresses) recording a digital map of the terrain. The matrix covers a portion of the earth's surface, limited by the coordinates (B a , L a ) and (B b , L b ). The purpose of the control unit 32 is to convert part of the vector V i j '' ''
Figure 00000169
bounded by points ( B lps i
Figure 00000001
, L lps i
Figure 00000002
) and (B j , L j ) to the line of addresses {A i, j, δ } corresponding to the heights {H i, j, δ } of the terrain that are uniformly distributed along its length. For this purpose, the coordinates of the UAV 1 ( B lps i
Figure 00000001
, L lps i
Figure 00000002
) The second group of information inputs of the control unit 32 serves the value of the direction vector to the j-th object V i j '' ''
Figure 00000169
from the outputs of block 23. On the third group of information inputs of the control unit 32 there is a coordinate value V j = ( B j , L j )
Figure 00000019
received from the output of the sixth calculator 24. In block 32, the named segment of the vector V i j '' ''
Figure 00000169
transform into a sequence of addresses {A i, j, δ }, which are fed to the address inputs of the storage device 33. The latter are used to form the address line A i, j, δ at its input. As a result, the third group of information inputs of the eighth transmitter 28 receives a sequence of heights {H i, j, δ } of the terrain corresponding to a given segment of the true direction vector V i j '' ''
Figure 00000169
. The capacity of the sequence of heights is determined by the value M = max {J, δ}, where J = d (H 0 ) ij / Δd, δ = Δd / Δδ. On Fig shows the algorithm of the block 28 to search for preliminary and accurate (with a given accuracy) determination of the coordinates of objects V f j δ
Figure 00000170
.

Геоцентрические координаты j-го объекта далее поступают на информационные входы девятого вычислителя 29. В блоке 29 выполняют преобразование геоцентрических координат в географические V j δ = ( B j , L j , H j )

Figure 00000171
в соответствии с выражением (14).The geocentric coordinates of the j-th object are then fed to the information inputs of the ninth calculator 29. In block 29, the geocentric coordinates are converted into geographical V j δ = ( B j , L j , H j )
Figure 00000171
in accordance with expression (14).

Результаты вычислений с выхода блока 29 поступают на первую группу информационных входов коммутатора 30.The results of the calculations from the output of block 29 go to the first group of information inputs of the switch 30.

Решение о том, какие координаты пойдут на вход блока 34 (приблизительные V j = ( B j , L j )

Figure 00000019
, полученные на "круглой" Земле или точные V j δ = ( B j , L j , H j )
Figure 00000172
с учетом рельефа местности) принимает блок сравнения 35. На подготовительном этапе (с использованием блока 18) в блок сравнения 35 записывают значение Δβ, определяющее заданную потенциальную точность определения координат объектов. В процессе работы заявляемого устройства в блоке 35 выполняют сравнение очередного измеренного значения β i j +
Figure 00000173
с пороговым значением Δβ. Если текущее значение β i j +
Figure 00000174
оказалось меньше порогового уровня Δβ, блок 35 формирует управляющий сигнал, поступающий на вход управления блока коммутации 30. В результате значение координат V j = ( B j , L j )
Figure 00000019
с выхода блока 24 через блок 30 поступает на группу информационных входов блока усреднения координат 34. В противном случае ( β i j + > Δ β
Figure 00000175
), а на вход блока 34 поступает значение V j δ = ( B j , L j , H j )
Figure 00000172
с выхода блока 29.The decision about which coordinates will go to the input of block 34 (approximate V j = ( B j , L j )
Figure 00000019
obtained on round Earth or accurate V j δ = ( B j , L j , H j )
Figure 00000172
taking into account the terrain) receives the comparison unit 35. At the preparatory stage (using block 18), the value Δβ, which determines the specified potential accuracy of determining the coordinates of objects, is written to the comparison unit 35. In the process, the inventive device in block 35 compares the next measured value β i j +
Figure 00000173
with a threshold value Δβ. If the current value β i j +
Figure 00000174
turned out to be less than the threshold level Δβ, block 35 generates a control signal fed to the control input of switching unit 30. As a result, the coordinate value V j = ( B j , L j )
Figure 00000019
from the output of block 24 through block 30, it enters the group of information inputs of the coordinate averaging block 34. Otherwise ( β i j + > Δ β
Figure 00000175
), and the input of block 34 receives the value V j δ = ( B j , L j , H j )
Figure 00000172
from the output of block 29.

При возникновении ситуации, при которой отсутствует информация о рельефе местности и ( β i j + > Δ β

Figure 00000176
), блок 28 работает по алгоритму (см. фиг.17) в соответствии с выражением (13), а на вход блока 34 поступают приблизительные координаты j-го объекта V j = ( B j , L j )
Figure 00000019
с выхода блока 24. Синхронность выполнения всех операций обеспечивает генератор синхроимпульсов 27.If a situation arises in which there is no information about the terrain and ( β i j + > Δ β
Figure 00000176
), block 28 operates according to the algorithm (see Fig. 17) in accordance with expression (13), and the approximate coordinates of the j-th object arrive at the input of block 34 V j = ( B j , L j )
Figure 00000019
from the output of block 24. Synchronization of all operations is provided by the clock generator 27.

При оценке координат по одному или по первому кадру видеоизображения объекта на выходе блока 31 отсутствует управляющий сигнал. В блоке 34 операция усреднения не выполняется, а значения координат j-го объекта поступают на вход блока индикации 36. Кроме того, результаты измерений сохраняются в его буферной памяти. На этом заканчивается этап работы устройства по одному кадру видеоизображения.When evaluating the coordinates of one or the first frame of the video image of the object at the output of block 31, there is no control signal. In block 34, the averaging operation is not performed, and the coordinates of the j-th object are input to the display unit 36. In addition, the measurement results are stored in its buffer memory. This ends the stage of operation of the device for one frame of the video image.

На следующем этапе (на очередном кадре) с помощью блока анализа видеоизображения 31 выполняют анализ поступившего кадра на предмет наличия в нем изображения заданного j-го объекта. Однако алгоритм работы устройства меняется при обнаружении в последующем кадре наблюдаемого ранее j-го объекта. В этом случае осуществляется многократное (по числу кадров с изображением объекта) измерение его координат с последующим их усреднением в блоке 34, что позволяет существенно повысить точность измерений. Основным элементом, реализующим эти измерения, является блок обработки изображения 31. Если блоком 31 на очередном кадре j-й объект не обнаружен, результаты измерений его усредненных координат остаются неизменными, поступают на информационные входы блока индикации 36.At the next stage (at the next frame), using the video image analysis unit 31, the received frame is analyzed for the presence of an image of a given j-th object in it. However, the operation algorithm of the device changes when it detects a j-th object previously observed in a subsequent frame. In this case, multiple (by the number of frames with the image of the object) measurements are made of its coordinates, followed by their averaging in block 34, which can significantly improve the accuracy of measurements. The main element that implements these measurements is the image processing unit 31. If the j-th object is not detected by block 31 on the next frame, the results of measurements of its averaged coordinates remain unchanged, they are sent to the information inputs of the indicating unit 36.

При обнаружении j+1-го объекта все вышеназванные операции повторяются.When j + 1-th object is detected, all the above operations are repeated.

Блок 31 предназначен для решения следующих задач (см. фиг.14 и 16):Block 31 is designed to solve the following problems (see Fig. 14 and 16):

поиска контрастных точек на изображении методом SURF;search for contrast points in the image using the SURF method;

вычисления характеристик контрастных точек методом BRIEF;calculating the characteristics of contrast points using the BRIEF method;

сравнения с контрастными точками предыдущего кадра и принятие решения о присутствии заданного объекта в текущем кадре;comparison with contrasting points of the previous frame and deciding on the presence of a given object in the current frame;

при повторном обнаружении заданного объекта - для формирования управляющего сигнала блоку 34 о необходимости усреднения результатов измерений;upon repeated detection of a given object - to generate a control signal to block 34 about the need to average the measurement results;

формирования матрицы проективного преобразования методом RANSAC с последующим уточнением координат ( x r , y r ) j T

Figure 00000177
j-го объекта на l+1-м кадре.the formation of the matrix of projective transformation by the RANSAC method with subsequent refinement of coordinates ( x r , y r ) j T
Figure 00000177
j-th object on l + 1st frame.

Данные функции блок 31 выполняет в соответствии с выражениями (15) и (16). В случае принятия решения блоком 31 о том, что в очередном l+1-м кадре присутствует изображение j-го объекта, ранее присутствовавшее на 1-м кадре, последний формирует управляющий сигнал блоку 34. В результате координаты объекта, полученные на l+1-м кадре, запоминаются совместно с результатами, полученными на l-м кадре. Далее в блоке выполняется операция усреднения координат по двум кадрам, а результаты высвечиваются в блоке индикации 36. Наличие j-го объекта во всех последующих кадрах приводит к очередному измерению его координат V j

Figure 00000178
или V j δ
Figure 00000179
с последующим усреднением результатов. При первом пропадании изображения объекта в кадре результаты усреднения его координат фиксируются (предыдущие измерения стираются), а в блоке индикации 36 высвечиваются усредненные координаты j-го объекта.Block 31 performs these functions in accordance with expressions (15) and (16). If a decision is made by block 31 that there is an image of the j-th object that was previously present on the 1st frame in the next l + 1th frame, the latter generates a control signal to block 34. As a result, the coordinates of the object obtained at l + 1 -th frame, are stored together with the results obtained on the l-th frame. Next, in the block, the operation of averaging coordinates over two frames is performed, and the results are displayed in display unit 36. The presence of the j-th object in all subsequent frames leads to the next measurement of its coordinates V j
Figure 00000178
or V j δ
Figure 00000179
followed by averaging the results. When the image of the object disappears for the first time in the frame, the results of averaging its coordinates are fixed (previous measurements are erased), and the averaged coordinates of the j-th object are displayed in display unit 36.

Первый 19, второй 20, третий 21, четвертый 22, пятый 23 и седьмой 25 вычислители предназначены для определения истинного вектора направления на j-й объект V i j ' '

Figure 00000180
в геоцентрической системе координат, а также θ i j +
Figure 00000015
и β i j +
Figure 00000181
и удаление объекта от БЛА d(H0)ij (см. фиг.11). Это достигается благодаря учету ориентации видеокамеры относительно борта БЛА1 и определению места объекта в кадре видеокамеры 5 и собственно угловой ориентации БЛА 1 в пространстве. Каждый из вычислителей выполняет строго определенные в выражениях (1-11) операции, реализация которых сложностей не вызывает. Реализация этих блоков известна (см. пат. РФ №2458360, опубл. 10.08.2012 г.), выполняются на постоянных запоминающих устройствах К541 и К500 сериях микросхем. Алгоритмы работы вычислителей 19, 20, 21, 22 и 23 приведены на фиг.18-22 соответственно, а седьмого вычислителя 25 на фиг.15. Кроме того, на фиг.12 и 13 приведен вариант реализации блока 25 на дискретных элементах в соответствии с выражениями (1-4). Для уменьшения массогабаритных характеристик потребляемого тока блоки с 19 по 23 и 25 целесообразно реализовать на специализированном процессоре 7MS320c6416 (см. TMS320c6416: http://fociis/ti/com/docs/prod/folders/print/TMS320c6416.html).The first 19, second 20, third 21, fourth 22, fifth 23 and seventh 25 calculators are designed to determine the true direction vector to the j-th object V i j '' ''
Figure 00000180
in the geocentric coordinate system as well θ i j +
Figure 00000015
and β i j +
Figure 00000181
and the removal of the object from the UAV d (H 0 ) ij (see Fig.11). This is achieved by taking into account the orientation of the camera relative to the side of the UAV1 and determining the location of the object in the frame of the video camera 5 and the actual angular orientation of the UAV 1 in space. Each of the calculators performs operations strictly defined in expressions (1-11), the implementation of which does not cause difficulties. The implementation of these blocks is known (see US Pat. RF No. 2458360, publ. 08/10/2012), are performed on permanent memory devices K541 and K500 series of microcircuits. The operation algorithms of the calculators 19, 20, 21, 22, and 23 are shown in Figs. 18-22, respectively, and the seventh calculator 25 in Fig. 15. In addition, Figs. 12 and 13 show an embodiment of a block 25 on discrete elements in accordance with expressions (1-4). To reduce the weight and size characteristics of the current consumption, it is advisable to implement blocks 19 through 23 and 25 on a specialized processor 7MS320c6416 (see TMS320c6416: http: //fociis/ti/com/docs/prod/folders/print/TMS320c6416.html).

Шестой 24, восьмой 26 и девятый 29 вычислители реализуются аналогично соответствующим блокам в пат. РФ №2458360, опубл. 10.08.2012 г. Шестой вычислитель 24 предназначен для определения координат точки пересечения вектора V i j ' '

Figure 00000182
с "круглой" Землей V ф j
Figure 00000183
и преобразования геоцентрических координат V ф j
Figure 00000184
в географические V j = ( B j , L j )
Figure 00000019
в соответствии с (12) и (13).Sixth 24, eighth 26 and ninth 29 calculators are implemented similarly to the corresponding blocks in US Pat. RF №2458360, publ. 08/10/2012, the Sixth calculator 24 is designed to determine the coordinates of the point of intersection of the vector V i j '' ''
Figure 00000182
with round earth V f j
Figure 00000183
and transformations of geocentric coordinates V f j
Figure 00000184
into geographical V j = ( B j , L j )
Figure 00000019
in accordance with (12) and (13).

Реализация блока трудностей не вызывает. Может быть реализован на постоянных запоминающих устройствах К541 и К500 сериях микросхем. Алгоритм работы приведен на фиг.23.The implementation of the block of difficulties does not cause. It can be implemented on permanent memory devices K541 and K500 series of microcircuits. The operation algorithm is shown in Fig.23.

Восьмой вычислитель 28 предназначен для определения местоположения объекта с заданной точностью в геоцентрической системе координат V ф j δ

Figure 00000185
. Данную функцию блок 28 выполняет в два этапа в соответствии с алгоритмом, приведенным на фиг.17, и выражением (14). Может быть реализован по аналогии с соответствующим блоком (см. пат. РФ №2458360, опубл. 10.08.2012 г.) на базе 16-ти разрядного микропроцессора К1810ВМ86.The eighth transmitter 28 is designed to determine the location of an object with a given accuracy in a geocentric coordinate system V f j δ
Figure 00000185
. Block 28 performs this function in two stages in accordance with the algorithm shown in Fig. 17 and expression (14). It can be implemented by analogy with the corresponding unit (see US Pat. RF No. 2458360, published on 08/10/2012) based on the 16-bit K1810VM86 microprocessor.

Девятый вычислитель 29 предназначен для преобразования геоцентрических координат объекта V ф j δ

Figure 00000186
в географические V j δ
Figure 00000187
в соответствии сThe ninth calculator 29 is designed to convert the geocentric coordinates of the object V f j δ
Figure 00000186
into geographical V j δ
Figure 00000187
in accordance with

алгоритмом на фиг.24 и выражением (13). Реализация блока 29 известна и трудностей не вызывает. Блок 29 может быть реализован на дискретных элементах на базе ТТЛ-уровней сигналов, например 555, 1533 сериях микросхем и др.algorithm in Fig.24 and the expression (13). The implementation of block 29 is known and does not cause difficulties. Block 29 can be implemented on discrete elements based on TTL signal levels, for example 555, 1533 series of microcircuits, etc.

Третий блок управления 32 предназначен для преобразования части вектора V i j ' '

Figure 00000188
, ограниченной точками ( B lps i
Figure 00000001
, L lps i
Figure 00000002
) и (Bj, Lj), в линейку адресов {Ai,j,δ} соответствующих равномерно распределенным высотам {Hi,j,δ} рельефа местности. Реализация блока 32 известна и трудностей не вызывает. Может быть реализован на микропроцессорной сборке с достаточным быстродействием (см. Шевкоплес Б.В. Микропроцессорные структуры. Инженерные решения: Справочник. - 2-е изд., перераб. и доп. - М.: Радио и связь, 1990. -512 с.), в которой реализован алгоритм, приведенный на фиг.25. Последний определяет порядок выполнения операций по предварительному определению координат объектов. В режиме измерения координат с заданной точностью порядок работы блока 32 сохраняется (алгоритм имеет аналогичный вид).The third control unit 32 is designed to convert part of the vector V i j '' ''
Figure 00000188
bounded by points ( B lps i
Figure 00000001
, L lps i
Figure 00000002
) and (B j , L j ), in the line of addresses {A i, j, δ } corresponding to uniformly distributed heights {H i, j, δ } of the terrain. The implementation of block 32 is known and does not cause difficulties. It can be implemented on a microprocessor assembly with sufficient speed (see Shevkoples B.V. Microprocessor structures. Engineering solutions: Reference book. - 2nd ed., Revised and additional - M .: Radio and communications, 1990. -512 s .), which implements the algorithm shown in Fig.25. The latter determines the order of operations for the preliminary determination of the coordinates of objects. In the coordinate measurement mode with a given accuracy, the operation order of block 32 is preserved (the algorithm has a similar form).

Блок обработки изображения 31 (см. фиг 14 и 16) свои функции выполняет в соответствии с выражениями (15) и (16). Блок 31 содержит последовательно соединенные блок поиска контрастных точек 49, блок вычисления характеристик контрастных точек 50, запоминающее устройство 53, блок анализа 51, формирователь исходных данных 52, блок статистической обработки 55, умножитель 56 и делитель 57, группа информационных выходов которого является первой группой информационных выходов блока обработки изображения 31, первая группа информационных входов которого соединена с группой информационных выходов блока поиска контрастных точек 49, а вторая группа информационных входов соединена со второй группой информационных входов умножителя 56, вторая группа информационных выходов блока вычисления характеристик контрастных точек 50 соединена со второй группой информационных входов блока анализа 51, и датчик случайных чисел 54, группа информационных входов которого соединена со второй группой информационных входов блока статистической обработки, а синхровходы всех блоков с 49 по 57 объединены и соединены с входом синхронизации блока обработки изображения 31.The image processing unit 31 (see FIGS. 14 and 16) performs its functions in accordance with expressions (15) and (16). Block 31 contains serially connected block for searching for contrast points 49, block for calculating characteristics of contrast points 50, storage device 53, analysis unit 51, initial data generator 52, statistical processing unit 55, multiplier 56 and divider 57, the group of information outputs of which is the first group of information the outputs of the image processing unit 31, the first group of information inputs of which are connected to the group of information outputs of the block for searching contrast points 49, and the second group of information inputs s is connected to the second group of information inputs of the multiplier 56, the second group of information outputs of the block for calculating the characteristics of contrast points 50 is connected to the second group of information inputs of the analysis unit 51, and a random number sensor 54, the group of information inputs of which is connected to the second group of information inputs of the statistical processing unit, and the clock inputs of all blocks 49 to 57 are combined and connected to the synchronization input of the image processing unit 31.

Видеоизображение с группы информационных выходов блока 15 поступает на группу информационных входов блока поиска контрастных точек 49. В функцию блока 49 входит реализация известного алгоритма SURF. Обнаруженные контрастные точки на l+1-м кадре с описанием их взаимного местоположения поступают на группу входов блока вычисления характеристик контрастных точек 50, которые выполняются в соответствии с алгоритмом BRIEF. В задачу последнего входит вычисление битовых векторов (наборов бит), описывающих распределение яркости изображения в окрестности данной контрастной точки ( x r , y r ) T

Figure 00000189
.The video image from the group of information outputs of the block 15 goes to the group of information inputs of the block for searching for contrast points 49. The function of block 49 includes the implementation of the well-known SURF algorithm. The detected contrast points on the l + 1-th frame with a description of their relative location are fed to the group of inputs of the block for calculating the characteristics of the contrast points 50, which are performed in accordance with the BRIEF algorithm. The latter's task is to calculate bit vectors (sets of bits) that describe the distribution of image brightness in the vicinity of a given contrast point ( x r , y r ) T
Figure 00000189
.

Характеристики контрастных точек с описанием их взаимного местоположения одновременно поступают на группы входов запоминающего устройства 53 (для использования в следующем кадре) и блока анализа 51. В функции блока 51 входит сравнение изображений на предыдущем l-м (поступившем с выходов блока 53) с текущим l+1-м кадрах. Данная операция выполняется по контрастным точкам: их взаимному местоположению на кадрах и характеристикам. Описание совпадающих пар контрастных точек из l-го и l+1-го кадров поступает на группу информационных выходов формирователя исходных данных 52. Блок 52 обеспечивает преобразование полученных из блока 51 данных к виду, необходимому для нормальной работы блока 55.The characteristics of the contrasting points with a description of their relative location simultaneously go to the input groups of the storage device 53 (for use in the next frame) and the analysis unit 51. The function of the block 51 includes comparing the images on the previous l-th (received from the outputs of block 53) with the current l + 1 frames. This operation is performed on contrasting points: their relative position on the frames and characteristics. A description of the matching pairs of contrasting points from the l-th and l + 1-th frames is sent to the group of information outputs of the source data former 52. Block 52 provides the transformation of the data received from block 51 to the form necessary for the normal operation of block 55.

Блок статистической обработки 55 предназначен для решения системы уравнений (16). Данную функцию блок 55 выполняет на основе известного алгоритма RANSAC и данных, поступающих на его первую группу информационных входов с группы выходов блока 52. В процессе работы используют последовательность случайных чисел, формируемых блоком 54. Решение названной системы уравнений позволяет определять коэффициенты искомой матрицы проективного преобразования.Statistical processing unit 55 is intended to solve the system of equations (16). Block 55 performs this function on the basis of the well-known RANSAC algorithm and data arriving at its first group of information inputs from the group of outputs of block 52. In the process, a sequence of random numbers generated by block 54 is used. Solving the above system of equations allows one to determine the coefficients of the desired projective transformation matrix.

В блоке 56 осуществляется умножение найденной блоком 55 матрицы проективного преобразования на вектор координат объекта на l-м кадре ( x r , y r ) l T

Figure 00000139
, что позволяет получить его координаты на l+1-м кадре (см. выражение (15)). Значение вектора ( x r , y r ) l T
Figure 00000139
поступает со второй группы информационных выходов блока 25. Блок 57 предназначен для деления полученного вектора координат на константу К (его третий элемент z).In block 56, the projective transformation matrix found by block 55 is multiplied by the object coordinate vector on the lth frame ( x r , y r ) l T
Figure 00000139
, which allows us to obtain its coordinates on the l + 1st frame (see expression (15)). Vector value ( x r , y r ) l T
Figure 00000139
comes from the second group of information outputs of block 25. Block 57 is designed to divide the resulting coordinate vector by a constant K (its third element z).

Блок 31 может быть реализован на микропроцессорной сборке с достаточным быстродействием (см. Шевкоплес Б.В. Микропроцессорные структуры. Инженерные решения: Справочник. - 2-е изд., перераб. и доп. - М.: Радио и связь, 1990. - 512 с.), в которой реализован алгоритм на фиг.16.Block 31 can be implemented on a microprocessor assembly with sufficient speed (see Shevkoples B.V. Microprocessor structures. Engineering solutions: Handbook. - 2nd ed., Revised and additional - M .: Radio and communications, 1990. - 512 s.), In which the algorithm of FIG. 16 is implemented.

Реализацию функций блоков 24-35 целесообразно осуществить с помощью второго сигнального процессора (см. TMS320c6416: http://focus/ti/com/docs/prod/folders/print/TMS320c6416.html).It is advisable to implement the functions of blocks 24-35 using a second signal processor (see TMS320c6416: http: //focus/ti/com/docs/prod/folders/print/TMS320c6416.html).

Кроме того, блоки 16 и 18 могут быть одновременно реализованы на персональном компьютере. В качестве минимальных требований к нему можно определить следующее: процессор Core i5 2000 МГц, 1 ГБ оперативной памяти, 200 МБ свободного пространства на жестком диске. Программная составляющая: операционная система Windows ХР SP2 и выше, библиотека. NetFrameWork 4.0, цифровая карта местности с информацией о рельефе и формате, совместимом с картами "Группы "Панорама".In addition, blocks 16 and 18 can be simultaneously implemented on a personal computer. As the minimum requirements for it, you can determine the following: Core i5 processor 2000 MHz, 1 GB of RAM, 200 MB of free space on your hard drive. Software component: operating system Windows XP SP2 and higher, library. NetFrameWork 4.0, a digital terrain map with terrain information and a format compatible with Panorama Group maps.

Claims (5)

1. Способ определения координат объектов, заключающийся в том, что на подготовительном этапе на борт летно-подъемного средства (ЛПС) под фюзеляжем устанавливают видеокамеру, определяют ориентацию видеокамеры относительно борта ЛПС (kk,lkk), где kk, lk, ζk - соответственно углы крена, тангажа и склонения видеокамеры, а в процессе полета постоянно через заданный интервал времени Δt определяют местоположение ЛПС
Figure 00000190
где
Figure 00000191
соответственно широта, долгота и высота ЛПС, и его пространственную ориентацию
Figure 00000192
где
Figure 00000193
соответственно углы крена, тангажа и склонения ЛПС в i-й момент времени, совместно запоминают навигационные и временные параметры ЛПС, а при визуальном обнаружении j-го заданного объекта в момент времени ti предварительно определяют вектор направления на него
Figure 00000194
в системе координат видеокамеры, переводят координаты ЛПС в геоцентрическую систему координат, корректируют вектор направления на j-й объект
Figure 00000195
с учетом априорно известной ориентации камеры
относительно борта ЛПС (kk,lkk) путем последовательного умножения значений
Figure 00000196
на соответствующие углам Эйлера матрицы поворота, после чего в нормальной системе координат вычисляют уточненное значение вектора направления
Figure 00000197
на j-й объект с учетом измеренных в момент времени ti пространственных углов ЛПС: крена
Figure 00000198
, тангажа
Figure 00000199
, и склонения
Figure 00000200
, определяют уточненные значения азимута
Figure 00000201
угла места
Figure 00000202
и удаление ЛПС, находящегося в момент времени ti на высоте
Figure 00000203
, от j-го объекта
Figure 00000204
расположенного на поверхности "круглой" Земли, в геоцентрической системе координат определяют значение истинного вектора направления на j-й объект
Figure 00000205
которое зависит от широты Blps, долготы Llps, местоположения ЛПС, определяют координаты точки пересечения вектора
Figure 00000206
с "круглой" Землей
Figure 00000207
преобразуют геоцентрические координаты j-го объекта
Figure 00000208
в географические
Figure 00000209
где Bj и Lj соответственно широта и долгота местоположения j-го объекта, отличающийся тем, что предварительно измеряют и запоминают коэффициенты дисторсии объектива видеокамеры k1, k2 и k3, положение видеокамеры относительно борта ЛПС фиксируют на весь период измерений, в качестве j-го объекта может выступать любой стационарный или подвижный физический объект, наблюдаемый в видеокамеру, причем решение о необходимости измерения координат наблюдаемого объекта принимает оператор, значение предварительного вектора направления на j-й объект
Figure 00000210
определяют по местоположению объекта на кадре в момент времени ti, уточняют значение предварительного вектора направления на j-й объект
Figure 00000211
путем устранения влияния на результаты измерений дисторсии видеокамеры, при наличии n последовательных кадров, n=2, 3, …, N, с изображением j-го объекта выполняют n циклов измерений географических координат
Figure 00000212
а результаты измерений усредняют, при наличии цифровой карты местности района измерений, представляющей собой матрицу с заданной дискретностью по координатам района измерений с соответствующими значениями высот рельефа, дополнительно уточняют географические координаты обнаруженного j-го объекта
Figure 00000213
1. The method of determining the coordinates of objects, which consists in the fact that at the preparatory stage, a video camera is installed under the fuselage on board the flight lifting equipment (LPS), the orientation of the camera relative to the LPS side (k k , l k , ζ k ) is determined, where k k , l k , ζ k are the angles of roll, pitch and declination of the camera, respectively, and during the flight, the location of the LPS is constantly determined at a given time interval Δt
Figure 00000190
Where
Figure 00000191
respectively, the latitude, longitude and height of the LPS, and its spatial orientation
Figure 00000192
Where
Figure 00000193
accordingly, the angles of roll, pitch and declination of the LPS at the i-th moment of time, jointly remember the navigation and time parameters of the LPS, and when the j-th given object is visually detected at the time t i , the direction vector to it is preliminarily determined
Figure 00000194
in the coordinate system of the video camera, translate the LPS coordinates into a geocentric coordinate system, adjust the direction vector to the j-th object
Figure 00000195
taking into account the a priori known orientation of the camera
relative to the LPS board (k k , l k , ζ k ) by sequentially multiplying the values
Figure 00000196
to the rotation matrix corresponding to the Euler angles, after which, in the normal coordinate system, the updated value of the direction vector is calculated
Figure 00000197
to the j-th object, taking into account the measured at the time t i spatial angles of the LPS: roll
Figure 00000198
pitch
Figure 00000199
, and declensions
Figure 00000200
, determine the specified azimuth values
Figure 00000201
elevation
Figure 00000202
and removal of LPS located at time t i at a height
Figure 00000203
, from the jth object
Figure 00000204
located on the surface of the "round" Earth, in the geocentric coordinate system determine the value of the true direction vector to the j-th object
Figure 00000205
which depends on latitude B lps , longitude L lps , LPS location, determine the coordinates of the intersection point of the vector
Figure 00000206
with round earth
Figure 00000207
transform the geocentric coordinates of the j-th object
Figure 00000208
into geographical
Figure 00000209
where B j and L j, respectively, the latitude and longitude of the location of the j-th object, characterized in that the distortion coefficients of the camera lens k 1 , k 2 and k 3 are pre-measured and stored, the position of the camera relative to the LPS side is fixed for the entire measurement period, as the j-th object can be any stationary or moving physical object observed in the video camera, and the operator decides whether to measure the coordinates of the observed object, the value of the preliminary direction vector to the j-th object
Figure 00000210
determined by the location of the object on the frame at time t i, specify the value of the preliminary direction vector to the j-th object
Figure 00000211
by eliminating the influence on the distortion results of the video camera, if there are n consecutive frames, n = 2, 3, ..., N, n cycles of measurements of geographical coordinates are performed with the image of the j-th object
Figure 00000212
and the measurement results are averaged, in the presence of a digital map of the terrain of the measurement region, which is a matrix with a given discreteness in the coordinates of the measurement region with the corresponding elevation heights, the geographical coordinates of the detected j-th object are additionally specified
Figure 00000213
2. Способ по п.1, отличающийся тем, что координаты j-го объекта
Figure 00000214
в кадре определяют в пикселях, отсчитанных от верхнего левого угла кадра видеокамеры.
2. The method according to claim 1, characterized in that the coordinates of the j-th object
Figure 00000214
in the frame is determined in pixels, counted from the upper left corner of the frame of the video camera.
3. Способ по п.1, отличающийся тем, что переход от координат j-го объекта в кадре к уточненному предварительному вектору направления на него
Figure 00000215
в системе координат видеокамеры, осуществляют в соответствии с выражением
Figure 00000216

где
Figure 00000217
- координаты центра матрицы (кадра) в пикселях, ƒ - фокусное расстояние объектива видеокамеры, пересчитанное в пиксели матрицы,
Figure 00000218
k1, k2, k3- измеренные коэффициенты дисторсии объектива, с использованием метода простых итераций.
3. The method according to claim 1, characterized in that the transition from the coordinates of the j-th object in the frame to the refined preliminary vector of direction to it
Figure 00000215
in the coordinate system of the camera, carried out in accordance with the expression
Figure 00000216

Where
Figure 00000217
are the coordinates of the center of the matrix (frame) in pixels, ƒ is the focal length of the camera lens, converted into pixels of the matrix,
Figure 00000218
k 1 , k 2 , k 3 - measured lens distortion coefficients using the simple iteration method.
4. Способ по п.1, отличающийся тем, что при наличии цифровой карты рельефа местности района измерений формируют последовательный набор значений высот {Hi,m}, m= 1, 2, …, M, который соответствует равномерно распределенным координатам на отрезке, соединяющем координаты
Figure 00000219
и (Bj,Lj}, M=d(H0)/Δd, где Δd - шаг сканирования по вектору направления
Figure 00000220
на j-й объект, определяется заданной точностью предварительного измерения координат объекта, рассчитывают координаты
Figure 00000221
соответствующие дискретно выделенным высотам рельефа местности Hi,m, а за предварительные координаты j-го объекта
Figure 00000222
принимают первую точку разбиения вектора
Figure 00000223
находящуюся ниже уровня рельефа местности, уточняют местоположение j-го объекта путем выделения соседней точки разбиения
Figure 00000224
находящейся над рельефом местности, отрезок
Figure 00000225
вектора направления на j-й объект
Figure 00000226
делят на δ равных интервалов, Δδ<<Δd, где Δδ - шаг сканирования по выделенному отрезку вектора направления
Figure 00000227
и определяется конечной заданной точностью измерения координат объектов, для названных точек вычисляют координаты
Figure 00000228
и соответствующие им значения высоты рельефа местности Hi,m,δ, за точные координаты j-го объекта принимают значение
Figure 00000229
находящееся между соседними точками, расположенными выше и ниже рельефа местности, а полученное значение координат j-го объекта
Figure 00000230
преобразуют в удобную географическую систему координат
Figure 00000231
4. The method according to claim 1, characterized in that in the presence of a digital elevation map of the terrain of the measurement region, a sequential set of elevation values {H i, m }, m = 1, 2, ..., M is formed, which corresponds to uniformly distributed coordinates on a segment, connecting coordinates
Figure 00000219
and (B j , L j }, M = d (H 0 ) / Δd, where Δd is the scanning step along the direction vector
Figure 00000220
on the j-th object, determined by the specified accuracy of the preliminary measurement of the coordinates of the object, calculate the coordinates
Figure 00000221
corresponding to discrete selected elevations of the terrain H i, m , and for the preliminary coordinates of the j-th object
Figure 00000222
take the first split point of the vector
Figure 00000223
located below the level of the terrain, specify the location of the j-th object by highlighting the neighboring break point
Figure 00000224
located above the terrain, segment
Figure 00000225
direction vector to j-th object
Figure 00000226
divided into δ equal intervals, Δδ << Δd, where Δδ is the scanning step along the selected segment of the direction vector
Figure 00000227
and is determined by the final specified accuracy of measuring the coordinates of objects, for the named points, coordinates are calculated
Figure 00000228
and the corresponding values of the height of the terrain H i, m, δ , for the exact coordinates of the j-th object take the value
Figure 00000229
located between neighboring points located above and below the terrain, and the obtained value of the coordinates of the j-th object
Figure 00000230
convert to a convenient geographic coordinate system
Figure 00000231
5. Устройство определения координат объектов, состоящее из беспилотного летательного аппарата (БЛА) и наземного пункта управления, причем БЛА выполнен содержащим последовательно соединенные контроллер, рулевой привод и аэродинамические рули, автопилот, группа информационных входов которого соединена с второй группой информационных выходов контроллера, первая группа информационных входов которого соединена с группой информационных выходов автопилота, двигательная установка, группа информационных входов которой соединена с третьей группой информационных выходов контроллера, первый приемо-передающий модуль, группа информационных входов которого соединена с четвертой группой информационных выходов контроллера, вторая группа информационных входов которого соединена с группой информационных выходов первого приемо-передающего модуля, и блок видеонаблюдения, а наземный пункт управления выполнен содержащим последовательно соединенные первый блок управления, предназначенный для формирования команд управления взлетом, полетом и посадкой БЛА, второй приемо-передающий модуль и первое устройство обработки и отображения информации, отличающееся тем, что в БЛА дополнительно введены передающий модуль, блок навигации БЛА и запоминающее устройство, причем, первая группа информационных входов запоминающего устройства соединена с группой информационных выходов блока видеонаблюдения, вторая группа информационных входов соединена с группой информационных выходов блока навигации БЛА, а группа информационных выходов запоминающего устройства соединена с группой информационных входов передающего модуля, а в наземный пункт управления дополнительно введены последовательно соединенные приемный модуль и второе устройство обработки и индикации, второй блок управления, предназначенный для задания исходных данных и формирования команды на определение координат объектов, группа информационных входов которого объединена с первой группой информационных входов второго устройства обработки и отображения информации, а группа информационных выходов - со второй группой информационных входов второго устройства обработки и отображения информации. 5. A device for determining the coordinates of objects, consisting of an unmanned aerial vehicle (UAV) and ground control station, and the UAV is made containing serially connected controller, steering gear and aerodynamic steering wheels, an autopilot, the group of information inputs of which are connected to the second group of information outputs of the controller, the first group the information inputs of which are connected to the group of information outputs of the autopilot, a propulsion system, the group of information inputs of which is connected to the third a group of information outputs of the controller, the first transceiver module, the group of information inputs of which are connected to the fourth group of information outputs of the controller, the second group of information inputs of which is connected to the group of information outputs of the first transceiver module, and a video surveillance unit, and the ground control station is made containing connected to the first control unit for generating UAV take-off, flight and landing control commands, the second transceiver the first module and the first device for processing and displaying information, characterized in that the UAV additionally includes a transmitting module, a UAV navigation unit and a storage device, moreover, the first group of information inputs of the storage device is connected to the group of information outputs of the video surveillance unit, the second group of information inputs is connected to a group of information outputs of the UAV navigation unit, and a group of information outputs of the storage device is connected to a group of information inputs of the transmitting module, in addition, a ground-mounted receiving module and a second processing and indication device, a second control unit designed to set the initial data and form a command to determine the coordinates of objects, the group of information inputs of which are combined with the first group of information inputs of the second device for processing and displaying information, are additionally introduced into the ground control station and the group of information outputs with the second group of information inputs of the second device for processing and displaying information .
RU2012152599/07A 2012-12-06 2012-12-06 Method and device to determine object coordinates RU2513900C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2012152599/07A RU2513900C1 (en) 2012-12-06 2012-12-06 Method and device to determine object coordinates

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2012152599/07A RU2513900C1 (en) 2012-12-06 2012-12-06 Method and device to determine object coordinates

Publications (1)

Publication Number Publication Date
RU2513900C1 true RU2513900C1 (en) 2014-04-20

Family

ID=50481147

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2012152599/07A RU2513900C1 (en) 2012-12-06 2012-12-06 Method and device to determine object coordinates

Country Status (1)

Country Link
RU (1) RU2513900C1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2608583C1 (en) * 2016-01-26 2017-01-23 Александр Николаевич Прокаев Method of determining position and motion parameters of object as per measurements of angular coordinates
RU2646936C1 (en) * 2017-03-02 2018-03-12 Дмитрий Анатольевич Горяченков Method of determining the coordinates of objects
CN109974713A (en) * 2019-04-26 2019-07-05 安阳全丰航空植保科技股份有限公司 A kind of navigation methods and systems based on topographical features group
RU2744427C1 (en) * 2020-08-10 2021-03-09 Общество С Ограниченной Ответственностью Научно-Технический Центр "Зенит" Complex for determining the spatial coordinates of a remote object located on the ground
RU2787946C1 (en) * 2022-01-12 2023-01-13 федеральное государственное казенное военное образовательное учреждение высшего образования "Военная орденов Жукова и Ленина Краснознаменная академия связи имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации Method for manufacturing a multilayer coil heat exchanger
CN117308967A (en) * 2023-11-30 2023-12-29 中船(北京)智能装备科技有限公司 Method, device and equipment for determining target object position information
CN118640878A (en) * 2024-08-16 2024-09-13 南昌航空大学 Topography mapping method based on aviation mapping technology

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6005609A (en) * 1996-11-15 1999-12-21 Daewoo Electronics Co., Ltd. Method and apparatus for digital correlation object tracker using a shape extraction focalization technique
US6286786B1 (en) * 1998-03-23 2001-09-11 Gray Matter Holdings, Llc Remotely controlled aircraft
RU2265497C1 (en) * 2004-05-24 2005-12-10 Федеральное государственное унитарное предприятие "Всероссийский научно-исследовательский институт авиационных материалов" (ФГУП "ВИАМ") Method for forming member of turbine impeller and turbine impeller
RU2323851C1 (en) * 2007-04-24 2008-05-10 Общество с ограниченной ответственностью "АЛЬТОНИКА" (ООО "АЛЬТОНИКА") Ground surface surveillance system with unmanned vehicle
JP2011174875A (en) * 2010-02-25 2011-09-08 Mitsubishi Electric Corp Passive radar device
RU2431863C2 (en) * 2006-09-05 2011-10-20 Таль Method of determining orientation and position of object in space
JP2011242182A (en) * 2010-05-17 2011-12-01 Mitsubishi Electric Corp Passive radar system and passive radar method
RU2465613C1 (en) * 2011-07-28 2012-10-27 Государственное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации Method and apparatus for determining location of radio source

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6005609A (en) * 1996-11-15 1999-12-21 Daewoo Electronics Co., Ltd. Method and apparatus for digital correlation object tracker using a shape extraction focalization technique
US6286786B1 (en) * 1998-03-23 2001-09-11 Gray Matter Holdings, Llc Remotely controlled aircraft
RU2265497C1 (en) * 2004-05-24 2005-12-10 Федеральное государственное унитарное предприятие "Всероссийский научно-исследовательский институт авиационных материалов" (ФГУП "ВИАМ") Method for forming member of turbine impeller and turbine impeller
RU2431863C2 (en) * 2006-09-05 2011-10-20 Таль Method of determining orientation and position of object in space
RU2323851C1 (en) * 2007-04-24 2008-05-10 Общество с ограниченной ответственностью "АЛЬТОНИКА" (ООО "АЛЬТОНИКА") Ground surface surveillance system with unmanned vehicle
JP2011174875A (en) * 2010-02-25 2011-09-08 Mitsubishi Electric Corp Passive radar device
JP2011242182A (en) * 2010-05-17 2011-12-01 Mitsubishi Electric Corp Passive radar system and passive radar method
RU2465613C1 (en) * 2011-07-28 2012-10-27 Государственное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации Method and apparatus for determining location of radio source

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2608583C1 (en) * 2016-01-26 2017-01-23 Александр Николаевич Прокаев Method of determining position and motion parameters of object as per measurements of angular coordinates
RU2646936C1 (en) * 2017-03-02 2018-03-12 Дмитрий Анатольевич Горяченков Method of determining the coordinates of objects
CN109974713A (en) * 2019-04-26 2019-07-05 安阳全丰航空植保科技股份有限公司 A kind of navigation methods and systems based on topographical features group
CN109974713B (en) * 2019-04-26 2023-04-28 安阳全丰航空植保科技股份有限公司 Navigation method and system based on surface feature group
RU2744427C1 (en) * 2020-08-10 2021-03-09 Общество С Ограниченной Ответственностью Научно-Технический Центр "Зенит" Complex for determining the spatial coordinates of a remote object located on the ground
RU2787946C1 (en) * 2022-01-12 2023-01-13 федеральное государственное казенное военное образовательное учреждение высшего образования "Военная орденов Жукова и Ленина Краснознаменная академия связи имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации Method for manufacturing a multilayer coil heat exchanger
RU2812755C2 (en) * 2022-07-05 2024-02-01 Российская Федерация, от имени которой выступает федеральное государственное казенное учреждение "Управление авиации" Device for determining object coordinates
RU2820042C1 (en) * 2023-09-26 2024-05-28 Акционерное общество "Научно-Производственный Комплекс "Альфа-М" Method of target homing of a missile equipped with a homing head and rotating around its longitudinal axis
CN117308967A (en) * 2023-11-30 2023-12-29 中船(北京)智能装备科技有限公司 Method, device and equipment for determining target object position information
CN117308967B (en) * 2023-11-30 2024-02-02 中船(北京)智能装备科技有限公司 Method, device and equipment for determining target object position information
CN118640878A (en) * 2024-08-16 2024-09-13 南昌航空大学 Topography mapping method based on aviation mapping technology

Similar Documents

Publication Publication Date Title
RU2550811C1 (en) Method and device for object coordinates determination
CN105842724B (en) A kind of ship auxiliary anchors alongside the shore method and system
US5072396A (en) Navigation systems
Fazeli et al. Evaluating the potential of RTK-UAV for automatic point cloud generation in 3D rapid mapping
RU2513900C1 (en) Method and device to determine object coordinates
US20180082438A1 (en) Method of determining a direction of an object on the basis of an image of the object
CN105184776A (en) Target tracking method
CN101598556A (en) Unmanned plane vision/inertia integrated navigation method under a kind of circumstances not known
WO2021097983A1 (en) Positioning method, apparatus, and device, and storage medium
CN107490364A (en) A kind of wide-angle tilt is imaged aerial camera object positioning method
CN111102981B (en) High-precision satellite relative navigation method based on UKF
CN106468552A (en) A kind of two-shipper crossing location method based on airborne photoelectric platform
KR102075028B1 (en) Unmanned High-speed Flying Precision Position Image Acquisition Device and Accurate Position Acquisition Method Using the same
CN111426320A (en) Vehicle autonomous navigation method based on image matching/inertial navigation/milemeter
EP3751233B1 (en) Multi-aircraft vision and datalink based navigation system and method
CN105243364A (en) Photoelectric pod search method, apparatus and system
EP3340174B1 (en) Method and apparatus for multiple raw sensor image enhancement through georegistration
CN112394351A (en) Aviation coaxial remote sensing device and method based on multiple sensors
US10802135B2 (en) Method and apparatus for raw sensor image enhancement through georegistration
RU2749194C1 (en) Method for remote determination of the coordinates of the location of a ground (above-water) object
CN110411449B (en) Aviation reconnaissance load target positioning method and system and terminal equipment
CN113654528B (en) Method and system for estimating target coordinates through unmanned aerial vehicle position and cradle head angle
Sulaj et al. Examples of real-time UAV data processing with cloud computing
RU2812755C2 (en) Device for determining object coordinates
Adnastarontsau et al. Algorithm for Control of Unmanned Aerial Vehicles in the Process of Visual Tracking of Objects with a Variable Movement’s Trajectory

Legal Events

Date Code Title Description
QB4A Licence on use of patent

Free format text: LICENCE

Effective date: 20150219

MM4A The patent is invalid due to non-payment of fees

Effective date: 20151207