FR3018383A1 - Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage. - Google Patents
Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage. Download PDFInfo
- Publication number
- FR3018383A1 FR3018383A1 FR1451848A FR1451848A FR3018383A1 FR 3018383 A1 FR3018383 A1 FR 3018383A1 FR 1451848 A FR1451848 A FR 1451848A FR 1451848 A FR1451848 A FR 1451848A FR 3018383 A1 FR3018383 A1 FR 3018383A1
- Authority
- FR
- France
- Prior art keywords
- aircraft
- data
- navigation
- video
- video camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 14
- 238000012545 processing Methods 0.000 claims abstract description 23
- 239000011159 matrix material Substances 0.000 claims description 43
- 238000005259 measurement Methods 0.000 claims description 37
- 101100333439 Arabidopsis thaliana ENO2 gene Proteins 0.000 claims description 2
- 101150067085 los1 gene Proteins 0.000 claims description 2
- 101150118300 cos gene Proteins 0.000 description 47
- 230000007704 transition Effects 0.000 description 14
- 239000003550 marker Substances 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 8
- 230000002596 correlated effect Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 101100234408 Danio rerio kif7 gene Proteins 0.000 description 4
- 101100221620 Drosophila melanogaster cos gene Proteins 0.000 description 4
- 229920000535 Tan II Polymers 0.000 description 4
- 101100398237 Xenopus tropicalis kif11 gene Proteins 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011282 treatment Methods 0.000 description 3
- 102000002274 Matrix Metalloproteinases Human genes 0.000 description 2
- 108010000684 Matrix Metalloproteinases Proteins 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 102100039339 Atrial natriuretic peptide receptor 1 Human genes 0.000 description 1
- 101710102163 Atrial natriuretic peptide receptor 1 Proteins 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- RSPISYXLHRIGJD-UHFFFAOYSA-N OOOO Chemical compound OOOO RSPISYXLHRIGJD-UHFFFAOYSA-N 0.000 description 1
- YAVWDJDEOLOYQO-UHFFFAOYSA-N OOOOOOOOOO Chemical compound OOOOOOOOOO YAVWDJDEOLOYQO-UHFFFAOYSA-N 0.000 description 1
- 244000245420 ail Species 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000004611 garlic Nutrition 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
- G01C23/005—Flight directors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
- G01S19/15—Aircraft landing systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/04—Control of altitude or depth
- G05D1/06—Rate of change of altitude or depth
- G05D1/0607—Rate of change of altitude or depth specially adapted for aircraft
- G05D1/0653—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
- G05D1/0676—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0021—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/02—Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
- G08G5/025—Navigation or guidance aids
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
- Le dispositif (1) comporte un système vidéo (10) comprenant au moins une caméra vidéo numérique (11) agencée sur l'aéronef, la caméra vidéo numérique (11) étant configurée pour générer sur l'aéronef des données vidéo courantes relatives à au moins un point caractéristique sur la Terre, dont les coordonnées sont connues, et une unité de traitement de données (6) comprenant un filtre de Kalman étendu (7) et configurée pour déterminer les paramètres de navigation à partir de données de navigation courantes de l'aéronef, issues d'un système de navigation par satellites, de données inertielles courantes de l'aéronef, ainsi que desdites données vidéo.
Description
La présente invention concerne un procédé et dispositif de détermination de paramètres de navigation d'un aéronef, en particulier d'un avion de transport, lors d'une phase d'atterrissage, destinés à apporter une aide à la navigation de l'aéronef.
Dans le cadre de la présente invention, la phase d'atterrissage comprend l'approche et/ou l'atterrissage proprement dit. De façon usuelle, un dispositif de détermination de paramètres de navigation fournit une estimation de paramètres de navigation de l'aéronef, à l'aide de données baro-inertielles et de données GNSS.
Dans le cadre de la présente invention, on entend : - par données ou mesures « baro-inertielles » (ou INS), des valeurs de paramètres, déterminées par une centrale embarquée sur l'aéronef, par exemple un système de référence intertielle et de données anémobarométriques de type ADIRS (« Air Data and Reference System » en anglais), qui combine à la fois des données inertielles et des données barométriques ; et - par données ou mesures GNSS ou GPS (ou données de navigation), des valeurs de paramètres fournis par un récepteur embarqué, notamment un récepteur GPS, qui est associé à un système global de navigation par satellites, en particulier de type GNSS (« Global Navigation Satellite System » en anglais) associé à un système de positionnement par satellites, en particulier de type GPS (« Global Positioning System » en anglais). Plus particulièrement, le dispositif de détermination de paramètres de navigation, est destiné à déterminer et à fournir, au moins certains des paramètres de navigation suivants : des paramètres de position, de vélocité et d'assiette de l'aéronef, ainsi que d'autres paramètres relatifs à des erreurs de capteurs, telles que des erreurs de mesure de capteur inertiel, un biais et un décalage d'horloge d'un récepteur GNSS, et des erreurs de mesures corrélées de pseudo-distances GNSS. L'intégration de données GNSS avec des données baro-inertielles issues de capteurs INS (« lnertial Navigation System » en anglais) est l'une des principales solutions usuelles pour améliorer la localisation de l'aéronef dans des environnements difficiles, l'utilisation de mesures de capteurs inertiels (capteurs INS) permettant en particulier de remplir des intervalles entre des données GNSS successives. De façon usuelle, un tel dispositif réalise, généralement, une estimation des paramètres de navigation, à l'aide d'un filtre de Kalman dans lequel sont intégrées les mesures INS et les mesures GNSS. Toutefois, en fusionnant les mesures INS et les mesures GNSS, la dégradation en temps de la précision de la dérive du système INS doit être prise en compte. Cette dérive dépend de la qualité du système INS. Or, le choix du système INS dépend d'un compromis entre performance et coût.
Ainsi, la dérive peut varier par exemple de 1 mètre par minute à plusieurs centaines de mètres par minute selon le système INS, et le coût est également très différent entre divers systèmes INS. Il peut donc être avantageux de pouvoir disposer d'une solution de détermination de paramètres de navigation, très précise et de coût réduit.
La présente invention a pour objet de proposer une telle solution. Elle concerne un procédé de détermination de paramètres de navigation d'un aéronef lors d'une phase d'atterrissage, ledit procédé comprenant des étapes mises en oeuvre de façon automatique et répétitive et Consistant: -dans une première étape, à déterminer sur l'aéronef au moins : - des premières données correspondant à des données de navigation courantes de l'aéronef, issues d'un système de navigation par satellites ; et - des secondes données correspondant à des données inertielles courantes de l'aéronef ; et - dans une seconde étape, à calculer les paramètres de navigation à partir au moins desdites premières et secondes données, à l'aide d'un filtre de Kalman étendu. Selon l'invention : - la première étape comprend, de plus, une opération consistant à déterminer, sur l'aéronef, des données vidéo correspondant à des données courantes relatives à au moins un point caractéristique sur la Terre, dont les coordonnées sont connues, lesdites données vidéo étant générées par au moins une caméra vidéo numérique agencée sur l'aéronef et observant ledit point caractéristique ; et - la seconde étape est configurée pour calculer les paramètres de navigation à partir également desdites données vidéo, en plus desdites premières et secondes données. Avantageusement, pour la mise en oeuvre de la seconde étape, le filtre de Kalman étendu est configuré et adapté pour prendre en compte les données vidéo afin de calculer les paramètres de navigation. Ainsi, grâce à l'intégration des données vidéo, on est en mesure d'améliorer les performances (de précision, intégrité et disponibilité) des paramètres de navigation déterminés à l'aide du filtre de Kalman étendu. En particulier, on est ainsi en mesure d'obtenir des paramètres de navigation précis, aptes à être utilisés sur l'aéronef pour l'aider à la navigation lors de la phase d'atterrissage (approche et/ou atterrissage), en utilisant à cet effet des données baro-inertielles obtenues par exemple à partir d'un système INS à coût plus réduit. La ou les caméras vidéo utilisées pour la mise en oeuvre de la présente invention peuvent être : - soit une ou des caméras existant déjà sur l'aéronef, ce qui est notamment le cas sur des avions commerciaux modernes ; - soit une ou des caméras dédiées à la mise en oeuvre de la présente invention. Avantageusement, à la première étape du procédé, les données vidéo comprennent les mesures angulaires suivantes : - une première mesure, à un point focal de la caméra vidéo, d'un premier angle entre un axe d'un repère de l'aéronef et une projection sur un plan vertical d'une ligne de visée de la caméra vidéo, observant ledit point caractéristique ; et - une seconde mesure, à un point focal de la caméra vidéo, d'un second angle entre l'axe du repère de l'aéronef et une projection sur un plan horizontal de la ligne de visée de la caméra vidéo, observant ledit point caractéristique. En outre, de façon avantageuse, la seconde étape du procédé prend en compte une matrice d'observation comprenant une première matrice d'observation relative auxdites premières données et une seconde matrice d'observation relative auxdites données vidéo, et ladite seconde matrice d'observation comprend la tangente de la première mesure et la tangente de la seconde mesure qui sont définies par rapport aux paramètres suivants : - la latitude, la longitude et la hauteur par rapport au sol de l'aéronef ; et - les angles de roulis, de tangage et de lacet de l'aéronef. Dans le cadre de la présente invention, le point caractéristique sur la Terre qui est utilisé pour la mesure de données vidéo, peut représenter tout point qui peut être identifié par la caméra vidéo (et localisée sur les images prises par la caméra vidéo), et dont les coordonnées sont connues. De préférence, ce point caractéristique correspond à un point particulier d'une piste prévue pour un atterrissage de l'aéronef lors de la phase d'atterrissage, et notamment le seuil de la piste.
Par ailleurs, avantageusement, lesdits paramètres de navigation comprennent au moins certaines des données suivantes : - un paramètre de position de l'aéronef ; - un paramètre de vélocité de l'aéronef ; - un paramètre d'assiette de l'aéronef ; et - au moins un paramètre relatif à une erreur d'au moins un capteur. La présente invention concerne également un dispositif de détermination de paramètres de navigation d'un aéronef lors d'une phase d'atterrissage Ledit dispositif du type comprenant : - une première unité de génération de données, configurée pour déterminer des premières données correspondant à des données de navigation courantes de l'aéronef, issues d'un système de navigation par satellites ; - une deuxième unité de génération de données, configurée pour déterminer des secondes données correspondant à des données inertielles courantes de l'aéronef ; et - une unité de traitement de données comprenant un filtre de Kalman étendu et configurée pour déterminer les paramètres de navigation à partir au moins desdites premières et secondes données, est remarquable, selon l'invention, en ce que ledit dispositif comprend, de plus, un système vidéo comprenant au moins une caméra vidéo numérique agencée sur l'aéronef, la caméra vidéo numérique étant configurée pour générer sur l'aéronef des données vidéo courantes relatives à au moins un point caractéristique sur la Terre, dont les coordonnées sont connues, et en ce que l'unité de traitement de données est configurée pour déterminer les paramètres de navigation à partir également desdites données vidéo. Dans un mode de réalisation particulier, ledit dispositif comporte également des moyens utilisateurs de paramètres de navigation déterminés par l'unité de traitement de données.
La présente invention concerne également un système de navigation d'un aéronef, qui comprend le dispositif précité. La présente invention concerne, en outre, un aéronef, en particulier un avion de transport, qui comporte un dispositif et/ou un système de navigation, tels que ceux précités. Les figures annexées feront bien comprendre comment l'invention peut être réalisée. Sur ces figures, des références identiques désignent des éléments semblables. La figure 1 est le schéma synoptique d'un mode de réalisation particulier d'un dispositif conforme à l'invention. Les figures 2 à 5 sont des représentations schématiques permettant d'expliquer les relations entre différents paramètres et repères utilisés lors de la mise en oeuvre de la présente invention. Le dispositif 1 illustrant l'invention et représenté schématiquement sur la figure 1 est destiné à déterminer des paramètres de navigation d'un aéronef AC (figure 2), en particulier d'un avion de transport, lors d'une phase d'atterrissage (approche et/ou atterrissage proprement dit) de l'aéronef AC sur une piste d'atterrissage d'un aéroport. Ledit dispositif 1 qui est embarqué sur l'aéronef AC comporte, de façon usuelle : - une unité de génération de données 2 qui comprend au moins un récepteur 3 usuel (de préférence un récepteur GPS) qui est associé à système global de navigation par satellites, en particulier de type GNSS (« Global Navigation Satellite System » en anglais), associé à un système de positionnement par satellites, notamment de type GPS (« Global Positioning System » en anglais). L'unité de génération de données 2 est configurée pour déterminer, de façon usuelle, des premières données correspondant à des données de navigation courantes (ou données GPS ou GNSS) de l'aéronef AC (à partir des informations reçues par le récepteur 3 associé au système de navigation par satellites) ; - une unité de génération de données 4, par exemple un système de référence intertielle et de données anémobarométriques de type ADIRS (« Air Data and Reference System » en anglais), qui combine à la fois des données inertielles et des données barométriques. L'unité de génération de données 4 comprend une pluralité de capteurs inertiels 5A à 5M usuels (capteurs INS), M étant un entier, et est configurée pour déterminer, de façon usuelle, des secondes données correspondant à des données inertielles (ou données baro-inertielles ou INS) courantes de l'aéronef AC ; et - une unité de traitement de données 6 qui comprend un filtre de Kalman étendu 7 et qui est reliée par l'intermédiaire de liaisons 8 et 9, respectivement, auxdites unités 2 et 4. L'unité de traitement de données 6 est configurée pour déterminer les paramètres de navigation, à partir au moins desdites premières et secondes données reçues des unités 2 et 4 via les liaisons 8 et 9. Selon l'invention, ledit dispositif 1 comprend, de plus, un système vidéo 10 comprenant au moins une caméra vidéo 11 numérique qui est agencée sur l'aéronef.
La caméra vidéo 11 est agencée sur l'aéronef AC de manière à prendre des images vidéo de l'environnement extérieur à l'avant de l'aéronef AC. Cette caméra vidéo 11 est configurée pour générer sur l'aéronef AC des données vidéo courantes relatives à au moins un point caractéristique 12 sur la Terre T, dont les coordonnées sont connues. Pour ce faire, le dispositif 1 peut comporter une base de données 14 qui contient les coordonnées (longitude et latitude notamment) dudit point caractéristique 12 et qui est, par exemple, intégrée dans l'unité de traitement de données 6, Ce point caractéristique 12 (ou point cible : « target » en anglais) peut être tout point qui peut être identifié par la caméra vidéo 11 (et localisée sur les images vidéo prises par la caméra vidéo 11), et dont les coordonnées sont connues. De préférence, ce point caractéristique 12 correspond à un point particulier d'une piste prévue pour un atterrissage lors de la phase d'atterrissage, et notamment le seuil de la piste. Le système vidéo 10 comprend également une unité 21 usuelle de traitement de données vidéo, qui traite les données générées par la caméra vidéo 11 et qui fournit les données vidéo précisées ci-dessous.
De plus, selon l'invention, l'unité de traitement de données 6 est configurée pour déterminer les paramètres de navigation à partir également des données vidéo générées par le système vidéo 10 et reçues par l'intermédiaire d'une liaison 13, comme précisé ci-dessous, en plus des premières et secondes données précitées.
Pour ce faire, le filtre de Kalman étendu 7 de l'unité de traitement de données 6 est configuré et adapté pour prendre en compte les données vidéo afin de calculer les paramètres de navigation, comme précisé ci-dessous. Ainsi, grâce à l'intégration des données vidéo, le dispositif 1 est en mesure d'améliorer les performances (de précision, intégrité et disponibilité) des paramètres de navigation déterminés à l'aide du filtre de Kalman étendu 7. En particulier, le dispositif 1 permet ainsi d'obtenir des paramètres de navigation précis, aptes à être utilisés sur l'aéronef AC pour l'aider à la navigation lors de la phase d'atterrissage, en utilisant à cet effet des données baro-inertielles obtenues par exemple à partir d'une unité 4 à coût plus réduit. Le système vidéo 10 utilisé pour la mise en oeuvre de la présente invention, peut comprendre : - soit une ou des caméras déjà installées sur l'aéronef, ce qui est notamment le cas sur les avions commerciaux modernes ; - soit une ou des caméras dédiées à la mise en oeuvre de la présente invention et installées spécifiquement dans ce but. Dans un mode de réalisation particulier, ledit dispositif 1 comporte également un ensemble 15 de moyens utilisateurs embarqués de l'aéronef AC, par exemple des systèmes et/ou calculateurs d'affichage dans le cockpit, de contrôle de gouvernes de l'aéronef AC (commandes de vol) ou bien de guidage de l'aéronef AC (pilote automatique), qui utilisent les paramètres de navigation déterminés par l'unité de traitement de données 6 (et reçus via une liaison 19). La présente invention concerne également un système de navigation de l'aéronef AC, qui comprend ledit dispositif 1 et qui est chargé de la navigation de l'aéronef AC notamment lors de la phase d'atterrissage.
L'unité de traitement de données 6 comprend un filtre de Kalman étendu 7 avec un vecteur d'état d'erreurs qui estime des erreurs des paramètres de position, de vélocité et d'assiette, ainsi que d'autres paramètres relatifs à des erreurs de capteurs, telles que des erreurs de mesure de capteur inertiel (capteurs 5A à 5M), un biais et un décalage d'horloge d'un récepteur 3 de type GNSS, et des erreurs de mesures corrélées de pseudo-distance GNSS. Dans la description suivante de l'invention, on considère les paramètres suivants : - un vecteur de rotation instantané d'un repère A par rapport à un repère B, tels que précisés ci-après, qui est exprimé dans le système de coordonnées du repère A ; - naa 1 b : la matrice symétrique (de type "skew") associée, également notée w,/5A ; - Ra2b : une matrice de rotation pour la transformation de vecteurs du système de coordonnées du repère A, vers le système de coordonnées du repère B ; et - vea et faa,b : respectivement une vitesse de l'aéronef AC relative à la Terre, exprimée dans le système de coordonnées du repère A, et un vecteur de force spécifique du repère A par rapport au repère B, exprimé dans le système de coordonnées du repère A. Par ailleurs, on a représenté sur la figure 2 (qui montre très schématiquement une position courante PC de l'aéronef AC par rapport à la Terre T) certains des repères utilisés dans la mise en oeuvre de l'invention. Plus précisément, les repères impliqués dans la mise en oeuvre de l'invention, sont les suivants : A/ (X,Y,Z) est un repère inertiel (ou repère I). Il est défini comme un repère de référence, dans lequel les lois de mouvement de Newton s'appliquent. L'origine O du repère inertiel coïncide avec le centre de masse de la Terre T. L'axe X est dirigé vers le point vernal (« vernal equinox » en anglais), l'axe Z est dirigé le long de l'axe de rotation de la Terre T, et l'axe Y est défini pour compléter le système de coordonnées main droite ; B/ (X,,Y,,Ze) est un repère dit E (ou repère ECEF pour « Earth- Centered Earth-Fixed frame » en anglais). Son origine O est fixée au centre de la Terre T. L'axe Ze est aligné avec l'axe Z du repère inertiel. Le repère ECEF tourne par rapport au repère inertiel à une fréquence de : com P. 7,292115.10-5 rad/s Dans le repère ECEF, deux systèmes de cordonnées peuvent être utilisés : - le système de cordonnées ECEF rectangulaire (X,Y,Z) ; et - le système de cordonnées ECEF géodésique qui introduit les paramètres de latitude, longitude et altitude (2,0,h).
La relation entre les deux jeux de cordonnées est la suivante : X = (RE + h).cos .1... cos 0 Y = (RE + h).cos .1...sin 0 Z = ((1 - e2).RE +h). sin 2 où e = 0,0818 est l'excentricité et RE est le rayon terrestre ; C/ (N,E,D) est un repère de navigation géographique (repère NED ou repère N) qui est défini localement par rapport à la géoïde de la Terre T. L'axe Zn (D) est dirigé vers l'intérieur de l'ellipsoïde le long de la normale à l'ellipsoïde. L'axe Xn (N) est dirigé vers le Nord, et l'axe Y, (E) est dirigé vers l'Est pour compléter le système de coordonnées main droite. L'origine du repère est la projection de l'origine de la plateforme sur la géoïde de la Terre T. Le taux de rotation inertiel de la Terre T, exprimé dans le repère N, est : D/ (Xn,Yb,Zb) est un repère de corps ou de mobile (repère B ou repère M) qui est lié de façon rigide au véhicule considéré, en l'occurrence à l'aéronef AC, usuellement à un point fixe tel que son centre de gravité G (figure 2). Ce repère est également appelé repère de l'aéronef ci-après.
L'axe X,, est défini dans la direction d'avancement, l'axe Zb est défini pour pointer vers le bas du véhicule (aéronef AC), et l'axe Yb est défini pour pointer vers la droite du véhicule (aéronef AC) afin de compléter le système de coordonnées main droite, comme représenté sur la figure 2 ; E/ (X' Y' Z ) est un repère de plateforme (repère P) qui est P P P considéré comme étant aligné avec le repère de corps (repère de l'aéronef) ; et F/ (X,,,,Y',Z) est un repère de référence d'azimut dit "Wander" (repère W) qui résout le problème de latitude haute rencontré par le repère géographique. La définition est exprimée en termes de vélocité angulaire du repère par rapport au repère de la Terre. Ainsi, si le vecteur de rotation instantanée du repère N par rapport au repère E, exprimé dans le repère N, est : alors le vecteur de rotation instantanée du repère W par rapport au repère E, exprimé dans le repère N, est : 0.cos(.I.) 0 On précise, à présent, les données reçues et utilisées par l'unité de traitement de données 6 du dispositif 1. Premièrement, de façon usuelle, l'unité 2 fournit, comme données de navigation courantes, des mesures de pseudo-distances, à l'unité de traitement de données 6, via la liaison 8. Deuxièmement, l'unité 4 fournit (via la liaison 9), comme données inertielles courantes, les données suivantes : - L'h ={=fx,f,'1,1 : une mesure de la force spécifique de l'aéronef AC par rapport au repère inertiel, exprimée dans le repère de l'aéronef (ou repère mobile) ; Fo:h = Px,d)oz] : une mesure de la vitesse de rotation de l'aéronef AC par rapport au repère inertiel, exprimée dans le repère de l'aéronef ; - une estimation de la latitude ,., la longitude q3 et l'altitude baro-inertielle h8 de l'aéronef AC ; - i)en =PN,i)r,i3ol : une estimation de la vélocité de l'aéronef AC par rapport à la Terre, exprimée dans le repère NED (ou repère N) ; - An'"' =40 ,ij,t? j : une estimation des angles de roulis, de tangage et de lacet de l'aéronef AC par rapport au repère N, exprimée dans le repère de l'aéronef; - l'i) : une estimation de l'angle d'azimut de type « Wander » qui définit l'angle entre l'axe Nord du repère N et l'axe XH, du repère W ; et - âm2, : une estimation de la matrice de rotation du repère de l'aéronef au repère N.
Troisièmement, le système vidéo 10 détecte à partir de l'aéronef AC un ou plusieurs points caractéristiques 12 de l'environnement extérieur, et notamment de l'environnement de la piste prévue pour l'atterrissage, et il fournit, pour chaque caractéristique considérée, les données suivantes, comme représenté sur la figure 3 (illustrant un champ de vision 16 de la caméra vidéo 11 du système vidéo 10) : - une première mesure -ci, à un point focal 17 de la caméra vidéo 11, d'un premier angle ax entre l'axe XI, du repère de l'aéronef et une projection LOS1 sur un plan vertical d'une ligne de visée LOS (pour « Line Of Sight » en anglais) de la caméra vidéo 11 qui observe ledit point caractéristique 12 (c'est-à-dire dont le champ de vision comprend ledit point caractéristique 12). La ligne de visée LOS relie les points 12 et 17 ; et - une seconde mesure â', audit point focal 17 de la caméra vidéo 11, d'un second angle ay entre l'axe Xb du repère de l'aéronef et une projection LOS2 sur un plan horizontal de la ligne de visée LOS de la caméra vidéo 11 qui observe ledit point caractéristique 12. L'unité de traitement de données 6 utilise les données précédentes pour déterminer les paramètres de navigation à l'aide du filtre de Kalman étendu 7. On présente ci-après les traitements mis en oeuvre par le filtre de Kalman étendu 7, en précisant tout d'abord l'utilisation des données baroinertielles et des données de navigation (données GPS) avant de préciser l'utilisation des données vidéo. Par ailleurs, dans la description ci-dessous : - pour un paramètre estimé, la différence entre la valeur vraie x du paramètre et la valeur estimée .X est notée : 8x ; et - pour un paramètre mesuré, la différence entre la valeur vraie x du paramètre et la valeur mesurée est notée : Sx . Le rayon de courbure RM de la Terre T le long d'une méridienne 18 (figure 2) et le rayon RN normal à la méridienne 18, sont définis par : RM =(a.(1-e2))/(1-e2. sin2 2)3/2 RN = a 1(1- e2 .sin2 2)1/2 où a est le demi grand axe de l'ellipsoïde terrestre. Les rayons de courbure dans les directions X, et Y,, du repère W sont : 11(Rx+hB)=cos2 w l(RN +h2)+sin2 wl(R hB) 11(R, + hB) = cos2 wl(RN, +1'0+ sin2 wl(RN +118) 11(R,y+ hB)= cos w.sin w.(1 /(R, + hB) - 1 l(Rm +IO) Par ailleurs, les composantes du vecteur d'état d'erreur 8X pour le traitement du filtre de Kalman étendu 7 (mis en oeuvre par l'unité de traitement de données 6) sont, successivement, les suivantes : - dOx., dO y : les erreurs de position angulaire horizontale dans le repère W ; - dhB : l'erreur d'altitude baro-inertielle ; - daB : la sortie d'un compensateur de la boucle d'asservissement de la boucle baro-inertielle de troisième ordre ; - dVx , dVy : les erreurs de vélocité horizontale dans le repère W ; - dV, : la vitesse verticale baro-inertielle (le long de l'axe vertical vers le bas) ; - dç b dØ., dçb, : les erreurs d'angles d'alignement dans le repère W; - bgx, bgy,bg, : les erreurs de biais gyroscopiques dans le repère de l'aéronef ; - bar, bar, bu, : les erreurs de biais accélérométriques dans le repère de l'aéronef ; - bH : l'erreur de biais de l'horloge du récepteur GPS (récepteur 3) ; - dH : l'erreur de dérive de l'horloge du récepteur GPS (récepteur 3) ; et - errGA,ssi,...,errGA,ssN : les erreurs corrélées de pseudo-distances GPS (pour N satellites). On précise tout d'abord la matrice de propagation. A cet effet, premièrement, la matrice de transition d'erreur de position angulaire horizontale, est : 1/(Rxy + h/3) 1/(Ry + hB).....0 -1/(R'. +1/B) 1/(Rxy +hB)...0 0_ F0 = ps Deuxièmement, concernant la matrice de transition d'erreur d'altitude baro-inertielle, les équations du modèle d'erreur d'altitude baroinertielle sont : C511 B = - Vz KI.(8hB-Shbara) Sà8= K3.(8hB-Shb'0) où Ki, K2, et K3 sont les gains d'une boucle baro-inertielle du troisième ordre. La matrice d'état de transition est alors : 0 0 -K1 0 0 -1 0 Fbaro - [0 0 0 K3 0 0 0 001 La matrice complète de transition d'erreur de position 3D est ainsi : F3 Dpos Fp0, Troisièmement, concernant la matrice de transition d'erreur de vélocité horizontale, l'équation d'erreur de vélocité horizontale INS dans le repère W est dérivée de celle du repère de navigation, précisée par la suite : er: = + âgw + (A).(8co' + Le vecteur d'erreur de gravité est : 00 0 00 0 0 0 -2go/REI 8g" = 8g' = est l'erreur de modèle de gravité, et go est la constante gravitationnelle. L'erreur de modèle de gravité n'est pas modélisée dans le vecteur d'état. Ces erreurs sont intégrées dans le vecteur de bruit d'état de vélocité. Pour l'équation d'erreur de vélocité horizontale, les deux premières lignes de l'erreur de gravité sont négligeables : Evelol haro = 0 Le calcul de Sco,e1-28K1 est réalisé l'aide de l'expression des dérivées partielles. A cet effet, il est nécessaire de calculer d'abord les dérivées partielles suivantes : sconwie = (5wuev' [8(0'0,h) (Dcov '((0,,,Oy,h),v4: ) I 3(0,O y,h), y': )1 av,7 = (0 , 0 , h) 8v,7 La rotation du repère W par rapport au repère E et la rotation du repère E par rapport au repère I, exprimées dans le repère W, sont : cos w sinw 0 -sin w cos w ) 0 0 I e = cosw sinw 0 -sin w cosw 0 0 0 1 0 - ive,/ sin wei, cos/1, Wewl = Rn 2 w Wwn 1 e a co ove' =[o] Fve,o, pas, = (acow' a(eey,h))+ 2.(acifel,1 / a(ex, O, h)) Fvelol velol (a F,eln I velo2 e àv'cv)+2.(saco:/, I Wev) ,A +2co,A 20 Fvelolbg =° Fvelo I ba = Rm2w La matrice dynamique d'erreur de vélcs,cité horizontale comprend a!ors les paramèe successifs suivants : Fvelnl pas = )ew A)-Fvelol posl velol haro = °3X2 f Fvelol vela = e "1' velol velol velo veto 2 Fvelof,'=(-.7wA) FveloINS Fvelolbg = °3X3 Fvelolha = Rm2w La matrice dynamique d'erreur de vélocité horizontale finale est composée des deux premières lignes de la matrice Fveloes. La matrice de transition d'erreur de vitesse verticale baro-inertielle est calculée ci- après. Quatrièmement, concernant la matrice de transition d'erreur de vitesse verticale baro-inertielle, l'équation du modèle d'erreur de vitesse verticale baro-inertielle est : = 8f - 2.g0.8118 IRE + Sa, + K2.(5h8 Ôhba, u) avec fczo,, la force verticale spécifique de l'aéronef AC avec des corrections inertielles. La matrice d'état de transition est alors : rbaro speed = [o (K2 - 290 1 01x8 RE 1 0 La matrice de transition d'erreur de vélocité 3D complète est : Fhori veto F3D veto = p L baro speed Cinquièmement, concernant la matrice de transition d'erreur d'assiette, l'équation d'erreur d'assiette INS dans le repère W, est la suivante : A = f3 + fim2w aaet/i 84/i- Le calcul de cSco': et de est définie à partir des équations correspondantes indiquées ci-dessus : vq; = co:/, +coi/ Fattl pos = --((awwle I a(e,'0 y, h) + a(o ',e y,h)) Fa'/'10 = -((aco::1 e I (aco'ii av:)) Fan I = (-Www I A) 'Fait I bg tem2w Fort I ba = La matrice dynamique d'assiette s'écrit alors : Fatt = [Fatt/pos Fatt/velo Fatt/att Fatt/bg Fatt/bal Et la matrice dynamique INS est : FINS Par ailleurs, sixièmement, la matrice discrète de transition de mesures des capteurs est : At e TgYr° 0 O O O O At - O e rgYr° O O O O _ At 0 0 e TgYr° 0 0 0 At 0 0 00 0 At e Taccel 0 0 0 00 e raccei Fbiases = At 0 O 0 Par ailleurs, septièmement, concernant la dérive et le biais de l'horloge du récepteur GPS (récepteur 3), le traitement de transition de la dérive et du biais de l'horloge est : bH1+[no cl,] nh 0 0 La matrice Fi dock de transition de la dérive et du biais de l'horloge est : 0 Fclock 0 0 Par ailleurs, huitièmement, concernant les erreurs corrélées de pseudo-distances GPS, la matrice discrète FerrGPS de transition d'erreurs corrélées de pseudo-distances, est : 0 0 Ferre 0 -AllterrGps La matrice dynamique GPS finale FGps est alors : r, 0 / 'dock 0 FerrGPS FGPS = Et la matrice dynamique globale est : F = [FINSVMU O ° FGPS On définit à présent la matrice de covariance de bruit d'état, relative au filtre de Kalman étendu 7. Premièrement, la matrice de covariance de bruit d'état INS et IMU est : qiNs/Imu qt9x 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 goy 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 a ,n8 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 qvx 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 qvy 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 qvz 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 q0x 0 0 0 0 0 0 0 0 - 0 0 0 0 0 0 0 qq5y 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 q/cz 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 qbgx 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 a ,bgy 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 qbgz 0 0 0 O O O O O O O O O O 0 O a -ibax O O 0 0 0 0 0 0 0 0 0 0 0 0 0 a 0 -ibay 0 0 0 0 0 0 0 0 0 0 0 0 0 qba2 Les composants diagonaux reflètent la dynamique de l'évolution de l'état d'erreur inertiel tel qu'adapté aux classes inertielles. Deuxièmement, la fonction de covariance de bruit d'état GPS est : 21 3018383 Gro 0 0 0 0 0 Cff 0 0 0 0 0 a r 0 0 er. GPS 1 0 0 0 0 0 0 0 0 cr - errciDs 2 Les composants diagonaux reflètent la dynamique de l'évolution de l'état d'erreur inertiel tel qu'adapté au type de récepteur. La matrice globale de covariance de bruit d'état est ainsi : CIGPS INS/ IMU o o qGPS _ 5 = On définit à présent la matrice d'observation, relative au filtre de Kalman étendu 7. Concernant la matrice d'observation, premièrement, la fonction d'observation pseudo-distance GPS est : hiGps(x(k)) = pi (k) + c - b(k) 10 pi (k) = (k) - X (k))2 + (y (k) )) (z( k) - Z (k))2 avec : - (X ,Y , Z) les coordonnées de la position estimée par un capteur INS (capteur 5A, 5M) dans le repère E ; et - (X' ,Y' ,Z') les coordonnées de la position du ième satellite dans le repère E.
La matrice d'observation linéaire HGPS est alors : i iah i ai a hi Mi 0 -- - aoy ahB 0 -nu 0 0 .-' 01 u L'H a hi a pi a (X , Y , Z) a (À., cp,hB) a (0,, 03' hB) a (X , Y , Z) X a (À, (/), hB)x , 00x, ey, hB) - Yi - Y Zi - Zi d p' a(x, Y , Z) p Pi Pi a (X, Y, Z) -(RE -I- sin A , (/) -(R E + hB) - cos À . sin (/) cos À - cos 0- - sin À . si i i i- (RE + hB) . cos À - cos (/) cos À - sin (/) - RE + 118 . ( ( ,, 0 sin À - sin w - cos w 0- [ cos w sin w 0 cos 2. cos À 0 0 1_ Par ailleurs, deuxièmement, concernant la matrice d'observation des mesures vidéo générées par le système vidéo 1 0, la matrice d'observation de mesures angulaires optiques est : gideo(x(k)) = tan Gal) tan(ax) = tan(ay) = Les mesures angulaires optiques sont définies par rapport à ço tan(ax) = fx(il,, hB, 0).cos + f(, hB ,v). sin ço tan(a y) = - 0, 118, 0). sin ço + f y(.1, hB,v). cos ço f,(/1,0,hB4O).tan(0 + 2-aD) = (1+ tan an. tan 0) /(tan aD - tan 0) L = RT - sin GC A dAit 2 RT sin2 ( G C A\ 2 1 = RT - (1 - cos(GCA)) tan a D = g x(À, (1), hB) L dAit + Mit RT - sin(GCA) - RT -(1 - cos(GCA)) + Mit RT - sin(GCA) RE + h8 - RT - cos(GCA) On se réfère pour les traitements précédents à la figure 4 qui illustre le modèle d'observation pour les mesures angulaires optiques verticales. Sur cette figure 4, on a représenté en particulier une a(ex,oym horizontale 20 (en relation avec le centre de masse G de l'aéronef AC) et un ellipsoïde 22. On sait que la moitié du sinus verse (« haversine » en anglais) d'un angle est définie par : haver sin e(x) = sin2 (x / 2) = (1 - cos(x)) / 2 La moitié du sinus verse (« haversine ») de l'angle de grand cercle GCA (« Great Circle Angle » en anglais) est : haver sin e(GCA) = haver sin e(A)I. - Açb) + sin AÂ. sin A q5.haver sin e(71- / 2) = (1- cos A. cos Açb)/ 2 L'angle de grand cercle GCA est : GCA = k(2, = 2 - arcsin / - cos LU. - cos 3,0 2 = arccos( cos LU - cos 34)) fy (2, 0, hB, = tan (a N - iP) tan aN - tan q =-. 1 + tan aN - tan Citat = 2 - RT' - sin() diong = 2 - RT - sin (i-PA tan aN = diong sin 4) sin (7/1) On se réfère pour les traitements précédents à la figure 5 qui illustre le modèle d'observation pour les mesures angulaires horizontales. Sur cette figure 5, on a représenté en particulier un graphique défini par rapport à l'Est E et au Nord N. Les fonctions qui décrivent la fonction d'observation sont : hi (x, y, z) = x . cos z + y- sin z h2 (x, y, z) = -x - sin z + y - cos z 1 + x - y x - y x -y fy(x,Y) = 1+ x - y RT - sin x 9x(x, Y) = RE + y - RT - cos x sin (X -21)1 9 y(X, v sin e -2-T) fx (x 31) - cos(x - .1T) - cos(y - OT) 2 = arccos(cos(x - 2T) - cos(y - cbT)) La matrice d'observation linéarisée 1,,'' est : k(x, y) = 2 arcsin [a hl = [aox ahi- " a fx x a fxx agx ahi ai ahi ahi ahi a a °_1 t9y ahB a(bx (Py .0(1 )z ° agx fak aA. ak a(P) ahi afy x 17 X \-j-2. X 7Fx To X 79-; ur a7; Hvi ideo x(agY x +a9Y aex a aox ahi alti fx agx (ak aÂ, ak ao) ahi a fy -aTy= x (a X 9Y X " +a g)/ X d(l) ail as,/ aoy ahi ahB ahi- a0x- afx ahi ahi a 45y a fx ahi af afxx agx afx ao X X 7( --px afx ao x (30 X a 03, a9 x 717 ahi Dy) ahi ap + x cp 03, ah' alti a f, 00 alti a fy 011) -a-7---pz=-à_TX-00x7;z+-a-TX-FF X7-j-pz ahi [ cos(9) sin(p)1a(fx,fy)- _ l- sin(q) cos(go)l ah [-f . sin(49)+ fy'cos(40)} aço = [-fx - cos() - IV - sill((P) Ô fx1 + tan2(0) agx = (tan(0) - gx)2 afx 1 + g,2, O tan(8) = (tan(6) -gx)2 a fx a fx a tan (e) ae - a tan(0) x 00 ô tan(0) 1 =1+ tan2(0) = a0 cos2(0) afy _ 1+ tan2(tP) agy - (1 + tan() - g y)2 Of 1+9 Otan() - (1 + tan(iP) - gy)2 a fy _ a fy a tan(tp) atp a tan (tp)x av.) a tan (iP) 1 = 1 + tan2 (IP) = cos2(p) 01P agxRc ' (RE + h8) - cos w - Rî = a k ((RE + h8) - RT - cos W)2 a gx RT - sin w O h5. ((RE + Iiii.) - RT - cos W)2 agy= cos (11.) - sin (-1) g y .9/1 2 - sin2 (.1.) 2 . tan (41'a) 2 2 Alagy 1 cos 4 2 Les dérivées partielles de k par rapport à .1, et à 0 sont : ak- cos(4) sin() - cos(4) - cos2() - cos2(Aq5) sin(k) a kcos(A.1) - sin(4) 797/) = sin(k) a (, 0) sin w - cos wi cos w sin w cos À. cos À. 5(q, 0) [cos w - sin wi a x oy) sin w cos w A partir des données précédentes, on obtient la matrice d'observation globale H qui correspond, dans le cadre de la présente invention, à : H GPS - H vide° _ Par ailleurs, concernant la matrice de covariance de bruit de mesure : - la matrice RGPS de covariance de bruit de mesure de pseudo-distance GPS est : RGPS = aERE Inbpseudorange - la matrice R,,,deo de covariance de bruit de mesure vidéo est : Rvideo =2i evdeo I2xnbtarget - et finalement, la matrice R de covariance de bruit global est : H= RGps o o Rvideo R Le dispositif 1, tel que décrit ci-dessus, intègre des données vidéo, ce qui permet d'améliorer la précision des paramètres de navigation déterminés à l'aide du filtre de Kalman étendu 7 (adapté de façon appropriée, comme précisé ci-dessus) de l'unité de traitement de données 6 du dispositif 1. Le dispositif 1 apporte ainsi une aide à la navigation de l'aéronef AC, notamment lors de l'approche et/ou de l'atterrissage, en étant par exemple intégré dans un système de navigation de l'aéronef AC. De plus, l'intégration des mesures visuelles additionnelles (données vidéo), dérivées d'un traitement vidéo d'au moins une caméra vidéo 11 numérique, permet d'obtenir un dispositif 1 et/ou un système de navigation, qui sont autonomes (et qui ne nécessitent pas, en particulier, de stations sol).
Claims (10)
- REVENDICATIONS1. Procédé de détermination de paramètres de navigation d'un aéronef lors d'une phase d'atterrissage, ledit procédé comprenant des étapes mises en oeuvre de façon automatique et répétitive et consistant : -dons une première étape, à déterminer sur l'aéronef (AC) : - des premières données correspondant à des données de navigation courantes de l'aéronef (AC), issues d'un système de navigation par satellites ; et - des secondes données correspondant à des données inertielles courantes de l'aéronef (AC) ; et 'dans une seconde étape, à calculer les paramètres de navigation à partir au moins desdites premières et secondes données, à l'aide d'un filtre de Kalman étendu (7), caractérisé en ce que : - la première étape comprend, de plus, une opération consistant à déterminer, sur l'aéronef (AC), des données vidéo correspondant à des données courantes relatives à au moins un point caractéristique (12) sur la Terre (T), dont les coordonnées sont connues, lesdites données vidéo étant générées par au moins une caméra vidéo numérique (11) agencée sur l'aéronef (AC) et observant ledit point caractéristique (12) ; et - la seconde étape est configurée pour calculer les paramètres de navigation à partir également desdites données vidéo, en plus desdites premières et secondes données.
- 2. Procédé selon la revendication 1, caractérisé en ce que, pour la mise en oeuvre de la seconde étape, le filtre de Kalman étendu (7) est configuré et adapté pour prendre en compte les données vidéo afin de calculer les paramètres de navigation.
- 3. Procédé selon l'une des revendications 1 et 2,caractérisé en ce qu'à la première étape, les données vidéo comprennent les mesures angulaires suivantes : - une première mesure, à un point focal (PF) de la caméra vidéo (11), d'un premier angle (ai) entre un axe ( Xb) d'un repère de l'aéronef et une projection (LOS1) sur un plan vertical d'une ligne de visée (LOS) de la caméra vidéo (11) observant vers ledit point caractéristique (12) ; et - une seconde mesure, à un point focal (PF) de la caméra vidéo (11), d'un second angle (ay) entre l'axe ( Xb) du repère de l'aéronef et une projection (LOS2) sur un plan horizontal de la ligne de visée (LOS) de la caméra vidéo (11) observant ledit point caractéristique (12).
- 4. Procédé selon la revendication 3, caractérisé en ce que la seconde étape prend en compte une matrice d'observation comprenant une première matrice d'observation relative auxdites premières données et une seconde matrice d'observation relative auxdites données vidéo, et en ce que ladite seconde matrice d'observation comprend la tangente de la première mesure et la tangente de la seconde mesure qui sont définies par rapport aux paramètres suivants : - la latitude, la longitude et la hauteur par rapport au sol de l'aéronef (AC) ; et - les angles de roulis, de tangage et de lacet de l'aéronef (AC).
- 5. Procédé selon l'une des revendications 3 et 4, caractérisé en ce que ledit point caractéristique (12) sur la Terre (T) représente un point particulier d'une piste prévue pour un atterrissage de l'aéronef (AC) lors de la phase d'atterrissage.
- 6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que lesdits paramètres de navigation comprennent au moins certaines des données suivantes : - un paramètre de position de l'aéronef (AC) ; - un paramètre de vélocité de l'aéronef (AC) ;- un paramètre d'assiette de l'aéronef (AC) ; et - au moins un paramètre relatif à une erreur d'au moins un capteur.
- 7. Dispositif de détermination de paramètres de navigation d'un aéronef lors d'une phase d'atterrissage, ledit dispositif (1) comprenant : - une première unité de génération de données (2) configurée pour déterminer des premières données correspondant à des données de navigation courantes de l'aéronef (AC), issues d'un système de navigation par satellites ; - une deuxième unité de génération de données (4) configurée pour déterminer des secondes données correspondant à des données inertielles courantes de l'aéronef (AC) ; et - une unité de traitement de données (6) comprenant un filtre de Kalman étendu (7) et configurée pour déterminer les paramètres de navigation à partir au moins desdites premières et secondes données, caractérisé en ce que ledit dispositif (1) comprend, de plus, un système vidéo (10) comprenant au moins une caméra vidéo numérique (11) agencée sur l'aéronef (AC), la caméra vidéo numérique (11) étant configurée pour générer sur l'aéronef (AC) des données vidéo courantes relatives à au moins un point caractéristique (12) sur la Terre (T), dont les coordonnées sont connues, et en ce que l'unité de traitement de données (6) est configurée pour déterminer les paramètres de navigation à partir également desdites données vidéo.
- 8. Dispositif selon la revendication 7, caractérisé en ce qu'il comporte des moyens utilisateurs (15) de paramètres de navigation déterminés par l'unité de traitement de données (6).
- 9. Système de navigation d'un aéronef, caractérisé en ce qu'il comporte un dispositif (1) tel que celui spécifié sous l'une des revendications 7 et 8.
- 10. Aéronef, caractérisé en ce qu'il comporte un dispositif (1) tel que celui spécifié sous l'une des revendications 7 et 8.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1451848A FR3018383B1 (fr) | 2014-03-07 | 2014-03-07 | Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage. |
US14/637,554 US9593963B2 (en) | 2014-03-07 | 2015-03-04 | Method and a device for determining navigation parameters of an aircraft during a landing phase |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1451848A FR3018383B1 (fr) | 2014-03-07 | 2014-03-07 | Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage. |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3018383A1 true FR3018383A1 (fr) | 2015-09-11 |
FR3018383B1 FR3018383B1 (fr) | 2017-09-08 |
Family
ID=51210514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1451848A Active FR3018383B1 (fr) | 2014-03-07 | 2014-03-07 | Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage. |
Country Status (2)
Country | Link |
---|---|
US (1) | US9593963B2 (fr) |
FR (1) | FR3018383B1 (fr) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112051573A (zh) * | 2020-08-27 | 2020-12-08 | 北京航管科技有限公司 | 一种航迹处理方法及装置、存储介质 |
FR3139653A1 (fr) * | 2022-09-13 | 2024-03-15 | Safran Electronics & Defense | Procédé et dispositif de navigation pour un véhicule, système, véhicule, programme d'ordinateur et support d'informations associés |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2998958B1 (fr) * | 2012-12-05 | 2019-10-18 | Thales | Procede de gestion de donnees air (air data) d'un aeronef |
FR3000196B1 (fr) * | 2012-12-21 | 2015-02-06 | Airbus Operations Sas | Dispositif de mise a disposition de valeurs de parametres de navigation d'un vehicule |
US9435661B2 (en) * | 2014-10-08 | 2016-09-06 | Honeywell International Inc. | Systems and methods for attitude fault detection based on air data and aircraft control settings |
US9593962B2 (en) | 2014-10-08 | 2017-03-14 | Honeywell International Inc. | Systems and methods for attitude fault detection based on integrated GNSS/inertial hybrid filter residuals |
US9832085B1 (en) * | 2015-01-20 | 2017-11-28 | Mehdi Malboubi | System for estimating unknown attributes of interest in the under-determined inverse problem and a process of accomplishing the same |
KR101784955B1 (ko) | 2016-05-04 | 2017-10-12 | 엘아이지넥스원 주식회사 | 영상 정보를 이용한 비행 속도 산출 방법 |
CN109983307A (zh) * | 2016-09-22 | 2019-07-05 | 加利福尼亚大学董事会 | 用于通过lte信号进行导航的sdr |
DE102016222272B4 (de) * | 2016-11-14 | 2018-05-30 | Volkswagen Aktiengesellschaft | Schätzen einer Eigenposition |
CN109269511B (zh) * | 2018-11-06 | 2020-01-07 | 北京理工大学 | 未知环境下行星着陆的曲线匹配视觉导航方法 |
CN109375647A (zh) * | 2018-11-20 | 2019-02-22 | 中国航空工业集团公司西安航空计算技术研究所 | 微型多源感知计算系统 |
CN109341686B (zh) * | 2018-12-04 | 2023-10-27 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法 |
CN109341685B (zh) * | 2018-12-04 | 2023-06-30 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法 |
FR3097045B1 (fr) * | 2019-06-06 | 2021-05-14 | Safran Electronics & Defense | Procédé et dispositif de recalage d’une centrale inertielle d’un moyen de transport à partir d’informations délivrées par un viseur du moyen de transport |
CN111912401B (zh) * | 2020-06-30 | 2021-08-03 | 成都飞机工业(集团)有限责任公司 | 一种面向飞机大部件调姿机构工作空间求解方法 |
CN113109852B (zh) * | 2021-03-11 | 2024-03-12 | 国网江西省电力有限公司电力科学研究院 | 一种无人机进狭窄空间的路径规划方法及装置 |
CN114266103B (zh) * | 2021-09-16 | 2023-05-19 | 中国空气动力研究与发展中心计算空气动力研究所 | 一种飞行器参数和噪声特性在线估计方法及存储介质 |
CN117191049A (zh) * | 2023-08-10 | 2023-12-08 | 北京航空航天大学 | 一种航空导航网络机载定位方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6157876A (en) * | 1999-10-12 | 2000-12-05 | Honeywell International Inc. | Method and apparatus for navigating an aircraft from an image of the runway |
EP1335258A1 (fr) * | 2002-01-25 | 2003-08-13 | Airbus France | Procédé de guidage d'un aéronef en phase finale d'atterrissage et dispositif correspondant |
US20050125142A1 (en) * | 2003-10-07 | 2005-06-09 | Akihiro Yamane | Navigation apparatus and navigation method with image recognition |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6405975B1 (en) * | 1995-12-19 | 2002-06-18 | The Boeing Company | Airplane ground maneuvering camera system |
US6028624A (en) * | 1997-12-11 | 2000-02-22 | The United States Of America As Represented By The Secretary Of The Army | Method and apparatus for increased visibility through fog and other aerosols |
FR2896071A1 (fr) * | 2006-01-11 | 2007-07-13 | Airbus France Sas | Procede et dispositif d'aide au pilotage d'un aeronef lors d'une approche autonome. |
FR2897840B1 (fr) * | 2006-02-27 | 2009-02-13 | Eurocopter France | Procede et dispositif de traitement et de visualisation d'informations de pilotage d'un aeronef |
FR2928021B1 (fr) * | 2008-02-25 | 2011-06-10 | Airbus France | Procede et dispositif de detection d'un aeronef environnant. |
US8284997B2 (en) * | 2009-03-11 | 2012-10-09 | Honeywell International Inc. | Vision-based vehicle navigation system and method |
US8406466B2 (en) * | 2009-12-14 | 2013-03-26 | Honeywell International Inc. | Converting aircraft enhanced vision system video to simulated real time video |
US20110282580A1 (en) * | 2010-05-11 | 2011-11-17 | Honeywell International Inc. | Method of image based navigation for precision guidance and landing |
FR2961897B1 (fr) * | 2010-06-25 | 2012-07-13 | Thales Sa | Filtre de navigation pour un systeme de navigation par correlation de terrain |
US8600589B2 (en) * | 2012-04-24 | 2013-12-03 | Exelis, Inc. | Point cloud visualization of acceptable helicopter landing zones based on 4D LIDAR |
CN104006790A (zh) * | 2013-02-21 | 2014-08-27 | 成都海存艾匹科技有限公司 | 基于视觉的飞机降落辅助装置 |
-
2014
- 2014-03-07 FR FR1451848A patent/FR3018383B1/fr active Active
-
2015
- 2015-03-04 US US14/637,554 patent/US9593963B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6157876A (en) * | 1999-10-12 | 2000-12-05 | Honeywell International Inc. | Method and apparatus for navigating an aircraft from an image of the runway |
EP1335258A1 (fr) * | 2002-01-25 | 2003-08-13 | Airbus France | Procédé de guidage d'un aéronef en phase finale d'atterrissage et dispositif correspondant |
US20050125142A1 (en) * | 2003-10-07 | 2005-06-09 | Akihiro Yamane | Navigation apparatus and navigation method with image recognition |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112051573A (zh) * | 2020-08-27 | 2020-12-08 | 北京航管科技有限公司 | 一种航迹处理方法及装置、存储介质 |
CN112051573B (zh) * | 2020-08-27 | 2024-06-11 | 民航空管技术装备发展有限公司 | 一种航迹处理方法及装置、存储介质 |
FR3139653A1 (fr) * | 2022-09-13 | 2024-03-15 | Safran Electronics & Defense | Procédé et dispositif de navigation pour un véhicule, système, véhicule, programme d'ordinateur et support d'informations associés |
WO2024056973A1 (fr) * | 2022-09-13 | 2024-03-21 | Safran Electronics & Defense | Procede et dispositif de navigation pour un vehicule, systeme, vehicule, programme d'ordinateur et support d'informations associes |
Also Published As
Publication number | Publication date |
---|---|
FR3018383B1 (fr) | 2017-09-08 |
US20150253150A1 (en) | 2015-09-10 |
US9593963B2 (en) | 2017-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3018383A1 (fr) | Procede et dispositif de determination de parametres de navigation d'un aeronef lors d'une phase d'atterrissage. | |
EP2353024B1 (fr) | Procede de geo-localisation d'un objet par multitelemetrie | |
EP2513668B1 (fr) | Procede de geo-referencement d'une zone imagee | |
Garratt et al. | Integration of GPS/INS/vision sensors to navigate unmanned aerial vehicles | |
US10935381B2 (en) | Star tracker-aided airborne or spacecraft terrestrial landmark navigation system | |
Schwarz et al. | Mobile mapping systems–state of the art and future trends | |
EP3472557B1 (fr) | Procede d'estimation d'une direction d'orientation absolue d'un systeme optronique | |
CN106767787A (zh) | 一种紧耦合gnss/ins组合导航装置 | |
WO2018052554A1 (fr) | Système de navigation à points de repère terrestres, aéroporté ou spatial, assisté par un suiveur stellaire | |
Hsu et al. | Hong Kong UrbanNav: An open-source multisensory dataset for benchmarking urban navigation algorithms | |
Mostafa et al. | GPS/IMU products–the Applanix approach | |
US9383210B2 (en) | Image navigation and registration (INR) transfer from exquisite systems to hosted space payloads | |
CN115523920B (zh) | 一种基于视觉惯性gnss紧耦合的无缝定位方法 | |
FR3064350A1 (fr) | Procede de calcul d'une vitesse d'un aeronef, procede de calcul d'un rayon de protection, systeme de positionnement et aeronef associes | |
Amami | The Advantages and Limitations of Low-Cost Single Frequency GPS/MEMS-Based INS Integration | |
Schwarz et al. | Digital mobile mapping systems–state of the art and future trends | |
Wierzbicki et al. | Determining the elements of exterior orientation in aerial triangulation processing using UAV technology | |
Hutton et al. | 10 years of direct georeferencing for airborne photogrammetry | |
FR2950702A1 (fr) | Procede et dispositif de localisation dynamique d'un mobile | |
Petrovska et al. | Aircraft precision landing using integrated GPS/INS system | |
Elsayed et al. | From Stationary to Mobile: Unleashing the Full Potential of Terrestrial LiDAR through Sensor Integration | |
Pu et al. | Astronomical vessel heading determination based on simultaneously imaging the moon and the horizon | |
FR3071624B1 (fr) | Systeme d'affichage, procede d'affichage et programme d'ordinateur associes | |
Vezinet et al. | Video integration in a GNSS/INS hybridization architecture for approach and landing | |
Vezinet | Study of Future On-board GNSS/INS Hybridization Architectures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |
|
PLFP | Fee payment |
Year of fee payment: 10 |
|
PLFP | Fee payment |
Year of fee payment: 11 |