[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

FR2985588A1 - Procede de localisation d'un mobile en milieu construit - Google Patents

Procede de localisation d'un mobile en milieu construit Download PDF

Info

Publication number
FR2985588A1
FR2985588A1 FR1200071A FR1200071A FR2985588A1 FR 2985588 A1 FR2985588 A1 FR 2985588A1 FR 1200071 A FR1200071 A FR 1200071A FR 1200071 A FR1200071 A FR 1200071A FR 2985588 A1 FR2985588 A1 FR 2985588A1
Authority
FR
France
Prior art keywords
mobile
vertical
image sensor
image
horizontal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1200071A
Other languages
English (en)
Other versions
FR2985588B1 (fr
Inventor
Jean Paul Sicard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR1200071A priority Critical patent/FR2985588B1/fr
Publication of FR2985588A1 publication Critical patent/FR2985588A1/fr
Application granted granted Critical
Publication of FR2985588B1 publication Critical patent/FR2985588B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

La présente invention concerne un procédé permettant de localiser un mobile, en particulier un piéton, se déplaçant dans un milieu construit tel qu'une zone urbaine de forte densité, l'intérieur de bâtiments ou une galerie souterraine, dans lequel la réception des signaux des systèmes de navigation par satellite est perturbée. Le procédé détermine d'abord l'attitude (15) d'un terminal porté par le mobile, au moyen de la fusion entre les mesures d'attitude issues d'un bloc de mesure inertielle (8) et les mesures d'angle déduites des contours rectilignes (11) extraits des images successivement produites par un capteur d'images (7). La trajectoire du mobile (18) et la position d'arêtes verticales (19) visibles dans le milieu sont ensuite déterminées à l'aide des contours rectilignes verticaux (13), puis les arêtes verticales (19) sont regroupées en alignements (21) dont l'orientation est comparée avec la direction de points de fuite horizontaux (16). Enfin les alignements d'arêtes verticales (21) sont comparés entre eux afin de détecter des situations de fermeture de boucle.

Description

Domaine technique La présente invention concerne un procédé et un système permettant à un mobile, notamment un piéton, d'être localisé lors de ses déplacements dans un milieu construit tel qu'une zone urbaine de forte densité, l'intérieur de bâtiments ou une galerie souterraine, dans lequel la réception des signaux émis par les satellites des systèmes de navigation tels que GPS (Global Positioning System) ou Galileo est perturbée voire impossible.
Etat de la technique antérieure La banalisation de l'utilisation des systèmes de navigation par satellites tels que GPS (Global Positioning System) ou autres (Galileo, Glonass, Compass, ...), destinés à des utilisations à ciel ouvert, a nourri une demande croissante de localisation en milieu construit, notamment pour des piétons. Cette demande concerne des catégories d'utilisateurs variées, allant du grand public aux professionnels de la sécurité. L'utilisateur peut être le mobile lui-même, dans le cas d'applications de navigation ou de guidage, ou bien un utilisateur distant, dans le cas d'applications de suivi de mobile. Dans un tel environnement, les éléments de construction perturbent la réception des signaux émis par les satellites des systèmes de navigation par des phénomènes de masquage ou d'atténuation, de réflexion et de diffraction. Ceci conduit à des erreurs de positionnement importantes, voire une incapacité totale de réception desdits signaux. En outre, plus l'environnement construit est dense, plus la réception desdits signaux est difficile, et plus le besoin de précision et de fiabilité de positionnement est élevé.
Enfin, le besoin de localisation ne se réduit pas au seul problème de positionnement. Il est également essentiel de déterminer l'orientation du mobile, afin de pouvoir le guider ou de prédire son déplacement. De même, une information de position offre peu d'intérêt en l'absence d'une carte ou d'une description de l'environnement dans lequel évolue le mobile. Une information de position relative, par rapport à une carte de l'environnement, peut ainsi se révéler beaucoup plus utile qu'une information de position absolue plus précise mais sans carte.
Depuis plusieurs années, d'importants efforts sont entrepris pour tenter de répondre à ce besoin. Outre les méthodes de type AGPS (Assisted-GPS), qui permettent d'améliorer le fonctionnement des récepteurs de navigation par satellites à l'aide des réseaux cellulaires, de nombreuses autres solutions ont été développées. Nombre d'entre elles s'appuient sur l'utilisation d'une infrastructure existante de radiocommunications telle que des bornes WiFi par exemple, ainsi que l'illustre le document FR 2945176. Cette approche présente d'importantes limitations de couverture géographique, de précision de positionnement et de disponibilité. D'autres méthodes s'appuient sur le déploiement d'une infrastructure dédiée à la localisation, telle que celle décrite dans le document FR 2951832, ou bien sur la disponibilité d'une cartographie préalable de l'environnement, ce qui en limite l'usage à quelques lieux précis, et soulève des contraintes de coût de mise en oeuvre et de maintenance. Pour des applications de défense et de sécurité, l'utilisation d'une infrastructure dédiée introduit en outre des contraintes de délai de déploiement et de discrétion. Une autre catégorie de solutions dites autonomes, permet à un mobile de se localiser à l'aide d'un terminal portable muni de capteurs, indépendamment de toute infrastructure. Ces solutions exploitent des capteurs proprioceptifs tels que capteurs inertiels (accéléromètres et gyromètres), baromètres, magnétomètres, des capteurs optiques ou acoustiques, ou encore des dispositifs électromagnétiques de mesure de distance. Les mobiles concernés par la localisation en milieu construit sont essentiellement des piétons, des objets transportés par des piétons, ou des véhicules roulants tels que des automobiles ou des robots mobiles. Ces mobiles imposent des contraintes de taille, de consommation électrique et de coût dans le choix des capteurs, qui limitent les performances de positionnement accessibles. Au sein de cette catégorie de solutions autonomes, deux approches ont été particulièrement développées ces dernières années, l'une pour les piétons, l'autre en robotique mobile. Pour les piétons, la navigation inertielle classique se révélant inadaptée compte tenu des faibles performances des capteurs utilisables et de la complexité de la dynamique de la marche, une méthode de navigation classique dite à l'estime est généralement proposée, consistant à accumuler au cours du temps le déplacement effectué à chaque enjambée. La fréquence des enjambées est estimée au moyen d'un podomètre, et la distance parcourue entre deux pas est déduite de la relation entre fréquence et longueur des enjambées, qui est stable pour un individu donné. La direction du déplacement de chaque enjambée est obtenue au moyen de capteurs de direction, ou par l'analyse des mesures de l'accélération dans un plan horizontal. Une solution de ce type est décrite dans le document WO 091113. Selon certains fournisseurs de produits mettant en oeuvre ce type de solution, la distance parcourue par un piéton peut être estimée avec une précision atteignant 1%, sous conditions de calibration préalable du modèle de pas et de marche régulière. Le défaut principal de la navigation à l'estime ci-dessus est la dégradation progressive et sans limite de la précision de positionnement, en raison de l'accumulation des erreurs. Il est connu un moyen d'amélioration, selon par exemple le document FR 2945864, obtenu en plaçant des capteurs inertiels dans le talon de la chaussure du piéton. Selon ce procédé il est possible de détecter le bref moment pendant lequel le talon reste fixé au sol, et de limiter ainsi la dérive de l'erreur de vitesse. Cette technique, connue en navigation inertielle sous le nom de ZUPT (Zero velocity UPdaTe), revient en quelque sorte à effectuer une navigation inertielle sur la durée d'une enjambée uniquement. Une solution voisine consiste à mesurer la distance séparant les chaussures droite et gauche, au moyen de capteurs placés dans chaque chaussure. Outre la distance, la direction du mouvement peut ainsi être estimée, ainsi que l'illustre le document US 0326795. Le placement des capteurs dans la chaussure introduit cependant une contrainte opérationnelle forte, qui exclut de nombreux cas d'utilisation. En outre, le facteur d'erreur principal des techniques de navigation à l'estime évoquées ci-dessus est non pas l'erreur de mesure de distance à chaque enjambée mais l'incertitude sur la direction du mouvement, qui dépend à la fois de la qualité des capteurs de direction utilisés et de l'incertitude sur le mésalignement entre l'axe sensible desdits capteurs et la direction du déplacement. Afin de limiter la dérive de l'erreur de mesure de direction du mouvement, on utilise en général une référence de cap au moyen de magnétomètres permettant de déterminer l'orientation du Nord magnétique. Malheureusement, dans les milieux construits, de nombreuses anomalies du champ magnétique terrestre sont produites par les éléments de construction. Malgré les méthodes développées pour détecter et atténuer l'effet de ces anomalies magnétiques, les erreurs résiduelles d'orientation peuvent être considérables. Enfin, de même que les solutions basées sur l'utilisation d'une infrastructure, les méthodes de localisation ci-dessus ne répondent pas au besoin de description de l'environnement. En robotique mobile, le besoin de perception de l'environnement est essentiel. Il est connu une approche nommée SLAM (Simultaneous Localization And Mapping), permettant à la fois d'estimer la trajectoire d'un mobile équipé de capteurs et de cartographier le milieu dans lequel se déplace ledit mobile, de manière récurrente, c'est-à-dire au fur et à mesure du déplacement dudit mobile. L'approche SLAM est générale et prend en compte de nombreux types de mesures. Dans une variante nommée SLAM visuel, décrite notamment dans le document WO 059900, le capteur principal est un capteur optique produisant une séquence d'images desquelles sont extraits des éléments caractéristiques, fixes dans l'environnement et mis en correspondance entre images successives. Les éléments caractéristiques recherchés dans les images sont généralement des éléments ponctuels, tels que des coins, ou des zones limitées autour d'un point d'intérêt. Les éléments caractéristiques ponctuels ne coïncidant généralement pas avec des éléments significatifs de la géométrie de l'environnement, la cartographie de ces éléments caractéristiques est généralement sans intérêt pour un utilisateur humain. Il est également connu une mise en oeuvre de cette variante utilisant comme éléments caractéristiques des lignes, tel que proposé par Ethan Eade et Tom Drummond dans l'article « Edge Landmarks in Monocular SLAM », publié en Avril 2009 dans le journal « Image and Vision Computing », volume 27, numéro 5. De tels éléments caractéristiques sont davantage porteurs d'information utile pour l'utilisateur humain. En revanche la sélection des lignes et leur mise en correspondance entre deux images successives est plus difficile à établir, cette dernière faiblesse étant particulièrement critique en raison de la sensibilité de l'approche SLAM visuel aux erreurs de mise en correspondance des éléments caractéristiques entre images successives. L'approche SLAM visuel ci-dessus, développée pour des robots mobiles, est en principe transposable au cas d'un piéton. Cette extension se heurte cependant à d'importantes difficultés dues notamment à la complexité de la cinématique pédestre et son caractère peu prédictible. Il est également connu du document WO 033100 une méthode de cartographie de type SLAM qui exploite les mesures odométriques telles que celles obtenues à partir de capteurs attachés aux chaussures d'un piéton. La carte établie n'est cependant pas une description de l'environnement à proprement parler, mais une trace des déplacements du piéton. En outre, cette méthode ne paraît pas offrir de garantie de convergence en l'absence de fermeture de boucle. Dans un milieu construit les déplacements horizontaux et verticaux des mobiles sont fortement découplés. La majorité des déplacements se déroule dans un plan horizontal ou proche de l'horizontale. Les déplacements verticaux correspondent le plus souvent à des transitions rapides d'un plan à un autre, tel qu'un changement d'étage. Ainsi, le déplacement d'un mobile peut être décrit comme un enchaînement de déplacements verticaux ou horizontaux. Toutefois il est connu que les changements de niveau dans un plan vertical sont aisément déterminés à l'aide de mesures barométriques, de sorte que la problématique principale de localisation en milieu construit se réduit à la détermination des déplacements horizontaux. Enfin, il est connu des méthodes d'identification de points de fuite à partir des images produites par un capteur d'images, permettant de déterminer l'orientation d'un véhicule portant ledit capteur d'images par rapport à la direction dudit point de fuite. Ces méthodes sont notamment employées pour le guidage de robots mobiles ou la navigation automobile. Le document US 0097455 décrit un exemple d'utilisation de méthodes de ce type.
Exposé de l'invention Un but de l'invention est de répondre au besoin de navigation ou de suivi d'un mobile se déplaçant dans un milieu construit avec des moyens autonomes ne nécessitant ni infrastructure ni cartographie préalable dudit milieu, en remédiant à certains défauts des solutions citées plus haut. En particulier, la présente invention s'applique à un piéton se déplaçant à l'intérieur d'un bâtiment. Un autre but est de fournir une description du milieu dans lequel évolue le mobile en offrant une perception des contraintes physiques de déplacement. A cet effet le premier objet de l'invention est un procédé permettant de déterminer l'orientation et la localisation dans un plan horizontal d'un terminal porté par un mobile évoluant dans un milieu construit, ainsi qu'un plan de parois verticales planes visibles depuis la trajectoire dudit mobile. Dans la suite de ce document, on entend par arête un élément fixe dans l'environnement produisant une ligne droite de contraste d'intensité lumineuse dans une image dudit environnement. Une arête peut être notamment une arête physique entre deux faces d'un élément de structure ou de mobilier, ou la frontière entre les projections dans le plan image de deux éléments physiques, ou encore le bord de l'ombre d'un élément physique.
On désigne également par attitude d'un capteur l'orientation d'un repère orthogonal tridimensionnel lié audit capteur par rapport à un repère orthogonal tridimensionnel de référence, fixe par rapport à la terre et comprenant un axe vertical et un axe orienté vers le Nord géographique. Enfin on qualifie de mesure de position absolue une mesure de la position d'un mobile dans un référentiel fixe par rapport à la terre, obtenue au moyen d'un capteur tel que notamment un récepteur de navigation par satellite, ou un dispositif de triangulation à partir de signaux de télécommunications terrestres. Le procédé conforme à l'invention comporte des étapes: - d'extraction d'un ensemble de contours rectilignes dans chacune des images successivement produites par un capteur d'images monoculaire porté par ledit mobile; - de classification de chacun desdits ensembles successifs de contours rectilignes en sous-ensembles permettant d'identifier au moins un point de fuite horizontal possible et des contours rectilignes verticaux; d'estimation de l'attitude dudit capteur d'images et de détection d'au moins un point de fuite horizontal au moyen de la fusion entre d'une part des mesures d'angle dites optiques déduites de l'orientation des contours rectilignes verticaux dans le plan image et de l'orientation d'au moins un point de fuite horizontal possible et d'autre part des mesures dites inertielles de l'attitude dudit capteur d'images obtenues à partir des signaux produits par un bloc de mesure inertielle rigidement lié audit capteur d'images ; - d'estimation, dans un plan horizontal, à partir d'une position initiale connue, de la trajectoire dudit mobile et de la position d'arêtes verticales visibles dans ledit milieu construit, au moyen de la mise en correspondance desdits contours rectilignes verticaux entre images successives, et de la fusion des mesures d'attitude successives obtenues à l'étape précédente, de mesures odométriques fournies par des capteurs proprioceptifs portés par ledit mobile, et de l'orientation desdits contours rectilignes verticaux dans les plans image successifs, ladite estimation pouvant être entachée d'erreurs; - d'estimation desdites erreurs et d'un plan de parois verticales planes visibles depuis la trajectoire dudit mobile, au moyen de l'identification de groupes d'arêtes verticales alignées et de la comparaison de l'alignement desdits groupes avec la direction d'au moins un point de fuite horizontal. De préférence, ledit bloc de mesure inertielle comprend trois gyromètres disposés selon des axes orthogonaux et trois accéléromètres également disposés selon lesdits axes, lesdits accéléromètres permettant de mesurer l'orientation dudit capteur d'images par rapport à la verticale. Selon une variante du procédé, applicable notamment lorsque le mobile est un véhicule roulant, l'orientation dudit capteur d'images par rapport à la verticale étant connue et stable, ledit bloc de mesure inertielle est avantageusement réduit à un seul gyromètre, l'axe sensible dudit gyromètre étant maintenu selon une direction proche de la verticale. Selon une variante du procédé, lorsque ledit mobile est un piéton, lesdites mesures odométriques sont élaborées à partir des signaux produits par les accéléromètres dudit bloc de mesure inertielle, au moyen du comptage des pas et d'un modèle de relation entre fréquence des pas, longueur des enjambées et amplitude des variations des signaux desdits accéléromètres. Selon une caractéristique de l'invention, ladite étape d'estimation de l'attitude dudit capteur d'images et de détection d'au moins un point de fuite horizontal fournit en outre une estimation des facteurs d'erreur d'au moins un gyromètre du bloc de mesure inertielle. Lesdits facteurs d'erreur variant très lentement, l'invention offre ainsi l'avantage de prédire la valeur desdits facteurs d'erreur et de maintenir une estimation d'attitude dudit capteur d'images lorsque ce dernier est temporairement dans l'incapacité de produire des mesures valides. Cette caractéristique de l'invention offre aussi l'avantage de réduire les exigences de performance, donc de coût, sur lesdits gyromètres, en particulier parce qu'elle permet de tolérer des biais de mesure gyrométrique plus importants. Selon une variante de l'invention, lesdites directions d'au moins deux points de fuite horizontaux détectés sont mises en correspondance avec des directions probables de points de fuite horizontaux obtenues à partir d'une vue du milieu dans lequel évolue le mobile, ladite vue pouvant notamment être extraite d'une image aérienne ou satellitaire faisant apparaître des parois verticales planes. Ladite mise en correspondance permet de réduire l'incertitude sur l'attitude dudit capteur d'images, notamment sur l'orientation par rapport au Nord géographique. Selon une autre caractéristique du procédé, la mise en correspondance desdits contours rectilignes verticaux entre images successives est réalisée à l'aide de la constitution de groupes de contours rectilignes verticaux proches dans une image et de la corrélation entre au moins un groupe de contours rectilignes verticaux ainsi constitué dans une image et les contours rectilignes verticaux dans une autre image.
Selon une autre variante, le procédé comprend en outre une étape de détection de fermeture de boucle au moyen de la comparaison d'au moins un groupe de parois verticales planes avec des parois verticales planes identifiées antérieurement audit groupe. Un autre objet de l'invention est un système de localisation d'un mobile évoluant en milieu construit mettant en oeuvre le procédé ci-dessus, ledit système comprenant : - un terminal porté par ledit mobile comprenant : - un capteur d'images monoculaire, un bloc de mesure inertielle rigidement lié audit capteur d'images et comprenant trois gyromètres disposés selon des axes orthogonaux et trois accéléromètres également disposés selon lesdits axes, - un premier moyen de calcul apte à recevoir les données produites par ledit capteur d'images et ledit bloc de mesure inertielle, un moyen d'interface homme-machine comprenant un écran d'affichage et un dispositif d'acquisition de données introduites par l'utilisateur ; - un second moyen de calcul relié audit moyen d'interface homme machine ; - un moyen de communication radioélectrique ou filaire reliant ledit premier moyen de calcul et ledit second moyen de calcul ; un moyen de mesure odométrique porté par ledit mobile et relié à l'un desdits moyens de calcul ; - un capteur de position absolue porté par ledit mobile et relié à l'un desdits moyens de calcul ; caractérisé en ce que lesdits moyens de calcul exécutent conjointement un programme informatique déterminant l'orientation et la localisation dudit terminal, par rapport à une position initiale connue, dans un plan horizontal et un plan de parois verticales visibles depuis la trajectoire dudit mobile.
Selon une variante, le système comprend en outre un moyen d'interface avec une base de données géographiques et un moyen de détermination, à partir desdites données géographiques, de directions probables de points de fuite horizontaux. Selon une autre variante du système, ledit bloc de mesure inertielle ne comprend qu'un seul gyromètre, disposé de manière telle que son orientation est maintenue proche de la verticale. Selon encore une autre variante, le moyen de mesure odométrique est constitué d'un programme informatique de podométrie exécuté par ledit premier moyen de calcul, à partir des signaux produits par les trois accéléromètres dudit bloc de mesure inertielle.
Brève présentation des figures La présente invention, ainsi que les avantages qu'elle procure, seront mieux appréciés à la lecture de la description détaillée suivante qui expose des formes de réalisation préférées et qui est faite en référence aux dessins annexés parmi lesquels : la figure 1 illustre schématiquement l'enchaînement des étapes de traitement des données selon le procédé ; - la figure 2 est un bloc-diagramme simplifié décrivant un système de mise en oeuvre dudit procédé ; Il est entendu que les formes de réalisation décrites ci-dessous ne sont nullement limitatives, et que pour l'homme de l'art il existe de nombreuses formes alternatives de réalisation susceptibles de faire varier les performances et/ou le coût de réalisation.
En outre, il est entendu que le procédé objet de l'invention peut être mis en oeuvre conjointement avec d'autres procédés de positionnement d'un mobile évoluant dans un milieu construit, notamment avec des moyens de positionnement basés sur l'utilisation d'une infrastructure radioélectrique.
Exposé des modes de réalisation particuliers Le procédé objet de l'invention permet de localiser un mobile évoluant dans un milieu construit, muni d'un terminal comprenant un capteur d'images 7 et un bloc de mesure inertielle 8.
Le capteur d'images 7 considéré est préférentiellement une caméra vidéo monoculaire. Il peut alternativement s'agir d'un autre type de capteur d'images monoculaire tel que notamment une caméra thermique. Le capteur d'images 7 est préalablement calibré afin de limiter les erreurs affectant la conversion des positions de points dans le plan image, exprimées en pixels, en mesures d'angle par rapport à l'axe optique du capteur d'images 7. Un repère orthogonal tridimensionnel est lié au capteur d'images, l'un des axes coïncidant avec ledit axe optique et les deux autres axes définissant le plan image. Selon un mode particulier de réalisation l'attitude du capteur d'images 7 est décrite par des angles de cap, de gite et d'assiette conformes aux définitions communes en navigation maritime ou aérienne, l'axe optique du capteur d'images 7 constituant l'axe longitudinal de référence. Dans la suite de ce document on utilise également les angles de gisement (respectivement d'azimut) pour décrire la projection, sur un plan horizontal, de l'angle entre la direction d'un point extérieur et l'axe optique du capteur d'images 7 (respectivement la direction du Nord géographique).
Le bloc de mesure inertielle 8, rigidement lié au capteur d'images 7, est constitué préférentiellement de trois gyromètres disposés selon trois axes orthogonaux et trois accéléromètres disposés selon lesdits axes, l'orientation desdits axes par rapport au repère orthogonal tridimensionnel lié au capteur d'images étant connue et constante. Selon une variante de l'invention, le bloc de mesure inertielle 8 est constitué d'un seul gyromètre dont l'axe sensible est maintenu selon une direction proche de la verticale. La position du mobile est assimilée à la position du capteur d'images 7. Le procédé de localisation objet de l'invention est constitué de plusieurs étapes dont l'enchainement est illustré par la Figure 1 annexée et qui sont détaillées ci-30 après. - L'étape 1 consiste à extraire les contours rectilignes 11 de chacune des images successivement produites par le capteur d'images 7. Cette étape est réalisée selon l'une quelconque des diverses méthodes connues à cet effet. - L'étape 2 consiste à classifier les contours rectilignes 11 en groupes correspondant soit à un point de fuite horizontal possible, soit à un point de fuite vertical. A cette fin, il est nécessaire de connaître l'orientation du capteur d'images 7 par rapport à la verticale avec une précision suffisante pour éviter l'ambiguïté entre les directions horizontales et verticale. Cette condition est satisfaite soit par construction, lorsque le mobile est un véhicule roulant ou un piéton assurant le maintien de l'axe optique du capteur d'images 7 dans une direction qui s'écarte de l'horizontale au plus d'un angle connu, soit au moyen de la prédiction de l'attitude du capteur d'images 7 à partir des mesures d'attitude 15 estimées à l'étape 3. Il existe une variété de méthodes connues permettant d'identifier des points de fuite à partir de contours rectilignes 11. Selon un mode de réalisation particulier, les points de fuite horizontaux possibles 12 sont d'abord recherchés, dans le plan image, à l'aide de l'algorithme RANSAC (RANdom Sampling And Consensus), suivi d'une phase d'ajustement utilisant l'algorithme EM (Expectation Maximization). Les contours rectilignes verticaux 13 sont ensuite sélectionnés parmi les contours rectilignes 11 ne correspondant pas à un point de fuite horizontal possible 12 et déterminant un point de fuite vertical possible.
Chaque groupe de contours rectilignes, correspondant à un point de fuite possible horizontal 12 ou vertical 13, est soumis à un test de validation portant sur des valeurs minimales prédéfinies du nombre de contours rectilignes du groupe et de leur écartement dans le plan image. - L'étape 3 consiste en l'estimation de l'attitude du capteur d'images 7 et la détection d'au moins un point de fuite horizontal, au moyen de la fusion des mesures d'angles optiques et des mesures d'attitude inertielles, lesdites mesures d'angle optiques étant utilisées pour corriger les erreurs affectant lesdites mesures d'attitude inertielles. Des mesures d'attitude inertielles, constituées de valeurs des angles de cap, de gite et d'assiette du capteur d'images 7, sont élaborées par l'intégration, à partir d'une valeur d'attitude initiale du capteur d'images 7, des signaux produits par les gyromètres du bloc de mesure inertielle 8. D'autres mesures d'attitude inertielles d'angles d'assiette et de gite sont élaborées à partir des valeurs moyennes des signaux produits par les accéléromètres du bloc de mesure inertielle 8, au moyen d'un algorithme dit de nivellement, mieux connu sous le terme anglais levelling. Lesdites mesures d'attitude inertielles sont ensuite corrigées du mésalignement, prédéterminé, entre les axes des capteurs du bloc de mesure inertielle 8 et le repère orthogonal tridimensionnel lié au capteur d'images 7, puis interpolées temporellement pour correspondre aux instants d'échantillonnage du capteur d'images 7. Ladite valeur d'attitude initiale peut être définie par l'utilisateur, ou bien déduite de mesures successives d'un capteur de position absolue, et peut être entachée d'erreurs, notamment l'angle de cap du capteur d'images 7. A intervalles de temps irréguliers, ladite attitude initiale est mise à jour et remplacée par la valeur courante de l'attitude estimée 15, l'intégration desdits signaux des gyromètres du bloc de mesure inertielle 8 étant alors réinitialisée. Des mesures d'angle optiques sont élaborées à partir des groupes de contours rectilignes verticaux 13, chaque groupe de contours rectilignes verticaux 13 permettant d'obtenir une mesure des angles de gite et d'assiette du capteur d'images 7. Lesdites mesures d'angle optiques pouvant parfois présenter des valeurs aberrantes, un mécanisme de filtrage des données est mis en place, consistant en un seuillage des différences entre lesdites mesures d'angle optiques et inertielles, le niveau de seuil étant déterminé à partir de la valeur moyenne desdites différences. Les points de fuite horizontaux possibles 12 identifiés à l'étape 2 ne sont pas tous véritables. La détection des véritables points de fuite horizontaux est effectuée en exploitant la propriété d'invariance de leur direction le long de la trajectoire du mobile. A cet effet, les points de fuite horizontaux possibles 12 sont associés entre images successives, selon un critère de proximité de leur position dans le plan image, et après compensation des variations d'attitude entre images successives au moyen desdites mesures d'attitude inertielles. Les associations successives forment une séquence de points de fuite horizontaux possibles 12. Lorsqu'une dite séquence de points de fuite horizontaux possibles 12 atteint une durée prédéfinie, un point de fuite horizontal est détecté 16. Les positions successives dudit point de fuite horizontal dans le plan image de chaque image de ladite séquence portent une information sur l'attitude du capteur d'images 7 et l'orientation dudit point de fuite horizontal. Un point de fuite horizontal détecté 16 est caractérisé par sa période d'observation, entre les instants de début et de fin de ladite séquence de points de fuite horizontaux possibles 12, et sa direction définie par l'angle d'azimut. La fusion entre lesdites mesures d'attitude inertielles et lesdites mesures d'angle optiques valides est ensuite réalisée en estimant conjointement les paramètres d'un modèle d'erreur desdites mesures inertielles et la direction de chacun des points de fuite horizontaux détectés 16. Selon un mode de réalisation préféré, cette opération est effectuée au moyen d'un filtre de type Kalman dont le vecteur d'état comprend les paramètres d'un modèle d'erreur des mesures inertielles et l'azimut de chacun des points de fuite horizontaux détectés 16 et dont le vecteur de mesure comprend les différences entre lesdites mesures d'attitude inertielles et les mesures d'angle optiques ainsi que les positions dans les plans image successifs des points de fuite horizontaux possibles 12 associés à chacun des points de fuite horizontaux détectés 16. A l'issue de cette fusion, lesdites mesures d'attitude inertielles sont corrigées des erreurs estimées par ledit filtre pour former une estimation de l'attitude 15 du capteur d'images 7.
A intervalles de temps irréguliers, lorsque la covariance desdits paramètres du modèle d'erreur des mesures inertielles estimés par ledit filtre est inférieure à un seuil prédéfini, ledit filtre est réinitialisé, et ladite valeur d'attitude initiale du capteur d'images 7 est fixée à la valeur courante de l'attitude estimée 15.
Selon une variante du procédé, une amélioration est apportée à l'estimation de l'attitude 15 du capteur d'images 7, par la mise en correspondance des valeurs d'azimut d'au moins deux points de fuite horizontaux détectés 16 avec des directions horizontales probables prédéterminées de points de fuite horizontaux. Lesdites directions horizontales probables sont extraites d'une vue 14 du milieu dans lequel évolue le mobile provenant d'une base de données géographiques 9 pouvant être notamment constituée d'images aériennes ou satellitaires faisant apparaître des parois verticales planes présentes dans ledit milieu. Ladite mise en correspondance se justifie par le fait que dans un milieu construit, notamment à l'intérieur de bâtiments, les directions de points de fuite horizontaux sont le plus souvent parallèles ou perpendiculaires aux façades desdits bâtiments. Chaque paroi verticale plane extraite de la vue 14 permet donc de définir quatre directions horizontales probables perpendiculaires. L'extraction desdites directions horizontales probables est effectuée autour de la position géographique du mobile, au moyen d'un logiciel pouvant opérer soit de façon automatique, à partir d'une mesure de position absolue dudit mobile, soit sous le contrôle de l'utilisateur du procédé. Chacune des valeurs d'azimut de points de fuite horizontaux détectés 16 peut être mise en correspondance avec au plus l'une desdites directions horizontales probables, la différence angulaire entre ladite valeur d'azimut et ladite direction horizontale probable correspondante produisant une mesure de l'erreur résiduelle de l'angle de cap décrit par l'attitude 15 du capteur d'images 7, ladite mesure étant prise en compte par ledit filtre. La multiplicité des mises en correspondance possibles produit plusieurs hypothèses de mise en correspondance de l'ensemble des azimuts de points de fuite horizontaux 16, ledit filtre étant alors dupliqué en autant de copies que d'hypothèses. La probabilité de chaque hypothèse est calculée, et les hypothèses les moins probables sont abandonnées. - L'étape 4 consiste à estimer, dans un plan horizontal, la trajectoire 18 dudit mobile, constituée de l'ensemble de ses positions successives, et la position d'arêtes verticales 19 visibles depuis ledit mobile, définies à partir d'une position initiale du mobile pouvant être soit introduite par l'utilisateur, soit acquise automatiquement au moyen d'un capteur de position absolue.
Selon un mode de réalisation particulier, la trajectoire 18 et les positions d'arêtes verticales 18 sont estimées de manière consécutive. La trajectoire 18 dans le plan horizontal est d'abord estimée en combinant les valeurs estimées d'attitude 15 du capteur d'images 7 et les mesures d'incrément de distance 17 produites par un moyen de mesure odométrique 10 utilisant des capteurs proprioceptifs portés par ledit mobile. La trajectoire 18 est calculée par la méthode dite d'estime, consistant à accumuler les vecteurs de déplacement élémentaires successifs, le module de chaque vecteur de déplacement élémentaire étant égal à un incrément de distance 17 mesuré par le moyen de mesure odométrique 10, et la direction dudit vecteur étant égale à la valeur de l'attitude 15 du capteur d'images 7, moyennée depuis l'instant d'échantillonnage précédent du moyen de mesure odométrique 10, et corrigée d'un angle de mésalignement 20 dans un plan horizontal entre l'axe optique et la direction de déplacement du capteur d'image 7. L'angle de mésalignement 20 est initialisé à une valeur prédéfinie, puis mis à jour à intervalles irréguliers à l'étape 5. Selon une variante du procédé, lorsque le mobile est un piéton, le moyen de mesure odométrique est remplacé par un algorithme de podométrie utilisant les mesures issues des accéléromètres du bloc de mesure inertielle 8, les incréments de distance 17 entre chaque pas étant alors déterminés en utilisant la relation de proportionnalité connue entre fréquence et longueur des enjambées. Les positions d'arêtes verticales 19 sont ensuite estimées à partir de la trajectoire estimée 18 et au moyen de la mise en correspondance des contours rectilignes verticaux 13 issus d'images successives. Afin de permettre la comparaison des contours rectilignes verticaux 13 issus d'une paire d'images consécutives, les contours rectilignes verticaux 13 de la première image sont d'abord projetés dans le plan image de la seconde image, en compensant les variations d'attitude 15 du capteur d'images 7 entre lesdites images. Chaque contour rectiligne vertical 13 est alors caractérisé par un ensemble de descripteurs comprenant sa longueur en pixels, la valeur moyenne du gradient d'intensité des pixels qui le constituent, et la position de son point milieu dans le plan image de la seconde image. La mise en correspondance est ensuite effectuée en trois phases successives décrites ci-après : La première phase de mise en correspondance consiste à identifier toutes les correspondances possibles entre chacun des contours rectilignes verticaux 13 issus de la première image et chacun des contours rectilignes verticaux 13 issus de la seconde image, au moyen de la similitude, selon des critères prédéfinis, desdits descripteurs de contours rectilignes verticaux 13. A l'issue de cette première phase de nombreuses ambiguïtés de correspondance apparaissent, chaque contour rectiligne vertical 13 issu de la première image pouvant avoir de multiples correspondances possibles avec des contours rectilignes verticaux 13 issus de la seconde image et réciproquement. La seconde phase de mise en correspondance résout en partie ces ambiguïtés, en recherchant la mise en correspondance de groupes de contours rectilignes verticaux 13. Les éléments de structure ou de mobilier verticaux, dans un milieu construit, donnent fréquemment lieu à la détection, par un capteur d'images, de plusieurs contours verticaux très proches constituant un groupe aisément identifiable et se répétant d'une image à la suivante. La constitution d'un groupe de contours verticaux 13, dit groupe de proximité, parmi les contours issus de la première image, est établie selon un critère prédéfini de proximité des positions des points milieu des contours rectilignes verticaux 13. Une fois un groupe de proximité constitué dans la première image, il s'agit de rechercher, parmi l'ensemble des correspondances possibles avec les éléments dudit groupe de proximité, les sous-ensembles de correspondances ne présentant pas d'ambiguïté de correspondance. Chacun des sous-ensembles de correspondances répondant à ce critère détermine un deuxième groupe parmi les contours rectilignes verticaux 13 issus de la seconde image, dit groupe de correspondance. La corrélation entre les contours rectilignes verticaux 13 dudit groupe de proximité et dudit groupe de correspondance associé fournit une indication de qualité de la mise en correspondance. Parmi tous les sous-ensembles de correspondances définis ci-dessus, celui qui permet de maximiser ladite corrélation est sélectionné. Toutes les autres correspondances possibles relatives audit groupe de proximité et audit groupe de correspondance sélectionné sont écartées, réduisant ainsi le nombre d'ambiguïtés de correspondance. - La troisième phase de mise en correspondance consiste à résoudre les ambiguïtés de correspondance résiduelles parmi lesdites correspondances possibles, en sélectionnant, pour chaque contour rectiligne vertical 13 issu de la première image n'appartenant pas à un groupe de proximité, la correspondance possible pour laquelle lesdits descripteurs présentent la plus grande similitude.
La mise en correspondance des contours rectilignes verticaux 13 décrite ci- dessus produit des séquences de contours rectilignes verticaux 13 associés deux à deux d'une image à la suivante, chaque séquence étant représentative d'une arête verticale. A chaque contour rectiligne vertical 13 est associée une mesure de gisement déduite de la position du point milieu du contour rectiligne vertical 13 dans le plan image et de l'attitude 15 du capteur d'images 7. Lorsqu'aucun contour rectiligne vertical 13 ne peut plus, faute de correspondance possible, être associé à une séquence de contours rectilignes verticaux 13 existante, et à condition que le nombre d'éléments de ladite séquence soit supérieur à un seuil prédéfini, la position 19 dans le plan horizontal de l'arête verticale représentée par ladite séquence de contours rectilignes verticaux 13 est estimée par un ajustement au sens des moindres carrés, au moyen de l'algorithme de Levenberg-Marquardt, à partir des mesures de gisement associées aux éléments de ladite séquence, des valeurs d'attitude 15 du capteur d'images 7, de mésalignement 20 et de la trajectoire 18. Un test sur la valeur de la covariance d'estimation de chaque position d'arête verticale 19, de niveau prédéfini, est appliqué afin d'éliminer les estimations les moins vraisemblables. - L'étape 5 consiste à exploiter la propriété des arêtes verticales d'être fréquemment alignées le long des directions des points de fuite horizontaux validés 16, en estimant les erreurs résiduelles de la trajectoire du mobile 18 et des positions des arêtes verticales 19. Selon un mode de réalisation particulier, les positions dans le plan horizontal des arêtes verticales 19 sont regroupées en segments de droite dont l'orientation est comparée à l'azimut d'au moins un point de fuite horizontal détecté 16. Le regroupement des positions d'arêtes verticales 19 est effectué selon un critère de proximité en distance, puis le segment de droite de meilleur ajustement est déterminé au moyen d'un algorithme de moindres carrés pondérés. Un test de validation portant sur la longueur dudit segment de droite et le résidu d'ajustement permet de sélectionner les groupes les plus vraisemblables. Lesdits groupes ainsi sélectionnés sont identifiés à des parois verticales planes 21. Chaque paroi verticale plane 21 est caractérisée par la position, la longueur et l'orientation du segment de droite associé, l'incertitude sur ladite orientation, et la période d'observation définie par le minimum et le maximum des instants d'observation de tous les contours rectilignes verticaux 13 associés aux arêtes verticales qui la constituent. Lorsqu'une paroi verticale plane 21 est déterminée, l'orientation du segment de droite associé est comparée à l'azimut d'au moins un point de fuite horizontal détecté 16 à une période concomitante, au moyen du rapport de l'angle entre lesdites directions et l'incertitude sur l'orientation de ladite paroi verticale plane 21. Lorsque ledit rapport est compris à l'intérieur d'une fourchette de valeurs prédéfinie, une procédure de correction de l'estimation de la trajectoire 18 du mobile et des positions des arêtes verticales 19 est entreprise, pour la période d'observation de ladite paroi verticale plane 21. Selon un mode de réalisation particulier, ladite procédure consiste d'abord à corriger l'angle de mésalignement 20, puis à reprendre les calculs de l'étape 5 à partir de l'instant de début de la période d'observation de ladite paroi verticale plane 21, la valeur corrigée de l'angle de mésalignement 20 étant déterminée de manière à annuler ledit écart entre les deux orientations. Une variante du procédé comprend en outre une étape 6 de détection de fermeture de boucle. Une fermeture de boucle est détectée lorsqu'un premier groupe de parois verticales planes 21, satisfaisant des critères prédéfinis de proximité et de recouvrement de leurs périodes d'observation, peut être mis en correspondance avec un second groupe de parois verticales planes 21, satisfaisant des critères identiques de proximité et de recouvrement de leurs périodes d'observation, mais dont les périodes d'observation sont antérieures à celles dudit premier groupe. Un test portant sur l'écart de trajectoire 18 entre lesdites périodes d'observation et la corrélation entre les deux groupes de parois verticales planes permet d'écarter les hypothèses de mise en correspondance les moins vraisemblables. Le procédé décrit ci-dessus est mis en oeuvre par le système illustré sur la figure 2, dans lequel ledit procédé est mis en oeuvre par un programme informatique distribué sur deux moyens de calcul 22 et 24 physiquement séparés et reliés par un moyen de communication filaire ou radioélectrique. Selon un mode de réalisation préféré, le système comprend : - un terminal porté par le mobile comprenant : - un capteur d'images monoculaire 7, - un bloc de mesure inertielle 8 rigidement lié au capteur d'images 7, comprenant trois gyromètres disposés selon trois axes orthogonaux et trois accéléromètres disposés selon lesdits axes, l'orientation desdits axes par rapport au repère orthogonal tridimensionnel lié au capteur d'images étant connue et constante, et un premier moyen de calcul 22 apte à recevoir les mesures produites par le capteur d'images 7 et le bloc de mesure inertielle 8, un moyen d'interface homme-machine 23 comprenant un écran d'affichage et un dispositif d'acquisition de données introduites par l'utilisateur ; - un second moyen de calcul 24 relié au premier moyen de calcul 22 par une liaison radioélectrique ou filaire et au moyen d'interface homme-machine 23 ; un capteur de position absolue 25 porté par ledit mobile et relié à l'un des deux moyens de calcul 22 et 24 ; un moyen de mesure odométrique 10 porté par ledit mobile et relié à l'un des deux moyens de calcul 22 et 24.
Ledit système est opéré selon deux modes possibles : - un mode dit navigation, dans lequel l'utilisateur humain est lié au mobile, ledit utilisateur pouvant être notamment un piéton constituant le mobile lui-même ou le conducteur d'un véhicule roulant, le second moyen de calcul 24 et le moyen d'interface homme machine 23 étant portés par ledit mobile ; - un mode dit suivi, dans lequel l'utilisateur humain est distant du mobile, le second moyen de calcul 24, et le moyen d'interface homme-machine 23, étant dissociés dudit mobile.
Le premier moyen de calcul 22 et le second moyen de calcul 24 exécutent conjointement un programme informatique mettant en oeuvre ledit procédé. Le second moyen de calcul 24 exécute en outre un programme informatique d'affichage, sur l'écran du moyen d'interface homme-machine 23, des résultats dudit procédé, notamment la trajectoire estimée 18 du terminal mobile et un plan des parois verticales planes détectées 21. Le capteur de position absolue 25 permet l'initialisation de la position horizontale du mobile, et l'initialisation du cap du capteur d'images 7. Selon une variante du système, le bloc de mesure inertielle 8 est constitué d'un seul gyromètre dont l'axe sensible est maintenu selon une direction proche de la verticale. Selon une autre variante, le moyen de mesure odométrique 10 est remplacé par un programme informatique exécuté sur le premier moyen de calcul 22, ledit programme utilisant les données produites par les accéléromètres du bloc de mesure inertielle 8. Selon encore une autre variante, le second moyen de calcul 24 est relié à une base de données géographiques 9, et exécute un programme informatique sélectionnant une vue 14 de la zone dans laquelle évolue le mobile puis extrayant de ladite vue les directions des points de fuite horizontaux probables.20

Claims (11)

  1. REVENDICATIONS1. Procédé de localisation d'un mobile évoluant dans un milieu construit caractérisé en ce qu'il comprend des étapes: - d'extraction (1) d'un ensemble de contours rectilignes (11) dans chacune des images successivement produites par un capteur d'images (7) porté par ledit mobile ; - de classification (2) de chacun des ensembles successifs de contours rectilignes (11) en sous-ensembles permettant d'identifier au moins un point de fuite horizontal possible (12) et des contours rectilignes verticaux (13) ; - d'estimation (3) de l'attitude du capteur d'images (15) et de détection d'au moins un point de fuite horizontal (16) au moyen de la fusion entre d'une part des mesures d'angle dites optiques déduites dans chaque image successive de l'orientation des contours rectilignes verticaux (13) dans le plan image et de l'orientation d'au moins un point de fuite horizontal possible (12) et d'autre part des mesures dites inertielles de l'attitude du capteur d'images (7) obtenues à partir des signaux produits par un bloc de mesure inertielle (8) rigidement lié au capteur d'images (7) et comprenant au moins un gyromètre ; d'estimation (4), dans un plan horizontal, à partir d'une position initiale connue, de la trajectoire (18) dudit mobile et de la position d'arêtes verticales (19) présentes dans ledit milieu construit, au moyen de la mise en correspondance des contours rectilignes verticaux (13) entre images successives, et de la fusion des mesures d'attitude successives (15) du capteur d'images (7), de mesures odométriques (17) fournies par des capteurs proprioceptifs portés par ledit mobile, et de l'orientation des contours rectilignes verticaux (13) dans les plans image successifs, ladite estimation pouvant être entachée d'erreurs ; d'estimation (5) desdites erreurs et d'un plan de parois verticales planes (21) visibles depuis la trajectoire dudit mobile, au moyen de l'identification de groupes d'arêtes verticales (19) alignées et de la comparaison de l'alignement de chacun desdits groupes avec la direction d'au moins un point de fuite horizontal (16).
  2. 2. Procédé selon la revendication 1 caractérisé en ce que le bloc de mesure inertielle (8) comprend au plus trois gyromètres disposés selon des axes orthogonaux d'orientation connue par rapport dit capteur d'images (7).
  3. 3. Procédé selon la revendication 1 ou 2 caractérisé en ce que le bloc de mesure inertielle (8) comprend en outre trois accéléromètres disposés selon des axes orthogonaux d'orientation connue par rapport au capteur d'images (7), lesdits accéléromètres produisant des signaux permettant de calculer l'orientation du capteur d'images (7) par rapport à la verticale.
  4. 4. Procédé selon la revendication 3 caractérisé en ce que les mesures odométriques (17) sont élaborées à partir des signaux produits pas lesdits accéléromètres.
  5. 5. Procédé selon l'une des revendications 1 à 4 caractérisé en ce que l'estimation de l'attitude du capteur d'images (7) et la détection d'au moins un point de fuite horizontal réalisée à l'étape (3) fournit en outre une estimation des facteurs d'erreur d'au moins un gyromètre du bloc de mesure inertielle (8).
  6. 6. Procédé selon l'une des revendications 1 à 5 caractérisé en ce que le procédé comprend en outre une étape de mise en correspondance de la direction d'au moins un point de fuite horizontal (16) avec des directions probables de points de fuite horizontaux obtenues à partir d'une vue (14) du milieu dans lequel évolue le mobile, ladite vue étant extraite d'une base de données géographiques (9).
  7. 7. Procédé selon l'une des revendications 1 à 6 caractérisé en ce que la mise en correspondance des contours rectilignes verticaux (13) entre images successives est réalisée au moyen de la constitution de groupes de contours rectilignes verticaux proches dans le plan image et de la corrélation entre au moins un groupe de contours ainsi constitué dans une image et les contours rectilignes verticaux (13) dans une autre image.
  8. 8. Procédé selon l'une des revendications 1 à 7 caractérisé en ce qu'il comprend en outre une étape (6) de détection de fermeture de boucle au moyen de la comparaison d'au moins un groupe de parois verticales planes (21) avec des parois verticales planes (21) identifiées antérieurement audit groupe.
  9. 9. Système de localisation d'un mobile évoluant dans un milieu construit, comprenant - un terminal porté par ledit mobile et comprenant : - un capteur d'images monoculaire (7), - un bloc de mesure inertielle (8) rigidement lié au capteur d'images et comprenant au moins un gyromètre, et un premier moyen de calcul (22) apte à recevoir les données produites par le capteur d'images (7) et le bloc de mesure inertielle (8), - un moyen d'interface homme-machine (23) comprenant un écran d'affichage et un dispositif d'acquisition de données introduites par l'utilisateur, - un second moyen de calcul (24) relié au moyen d'interface homme machine (23), un moyen de communication radioélectrique ou filaire reliant le premier moyen de calcul (22) et le second moyen de calcul (24), un moyen de mesure odométrique (10) porté par ledit mobile et produisant des données à l'un des deux moyens de calcul (22) et (24), - un capteur de position absolue (25) porté par ledit mobile et produisant des données à l'un des deux moyens de calcul (22) et (24), caractérisé en ce que les moyens de calcul (22) et (24) exécutent conjointement les étapes du procédé selon les revendications 1 à 8 déterminant l'attitude (15) et la localisation (19) dudit terminal dans un plan horizontal et un plan de parois verticales planes (21) visibles depuis la trajectoire dudit mobile, lorsqu'elles sont mises en oeuvre dans un programme d'ordinateur.
  10. 10. Système selon la revendication 9 caractérisé en ce que le bloc de mesure inertielle (8) comprend au plus trois gyromètres disposés selon trois axes orthogonaux d'orientation connue par rapport au capteur d'images (7).
  11. 11 Système selon la revendication 9 ou 10 caractérisé en ce que le bloc de mesure inertielle (8) comprend en outre trois accéléromètres disposés selon des axes orthogonaux d'orientation connue par rapport au capteur d'images (7).12. Système selon la revendication 11 caractérisé en ce que ledit mobile est un piéton ou un objet déplacé par un piéton, et le moyen de mesure odométrique (10) est constitué desdits accéléromètres et d'un programme informatique de podométrie exécuté par l'un des deux moyens de calcul (22) et (24). 13. Système selon l'une des revendications 9 à 12 caractérisé en ce qu'il comprend en outre une interface avec une base de données géographiques (9) et un moyen de détermination, à partir desdites données géographiques, de l'orientation de points de fuite probables.
FR1200071A 2012-01-10 2012-01-10 Procede de localisation d'un mobile en milieu construit Active FR2985588B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1200071A FR2985588B1 (fr) 2012-01-10 2012-01-10 Procede de localisation d'un mobile en milieu construit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1200071A FR2985588B1 (fr) 2012-01-10 2012-01-10 Procede de localisation d'un mobile en milieu construit

Publications (2)

Publication Number Publication Date
FR2985588A1 true FR2985588A1 (fr) 2013-07-12
FR2985588B1 FR2985588B1 (fr) 2015-03-20

Family

ID=46275883

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1200071A Active FR2985588B1 (fr) 2012-01-10 2012-01-10 Procede de localisation d'un mobile en milieu construit

Country Status (1)

Country Link
FR (1) FR2985588B1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113340310A (zh) * 2021-07-08 2021-09-03 深圳市人工智能与机器人研究院 一种移动机器人台阶地形识别定位方法及相关装置
CN114355836A (zh) * 2017-08-02 2022-04-15 深圳阿科伯特机器人有限公司 机器人的控制方法、装置、系统及所适用的机器人

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MYUNG HWANGBO ET AL: "Visual-inertial UAV attitude estimation using urban scene regularities", ROBOTICS AND AUTOMATION (ICRA), 2011 IEEE INTERNATIONAL CONFERENCE ON, IEEE, 9 May 2011 (2011-05-09), pages 2451 - 2458, XP032033419, ISBN: 978-1-61284-386-5, DOI: 10.1109/ICRA.2011.5979542 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114355836A (zh) * 2017-08-02 2022-04-15 深圳阿科伯特机器人有限公司 机器人的控制方法、装置、系统及所适用的机器人
CN113340310A (zh) * 2021-07-08 2021-09-03 深圳市人工智能与机器人研究院 一种移动机器人台阶地形识别定位方法及相关装置
CN113340310B (zh) * 2021-07-08 2024-03-15 深圳市人工智能与机器人研究院 一种移动机器人台阶地形识别定位方法及相关装置

Also Published As

Publication number Publication date
FR2985588B1 (fr) 2015-03-20

Similar Documents

Publication Publication Date Title
EP1886517B1 (fr) Procédé et dispositif de localisation d'un terminal dans un réseau local sans fil
US20180283882A1 (en) Location-based services system and method therefor
US12019173B2 (en) Lane-level navigation system for ground vehicles with lidar and cellular signals
US11875519B2 (en) Method and system for positioning using optical sensor and motion sensors
FR3012597B1 (fr) Procede de localisation en interieur et exterieur et dispositif portatif mettant en œuvre un tel procede
EP3472557B1 (fr) Procede d'estimation d'une direction d'orientation absolue d'un systeme optronique
FR2897680A1 (fr) Dispositif de capture de mouvement et procede associe
FR2960082A1 (fr) Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position
EP3494402A1 (fr) Systeme et procede global de geolocalisation a partir de mesures de distances et de positions d'ancres imprecises
EP2507586A1 (fr) Systeme et procede d'aide au conducteur d'un vehicule a entrainement biomecanique comprenant au moins une roue
WO2010063844A1 (fr) Procede de geo-localisation d'un objet par multitelemetrie
FR3015072A1 (fr) Procede de determination de l'orientation d'un repere capteur lie a un terminal mobile muni d'un ensemble capteur, porte par un utilisateur et comprenant au moins un capteur de mouvement lie en mouvement
EP3447654B1 (fr) Procédé de détermination de la trajectoire d'un objet mobile, programme et dispositif aptes à la mise en oeuvre de ce procédé
FR3042266A1 (fr) Procede d'estimation du mouvement d'un pieton
EP2428934A1 (fr) Procédé d'estimation du mouvement d'un porteur par rapport à un environnement et dispositif de calcul pour système de navigation
EP2818829B1 (fr) Système de navigation et de pointage et procédé de calibration d'un système de navigation et de pointage
EP2405399B1 (fr) Méthode de calibration de l'orientation d'une caméra vidéo embarquée
FR2975484A1 (fr) Procede de determination a distance d'un azimut absolu d'un point cible
FR2985588A1 (fr) Procede de localisation d'un mobile en milieu construit
EP3494403B1 (fr) Procede et systeme de geolocalisation par calcul direct d'elements de deplacement
CN116105729A (zh) 一种针对野外洞穴森林环境侦察的多传感器融合定位方法
FR3114659A1 (fr) Procede de recalage sur une pluralite d'amers, produit programme d'ordinateur et dispositif de recalage associes
EP3655725A1 (fr) Procédé d'estimation du mouvement d'un objet évoluant dans un environnement et un champ magnétique
FR3041769A1 (fr) Procede de geolocalisation
FR3137764A1 (fr) Procédé de recalage d’une attitude fournie par un système de navigation à l’estime au moyen d’un système de positionnement relatif

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13