[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2023126893A - Method for creating universally usable feature map - Google Patents

Method for creating universally usable feature map Download PDF

Info

Publication number
JP2023126893A
JP2023126893A JP2023109909A JP2023109909A JP2023126893A JP 2023126893 A JP2023126893 A JP 2023126893A JP 2023109909 A JP2023109909 A JP 2023109909A JP 2023109909 A JP2023109909 A JP 2023109909A JP 2023126893 A JP2023126893 A JP 2023126893A
Authority
JP
Japan
Prior art keywords
map
measurement data
features
stored
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023109909A
Other languages
Japanese (ja)
Other versions
JP7609929B2 (en
Inventor
ホマン,ハンノ
Homann Hanno
ランパクレシア,マルコ
Lampacrescia Marco
ビーバー,ペーター
Biber Peter
シェラー,ゼーバスティアン
Scherer Sebastian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2023126893A publication Critical patent/JP2023126893A/en
Application granted granted Critical
Publication of JP7609929B2 publication Critical patent/JP7609929B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3878Hierarchical structures, e.g. layering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Computer Networks & Wireless Communication (AREA)

Abstract

【課題】データ消費を抑えた汎用的に利用可能なデジタルマップを生成する方法を提供する。【解決手段】制御装置によるデジタルマップの生成方法であって、測定走行中に環境の測定データを受信し、受信された測定データに基づくSLAMを実行して測定走行の軌道を特定し、受信された測定データを軌道の座標系に変換し、変換された測定データを強度マップの生成に使用し、強度マップから特徴を抽出して特徴マップに保存する方法が開示されている。さらに、自己位置特定を実行する方法、制御装置、コンピュータプログラム、および機械読み取り可能な記憶媒体が開示されている。【選択図】図1The present invention provides a method for generating a digital map that can be used for general purposes while reducing data consumption. A method for generating a digital map by a control device, which receives environmental measurement data during a measurement run, executes SLAM based on the received measurement data to identify the trajectory of the measurement run, and A method is disclosed in which measured data is converted into a trajectory coordinate system, the converted measured data is used to generate an intensity map, and features are extracted from the intensity map and stored in the feature map. Additionally, a method, controller, computer program product, and machine-readable storage medium for performing self-localization is disclosed. [Selection diagram] Figure 1

Description

本発明は、デジタルマップを生成する方法および自己位置特定(ローカリゼーション)を実行する方法に関する。さらに、本発明は、制御装置、コンピュータプログラムおよび機械読み取り可能な記録媒体に関する。 The present invention relates to a method of generating a digital map and a method of performing self-localization. Furthermore, the present invention relates to a control device, a computer program, and a machine-readable recording medium.

自動車やロボットの自動運転には、自己位置特定(ローカリゼーション)は不可欠な機能要素である。自己位置特定によって、マップや環境内での車両やロボットの正確な位置を認識できる。特定した位置に基づいて、例えば軌道を走行したり、タスクを実施したりするように制御コマンドを生成することができる。 Localization is an essential functional element for autonomous driving of cars and robots. Self-localization allows vehicles and robots to know their exact location on a map or in the environment. Based on the identified location, control commands can be generated to, for example, travel on a track or perform a task.

特にGNSSデータへアクセスしないアプリケーションでは、いわゆるSLAMにより自己位置特定とマッピング(マップ生成)とを同時に行うことができる。この目的のため、マップを生成するために、例えばライダー(LIDAR)センサ等の測定データが収集され、解析される。続くステップにおいて、マップ内の位置を決定することができる。 Particularly in applications that do not access GNSS data, self-location and mapping (map generation) can be performed simultaneously using so-called SLAM. For this purpose, measurement data, for example from LIDAR sensors, are collected and analyzed in order to generate a map. In a subsequent step, the location within the map can be determined.

SLAMの問題点は、動的または半静的な環境での適用である。このような環境は、例えば、格納場所、建設現場、イントラロジスティクス、またはコンテナポート等に存在し得る。対象物が定期的に移動することにより、生成されたマップは短時間で有効性が失われる。このようなマップの定期的な更新には、測定および解析の大きな手間を要する。特に、定期的に更新されるマップを、全てのユーザが利用可能にする必要があり、このため大量のデータを提供するためのインフラが必要である。 The problem with SLAM is its application in dynamic or semi-static environments. Such environments may exist, for example, in storage areas, construction sites, intralogistics, or container ports. Due to regular movement of objects, the generated maps lose their validity after a short time. Periodic updating of such maps requires a great deal of effort in measurement and analysis. In particular, regularly updated maps need to be available to all users, which requires an infrastructure to provide large amounts of data.

本発明の根底にある課題は、データ消費を抑えた汎用的に利用可能なデジタルマップを生成する方法を提案することにあると考えられる。 It is believed that the underlying problem of the present invention is to propose a method for generating a universally usable digital map with reduced data consumption.

この課題は、独立請求項の各主題によって解決される。本発明の有利な実施形態は、それぞれの従属請求項の主題である。 This problem is solved by the subject matter of the independent claims. Advantageous embodiments of the invention are the subject of the respective dependent claims.

本発明の一態様によれば、制御装置によるデジタルマップを生成する方法が提供される。1つのステップでは、測定走行中に環境の測定データを受信する。ここで、測定走行は任意の走行であってよい。好ましくは、測定データを、少なくとも1つのセンサによって静止時または駐車時にも収集することができる。続いて、対応する測定データを制御装置で受信し、処理することができる。 According to one aspect of the invention, a method is provided for generating a digital map by a controller. One step is to receive environmental measurement data during a measurement drive. Here, the measurement run may be any run. Preferably, measurement data can also be collected by at least one sensor when the vehicle is stationary or parked. Subsequently, the corresponding measurement data can be received and processed by the control device.

受信された測定データに基づいて、測定走行の軌道を特定するためにSLAMが実行される。ここで、一連の測定データに基づいて自らの自己位置特定が行われ、測定走行中のそれぞれの位置が軌道を形成する。 Based on the received measurement data, SLAM is performed to determine the trajectory of the measurement trip. Here, self-localization is performed based on a series of measurement data, and each position during the measurement run forms a trajectory.

さらなるステップでは、受信された測定データを軌道の座標系に変換する。受信された測定データは、例えば、センサに対する相対位置および/または相対距離を有し得る。続いて、この相対座標を、例えば軌道の絶対座標系に変換することができる。このような座標系としては、例えばカルテシアン(直交)座標系があり得る。 A further step is to transform the received measurement data into the coordinate system of the orbit. The received measurement data may include, for example, a relative position and/or a relative distance to the sensor. This relative coordinate can then be transformed into the absolute coordinate system of the trajectory, for example. Such a coordinate system may be, for example, a Cartesian (orthogonal) coordinate system.

変換された測定データは、強度マップの生成に使用される。例えば、1つまたは複数のライダー(LIDAR)センサまたはレーダセンサの反射光の強度を測定し、受信光強度のマップの形態で格納してもよい。 The transformed measurement data is used to generate an intensity map. For example, the intensity of reflected light from one or more LIDAR or radar sensors may be measured and stored in the form of a map of received light intensity.

続いて、強度マップから特徴を抽出し、特徴マップに保存する。当該特徴は、好ましくは、強度マップから検出することができる。このプロセスは、例えばパターン認識アルゴリズムによって行うことができる。パターン認識は、あらかじめ適宜学習されたニューラルネットワークによって行われてもよい。パターン認識は、例えば処理を行う者により手動で行われてもよいし、または自動で行われてもよい。さらに、処理を行う者により、自動的に行われるパターン認識が解除されたり、確認されたりされてもよい。 Next, features are extracted from the intensity map and saved in a feature map. The features can preferably be detected from the intensity map. This process can be performed, for example, by a pattern recognition algorithm. Pattern recognition may be performed by a neural network that has been appropriately trained in advance. Pattern recognition may be performed manually, for example by a person performing the processing, or may be performed automatically. Furthermore, the automatically performed pattern recognition may be canceled or confirmed by the person performing the processing.

パターンマップは、好ましくは汎用的に使用可能である。特に、パターンマップはセンサに依存せず、あるいはセンサ優位(sensorubergreifend)に使用可能であるため、測定された異なる測定データから特徴を抽出し、特徴マップに基づき自己位置特定に使用することができる。 The pattern map is preferably universally usable. In particular, since the pattern map can be used sensor-independent or sensor-dominantly, features can be extracted from different measured measurement data and used for self-localization based on the feature map.

本発明のさらなる態様によれば、特に制御装置で自己位置特定を実行する方法が提供される。1つのステップでは、環境の測定データと特徴マップを受信する。測定データは、1つまたは複数のセンサによって測定されてもよい。このようなセンサは、例えばカメラセンサ、ライダーセンサ、レーダセンサ、超音波センサ等であってもよい。特に、当該センサは、特徴マップを生成するために使用されたセンサと異なってもよい。 According to a further aspect of the invention, a method is provided for performing self-localization, particularly in a control device. One step is to receive measurement data and feature maps of the environment. Measurement data may be measured by one or more sensors. Such a sensor may be, for example, a camera sensor, a lidar sensor, a radar sensor, an ultrasonic sensor, or the like. In particular, the sensor may be different from the sensor used to generate the feature map.

さらなるステップでは、受信された測定データの特徴を認識し抽出する。続いて、抽出した少なくとも1つの特徴と特徴マップに格納された特徴とを照合して位置を特定する。少なくとも1つの特徴の照合が成功したときは、センサまたはセンサを使用して測定を行う車両の位置を決定することができる。 A further step is to recognize and extract features of the received measurement data. Next, the position is determined by comparing the extracted at least one feature with the feature stored in the feature map. When the at least one characteristic is successfully matched, the sensor or the position of the vehicle from which the sensor is to be measured can be determined.

本発明のさらなる態様によれば、制御装置が提供され、制御装置は、上記方法を実施するように構成されている。ここで、制御装置は、自動走行機能を実行するための車両制御装置に組み込まれる車載制御装置であってもよいし、車両制御装置に接続可能な装置であってもよい。代替的または追加的に、制御装置は、例えばサーバ装置またはクラウド技術のような、車両外部の制御装置として構成されてもよい。 According to a further aspect of the invention, a controller is provided, the controller being configured to implement the method described above. Here, the control device may be an in-vehicle control device built into a vehicle control device for executing an automatic driving function, or a device connectable to the vehicle control device. Alternatively or additionally, the control device may be configured as a control device external to the vehicle, such as, for example, a server device or cloud technology.

さらに、本発明の一態様によれば、コンピュータまたは制御装置によって実行されると、コンピュータまたは制御装置に本発明に係る方法を実行させる複数の命令を含むコンピュータプログラムが提供される。本発明のさらなる態様によれば、本発明に係るコンピュータプログラムが保存された機械読み取り可能な記憶媒体が提供される。 Furthermore, according to one aspect of the invention, there is provided a computer program comprising a plurality of instructions which, when executed by a computer or a control device, cause the computer or control device to carry out the method according to the invention. According to a further aspect of the invention, there is provided a machine-readable storage medium storing a computer program according to the invention.

この際、制御装置は車両に組み込まれていてもよい。特に、少なくとも1回の測定走行は、制御装置を備えた車両で実行できる。この際、車両は、BASt規格に基づき、アシスト、部分自動運転、高度自動運転、および/または完全自動運転、またはドライバーレスで運転可能である。代替または追加の形態によれば、車両は、ロボット、ドローン、船舶等であってよい。これにより、高速道路等の道路、田舎道、市街地、および路外またはオフロードでも本方法を使用することができる。本方法は、特に、建物またはホール、地下空間、駐車場および駐車ガレージ、トンネル等で利用できる。 In this case, the control device may be built into the vehicle. In particular, at least one measuring drive can be carried out in a vehicle equipped with a control device. At this time, the vehicle can operate in assisted, partially automated, highly automated, and/or fully automated mode, or without a driver, based on the BASt standard. According to alternative or additional forms, the vehicle may be a robot, a drone, a ship, etc. This allows the method to be used on roads such as highways, country roads, urban areas, and off-road. The method can be used in particular in buildings or halls, underground spaces, parking lots and garages, tunnels, etc.

測定データを測定するための少なくとも1つのセンサは、周辺環境センサシステムの構成要素または車両の少なくとも1つのセンサであってよい。特に、少なくとも1つのセンサは、ライダーセンサ、レーダセンサ、超音波センサ、カメラセンサ、オドメータ、加速度センサ、位置センサ等であってもよい。特に、センサは、単独で使用されてもよいし、互いに組み合わせて使用されてもよい。さらに、オドメトリック(積算)法を実行するために、例えば加速度センサ、ホイールセンサ、ライダーセンサ、超音波距離センサ、カメラ等のセンサを使用してもよい。 The at least one sensor for measuring the measurement data may be a component of a surrounding environment sensor system or at least one sensor of a vehicle. In particular, the at least one sensor may be a lidar sensor, a radar sensor, an ultrasound sensor, a camera sensor, an odometer, an acceleration sensor, a position sensor, etc. In particular, the sensors may be used alone or in combination with each other. Furthermore, sensors such as acceleration sensors, wheel sensors, lidar sensors, ultrasonic distance sensors, cameras, etc. may be used to perform the odometric method.

本発明に係る方法によって、特に環境の静的な特徴を特定して抽出することができる。このような特徴は、例えば、道路標識、建物の幾何学的形状、縁石、道路、信号機の配置や位置、視線誘導標、車線境界、建物、コンテナ等であってよい。このような特徴を複数の異なるセンサによって検出し、自己位置特定に利用することができる。例えば、ライダーセンサの測定データから抽出される特徴をカメラセンサでも検出し、自己位置特定のために互いに比較してもよい。そのため、異なる車両や機械で利用できる、汎用的に使用可能な特徴マップを生成することができる。例えば、このような特徴マップは、パーソナルモビリティ、搬送ユニット、マニピュレータ等によって正確な自己位置特定に利用され得る。 The method according to the invention allows in particular static features of the environment to be identified and extracted. Such features may be, for example, road signs, building geometry, curbs, roads, traffic light placement and position, delineators, lane boundaries, buildings, containers, etc. Such features can be detected by multiple different sensors and used for self-localization. For example, features extracted from measurement data of a lidar sensor may also be detected by a camera sensor and compared with each other for self-localization. Therefore, it is possible to generate a universally usable feature map that can be used in different vehicles and machines. For example, such feature maps can be utilized for accurate self-localization by personal mobility, transport units, manipulators, etc.

好ましくは、第1のステップでマーキングマップを生成し、続いて自己位置特定のタスクに使用することができる。特に、マーキングマップは、自動運転される車両やロボットの自己位置特定や制御タスクに利用できる。 Preferably, a marking map is generated in a first step and can subsequently be used for the task of self-localization. In particular, marking maps can be used for self-localization and control tasks in autonomous vehicles and robots.

特徴マップの特徴は、幾何学図形や直線、点等であり得るため、座標やベクトルの形で最小限のデータサイズで保存可能である。これにより、車両やロボットに特徴マップを提供する際に必要なデータ容量を削減することができる。 Since the features of the feature map can be geometric figures, straight lines, points, etc., they can be stored in the form of coordinates or vectors with a minimum data size. This makes it possible to reduce the amount of data required to provide feature maps to vehicles and robots.

実施例によれば、特徴マップは、デジタルマップとして、またはデジタルマップのマップレイヤとして保存される。これにより、特徴マップは特にフレキシブルに使用され得る。特に、既存のマップを、特徴マップによってアップグレードしたり、最小限の所要の記憶容量でデジタルマップとして実施したりすることができる。 According to embodiments, the feature map is saved as a digital map or as a map layer of a digital map. This allows the feature map to be used particularly flexibly. In particular, existing maps can be upgraded with feature maps or implemented as digital maps with minimal storage requirements.

さらなる実施例によれば、受信された測定データは点群として存在し、複数のセルからなるラスタに割り当てられている。好ましくは、強度マップを生成するために、各セルの測定データの平均値を算出する。デジタルマップのセルは、例えば、画素、画素群、ポリゴン等であってよい。平均値を算出することで、測定値の局所的な不一致や揺れを補償することができる。測定値は、特に、レーダセンサおよび/またはライダーセンサからの反射ビーム、または後方散乱後に検出されるビームによって構成され得る。 According to a further embodiment, the received measurement data are present as a point cloud and are assigned to a raster of cells. Preferably, the average value of the measurement data of each cell is calculated to generate the intensity map. A cell of the digital map may be, for example, a pixel, a group of pixels, a polygon, or the like. By calculating the average value, it is possible to compensate for local discrepancies and fluctuations in the measured values. The measurements may in particular be constituted by reflected beams from radar and/or lidar sensors or by beams detected after backscatter.

さらなる実施形態によれば、受信された測定データから高度マップが生成され、高度マップを生成するために、各セルおよび隣接するセルの測定データから加重平均値が算出される。これにより、測定された測定データから付加情報を抽出し、特徴マップの生成に利用することができる。 According to a further embodiment, an altitude map is generated from the received measurement data, and a weighted average value is calculated from the measurement data of each cell and neighboring cells to generate the altitude map. Thereby, additional information can be extracted from the measured measurement data and used to generate a feature map.

さらなる実施例によれば、抽出された特徴の高度を決定するために、生成された高度マップから情報を受信し、特徴マップに保存する。ここで、高度マップと特徴マップとを重ね合わせて、高度マップの対応する属性や情報を特徴マップに伝達することができる。これに加え、例えば、特徴の位置における高さや強度の傾きを、それぞれの特徴から引き継ぐことができる。このプロセスは、好ましくは自動的に実行され、高度マップの各セルと特徴マップの各セルとが照合される。 According to a further embodiment, information is received from the generated altitude map and stored in the feature map to determine the altitude of the extracted features. Here, the altitude map and the feature map can be superimposed and the corresponding attributes and information of the altitude map can be transmitted to the feature map. In addition, for example, the height or intensity gradient at the feature position can be inherited from each feature. This process is preferably performed automatically, matching each cell of the elevation map with each cell of the feature map.

さらなる実施形態によれば、抽出された特徴は、汎用的に特定可能な特徴として特徴マップに保存される。有利な形態によれば、特徴は、幾何学的形状、線、点および/または点群等として抽出され、保存される。このようにして、自己位置特定を行うために、環境測定データから物体、標識、特有の形状または特徴を有する形状を抽出し、使用することができる。特に、これによって動的な環境下でも多数の静的な特徴を特定し、位置を正確に特定するために使用することができる。ここで、特徴は基本的にセンサに依存せずに特定できるため、マーキングマップは汎用的に利用可能である。 According to a further embodiment, the extracted features are stored in a feature map as universally identifiable features. According to an advantageous embodiment, the features are extracted and stored as geometric shapes, lines, points and/or point clouds, etc. In this way, objects, landmarks, shapes with distinctive shapes or characteristics can be extracted and used from the environmental measurement data to perform self-localization. In particular, this allows the identification of large numbers of static features even in dynamic environments and can be used to accurately determine location. Here, since the features can basically be identified without depending on the sensor, the marking map can be used for general purposes.

さらなる実施例によれば、受信された測定データは位置データとして実現され、位置ダイアグラムに保存される。好ましくは、特定された位置は、特徴が正常に照合されたときは、新しい測定値として位置ダイアグラムに格納される。特徴マップは、例えば、車両やロボットの位置を特定するために使用できる。この際、それぞれの現在位置は、経路に沿って、例えば所定の時間間隔で特定され、位置ダイアグラムや位置マップに格納される。位置ダイアグラムによって、移動距離や軌道を表示することができる。特徴マップに特徴があれば、その特徴マップ内での位置を、測定データを測定した車両やセンサに割り当てることができる。その後、この位置は別の測定値として位置ダイアグラムに保存される。 According to a further embodiment, the received measurement data is realized as position data and stored in a position diagram. Preferably, the identified location is stored as a new measurement in the location diagram when the feature is successfully matched. Feature maps can be used, for example, to locate vehicles or robots. At this time, each current position is specified along the route, for example, at predetermined time intervals, and stored in a position diagram or a position map. Position diagrams allow you to display distance traveled and trajectories. If the feature map has a feature, a position in the feature map can be assigned to the vehicle or sensor that measured the measurement data. This position is then saved as a separate measurement in the position diagram.

さらなる実施例によれば、測定データは、特徴マップの生成に使用された少なくとも1つのセンサとは異なる少なくとも1つのセンサから測定される。抽出された特徴は、好ましくは抽象化された形式で存在し、ひいては汎用的に読み取り可能または比較可能であってもよい。このような特徴の形式は、例えばテキスト形式の座標として存在してもよい。特に、座標内の特徴は、始点、終点、中間点、方向、長さ、高さ等を有してもよい。これらの情報を特に少ない所要の記憶容量で格納し、照合を行うために利用することができる。 According to a further embodiment, the measurement data is measured from at least one sensor different from the at least one sensor used to generate the feature map. The extracted features preferably exist in an abstracted form and may thus be universally readable or comparable. The form of such features may be present, for example, as coordinates in text form. In particular, features within the coordinates may include starting points, ending points, intermediate points, directions, lengths, heights, etc. This information can be stored with particularly low storage requirements and used for verification purposes.

以下に、非常に簡略化した模式図を用いて、本発明の好ましい実施例を詳述する。 In the following, preferred embodiments of the invention will be explained in detail using highly simplified schematic diagrams.

本発明に係る方法を説明するための配置の模式図である。FIG. 2 is a schematic diagram of an arrangement for explaining the method according to the present invention. 一実施例に係るデジタルマップを生成する方法を説明するための模式図である。FIG. 2 is a schematic diagram for explaining a method of generating a digital map according to an embodiment. 一実施例に係る自己位置特定を実行する方法を説明するための模式図である。FIG. 2 is a schematic diagram for explaining a method of performing self-location according to an embodiment. 模式的な強度マップを示す図である。It is a figure showing a typical intensity map. 模式的な高度マップを示す図である。It is a figure showing a typical altitude map. 特徴マップの斜視図である。FIG. 3 is a perspective view of a feature map.

図1は、本発明に係る方法2、4を説明するための配置1の模式図である。 FIG. 1 is a schematic diagram of an arrangement 1 for explaining methods 2, 4 according to the invention.

配置1は、2つの車両6、8を有する。代替的または追加的に、配置1は、ロボットおよび/またはさらなる車両を有してもよい。図示の実施例によれば、第1の車両6は、デジタルマップ、特にマーキングマップを生成するための方法2を実行する機能を果たす。第2の車両8は、デジタルマップ内での自己位置特定を実行する方法4を明確化するために模式的に示されている。 Arrangement 1 has two vehicles 6,8. Alternatively or additionally, the arrangement 1 may have robots and/or further vehicles. According to the illustrated embodiment, the first vehicle 6 serves to carry out the method 2 for generating a digital map, in particular a marking map. The second vehicle 8 is shown schematically to clarify the method 4 of performing self-localization within the digital map.

第1の車両6は、機械読み取り可能なメモリ12およびセンサ14とデータ通信可能に接続された制御装置10を有する。センサ14は、例えばライダー(LIDAR)センサ14であってもよい。 The first vehicle 6 has a control device 10 connected in data communication with a machine-readable memory 12 and a sensor 14 . The sensor 14 may be a LIDAR sensor 14, for example.

ライダーセンサ14によって、第1の車両6は環境Uを走査し、測定データを生成することができる。続いて、測定された測定データを制御装置10によって受信し、解析することができる。制御装置10によって生成された特徴マップは、通信リンク16を介して他の道路利用者や車両8に提供され得る。特徴マップを、機械読み取り可能な記憶媒体12に格納してもよい。 The lidar sensor 14 allows the first vehicle 6 to scan the environment U and generate measurement data. Subsequently, the measured measurement data can be received and analyzed by the control device 10. The feature map generated by the control device 10 can be provided to other road users or vehicles 8 via the communication link 16 . The feature map may be stored on a machine-readable storage medium 12.

第2の車両8は、同様に制御装置11を有する。制御装置11は、機械読み取り可能な記憶媒体13と、センサ15とにデータ通信可能に接続されている。本実施例によればセンサ15はカメラセンサ15であり、同様に環境Uの測定データを測定して制御装置11に伝送することができる。制御装置11は、環境Uの測定データから特徴を抽出し、通信リンク16を介して制御装置11から受信された、特徴マップからの特徴と照合することができる。 The second vehicle 8 likewise has a control device 11 . The control device 11 is connected to a machine-readable storage medium 13 and a sensor 15 for data communication. According to this embodiment, the sensor 15 is a camera sensor 15, which can similarly measure measurement data of the environment U and transmit it to the control device 11. The control device 11 can extract features from the measurement data of the environment U and match them with features from a feature map received from the control device 11 via the communication link 16.

図2は、実施例に係るデジタルマップを生成する方法2を説明するための模式図である。 FIG. 2 is a schematic diagram for explaining method 2 for generating a digital map according to the embodiment.

第1のステップ18において、環境Uの測定データを、第1の車両6の測定走行中に測定し、制御装置10によって受信する。実施例によれば、環境Uをライダーセンサ14で走査する。 In a first step 18 , measurement data of the environment U are measured during a measurement drive of the first vehicle 6 and are received by the control device 10 . According to the embodiment, the environment U is scanned by the lidar sensor 14.

続くステップ19では、測定走行中に受信された測定データを用いてSLAMを実行する。SLAMは、第1の車両6の軌道を決定する。 In the following step 19, SLAM is performed using the measurement data received during the measurement run. SLAM determines the trajectory of the first vehicle 6.

受信された測定データを軌道の座標系に変換する(20)。代替的に、軌道を測定データの座標系に変換してもよい。例えば、共通の座標系はカルテシアン(直交)座標系であってもよい。 The received measurement data is transformed into an orbital coordinate system (20). Alternatively, the trajectory may be transformed into the coordinate system of the measured data. For example, the common coordinate system may be a Cartesian (orthogonal) coordinate system.

変換された測定データを用いて強度マップ30を生成する(21)。このような強度マップ30を図4に示す。特に、測定データは、複数のセル31、32を有するグリッドマップとして存在してよい。セル31、32は、例えば、画素として、あるいは画素群として構成されてよい。各セル31、32は、座標系に対応して、例えばGPS座標等の局所的な割り当てを有してよい。 An intensity map 30 is generated using the converted measurement data (21). Such an intensity map 30 is shown in FIG. In particular, the measurement data may be present as a grid map with a plurality of cells 31, 32. The cells 31 and 32 may be configured, for example, as pixels or as a group of pixels. Each cell 31, 32 may have a local assignment, for example GPS coordinates, corresponding to a coordinate system.

続いて、各セル31、32について強度を計算する。このため、それぞれのセル31、32内の全ての測定値について平均値を計算する。こうして計算された平均値から強度マップ30を生成する(21)。 Subsequently, the intensity is calculated for each cell 31, 32. For this purpose, an average value is calculated for all measured values in each cell 31, 32. An intensity map 30 is generated from the average value thus calculated (21).

さらに、高度マップ40を生成する(22)。高度マップ40は加重平均値から生成され、これは図5に示されている。加重平均は、各セル31内の測定値と、対応する隣接セル32の測定データとについて計算される。 Furthermore, an altitude map 40 is generated (22). An altitude map 40 is generated from the weighted average values and is shown in FIG. A weighted average is calculated for the measured values within each cell 31 and the measured data of the corresponding neighboring cell 32.

さらなるステップ23では、強度マップ30から特徴を抽出する。これは、例えば自動化されたパターン認識アルゴリズムや、オペレータによる手動で行うことができる。例えば、強度マップ30における明部と暗部の間の遷移が、可能なパターンとして考慮される。高度マップ40に基づき、各特徴にプロファイルを割り当てることができる。 A further step 23 extracts features from the intensity map 30. This can be done, for example, by an automated pattern recognition algorithm or manually by an operator. For example, transitions between bright and dark areas in the intensity map 30 are considered as possible patterns. Based on the elevation map 40, each feature can be assigned a profile.

特定された特徴を、強度マップ30内の位置に応じて特徴マップ60に保存する(24)。特徴マップ60は、図6に模式的に示されている。ここでは、複数の特徴62、64、66に例示的なライダーのスキャンがオーバレイされている。特徴62、64、66は、例示的な車道マーキング62、車道境界部64、および地面上の他のマーキング66である。特徴マップ60を、例えば機械読み取り可能な記憶媒体12に保存し、通信リンク16を介して提供してもよい。 The identified features are stored in feature map 60 according to their location within intensity map 30 (24). The feature map 60 is schematically shown in FIG. Here, a plurality of features 62, 64, 66 are overlaid with an exemplary lidar scan. Features 62, 64, 66 are exemplary roadway markings 62, roadway boundaries 64, and other markings 66 on the ground. Feature map 60 may be stored on machine-readable storage medium 12 and provided via communication link 16, for example.

図3は、一実施例に係る自己位置特定(ローカリゼーション)を実行する方法4を説明するための模式図である。方法4を、例示的に第2の車両8の制御装置11によって実施する。 FIG. 3 is a schematic diagram for explaining a method 4 for performing self-localization according to an embodiment. Method 4 is exemplarily carried out by the control device 11 of the second vehicle 8.

ステップ25では、環境Uの測定データをセンサ15によって測定し、制御装置11に伝達する。さらに、特徴マップ60を、通信リンク16を介して制御装置11によって受信する。これは、制御装置11に実装された位置ダイアグラムロケータ(位置測定器)によって実施することができる。 In step 25 , measurement data of the environment U is measured by the sensor 15 and transmitted to the control device 11 . Furthermore, a feature map 60 is received by the control device 11 via the communication link 16 . This can be implemented by means of a position diagram locator (position measuring device) implemented in the control device 11.

この際、測定データを、連続的にまたは所定の時間間隔で取得し、制御装置11によって受信することができる。さらに、オドメトリックな(積算された)測定データを制御装置11で受信してもよい。 At this time, the measurement data can be acquired continuously or at predetermined time intervals and received by the control device 11. Furthermore, the control device 11 may receive odometric (integrated) measurement data.

さらなるステップ26では、受信された測定データから特徴62、64、66を抽出する。この際、特徴62、64、66を受信された特徴マップ60と照合する(27)。照合の際、車両内で検出された特徴62、64、66を特徴マップ60上で見つけることが試みられる。この際、オドメトリ(積算)によって測定された測定データは、特徴マップ60内の探索領域を限定することができる。特徴マップ60は、抽象化された、ひいては汎用的に使用可能な特徴62、64、66を有するため、カメラセンサ15を用いて測定された測定データも、自己位置特定に使用することができる。 A further step 26 is to extract features 62, 64, 66 from the received measurement data. At this time, the features 62, 64, 66 are compared with the received feature map 60 (27). During matching, an attempt is made to locate the features 62, 64, 66 detected within the vehicle on the feature map 60. At this time, the measurement data measured by odometry (integration) can limit the search area within the feature map 60. Since the feature map 60 has abstracted and thus universally usable features 62, 64, 66, measurement data measured using the camera sensor 15 can also be used for self-localization.

車両側で特定された特徴と、特徴マップ60の特徴62、64、66との間に一致が見られた場合、車両8の位置を補正または更新することができる(28)。 If a match is found between the features identified on the vehicle side and the features 62, 64, 66 of the feature map 60, the position of the vehicle 8 can be corrected or updated (28).

Claims (12)

制御装置(10)によるデジタルマップを生成する方法(2)であって、
測定走行中に環境(U)の測定データを受信し(18)、
当該受信された測定データに基づくSLAMを実行して前記測定走行の軌道を特定し(19)、
当該受信された測定データを前記軌道の座標系に変換し(20)、
当該変換された測定データを強度マップ(30)の生成(21)に使用し、
前記強度マップ(30)から特徴(62、64、66)を抽出して(23)、特徴マップ(60)に保存する(24)、方法。
A method (2) of generating a digital map by a control device (10), comprising:
Receive measurement data of the environment (U) during the measurement run (18),
performing SLAM based on the received measurement data to identify the trajectory of the measurement run (19);
converting the received measurement data into a coordinate system of the orbit (20);
using the converted measurement data to generate (21) an intensity map (30);
A method, wherein features (62, 64, 66) are extracted (23) from said intensity map (30) and stored (24) in a feature map (60).
前記特徴マップ(60)は、デジタルマップとして、またはデジタルマップのマップレイヤとして保存される、請求項1に記載の方法。 The method of claim 1, wherein the feature map (60) is saved as a digital map or as a map layer of a digital map. 当該受信された測定データは点群として存在し、複数のセル(31、32)からなるラスタに割り当てられ、前記強度マップ(30)を生成するために、各セル(31、32)の測定データの平均値が算出される、請求項1または2に記載の方法。 The received measurement data is present as a point cloud and is assigned to a raster consisting of a plurality of cells (31, 32), in order to generate the intensity map (30), the measurement data of each cell (31, 32) is The method according to claim 1 or 2, wherein an average value of is calculated. 当該受信された測定データから高度マップ(40)が生成され、前記高度マップ(40)を生成するために、各セル(31)および隣接するセル(32)の測定データから加重平均値が算出される、請求項3に記載の方法。 An altitude map (40) is generated from the received measurement data, and a weighted average value is calculated from the measurement data of each cell (31) and adjacent cells (32) to generate the altitude map (40). 4. The method according to claim 3. 当該抽出された特徴(62、64、66)の高度を決定するために、当該生成された高度マップ(40)から情報が受信され、前記特徴マップ(60)に保存される、請求項4に記載の方法。 5. Information according to claim 4, wherein information is received from the generated altitude map (40) and stored in the feature map (60) to determine the altitude of the extracted feature (62, 64, 66). The method described. 当該抽出された特徴(62、64、66)は、汎用的に特定可能な特徴(62、64、66)として前記特徴マップ(60)に保存され、前記特徴(62、64、66)は、幾何学的形状、線、点および/または点群として抽出されて保存される、請求項1から5のいずれか一項に記載の方法。 The extracted features (62, 64, 66) are stored in the feature map (60) as universally identifiable features (62, 64, 66), and the features (62, 64, 66) are 6. A method according to any one of claims 1 to 5, wherein the geometric shapes, lines, points and/or point clouds are extracted and stored. 特に制御装置(11)により自己位置特定を実行する方法(4)であって、
環境(U)の測定データおよび特徴マップ(60)受信し(25)、
当該受信された測定データの特徴を認識および抽出し(26)、
抽出された少なくとも1つの特徴を、前記特徴マップに格納された特徴(62、64、66)と照合して位置を特定する(27)方法。
In particular, a method (4) for performing self-localization by a control device (11), comprising:
receiving (25) measurement data and a feature map (60) of the environment (U);
recognizing and extracting features of the received measurement data (26);
A method (27) of identifying a position by comparing at least one extracted feature with features (62, 64, 66) stored in the feature map.
当該受信された測定データは位置データとして実現され、位置ダイアグラムに保存され、当該特定された位置は、特徴(62、64、66)が正常に照合されたときは、新しい測定値として前記位置ダイアグラムに格納される(28)、請求項7に記載の方法。 The received measurement data is realized as position data and stored in the position diagram, and the identified position is added to the position diagram as a new measurement when the features (62, 64, 66) are successfully matched. 8. The method of claim 7, wherein the method is stored in (28). 前記測定データは、前記特徴マップ(60)の生成に使用された少なくとも1つのセンサ(14)とは異なる少なくとも1つのセンサ(15)から測定される、請求項7または8に記載の方法。 Method according to claim 7 or 8, wherein the measurement data is measured from at least one sensor (15) different from the at least one sensor (14) used to generate the feature map (60). 請求項1から9のいずれか一項に記載の方法(2、4)の少なくとも1つを実施するように構成されている制御装置(10、11)。 A control device (10, 11) configured to implement at least one of the methods (2, 4) according to any one of claims 1 to 9. コンピュータまたは制御装置(10、11)によって実行されると、コンピュータまたは制御装置に請求項1から9のいずれか一項に記載の方法(2、4)の少なくとも1つを実行させる複数の命令を含む、コンピュータプログラム。 A plurality of instructions which, when executed by a computer or a control device (10, 11), cause the computer or a control device to carry out at least one of the methods (2, 4) according to any one of claims 1 to 9. computer programs, including; 請求項11に記載のコンピュータプログラムが保存された、機械読み取り可能な記憶媒体(12、13)。
A machine-readable storage medium (12, 13) on which a computer program according to claim 11 is stored.
JP2023109909A 2019-06-07 2023-07-04 How to generate universally usable feature maps Active JP7609929B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102019208384.6A DE102019208384A1 (en) 2019-06-07 2019-06-07 Method for creating a universally applicable feature map
DE102019208384.6 2019-06-07
PCT/EP2020/062702 WO2020244881A1 (en) 2019-06-07 2020-05-07 Method for establishing a universally usable feature map
JP2021572328A JP7329079B2 (en) 2019-06-07 2020-05-07 How to generate universally usable feature maps

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021572328A Division JP7329079B2 (en) 2019-06-07 2020-05-07 How to generate universally usable feature maps

Publications (2)

Publication Number Publication Date
JP2023126893A true JP2023126893A (en) 2023-09-12
JP7609929B2 JP7609929B2 (en) 2025-01-07

Family

ID=70613795

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021572328A Active JP7329079B2 (en) 2019-06-07 2020-05-07 How to generate universally usable feature maps
JP2023109909A Active JP7609929B2 (en) 2019-06-07 2023-07-04 How to generate universally usable feature maps

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021572328A Active JP7329079B2 (en) 2019-06-07 2020-05-07 How to generate universally usable feature maps

Country Status (6)

Country Link
US (1) US20220236073A1 (en)
EP (1) EP3980724A1 (en)
JP (2) JP7329079B2 (en)
CN (1) CN113994172B (en)
DE (1) DE102019208384A1 (en)
WO (1) WO2020244881A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023035687A (en) * 2021-09-01 2023-03-13 国立大学法人金沢大学 Three-dimensional map generation method and three-dimensional map generation device
DE102023207262A1 (en) * 2023-07-28 2025-01-30 Robert Bosch Gesellschaft mit beschränkter Haftung Method for determining a trajectory extension from a trajectory for an object, computer program, machine-readable storage medium, electronic control unit and a rear view camera device for a vehicle
DE102023210175A1 (en) * 2023-10-18 2025-04-24 Robert Bosch Gesellschaft mit beschränkter Haftung Procedure to assist in the creation of a height map

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3292679B2 (en) * 1997-06-03 2002-06-17 三菱電機株式会社 Radar equipment
JP2005009926A (en) * 2003-06-17 2005-01-13 Nec Corp Target center position calculation method, apparatus, and program
JP5249577B2 (en) 2007-12-20 2013-07-31 三菱重工業株式会社 Tracking system and method, and vehicle
US8699755B2 (en) 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity
US8473187B2 (en) * 2009-06-01 2013-06-25 Robert Bosch Gmbh Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
EP2606472A2 (en) * 2010-06-11 2013-06-26 Estill, James A. System and method for manipulating data having spatial coordinates
JP5500388B2 (en) 2011-02-16 2014-05-21 アイシン・エィ・ダブリュ株式会社 Shooting position specifying system, shooting position specifying program, and shooting position specifying method
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US20140267282A1 (en) * 2013-03-14 2014-09-18 Robert Bosch Gmbh System And Method For Context Dependent Level Of Detail Adjustment For Navigation Maps And Systems
US9037403B2 (en) * 2013-03-26 2015-05-19 Toyota Motor Engineering & Manufacturing North America, Inc. Intensity map-based localization with adaptive thresholding
DE102013208521B4 (en) * 2013-05-08 2022-10-13 Bayerische Motoren Werke Aktiengesellschaft Collective learning of a highly accurate road model
GB201409625D0 (en) * 2014-05-30 2014-07-16 Isis Innovation Vehicle localisation
DE102014223363B4 (en) * 2014-11-17 2021-04-29 Volkswagen Aktiengesellschaft Method and device for localizing a motor vehicle in a fixed reference map
EP3299763B1 (en) * 2015-05-20 2020-08-26 Mitsubishi Electric Corporation Point cloud image generator
KR102630740B1 (en) * 2015-08-03 2024-01-29 톰톰 글로벌 콘텐트 비.브이. Method and system for generating and using location reference data
CN106022259B (en) * 2016-05-20 2019-04-12 江苏得得空间信息科技有限公司 A kind of mountain road extracting method based on laser point cloud three-dimensional feature descriptive model
US11085775B2 (en) * 2016-09-28 2021-08-10 Tomtom Global Content B.V. Methods and systems for generating and using localisation reference data
DE102016220521A1 (en) * 2016-10-19 2018-04-19 Volkswagen Aktiengesellschaft Method for determining a position of a motor vehicle and driver assistance system for a motor vehicle
US10528055B2 (en) * 2016-11-03 2020-01-07 Ford Global Technologies, Llc Road sign recognition
DE102017103986A1 (en) 2017-02-27 2018-08-30 Vorwerk & Co. Interholding Gmbh Method for operating a self-propelled robot
US10430968B2 (en) * 2017-03-14 2019-10-01 Ford Global Technologies, Llc Vehicle localization using cameras
CN106896353A (en) * 2017-03-21 2017-06-27 同济大学 A kind of unmanned vehicle crossing detection method based on three-dimensional laser radar
US10565457B2 (en) * 2017-08-23 2020-02-18 Tusimple, Inc. Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
DE102017220242A1 (en) * 2017-11-14 2019-05-16 Robert Bosch Gmbh Method and device for creating and providing a card
DE102017221691A1 (en) * 2017-12-01 2019-06-06 Volkswagen Aktiengesellschaft Method and device for self-localization of a vehicle
DE102017222810A1 (en) * 2017-12-14 2019-06-19 Robert Bosch Gmbh Method for creating a feature-based localization map for a vehicle taking into account characteristic structures of objects
US11237269B2 (en) * 2018-04-26 2022-02-01 Ford Global Technologies, Llc Localization technique
US11035933B2 (en) * 2018-05-04 2021-06-15 Honda Motor Co., Ltd. Transition map between lidar and high-definition map
JP7167876B2 (en) * 2018-08-31 2022-11-09 株式会社デンソー Map generation system, server and method

Also Published As

Publication number Publication date
JP7329079B2 (en) 2023-08-17
US20220236073A1 (en) 2022-07-28
JP7609929B2 (en) 2025-01-07
JP2022535568A (en) 2022-08-09
EP3980724A1 (en) 2022-04-13
DE102019208384A1 (en) 2020-12-10
WO2020244881A1 (en) 2020-12-10
CN113994172B (en) 2024-12-24
CN113994172A (en) 2022-01-28

Similar Documents

Publication Publication Date Title
CN111457929B (en) Logistics vehicle autonomous path planning and navigation method based on geographic information system
EP3674662B1 (en) Automatic detection and positioning of pole-like objects in 3d
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
US11321950B2 (en) Apparatus and method for detecting lane information, and computer-readable recording medium storing computer program programmed to execute same method
JP2022106924A (en) Device and method for autonomous self-position estimation
JP7609929B2 (en) How to generate universally usable feature maps
US10203409B2 (en) Method and device for the localization of a vehicle from a fixed reference map
US12174641B2 (en) Vehicle localization based on radar detections
Yoneda et al. Urban road localization by using multiple layer map matching and line segment matching
US20190219697A1 (en) Lidar localization
WO2019092149A1 (en) Automatic occlusion detection in road network data
CN110906939A (en) Automatic driving positioning method and device, electronic equipment, storage medium and automobile
CN106997688A (en) Parking position detecting method based on multi-sensor information fusion
US20130103305A1 (en) System for the navigation of oversized vehicles
CN104024880A (en) Methods and systems for precise vehicle localization using radar maps
CN102208013A (en) Scene matching reference data generation system and position measurement system
Moras et al. Drivable space characterization using automotive lidar and georeferenced map information
Brenner Vehicle localization using landmarks obtained by a lidar mobile mapping system
US11810459B1 (en) Vehicle localization based on radar detections in garages
KR20220063716A (en) Precise Vehicle Positioning Method and Device
Brenner et al. Evaluation of automatically extracted landmarks for future driver assistance systems
RU2784310C1 (en) Method for mapping of area for autonomous vehicles
EP4414948A1 (en) Terrain mapping method for autonomous vehicles
Jiménez et al. LiDAR-based SLAM algorithm for indoor scenarios
JP7323146B2 (en) Information processing method, program, and information processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241219

R150 Certificate of patent or registration of utility model

Ref document number: 7609929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150