JP2023126893A - Method for creating universally usable feature map - Google Patents
Method for creating universally usable feature map Download PDFInfo
- Publication number
- JP2023126893A JP2023126893A JP2023109909A JP2023109909A JP2023126893A JP 2023126893 A JP2023126893 A JP 2023126893A JP 2023109909 A JP2023109909 A JP 2023109909A JP 2023109909 A JP2023109909 A JP 2023109909A JP 2023126893 A JP2023126893 A JP 2023126893A
- Authority
- JP
- Japan
- Prior art keywords
- map
- measurement data
- features
- stored
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000005259 measurement Methods 0.000 claims abstract description 68
- 238000010586 diagram Methods 0.000 claims abstract description 16
- 238000004590 computer program Methods 0.000 claims abstract description 6
- 230000007613 environmental effect Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 6
- 238000003909 pattern recognition Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/3867—Geometry of map features, e.g. shape points, polygons or for simplified maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3878—Hierarchical structures, e.g. layering
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Databases & Information Systems (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
- Instructional Devices (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Processing Or Creating Images (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Computer Networks & Wireless Communication (AREA)
Abstract
【課題】データ消費を抑えた汎用的に利用可能なデジタルマップを生成する方法を提供する。【解決手段】制御装置によるデジタルマップの生成方法であって、測定走行中に環境の測定データを受信し、受信された測定データに基づくSLAMを実行して測定走行の軌道を特定し、受信された測定データを軌道の座標系に変換し、変換された測定データを強度マップの生成に使用し、強度マップから特徴を抽出して特徴マップに保存する方法が開示されている。さらに、自己位置特定を実行する方法、制御装置、コンピュータプログラム、および機械読み取り可能な記憶媒体が開示されている。【選択図】図1The present invention provides a method for generating a digital map that can be used for general purposes while reducing data consumption. A method for generating a digital map by a control device, which receives environmental measurement data during a measurement run, executes SLAM based on the received measurement data to identify the trajectory of the measurement run, and A method is disclosed in which measured data is converted into a trajectory coordinate system, the converted measured data is used to generate an intensity map, and features are extracted from the intensity map and stored in the feature map. Additionally, a method, controller, computer program product, and machine-readable storage medium for performing self-localization is disclosed. [Selection diagram] Figure 1
Description
本発明は、デジタルマップを生成する方法および自己位置特定(ローカリゼーション)を実行する方法に関する。さらに、本発明は、制御装置、コンピュータプログラムおよび機械読み取り可能な記録媒体に関する。 The present invention relates to a method of generating a digital map and a method of performing self-localization. Furthermore, the present invention relates to a control device, a computer program, and a machine-readable recording medium.
自動車やロボットの自動運転には、自己位置特定(ローカリゼーション)は不可欠な機能要素である。自己位置特定によって、マップや環境内での車両やロボットの正確な位置を認識できる。特定した位置に基づいて、例えば軌道を走行したり、タスクを実施したりするように制御コマンドを生成することができる。 Localization is an essential functional element for autonomous driving of cars and robots. Self-localization allows vehicles and robots to know their exact location on a map or in the environment. Based on the identified location, control commands can be generated to, for example, travel on a track or perform a task.
特にGNSSデータへアクセスしないアプリケーションでは、いわゆるSLAMにより自己位置特定とマッピング(マップ生成)とを同時に行うことができる。この目的のため、マップを生成するために、例えばライダー(LIDAR)センサ等の測定データが収集され、解析される。続くステップにおいて、マップ内の位置を決定することができる。 Particularly in applications that do not access GNSS data, self-location and mapping (map generation) can be performed simultaneously using so-called SLAM. For this purpose, measurement data, for example from LIDAR sensors, are collected and analyzed in order to generate a map. In a subsequent step, the location within the map can be determined.
SLAMの問題点は、動的または半静的な環境での適用である。このような環境は、例えば、格納場所、建設現場、イントラロジスティクス、またはコンテナポート等に存在し得る。対象物が定期的に移動することにより、生成されたマップは短時間で有効性が失われる。このようなマップの定期的な更新には、測定および解析の大きな手間を要する。特に、定期的に更新されるマップを、全てのユーザが利用可能にする必要があり、このため大量のデータを提供するためのインフラが必要である。 The problem with SLAM is its application in dynamic or semi-static environments. Such environments may exist, for example, in storage areas, construction sites, intralogistics, or container ports. Due to regular movement of objects, the generated maps lose their validity after a short time. Periodic updating of such maps requires a great deal of effort in measurement and analysis. In particular, regularly updated maps need to be available to all users, which requires an infrastructure to provide large amounts of data.
本発明の根底にある課題は、データ消費を抑えた汎用的に利用可能なデジタルマップを生成する方法を提案することにあると考えられる。 It is believed that the underlying problem of the present invention is to propose a method for generating a universally usable digital map with reduced data consumption.
この課題は、独立請求項の各主題によって解決される。本発明の有利な実施形態は、それぞれの従属請求項の主題である。 This problem is solved by the subject matter of the independent claims. Advantageous embodiments of the invention are the subject of the respective dependent claims.
本発明の一態様によれば、制御装置によるデジタルマップを生成する方法が提供される。1つのステップでは、測定走行中に環境の測定データを受信する。ここで、測定走行は任意の走行であってよい。好ましくは、測定データを、少なくとも1つのセンサによって静止時または駐車時にも収集することができる。続いて、対応する測定データを制御装置で受信し、処理することができる。 According to one aspect of the invention, a method is provided for generating a digital map by a controller. One step is to receive environmental measurement data during a measurement drive. Here, the measurement run may be any run. Preferably, measurement data can also be collected by at least one sensor when the vehicle is stationary or parked. Subsequently, the corresponding measurement data can be received and processed by the control device.
受信された測定データに基づいて、測定走行の軌道を特定するためにSLAMが実行される。ここで、一連の測定データに基づいて自らの自己位置特定が行われ、測定走行中のそれぞれの位置が軌道を形成する。 Based on the received measurement data, SLAM is performed to determine the trajectory of the measurement trip. Here, self-localization is performed based on a series of measurement data, and each position during the measurement run forms a trajectory.
さらなるステップでは、受信された測定データを軌道の座標系に変換する。受信された測定データは、例えば、センサに対する相対位置および/または相対距離を有し得る。続いて、この相対座標を、例えば軌道の絶対座標系に変換することができる。このような座標系としては、例えばカルテシアン(直交)座標系があり得る。 A further step is to transform the received measurement data into the coordinate system of the orbit. The received measurement data may include, for example, a relative position and/or a relative distance to the sensor. This relative coordinate can then be transformed into the absolute coordinate system of the trajectory, for example. Such a coordinate system may be, for example, a Cartesian (orthogonal) coordinate system.
変換された測定データは、強度マップの生成に使用される。例えば、1つまたは複数のライダー(LIDAR)センサまたはレーダセンサの反射光の強度を測定し、受信光強度のマップの形態で格納してもよい。 The transformed measurement data is used to generate an intensity map. For example, the intensity of reflected light from one or more LIDAR or radar sensors may be measured and stored in the form of a map of received light intensity.
続いて、強度マップから特徴を抽出し、特徴マップに保存する。当該特徴は、好ましくは、強度マップから検出することができる。このプロセスは、例えばパターン認識アルゴリズムによって行うことができる。パターン認識は、あらかじめ適宜学習されたニューラルネットワークによって行われてもよい。パターン認識は、例えば処理を行う者により手動で行われてもよいし、または自動で行われてもよい。さらに、処理を行う者により、自動的に行われるパターン認識が解除されたり、確認されたりされてもよい。 Next, features are extracted from the intensity map and saved in a feature map. The features can preferably be detected from the intensity map. This process can be performed, for example, by a pattern recognition algorithm. Pattern recognition may be performed by a neural network that has been appropriately trained in advance. Pattern recognition may be performed manually, for example by a person performing the processing, or may be performed automatically. Furthermore, the automatically performed pattern recognition may be canceled or confirmed by the person performing the processing.
パターンマップは、好ましくは汎用的に使用可能である。特に、パターンマップはセンサに依存せず、あるいはセンサ優位(sensorubergreifend)に使用可能であるため、測定された異なる測定データから特徴を抽出し、特徴マップに基づき自己位置特定に使用することができる。 The pattern map is preferably universally usable. In particular, since the pattern map can be used sensor-independent or sensor-dominantly, features can be extracted from different measured measurement data and used for self-localization based on the feature map.
本発明のさらなる態様によれば、特に制御装置で自己位置特定を実行する方法が提供される。1つのステップでは、環境の測定データと特徴マップを受信する。測定データは、1つまたは複数のセンサによって測定されてもよい。このようなセンサは、例えばカメラセンサ、ライダーセンサ、レーダセンサ、超音波センサ等であってもよい。特に、当該センサは、特徴マップを生成するために使用されたセンサと異なってもよい。 According to a further aspect of the invention, a method is provided for performing self-localization, particularly in a control device. One step is to receive measurement data and feature maps of the environment. Measurement data may be measured by one or more sensors. Such a sensor may be, for example, a camera sensor, a lidar sensor, a radar sensor, an ultrasonic sensor, or the like. In particular, the sensor may be different from the sensor used to generate the feature map.
さらなるステップでは、受信された測定データの特徴を認識し抽出する。続いて、抽出した少なくとも1つの特徴と特徴マップに格納された特徴とを照合して位置を特定する。少なくとも1つの特徴の照合が成功したときは、センサまたはセンサを使用して測定を行う車両の位置を決定することができる。 A further step is to recognize and extract features of the received measurement data. Next, the position is determined by comparing the extracted at least one feature with the feature stored in the feature map. When the at least one characteristic is successfully matched, the sensor or the position of the vehicle from which the sensor is to be measured can be determined.
本発明のさらなる態様によれば、制御装置が提供され、制御装置は、上記方法を実施するように構成されている。ここで、制御装置は、自動走行機能を実行するための車両制御装置に組み込まれる車載制御装置であってもよいし、車両制御装置に接続可能な装置であってもよい。代替的または追加的に、制御装置は、例えばサーバ装置またはクラウド技術のような、車両外部の制御装置として構成されてもよい。 According to a further aspect of the invention, a controller is provided, the controller being configured to implement the method described above. Here, the control device may be an in-vehicle control device built into a vehicle control device for executing an automatic driving function, or a device connectable to the vehicle control device. Alternatively or additionally, the control device may be configured as a control device external to the vehicle, such as, for example, a server device or cloud technology.
さらに、本発明の一態様によれば、コンピュータまたは制御装置によって実行されると、コンピュータまたは制御装置に本発明に係る方法を実行させる複数の命令を含むコンピュータプログラムが提供される。本発明のさらなる態様によれば、本発明に係るコンピュータプログラムが保存された機械読み取り可能な記憶媒体が提供される。 Furthermore, according to one aspect of the invention, there is provided a computer program comprising a plurality of instructions which, when executed by a computer or a control device, cause the computer or control device to carry out the method according to the invention. According to a further aspect of the invention, there is provided a machine-readable storage medium storing a computer program according to the invention.
この際、制御装置は車両に組み込まれていてもよい。特に、少なくとも1回の測定走行は、制御装置を備えた車両で実行できる。この際、車両は、BASt規格に基づき、アシスト、部分自動運転、高度自動運転、および/または完全自動運転、またはドライバーレスで運転可能である。代替または追加の形態によれば、車両は、ロボット、ドローン、船舶等であってよい。これにより、高速道路等の道路、田舎道、市街地、および路外またはオフロードでも本方法を使用することができる。本方法は、特に、建物またはホール、地下空間、駐車場および駐車ガレージ、トンネル等で利用できる。 In this case, the control device may be built into the vehicle. In particular, at least one measuring drive can be carried out in a vehicle equipped with a control device. At this time, the vehicle can operate in assisted, partially automated, highly automated, and/or fully automated mode, or without a driver, based on the BASt standard. According to alternative or additional forms, the vehicle may be a robot, a drone, a ship, etc. This allows the method to be used on roads such as highways, country roads, urban areas, and off-road. The method can be used in particular in buildings or halls, underground spaces, parking lots and garages, tunnels, etc.
測定データを測定するための少なくとも1つのセンサは、周辺環境センサシステムの構成要素または車両の少なくとも1つのセンサであってよい。特に、少なくとも1つのセンサは、ライダーセンサ、レーダセンサ、超音波センサ、カメラセンサ、オドメータ、加速度センサ、位置センサ等であってもよい。特に、センサは、単独で使用されてもよいし、互いに組み合わせて使用されてもよい。さらに、オドメトリック(積算)法を実行するために、例えば加速度センサ、ホイールセンサ、ライダーセンサ、超音波距離センサ、カメラ等のセンサを使用してもよい。 The at least one sensor for measuring the measurement data may be a component of a surrounding environment sensor system or at least one sensor of a vehicle. In particular, the at least one sensor may be a lidar sensor, a radar sensor, an ultrasound sensor, a camera sensor, an odometer, an acceleration sensor, a position sensor, etc. In particular, the sensors may be used alone or in combination with each other. Furthermore, sensors such as acceleration sensors, wheel sensors, lidar sensors, ultrasonic distance sensors, cameras, etc. may be used to perform the odometric method.
本発明に係る方法によって、特に環境の静的な特徴を特定して抽出することができる。このような特徴は、例えば、道路標識、建物の幾何学的形状、縁石、道路、信号機の配置や位置、視線誘導標、車線境界、建物、コンテナ等であってよい。このような特徴を複数の異なるセンサによって検出し、自己位置特定に利用することができる。例えば、ライダーセンサの測定データから抽出される特徴をカメラセンサでも検出し、自己位置特定のために互いに比較してもよい。そのため、異なる車両や機械で利用できる、汎用的に使用可能な特徴マップを生成することができる。例えば、このような特徴マップは、パーソナルモビリティ、搬送ユニット、マニピュレータ等によって正確な自己位置特定に利用され得る。 The method according to the invention allows in particular static features of the environment to be identified and extracted. Such features may be, for example, road signs, building geometry, curbs, roads, traffic light placement and position, delineators, lane boundaries, buildings, containers, etc. Such features can be detected by multiple different sensors and used for self-localization. For example, features extracted from measurement data of a lidar sensor may also be detected by a camera sensor and compared with each other for self-localization. Therefore, it is possible to generate a universally usable feature map that can be used in different vehicles and machines. For example, such feature maps can be utilized for accurate self-localization by personal mobility, transport units, manipulators, etc.
好ましくは、第1のステップでマーキングマップを生成し、続いて自己位置特定のタスクに使用することができる。特に、マーキングマップは、自動運転される車両やロボットの自己位置特定や制御タスクに利用できる。 Preferably, a marking map is generated in a first step and can subsequently be used for the task of self-localization. In particular, marking maps can be used for self-localization and control tasks in autonomous vehicles and robots.
特徴マップの特徴は、幾何学図形や直線、点等であり得るため、座標やベクトルの形で最小限のデータサイズで保存可能である。これにより、車両やロボットに特徴マップを提供する際に必要なデータ容量を削減することができる。 Since the features of the feature map can be geometric figures, straight lines, points, etc., they can be stored in the form of coordinates or vectors with a minimum data size. This makes it possible to reduce the amount of data required to provide feature maps to vehicles and robots.
実施例によれば、特徴マップは、デジタルマップとして、またはデジタルマップのマップレイヤとして保存される。これにより、特徴マップは特にフレキシブルに使用され得る。特に、既存のマップを、特徴マップによってアップグレードしたり、最小限の所要の記憶容量でデジタルマップとして実施したりすることができる。 According to embodiments, the feature map is saved as a digital map or as a map layer of a digital map. This allows the feature map to be used particularly flexibly. In particular, existing maps can be upgraded with feature maps or implemented as digital maps with minimal storage requirements.
さらなる実施例によれば、受信された測定データは点群として存在し、複数のセルからなるラスタに割り当てられている。好ましくは、強度マップを生成するために、各セルの測定データの平均値を算出する。デジタルマップのセルは、例えば、画素、画素群、ポリゴン等であってよい。平均値を算出することで、測定値の局所的な不一致や揺れを補償することができる。測定値は、特に、レーダセンサおよび/またはライダーセンサからの反射ビーム、または後方散乱後に検出されるビームによって構成され得る。 According to a further embodiment, the received measurement data are present as a point cloud and are assigned to a raster of cells. Preferably, the average value of the measurement data of each cell is calculated to generate the intensity map. A cell of the digital map may be, for example, a pixel, a group of pixels, a polygon, or the like. By calculating the average value, it is possible to compensate for local discrepancies and fluctuations in the measured values. The measurements may in particular be constituted by reflected beams from radar and/or lidar sensors or by beams detected after backscatter.
さらなる実施形態によれば、受信された測定データから高度マップが生成され、高度マップを生成するために、各セルおよび隣接するセルの測定データから加重平均値が算出される。これにより、測定された測定データから付加情報を抽出し、特徴マップの生成に利用することができる。 According to a further embodiment, an altitude map is generated from the received measurement data, and a weighted average value is calculated from the measurement data of each cell and neighboring cells to generate the altitude map. Thereby, additional information can be extracted from the measured measurement data and used to generate a feature map.
さらなる実施例によれば、抽出された特徴の高度を決定するために、生成された高度マップから情報を受信し、特徴マップに保存する。ここで、高度マップと特徴マップとを重ね合わせて、高度マップの対応する属性や情報を特徴マップに伝達することができる。これに加え、例えば、特徴の位置における高さや強度の傾きを、それぞれの特徴から引き継ぐことができる。このプロセスは、好ましくは自動的に実行され、高度マップの各セルと特徴マップの各セルとが照合される。 According to a further embodiment, information is received from the generated altitude map and stored in the feature map to determine the altitude of the extracted features. Here, the altitude map and the feature map can be superimposed and the corresponding attributes and information of the altitude map can be transmitted to the feature map. In addition, for example, the height or intensity gradient at the feature position can be inherited from each feature. This process is preferably performed automatically, matching each cell of the elevation map with each cell of the feature map.
さらなる実施形態によれば、抽出された特徴は、汎用的に特定可能な特徴として特徴マップに保存される。有利な形態によれば、特徴は、幾何学的形状、線、点および/または点群等として抽出され、保存される。このようにして、自己位置特定を行うために、環境測定データから物体、標識、特有の形状または特徴を有する形状を抽出し、使用することができる。特に、これによって動的な環境下でも多数の静的な特徴を特定し、位置を正確に特定するために使用することができる。ここで、特徴は基本的にセンサに依存せずに特定できるため、マーキングマップは汎用的に利用可能である。 According to a further embodiment, the extracted features are stored in a feature map as universally identifiable features. According to an advantageous embodiment, the features are extracted and stored as geometric shapes, lines, points and/or point clouds, etc. In this way, objects, landmarks, shapes with distinctive shapes or characteristics can be extracted and used from the environmental measurement data to perform self-localization. In particular, this allows the identification of large numbers of static features even in dynamic environments and can be used to accurately determine location. Here, since the features can basically be identified without depending on the sensor, the marking map can be used for general purposes.
さらなる実施例によれば、受信された測定データは位置データとして実現され、位置ダイアグラムに保存される。好ましくは、特定された位置は、特徴が正常に照合されたときは、新しい測定値として位置ダイアグラムに格納される。特徴マップは、例えば、車両やロボットの位置を特定するために使用できる。この際、それぞれの現在位置は、経路に沿って、例えば所定の時間間隔で特定され、位置ダイアグラムや位置マップに格納される。位置ダイアグラムによって、移動距離や軌道を表示することができる。特徴マップに特徴があれば、その特徴マップ内での位置を、測定データを測定した車両やセンサに割り当てることができる。その後、この位置は別の測定値として位置ダイアグラムに保存される。 According to a further embodiment, the received measurement data is realized as position data and stored in a position diagram. Preferably, the identified location is stored as a new measurement in the location diagram when the feature is successfully matched. Feature maps can be used, for example, to locate vehicles or robots. At this time, each current position is specified along the route, for example, at predetermined time intervals, and stored in a position diagram or a position map. Position diagrams allow you to display distance traveled and trajectories. If the feature map has a feature, a position in the feature map can be assigned to the vehicle or sensor that measured the measurement data. This position is then saved as a separate measurement in the position diagram.
さらなる実施例によれば、測定データは、特徴マップの生成に使用された少なくとも1つのセンサとは異なる少なくとも1つのセンサから測定される。抽出された特徴は、好ましくは抽象化された形式で存在し、ひいては汎用的に読み取り可能または比較可能であってもよい。このような特徴の形式は、例えばテキスト形式の座標として存在してもよい。特に、座標内の特徴は、始点、終点、中間点、方向、長さ、高さ等を有してもよい。これらの情報を特に少ない所要の記憶容量で格納し、照合を行うために利用することができる。 According to a further embodiment, the measurement data is measured from at least one sensor different from the at least one sensor used to generate the feature map. The extracted features preferably exist in an abstracted form and may thus be universally readable or comparable. The form of such features may be present, for example, as coordinates in text form. In particular, features within the coordinates may include starting points, ending points, intermediate points, directions, lengths, heights, etc. This information can be stored with particularly low storage requirements and used for verification purposes.
以下に、非常に簡略化した模式図を用いて、本発明の好ましい実施例を詳述する。 In the following, preferred embodiments of the invention will be explained in detail using highly simplified schematic diagrams.
図1は、本発明に係る方法2、4を説明するための配置1の模式図である。
FIG. 1 is a schematic diagram of an
配置1は、2つの車両6、8を有する。代替的または追加的に、配置1は、ロボットおよび/またはさらなる車両を有してもよい。図示の実施例によれば、第1の車両6は、デジタルマップ、特にマーキングマップを生成するための方法2を実行する機能を果たす。第2の車両8は、デジタルマップ内での自己位置特定を実行する方法4を明確化するために模式的に示されている。
第1の車両6は、機械読み取り可能なメモリ12およびセンサ14とデータ通信可能に接続された制御装置10を有する。センサ14は、例えばライダー(LIDAR)センサ14であってもよい。
The
ライダーセンサ14によって、第1の車両6は環境Uを走査し、測定データを生成することができる。続いて、測定された測定データを制御装置10によって受信し、解析することができる。制御装置10によって生成された特徴マップは、通信リンク16を介して他の道路利用者や車両8に提供され得る。特徴マップを、機械読み取り可能な記憶媒体12に格納してもよい。
The
第2の車両8は、同様に制御装置11を有する。制御装置11は、機械読み取り可能な記憶媒体13と、センサ15とにデータ通信可能に接続されている。本実施例によればセンサ15はカメラセンサ15であり、同様に環境Uの測定データを測定して制御装置11に伝送することができる。制御装置11は、環境Uの測定データから特徴を抽出し、通信リンク16を介して制御装置11から受信された、特徴マップからの特徴と照合することができる。
The second vehicle 8 likewise has a control device 11 . The control device 11 is connected to a machine-
図2は、実施例に係るデジタルマップを生成する方法2を説明するための模式図である。
FIG. 2 is a schematic diagram for explaining
第1のステップ18において、環境Uの測定データを、第1の車両6の測定走行中に測定し、制御装置10によって受信する。実施例によれば、環境Uをライダーセンサ14で走査する。
In a
続くステップ19では、測定走行中に受信された測定データを用いてSLAMを実行する。SLAMは、第1の車両6の軌道を決定する。
In the following
受信された測定データを軌道の座標系に変換する(20)。代替的に、軌道を測定データの座標系に変換してもよい。例えば、共通の座標系はカルテシアン(直交)座標系であってもよい。 The received measurement data is transformed into an orbital coordinate system (20). Alternatively, the trajectory may be transformed into the coordinate system of the measured data. For example, the common coordinate system may be a Cartesian (orthogonal) coordinate system.
変換された測定データを用いて強度マップ30を生成する(21)。このような強度マップ30を図4に示す。特に、測定データは、複数のセル31、32を有するグリッドマップとして存在してよい。セル31、32は、例えば、画素として、あるいは画素群として構成されてよい。各セル31、32は、座標系に対応して、例えばGPS座標等の局所的な割り当てを有してよい。
An
続いて、各セル31、32について強度を計算する。このため、それぞれのセル31、32内の全ての測定値について平均値を計算する。こうして計算された平均値から強度マップ30を生成する(21)。
Subsequently, the intensity is calculated for each
さらに、高度マップ40を生成する(22)。高度マップ40は加重平均値から生成され、これは図5に示されている。加重平均は、各セル31内の測定値と、対応する隣接セル32の測定データとについて計算される。
Furthermore, an
さらなるステップ23では、強度マップ30から特徴を抽出する。これは、例えば自動化されたパターン認識アルゴリズムや、オペレータによる手動で行うことができる。例えば、強度マップ30における明部と暗部の間の遷移が、可能なパターンとして考慮される。高度マップ40に基づき、各特徴にプロファイルを割り当てることができる。
A
特定された特徴を、強度マップ30内の位置に応じて特徴マップ60に保存する(24)。特徴マップ60は、図6に模式的に示されている。ここでは、複数の特徴62、64、66に例示的なライダーのスキャンがオーバレイされている。特徴62、64、66は、例示的な車道マーキング62、車道境界部64、および地面上の他のマーキング66である。特徴マップ60を、例えば機械読み取り可能な記憶媒体12に保存し、通信リンク16を介して提供してもよい。
The identified features are stored in feature map 60 according to their location within intensity map 30 (24). The feature map 60 is schematically shown in FIG. Here, a plurality of
図3は、一実施例に係る自己位置特定(ローカリゼーション)を実行する方法4を説明するための模式図である。方法4を、例示的に第2の車両8の制御装置11によって実施する。
FIG. 3 is a schematic diagram for explaining a
ステップ25では、環境Uの測定データをセンサ15によって測定し、制御装置11に伝達する。さらに、特徴マップ60を、通信リンク16を介して制御装置11によって受信する。これは、制御装置11に実装された位置ダイアグラムロケータ(位置測定器)によって実施することができる。
In
この際、測定データを、連続的にまたは所定の時間間隔で取得し、制御装置11によって受信することができる。さらに、オドメトリックな(積算された)測定データを制御装置11で受信してもよい。 At this time, the measurement data can be acquired continuously or at predetermined time intervals and received by the control device 11. Furthermore, the control device 11 may receive odometric (integrated) measurement data.
さらなるステップ26では、受信された測定データから特徴62、64、66を抽出する。この際、特徴62、64、66を受信された特徴マップ60と照合する(27)。照合の際、車両内で検出された特徴62、64、66を特徴マップ60上で見つけることが試みられる。この際、オドメトリ(積算)によって測定された測定データは、特徴マップ60内の探索領域を限定することができる。特徴マップ60は、抽象化された、ひいては汎用的に使用可能な特徴62、64、66を有するため、カメラセンサ15を用いて測定された測定データも、自己位置特定に使用することができる。
A
車両側で特定された特徴と、特徴マップ60の特徴62、64、66との間に一致が見られた場合、車両8の位置を補正または更新することができる(28)。
If a match is found between the features identified on the vehicle side and the
Claims (12)
測定走行中に環境(U)の測定データを受信し(18)、
当該受信された測定データに基づくSLAMを実行して前記測定走行の軌道を特定し(19)、
当該受信された測定データを前記軌道の座標系に変換し(20)、
当該変換された測定データを強度マップ(30)の生成(21)に使用し、
前記強度マップ(30)から特徴(62、64、66)を抽出して(23)、特徴マップ(60)に保存する(24)、方法。 A method (2) of generating a digital map by a control device (10), comprising:
Receive measurement data of the environment (U) during the measurement run (18),
performing SLAM based on the received measurement data to identify the trajectory of the measurement run (19);
converting the received measurement data into a coordinate system of the orbit (20);
using the converted measurement data to generate (21) an intensity map (30);
A method, wherein features (62, 64, 66) are extracted (23) from said intensity map (30) and stored (24) in a feature map (60).
環境(U)の測定データおよび特徴マップ(60)受信し(25)、
当該受信された測定データの特徴を認識および抽出し(26)、
抽出された少なくとも1つの特徴を、前記特徴マップに格納された特徴(62、64、66)と照合して位置を特定する(27)方法。 In particular, a method (4) for performing self-localization by a control device (11), comprising:
receiving (25) measurement data and a feature map (60) of the environment (U);
recognizing and extracting features of the received measurement data (26);
A method (27) of identifying a position by comparing at least one extracted feature with features (62, 64, 66) stored in the feature map.
A machine-readable storage medium (12, 13) on which a computer program according to claim 11 is stored.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019208384.6A DE102019208384A1 (en) | 2019-06-07 | 2019-06-07 | Method for creating a universally applicable feature map |
DE102019208384.6 | 2019-06-07 | ||
PCT/EP2020/062702 WO2020244881A1 (en) | 2019-06-07 | 2020-05-07 | Method for establishing a universally usable feature map |
JP2021572328A JP7329079B2 (en) | 2019-06-07 | 2020-05-07 | How to generate universally usable feature maps |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021572328A Division JP7329079B2 (en) | 2019-06-07 | 2020-05-07 | How to generate universally usable feature maps |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023126893A true JP2023126893A (en) | 2023-09-12 |
JP7609929B2 JP7609929B2 (en) | 2025-01-07 |
Family
ID=70613795
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021572328A Active JP7329079B2 (en) | 2019-06-07 | 2020-05-07 | How to generate universally usable feature maps |
JP2023109909A Active JP7609929B2 (en) | 2019-06-07 | 2023-07-04 | How to generate universally usable feature maps |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021572328A Active JP7329079B2 (en) | 2019-06-07 | 2020-05-07 | How to generate universally usable feature maps |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220236073A1 (en) |
EP (1) | EP3980724A1 (en) |
JP (2) | JP7329079B2 (en) |
CN (1) | CN113994172B (en) |
DE (1) | DE102019208384A1 (en) |
WO (1) | WO2020244881A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023035687A (en) * | 2021-09-01 | 2023-03-13 | 国立大学法人金沢大学 | Three-dimensional map generation method and three-dimensional map generation device |
DE102023207262A1 (en) * | 2023-07-28 | 2025-01-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for determining a trajectory extension from a trajectory for an object, computer program, machine-readable storage medium, electronic control unit and a rear view camera device for a vehicle |
DE102023210175A1 (en) * | 2023-10-18 | 2025-04-24 | Robert Bosch Gesellschaft mit beschränkter Haftung | Procedure to assist in the creation of a height map |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3292679B2 (en) * | 1997-06-03 | 2002-06-17 | 三菱電機株式会社 | Radar equipment |
JP2005009926A (en) * | 2003-06-17 | 2005-01-13 | Nec Corp | Target center position calculation method, apparatus, and program |
JP5249577B2 (en) | 2007-12-20 | 2013-07-31 | 三菱重工業株式会社 | Tracking system and method, and vehicle |
US8699755B2 (en) | 2009-02-20 | 2014-04-15 | Navteq B.V. | Determining travel path features based on retroreflectivity |
US8473187B2 (en) * | 2009-06-01 | 2013-06-25 | Robert Bosch Gmbh | Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization |
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
EP2606472A2 (en) * | 2010-06-11 | 2013-06-26 | Estill, James A. | System and method for manipulating data having spatial coordinates |
JP5500388B2 (en) | 2011-02-16 | 2014-05-21 | アイシン・エィ・ダブリュ株式会社 | Shooting position specifying system, shooting position specifying program, and shooting position specifying method |
US8798840B2 (en) | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
US20140267282A1 (en) * | 2013-03-14 | 2014-09-18 | Robert Bosch Gmbh | System And Method For Context Dependent Level Of Detail Adjustment For Navigation Maps And Systems |
US9037403B2 (en) * | 2013-03-26 | 2015-05-19 | Toyota Motor Engineering & Manufacturing North America, Inc. | Intensity map-based localization with adaptive thresholding |
DE102013208521B4 (en) * | 2013-05-08 | 2022-10-13 | Bayerische Motoren Werke Aktiengesellschaft | Collective learning of a highly accurate road model |
GB201409625D0 (en) * | 2014-05-30 | 2014-07-16 | Isis Innovation | Vehicle localisation |
DE102014223363B4 (en) * | 2014-11-17 | 2021-04-29 | Volkswagen Aktiengesellschaft | Method and device for localizing a motor vehicle in a fixed reference map |
EP3299763B1 (en) * | 2015-05-20 | 2020-08-26 | Mitsubishi Electric Corporation | Point cloud image generator |
KR102630740B1 (en) * | 2015-08-03 | 2024-01-29 | 톰톰 글로벌 콘텐트 비.브이. | Method and system for generating and using location reference data |
CN106022259B (en) * | 2016-05-20 | 2019-04-12 | 江苏得得空间信息科技有限公司 | A kind of mountain road extracting method based on laser point cloud three-dimensional feature descriptive model |
US11085775B2 (en) * | 2016-09-28 | 2021-08-10 | Tomtom Global Content B.V. | Methods and systems for generating and using localisation reference data |
DE102016220521A1 (en) * | 2016-10-19 | 2018-04-19 | Volkswagen Aktiengesellschaft | Method for determining a position of a motor vehicle and driver assistance system for a motor vehicle |
US10528055B2 (en) * | 2016-11-03 | 2020-01-07 | Ford Global Technologies, Llc | Road sign recognition |
DE102017103986A1 (en) | 2017-02-27 | 2018-08-30 | Vorwerk & Co. Interholding Gmbh | Method for operating a self-propelled robot |
US10430968B2 (en) * | 2017-03-14 | 2019-10-01 | Ford Global Technologies, Llc | Vehicle localization using cameras |
CN106896353A (en) * | 2017-03-21 | 2017-06-27 | 同济大学 | A kind of unmanned vehicle crossing detection method based on three-dimensional laser radar |
US10565457B2 (en) * | 2017-08-23 | 2020-02-18 | Tusimple, Inc. | Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map |
DE102017220242A1 (en) * | 2017-11-14 | 2019-05-16 | Robert Bosch Gmbh | Method and device for creating and providing a card |
DE102017221691A1 (en) * | 2017-12-01 | 2019-06-06 | Volkswagen Aktiengesellschaft | Method and device for self-localization of a vehicle |
DE102017222810A1 (en) * | 2017-12-14 | 2019-06-19 | Robert Bosch Gmbh | Method for creating a feature-based localization map for a vehicle taking into account characteristic structures of objects |
US11237269B2 (en) * | 2018-04-26 | 2022-02-01 | Ford Global Technologies, Llc | Localization technique |
US11035933B2 (en) * | 2018-05-04 | 2021-06-15 | Honda Motor Co., Ltd. | Transition map between lidar and high-definition map |
JP7167876B2 (en) * | 2018-08-31 | 2022-11-09 | 株式会社デンソー | Map generation system, server and method |
-
2019
- 2019-06-07 DE DE102019208384.6A patent/DE102019208384A1/en active Pending
-
2020
- 2020-05-07 JP JP2021572328A patent/JP7329079B2/en active Active
- 2020-05-07 WO PCT/EP2020/062702 patent/WO2020244881A1/en active Application Filing
- 2020-05-07 CN CN202080042066.0A patent/CN113994172B/en active Active
- 2020-05-07 EP EP20724501.0A patent/EP3980724A1/en not_active Ceased
- 2020-05-07 US US17/596,131 patent/US20220236073A1/en active Pending
-
2023
- 2023-07-04 JP JP2023109909A patent/JP7609929B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7329079B2 (en) | 2023-08-17 |
US20220236073A1 (en) | 2022-07-28 |
JP7609929B2 (en) | 2025-01-07 |
JP2022535568A (en) | 2022-08-09 |
EP3980724A1 (en) | 2022-04-13 |
DE102019208384A1 (en) | 2020-12-10 |
WO2020244881A1 (en) | 2020-12-10 |
CN113994172B (en) | 2024-12-24 |
CN113994172A (en) | 2022-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111457929B (en) | Logistics vehicle autonomous path planning and navigation method based on geographic information system | |
EP3674662B1 (en) | Automatic detection and positioning of pole-like objects in 3d | |
Brenner | Extraction of features from mobile laser scanning data for future driver assistance systems | |
US11321950B2 (en) | Apparatus and method for detecting lane information, and computer-readable recording medium storing computer program programmed to execute same method | |
JP2022106924A (en) | Device and method for autonomous self-position estimation | |
JP7609929B2 (en) | How to generate universally usable feature maps | |
US10203409B2 (en) | Method and device for the localization of a vehicle from a fixed reference map | |
US12174641B2 (en) | Vehicle localization based on radar detections | |
Yoneda et al. | Urban road localization by using multiple layer map matching and line segment matching | |
US20190219697A1 (en) | Lidar localization | |
WO2019092149A1 (en) | Automatic occlusion detection in road network data | |
CN110906939A (en) | Automatic driving positioning method and device, electronic equipment, storage medium and automobile | |
CN106997688A (en) | Parking position detecting method based on multi-sensor information fusion | |
US20130103305A1 (en) | System for the navigation of oversized vehicles | |
CN104024880A (en) | Methods and systems for precise vehicle localization using radar maps | |
CN102208013A (en) | Scene matching reference data generation system and position measurement system | |
Moras et al. | Drivable space characterization using automotive lidar and georeferenced map information | |
Brenner | Vehicle localization using landmarks obtained by a lidar mobile mapping system | |
US11810459B1 (en) | Vehicle localization based on radar detections in garages | |
KR20220063716A (en) | Precise Vehicle Positioning Method and Device | |
Brenner et al. | Evaluation of automatically extracted landmarks for future driver assistance systems | |
RU2784310C1 (en) | Method for mapping of area for autonomous vehicles | |
EP4414948A1 (en) | Terrain mapping method for autonomous vehicles | |
Jiménez et al. | LiDAR-based SLAM algorithm for indoor scenarios | |
JP7323146B2 (en) | Information processing method, program, and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7609929 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |