CN112270306B - 一种基于拓扑路网的无人车轨迹预测与导航方法 - Google Patents
一种基于拓扑路网的无人车轨迹预测与导航方法 Download PDFInfo
- Publication number
- CN112270306B CN112270306B CN202011290551.8A CN202011290551A CN112270306B CN 112270306 B CN112270306 B CN 112270306B CN 202011290551 A CN202011290551 A CN 202011290551A CN 112270306 B CN112270306 B CN 112270306B
- Authority
- CN
- China
- Prior art keywords
- network
- unmanned vehicle
- path
- local
- trajectory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 230000011218 segmentation Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 8
- 230000008447 perception Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Human Resources & Organizations (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Marketing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Business, Economics & Management (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Tourism & Hospitality (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- Primary Health Care (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明属于自动驾驶技术领域,公开了一种基于拓扑路网的无人车轨迹预测与导航方法,可以由一下步骤实现,步骤S1:获取无人车导航区域内的拓扑路网并得到起点到终点的全局参考路径;步骤S2:根据无人车定位信息和全局参考路径,获取局部参考路径;步骤S3:将局部参考路径和无人车感知数据输入轨迹预测深度神经网络,输出预测的无人车局部引导路径;步骤S4:根据局部引导路径,引导无人车进行路径跟随。本发明可应用于没有高精度导航地图的非结构化场景以及野外环境,其拓扑路网制作和获取简单,基于已有的历史轨迹即可自动生成训练样本,并进行自监督学习,模型训练无需人工标注,大大节省了数据标注成本。
Description
技术领域
本发明属于自动驾驶技术领域,具体涉及一种基于拓扑路网的无人车轨迹预测与导航方法。
背景技术
路径跟随是自动驾驶车辆实现自主导航的基本功能,传统的方法采用全局路径规划和局部路径规划结合的方法获得无人车当前的跟随路径。全局路径规划依赖精准的全局路网信息,通常需要高精度导航地图的支持。现有的无人车导航技术在没有建立高精度导航地图的环境中,比如非结构化道路,野外环境等,无法实现自动驾驶。
发明内容
本发明的目的是在于解决无人车在非高精度导航地图的环境中无法实现自动驾驶的技术问题。
为此,本发明提出一种基于拓扑路网的无人车轨迹预测与导航方法。该方法能基于拓扑路网获取的不精准的全局参考路径,以及无人车的环境感知数据,预测无人车的局部引导路径,引导无人车进行路径跟随,从而实现无人车的导航。
本发明解决其技术问题是采取以下技术方案实现的:
S1:获取无人车导航区域内的拓扑路网并得到起点到终点的全局参考路径。
S2:根据无人车定位信息和S1中的全局参考路径,获取局部参考路径。
S3:将S2中的局部参考路径和无人车感知数据输入轨迹预测深度神经网络,输出预测的无人车局部引导路径。
此处,S3中无人车的感知数据为360度激光雷达点云数据、摄像头获取的图像数据或毫米波雷达数据。
其中S3中轨迹预测深度神经网络包括一个深度特征提取网络,自监督道路分割网络以及多模态轨迹预测网络。
其中深度特征提取网络由多个卷积层、非线性激活层、批归一化层以及跨越连接层构成的残差网络块组成,其输入为S3的无人车感知数据投影到以车辆为中心的俯视图的多通道特征图,以及将所述S2的局部参考路径投影到该俯视图上生成的二值图像数据。
自监督道路分割网络是由多个卷积层和上采样层组成的全卷积神经网络,其输入为深度特征提取网络得到的深度特征,输出为道路分割二值图像。在训练过程中,道路分割的真值通过无人车历史轨迹自动生成,无需人工标注,因此,该训练为自监督训练。自监督道路分割网络采用二分类交叉熵损失函数。
多模态轨迹预测网络包含一个轨迹回归网络和模态分类网络,均由多个全连接层组成,其输入为特征提取网络得到的深度特征,轨迹回归网络输出为多组预测的轨迹,模态分类网络的输出为每一组轨迹的概率信息。每一组轨迹用Nx2的二维数组表述,其中N为预测点的个数,2表示x和y方向的坐标信息。x和y的坐标原点为车体中心。
多模态轨迹预测网络在训练过程中最小化轨迹回归的误差以及模态预测的分类误差,其中回归任务的损失函数采用平滑L1损失函数,分类任务采用交叉熵损失函数。多模态轨迹预测网络的真值为无人车记录的真实历史轨迹信息。
多模态轨迹预测神经网络基于驾驶过的环境中大量真实历史轨迹数据进行训练。在训练完成之后可应用于没有驾驶过的环境进行导航,只需要输入S3中的传感器数据以及S2中的局部参考路径即可对当前局部路径进行预测并引导无人车完成导航。
S4:根据S3中预测的局部引导路径,引导无人车进行路径跟随,从而实现无人车导航。
S4.1:在没有障碍物的环境中,S3中预测的局部路径可直接作为引导路径,引导无人车进行路径跟随。
S4.2:在有障碍物的环境中,S3中预测的局部路径可以结合局部障碍图信息进行进一步的局部路径规划,获得绕障之后的安全引导路径,引导无人车进行路径跟随。
相比与现有技术,本发明的一种基于拓扑路网的无人车轨迹预测与导航方法具有以下优势:
(1)本发明的一种基于拓扑路网的无人车轨迹预测与导航方法,可应用于没有高精度导航地图的非结构化场景以及野外环境。
(2)本发明的一种基于拓扑路网的无人车轨迹预测与导航方法,其拓扑路网制作和获取简单,而现有的无人车导航与定位技术依赖高精度地图,其制作成本高,需要花费大量的人力物力。
(3)本发明的一种基于拓扑路网的无人车轨迹预测与导航方法,基于已有的历史轨迹即可自动生成训练样本,并进行自监督学习。模型训练无需人工标注,大大节省了数据标注成本。现有的方法往往依赖精确到车道线的标注信息,需要大量的人工标注,数据标注成本高。
附图说明
图1为本发明一种基于拓扑路网的无人车轨迹预测与导航方法实现流程示意图。
图2为本发明实施例的拓扑路网示意图;
图3(a)为本发明实施例的激光点云俯视图;
图3(b)为本发明实施例的局部参考路径二值化图像;
图3(c)为本发明实施例一种基于拓扑路网的无人车轨迹预测与导航方法局部历史路径二值化图像;
图4为本发明实施例的深度神经网络结构示意图;
图5为本发明实施例的轨迹预测结果示意图。
具体实施方式
以下通过特定的具体实例并结合说明书附图对本发明作进一步的详细描述。本发明技术方案如流程如图1所示,包括以下步骤:
S1:如图2所示,获取无人车导航区域内的卫星影像并标绘无人车导航的拓扑路网且拓扑路网中生成全局参考路径。
可选地,在S1的拓扑路网中依次标绘无人车的起点、经过的每一个交叉路口以及终点,形成一个拓扑路径,对路径上的每一条边,通过线性插值生成稠密的路径参考点,最终形成一个稠密的全局参考路径。
可选地,在S1的拓扑路网中标绘无人车的起点、终点,通过全局路径规划算法,如最短路径算法,计算起点到终点的全局路径,对路径上的每一条边,通过线性插值生成稠密的路径参考点,最终形成一个稠密的全局参考路径。
S2:获取无人车当前定位信息,根据当前位置信息,在S2的全局参考路径和历史路径中截取无人车前后方一定距离内的路径,其中历史路径为无人车在该区域的行驶过程中记录过的真实路径。
根据当前位置信息,在S2的全局参考路径中截取无人车前后方40米距离内的路径作为局部参考路径。
或根据当前位置信息,在历史路径中截取无人车前后方40米距离内的路径作为局部历史路径。
S3:获取无人车当前的感知数据,将S2中的局部参考路径和当前感知数据输入到轨迹预测深度神经网络,获得预测的准确的局部引导路径。
如图3(a)所示,本实例采用的感知数据为360度激光雷达点云数据。先将点云数据转换到以车体中心为原点,车头朝向为纵轴的车体坐标系,过滤掉离车辆位置较远的点云。保留的点云数据范围为,车后方16米到车前方32米,车左侧32米到右侧32米,以及点云高度为-2.5米到1.5米之间的点云数据。将过滤后的点云数据按照0.16米/像素的分辨率投影到俯视图得到鸟瞰图(BEV)特征图。图像高度为300像素,宽度为400像素,通道数目为27,其中通道0到26为占用格网特征,根据点云的高度值量化后得到,其值为0或1。通道27为点云的反射率信息,通过归一化计算转换为[0,1]之间的浮点数。
如图3(b)所示,将S2中的局部参考路径按照2米的道路宽度投影到车体坐标,并转换成二值化的图像数据,其中参考路径覆盖区域的像素用1表示,其余用0表示。
如图3(c)所示,将S2中的局部历史路径按照2米的道路宽度投影到车体坐标,并转换成二值化的图像数据,其中历史路径覆盖区域的像素用1表示,其余用0表示。
如图4所示,S4中轨迹预测深度神经网络包括一个深度特征提取网络,自监督道路分割网络以及多模态轨迹预测网络。
其中深度特征提取网络由多个卷积层、非线性激活层、批归一化层以及跨越连接层构成的残差网络块组成,其输入为点云鸟瞰图特征图,以及局部参考路径的二值化图像数据。
自监督道路分割网络是由多个卷积层和上采样层组成的全卷积神经网络,其输入为特征提取网络得到的深度特征,输出为道路分割二值图像。在训练过程中,道路分割的真值为通过无人车历史轨迹自动生成的历史轨迹的二值化图像,无需人工标注,因此,该训练为自监督训练。自监督道路分割网络采用二分类交叉熵损失函数。
多模态轨迹预测网络包含一个轨迹回归网络和模态分类网络,均由多个全连接层组成,其输入为特征提取网络得到的深度特征,轨迹回归网络输出为多组预测的轨迹,模态分类网络的输出为每一组轨迹的概率信息。每一组轨迹用Nx2的二维数组表述,其中N为预测点的个数,2表示x和y方向的坐标信息。x和y的坐标原点为车体中心。
多模态轨迹预测网络在训练过程中最小化轨迹回归的误差以及模态预测的分类误差,其中回归任务的损失函数采用平滑L1损失函数,分类任务采用交叉熵损失函数。多模态轨迹预测网络的真值为S2中的局部历史路径。
轨迹预测深度神经网络基于驾驶过的环境中大量真实历史轨迹数据进行训练。在训练完成之后可应用于没有驾驶过的环境进行导航,只需要输入点云数据以及局部参考路径即可对当前局部引导路径进行预测并引导无人车完成导航。
S4、根据S3预测的局部路径,引导无人车进行路径跟随,从而实现无人车导航。如图5所示,虚线为局部参考路径,实线为预测的引导路径。
S4.1:在没有障碍物的环境中,S4中预测的局部路径可直接作为引导路径,引导无人车进行路径跟随。
S4.2:在有障碍物的环境中,S4中预测的局部路径可以结合局部障碍图信息进行进一步的局部路径规划,获得绕障之后的安全引导路径,引导无人车进行路径跟随。
本实例采用A*算法进行局部规划。
虽然本发明已通过优选实施例进行了描述,然而本发明并非局限于这里所描述的实施例,在不脱离本发明范围的情况下还包括所做出的各种改变以及变化。
Claims (8)
1.一种基于拓扑路网的无人车轨迹预测与导航方法,其特征在于,包括如下步骤:
S1:获取无人车导航区域内的拓扑路网并得到起点到终点的全局参考路径;
S2:根据无人车定位信息和所述S1中的全局参考路径,获取局部参考路径;
S3:将所述S2中的局部参考路径和无人车感知数据输入轨迹预测深度神经网络,输出预测的无人车局部引导路径;
所述轨迹预测深度神经网络包括一个深度特征提取网络,自监督道路分割网络以及多模态轨迹预测网络;
所述自监督道路分割网络是由多个卷积层和上采样层组成的全卷积神经网络,其输入为所述深度特征提取网络得到的深度特征,输出为道路分割二值图像;在训练过程中,道路分割的真值通过无人车历史轨迹自动生成,无需人工标注,该训练为自监督训练,自监督道路分割网络采用二分类交叉熵损失函数;
所述多模态轨迹预测网络包含一个轨迹回归网络和模态分类网络,均由多个全连接层组成,其输入为所述深度特征提取网络得到的深度特征,轨迹回归网络输出为多组预测的轨迹,模态分类网络的输出为每一组轨迹的概率信息;每一组轨迹用Nx2的二维数组表述,其中N为预测点的个数,2表示x和y方向的坐标信息,x和y的坐标原点为车体中心;
S4:根据所述S3中预测的局部引导路径,引导无人车进行路径跟随,从而实现无人车导航;
S4.1:在没有障碍物的环境中,所述S3中预测的局部路径可直接作为引导路径,引导无人车进行路径跟随;
S4.2:在有障碍物的环境中,所述S3中预测的局部路径可以结合局部障碍图信息进行进一步的局部路径规划,获得绕障之后的安全引导路径,引导无人车进行路径跟随。
2.根据权利要求1所述的一种基于拓扑路网的无人车轨迹预测与导航方法,其特征在于,所述S1的全局参考路径可以通过如下方式获取,在S1的拓扑路网中依次标绘无人车的起点、经过的每一个交叉路口以及终点,形成一个拓扑路径,对路径上的每一条边,通过线性插值生成稠密的路径参考点,最终形成一个稠密的全局参考路径。
3.根据权利要求1所述的一种基于拓扑路网的无人车轨迹预测与导航方法,其特征在于,所述S1的全局参考路径可以通过如下方式获取,在S1的拓扑路网中标绘无人车的起点、终点,通过全局路径规划算法,计算起点到终点的全局路径,对路径上的每一条边,通过线性插值生成稠密的路径参考点,最终形成一个稠密的全局参考路径。
4.根据权利要求3所述的一种基于拓扑路网的无人车轨迹预测与导航方法,其特征在于,所述全局路径规划算法为最短路径算法。
5.根据权利要求4所述的一种基于拓扑路网的无人车轨迹预测与导航方法,其特征在于,所述多模态轨迹预测网络在训练过程中最小化轨迹回归的误差以及模态预测的分类误差,其中回归任务的损失函数采用平滑L1损失函数,分类任务采用交叉熵损失函数;多模态轨迹预测网络的真值为无人车记录的真实历史轨迹信息。
6.根据权利要求5所述的一种基于拓扑路网的无人车轨迹预测与导航方法,其特征在于,所述多模态轨迹预测网络基于驾驶过的环境中大量真实历史轨迹数据进行训练,在训练完成之后可应用于没有驾驶过的环境进行导航,只需要输入所述S3中的传感器数据以及所述S2中的局部参考路径即可对当前局部路径进行预测并引导无人车完成导航。
7.根据权利要求1-6任一权利要求所述的一种基于拓扑路网的无人车轨迹预测与导航方法,其特征在于,所述S3中的无人车的感知数据为360度激光雷达点云数据、摄像头获取的图像数据或毫米波雷达数据。
8.根据权利要求1-6任一权利要求所述的一种基于拓扑路网的无人车轨迹预测与导航方法,其特征在于,所述深度特征提取网络由多个卷积层、非线性激活层、批归一化层以及跨越连接层构成的残差网络块组成,其输入为所述S3的无人车感知数据投影到以车辆为中心的俯视图的多通道特征图,以及将所述S2的局部参考路径投影到该俯视图上生成的二值图像数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011290551.8A CN112270306B (zh) | 2020-11-17 | 2020-11-17 | 一种基于拓扑路网的无人车轨迹预测与导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011290551.8A CN112270306B (zh) | 2020-11-17 | 2020-11-17 | 一种基于拓扑路网的无人车轨迹预测与导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112270306A CN112270306A (zh) | 2021-01-26 |
CN112270306B true CN112270306B (zh) | 2022-09-30 |
Family
ID=74339215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011290551.8A Active CN112270306B (zh) | 2020-11-17 | 2020-11-17 | 一种基于拓扑路网的无人车轨迹预测与导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112270306B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117015814A (zh) * | 2021-02-08 | 2023-11-07 | 浙江吉利控股集团有限公司 | 一种路径构建方法、装置、终端及存储介质 |
CN114910088B (zh) * | 2021-02-09 | 2023-06-16 | 武汉智行者科技有限公司 | 一种混合道路路径规划的方法、系统以及存储介质 |
CN112964271B (zh) * | 2021-03-15 | 2023-03-31 | 西安交通大学 | 一种面向多场景的自动驾驶规划方法及系统 |
CN113126618B (zh) * | 2021-03-17 | 2022-03-11 | 中国科学院合肥物质科学研究院 | 一种越野环境下的无人驾驶全局路径规划及重规划方法 |
CN113033893B (zh) * | 2021-03-23 | 2023-04-18 | 同济大学 | 自动化集装箱码头自动导引车行车时间预测方法 |
CN113724384A (zh) * | 2021-07-30 | 2021-11-30 | 深圳市普渡科技有限公司 | 机器人拓扑地图生成系统、方法、计算机设备及存储介质 |
CN113568416B (zh) * | 2021-09-26 | 2021-12-24 | 智道网联科技(北京)有限公司 | 无人车轨迹规划方法、装置和计算机可读存储介质 |
CN114355874B (zh) * | 2021-11-11 | 2024-03-22 | 北京百度网讯科技有限公司 | 路径规划方法、装置、电子设备及自动行驶设备 |
CN114326737A (zh) * | 2021-12-30 | 2022-04-12 | 深兰人工智能(深圳)有限公司 | 路径规划方法、装置、电子设备及计算机可读存储介质 |
CN114440892B (zh) * | 2022-01-27 | 2023-11-03 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于拓扑地图和里程计的自定位方法 |
CN115049130B (zh) * | 2022-06-20 | 2024-06-04 | 重庆邮电大学 | 一种基于时空金字塔的自动驾驶轨迹预测方法 |
CN117496476B (zh) * | 2024-01-02 | 2024-03-26 | 安徽蔚来智驾科技有限公司 | 路网生成方法、可读存储介质及智能设备 |
CN117553801B (zh) * | 2024-01-08 | 2024-07-26 | 深圳市普渡科技有限公司 | 拓扑路径图生成方法、装置、机器人及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107037812A (zh) * | 2017-03-31 | 2017-08-11 | 南京理工大学 | 一种基于仓储无人车的车辆路径规划方法 |
JP2018106676A (ja) * | 2016-12-22 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理装置、被操作車両、情報処理方法及びプログラム |
GB201818001D0 (en) * | 2018-11-05 | 2018-12-19 | Continental Automotive Gmbh | Method and system for processing image data utlizing deep neural network |
CN110221611A (zh) * | 2019-06-11 | 2019-09-10 | 北京三快在线科技有限公司 | 一种轨迹跟踪控制方法、装置及无人驾驶车辆 |
CN110262518A (zh) * | 2019-07-22 | 2019-09-20 | 上海交通大学 | 基于轨迹拓扑地图和避障的车辆导航方法、系统及介质 |
CN111367282A (zh) * | 2020-03-09 | 2020-07-03 | 山东大学 | 一种基于多模感知与强化学习的机器人导航方法及系统 |
CN111780777A (zh) * | 2020-07-13 | 2020-10-16 | 江苏中科智能制造研究院有限公司 | 一种基于改进a*算法和深度强化学习的无人车路径规划方法 |
CN111912423A (zh) * | 2020-10-13 | 2020-11-10 | 北京三快在线科技有限公司 | 一种预测障碍物轨迹以及模型训练的方法及装置 |
-
2020
- 2020-11-17 CN CN202011290551.8A patent/CN112270306B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106676A (ja) * | 2016-12-22 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理装置、被操作車両、情報処理方法及びプログラム |
CN107037812A (zh) * | 2017-03-31 | 2017-08-11 | 南京理工大学 | 一种基于仓储无人车的车辆路径规划方法 |
GB201818001D0 (en) * | 2018-11-05 | 2018-12-19 | Continental Automotive Gmbh | Method and system for processing image data utlizing deep neural network |
CN110221611A (zh) * | 2019-06-11 | 2019-09-10 | 北京三快在线科技有限公司 | 一种轨迹跟踪控制方法、装置及无人驾驶车辆 |
CN110262518A (zh) * | 2019-07-22 | 2019-09-20 | 上海交通大学 | 基于轨迹拓扑地图和避障的车辆导航方法、系统及介质 |
CN111367282A (zh) * | 2020-03-09 | 2020-07-03 | 山东大学 | 一种基于多模感知与强化学习的机器人导航方法及系统 |
CN111780777A (zh) * | 2020-07-13 | 2020-10-16 | 江苏中科智能制造研究院有限公司 | 一种基于改进a*算法和深度强化学习的无人车路径规划方法 |
CN111912423A (zh) * | 2020-10-13 | 2020-11-10 | 北京三快在线科技有限公司 | 一种预测障碍物轨迹以及模型训练的方法及装置 |
Non-Patent Citations (2)
Title |
---|
Autonomous Vehicle Navigation in Rural Environments Without Detailed Prior Maps;Teddy Ort等;《2018 IEEE International Conference on Robotics and Automation (ICRA)》;20180313;全文 * |
应用于智能车的车道信息感知及增量建模技术研究;于泳;《中国博士学位论文全文数据库(电子期刊)工程科技II辑》;20181215;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112270306A (zh) | 2021-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112270306B (zh) | 一种基于拓扑路网的无人车轨迹预测与导航方法 | |
CN111160561B (zh) | 使用支柱进行对象检测的深度学习 | |
CN113348422B (zh) | 用于生成预测占据栅格地图的方法和系统 | |
CN113272830B (zh) | 行为预测系统中的轨迹表示 | |
CN111102986B (zh) | 用于运载工具导航的尺寸缩小的地图的自动生成以及时空定位 | |
CN109214248B (zh) | 用于识别无人驾驶车辆的激光点云数据的方法和装置 | |
US10073456B2 (en) | Automated co-pilot control for autonomous vehicles | |
Levinson et al. | Traffic light mapping, localization, and state detection for autonomous vehicles | |
EP3822852B1 (en) | Method, apparatus, computer storage medium and program for training a trajectory planning model | |
WO2020185489A1 (en) | Sensor validation using semantic segmentation information | |
WO2021227313A1 (en) | Method and system for generating an importance occupancy grid map | |
US11237269B2 (en) | Localization technique | |
CN114051628B (zh) | 一种确定目标对象点云集的方法及装置 | |
US20220035036A1 (en) | Method and apparatus for positioning movable device, and movable device | |
CN111339876B (zh) | 用于识别场景中各区域类型的方法和装置 | |
CN115615445A (zh) | 处理地图数据的方法、系统和存储介质 | |
DE112021006299T5 (de) | Verfahren und Systeme zur Bodensegmentierung mittels Graphenschnitten | |
CN110705385B (zh) | 一种障碍物角度的检测方法、装置、设备及介质 | |
KR20230004212A (ko) | 대상체 검출을 위한 교차 모달리티 능동 학습 | |
Kang et al. | Map building based on sensor fusion for autonomous vehicle | |
Thomas et al. | Sensor-based road model estimation for autonomous driving | |
CN114821543B (zh) | 障碍物检测方法、装置、车辆和存储介质 | |
CN118411517B (zh) | 一种针对汇流区交通道路的数字孪生方法及装置 | |
US20240246570A1 (en) | Path planning system and path planning method thereof | |
US20240125899A1 (en) | Semantic segmentation of aggregated sensor data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |