CN115147790A - 一种基于图神经网络的车辆未来轨迹预测方法 - Google Patents
一种基于图神经网络的车辆未来轨迹预测方法 Download PDFInfo
- Publication number
- CN115147790A CN115147790A CN202210741040.6A CN202210741040A CN115147790A CN 115147790 A CN115147790 A CN 115147790A CN 202210741040 A CN202210741040 A CN 202210741040A CN 115147790 A CN115147790 A CN 115147790A
- Authority
- CN
- China
- Prior art keywords
- neural network
- track
- vehicle
- information
- future
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims abstract description 9
- 238000003062 neural network model Methods 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims abstract description 4
- 230000003068 static effect Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 12
- 230000002093 peripheral effect Effects 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000016776 visual perception Effects 0.000 claims description 4
- 230000004438 eyesight Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000013138 pruning Methods 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 230000010365 information processing Effects 0.000 claims description 2
- 238000013136 deep learning model Methods 0.000 abstract description 4
- 230000006399 behavior Effects 0.000 abstract description 3
- 239000003795 chemical substances by application Substances 0.000 description 12
- 230000003993 interaction Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005293 physical law Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于图神经网络的车辆未来轨迹预测方法,包括如下步骤:步骤1:数据采集:步骤2:制作训练数据:步骤3:神经网络搭建:步骤4:进行模型训练:步骤5:将测试集输入训练完成的图神经网络模型,得到轨迹预测的结果。本发明所述方法是基于图神经网络(GNN)的多模态轨迹预测算法,道路图和待预测车辆的时间序列会输入深度学习模型,输出预测轨迹;模型输出的是多条轨迹及其对应的置信概率,从而避免模型为了降低损失函数值而输出多条轨迹的均值的行为(模式崩塌);当神经网络训练好之后,在模型见到训练数据中没有存在过的实时路况和交通参与者的状态时,模型会基于已有经验对新数据作出预测。
Description
技术领域
本发明涉及智能驾驶技术领域,具体涉及一种基于图神经网络的车辆未来轨迹预测方法。
背景技术
自动驾驶车辆在行驶过程中需要与两种环境信息进行频繁的交互,这两种环境信息是静态信息和动态信息,其中,静态信息主要是道路约束信息,如车道边界、道路限速、道路航向、静态障碍物等;而动态信息主要是自动驾驶车辆周边的其它交通参与者,包括车辆和行人,以及红绿灯状态。提供自动驾驶的安全性就需要对自车规划出安全的未来行驶轨迹,而保证这种规划的安全就需要对周边交通参与者未来趋势或轨迹的准确预测。同时周边交通参与者的未来轨迹也是与其所处的静态和动态环境交互得出的。因此,轨迹预测算法的研究对于自动驾驶车辆的决策规划和运动控制的安全性和准确性有着至关重要的作用,也对自动驾驶车辆理解环境信息发挥着重要作用。
目前,车辆未来轨迹的预测方法主要分为两大类:1)基于运动学模型和曲线拟合的轨迹预测方法:该方法基于物理定律考虑了车辆的惯性、转向和施加的力,通过模拟车辆进行满足特定运动学模型的运动、或者曲线拟合车辆过去一定时间段内的轨迹得到车辆未来短时间内的运动轨迹,比如将车辆在瞬时的转向看作匀速圆周运动来求解。该方法在无交互的空旷路况中取得了令人满意的性能结果。然而完全基于物理自车和目标车辆的物理规律,而无视道路环境和与周边车辆的交互是该方法的致命缺陷,这导致了基于运动学模型的方法无法适应有复杂交互的真实路况,在复杂场景下的性能和安全性急剧下降。2) 基于深度学习的轨迹预测方法:随着数据量和计算机算力的不断增长,使得基于深度学习的轨迹预测方法变得可行。深度学习方法以数据为驱动,同时考虑车辆周边地图感知信息和周报车辆历史轨迹的特征信息,使得模型能够较好的适应复杂路况,且克服了传统机器学习手工特征工程鲁棒性差的缺点,使得该类方法逐渐成为行业主流。
现有基于卷积神经网络(CNN)的深度学习轨迹预测算法,大多是基于BEV栅格图,同时编码周边交通参与者(以下简称agent)历史轨迹信息和静态地图信息,将agent的历史轨迹也编码为了图像信息,使用卷积神经网络隐式学习轨迹序列和目标跟踪id,然而,擅长编码局部信息的卷积神经网络并不一定可以对编码在栅格图中的时间序列进行良好的特征提取。同时,要对大范围的环境信息进行学习要求卷积神经网络有足够大的感受野,而这可能会丢失对细粒度特征(如局部交互)的理解。所以,现有技术在自动驾驶场景中对行人和车辆未来轨迹进行预测时,难以充分考虑交通参与者之间的交互、以及交通参与者与道路环境之间的交互,并且,无法对场景语义信息更加显式地进行建模。
发明内容
针对现有技术存在的上述不足,本发明的目的在于提供一种基于图神经网络的车辆未来轨迹预测方法,以解决现有技术中难以充分考虑交通参与者之间的交互、以及交通参与者与道路环境之间的交互、且无法对场景语义信息更加显式地进行建模的问题。
为了解决上述技术问题,本发明采用如下技术方案:
本发明提供一种基于图神经网络的车辆未来轨迹预测方法,包括如下步骤:
步骤1:数据采集:获取交通参与者、周边交通参与者的视觉感知信息、传感定位信息以及高精地图信息,并对获取的信息进行处理;
步骤2:制作训练数据:根据传感定位信息和高精地图构建道路图,然后构建周边交通参与者和自车轨迹的时间序列,生成真值未来轨迹和多模态轨迹;
步骤3:神经网络搭建:基于自车、周边交通参与者的时间序列,以及道路图中包含的每个节点中的空间序列,使用循环神经网络LSTM进行编码,并用LSTM中的隐向量来表征整个序列特征;
步骤4:进行模型训练:构建关于多模态分类和元素偏移量准确性的负对数似然损失函数:
式中,M表示模态数量、H表示预测的时间步数,N表示二维高斯分布、s表示真实轨迹点、a表示静态轨迹anchor、μ表示高斯分布均值、Σ表示二维高斯分布的协方差矩阵、x表示输入样本、θ表示网络参数。神经网络模型通过梯度反向传播优化模型参数,使损失函数逐步下降、性能指标逐步提升。
步骤5:将测试集输入训练完成的图神经网络模型,得到轨迹预测的结果。
与现有技术相比,本发明具有如下有益效果:
1、本发明所述方法是基于图神经网络(GNN)的多模态轨迹预测算法,道路图和待预测车辆的时间序列会输入深度学习模型,输出预测轨迹;模型输出的是多条轨迹及其对应的置信概率,从而避免模型为了降低损失函数值而输出多条轨迹的均值的行为(模式崩塌);当神经网络训练好之后,在模型见到训练数据中没有存在过的实时路况和交通参与者的状态时,模型会基于已有经验对新数据做出预测。
2、本发明所述方法和基于规则与运动学的方法不同,本发明通过采集大量人类驾驶员在现实场景中的实际驾驶数据进行训练学习,本发明所述方法能够捕捉待预测交通参与者周边道路信息、待预测交通参与者周边交通参与者当前位置和历史运动状态、以及交通参与者与交通参与者、交通参与者与道路信息之间的复杂交互,让深度学习模型学习人类驾驶员的实际判断,进而实现在复杂场景下的车辆轨迹准确预测。
具体实施方式
为了使本发明的实施例的目的、技术方案和优点更加清楚,下面将结合实施例对本发明作进一步地详细描述,所描述的实施例不应视为对本发明的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供一种基于图神经网络的车辆未来轨迹预测方法,基于图神经网络(GNN)的多模态轨迹预测算法。道路图和待预测车辆的时间序列会输入深度学习模型,输出预测轨迹。模型输出的是多条轨迹及其对应的置信概率,从而避免模型为了降低损失函数值而输出多条轨迹的均值的行为(模式崩塌)。当神经网络训练好之后,在模型见到训练数据中没有存在过的实时路况和交通参与者状态时,模型会基于已有经验对新数据作出预测。和基于规则与运动学的方法不同,本发明通过采集大量人类驾驶员在现实场景中的实际驾驶数据进行训练学习,最终让深度学习模型学习人类驾驶员的实际判断;和卷积神经网络隐式编码交通参与者历史序列不同,本发明使用循环神经网络(RNN)编码时间序列。
具体包括如下步骤:
步骤1:数据采集:获取交通参与者、周边交通参与者的视觉感知信息、传感定位信息以及高精地图信息,并对获取的信息进行处理。其中,信息处理包括如下步骤:
首先,通过视觉传感器采集周边交通参与者的实时信息,并将实时信息分割成序列信息;其次,根据自车在全局坐标系下的定位和航向,以及周边交通参与者在自车坐标系下的定位,将周边交通参与者的坐标映射至全局坐标系;最后,生成交通参与者以帧为单位的数据片段。
在具体实施时,首先,将无人驾驶车辆搭载的视觉传感器采集到的周边agent实时信息(位置、航向、加速度、宽高、转向率等)分割为以(帧,agent_id)对为单位的序列信息,每一帧对应多个agent_id,采样频率为1Hz,即相邻两帧之间在时间上的间隔为0.1s。然后,根据定位端给出的自车在全局坐标系下的定位和航向以及视觉感知给出的周边agent在自车坐标系下的定位,将周边agent的坐标映射到全局坐标系。最后,生成agent的以帧为单位的数据片段。
步骤2:制作训练数据:根据传感定位信息和高精地图构建道路图,然后构建周边交通参与者和自车轨迹的时间序列,生成真值未来轨迹和多模态轨迹。其中,所述道路图由节点和边组成,节点通过离散化的车道中心线和车道边界线每隔一定距离采样获得,边由节点之间的空间拓扑关系获得。每个节点包含一定距离的离散化点空间序列,每个离散化点包括该点的标志位信息。所述边包括前驱边,后继边,左换道边,右换道边。
构建周边交通参与者和自车轨迹的时间序列包括如下步骤:
在过去设定时间内,对采集到的数据帧进行滑窗采样,生成间隔时间为设定值的历史轨迹点序列;所述轨迹点包括该交通参与者的位置、航向、速度、加速度、转向率、是否静止标志位;其中,所述位置和航向都位于待预测交通参与者的自车坐标系下。
所述真值未来轨迹通过如下步骤生成:
在未来设定时间内,对采集到的数据帧进行滑窗采样,生成间隔时间为设定值的未来轨迹点序列;所述轨迹点包括该交通参与者的位置、航向、速度、加速度、转向率、是否静止标志位;其中,所述位置和航向都位于待预测交通参与者的自车坐标系下。
所述多模态轨迹通过如下方法获得:
对一定数量的真实轨迹进行聚类、剪枝,获得真实多模态轨迹。
该步骤在具体实施时,首先,根据定位和高精地图信息构建道路Graph。道路Graph由节点和边组成,节点由离散化的车道中心线和车道边界线每隔一定距离采样得到,即每个节点包含了一定距离的离散化点空间序列,每个离散化点包括该点处的位置、航向、是否位于停止线等标志位组成。道路Graph的边由节点间的空间拓扑关系得到,一共包含4种边:{前驱边,后继边,左换道边,右换道边}。构造好的Graph会用于后续图神经网络的学习。然后,构建周边agent和自车轨迹时间序列。通过对采集数据帧滑窗采样过去2s时间,生成间隔为0.1s的历史轨迹点序列,每个轨迹点包括该agent的位置、航向、速度、加速度、转向率、是否静止标志位构成。其中位置和航向都位于待预测agent的自车坐标系下。然后,真值未来轨迹生成。通过对采集数据帧滑窗采样未来5s时间,生成间隔为0.1s的未来轨迹点序列,每个轨迹点包括该agent的位置坐标。其中位置和航向都位于待预测agent的自车坐标系下。最后,轨迹anchor生成。从大量真实轨迹中聚类、剪枝得到真实轨迹anchor,用于后续训练。轨迹预测本身是一个多模态问题(如,路口出可以选择多个方向行驶),本发明认为,在选定anchor的条件下,轨迹预测可以近似为一个单模态问题。
步骤3:神经网络搭建:基于自车、周边交通参与者的时间序列,以及道路图中包含的每个节点中的空间序列,使用循环神经网络LSTM进行编码,并用LSTM中的隐向量来表征整个序列特征。其中,将经过LSTM编码后的交通参与者特征向量和道路图节点的特征向量一起输入多头注意力层;经过多头注意力层处理后,道路图同时包含道路信息和交通参与者信息,采用图神经网络对道路图进行特征提取;通过两个全连接层输出预测向量。两个全连接层输出维度为M*(5*H+1)的预测向量,其中M表示考虑输出M个候选多模态,每条轨迹对应未来的H个预测点,+1表示对M个候选多模态的分类概率,5表示对多模态里每个轨迹点网络学习获得的元素偏移量的参数(均值、协方差、相关系数)。
步骤4:进行模型训练:
负对数似然损失:使用分类得到的anchor和网络学习出来的offset相加得到。其中offset由网络在每个未来轨迹点处学习的二维高斯分布得到。期望与真实轨迹最接近的anchor的置信概率为1,其余预测anchor的概率为0,同时真实轨迹点在高斯分布中的似然越大越好(即预测轨迹和真实轨迹越接近越好)。
由此,构建关于多模态分类和元素偏移量准确性的负对数似然损失函数:
式中,M表示模态数量、H表示预测的时间步数,N表示二维高斯分布、s表示真实轨迹点、a表示静态轨迹anchor、μ表示二维高斯分布均值、Σ表示二维高斯分布的协方差矩阵、x表示输入样本、θ表示网络参数。
神经网络模型通过梯度反向传播优化模型参数,使损失函数逐步下降、性能指标逐步提升,从而从数据中获得所需信息。
步骤5:将测试集输入训练完成的图神经网络模型,得到轨迹预测的结果,即对应于模型输出置信概率最大的那条anchor加上offset进行调整,可以使用ADE、FDE、missrate、off-road rate等指标综合评价模型性能。
本发明所述方法和基于规则与运动学的方法不同,本发明通过采集大量人类驾驶员在现实场景中的实际驾驶数据进行训练学习,本发明所述方法能够捕捉待预测交通参与者周边道路信息、待预测交通参与者周边交通参与者当前位置和历史运动状态、以及交通参与者与交通参与者、交通参与者与道路信息之间的复杂交互,让深度学习模型学习人类驾驶员的实际判断,进而实现在复杂场景下的车辆轨迹准确预测。
如上所述,本发明的提醒系统不限于所述配置,其他可以实现本发明的实施例的系统均可落入本发明所保护的范围内。
最后需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制技术方案,本领域的普通技术人员应当理解,那些对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,均应涵盖在本发明的权利要求范围当中。
Claims (10)
1.一种基于图神经网络的车辆未来轨迹预测方法,其特征在于,包括如下步骤:
步骤1:数据采集:获取交通参与者、周边交通参与者的视觉感知信息、传感定位信息以及高精地图信息,并对获取的信息进行处理;
步骤2:制作训练数据:根据传感定位信息和高精地图构建道路图,然后构建周边交通参与者和自车轨迹的时间序列,生成真值未来轨迹和多模态轨迹;
步骤3:神经网络搭建:基于自车、周边交通参与者的时间序列,以及道路图中包含的每个节点中的空间序列,使用循环神经网络LSTM进行编码,并用LSTM中的隐向量来表征整个序列特征;
步骤4:进行模型训练:构建关于多模态分类和元素偏移量准确性的负对数似然损失函数:
式中,M表示模态数量、H表示预测的时间步数,N表示二维高斯分布、s表示真实轨迹点、a表示静态轨迹anchor、μ表示高斯分布均值、Σ表示二维高斯分布的协方差矩阵、x表示输入样本、θ表示网络参数;神经网络模型通过梯度反向传播优化模型参数,使损失函数逐步下降、性能指标逐步提升;
步骤5:将测试集输入训练完成的图神经网络模型,得到轨迹预测的结果。
2.根据权利要求1所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,在步骤1中,信息处理包括如下步骤:
首先,通过视觉传感器采集周边交通参与者的实时信息,并将实时信息分割成序列信息;其次,根据自车在全局坐标系下的定位和航向,以及周边交通参与者在自车坐标系下的定位,将周边交通参与者的坐标映射至全局坐标系;最后,生成交通参与者以帧为单位的数据片段。
3.根据权利要求1所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,在步骤2中,所述道路图由节点和边组成,节点通过离散化的车道中心线和车道边界线每隔一定距离采样获得,边由节点之间的空间拓扑关系获得。
4.根据权利要求3所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,每个节点包含一定距离的离散化点空间序列,每个离散化点包括该点的标志位信息。
5.根据权利要求3所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,所述边包括前驱边,后继边,左换道边,右换道边。
6.根据权利要求3所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,在步骤2中,构建周边交通参与者和自车轨迹的时间序列包括如下步骤:
在过去设定时间内,对采集到的数据帧进行滑窗采样,生成间隔时间为设定值的历史轨迹点序列;所述轨迹点包括该交通参与者的位置、航向、速度、加速度、转向率、是否静止标志位;其中,所述位置和航向都位于待预测交通参与者的自车坐标系下。
7.根据权利要求1所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,在步骤2中,所述真值未来轨迹通过如下步骤生成:
在未来设定时间内,对采集到的数据帧进行滑窗采样,生成间隔时间为设定值的未来轨迹点序列;所述轨迹点包括该交通参与者的位置、航向、速度、加速度、转向率、是否静止标志位;其中,所述位置和航向都位于待预测交通参与者的自车坐标系下。
8.根据权利要求1所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,在步骤2中,所述多模态轨迹通过如下方法获得:
对一定数量的真实轨迹进行聚类、剪枝,获得真实多模态轨迹。
9.根据权利要求1所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,在步骤3中,将经过LSTM编码后的交通参与者特征向量和道路图节点的特征向量一起输入多头注意力层;经过多头注意力层处理后,道路图同时包含道路信息和交通参与者信息,采用图神经网络对道路图进行特征提取;通过两个全连接层输出预测向量。
10.根据权利要求9所述基于图神经网络的车辆未来轨迹预测方法,其特征在于,两个全连接层输出维度为M*(5*H+1)的预测向量,其中M表示考虑输出M个候选多模态,每条轨迹对应未来的H个预测点,+1表示对M个候选多模态的分类概率,5表示对多模态里每个轨迹点网络学习获得的元素偏移量的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210741040.6A CN115147790B (zh) | 2022-06-28 | 2022-06-28 | 一种基于图神经网络的车辆未来轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210741040.6A CN115147790B (zh) | 2022-06-28 | 2022-06-28 | 一种基于图神经网络的车辆未来轨迹预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115147790A true CN115147790A (zh) | 2022-10-04 |
CN115147790B CN115147790B (zh) | 2024-06-04 |
Family
ID=83410802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210741040.6A Active CN115147790B (zh) | 2022-06-28 | 2022-06-28 | 一种基于图神经网络的车辆未来轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115147790B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115719547A (zh) * | 2022-10-12 | 2023-02-28 | 清华大学 | 基于多重交互行为的交通参与者轨迹预测方法及系统 |
CN116343177A (zh) * | 2023-03-02 | 2023-06-27 | 安庆梁葛业网络科技有限公司 | 基于数据处理监控智慧交通异常驾驶行为的方法及系统 |
CN116558540A (zh) * | 2023-07-11 | 2023-08-08 | 新石器慧通(北京)科技有限公司 | 模型训练方法和装置、轨迹生成方法和装置 |
CN116558541A (zh) * | 2023-07-11 | 2023-08-08 | 新石器慧通(北京)科技有限公司 | 模型训练方法和装置、轨迹预测方法和装置 |
CN117971915A (zh) * | 2023-12-08 | 2024-05-03 | 上海栈略数据技术有限公司 | 基于图神经网络的风险因子关联数据挖掘方法 |
CN118378069A (zh) * | 2024-06-24 | 2024-07-23 | 希迪智驾(成都)科技有限公司 | 一种基于对比学习的自动驾驶鲁棒控制方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931905A (zh) * | 2020-07-13 | 2020-11-13 | 江苏大学 | 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法 |
WO2021077725A1 (zh) * | 2019-10-21 | 2021-04-29 | 南京航空航天大学 | 一种基于驾驶意图的周围车辆运动状态预测系统及方法 |
CN112977472A (zh) * | 2019-12-12 | 2021-06-18 | 百度(美国)有限责任公司 | 预测车辆的移动轨迹的方法及系统 |
WO2021226027A1 (en) * | 2020-05-06 | 2021-11-11 | Luminar, Llc | Graph neural network for multi-object detection and tracking |
WO2022010855A1 (en) * | 2020-07-07 | 2022-01-13 | Ohio State Innovation Foundation | Systems, methods and devices for map-based object's localization deep learning and object's motion trajectories on geospatial maps |
CN114022847A (zh) * | 2021-11-23 | 2022-02-08 | 清华大学 | 一种智能体轨迹预测方法、系统、设备和存储介质 |
CN114372503A (zh) * | 2021-12-03 | 2022-04-19 | 同济大学 | 一种集群车辆运动轨迹预测方法 |
-
2022
- 2022-06-28 CN CN202210741040.6A patent/CN115147790B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021077725A1 (zh) * | 2019-10-21 | 2021-04-29 | 南京航空航天大学 | 一种基于驾驶意图的周围车辆运动状态预测系统及方法 |
CN112977472A (zh) * | 2019-12-12 | 2021-06-18 | 百度(美国)有限责任公司 | 预测车辆的移动轨迹的方法及系统 |
WO2021226027A1 (en) * | 2020-05-06 | 2021-11-11 | Luminar, Llc | Graph neural network for multi-object detection and tracking |
WO2022010855A1 (en) * | 2020-07-07 | 2022-01-13 | Ohio State Innovation Foundation | Systems, methods and devices for map-based object's localization deep learning and object's motion trajectories on geospatial maps |
CN111931905A (zh) * | 2020-07-13 | 2020-11-13 | 江苏大学 | 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法 |
CN114022847A (zh) * | 2021-11-23 | 2022-02-08 | 清华大学 | 一种智能体轨迹预测方法、系统、设备和存储介质 |
CN114372503A (zh) * | 2021-12-03 | 2022-04-19 | 同济大学 | 一种集群车辆运动轨迹预测方法 |
Non-Patent Citations (5)
Title |
---|
DIVYA SINGH 等: "Graph Neural Network with RNNs based trajectory prediction of dynamic agents for autonomous vehicle", 《APPLIED INTELLIGENCE》, vol. 52, 15 February 2022 (2022-02-15), pages 12801 * |
XIAOYU MO 等: "Graph and Recurrent Neural Network-based Vehicle Trajectory Prediction For Highway Driving", 《2021 IEEE INTELLIGENT TRANSPORTATION SYSTEMS CONFERENCE (ITSC)》, 21 September 2021 (2021-09-21), pages 1934 - 1939, XP033994037, DOI: 10.1109/ITSC48978.2021.9564929 * |
李建睿: "基于船舶轨迹的航迹序列预测方法研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, no. 09, 15 September 2021 (2021-09-15), pages 036 - 81 * |
王天保 等: "图卷积神经网络行人轨迹预测算法", 《哈尔滨工业大学学报》, vol. 53, no. 2, 28 February 2021 (2021-02-28), pages 53 - 60 * |
田彦涛 等: "基于注意力与深度交互的周车多模态行为轨迹预测", 《吉林大学学报(工学版)》, 20 January 2022 (2022-01-20), pages 1 - 9 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115719547A (zh) * | 2022-10-12 | 2023-02-28 | 清华大学 | 基于多重交互行为的交通参与者轨迹预测方法及系统 |
CN116343177A (zh) * | 2023-03-02 | 2023-06-27 | 安庆梁葛业网络科技有限公司 | 基于数据处理监控智慧交通异常驾驶行为的方法及系统 |
CN116558540A (zh) * | 2023-07-11 | 2023-08-08 | 新石器慧通(北京)科技有限公司 | 模型训练方法和装置、轨迹生成方法和装置 |
CN116558541A (zh) * | 2023-07-11 | 2023-08-08 | 新石器慧通(北京)科技有限公司 | 模型训练方法和装置、轨迹预测方法和装置 |
CN116558541B (zh) * | 2023-07-11 | 2023-09-22 | 新石器慧通(北京)科技有限公司 | 模型训练方法和装置、轨迹预测方法和装置 |
CN116558540B (zh) * | 2023-07-11 | 2023-10-03 | 新石器慧通(北京)科技有限公司 | 模型训练方法和装置、轨迹生成方法和装置 |
CN117971915A (zh) * | 2023-12-08 | 2024-05-03 | 上海栈略数据技术有限公司 | 基于图神经网络的风险因子关联数据挖掘方法 |
CN118378069A (zh) * | 2024-06-24 | 2024-07-23 | 希迪智驾(成都)科技有限公司 | 一种基于对比学习的自动驾驶鲁棒控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115147790B (zh) | 2024-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115147790B (zh) | 一种基于图神经网络的车辆未来轨迹预测方法 | |
CN114384920B (zh) | 一种基于局部栅格地图实时构建的动态避障方法 | |
CN110610271B (zh) | 一种基于长短记忆网络的多重车辆轨迹预测方法 | |
Fernando et al. | Deep inverse reinforcement learning for behavior prediction in autonomous driving: Accurate forecasts of vehicle motion | |
Käfer et al. | Recognition of situation classes at road intersections | |
CN112734808B (zh) | 一种车辆行驶环境下易受伤害道路使用者的轨迹预测方法 | |
Bharilya et al. | Machine learning for autonomous vehicle's trajectory prediction: A comprehensive survey, challenges, and future research directions | |
CN105809718B (zh) | 一种轨迹熵最小化的对象跟踪方法 | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
Huang et al. | An online multi-lidar dynamic occupancy mapping method | |
CN115690153A (zh) | 一种智能体轨迹预测方法及系统 | |
Wang et al. | End-to-end self-driving approach independent of irrelevant roadside objects with auto-encoder | |
Mukherjee et al. | Interacting vehicle trajectory prediction with convolutional recurrent neural networks | |
WO2023242223A1 (en) | Motion prediction for mobile agents | |
Doellinger et al. | Environment-aware multi-target tracking of pedestrians | |
Dong et al. | An enhanced motion planning approach by integrating driving heterogeneity and long-term trajectory prediction for automated driving systems: A highway merging case study | |
Li et al. | Personalized trajectory prediction for driving behavior modeling in ramp-merging scenarios | |
Wang et al. | LSTM-based prediction method of surrounding vehicle trajectory | |
CN116935074A (zh) | 基于深度亲和网络自适应关联的多目标跟踪方法及装置 | |
Ye et al. | GSAN: Graph self-attention network for interaction measurement in autonomous driving | |
CN116176627A (zh) | 一种基于异构节点时空域感知的车辆轨迹预测方法 | |
CN114723782A (zh) | 一种基于异构图学习的交通场景运动目标感知方法 | |
Wigness et al. | Reducing adaptation latency for multi-concept visual perception in outdoor environments | |
Lan et al. | Implicit scene context-aware interactive trajectory prediction for autonomous driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |