CN111272165B - 一种基于特征点标定的智能车定位方法 - Google Patents
一种基于特征点标定的智能车定位方法 Download PDFInfo
- Publication number
- CN111272165B CN111272165B CN202010124025.8A CN202010124025A CN111272165B CN 111272165 B CN111272165 B CN 111272165B CN 202010124025 A CN202010124025 A CN 202010124025A CN 111272165 B CN111272165 B CN 111272165B
- Authority
- CN
- China
- Prior art keywords
- point
- points
- intelligent vehicle
- characteristic
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 98
- 239000002245 particle Substances 0.000 claims abstract description 70
- 238000001914 filtration Methods 0.000 claims abstract description 22
- 238000005259 measurement Methods 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 42
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 9
- 238000012546 transfer Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000012952 Resampling Methods 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 5
- 230000026676 system process Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000009897 systematic effect Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 claims 1
- 230000004927 fusion Effects 0.000 description 9
- 230000006872 improvement Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000519999 Stachys Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/24—Acquisition or tracking or demodulation of signals transmitted by the system
- G01S19/243—Demodulation of navigation message
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/393—Trajectory determination or predictive tracking, e.g. Kalman filtering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Navigation (AREA)
Abstract
本发明了提供一种基于特征点标定的智能车定位方法,包括:判断智能车是位于盲区还是非盲区;当智能车位于GNSS非盲区,将GNSS信号、里程计数据和惯性测量单元数据组合,通过卡尔曼滤波获取智能车当前位姿,利用激光雷达扫描智能车周围环境,提取角点、圆弧特征并通过处理得到角点、圆心作为特征点,计算特征点的全局坐标和权重存入当前特征点列表;将当前特征点列表中的特征点加入已有特征点列表,将已有特征点列表中满足条件的特征点加入可信任列表;当智能车位于GNSS盲区,使用激光雷达获取周围可信任列表的特征点作为观测量,融合里程计数据和惯性测量单元数据,通过粒子滤波方法获取智能车当前位姿,从而实现智能车从非盲区进入盲区的定位无缝切换。
Description
技术领域
本发明涉及智能车定位方法领域,具体是一种基于特征点标定的智能车定位方法。
背景技术
智能车的定位研究是无人驾驶中的热点和难点。在当前的定位方式研究中,由于GNSS信号存在精度不足的问题,常常以GNSS结合其他传感器如里程计、IMU进行融合定位,以取得更好的定位效果。但是当智能车进入隧道、枝叶浓密的林荫道等环境下,GNSS信号质量过差难以提供有效的定位信息,仅仅依赖里程计和IMU进行定位又会存在累积误差和漂移,难以保证定位精度要求。
发明内容
本发明的目的在于克服上述技术缺陷,提出了一种基于特征点标定的智能车定位方法,在GNSS信号良好时,使用GNSS结合里程计和IMU通过卡尔曼滤波得到当前定位位置,同时使用激光雷达观察周围角点、圆弧等特征进行记录和标定,待数据稳定后转换到全局坐标系下储存;当GNSS信号质量较差时,智能车通过激光雷达观测先前标定点对里程计和IMU推算信息通过粒子滤波过程进行评价和校正,即使在无GNSS信号也也能在较长一段时间内仍保持较为准确的定位效果,保证智能车的安全行驶和实时状态监测。该方法能够解决智能车在进入隧道、楼宇密集的城市道路、林荫道等GNSS盲区时定位效果不稳定的问题。
为实现上述目的,本发明提出了一种基于特征点标定的智能车定位方法,所述方法包括:
根据GNSS锁星数确定GNSS信号质量,由此判断智能车是位于盲区还是非盲区;
当智能车位于GNSS非盲区,将GNSS信号、里程计数据和惯性测量单元数据进行组合,通过卡尔曼滤波获取智能车当前位姿,同时利用激光雷达扫描智能车周围环境,提取角点、圆弧特征并通过处理得到角点、圆心作为特征点,计算特征点的全局坐标和权重存入当前特征点列表;
将当前特征点列表中的特征点加入已有特征点列表,将已有特征点列表中满足条件的特征点加入可信任列表;
当智能车位于GNSS盲区,使用激光雷达获取周围可信任列表的特征点作为观测量,融合里程计数据和惯性测量单元数据,通过粒子滤波方法获取智能车当前位姿,从而实现智能车从非盲区进入盲区的定位无缝切换。
作为上述方法的一种改进,所述当智能车位于GNSS非盲区,将GNSS信号、里程计数据和惯性测量单元数据进行组合,通过卡尔曼滤波获取智能车当前位姿;具体包括:
步骤1-1)通过智能车左后轮、右后轮的光电编码器,计算智能车位移和航向角变化量,具体过程如下:
计算单位采样时间TS内左后轮和右后轮位置增量ΔdL和ΔdR:
其中,ΔNL和ΔNR分别为左后轮和右后轮采样时间内脉冲增量,D为车轮当量直径,P为光码盘光栅总数,m为编码器减速率;
其中,W为两后轮轴线长度;
计算tk时刻的速度:
步骤1-4)将上述信息通过卡尔曼滤波器融合;定义智能车tk-1时刻状态为:Xk-1=[xk-1,yk-1,Vk-1,θk-1,ωk-1]T,运动和观测模型分别为:
运动过程状态转移函数为:
基于上述模型,获取智能车当前位姿。
作为上述方法的一种改进,所述卡尔曼滤波器的预测和更新过程,具体为:
预测误差协方差矩阵:P(k|k-1)=APk-1AT+Q
更新误差协方差矩阵:Pk=[I-KkH]P(k|k-1)
其中,是tk时刻的预测位姿状态量,A为状态转移矩阵,是tk-1时刻的最优位姿状态量,Pk-1是tk-1时刻已更新的误差协方差矩阵,Kk是tk时刻的卡尔曼增益,H为测量矩阵,观测量 是tk时刻的最优位姿状态量。
作为上述方法的一种改进,所述,利用激光雷达扫描智能车周围环境,提取角点、圆弧特征并通过处理得到角点、圆心作为特征点,计算特征点的全局坐标和权重存入当前特征点列表;具体包括:
根据预先设计的点云密度阈值,去除激光雷达获取的点云数据中的个别噪声点;然后根据各点间欧几里得距离阈值将点云分割成不同的点云簇;
基于Hough变换机制从点云簇中提取圆弧特征,其对应的圆心作为特征点,将圆心坐标作为该特征点在车体局部坐标系中坐标(xL,yL),并计算权重;
从点云簇中检测角点作为特征点,将角点坐标作为该特征点在车体局部坐标系中坐标(xL,yL),并计算权重;
将特征点在车体局部坐标系中坐标(xL,yL)转换为全局坐标系下的坐标(xG,yG),和权重一起存入当前特征点列表。
作为上述方法的一种改进,所述基于Hough变换机制从点云簇中提取圆弧特征,其对应的圆心作为特征点,将圆心坐标作为该特征点在车体局部坐标系中坐标(xL,yL),并计算权重;具体包括:
对某一点云簇,将各点通过Hough变换对某一圆参数进行投票,表示公式为(x-a)2+(y-b)2=R2;添加约束:a.票数大于阈值;b.合成圆的直径大于阈值;同时满足以上两约束的圆参数作为可观测的圆弧特征;
根据得到的圆弧特征确定圆心坐标和权重:
定义票数权重N为该圆特征得到的票数,圆弧权重其中,α为各扫描点围成圆弧对应圆心角,其公式为α=arcsin(L/2R),L为圆弧两端点连接得到的弦长,当圆弧中存在点到这条弦的距离大于R时,说明对应圆心角大于π,此时α=2π-arcsin(L/2R);
作为上述方法的一种改进,所述从点云簇中检测角点作为特征点,将角点坐标作为该特征点在车体局部坐标系中坐标(xL,yL),并计算权重,具体包括:
在点云簇中检测断点:若一点和下一个点间距离大于断点检测阈值,则认为这两个点均为断点;由断点进一步分割点云簇;
将某一段点云簇Si起点和终点连接得到直线l,计算该点云簇中每个点到直线l的距离,找到距离最大的点Kp,若其到直线l距离dp大于设定阈值dmax,则认为该点为角点,并以该点为分界点将点云簇Si分为两个子点云簇,再分别对两个分割都点云簇执行上述角点判定过程,直到找到所有点云簇中角点;同时,添加两个约束:a.角点到两边直线端点距离大于一定阈值;b.两边直线扫描点个数大于设定值;将未满足上述两个约束的角点去除;
使用最小二乘法将得到的角点两边的子点云簇拟合为两条直线l1和l2,其中任意一条直线的拟合过程为:
设计代价函数为:
其中,ρ为车体局部坐标系原点到直线的垂直距离,α为x轴与直线法线的夹角,(as,bs)为第s个激光雷达扫描点在车体局部坐标系的坐标;参数ε=var(Δρ1,Δρ2,....,ΔρS)用于衡量直线特征参数误差,Δρs表示直线中某一扫描点到直线的垂直距离,1≤s≤S;直线权重为
通过直线特征参数对两直线求交点,其交点的坐标作为该特征点在车体局部坐标系中坐标(xL,yL);
作为上述方法的一种改进,所述将当前特征点列表中的特征点加入已有特征点列表,具体包括:
计算已有特征点列表中任一列所有记录坐标加权平均值,作为该列特征点的拟坐标Xs:
其中,下标f表示该特征点的记录坐标序号,Zf为记录坐标,wf为对应的权重;
从当前特征点列表取出一个特征点,与已有特征点列表进行匹配,当该特征点与已有特征点列表的某列的拟坐标距离小于阈值,则认为匹配成功,将该特征点坐标和权重信息加入这一列,若匹配不成功,则认为该特征点为新特征点,在已有特征点列表创建新的一列,保存这个新特征点。
作为上述方法的一种改进,所述将已有特征点列表中满足条件的特征点加入可信任列表,具体包括:
步骤2-1)对已有特征点列表的某一特征点,定义观察总次数NA为自激光雷达扫描到某一特征点以来对周围环境扫描总次数,定义有效观察次数NV为某一特征成功匹配的总次数,定义有效观察率为NV/NA×100%,则当特征点满足条件:NV大于阈值且有效观察率大于阈值,则准备将其加入可信任列表;
定义最优估计点个数N=NV×β,式中β为最优估计率,再次计算加入新的记录坐标后的拟坐标:
取距Xs最近的N个点再次进行加权平均得到修正坐标:
权重为:wF=1/εV,εV为最优估计点的分布方差,同时对εV进行放大,剔除放大后分布范围外的特征点坐标;
若wF大于阈值,则将该特征点的修正坐标XF和权重wF加入可信任列表。
作为上述方法的一种改进,所述当智能车位于GNSS盲区,使用激光雷达获取周围可信任的特征点作为观测量,融合里程计数据和惯性测量单元数据,通过粒子滤波方法获取智能车当前位姿,具体包括:
步骤3-1)以智能车进入GNSS盲区前一时刻的最优位姿作为粒子群的初始分布,以和误差协方差矩阵P0构建概率密度函数作为提议分布随机抽取M个初始粒子,在提议分布内各粒子在(x0,y0,θ0)周围作高斯分布,则tk时刻第i个粒子的状态表示为:权重
步骤3-2)粒子预测过程:
式中,dk-1为协方差矩阵Q1的系统过程噪声;
步骤3-3)根据激光雷达获取智能车周围环境的当前特征点,作为观测量,同时从可信任列表中进行特征点的匹配,计算各个粒子对匹配出的特征点的预测观测量,由此计算预测观测量和观测量的差值;
步骤3-4)权重更新:
根据预测观测量和观测量的差值,更新各粒子权重:
步骤3-7)状态估计输出:
作为上述方法的一种改进,所述根据激光雷达获取智能车周围环境的当前特征点,作为观测量,同时从可信任列表中进行特征点的匹配,计算各个粒子对匹配出的特征点的预测观测量,由此计算预测观测量和观测量的差值;具体包括:
逐一计算可信任列表中各特征点同各粒子在全局坐标系下x,y轴向距离和下标表示第j个特征点,上标表示第i个粒子;进一步得到欧几里得距离若此距离小于激光雷达高精度检测范围,则第j个特征点在检测范围内,将此特征点储存到对比列表中,并重新给定序号n代表其顺序,共得到N个符合要求的特征点;将第n个特征点对应的全局坐标系下距离转换到i个粒子的局部坐标系下距离:
在当前时刻tk,通过激光雷达扫描周围环境,通过检测圆点和角点,计算在车体局部坐标系下的特征点坐标(xq,yq),存入当前特征点列表,q表示其序号,(xq,yq)为观测量,共有qmax个当前特征点;
与现有的智能车定位方法相比,本发明的有益效果为:
1、本发明的方法在GNSS信号良好时提前进行周围环境特征观察记录,标定点的坐标包含了GNSS绝对定位的信息,进入GNSS盲区即可启用对智能车定位位置进行评价和更新,无需智能车预先在盲区进行局部建图,可广泛应用于车辆进入隧道、林荫道、城市道路、室外进入室内等场景,非常具有实用性,且不同阶段采用不同的融合定位方法,可有效提高智能车定位精度,为智能车行驶安全提供保障;
2、本发明的方法能够解决智能车在进入隧道、楼宇密集的城市道路、林荫道等GNSS盲区时定位效果不稳定的问题。
附图说明
图1是本发明的基于特征点标定的智能车定位方法的流程图;
图2是GNSS良好情况下智能车通过激光雷达观察标定周围环境特征示意图;
图3是特征点的反复标定和修正流程图;
图4是以观察点坐标求取可信任标定点坐标的示意图;
图5是多传感器通过卡尔曼滤波融合定位过程图;
图6是智能车进入林荫道后通过观测可信任标定点进行定位的示意图;
图7是GNSS盲区下多传感器通过粒子滤波融合定位流程图。
具体实施方式
本发明公开了一种基于特征点标定的智能车定位方法,即使在楼宇密集的城市道路、林荫道、隧道等GNSS信号较差环境也可保持较长时间的高定位精度。在GNSS信号良好的状态下,采集车载里程计和IMU数据,与GNSS定位位置进行卡尔曼滤波融合,得到较为准确的当前位置,同时激光雷达不断扫描观察周围环境,提取环境中角点、圆弧特征信息,并拟合出角点、圆心坐标,智能车行进过程中不停地对各个特征点进行扫描和标定,最终得到各特征点较为稳定、准确的坐标值转换到全局坐标系下进行储存。当GNSS信号变差严重影响定位效果时,定位方法转变为以里程计和IMU数据为预测信息,激光雷达对特征标定点观测量进行更新的粒子滤波方法,从而得到较为准确的车辆定位位置。
IMU为惯性测量单元(Inertial measurement unit),是一个测量物体三轴姿态角(或角速率)以及加速度的装置,其中陀螺仪及加速度计是IMU的主要元件。里程计包括:分别设置在左后轮和右后轮的光电编码器。
下面结合附图对本发明的技术方案作进一步详细说明。
如图1所示,本发明提出了一种基于特征点标定的智能车定位方法,包括以下步骤:
步骤1)如图2所示,智能车正常行驶在路面上,一段时间后将进入林荫道内,在GNSS信号良好的情况下,智能车在道路上正常行驶过程中,采用激光雷达观察路牙、两边树木躯干等特征明显静态物体,提取角点、圆弧特征并通过处理得到角点、圆心作为特征点坐标,经过多次观察和标定后加入可信任表,经过坐标变换储存在全局坐标系(大地坐标系)下备用,进入GNSS盲区时即作为绝对坐标点启用为激光雷达提供指导性观测量,具体过程如下:
(1.1)激光雷达数据的预处理过程。行进过程中得到的原始点云数据要经过预先处理,这样可以大大简化后续工作,具体过程如下:
(1.1.1)去除噪声点。根据预先设计的点云密度阈值,去除点云中的个别噪声点;
(1.1.2)扫描点聚类。根据各点间欧几里得距离阈值将点云分割成不同的点云簇;
(1.2)特征点判定和坐标求取过程,具体包括以下步骤:
(1.2.1)首先进行圆弧特征的判定和处理,圆弧特征判定及圆心坐标求取过程如下:
(1.2.1.1)基于Hough变换机制对某一圆特征进行提取。对某一点云簇,将各点通过Hough变换对某一圆参数进行投票,表示公式为(x-a)2+(y-b)2=R2。添加约束:a.票数大于阈值;b.合成圆的直径大于阈值。满足以上两约束的圆参数才可作为可观测的圆弧特征。
(1.2.1.2)根据得到的圆弧特征确定圆心坐标和权重。定义票数权重N为该圆特征得到的票数,圆弧权重其中,α为各扫描点围成圆弧对应圆心角,其公式为α=arcsin(L/2R),L为圆弧两端点连接得到的弦长,当圆弧中存在点到这条弦的距离大于R时,说明对应圆心角大于π,此时α=2π-arcsin(L/2R)。最终得到圆心坐标权重
(1.2.2)特征点种类之一的角点特征判定及求取过程如下:
(1.2.2.1)断点检测。一个点云簇中,若一点和下一个点间距离大于断点检测阈值,则认定这两个点为断点;
(1.2.2.2)角点判定。得到由断点进一步分割的点云簇后,将某一段点云簇Si起点和终点连接得到直线l,计算该点云簇中每个点到直线l的距离,找到距离最大的点Kj,若其到l距离dj大于设定阈值dmax,则认为该点为角点,并以该点为分界点将点云簇Si分为两个子点云簇,再分别对两个分割都点云簇执行上述角点判定过程,直到找到所有点云簇中角点。同时,添加两个约束:a.角点到两边直线端点距离大于一定阈值;b.两边直线扫描点个数大于设定值。将未满足条件的角点去除。
(1.2.2.3)直线特征参数估计。使用最小二乘法将上一步骤得到的角点两边的子点云簇拟合为直线,拟合过程中的代价函数为:
J(α,ρ)=min∑(ρ-xicosα-yisinα)2
式中,ρ为车体局部坐标系原点到直线的垂直距离,α为坐标系x轴与直线法线的夹角,(xi,yi)为第i个扫描点在局部坐标系中坐标。参数ε=var(Δρ1,Δρ2,....,ΔρN)用于衡量直线特征参数误差,Δρm表示直线中某一扫描点到直线的垂直距离,定义直线权重用于后续角点的权重计算。
(1.2.3)通过以上步骤得到特征点在车体局部坐标系中坐标(xL,yL)后,还要通过坐标转换,得到全局坐标系(大地坐标系)下特征点坐标(xG,yG),和权重一起存入当前特征点列表;
转换公式为:
其中,(x0,y0)为智能车在全局坐标系中坐标,由GNSS融合多传感器定位得到。
(1.3)特征点的反复标定和修正;
其中的特征点记录在可信任列表和已有特征点列表,已有特征点列表的每一列记录一个特征点,包括多个记录坐标和权重,可信任列表存储了修正后的特征点的坐标和权重。
如图3所示,具体步骤如下:
(1.3.1)根据所使用激光雷达型号确定特征点观测范围,只有在较高的检测精度范围内才可进行特征点的判定及标定过程;
(1.3.2)计算已有特征点列表中任一列所有记录坐标加权平均值,作为该列特征点的拟坐标Xs:
其中,下标f表示该特征点的记录坐标序号,Zf为记录坐标,wf为对应的权重;
从当前特征点列表取出一个特征点,与已有特征点列表进行匹配,当该特征点与已有特征点列表的某列的拟坐标距离小于阈值,则认为匹配成功,将该特征点坐标和权重信息加入这一列,进入步骤(1.3.3);若匹配不成功,则认为该特征点为新特征点,在已有特征点列表创建新的一列,保存这个新特征点。
(1.3.3)定义观察总次数NA为自激光雷达扫描到某一特征点以来对周围环境扫描总次数,定义有效观察次数NV为某一特征成功匹配的总次数,定义有效观察率为NV/NA×100%,则当特征点满足条件:NV大于阈值且有效观察率大于阈值,则准备将其加入可信任列表;
(1.3.4)定义最优估计点个数N=NV×β,式中β为最优估计率,再次计算加入新的记录坐标后的拟坐标:
取距Xs最近的N个点再次进行加权平均得到修正坐标:
权重为:wF=1/εV,εV为最优估计点的分布方差,同时对εV进行放大,剔除方差分布范围外的特征点坐标;
(1.3.5)通过反复标定和修正过程,若观测到的某一特征wF大于阈值,则将该特征点的修正坐标XF和权重wF加入可信任列表,并按照步骤(1.3.3)和(1.3.4)不断更新位置和其权重,待到GNSS信号变差时就作为可信任特征点启用。如图4所示。
步骤2)将GNSS信息、里程计数据与IMU数据进行组合,通过卡尔曼滤波得到全局坐标系下的智能车当前位姿,如图5所示,具体过程如下:
(2.1)以智能车启动时车体中心为原点OG,智能车前进方向为XG轴方向,垂直XG轴指向车体左侧为YG轴方向,ZG轴垂直向上建立车体局部坐标系;本方法中已经事先将搭载的里程计和IMU惯性单元坐标系转换到车体局部坐标系下,各传感器时间钟已校准完毕,且只考虑智能车在水平面内运动且没有俯仰和翻滚动作,因此ZG轴坐标始终为0且只有偏航角的变化,对里程计、IMU和GNSS信息进行卡尔曼滤波融合得到智能车在全局坐标系下的当前位姿(x,y,θ),其中,θ为航向角,即车辆当前航向和X轴正向夹角;
(2.2)通过智能车左后轮、右后轮的光电编码器,计算智能车位移和航向角变化量,具体过程如下:
(2.2.1)t0时刻,智能车在里程计坐标系中位姿(x0,y0,0)为(0,0,0);
(2.2.2)计算单位采样时间TS内左后轮和右后轮位置增量ΔdL和ΔdR:
其中,ΔNL和ΔNR分别为左后轮和右后轮采样时间内脉冲增量,D为车轮当量直径,P为光码盘光栅总数,m为编码器减速率;
式中,W为两后轮轴线长度;WO上标表示数据来源:里程计;
(2.2.4)计算tk时刻的速度:
(2.5)将上述信息通过卡尔曼滤波器融合;定义智能车tk-1时刻状态为:Xk-1=[xk-1,yk-1,Vk-1,θk-1,ωk-1]T,运动和观测模型分别为:
运动过程状态转移函数为:
其中,为tk时刻智能车的预测状态,为观测模型转移函数,为加入噪声的观测量;ck是协方差为Q的系统过程噪声,vk是协方差为R的传感器测量噪声,两噪声矩阵均为高斯分布的白噪声,系统过程噪声ck初始值可根据经验值设置,传感器测量噪声vk根据里程计、IMU、GNSS各设备质量自适应调节。
滤波器预测和更新过程为:
预测误差协方差矩阵:P(k|k-1)=APk-1AT+Q
更新误差协方差矩阵:Pk=[I-KkH]P(k|k-1)
其中,是tk时刻的预测位姿状态量,A为状态转移矩阵,是tk-1时刻的最优位姿状态量,Pk-1是tk-1时刻已更新的误差协方差矩阵,Kk是tk时刻的卡尔曼增益,H为测量矩阵,观测量 是tk时刻的最优位姿状态量。智能车在行进过程中,重复以上预测和更新过程,即完成卡尔曼滤波过程,最终得到较为准确的车辆当前位置。
步骤3)智能车进入林荫道时GNSS锁星数会变少,GNSS信号不稳定,以GNSS锁星数判定GNSS信号质量以决定定位方式转换时机,当锁星数大于14时,使用GNSS通过卡尔曼滤波融合多传感器进行定位,锁星数小于14,即认为智能车进入GNSS信号较差区域,GNSS信号不可用,切换为激光雷达融合多传感器进行粒子滤波定位。
(4)如图6所示,当智能车进入林荫道后,GNSS信号变差,认为智能车进入GNSS盲区,使用激光雷达观察可信任的环境特征点提供指导性的观测量,融合里程计和IMU信息,通过粒子滤波方法修正单纯的航迹推算定位结果,得到智能车当前位姿,具体过程如下:
(4.1)粒子群初始化。
同步骤(2.1)建立车体局部坐标系,实现车辆前后无缝定位,以智能车进入GNSS盲区前一时刻的最优位姿作为粒子群的初始分布,以和误差协方差矩阵P0构建概率密度函数作为提议分布随机抽取M个初始粒子,在提议分布内各粒子在(x0,y0,θ0)周围作高斯分布,则tk时刻第i个粒子的状态表示为:权重
(4.2)粒子预测过程。
在tk时刻,根据智能车控制信息uk推算tk时刻各粒子位姿分布,即根据里程计和IMU信息得到粒子的位移和航向估计,里程计信息获取同步骤(2.2),得到ΔD和由IMU中角加速度进一步积分得到运动方程为其中,状态转移函数为:
式中,dk-1为协方差为Q1的系统过程噪声;
(4.3)特征点识别与匹配。
逐一计算可信任列表中各特征点同各粒子在全局坐标系下x,y轴向距离和下标表示第j个特征点,上标表示第i个粒子;进一步得到欧几里得距离若此距离小于激光雷达高精度检测范围,则第j个特征点在检测范围内,将此特征点储存到对比列表中,并重新给定序号n代表其顺序,共得到N个符合要求的特征点;将第n个特征点对应的全局坐标系下距离转换到第i个粒子的局部坐标系下距离:
在当前时刻tk,通过激光雷达扫描周围环境,通过检测圆点和角点,计算在车体局部坐标系下的特征点坐标(xq,yq),存入当前特征点列表,q表示其序号,(xq,yq)为观测量,共有qmax个当前特征点;
(4.4)权重更新。
根据观测量和预测观测量的差,更新各粒子权重:
(4.7)状态估计输出。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (3)
1.一种基于特征点标定的智能车定位方法,所述方法包括:
根据GNSS锁星数确定GNSS信号质量,由此判断智能车是位于盲区还是非盲区;
当智能车位于GNSS非盲区,将GNSS信号、里程计数据和惯性测量单元数据进行组合,通过卡尔曼滤波获取智能车当前位姿,同时利用激光雷达扫描智能车周围环境,提取角点、圆弧特征并通过处理得到角点、圆心作为特征点,计算特征点的全局坐标和权重存入当前特征点列表;
将当前特征点列表中的特征点加入已有特征点列表,将已有特征点列表中满足条件的特征点加入可信任列表;
当智能车位于GNSS盲区,使用激光雷达获取周围可信任列表的特征点作为观测量,融合里程计数据和惯性测量单元数据,通过粒子滤波方法获取智能车当前位姿,从而实现智能车从非盲区进入盲区的定位无缝切换;
所述当智能车位于GNSS非盲区,将GNSS信号、里程计数据和惯性测量单元数据进行组合,通过卡尔曼滤波获取智能车当前位姿;具体包括:
步骤1-1)通过智能车左后轮、右后轮的光电编码器,计算智能车位移和航向角变化量,具体过程如下:
计算单位采样时间TS内左后轮和右后轮位置增量ΔdL和ΔdR:
其中,ΔNL和ΔNR分别为左后轮和右后轮采样时间内脉冲增量,D为车轮当量直径,P为光码盘光栅总数,m为编码器减速率;
其中,W为两后轮轴线长度;
计算tk时刻的速度:
步骤1-4)将上述信息通过卡尔曼滤波器融合;定义智能车tk-1时刻状态为:Xk-1=[xk-1,yk-1,Vk-1,θk-1,ωk-1]T,运动和观测模型分别为:
运动过程状态转移函数为:
基于上述模型,获取智能车当前位姿;
所述卡尔曼滤波器的预测和更新过程,具体为:
预测误差协方差矩阵:P(k|k-1)=APk-1AT+Q
更新误差协方差矩阵:Pk=[I-KkH]P(k|k-1)
其中,是tk时刻的预测位姿状态量,A为状态转移矩阵,是tk-1时刻的最优位姿状态量,Pk-1是tk-1时刻已更新的误差协方差矩阵,Kk是tk时刻的卡尔曼增益,H为测量矩阵,观测量 是tk时刻的最优位姿状态量;
所述,利用激光雷达扫描智能车周围环境,提取角点、圆弧特征并通过处理得到角点、圆心作为特征点,计算特征点的全局坐标和权重存入当前特征点列表;具体包括:
根据预先设计的点云密度阈值,去除激光雷达获取的点云数据中的个别噪声点;然后根据各点间欧几里得距离阈值将点云分割成不同的点云簇;
基于Hough变换机制从点云簇中提取圆弧特征,其对应的圆心作为特征点,将圆心坐标作为该特征点在车体局部坐标系中坐标(xL,yL),并计算权重;
从点云簇中检测角点作为特征点,将角点坐标作为该特征点在车体局部坐标系中坐标(xL,yL),并计算权重;
将特征点在车体局部坐标系中坐标(xL,yL)转换为全局坐标系下的坐标(xG,yG),和权重一起存入当前特征点列表;
所述基于Hough变换机制从点云簇中提取圆弧特征,其对应的圆心作为特征点,将圆心坐标作为该特征点在车体局部坐标系中坐标(xL,yL),并计算权重;具体包括:
对某一点云簇,将各点通过Hough变换对某一圆参数进行投票,表示公式为(x-a)2+(y-b)2=r2;添加约束:(1)票数大于阈值;(2)合成圆的直径大于阈值;同时满足以上两约束的圆参数作为可观测的圆弧特征;
根据得到的圆弧特征确定圆心坐标和权重:
定义票数权重N为该圆特征得到的票数,圆弧权重其中,α为各扫描点围成圆弧对应圆心角,其公式为α=arcsin(L/2r),L为圆弧两端点连接得到的弦长,当圆弧中存在点到这条弦的距离大于r时,说明对应圆心角大于π,此时α=2π-arcsin(L/2r);
所述从点云簇中检测角点作为特征点,将角点坐标作为该特征点在车体局部坐标系中坐标(xL,yL),并计算权重,具体包括:
在点云簇中检测断点:若一点和下一个点间距离大于断点检测阈值,则认为这两个点均为断点;由断点进一步分割点云簇;
将某一段点云簇Si起点和终点连接得到直线l,计算该点云簇中每个点到直线l的距离,找到距离最大的点Kp,若其到直线l距离dp大于设定阈值dmax,则认为该点为角点,并以该点为分界点将点云簇Si分为两个子点云簇,再分别对两个分割都点云簇执行上述角点判定过程,直到找到所有点云簇中角点;同时,添加两个约束:(1)角点到两边直线端点距离大于一定阈值;(2)两边直线扫描点个数大于设定值;将未满足上述两个约束的角点去除;
使用最小二乘法将得到的角点两边的子点云簇拟合为两条直线l1和l2,其中任意一条直线的拟合过程为:
设计代价函数为:
其中,ρ为车体局部坐标系原点到直线的垂直距离,α为x轴与直线法线的夹角,(as,bs)为第s个激光雷达扫描点在车体局部坐标系的坐标;参数ε=var(Δρ1,Δρ2,....,ΔρS)用于衡量直线特征参数误差,Δρs表示直线中某一扫描点到直线的垂直距离,1≤s≤S;直线权重为
通过直线特征参数对两直线求交点,其交点的坐标作为该特征点在车体局部坐标系中坐标(xL,yL);
所述将当前特征点列表中的特征点加入已有特征点列表,具体包括:
计算已有特征点列表中任一列所有记录坐标加权平均值,作为该列特征点的拟坐标Xs:
其中,下标f表示该特征点的记录坐标序号,Zf为记录坐标,wf为对应的权重;
从当前特征点列表取出一个特征点,与已有特征点列表进行匹配,当该特征点与已有特征点列表的某列的拟坐标距离小于阈值,则认为匹配成功,将该特征点坐标和权重信息加入这一列,若匹配不成功,则认为该特征点为新特征点,在已有特征点列表创建新的一列,保存这个新特征点;
所述将已有特征点列表中满足条件的特征点加入可信任列表,具体包括:
步骤2-1)对已有特征点列表的某一特征点,定义观察总次数NA为自激光雷达扫描到某一特征点以来对周围环境扫描总次数,定义有效观察次数NV为某一特征成功匹配的总次数,定义有效观察率为NV/NA×100%,则当特征点满足条件:NV大于阈值且有效观察率大于阈值,则准备将其加入可信任列表;
定义最优估计点个数N=NV×β,式中β为最优估计率,再次计算加入新的记录坐标后的拟坐标:
取距Xs最近的N个点再次进行加权平均得到修正坐标:
权重为:wF=1/εV,εV为最优估计点的分布方差,同时对εV进行放大,剔除放大后分布范围外的特征点坐标;
若wF大于阈值,则将该特征点的修正坐标XF和权重wF加入可信任列表。
2.根据权利要求1所述的基于特征点标定的智能车定位方法,其特征在于,所述当智能车位于GNSS盲区,使用激光雷达获取周围可信任的特征点作为观测量,融合里程计数据和惯性测量单元数据,通过粒子滤波方法获取智能车当前位姿,具体包括:
步骤3-1)以智能车进入GNSS盲区前一时刻的最优位姿作为粒子群的初始分布,以和误差协方差矩阵P0构建概率密度函数作为提议分布随机抽取M个初始粒子,在提议分布内各粒子在(x0,y0,θ0)周围作高斯分布,则tk时刻第i个粒子的状态表示为:权重
步骤3-2)粒子预测过程:
式中,dk-1为协方差矩阵Q1的系统过程噪声;
步骤3-3)根据激光雷达获取智能车周围环境的当前特征点,作为观测量,同时从可信任列表中进行特征点的匹配,计算各个粒子对匹配出的特征点的预测观测量,由此计算预测观测量和观测量的差值;
步骤3-4)权重更新:
根据预测观测量和观测量的差值,更新各粒子权重:
步骤3-7)状态估计输出:
3.根据权利要求2所述的基于特征点标定的智能车定位方法,其特征在于,所述根据激光雷达获取智能车周围环境的当前特征点,作为观测量,同时从可信任列表中进行特征点的匹配,计算各个粒子对匹配出的特征点的预测观测量,由此计算预测观测量和观测量的差值;具体包括:
逐一计算可信任列表中各特征点同各粒子在全局坐标系下x,y轴向距离和下标表示第j个特征点,上标表示第i个粒子;进一步得到欧几里得距离若此距离小于激光雷达高精度检测范围,则第j个特征点在检测范围内,将此特征点储存到对比列表中,并重新给定序号n代表其顺序,共得到N个符合要求的特征点;将第n个特征点对应的全局坐标系下距离转换到i个粒子的局部坐标系下距离:
在当前时刻tk,通过激光雷达扫描周围环境,通过检测圆点和角点,计算在车体局部坐标系下的特征点坐标(xq,yq),存入当前特征点列表,q表示其序号,(xq,yq)为观测量,共有qmax个当前特征点;
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010124025.8A CN111272165B (zh) | 2020-02-27 | 2020-02-27 | 一种基于特征点标定的智能车定位方法 |
US17/089,742 US11002859B1 (en) | 2020-02-27 | 2020-11-05 | Intelligent vehicle positioning method based on feature point calibration |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010124025.8A CN111272165B (zh) | 2020-02-27 | 2020-02-27 | 一种基于特征点标定的智能车定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111272165A CN111272165A (zh) | 2020-06-12 |
CN111272165B true CN111272165B (zh) | 2020-10-30 |
Family
ID=71004139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010124025.8A Active CN111272165B (zh) | 2020-02-27 | 2020-02-27 | 一种基于特征点标定的智能车定位方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11002859B1 (zh) |
CN (1) | CN111272165B (zh) |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2762150C1 (ru) * | 2018-09-17 | 2021-12-16 | Ниссан Мотор Ко., Лтд. | Способ прогнозирования поведения транспортного средства и устройство прогнозирования поведения транспортного средства |
US11400924B2 (en) * | 2019-03-31 | 2022-08-02 | Gm Cruise Holdings Llc | Autonomous vehicle maneuvering based upon risk associated with occluded regions |
US20220289245A1 (en) * | 2019-08-02 | 2022-09-15 | Hitachi Astemo, Ltd. | Aiming device, drive control system, and method for calculating correction amount of sensor data |
FR3102253B1 (fr) * | 2019-10-16 | 2022-01-14 | Commissariat Energie Atomique | Procédé de détection d’obstacle, dispositif de détection, système de détection et véhicule associés |
CN111721298A (zh) * | 2020-06-24 | 2020-09-29 | 重庆赛迪奇智人工智能科技有限公司 | 一种slam室外大场景精准定位方法 |
CN112000100A (zh) * | 2020-08-26 | 2020-11-27 | 德鲁动力科技(海南)有限公司 | 机器人的充电系统及方法 |
CN112150550B (zh) * | 2020-09-23 | 2021-07-27 | 华人运通(上海)自动驾驶科技有限公司 | 一种融合定位方法及装置 |
CN112129297B (zh) * | 2020-09-25 | 2024-04-30 | 重庆大学 | 一种多传感器信息融合的自适应校正室内定位方法 |
CN112339748B (zh) * | 2020-11-09 | 2021-10-26 | 东风汽车集团有限公司 | 自动泊车中通过环境扫描修正车辆位姿信息的方法及装置 |
US20220219719A1 (en) * | 2021-01-13 | 2022-07-14 | James Stracka | Methods and systems for locating a dynamic object in a field of known static objects |
CN113359167A (zh) * | 2021-04-16 | 2021-09-07 | 电子科技大学 | 一种通过惯性测量参数将gps与激光雷达融合定位的方法 |
CN113236363B (zh) * | 2021-04-23 | 2024-08-27 | 陕西陕煤黄陵矿业有限公司 | 开采设备导航定位方法、系统、设备及可读存储介质 |
CN113237482B (zh) * | 2021-05-13 | 2022-05-13 | 东南大学 | 一种基于因子图的城市峡谷环境下车辆鲁棒定位方法 |
CN113406658B (zh) * | 2021-05-24 | 2023-07-07 | 西北工业大学 | 一种基于点线特征扫描匹配的移动机器人定位方法 |
CN113466890B (zh) * | 2021-05-28 | 2024-04-09 | 中国科学院计算技术研究所 | 基于关键特征提取的轻量化激光雷达惯性组合定位方法和系统 |
CN113534110B (zh) * | 2021-06-24 | 2023-11-24 | 香港理工大学深圳研究院 | 一种多激光雷达系统静态标定方法 |
CN113554705B (zh) * | 2021-07-14 | 2024-03-19 | 南京航空航天大学 | 一种变化场景下的激光雷达鲁棒定位方法 |
CN113807182B (zh) * | 2021-08-17 | 2024-02-27 | 北京地平线信息技术有限公司 | 用于处理点云的方法、装置、介质以及电子设备 |
CN113835101A (zh) * | 2021-09-30 | 2021-12-24 | 同济大学 | 一种基于雷达点云的车辆定位方法、装置及存储介质 |
CN113984044A (zh) * | 2021-10-08 | 2022-01-28 | 杭州鸿泉物联网技术股份有限公司 | 一种基于车载多感知融合的车辆位姿获取方法及装置 |
CN113945956A (zh) * | 2021-10-15 | 2022-01-18 | 北京路凯智行科技有限公司 | 车载定位系统以及包括其的矿山车辆 |
CN113960622A (zh) * | 2021-10-26 | 2022-01-21 | 北京理工大学 | 融合激光雷达及imu传感器信息的实时定位方法及装置 |
CN113947639B (zh) * | 2021-10-27 | 2023-08-18 | 北京斯年智驾科技有限公司 | 基于多雷达点云线特征的自适应在线估计标定系统及方法 |
CN113911174B (zh) * | 2021-11-04 | 2024-04-12 | 北京埃福瑞科技有限公司 | 列车的测速方法及装置 |
CN114219909B (zh) * | 2021-11-09 | 2024-10-22 | 浙江大华技术股份有限公司 | 三维重建方法以及相关装置 |
CN114037736B (zh) * | 2021-11-15 | 2024-05-14 | 重庆大学 | 一种基于自适应模型的车辆检测与跟踪方法 |
CN114265374B (zh) * | 2021-11-25 | 2024-06-11 | 云南昆船智能装备有限公司 | 一种agv对厢式卡车货物存取的系统和方法 |
CN115235477A (zh) * | 2021-11-30 | 2022-10-25 | 上海仙途智能科技有限公司 | 一种车辆定位检查方法、装置、存储介质及设备 |
EP4439121A1 (en) * | 2021-12-22 | 2024-10-02 | Huawei Technologies Co., Ltd. | Target recognition method and device |
CN114332222B (zh) * | 2021-12-29 | 2024-09-17 | 苏州长风航空电子有限公司 | 一种面向动态场景的自主定位方法 |
CN114339597B (zh) * | 2021-12-30 | 2024-08-16 | 联创汽车电子有限公司 | Tbox ble-rssi定位方法 |
CN114526739B (zh) * | 2022-01-25 | 2024-05-07 | 中南大学 | 移动机器人室内重定位方法、计算机装置及产品 |
CN114119673B (zh) * | 2022-01-25 | 2022-04-22 | 北京地平线机器人技术研发有限公司 | 初始位姿的确定方法和装置、电子设备和存储介质 |
US12033346B2 (en) | 2022-02-01 | 2024-07-09 | Zoox, Inc. | Distance representation and encoding |
CN114241269B (zh) * | 2022-02-18 | 2022-07-08 | 聚时科技(江苏)有限公司 | 一种用于岸桥自动控制的集卡视觉融合定位系统 |
CN114663855B (zh) * | 2022-03-11 | 2024-05-24 | 北京航空航天大学 | 一种面向非结构化道路的路面积水和不平度检测方法 |
CN114475664B (zh) * | 2022-03-17 | 2023-09-01 | 西华大学 | 一种拥堵路段自动驾驶车辆变道协调控制方法 |
CN114563006B (zh) * | 2022-03-17 | 2024-03-19 | 长沙慧联智能科技有限公司 | 基于参考线匹配的车辆全局定位方法及装置 |
CN114877883B (zh) * | 2022-03-22 | 2024-04-26 | 武汉大学 | 车路协同环境下考虑通信延迟的车辆定位方法及系统 |
CN115222767B (zh) * | 2022-04-12 | 2024-01-23 | 广州汽车集团股份有限公司 | 一种基于空间车位的跟踪方法及系统 |
CN114691579B (zh) * | 2022-04-15 | 2023-11-10 | 南京邮电大学 | 一种室内无人车的异构处理器及其通信方法 |
CN114754731B (zh) * | 2022-04-25 | 2024-04-05 | 中国人民解放军63811部队 | 一种光电经纬仪的交会方法及相关设备 |
US11899114B1 (en) * | 2022-05-31 | 2024-02-13 | Zoox, Inc. | Secondary sensor data-based soft constraint optimization for pose graph and mapping refinement |
CN117336678A (zh) * | 2022-06-23 | 2024-01-02 | 中兴通讯股份有限公司 | 车辆跟踪方法、装置、通信单元及存储介质 |
CN115446834B (zh) * | 2022-09-01 | 2024-05-28 | 西南交通大学 | 一种基于占据栅格配准的车底巡检机器人单轴重定位方法 |
CN115435775A (zh) * | 2022-09-23 | 2022-12-06 | 福州大学 | 基于拓展卡尔曼滤波的多传感器融合slam方法 |
CN115712298B (zh) * | 2022-10-25 | 2023-05-09 | 太原理工大学 | 基于单线激光雷达的机器人在通道中行驶的自主导航方法 |
CN115423835B (zh) * | 2022-11-02 | 2023-03-24 | 中汽创智科技有限公司 | 杆状物点云数据处理方法、装置、电子设备及存储介质 |
CN115597535B (zh) * | 2022-11-29 | 2023-05-23 | 中国铁路设计集团有限公司 | 基于惯性导航的高速磁悬浮轨道不平顺检测系统及方法 |
CN116127405A (zh) * | 2022-12-05 | 2023-05-16 | 武汉大学 | 一种融合点云地图、运动模型和局部特征的位置识别方法 |
CN115615430B (zh) * | 2022-12-21 | 2023-03-10 | 中国船舶集团有限公司第七〇七研究所 | 基于捷联惯导的定位数据修正方法及系统 |
CN115824231B (zh) * | 2023-02-22 | 2023-04-28 | 安徽阿瑞特汽车电子科技有限公司 | 一种汽车行驶智能定位管理系统 |
CN116295189B (zh) * | 2023-05-17 | 2023-08-11 | 山东遂真信息技术有限公司 | 一种大坝位移监测方法 |
CN116449347B (zh) * | 2023-06-14 | 2023-10-03 | 蘑菇车联信息科技有限公司 | 路侧激光雷达的标定方法、装置及电子设备 |
CN116538996B (zh) * | 2023-07-04 | 2023-09-29 | 云南超图地理信息有限公司 | 基于激光雷达的地形测绘系统及方法 |
CN116642501B (zh) * | 2023-07-25 | 2023-09-29 | 齐鲁空天信息研究院 | 一种惯性为核心的车道线辅助定位的多源融合方法 |
CN117076843B (zh) * | 2023-08-18 | 2024-05-17 | 上海工程技术大学 | 一种建立车内声传递函数误差模型的方法 |
CN117012053A (zh) * | 2023-09-28 | 2023-11-07 | 东风悦享科技有限公司 | 一种车位检测点的后优化方法、系统及存储介质 |
CN117554974B (zh) * | 2023-11-08 | 2024-05-28 | 北京科技大学 | 基于三维激光雷达的车辆车板角点位置检测方法及系统 |
CN117192521B (zh) * | 2023-11-08 | 2024-03-08 | 山东富锐光学科技有限公司 | 一种激光雷达码盘校准细分方法、装置及计算机系统 |
CN117584989B (zh) * | 2023-11-23 | 2024-07-19 | 昆明理工大学 | 一种激光雷达/imu/车辆运动学约束紧耦合slam系统及算法 |
CN117406259B (zh) * | 2023-12-14 | 2024-03-22 | 江西北斗云智慧科技有限公司 | 一种基于北斗的智慧工地车辆定位方法及系统 |
CN118068358B (zh) * | 2024-04-19 | 2024-07-05 | 临沂大学 | 一种激光雷达与惯性测量单元外参标定的无奇异方法 |
CN118442972B (zh) * | 2024-07-05 | 2024-10-18 | 中国科学院长春光学精密机械与物理研究所 | 基于光电经纬仪的多传感器自主融合跟踪方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0679903A2 (en) * | 1989-12-11 | 1995-11-02 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
CN1948910A (zh) * | 2006-11-09 | 2007-04-18 | 复旦大学 | 利用gps与陀螺仪、里程计的组合定位方法与装置 |
EP2133662A2 (en) * | 2008-06-09 | 2009-12-16 | Honeywell International Inc. | Methods and system of navigation using terrain features |
CN103517361A (zh) * | 2013-10-25 | 2014-01-15 | 北京航空航天大学 | 一种室内外无缝定位切换方法 |
CN103856989A (zh) * | 2012-11-28 | 2014-06-11 | 中国电信股份有限公司 | 室内外定位切换的方法和系统、终端以及定位应用平台 |
CN105137468A (zh) * | 2015-09-24 | 2015-12-09 | 北京理工大学 | 光电式gps盲区环境下车辆可持续导航数据采集装置及方法 |
CN105824039A (zh) * | 2016-03-17 | 2016-08-03 | 孙红星 | 基于里程计的克服卫星失锁时的gnss/ins车载组合定位定向算法 |
CN106352867A (zh) * | 2015-07-16 | 2017-01-25 | 福特全球技术公司 | 用于确定车辆自身位置的方法和设备 |
CN109099923A (zh) * | 2018-08-20 | 2018-12-28 | 江苏大学 | 基于激光、摄像机、gps与惯导融合的道路场景表征系统及其方法 |
CN109708632A (zh) * | 2019-01-31 | 2019-05-03 | 济南大学 | 一种面向移动机器人的激光雷达/ins/地标松组合导航系统及方法 |
CN109807911A (zh) * | 2019-03-14 | 2019-05-28 | 湖南超能机器人技术有限公司 | 基于gnss、uwb、imu、激光雷达、码盘的室外巡逻机器人多环境联合定位方法 |
CN110388924A (zh) * | 2018-04-18 | 2019-10-29 | 法拉第未来公司 | 用于与自动导航有关的基于雷达的车辆定位的系统和方法 |
CN110411462A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种gnss/惯性/车道线约束/里程计多源融合方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110131781A (ko) * | 2010-05-31 | 2011-12-07 | 삼성전자주식회사 | 위치정보의 정확도 확인방법 및 장치 |
US10599150B2 (en) * | 2016-09-29 | 2020-03-24 | The Charles Stark Kraper Laboratory, Inc. | Autonomous vehicle: object-level fusion |
WO2018196001A1 (en) * | 2017-04-28 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Sensing assembly for autonomous driving |
US10565457B2 (en) * | 2017-08-23 | 2020-02-18 | Tusimple, Inc. | Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map |
US11029165B2 (en) * | 2018-10-11 | 2021-06-08 | Baidu Usa Llc | Sensor integration and synchronization unit for an autonomous driving vehicle |
US11417017B2 (en) * | 2019-04-22 | 2022-08-16 | Texas Instmments Incorporated | Camera-only-localization in sparse 3D mapped environments |
DE102020120873A1 (de) * | 2019-08-12 | 2021-02-18 | Motional AD LLC (n.d.Ges.d. Staates Delaware) | Lokalisierung basierend auf vordefinierten merkmalen der umgebung |
-
2020
- 2020-02-27 CN CN202010124025.8A patent/CN111272165B/zh active Active
- 2020-11-05 US US17/089,742 patent/US11002859B1/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0679903A2 (en) * | 1989-12-11 | 1995-11-02 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
CN1948910A (zh) * | 2006-11-09 | 2007-04-18 | 复旦大学 | 利用gps与陀螺仪、里程计的组合定位方法与装置 |
EP2133662A2 (en) * | 2008-06-09 | 2009-12-16 | Honeywell International Inc. | Methods and system of navigation using terrain features |
CN103856989A (zh) * | 2012-11-28 | 2014-06-11 | 中国电信股份有限公司 | 室内外定位切换的方法和系统、终端以及定位应用平台 |
CN103517361A (zh) * | 2013-10-25 | 2014-01-15 | 北京航空航天大学 | 一种室内外无缝定位切换方法 |
CN106352867A (zh) * | 2015-07-16 | 2017-01-25 | 福特全球技术公司 | 用于确定车辆自身位置的方法和设备 |
CN105137468A (zh) * | 2015-09-24 | 2015-12-09 | 北京理工大学 | 光电式gps盲区环境下车辆可持续导航数据采集装置及方法 |
CN105824039A (zh) * | 2016-03-17 | 2016-08-03 | 孙红星 | 基于里程计的克服卫星失锁时的gnss/ins车载组合定位定向算法 |
CN110388924A (zh) * | 2018-04-18 | 2019-10-29 | 法拉第未来公司 | 用于与自动导航有关的基于雷达的车辆定位的系统和方法 |
CN109099923A (zh) * | 2018-08-20 | 2018-12-28 | 江苏大学 | 基于激光、摄像机、gps与惯导融合的道路场景表征系统及其方法 |
CN109708632A (zh) * | 2019-01-31 | 2019-05-03 | 济南大学 | 一种面向移动机器人的激光雷达/ins/地标松组合导航系统及方法 |
CN109807911A (zh) * | 2019-03-14 | 2019-05-28 | 湖南超能机器人技术有限公司 | 基于gnss、uwb、imu、激光雷达、码盘的室外巡逻机器人多环境联合定位方法 |
CN110411462A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种gnss/惯性/车道线约束/里程计多源融合方法 |
Non-Patent Citations (1)
Title |
---|
基于时间延迟动态预测的自动驾驶控制;赵建辉 等;《清华大学学报 自然科学版》;20180430;第58卷(第4期);第432-437页 * |
Also Published As
Publication number | Publication date |
---|---|
US11002859B1 (en) | 2021-05-11 |
CN111272165A (zh) | 2020-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111272165B (zh) | 一种基于特征点标定的智能车定位方法 | |
CN111307162B (zh) | 用于自动驾驶场景的多传感器融合定位方法 | |
KR102581263B1 (ko) | 위치 추적 방법, 장치, 컴퓨팅 기기 및 컴퓨터 판독 가능한 저장 매체 | |
CN113819914B (zh) | 一种地图构建方法及装置 | |
CN110411462B (zh) | 一种gnss/惯导/车道线约束/里程计多源融合方法 | |
CN114526745B (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
EP4318397A2 (en) | Method of computer vision based localisation and navigation and system for performing the same | |
JP5162849B2 (ja) | 不動点位置記録装置 | |
CN112083725A (zh) | 一种面向自动驾驶车辆的结构共用多传感器融合定位系统 | |
JP4984659B2 (ja) | 自車両位置推定装置 | |
CN112346104B (zh) | 一种无人机信息融合定位方法 | |
CN108426582B (zh) | 行人室内三维地图匹配方法 | |
US10921137B2 (en) | Data generation method for generating and updating a topological map for at least one room of at least one building | |
CN112147651B (zh) | 一种异步多车协同目标状态鲁棒估计方法 | |
CN110412596A (zh) | 一种基于图像信息和激光点云的机器人定位方法 | |
CN114565674B (zh) | 自动驾驶车辆城市结构化场景纯视觉定位方法及装置 | |
CN113237482B (zh) | 一种基于因子图的城市峡谷环境下车辆鲁棒定位方法 | |
JP2023525927A (ja) | 車両位置推定システム及び方法 | |
CN115127543A (zh) | 一种激光建图优化中异常边剔除方法及系统 | |
CN113554705B (zh) | 一种变化场景下的激光雷达鲁棒定位方法 | |
CN114915913A (zh) | 一种基于滑窗因子图的uwb-imu组合室内定位方法 | |
US20230304802A1 (en) | Passive combined indoor positioning system and method based on intelligent terminal sensor | |
CN113758491B (zh) | 基于多传感器融合无人车的相对定位方法、系统及车辆 | |
CN113034538B (zh) | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 | |
CN115046546A (zh) | 一种基于车道线识别的自动驾驶汽车定位系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |