[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN111623776B - 使用近红外视觉传感器和陀螺仪进行目标测距的方法 - Google Patents

使用近红外视觉传感器和陀螺仪进行目标测距的方法 Download PDF

Info

Publication number
CN111623776B
CN111623776B CN202010514924.9A CN202010514924A CN111623776B CN 111623776 B CN111623776 B CN 111623776B CN 202010514924 A CN202010514924 A CN 202010514924A CN 111623776 B CN111623776 B CN 111623776B
Authority
CN
China
Prior art keywords
camera
gyroscope
target
image
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010514924.9A
Other languages
English (en)
Other versions
CN111623776A (zh
Inventor
吴晓闯
孙长亮
蔡珂轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunshan Xingjizhou Intelligent Technology Co ltd
Original Assignee
Kunshan Xingjizhou Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunshan Xingjizhou Intelligent Technology Co ltd filed Critical Kunshan Xingjizhou Intelligent Technology Co ltd
Priority to CN202010514924.9A priority Critical patent/CN111623776B/zh
Publication of CN111623776A publication Critical patent/CN111623776A/zh
Application granted granted Critical
Publication of CN111623776B publication Critical patent/CN111623776B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种使用近红外视觉传感器和陀螺仪进行目标测距的方法,使用近红外视觉传感器与陀螺仪实现在任意驾驶条件下排除车身抖动的影响进行精确目标测距的方法,创新性的采用近红外成像设备作为感知单元,构建深度学习模型,检测目标物体;采用陀螺仪参数作为摄像头校正参数,实时检测车辆行驶时的摄像头角度的变化,并排除车身抖动的影响实时计算主车与目标物体的距离,使得智能辅助驾驶系统能够精确匹配视觉传感器的识别信息与其他传感器的感知信息,提升系统对环境的感知准确性。

Description

使用近红外视觉传感器和陀螺仪进行目标测距的方法
技术领域
本发明涉及一种测距的方法,尤其涉及一种使用近红外视觉传感器和陀螺仪进行目标测距的方法。
背景技术
目前,越来越多的车辆搭载了智能辅助驾驶系统,提高了车辆的驾乘安全性与舒适性,而传感器对于更多外界信息的直接或间接获取的能力决定了高级智能辅助驾驶系统的功能上限。摄像头作为唯一的视觉传感器被广泛应用于智能辅助驾驶系统中,利用摄像头进行目标测距作为智能驾驶辅助系统中最重要的功能之一,关系到多传感器感知结果融合、驾驶控制决策等重要系统,故需要保证摄像头目标测距的实时精准性。由于车辆行驶条件多种多样,车辆在不平整的路面行驶时车身的抖动会对摄像头的测距结果产生影响,因此需要一种排除此类影响的精准测距的方法。
发明内容
为了克服上述缺陷,本发明提供了一种使用近红外视觉传感器和陀螺仪进行目标测距的方法,用近红外视觉传感器与陀螺仪,基于深度学习和数字图像处理技术,在车辆行驶过程中,检测道路上的车辆、行人等目标,计算目标到主车车身的横向距离和横向距离,且测距精确度不会受到主车车身抖动的影响。
本发明为了解决其技术问题所采用的技术方案是:
一种使用近红外视觉传感器和陀螺仪进行目标测距的方法,包括以下步骤:
步骤1,部件安装:将近红外摄像头与陀螺仪固定在一起并安装在主车挡风玻璃的中间位置,调整摄像头角度,使摄像头水平朝前,再将激光发射装置安装在主车大灯位置,调整角度,保持激光发射器水平向前;
步骤2,摄像头参数测量与标定:摄像头安装固定后,将主车停于水平路面,并将陀螺仪的俯仰角变化率、横摆角变化率和旋转角变化率进行参数初始化,并分别用陀螺仪输出的俯仰角速度、横摆角速度和旋转角速度对时间进行积分来获取实时俯仰角度θ′p、实时横摆角度θ′y和实时旋转角度θ′r,测量摄像头的镜头中心到地面的竖直距离h,并用棋盘格标定板对摄像头的三个安装角度进行标定,分别为安装俯仰角θp、安装横摆角θy、安装旋转角θr
步骤3,图像参数校正:在主车正常行驶时,使用近红外摄像头采集图像,由标定到的安装旋转角θr与陀螺仪实时输出的实时旋转角θ′r,将图像内的坐标矩阵
Figure GDA0003890540550000021
校正为摄像头无旋转角情况下的坐标矩阵
Figure GDA0003890540550000022
其中,x′与y′为采集图像上某点对应的横坐标值和纵坐标值,x与y为该点在校正为摄像头无旋转角情况下的图像上对应的横坐标值和纵坐标值,
Figure GDA0003890540550000023
Figure GDA0003890540550000024
为坐标系旋转变换的结果,满足关系:
Figure GDA0003890540550000025
步骤4,目标检测:将校正后的图像输入训练好的目标检测模型,目标检测模型会对图像进行卷积处理并根据模型置信度计算目标物位置与类型,然后输出表示目标物位置的识别矩形框信息,在已知镜头标定的安装俯仰角θp和陀螺仪输出的实时俯仰角θ′p的情况下,获取模型输出的识别矩形框下边界中心点在校正后图像上的纵坐标值y1
步骤5、目标纵向测距:由于摄像头的分辨率固定,因此图像中心水平线的纵坐标y0为固定值,且由于摄像头视场角固定,因此镜头焦距对应像素值f也为固定值,因此,目标距摄像头的纵向距离d为:
Figure GDA0003890540550000031
步骤6,目标横向距离测距:根据识别信息获得目标纵向距离d后,根据纵向距离d、识别矩形框底边中心点在图像上的横坐标值x1、横摆角的安装标定值θy、陀螺仪实时输出的横摆角θ′y和图像垂直中心线横坐标值x0来推算目标对于主车的横向距离L,公式如下:
Figure GDA0003890540550000032
步骤7,根据上述步骤,实时计算视觉传感器识别到的目标与车辆的纵向与横向距离。
本发明的有益效果是:本发明提出了一种使用近红外视觉传感器与陀螺仪实现在任意驾驶条件下排除车身抖动的影响进行精确目标测距的方法,创新性的采用近红外成像设备作为感知单元,构建深度学习模型,检测目标物体;采用陀螺仪参数作为摄像头校正参数,实时检测车辆行驶时的摄像头角度的变化,并排除车身抖动的影响实时计算主车与目标物体的距离,使得智能辅助驾驶系统能够精确匹配视觉传感器的识别信息与其他传感器的感知信息,提升系统对环境的感知准确性。
附图说明
图1为本发明实施例所述步骤1示意图;
图2为本发明实施例所述步骤2、3示意图;
图3为本发明实施例所述步骤4示意图;
图4为本发明实施例所述步骤6结构示意图;
图5为本发明流程框架示意图;
图6为本发明实施例所述模型输出的结果图片。
具体实施方式
以下结合附图,对本发明的一个较佳实施例作详细说明。
一种使用近红外视觉传感器和陀螺仪进行目标测距的方法,包括以下步骤:
步骤1,部件安装:将近红外摄像头1与陀螺仪2固定在一起并安装在主车3挡风玻璃的中间位置,调整摄像头角度,使摄像头水平朝前,再将激光发射装置4安装在主车大灯位置,调整角度,保持激光发射器水平向前,参阅图1;
步骤2,摄像头参数测量与标定:摄像头安装固定后,将主车停于水平路面,并将陀螺仪的俯仰角变化率、横摆角变化率和旋转角变化率参数初始化,并分别用陀螺仪输出的俯仰角速度、横摆角速度和旋转角速度对时间进行积分来获取实时俯仰角度θ′p、实时横摆角度θ′y和实时旋转角度θ′r,测量摄像头的镜头中心到地面的竖直距离h(单位:米),并用棋盘格标定板对摄像头的三个安装角度进行标定,分别为安装俯仰角θp、安装横摆角θy、安装旋转角θr(单位:弧度),参阅图2;
步骤3,图像参数校正:在主车正常行驶时,使用近红外摄像头采集图像,由标定到的安装旋转角θr与陀螺仪实时输出的实时旋转角θ′r,将图像内的坐标矩阵
Figure GDA0003890540550000051
(x′与y′为该点在图像上对应的横纵坐标值)校正为摄像头无旋转角情况下的坐标矩阵
Figure GDA0003890540550000052
(x与y为该点在图像上对应的横纵坐标值),参阅图2,P与P′为坐标系旋转变换的结果,满足关系:
Figure GDA0003890540550000053
步骤4,目标检测:将校正后的图像输入训练好的目标检测模型,目标检测模型会对图像进行卷积处理并根据模型置信度计算目标物位置与类型,之后输出表示目标物位置的识别矩形框信息,在已知镜头标定的俯仰角θp和陀螺仪输出的实时俯仰角θ′p的情况下,获取模型输出的识别矩形框下边界中心点(即目标与地面接触点)在校正后图像上的纵坐标值y1,参阅图3;
步骤5、目标纵向测距:由于摄像头的分辨率固定,因此图像中心水平线的纵坐标y0为固定值,且由于摄像头视场角固定,因此镜头焦距对应像素值f(单位:像素)也为固定值,因此,目标距摄像头的纵向距离d(单位:米)为:
Figure GDA0003890540550000054
步骤6,目标横向距离测距:根据识别信息获得目标纵向距离d后,根据纵向距离d、识别矩形框底边中心点(即目标与地面接触点)在图像上的横坐标值x1、横摆角的安装标定值θy、陀螺仪实时输出的横摆角θ′y和图像垂直中心线横坐标值x0来推算目标对于主车的横向距离L(单位:米),示意图如图4所示,公式如下
Figure GDA0003890540550000055
步骤7,根据上述步骤,实时计算视觉传感器识别到的目标与车辆的纵向与横向距离。
本发明的流程框图参阅图5,以下通过一个具体实施例进行说明。
1、按照标准将近红外摄像头安装固定后,测量得到摄像头的安装高度为1.48米,摄像头的焦距对应像素值为1831。摄像头标准参数测量完成后用棋盘格对摄像头的三个安装角度进行标定。标定获取的安装角度分别为:安装俯仰角0.0322弧度,安装横摆角0.0131弧度,安装旋转角0.0007弧度。
2、车辆行驶时,根据陀螺仪信息处理得到实时角度信息:实时俯仰角0.0012弧度,实时横摆角0.0001弧度,实时旋转角0.0001弧度。将近红外摄像头获取的图片进行校正,将校正后的图片输入目标检测模型,获取模型输出的结果图片,如图6所示。
3、分别获取识别矩形框下边中心点的横、纵坐标值,并计算其相对于摄像头的横、纵距离。以图6中前方白色车辆为例,识别矩形框下边中心点横、纵值分别为991和616,代入公式得摄像头到白车纵向距离为19.7米,横向距离为-0.18米,即摄像头光轴靠右0.18米。
由此可见,本发明使用近红外视觉传感器与陀螺仪实现在任意驾驶条件下排除车身抖动的影响进行精确目标测距的方法,创新性的采用近红外成像设备作为感知单元,构建深度学习模型,检测目标物体;采用陀螺仪参数作为摄像头校正参数,实时检测车辆行驶时的摄像头角度的变化,并排除车身抖动的影响实时计算主车与目标物体的距离,使得智能辅助驾驶系统能够精确匹配视觉传感器的识别信息与其他传感器的感知信息,提升系统对环境的感知准确性。
在以上的描述中阐述了很多具体细节以便于充分理解本发明。但是以上描述仅是本发明的较佳实施例而已,本发明能够以很多不同于在此描述的其它方式来实施,因此本发明不受上面公开的具体实施的限制。同时任何熟悉本领域技术人员在不脱离本发明技术方案范围情况下,都可利用上述揭示的方法和技术内容对本发明技术方案做出许多可能的变动和修饰,或修改为等同变化的等效实施例。凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。

Claims (1)

1.一种使用近红外视觉传感器和陀螺仪进行目标测距的方法,其特征在于,包括以下步骤:
步骤1,部件安装:将近红外摄像头与陀螺仪固定在一起并安装在主车挡风玻璃的中间位置,调整摄像头角度,使摄像头水平朝前,再将激光发射装置安装在主车大灯位置,调整角度,保持激光发射器水平向前;
步骤2,摄像头参数测量与标定:摄像头安装固定后,将主车停于水平路面,并将陀螺仪的俯仰角变化率、横摆角变化率和旋转角变化率进行参数初始化,并分别用陀螺仪输出的俯仰角速度、横摆角速度和旋转角速度对时间进行积分来获取实时俯仰角度θ′p、实时横摆角度θ′y和实时旋转角度θ′r,测量摄像头的镜头中心到地面的竖直距离h,并用棋盘格标定板对摄像头的三个安装角度进行标定,分别为安装俯仰角θp、安装横摆角θy、安装旋转角θr
步骤3,图像参数校正:在主车正常行驶时,使用近红外摄像头采集图像,由标定到的安装旋转角θr与陀螺仪实时输出的实时旋转角θ′r,将图像内的坐标矩阵
Figure FDA0003890540540000011
校正为摄像头无旋转角情况下的坐标矩阵
Figure FDA0003890540540000012
其中,x′与y′为采集图像上某点对应的横坐标值和纵坐标值,x与y为该点在校正为摄像头无旋转角情况下的图像上对应的横坐标值和纵坐标值,
Figure FDA0003890540540000013
Figure FDA0003890540540000014
为坐标系旋转变换的结果,满足关系:
Figure FDA0003890540540000015
步骤4,目标检测:将校正后的图像输入训练好的目标检测模型,目标检测模型会对图像进行卷积处理并根据模型置信度计算目标物位置与类型,然后输出表示目标物位置的识别矩形框信息,在已知镜头标定的安装俯仰角θp和陀螺仪输出的实时俯仰角θ′p的情况下,获取模型输出的识别矩形框下边界中心点在校正后图像上的纵坐标值y1
步骤5、目标纵向测距:由于摄像头的分辨率固定,因此图像中心水平线的纵坐标y0为固定值,且由于摄像头视场角固定,因此镜头焦距对应像素值f也为固定值,因此,目标距摄像头的纵向距离d为:
Figure FDA0003890540540000021
步骤6,目标横向距离测距:根据识别信息获得目标纵向距离d后,根据纵向距离d、识别矩形框底边中心点在图像上的横坐标值x1、横摆角的安装标定值θy、陀螺仪实时输出的横摆角θ′y和图像垂直中心线横坐标值x0来推算目标对于主车的横向距离L,公式如下:
Figure FDA0003890540540000022
步骤7,根据上述步骤,实时计算视觉传感器识别到的目标与车辆的纵向与横向距离。
CN202010514924.9A 2020-06-08 2020-06-08 使用近红外视觉传感器和陀螺仪进行目标测距的方法 Active CN111623776B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010514924.9A CN111623776B (zh) 2020-06-08 2020-06-08 使用近红外视觉传感器和陀螺仪进行目标测距的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010514924.9A CN111623776B (zh) 2020-06-08 2020-06-08 使用近红外视觉传感器和陀螺仪进行目标测距的方法

Publications (2)

Publication Number Publication Date
CN111623776A CN111623776A (zh) 2020-09-04
CN111623776B true CN111623776B (zh) 2022-12-02

Family

ID=72272051

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010514924.9A Active CN111623776B (zh) 2020-06-08 2020-06-08 使用近红外视觉传感器和陀螺仪进行目标测距的方法

Country Status (1)

Country Link
CN (1) CN111623776B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114521239A (zh) * 2020-09-18 2022-05-20 中国科学院重庆绿色智能技术研究院 一种车辆防抖稳定器感知方法、应用、系统
CN113091512B (zh) * 2021-04-07 2023-06-02 合肥英睿系统技术有限公司 一种射击装置瞄准方法及装置
CN113610695A (zh) * 2021-05-07 2021-11-05 浙江兆晟科技股份有限公司 一种红外望远镜全画幅成像输出方法及系统
CN114659527A (zh) * 2022-03-30 2022-06-24 北京理工大学 一种基于惯性测量单元补偿的车道线光学测距方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07147000A (ja) * 1993-11-25 1995-06-06 Sumitomo Electric Ind Ltd 車載カメラの姿勢パラメータ算出装置
CN107167826A (zh) * 2017-03-31 2017-09-15 武汉光庭科技有限公司 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法
WO2018177159A1 (zh) * 2017-04-01 2018-10-04 上海蔚来汽车有限公司 运动物体的位置确定方法及系统
CN110796604A (zh) * 2019-09-25 2020-02-14 武汉光庭信息技术股份有限公司 一种图像校正方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105405126B (zh) * 2015-10-27 2017-11-07 大连理工大学 一种基于单目视觉系统的多尺度空‑地参数自动标定方法
CN106156725A (zh) * 2016-06-16 2016-11-23 江苏大学 一种基于车辆前方的行人及骑车人的识别预警系统的工作方法
CN106289159B (zh) * 2016-07-28 2019-12-10 北京智芯原动科技有限公司 基于测距补偿的车辆测距方法及装置
CN106679633B (zh) * 2016-12-07 2019-06-04 东华大学 一种车载测距系统及方法
CN108230393A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种智能车前方运动车辆的测距方法
CN108007426B (zh) * 2017-11-29 2020-10-16 珠海亿智电子科技有限公司 一种摄像头测距方法
CN108596058A (zh) * 2018-04-11 2018-09-28 西安电子科技大学 基于计算机视觉的行车障碍物测距方法
CN109146980B (zh) * 2018-08-12 2021-08-10 浙江农林大学 基于单目视觉的优化的深度提取和被动测距方法
CN109035320B (zh) * 2018-08-12 2021-08-10 浙江农林大学 基于单目视觉的深度提取方法
CN109343041B (zh) * 2018-09-11 2023-02-14 昆山星际舟智能科技有限公司 用于高级智能辅助驾驶的单目测距方法
CN110174088A (zh) * 2019-04-30 2019-08-27 上海海事大学 一种基于单目视觉的目标测距方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07147000A (ja) * 1993-11-25 1995-06-06 Sumitomo Electric Ind Ltd 車載カメラの姿勢パラメータ算出装置
CN107167826A (zh) * 2017-03-31 2017-09-15 武汉光庭科技有限公司 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法
WO2018177159A1 (zh) * 2017-04-01 2018-10-04 上海蔚来汽车有限公司 运动物体的位置确定方法及系统
CN110796604A (zh) * 2019-09-25 2020-02-14 武汉光庭信息技术股份有限公司 一种图像校正方法及装置

Also Published As

Publication number Publication date
CN111623776A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN111623776B (zh) 使用近红外视觉传感器和陀螺仪进行目标测距的方法
JP7461720B2 (ja) 車両位置決定方法及び車両位置決定装置
US11340071B2 (en) Calibration system and calibration apparatus
CN107424116B (zh) 基于侧环视相机的泊车位检测方法
CN111696160B (zh) 车载摄像头自动标定方法、设备及可读存储介质
WO2018196391A1 (zh) 一种车载摄像机的外部参数标定方法及装置
US9975499B2 (en) Wading apparatus for a vehicle and method of use
WO2012172713A1 (ja) 道路形状判定装置、車載用画像認識装置、撮像軸調整装置およびレーン認識方法
CN110412603B (zh) 一种用于车道偏离计算的标定参数自适应更新方法
CN112257539B (zh) 车辆与车道线的位置关系检测方法、系统和存储介质
CN112541953B (zh) 一种基于雷达信号和视频同步坐标映射的车辆检测方法
EP3042159A1 (en) Water depth estimation apparatus and method
CN110174059B (zh) 一种基于单目图像的受电弓导高及拉出值测量方法
CN103196418A (zh) 一种弯道车距测量方法
US7415134B2 (en) Traffic lane marking line recognition system for vehicle
EP2770478B1 (en) Image processing unit, imaging device, and vehicle control system and program
CN110766760B (zh) 用于相机标定的方法、装置、设备和存储介质
CN111169463A (zh) 一种泊车控制系统及方法
KR20200077426A (ko) 유도로 상의 항공기 포지셔닝
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
US20160207473A1 (en) Method of calibrating an image detecting device for an automated vehicle
JP2005332106A (ja) 車両用走行区分線認識装置
CN112819711B (zh) 一种基于单目视觉的利用道路车道线的车辆反向定位方法
KR20210005605A (ko) 카메라 고유 파라미터에 대한 온라인 평가
CN111830519B (zh) 多传感器融合的测距方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant