CN113819890A - 测距方法、装置、电子设备及存储介质 - Google Patents
测距方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113819890A CN113819890A CN202110625786.6A CN202110625786A CN113819890A CN 113819890 A CN113819890 A CN 113819890A CN 202110625786 A CN202110625786 A CN 202110625786A CN 113819890 A CN113819890 A CN 113819890A
- Authority
- CN
- China
- Prior art keywords
- mapping
- coordinate system
- image
- point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000013507 mapping Methods 0.000 claims abstract description 325
- 239000011159 matrix material Substances 0.000 claims abstract description 93
- 238000012545 processing Methods 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 27
- 238000009499 grossing Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 15
- 238000013473 artificial intelligence Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/30—Interpretation of pictures by triangulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例提供了一种测距方法,涉及自动驾驶技术领域。该方法包括:获取于车辆行驶前方视野下采集到的当前帧的帧图像;根据帧图像中各直线的交点获得至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点;基于图像采集设备的参数,结合至少一个映射点集合在相机坐标系的坐标确定单应矩阵;识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标;根据目标对象在当前帧的世界坐标系的坐标,确定目标对象和车辆在当前帧的距离。本申请实施例相比现有技术提升了测距效率和精度。
Description
技术领域
本申请涉及自动驾驶技术领域,具体而言,本申请涉及一种测距方法、装置、电子设备及存储介质。
背景技术
自动测距可以使汽车在驾驶过程中由于距离过近发出警报,以提升驾驶员的警惕性,降低事故发生率,进而提高驾驶车辆的安全性能。只有更准确的测距,才能够更有效的获得与障碍物之间的距离信息,从而提升驾驶车辆的安全和人身安全。
激光雷达虽然有更加高精度的检测能力,但存在价格昂贵,测距距离短的问题。目前相关技术中,存在两类不借助激光雷达的测距方法:
(一)采用毫米波雷达和图像融合的方法,该方法虽然对测距的精度较高,但是庞大的体积和昂贵的价格阻碍着该方法的实际落地;
(二)采用单目测距的方法,通过固定相机的俯仰角和相机高度作为先验信息,然后通过神经网络检测目标对象的接地点,利用几何视觉等比关系计算目标对象的距离信息,该方法有两个缺点,首先由于该方法需要固定相机的俯仰角,一旦相机姿态发生变化则算法失效;其次在计算消失点时,严重依赖平行车道线等实际图像纹理信息,在没有足够多平行线的场景下表现不理想。
发明内容
本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的测距方法、装置、电子设备及存储介质。
第一方面,提供了一种测距方法,包括:
获取于车辆行驶前方视野下采集到的当前帧的帧图像;
根据帧图像中各直线的交点获得至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点;映射点为交点映射至位于相机坐标系的半球面上的点;
基于图像采集设备的参数,结合至少一个映射点集合在相机坐标系的坐标确定单应矩阵,单应矩阵用于描述帧图像中的像素点在世界坐标系和像素坐标系之间的位置映射关系;
识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标;
根据目标对象在当前帧的世界坐标系的坐标,确定目标对象和车辆在当前帧的距离。
在一个可能的实现方式中,根据帧图像中各直线的交点获得至少一个映射点集合,包括:
确定帧图像中各直线的交点在图像坐标系的位置;
根据交点在图像坐标系的位置以及图像坐标系和相机坐标系间的映射关系,将交点由图像坐标系映射至相机坐标系的半球面上,获得交点在半球面上对应的映射点;
对半球面进行网格化处理,将每个映射点作为参考映射点,根据参考映射点在相机坐标系的坐标,确定与参考映射点存在正交关系的坐标点所在的候选网格;
从候选网格中确定与参考映射点存在正交关系的映射点,以获得至少一个映射点集合,每个映射点集合中包括三个两两正交的映射点。
在一个可能的实现方式中,基于图像采集设备的参数,结合至少一个映射点集合在相机坐标系的坐标确定单应矩阵,包括:
对于每个映射点集合,统计映射点集合中所有映射点所在网格中的映射点数量,将具有最多映射点数量的映射点集合作为目标映射点集合;
从目标映射点集合中确定分别对应俯仰角和偏航角的目标映射点,将目标映射点在相机坐标系的坐标转换为单位向量,作为俯仰角和偏航角;
根据俯仰角、偏航角以及图像采集设备的参数确定单应矩阵。
在一个可能的实现方式中,图像采集设备的参数包括图像采集设备的相机内参和图像采集设备距离路面的高度信息;
根据俯仰角、偏航角以及图像采集设备的参数确定单应矩阵,包括:
根据图像采集设备的相机内参,构建相机内参矩阵;
根据高度信息获得路面和图像采集设备间的位置矢量;
根据相机内参矩阵、俯仰角、偏航角以及位置矢量,获得单应矩阵。
在一个可能的实现方式中,确定目标对象和车辆在当前帧的距离,之后还包括:
根据目标对象和车辆在包括当前帧在内的多帧的距离,对当前帧的距离进行平滑处理,获得平滑处理后的当前帧的距离。
在一个可能的实现方式中,确定目标对象和车辆在当前帧的距离,之后还包括:
根据目标对象和车辆在包括当前帧在内的多帧的距离以及车辆在包括当前帧在内的多帧的速度,获得目标对象的速度。
在一个可能的实现方式中,识别目标对象的接地点在帧图像中对应的目标像素点,包括:
将帧图像输入至预先训练的目标检测模型中,获得目标检测模型输出的接地点在帧图像中对应的目标像素点;
其中,目标检测模型是根据样本图像集合训练而成的,样本图像集合中的图像样本中标注了目标对象的接地点在图像样本中对应的目标像素点。
在一个可能的实现方式中,根据帧图像中各直线的交点获得至少一个映射点集合,之前还包括:
通过霍夫变换检测出帧图像中的候选直线,并将长度大于预设阈值的候选直线作为直线。
第二方面,提供了一种测距装置,包括:
帧图像获取模块,获取于车辆行驶前方视野下采集到的当前帧的帧图像;
映射点集合获取模块,用于根据帧图像中各直线的交点获得至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点;映射点为交点映射至位于相机坐标系的半球面上的点;
单应矩阵获取模块,用于基于图像采集设备的参数,结合至少一个映射点集合在相机坐标系的坐标确定单应矩阵,单应矩阵用于描述帧图像中的像素点在世界坐标系和像素坐标系之间的位置映射关系;
世界坐标识别模块,识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标;
距离确定模块,根据目标对象在当前帧的世界坐标系的坐标,确定目标对象和车辆在当前帧的距离。
在一个可能的实现方式中,映射点集合获取模块包括:
位置确定子模块,用于确定帧图像中各直线的交点在图像坐标系的位置;
映射子模块,用于根据交点在图像坐标系的位置以及图像坐标系和相机坐标系间的映射关系,将交点由图像坐标系映射至相机坐标系的半球面上,获得交点在半球面上对应的映射点;
网格处理子模块,用于对半球面进行网格化处理,将每个映射点作为参考映射点,根据参考映射点在相机坐标系的坐标,确定与参考映射点存在正交关系的坐标点所在的候选网格;
集合获取子模块,用于从候选网格中确定与参考映射点存在正交关系的映射点,以获得至少一个映射点集合,每个映射点集合中包括三个两两正交的映射点。
在一个可能的实现方式中,单应矩阵获取模块包括:
目标映射点确定子模块,用于对于每个映射点集合,统计映射点集合中所有映射点所在网格中的映射点数量,将具有最多映射点数量的映射点集合作为目标映射点集合;
姿态确定子模块,用于从目标映射点集合中确定分别对应俯仰角和偏航角的目标映射点,将目标映射点在相机坐标系的坐标转换为单位向量,作为俯仰角和偏航角;
矩阵确定子模块,用于根据俯仰角、偏航角以及图像采集设备的参数确定单应矩阵。
在一个可能的实现方式中,图像采集设备的参数包括图像采集设备的相机内参和图像采集设备距离路面的高度信息;
矩阵确定子模块包括:
内参矩阵单元,用于根据图像采集设备的相机内参,构建相机内参矩阵;
位置矢量单元,用于根据高度信息获得路面和图像采集设备间的位置矢量;
单元矩阵单元,用于根据相机内参矩阵、俯仰角、偏航角以及位置矢量,获得单应矩阵。
在一个可能的实现方式中,测距装置还包括:
距离平滑模块,用于根据目标对象和车辆在包括当前帧在内的多帧的距离,对当前帧的距离进行平滑处理,获得平滑处理后的当前帧的距离。
在一个可能的实现方式中,测距装置还包括:
速度计算模块,用于根据目标对象和车辆在包括当前帧在内的多帧的距离以及车辆在包括当前帧在内的多帧的速度,获得目标对象的速度。
在一个可能的实现方式中,世界坐标识别模块包括:
目标像素点获取子模块,用于将帧图像输入至预先训练的目标检测模型中,获得目标检测模型输出的接地点在帧图像中对应的目标像素点;
其中,目标检测模型是根据样本图像集合训练而成的,样本图像集合中的图像样本中标注了目标对象的接地点在图像样本中对应的目标像素点。
在一个可能的实现方式中,测距装置还包括:
直线获取模块,用于在根据帧图像中各直线的交点获得至少一个映射点集合之前,通过霍夫变换检测出帧图像中的候选直线,并将长度大于预设阈值的候选直线作为直线。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
第五方面,本发明实施例提供一种计算机程序,该计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中,当计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行实现如第一方面所提供的方法的步骤。
本发明实施例提供的测距方法、装置、电子设备及存储介质,通过获取于车辆行驶前方视野下采集到的当前帧的帧图像,识别帧图像中各条直线,相比相关技术严重依赖平行车道线等实际图像纹理信息的方式,具有更强的鲁棒性,将直线的交点映射至位于相机坐标系的半球面上,从而获得至少一个映射点集合,利用映射点集合中两两正交的映射点确定姿态角,进一步结合图像采集设备的参数确定单应矩阵,由于映射点集合会随每一帧图像发生变化,所以每一帧图像对应的单应矩阵也会发生变化,相比相关技术获得的单应矩阵更加灵活且准确,通过识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标,可快速获得目标对象和车辆间的距离,相比现有技术提升了测距效率和精度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的一种图像坐标系与世界坐标系转换的原理图;
图2为本申请实施例提供的一种相机坐标系与图像坐标系的转换关系的示意图;
图3为本申请实施例的测距方法的一个应用场景图;
图4为本申请一个实施例提供的测距方法的流程示意图;
图5为本申请另一个实施例提供的测距方法的流程示意图
图6为本申请实施例的像平面和等球面的映射关系的示意图;
图7为本申请实施例确定候选网格的流程示意图;
图8为本申请实施例的网格中的映射点和与参考映射点存在映射关系的坐标点的分布示意图;
图9为本申请实施例的一个映射点集合中的两个正交的映射点的位置示意图;
图10为本申请实施例的一个映射点集合中的三个映射点的位置示意图;
图11为本申请实施例的参考模型的结构示意图;
图12为本申请实施例的目标检测模型标记目标像素点的示意图;
图13为本申请再一个实施例的测距方法的流程示意图;
图14为本申请实施例提供的一种测距装置的结构示意图;
图15为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请涉及的几个名词进行介绍和解释:
AI是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
CV(Computer Vision,计算机视觉技术),计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR(Optical Character Recognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
ML(Machine Learning,机器学习)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例提供的方案涉及人工智能的CV和ML等技术,提供了一种测距方法,该测距方法可以应用于AGV(Automated Guided Vehicle,自动导引车)领域、汽车自动驾驶领域、汽车辅助驾驶领域等等。
像素坐标系:像素坐标系是以图像左上角为原点,建立以像素为单位的坐标系。像素的横坐标u与纵坐标v分别是在其图像数组中所在的列数与所在行数。
图像坐标系:图像坐标系是以相机采集到的图像的左上顶点为原点,建立的以毫米为单位的坐标系。图像坐标系的x轴与y轴为采集到的图像的长宽方向。
相机坐标系:相机坐标系是以相机的聚焦中心为原点,以光轴为z轴建立的三维直角坐标系。其中,相机坐标系的x轴与采集到的图像的图像坐标系的x轴平行,相机坐标系的y轴与采集到的图像的图像坐标系的y轴平行。
世界坐标系:世界坐标系能够描述相机在现实世界中的位置,同样还能够描述相机采集到的图像中的物体在现实世界中的位置。可以通过相机在世界坐标系中的位姿,将相机坐标系转换为世界坐标系。通常,该世界坐标系的x轴水平指向正东方向,y轴水平指向正北方向,z轴竖直向上。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图1为本申请实施例提供的图像坐标系与世界坐标系转换的原理图,如图1所示,图像处理、立体视觉等等方向常常涉及到四个坐标系:世界坐标系、相机坐标系、图像坐标系、像素坐标系。
其中,OW-XWYWZW:世界坐标系,描述相机位置,单位为米(m),本申请实施例的世界坐标系的原点位于相机(图像采集装置)的正下方。
OC-XCYCZC:相机坐标系,光心为远点,单位为米(m);
o-xy:图像坐标系,光心为图像中点,单位为毫米(mm);
uv:像素坐标系,原点为图像左上角,单位为pixel;
P:世界坐标系中的一点,即现实世界中的一点;
p:点P在图像中的成像点,在图像坐标系中的坐标为(x,y),在像素坐标系中的坐标为(u,v);
f:相机焦距,等于o与Oc的距离,f=||o-Oc||。
想要从像素坐标系转换到世界坐标系,一般需要三步:
第一步,将像素坐标系转换到图像坐标系;
第二步,将图像坐标系转换到相机坐标系;
第三步,将相机坐标系转换到世界坐标系。
对于第一步,像素坐标系和图像坐标系都在成像平面上,只是各自的原点和度量单位不一样。图像坐标系的原点为相机光轴与成像平面的交点,通常情况下是成像平面的中点(principal point)。图像坐标系的单位是mm,属于物理单位,而像素坐标系的单位是pixel。所以这二者之间的转换如下:
其中dx和dy分别表示图像坐标系的长度和宽度为多少mm,也即fx,表示一个像素在x轴方向上所占的长度,也即fy,表示一个像素在y轴方向上所占的长度,u0、v0是图像平面的中心像素的坐标,u0为图像平面的中心像素坐标与图像原点像素坐标之间相差的横向像素数;v0为图像平面的中心像素坐标与图像原点像素坐标之间相差的纵向像素数,均属于相机的相机内参。
对于第二步,参见图2,相机坐标系与图像坐标系的转换关系属于透视投影关系,可表示为:
其中,(Xc,Yc,Zc)表示P点在相机坐标系下的坐标,此时P点的单位已经转换为米。
对于第三步,从相机坐标系到世界坐标系,涉及到旋转和平移(所有的运动都可以用姿态角和平移向量来描述)。绕着不同的坐标轴旋转不同的角度,得到相应的姿态角,那么相机坐标系到世界坐标系的转换关系可表示为:
其中,R表示姿态角,可以表示为[rX,rY,rZ],rX、rY和rZ表示俯仰角、偏航角和翻滚角;T表示偏移向量。
那么通过上面四个坐标系的转换就可以得到一个点在像素坐标系到世界坐标系下的转换关系:
在本申请实施例中,将世界坐标系建立在棋盘格平面上,令棋盘格平面为Z=0的平面,可得:
H即为单应矩阵,单应矩阵包括了相机内参、姿态角以及偏移向量的信息,在本申请实施例中,深度信息可预先标定,可视为固定不变,偏移向量与图像采集设备距离路面的高度相关,当车辆行驶在平缓路面时,可认为偏移向量是固定不变的,而相机内参也可以通过张正友标定算法等标定算法确定,因此单应矩阵中俯仰角和偏航角的精确度将直接影响测距的精度。
本申请提供的测距方法、装置、电子设备和计算机可读存储介质,旨在解决现有技术的如上技术问题。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图3示出了根据本申请实施例的测距方法的一个应用场景图。如图3所示,当车辆10行驶在路段20中,车辆10中的路况采集设备110实时采集路况信息,其中包括路况的帧图像,路况采集设备110将采集的帧图像发送至服务器30,服务器30根据本申请实施例的测距方法确定车辆10与路段20中的行人40的距离。此外,服务器30还可以将距离信息发送至车载终端120,车载终端120对距离信息进行展示,和/或车载终端120根据距离信息自动控制车辆10的车速和方向,以使得车辆10及时避开行人40。
下面对本申请实施例的执行主体和实施环境进行介绍:
本申请实施例提供的测距方法,各步骤的执行主体可以是车辆,该车辆不限于自动驾驶汽车,该车辆可以包括路况采集设备。路况采集设备可以包括图像采集设备,用于拍摄位于车辆前方的行驶道,得到路况的帧图像。
可选地,该图像采集设备可以为任何具有图像采集功能的电子设备,比如摄像头、摄像机或者单目相机等等,本申请实施例对此不作限定。
可选地,该路况采集设备还可以包括处理单元,该处理单元用于对帧图像进行处理,以执行上述测距方法,获取车辆行驶路段上车辆与目标对象间的距离信息。该处理单元可以是诸如处理器等具有图像和数据处理功能的电子设备。
需要说明的是,上述处理单元可以是集成在视觉模组上,也可以独立存在于车辆上,形成处理模组,该处理模组和视觉模组可以电性连接。
可选地,本申请实施例提供的测距方法,各步骤的执行主体可以是车辆上安装的车载终端。该车载终端具有图像采集和图像处理功能。该车载终端可以包括图像采集设备和处理设备,当图像采集设备采集到路况图像之后,可以由处理设备对基于路况图像执行上述测距方法,获取目标对象的位置信息。
在一些其它实施例中,正如图3所示,上述测距方法还可以由服务器执行。服务器在得到帧图像之后,可以将测距结果发送给车辆。
需要说明的一点是,上述服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(ContentDeliveryNetwork,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器,本申请实施例对此不作限定。
本申请实施例的服务器的执行方法可以以云计算(cloud computing)的形式完成,云计算是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
作为云计算的基础能力提供商,会建立云计算资源池(简称云平台,一般称为IaaS(Infrastructure as a Service,基础设施即服务)平台,在资源池中部署多种类型的虚拟资源,供外部客户选择使用。云计算资源池中主要包括:计算设备(为虚拟化机器,包含操作系统)、存储设备、网络设备。
按照逻辑功能划分,在IaaS(Infrastructure as a Service,基础设施即服务)层上可以部署PaaS(Platform as a Service,平台即服务)层,PaaS层之上再部署SaaS(Software as a Service,软件即服务)层,也可以直接将SaaS部署在IaaS上。PaaS为软件运行的平台,如数据库、web容器等。SaaS为各式各样的业务软件,如web门户网站、短信群发器等。一般来说,SaaS和PaaS相对于IaaS是上层。
图4为本申请一个实施例提供的测距方法的流程示意图,如图4所示,车辆100上安装有图像采集设备110,车辆100可以通过该图像采集设备110拍摄行驶前方视野的帧图像,从帧图像200中识别直线,确定直线的交点,将交点映射至位于相机坐标系的半球面,确定至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点;基于图像采集设备的参数,结合至少一个映射点集合在相机坐标系的坐标确定单应矩阵;识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标;根据目标对象在当前帧的世界坐标系的坐标,确定目标对象和车辆在当前帧的距离。
下面,通过几个实施例对本申请技术方案进行介绍说明。
请参考图5,其示出了本申请另一个实施例提供的测距方法的流程示意图,在本申请实施例中,以该方法应用于上文介绍的车辆或者车载终端中来举例说明。该方法可以包括如下几个步骤:
S101、获取于车辆行驶前方视野下采集到的当前帧的帧图像。
本申请实施例的帧图像是通过图像采集设备获取的。帧图像可反应车辆行驶前方的周围环境,比如车道和障碍物(目标对象),障碍物可以包括车辆、行人、路灯、交通指示牌等等。车辆上可以安装有图像采集设备,这样在车辆行驶过程中可以通过实时获得帧图像,得到车辆与目标对象的距离信息,从而实时确定车辆的行驶策略。
其中,图像采集装置可以是车辆内置的图像采集装置,也可以是外置的、且与目标车辆关联的图像采集装置,比如车辆可通过连接线或网络与外置的图像采集装置连接,外置的图像采集装置采集现实场景的图像,并将采集的图像传输至车辆。内置的图像采集装置可以是摄像头,外置的与目标车辆关联的图像采集设备可以是携带有摄像头的无人机等等。摄像头具体可以是单目摄像头,相应地通过摄像头所采集的图像为单目图像,单目图像是针对同一场景的单张图像,具体可以是RGB图像。可选地,调用摄像头开启扫描模式,实时扫描摄像头视野中的目标对象,并按照指定帧率实时地生成道路场景图像。摄像头的视野是摄像头可以拍摄到的区域。
当该图像采集设备安装于目标车辆的前挡风玻璃上时,通过该图像采集设备可以拍摄目标车辆前方的路况,本申请实施例对于图像采集设备的安装位置不作具体的限定,例如还可以是安装于车辆的前车牌周围的区域。
S102、根据帧图像中各直线的交点获得至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点;映射点为交点映射至位于相机坐标系的半球面上的点。
本申请实施例不需要依赖于图像识别技术识别平行车道线,而是对帧图像中的直线进行识别。路面上的马路牙子、其他车辆的车身、车顶以及指示牌在图像中都可以被识别为直线,而一部分直线与车道线一样,能够反应车辆的行驶方向,并且由于这些直线的数量较多,后续步骤可以进一步筛选出置信度更高的、反应车辆的行驶方向以及车道线的直线的相关信息,比现有技术具有更高的鲁棒性。
本申请实施例计算两两直线间的交点,通过将交点映射至相机坐标系的半球面上,像平面与相机坐标系的X-Y轴平面平行,且像平面的主点(Principlepoint)位于相机坐标系的Z轴上,半球面的球心位于相机坐标系的原点。
通过将直线的交点映射到相机坐标系下的半球面上,就可以与图像坐标系中的交点对应的映射点,本申请实施例通过对映射点进行遍历,获得至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点。本申请实施例之所以要获得正交的映射点,是因为本申请是通过正交的映射点的坐标来标识相机相对于地面的姿态,也即相机坐标系相对于世界坐标系的姿态角,利用该姿态角即可在后续步骤中进一步获得单应矩阵。
S103、基于图像采集设备的参数,结合至少一个映射点集合在相机坐标系的坐标确定单应矩阵,单应矩阵用于描述帧图像中的像素点在世界坐标系和像素坐标系之间的位置映射关系。
本申请在获得至少一个映射点集合后,根据至少一个映射点集合在相机坐标系的坐标获得姿态角,利用图像采集设备的参数获得相机内参矩阵和偏移向量,从而获得单应矩阵,由于每一帧图像中的直线位置都会发生变化,所以根据每一帧图像获得的映射点集合的坐标也会发生变化,进而每一帧的单应矩阵也会发生变化,相比相关技术中将单应矩阵固定化的方法,本申请实施例获得的单应矩阵的准确性和适应性更高。
单应矩阵可以用于描述帧图像中的像素点在世界坐标系和像素坐标系之间的位置映射关系,从而对于帧图像中的每个像素点,根据该像素点在像素坐标系的坐标,利用单应矩阵都可以确定出该像素点在世界坐标系的坐标。
S104、识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标。
本申请实施例可以通过基于深度学习的目标检测方法,识别目标对象的接地点在帧图像中对应的目标像素点,进一步确定该目标像素点在像素坐标系的坐标,利用该坐标和单应矩阵,即可获得目标对象在当前帧的世界坐标系的坐标。
S105、根据目标对象在当前帧的世界坐标系的坐标,确定目标对象和车辆在当前帧的距离。
本申请实施例的世界坐标系的原点位于图像采集设备的正下方,所以通过计算目标对象在当前帧的时间坐标系的坐标与原点之间的欧氏距离,即可确定目标对象和车辆在当前帧的距离。
本申请实施例的测距方法,通过获取于车辆行驶前方视野下采集到的当前帧的帧图像,识别帧图像中各条直线,相比相关技术严重依赖平行车道线等实际图像纹理信息的方式,具有更强的鲁棒性,将直线的交点映射至位于相机坐标系的半球面上,从而获得至少一个映射点集合,利用映射点集合中两两正交的映射点确定姿态角,进一步结合图像采集设备的参数确定单应矩阵,由于映射点集合会随每一帧图像发生变化,所以每一帧图像对应的单应矩阵也会发生变化,相比相关技术获得的单应矩阵更加灵活且准确,通过识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标,可快速获得目标对象和车辆间的距离,相比现有技术提升了测距效率和精度。
在上述各实施例的基础上,作为一种可选实施例,根据帧图像中各直线的交点获得至少一个映射点集合,包括:S201~S204,具体的:
S201、确定帧图像中各直线的交点在图像坐标系的位置;
S202、根据交点在图像坐标系的位置以及图像坐标系和相机坐标系间的映射关系,将交点由图像坐标系映射至相机坐标系的半球面上,获得交点在半球面上对应的映射点。
请参见图6,其示例性地示出了本申请实施例的像平面和等球面的映射关系的示意图,如图所示,像平面(imageplane)所在的图像坐标系的x轴与相机坐标系的X轴平面平行,图像坐标系的y轴与相机坐标系的Y轴平行,像平面的主点(Principle point)位于相机坐标系的Z轴上,且距离相机坐标系的原点的距离为焦距(Focallength),等球面(EqulvalentSphere)的球心位于相机坐标系的原点,像平面上的点p映射至等球面上为点P,点p和点P的连线与相机坐标系的Z轴的夹角为点p和点P的连线在X-Y平面的投影与相机坐标系的X轴的夹角为λ。
定义p点在像平面的坐标为(x,y),P点在相机坐标系的坐标为(X,Y,Z),图像中心点的坐标为(x0,y0),图像采集设备的焦距为f,则P点和p点间的映射关系可以表示:
X=x-x0;
Y=y-y0;
Z=f。
S203、对半球面进行网格化处理,将每个映射点作为参考映射点,根据参考映射点在相机坐标系的坐标,确定与参考映射点存在正交关系的坐标点所在的候选网格。
本申请实施例在将交点映射至半球面后,通过对半球面进行网格化处理,例如,可以将半球面按照经纬度将半球面分为360*90个网格,本申请实施例对于网格划分的方式不作具体的限定。
S204、从候选网格中确定与参考映射点存在正交关系的映射点,以获得至少一个映射点集合,每个映射点集合中包括三个两两正交的映射点。
由于半球面上的映射点的数量众多,若对于每个映射点都遍历一遍其他映射点是否存在正交关系,计算量将非常大。所以本申请利用半球体表面上一点以及与该点存在正交关系的其他点的分布特性,采用先对半球面进行网格化处理,然后根据确定与映射点存在正交关系的坐标点所在的候选网格,仅从候选网格中获得正交关系的映射点,能够大大提高获取映射点集合的效率。
请参见图7,其示例性地示出了本申请实施例确定候选网格的流程示意图,如图所示,帧图像101中具有两条直线,两条直线的交点为点p,点p映射至半球面102上的映射点为点v1。由于仅存在一个过半球面的球心的切面与过半球面102的球心Oc与点v1的半径相垂直,结合正交的定义:向量在三维空间中的垂直关系,因此可知,该切面与半球面相交的每一坐标点均与映射点v1存在正交关系,在图7中,也即半球面上虚线上的每个坐标点均是与映射点v1存在正交关系的坐标点。由于半球面被网格化为多个网格,图7中的圆形图案103表示将半球面102展开成二维平面的示意效果,是为了相比三维的半球形更清晰地展示网格化后的情形,圆形图案103中的虚线即表示半球面中与映射点存在正交关系的坐标点,这些坐标点在圆形图案103中所经过的11个网格即为候选网格1031。
本申请实施例中每个映射点集合包括3个映射点,3个映射点两两正交,3个映射点的坐标可以对应表示出姿态角的航向角、俯仰角和横滚角三个欧拉角。
需要注意的是,在实际应用时,帧图像中可以识别出的直线的数量往往在数十条以上,这些直线两两之间形成的交点则更多,因此一般情况下可以从网格中确定出恰好正交的映射点,若在某些情况下网格中不存在正交的映射点,可以根据网格中分布的映射点和与参考映射点存在映射关系的坐标点的分布,确定正交的映射点。
请参见图8,其示例性地示出了本申请实施例的网格中的映射点和与参考映射点存在映射关系的坐标点的分布示意图,如图所示,网格中具有3个映射点,分别为p1~p3,网格中的虚线上的所有坐标点均与参考映射点存在映射关系。本申请实施例在映射点集合中的第二个映射点时,可以连接3个映射点获得一个多边形(三角形),确定该多边形的重心d,将虚线上距离重心d距离最近的坐标点作为映射点集合中的第二个映射点v2。当然,本申请实施例也可以采用其他的方式确定映射点集合中的第二个映射点,例如,还可以确定3个映射点距离虚线的距离,将距离虚线最近的映射点作为映射点集合中的第二个映射点。本申请实施例对此不作进一步的限定。
在上述各实施例的基础上,基于图像采集设备的参数,结合至少一个映射点集合在相机坐标系的坐标确定单应矩阵,包括:
S301、对于每个映射点集合,统计映射点集合中所有映射点所在网格中的映射点数量,将具有最多映射点数量的映射点集合作为目标映射点集合。
例如,若存在两个映射点集合,其中一个映射点集合中的映射点包括V1-V3,另一个映射点集合中的映射点包括V4-V6,统计V1-V6所在的网格中映射点的数量,若V1-V3所在的网格中映射点的数量小于V4-V6所在的网格中映射点的数量,则将V4-V6作为目标映射点集合。
基于此,本申请实施例在获得每个参考映射点对应的映射点集合时,可以根据候选网格中映射点的数量确定映射点集合中的第二个映射点,具体的:
将具有最多映射点的候选网格作为目标网格,在目标网格中确定与参考映射点存在正交关系的映射点,作为映射点集合中的第二个映射点。
请参见图9,其示例性地示出了本申请实施例的一个映射点集合中的两个正交的映射点的位置示意图,如图所示,在半球面102上,V1为一映射点集合中的第一个映射点,V2是映射点集合中的第二个映射点,V2位于过半球面的球心的切面与半球面的相交处,并且该切面与过半球面102的球心与点v1的半径相垂直。
根据一个映射点集合中的两个映射点,在半球面上确定与两个映射点均存在正交关系的第三个映射点。
根据正交的定义可知,在已知两个存在正交关系的映射点后,可以在半球面上确定唯一的第三个存在正交关系的映射点,同一映射点集合中的三个映射点两两正交。与获取第二个映射点类似的,若半球面上不存在与两个映射点正交的映射点,则将半球面上与两个映射点存在正交关系的坐标点作为第三个映射点。
请参见图10,其示例性地示出了本申请实施例的一个映射点集合中的三个映射点的位置示意图,如图所示,在半球面102上,V1为映射点集合中的第一个映射点,V2和V3分别是映射点集合中的第二个映射点和第三个映射点,V2和V3位于过半球面的球心的切面与半球面的相交处,并且该切面与过半球面102的球心与点v1的半径相垂直。
S302、从目标映射点集合中确定分别对应俯仰角和偏航角的目标映射点,将目标映射点在相机坐标系的坐标转换为单位向量,作为俯仰角和偏航角。
姿态角可表示为其中[1 0 0]表示俯仰角,[0 1 0]表示偏航角,[0 01]表示翻滚角,可以发现不同姿态角中非0元素的位置存在差异,因此本申请实施例可以根据目标映射点集合中每个映射点的坐标(在相机坐标系的坐标)中最大的一个分量确定该映射点对应哪个姿态角。
例如,某个映射点的坐标为(0.95 0.12 0.07),该坐标中最大的分量为0.95,而0.95在该坐标的位置与俯仰角中非0元素的位置对应,所以该映射点对应俯仰角。
S303、根据俯仰角、偏航角以及图像采集设备的参数确定单应矩阵。
在上述各实施例的基础上,作为一种可选实施例,图像采集设备的参数包括图像采集设备的相机内参,包括u0、v0、fx和fy等。图像采集设备的参数还包括图像采集设备距离路面的高度信息。
根据高度信息获得路面和图像采集设备间的位置矢量T;
根据相机内参矩阵、俯仰角、偏航角以及位置矢量,获得单应矩阵,具体的,由上述实施例可知,单应矩阵可表示为:
在上述各实施例的基础上,作为一种可选实施例,确定目标对象和车辆在当前帧的距离,之后还包括:
根据目标对象和车辆在包括当前帧在内的多帧的距离,对当前帧的距离进行平滑处理,获得平滑处理后的当前帧的距离。
本申请实施例在获得目标对象和车辆在当前帧的距离后,可以利用在包括当前帧在内的历史帧的距离,对当前帧的距离进行平滑处理,从而减少计算误差。具体的,本申请实施例可以采用卡尔曼滤波方法进行平滑处理。
在上述各实施例的基础上,作为一种可选实施例,确定目标对象和车辆在当前帧的距离,之后还包括:
根据目标对象和车辆在包括当前帧在内的多帧的距离以及车辆在包括当前帧在内的多帧的速度,获得目标对象的速度。
具体的,本申请实施例通过获取车辆在包括当前帧在内的多帧的速度,结合多帧帧图像的时长,可以确定车辆的行驶距离,通过目标对象和车辆在包括当前帧在内的多帧的距离,可以确定目标对象在多帧帧图像的时长内移动的距离,通过将移动的距离除以多帧帧图像的时长,即可获得目标对象的速度。
本申请实施例在获得目标对象和车辆在包括当前帧在内的多帧的距离,可以利用上述实施例的平滑处理后的距离,从而进一步提升目标对象的速度的计算准确性。
在上述各实施例的基础上,作为一种可选实施例,本申请实施例通过基于深度学习的目标检测方法,识别目标对象的接地点在帧图像中对应的目标像素点,具体的,该识别方法包括:
将帧图像输入至预先训练的目标检测模型中,获得目标检测模型输出的接地点在帧图像中对应的目标像素点;
其中,目标检测模型是根据样本图像集合训练而成的,样本图像集合中的图像样本中标注了目标对象的接地点在图像样本中对应的目标像素点。
在一个实施例中,目标检测模型的训练方法可以是:获取样本图像集合,样本图像集合包括图像样本以及图像样本相应的训练标签,训练标签用于对相应的图像样本中对应目标对象的接地点的像素点进行标注。接着初始化参考模型的参数,将样本图像集合输入到参考模型,得到目标对象的接地点对应的预测像素点信息。接着,针对预测像素点信息与训练标签之间的差异,采用损失函数,基于梯度下降算法对参考模型的参数进行优化,按照上述方法对参考模型进行迭代训练,直至满足训练停止条件。训练停止条件可以是迭代次数达到指定次数,或者损失函数的变化量小于指定阈值,训练结束后的参考模型即可作为目标检测模型。
本申请实施例的参考模型可以是基于YOLO(You only look once)的目标检测模型、基于级联RCNN(Region-CNN)的目标检测模型等等,图11示意性示出了根据本申请实施例的参考模型的具体示例。如图所示,在一些实施例中,使用基于YOLO V3的目标检测模型,具体而言使用ImageNet大数据训练的darknet53来训练参考模型。darknet53是包含53层卷积层的深度网络。在一些实施例中,如图11所示,去除了darknet53的全连接层,使用其中的4+1+2×2+1+2×8+1+2×8+1+2×4=52个卷积层。
请参阅图12,其示例性地示出了根据本申请实施例的目标检测模型标记目标像素点的示意图,如图12,帧图像中的目标对象为一辆货车,帧图像中记录了该货车的两个后轮,将该帧图像输入至目标检测模型,目标侧模型对该帧图像中的目标:接地点以标注框以及坐标(Xa,Ya)的形式进行标注。可以理解的是,当帧图像中具有多个目标对象时,目标检测模型会对每个目标对象的接地点进行检测。
在上述各实施例的基础上,作为一种可选实施例,根据帧图像中各直线的交点获得至少一个映射点集合,之前还包括:
通过霍夫变换检测出帧图像中的候选直线,并将长度大于预设阈值的候选直线作为直线。
霍夫变换是图像处理中识别几何图形的一种方法,在图像处理中有着广泛的应用,霍夫变换不受图形旋转的影响,易于进行几何图形的快速变换。本申请实施例在通过霍夫变换检测出帧图像中的所有候选执行后,还进一步设置了预设阈值,仅对长度大于预设阈值的候选直线计算交点,为提升测距精度奠定了基础。
经验证,本申请实施例检测的目标对象的位置误差小于3%,速度误差小于5%,误差明显低于相关技术。
请参见图13,其示例性地示出了本申请再一个实施例的测距方法的流程示意图,如图13所示,包括:
S401、获取于车辆行驶前方视野下采集到的当前帧的帧图像;
S402、通过霍夫变换检测出帧图像中的候选直线,并将长度大于预设阈值的候选直线作为直线;
S403、确定帧图像中各直线的交点在图像坐标系的位置;
S404、根据交点在图像坐标系的位置以及图像坐标系和相机坐标系间的映射关系,将交点由图像坐标系映射至相机坐标系的半球面上,获得交点在半球面上对应的映射点;
S405、对半球面进行网格化处理,将每个映射点作为参考映射点,根据参考映射点在相机坐标系的坐标,确定与参考映射点存在正交关系的坐标点所在的候选网格;
S406、从候选网格中确定与参考映射点存在正交关系的映射点,以获得至少一个映射点集合,每个映射点集合中包括三个两两正交的映射点;
S407、对于每个映射点集合,统计映射点集合中所有映射点所在网格中的映射点数量,将具有最多映射点数量的映射点集合作为目标映射点集合;
S408、从目标映射点集合中确定分别对应俯仰角和偏航角的目标映射点,将目标映射点在相机坐标系的坐标转换为单位向量,作为俯仰角和偏航角;
S409、根据图像采集设备的相机内参,构建相机内参矩阵;
S410、根据高度信息获得路面和图像采集设备间的位置矢量;
S411、根据相机内参矩阵、俯仰角、偏航角以及位置矢量,获得单应矩阵;
S412、识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标;
S413、根据目标对象在当前帧的世界坐标系的坐标,确定目标对象和车辆在当前帧的距离;
S414、根据目标对象和车辆在包括当前帧在内的多帧的距离,对当前帧的距离进行平滑处理,获得平滑处理后的当前帧的距离;根据目标对象和车辆在包括当前帧在内的多帧的距离以及车辆在包括当前帧在内的多帧的速度,获得目标对象的速度。
本申请实施例提供了一种测距装置,如图14所示,该装置可以包括:帧图像获取模块301、映射点集合获取模块302、单应矩阵获取模块303、世界坐标识别模块304和距离确定模块305,具体地:
帧图像获取模块301,获取于车辆行驶前方视野下采集到的当前帧的帧图像;
映射点集合获取模块302,用于根据帧图像中各直线的交点获得至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点;映射点为交点映射至位于相机坐标系的半球面上的点;
单应矩阵获取模块303,用于基于图像采集设备的参数,结合至少一个映射点集合在相机坐标系的坐标确定单应矩阵,单应矩阵用于描述帧图像中的像素点在世界坐标系和像素坐标系之间的位置映射关系;
世界坐标识别模块304,识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标;
距离确定模块305,根据目标对象在当前帧的世界坐标系的坐标,确定目标对象和车辆在当前帧的距离。
本发明实施例提供的测距装置,具体执行上述方法实施例流程,具体请详见上述测距方法实施例的内容,在此不再赘述。本发明实施例提供的测距装置,通过获取于车辆行驶前方视野下采集到的当前帧的帧图像,识别帧图像中各条直线,相比相关技术严重依赖平行车道线等实际图像纹理信息的方式,具有更强的鲁棒性,将直线的交点映射至位于相机坐标系的半球面上,从而获得至少一个映射点集合,利用映射点集合中两两正交的映射点确定姿态角,进一步结合图像采集设备的参数确定单应矩阵,由于映射点集合会随每一帧图像发生变化,所以每一帧图像对应的单应矩阵也会发生变化,相比相关技术获得的单应矩阵更加灵活且准确,通过识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标,可快速获得目标对象和车辆间的距离,相比现有技术提升了测距效率和精度。
在上述各实施例的基础上,作为一种可选实施例,映射点集合获取模块包括:
位置确定子模块,用于确定帧图像中各直线的交点在图像坐标系的位置;
映射子模块,用于根据交点在图像坐标系的位置以及图像坐标系和相机坐标系间的映射关系,将交点由图像坐标系映射至相机坐标系的半球面上,获得交点在半球面上对应的映射点;
网格处理子模块,用于对半球面进行网格化处理,将每个映射点作为参考映射点,根据参考映射点在相机坐标系的坐标,确定与参考映射点存在正交关系的坐标点所在的候选网格;
集合获取子模块,用于从候选网格中确定与参考映射点存在正交关系的映射点,以获得至少一个映射点集合,每个映射点集合中包括三个两两正交的映射点。
在上述各实施例的基础上,作为一种可选实施例,单应矩阵获取模块包括:
目标映射点确定子模块,用于对于每个映射点集合,统计映射点集合中所有映射点所在网格中的映射点数量,将具有最多映射点数量的映射点集合作为目标映射点集合;
姿态确定子模块,用于从目标映射点集合中确定分别对应俯仰角和偏航角的目标映射点,将目标映射点在相机坐标系的坐标转换为单位向量,作为俯仰角和偏航角;
矩阵确定子模块,用于根据俯仰角、偏航角以及图像采集设备的参数确定单应矩阵。
在上述各实施例的基础上,作为一种可选实施例,图像采集设备的参数包括图像采集设备的相机内参和图像采集设备距离路面的高度信息;
矩阵确定子模块包括:
内参矩阵单元,用于根据图像采集设备的相机内参,构建相机内参矩阵;
位置矢量单元,用于根据高度信息获得路面和图像采集设备间的位置矢量;
单元矩阵单元,用于根据相机内参矩阵、俯仰角、偏航角以及位置矢量,获得单应矩阵。
在上述各实施例的基础上,作为一种可选实施例,测距装置还包括:
距离平滑模块,用于根据目标对象和车辆在包括当前帧在内的多帧的距离,对当前帧的距离进行平滑处理,获得平滑处理后的当前帧的距离。
在上述各实施例的基础上,作为一种可选实施例,测距装置还包括:
速度计算模块,用于根据目标对象和车辆在包括当前帧在内的多帧的距离以及车辆在包括当前帧在内的多帧的速度,获得目标对象的速度。
在上述各实施例的基础上,作为一种可选实施例,世界坐标识别模块包括:
目标像素点获取子模块,用于将帧图像输入至预先训练的目标检测模型中,获得目标检测模型输出的接地点在帧图像中对应的目标像素点;
其中,目标检测模型是根据样本图像集合训练而成的,样本图像集合中的图像样本中标注了目标对象的接地点在图像样本中对应的目标像素点。
在上述各实施例的基础上,作为一种可选实施例,测距装置还包括:
直线获取模块,用于在根据帧图像中各直线的交点获得至少一个映射点集合之前,通过霍夫变换检测出帧图像中的候选直线,并将长度大于预设阈值的候选直线作为直线。
本申请实施例中提供了一种电子设备,该电子设备包括:存储器和处理器;至少一个程序,存储于存储器中,用于被处理器执行时,与现有技术相比可实现:通过获取于车辆行驶前方视野下采集到的当前帧的帧图像,识别帧图像中各条直线,相比相关技术严重依赖平行车道线等实际图像纹理信息的方式,具有更强的鲁棒性,将直线的交点映射至位于相机坐标系的半球面上,从而获得至少一个映射点集合,利用映射点集合中两两正交的映射点确定姿态角,进一步结合图像采集设备的参数确定单应矩阵,由于映射点集合会随每一帧图像发生变化,所以每一帧图像对应的单应矩阵也会发生变化,相比相关技术获得的单应矩阵更加灵活且准确,通过识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标,可快速获得目标对象和车辆间的距离,相比现有技术提升了测距效率和精度。
在一个可选实施例中提供了一种电子设备,如图15所示,图15所示的电子设备4000包括:处理器4001和存储器4003。其中,处理器4001和存储器4003相连,如通过总线4002相连。可选地,电子设备4000还可以包括收发器4004。需要说明的是,实际应用中收发器4004不限于一个,该电子设备4000的结构并不构成对本申请实施例的限定。
处理器4001可以是CPU(Central Processing Unit,中央处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application SpecificIntegrated Circuit,专用集成电路),FPGA(FieldProgrammable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器4001也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线4002可包括一通路,在上述组件之间传送信息。总线4002可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。总线4002可以分为地址总线、数据总线、控制总线等。为便于表示,图15中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器4003可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random Access Memory,随机存取存储器)或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM(Electrically ErasableProgrammable Read Only Memory,电可擦可编程只读存储器)、CD-ROM(Compact DiscReadOnly Memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
存储器4003用于存储执行本申请方案的应用程序代码,并由处理器4001来控制执行。处理器4001用于执行存储器4003中存储的应用程序代码,以实现前述方法实施例所示的内容。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,当其在计算机上运行时,使得计算机可以执行前述方法实施例中相应内容。与现有技术相比,通过获取于车辆行驶前方视野下采集到的当前帧的帧图像,识别帧图像中各条直线,相比相关技术严重依赖平行车道线等实际图像纹理信息的方式,具有更强的鲁棒性,将直线的交点映射至位于相机坐标系的半球面上,从而获得至少一个映射点集合,利用映射点集合中两两正交的映射点确定姿态角,进一步结合图像采集设备的参数确定单应矩阵,由于映射点集合会随每一帧图像发生变化,所以每一帧图像对应的单应矩阵也会发生变化,相比相关技术获得的单应矩阵更加灵活且准确,通过识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标,可快速获得目标对象和车辆间的距离,相比现有技术提升了测距效率和精度。
本申请实施例提供了一种计算机程序,该计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中,当计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行如前述方法实施例所示的内容。与现有技术相比,通过获取于车辆行驶前方视野下采集到的当前帧的帧图像,识别帧图像中各条直线,相比相关技术严重依赖平行车道线等实际图像纹理信息的方式,具有更强的鲁棒性,将直线的交点映射至位于相机坐标系的半球面上,从而获得至少一个映射点集合,利用映射点集合中两两正交的映射点确定姿态角,进一步结合图像采集设备的参数确定单应矩阵,由于映射点集合会随每一帧图像发生变化,所以每一帧图像对应的单应矩阵也会发生变化,相比相关技术获得的单应矩阵更加灵活且准确,通过识别目标对象的接地点在帧图像中对应的目标像素点,确定目标像素点在像素坐标系的坐标,结合单应矩阵,获得目标对象在当前帧的世界坐标系的坐标,可快速获得目标对象和车辆间的距离,相比现有技术提升了测距效率和精度。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (11)
1.一种测距方法,其特征在于,包括:
获取于车辆行驶前方视野下采集到的当前帧的帧图像;
根据所述帧图像中各直线的交点获得至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点;所述映射点为所述交点映射至位于相机坐标系的半球面上的点;
基于图像采集设备的参数,结合至少一个映射点集合在所述相机坐标系的坐标确定单应矩阵,所述单应矩阵用于描述帧图像中的像素点在世界坐标系和像素坐标系之间的位置映射关系;
识别目标对象的接地点在所述帧图像中对应的目标像素点,确定所述目标像素点在所述像素坐标系的坐标,结合所述单应矩阵,获得所述目标对象在当前帧的世界坐标系的坐标;
根据所述目标对象在当前帧的世界坐标系的坐标,确定所述目标对象和所述车辆在当前帧的距离。
2.根据权利要求1所述的测距方法,其特征在于,所述根据所述帧图像中各直线的交点获得至少一个映射点集合,包括:
确定所述帧图像中各直线的交点在图像坐标系的位置;
根据所述交点在图像坐标系的位置以及所述图像坐标系和所述相机坐标系间的映射关系,将所述交点由图像坐标系映射至所述相机坐标系的半球面上,获得所述交点在所述半球面上对应的映射点;
对所述半球面进行网格化处理,将每个映射点作为参考映射点,根据所述参考映射点在所述相机坐标系的坐标,确定与所述参考映射点存在正交关系的坐标点所在的候选网格;
从所述候选网格中确定与所述参考映射点存在正交关系的映射点,以获得至少一个映射点集合,每个所述映射点集合中包括三个两两正交的映射点。
3.根据权利要求2所述的测距方法,其特征在于,所述基于图像采集设备的参数,结合至少一个映射点集合在所述相机坐标系的坐标确定单应矩阵,包括:
对于每个映射点集合,统计所述映射点集合中所有映射点所在网格中的映射点数量,将具有最多映射点数量的映射点集合作为目标映射点集合;
从所述目标映射点集合中确定分别对应俯仰角和偏航角的目标映射点,将所述目标映射点在所述相机坐标系的坐标转换为单位向量,作为所述俯仰角和偏航角;
根据所述俯仰角、偏航角以及所述图像采集设备的参数确定单应矩阵。
4.根据权利要求3所述的测距方法,其特征在于,所述图像采集设备的参数包括所述图像采集设备的相机内参和所述图像采集设备距离路面的高度信息;
所述根据所述俯仰角、偏航角以及所述图像采集设备的参数确定单应矩阵,包括:
根据所述图像采集设备的相机内参,构建相机内参矩阵;
根据所述高度信息获得路面和图像采集设备间的位置矢量;
根据相机内参矩阵、俯仰角、偏航角以及所述位置矢量,获得所述单应矩阵。
5.根据权利要求1所述的测距方法,其特征在于,所述确定所述目标对象和所述车辆在当前帧的距离,之后还包括:
根据所述目标对象和所述车辆在包括当前帧在内的多帧的距离,对所述当前帧的距离进行平滑处理,获得平滑处理后的当前帧的距离。
6.根据权利要求1或5所述的测距方法,其特征在于,所述确定所述目标对象和所述车辆在当前帧的距离,之后还包括:
根据所述目标对象和所述车辆在包括当前帧在内的多帧的距离以及所述车辆在包括当前帧在内的多帧的速度,获得所述目标对象的速度。
7.根据权利要求1所述的测距方法,其特征在于,所述识别所述目标对象的接地点在所述帧图像中对应的目标像素点,包括:
将所述帧图像输入至预先训练的目标检测模型中,获得所述目标检测模型输出的所述接地点在所述帧图像中对应的目标像素点;
其中,所述目标检测模型是根据样本图像集合训练而成的,所述样本图像集合中的图像样本中标注了目标对象的接地点在图像样本中对应的目标像素点。
8.根据权利要求1所述的测距方法,其特征在于,所述根据所述帧图像中各直线的交点获得至少一个映射点集合,之前还包括:
通过霍夫变换检测出所述帧图像中的候选直线,并将长度大于预设阈值的候选直线作为所述直线。
9.一种测距装置,其特征在于,包括:
帧图像获取模块,获取于车辆行驶前方视野下采集到的当前帧的帧图像;
映射点集合获取模块,用于根据所述帧图像中各直线的交点获得至少一个映射点集合,每个映射点集合中包括两两正交的至少两个映射点;所述映射点为所述交点映射至位于相机坐标系的半球面上的点;
单应矩阵获取模块,用于基于图像采集设备的参数,结合至少一个映射点集合在所述相机坐标系的坐标确定单应矩阵,所述单应矩阵用于描述帧图像中的像素点在世界坐标系和像素坐标系之间的位置映射关系;
世界坐标识别模块,识别目标对象的接地点在所述帧图像中对应的目标像素点,确定所述目标像素点在所述像素坐标系的坐标,结合所述单应矩阵,获得所述目标对象在当前帧的世界坐标系的坐标;
距离确定模块,根据所述目标对象在当前帧的世界坐标系的坐标,确定所述目标对象和所述车辆在当前帧的距离。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至8任一项所述测距方法的步骤。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至8中任意一项所述测距方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110625786.6A CN113819890B (zh) | 2021-06-04 | 2021-06-04 | 测距方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110625786.6A CN113819890B (zh) | 2021-06-04 | 2021-06-04 | 测距方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113819890A true CN113819890A (zh) | 2021-12-21 |
CN113819890B CN113819890B (zh) | 2023-04-14 |
Family
ID=78912525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110625786.6A Active CN113819890B (zh) | 2021-06-04 | 2021-06-04 | 测距方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113819890B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114018215A (zh) * | 2022-01-04 | 2022-02-08 | 智道网联科技(北京)有限公司 | 基于语义分割的单目测距方法、装置、设备及存储介质 |
CN114067001A (zh) * | 2022-01-14 | 2022-02-18 | 天津所托瑞安汽车科技有限公司 | 车载相机角度标定方法、终端及存储介质 |
CN114413958A (zh) * | 2021-12-28 | 2022-04-29 | 浙江大学 | 无人物流车的单目视觉测距测速方法 |
CN114449440A (zh) * | 2021-12-27 | 2022-05-06 | 上海集度汽车有限公司 | 测量方法、装置及系统 |
CN114440821A (zh) * | 2022-02-08 | 2022-05-06 | 三一智矿科技有限公司 | 基于单目相机的测距方法及装置、介质、设备 |
CN114581508A (zh) * | 2022-02-25 | 2022-06-03 | 腾讯科技(深圳)有限公司 | 一种曲面图像生成方法、装置、电子设备和存储介质 |
CN114782447A (zh) * | 2022-06-22 | 2022-07-22 | 小米汽车科技有限公司 | 路面检测方法、装置、车辆、存储介质及芯片 |
CN114926550A (zh) * | 2022-06-09 | 2022-08-19 | 上海同陆云交通科技有限公司 | 一种多车后装相机视角自适应方法及系统 |
CN115100595A (zh) * | 2022-06-27 | 2022-09-23 | 深圳市神州云海智能科技有限公司 | 一种安全隐患检测方法、系统、计算机设备和存储介质 |
CN115345775A (zh) * | 2022-10-18 | 2022-11-15 | 北京科技大学 | 一种面向椭圆状管件外形检测的图像展开方法及装置 |
CN115578470A (zh) * | 2022-09-22 | 2023-01-06 | 虹软科技股份有限公司 | 一种单目视觉定位方法、装置、存储介质和电子设备 |
CN116543032A (zh) * | 2023-07-06 | 2023-08-04 | 中国第一汽车股份有限公司 | 冲击物测距方法、装置、测距设备及存储介质 |
CN117553756A (zh) * | 2024-01-10 | 2024-02-13 | 中国人民解放军32806部队 | 基于目标跟踪的脱靶量计算方法、装置、设备及存储介质 |
CN117782030A (zh) * | 2023-11-24 | 2024-03-29 | 北京天数智芯半导体科技有限公司 | 距离测量方法及装置、存储介质及电子设备 |
CN117788564A (zh) * | 2023-12-25 | 2024-03-29 | 浙江博采传媒有限公司 | 一种球心定位方法和球心定位装置 |
CN118565526A (zh) * | 2024-08-02 | 2024-08-30 | 福思(杭州)智能科技有限公司 | 颠簸工况下的测距补偿方法、装置和存储介质及电子设备 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030030546A1 (en) * | 2001-07-11 | 2003-02-13 | Din-Chang Tseng | Monocular computer vision aided road vehicle driving for safety |
JP2013024662A (ja) * | 2011-07-19 | 2013-02-04 | Toyota Infotechnology Center Co Ltd | 3次元範囲計測システム、3次元範囲計測プログラムおよび記録媒体 |
US20160093052A1 (en) * | 2014-09-26 | 2016-03-31 | Neusoft Corporation | Method and apparatus for detecting obstacle based on monocular camera |
CN108489454A (zh) * | 2018-03-22 | 2018-09-04 | 沈阳上博智像科技有限公司 | 深度距离测量方法、装置、计算机可读存储介质及电子设备 |
CN110415293A (zh) * | 2018-04-26 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 交互处理方法、装置、系统和计算机设备 |
CN110567469A (zh) * | 2018-06-05 | 2019-12-13 | 北京市商汤科技开发有限公司 | 视觉定位方法、装置、电子设备及系统 |
CN110599605A (zh) * | 2019-09-10 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置、电子设备和计算机可读存储介质 |
CN110926334A (zh) * | 2019-11-29 | 2020-03-27 | 深圳市商汤科技有限公司 | 测量方法、装置、电子设备及存储介质 |
CN111721281A (zh) * | 2020-05-27 | 2020-09-29 | 北京百度网讯科技有限公司 | 位置识别方法、装置和电子设备 |
CN111780673A (zh) * | 2020-06-17 | 2020-10-16 | 杭州海康威视数字技术股份有限公司 | 一种测距方法、装置及设备 |
CN112525147A (zh) * | 2020-12-08 | 2021-03-19 | 北京嘀嘀无限科技发展有限公司 | 自动驾驶设备测距方法及相关装置 |
CN112560769A (zh) * | 2020-12-25 | 2021-03-26 | 北京百度网讯科技有限公司 | 用于检测障碍物的方法、电子设备、路侧设备和云控平台 |
CN112880642A (zh) * | 2021-03-01 | 2021-06-01 | 苏州挚途科技有限公司 | 测距系统和测距方法 |
-
2021
- 2021-06-04 CN CN202110625786.6A patent/CN113819890B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030030546A1 (en) * | 2001-07-11 | 2003-02-13 | Din-Chang Tseng | Monocular computer vision aided road vehicle driving for safety |
JP2013024662A (ja) * | 2011-07-19 | 2013-02-04 | Toyota Infotechnology Center Co Ltd | 3次元範囲計測システム、3次元範囲計測プログラムおよび記録媒体 |
US20160093052A1 (en) * | 2014-09-26 | 2016-03-31 | Neusoft Corporation | Method and apparatus for detecting obstacle based on monocular camera |
CN108489454A (zh) * | 2018-03-22 | 2018-09-04 | 沈阳上博智像科技有限公司 | 深度距离测量方法、装置、计算机可读存储介质及电子设备 |
CN110415293A (zh) * | 2018-04-26 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 交互处理方法、装置、系统和计算机设备 |
CN110567469A (zh) * | 2018-06-05 | 2019-12-13 | 北京市商汤科技开发有限公司 | 视觉定位方法、装置、电子设备及系统 |
CN110599605A (zh) * | 2019-09-10 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置、电子设备和计算机可读存储介质 |
CN110926334A (zh) * | 2019-11-29 | 2020-03-27 | 深圳市商汤科技有限公司 | 测量方法、装置、电子设备及存储介质 |
CN111721281A (zh) * | 2020-05-27 | 2020-09-29 | 北京百度网讯科技有限公司 | 位置识别方法、装置和电子设备 |
CN111780673A (zh) * | 2020-06-17 | 2020-10-16 | 杭州海康威视数字技术股份有限公司 | 一种测距方法、装置及设备 |
CN112525147A (zh) * | 2020-12-08 | 2021-03-19 | 北京嘀嘀无限科技发展有限公司 | 自动驾驶设备测距方法及相关装置 |
CN112560769A (zh) * | 2020-12-25 | 2021-03-26 | 北京百度网讯科技有限公司 | 用于检测障碍物的方法、电子设备、路侧设备和云控平台 |
CN112880642A (zh) * | 2021-03-01 | 2021-06-01 | 苏州挚途科技有限公司 | 测距系统和测距方法 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114449440B (zh) * | 2021-12-27 | 2023-11-17 | 上海集度汽车有限公司 | 测量方法、装置及系统 |
CN114449440A (zh) * | 2021-12-27 | 2022-05-06 | 上海集度汽车有限公司 | 测量方法、装置及系统 |
CN114413958A (zh) * | 2021-12-28 | 2022-04-29 | 浙江大学 | 无人物流车的单目视觉测距测速方法 |
CN114018215A (zh) * | 2022-01-04 | 2022-02-08 | 智道网联科技(北京)有限公司 | 基于语义分割的单目测距方法、装置、设备及存储介质 |
CN114018215B (zh) * | 2022-01-04 | 2022-04-12 | 智道网联科技(北京)有限公司 | 基于语义分割的单目测距方法、装置、设备及存储介质 |
CN114067001A (zh) * | 2022-01-14 | 2022-02-18 | 天津所托瑞安汽车科技有限公司 | 车载相机角度标定方法、终端及存储介质 |
CN114440821A (zh) * | 2022-02-08 | 2022-05-06 | 三一智矿科技有限公司 | 基于单目相机的测距方法及装置、介质、设备 |
CN114440821B (zh) * | 2022-02-08 | 2023-12-12 | 三一智矿科技有限公司 | 基于单目相机的测距方法及装置、介质、设备 |
CN114581508A (zh) * | 2022-02-25 | 2022-06-03 | 腾讯科技(深圳)有限公司 | 一种曲面图像生成方法、装置、电子设备和存储介质 |
CN114581508B (zh) * | 2022-02-25 | 2024-10-18 | 腾讯科技(深圳)有限公司 | 一种曲面图像生成方法、装置、电子设备和存储介质 |
CN114926550A (zh) * | 2022-06-09 | 2022-08-19 | 上海同陆云交通科技有限公司 | 一种多车后装相机视角自适应方法及系统 |
CN114782447A (zh) * | 2022-06-22 | 2022-07-22 | 小米汽车科技有限公司 | 路面检测方法、装置、车辆、存储介质及芯片 |
CN115100595A (zh) * | 2022-06-27 | 2022-09-23 | 深圳市神州云海智能科技有限公司 | 一种安全隐患检测方法、系统、计算机设备和存储介质 |
CN115578470A (zh) * | 2022-09-22 | 2023-01-06 | 虹软科技股份有限公司 | 一种单目视觉定位方法、装置、存储介质和电子设备 |
CN115578470B (zh) * | 2022-09-22 | 2024-06-07 | 虹软科技股份有限公司 | 一种单目视觉定位方法、装置、存储介质和电子设备 |
CN115345775A (zh) * | 2022-10-18 | 2022-11-15 | 北京科技大学 | 一种面向椭圆状管件外形检测的图像展开方法及装置 |
CN116543032A (zh) * | 2023-07-06 | 2023-08-04 | 中国第一汽车股份有限公司 | 冲击物测距方法、装置、测距设备及存储介质 |
CN116543032B (zh) * | 2023-07-06 | 2023-11-21 | 中国第一汽车股份有限公司 | 冲击物测距方法、装置、测距设备及存储介质 |
CN117782030A (zh) * | 2023-11-24 | 2024-03-29 | 北京天数智芯半导体科技有限公司 | 距离测量方法及装置、存储介质及电子设备 |
CN117782030B (zh) * | 2023-11-24 | 2024-08-20 | 北京天数智芯半导体科技有限公司 | 距离测量方法及装置、存储介质及电子设备 |
CN117788564A (zh) * | 2023-12-25 | 2024-03-29 | 浙江博采传媒有限公司 | 一种球心定位方法和球心定位装置 |
CN117788564B (zh) * | 2023-12-25 | 2024-09-13 | 浙江博采传媒有限公司 | 一种球心定位方法和球心定位装置 |
CN117553756B (zh) * | 2024-01-10 | 2024-03-22 | 中国人民解放军32806部队 | 基于目标跟踪的脱靶量计算方法、装置、设备及存储介质 |
CN117553756A (zh) * | 2024-01-10 | 2024-02-13 | 中国人民解放军32806部队 | 基于目标跟踪的脱靶量计算方法、装置、设备及存储介质 |
CN118565526A (zh) * | 2024-08-02 | 2024-08-30 | 福思(杭州)智能科技有限公司 | 颠簸工况下的测距补偿方法、装置和存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113819890B (zh) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113819890B (zh) | 测距方法、装置、电子设备及存储介质 | |
CN114723955B (zh) | 图像处理方法、装置、设备和计算机可读存储介质 | |
CN111488812B (zh) | 障碍物位置识别方法、装置、计算机设备和存储介质 | |
CN112257668A (zh) | 主辅路判断方法、装置、电子设备及存储介质 | |
Perrollaz et al. | Probabilistic representation of the uncertainty of stereo-vision and application to obstacle detection | |
CN114299464A (zh) | 车道定位方法、装置及设备 | |
CN115410167A (zh) | 目标检测与语义分割方法、装置、设备及存储介质 | |
CN116246119A (zh) | 3d目标检测方法、电子设备及存储介质 | |
CN114219855A (zh) | 点云法向量的估计方法、装置、计算机设备和存储介质 | |
CN115239822A (zh) | 分体式飞行车辆多模块间实时视觉识别定位方法及系统 | |
CN114802261A (zh) | 泊车控制方法、障碍物识别模型训练方法、装置 | |
CN117315424A (zh) | 多源融合的鸟瞰图感知目标检测方法、装置、设备及介质 | |
CN115690138A (zh) | 一种融合车载影像与点云的道路边界提取与矢量化方法 | |
US20220301176A1 (en) | Object detection method, object detection device, terminal device, and medium | |
CN115965970A (zh) | 基于隐式的集合预测实现鸟瞰图语义分割的方法及系统 | |
CN111626241A (zh) | 一种人脸检测方法及装置 | |
CN113012191B (zh) | 一种基于点云多视角投影图的激光里程计算法 | |
CN114118247A (zh) | 一种基于多传感器融合的无锚框3d目标检测方法 | |
CN114332796A (zh) | 一种多传感器融合体素特征图生成方法及系统 | |
CN116778262B (zh) | 一种基于虚拟点云的三维目标检测方法和系统 | |
CN112528918A (zh) | 道路元素识别方法、地图标注方法及装置、车辆 | |
US20230068375A1 (en) | Method and system for detecting a three-dimensional object in a two-dimensional image | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
Xiong et al. | A 3d estimation of structural road surface based on lane-line information | |
CN115984321A (zh) | 测速方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |