CN107533133A - 用于监视车辆前方的区域的方法和设备 - Google Patents
用于监视车辆前方的区域的方法和设备 Download PDFInfo
- Publication number
- CN107533133A CN107533133A CN201680022668.3A CN201680022668A CN107533133A CN 107533133 A CN107533133 A CN 107533133A CN 201680022668 A CN201680022668 A CN 201680022668A CN 107533133 A CN107533133 A CN 107533133A
- Authority
- CN
- China
- Prior art keywords
- sensor
- angle
- vehicle
- region
- pitch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012544 monitoring process Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 230000008859 change Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 description 19
- 230000003028 elevating effect Effects 0.000 description 13
- 238000005259 measurement Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000002427 irreversible effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/932—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种用于监视车辆(100)前方的区域(104)的方法(300),其中,所述车辆(100)具有朝所述区域(104)的方向定向的第一传感器(106)以及朝所述区域(104)的方向定向的第二传感器(108),其中,所述第二传感器(108)相比所述第一传感器(106)具有更大的垂直检测角(112),其中,在分配的步骤(302)中,将由所述第一传感器(106)检测的距离信息(116)分配给由所述第二传感器(108)在所述区域(104)中检测到的对象(118)。在跟踪的步骤(304)中,当所述对象(118)基于所述车辆(100)的俯仰角(130)而离开所述第一传感器(106)的检测角(110)时,在使用所述第二传感器(108)的情况下跟踪(304)所述对象(118)的位置(128)。
Description
技术领域
本发明从根据独立权利要求的类型的一种设备和一种方法出发。一种计算机程序也是本发明的主题。
背景技术
在加速过程或减速过程期间,车辆可以实施俯仰运动。由于该俯仰运动,与车辆固定地连接的传感器可能从其检测区域丢失对象。
在现有技术中,经常在使用两种传感器信息的情况下进行触发。然而,导致触发的信号大多仅仅来自第一传感器。因此,例如在紧急制动辅助系统中,通过雷达传感器识别对象并且预测相对速度或碰撞时刻。使用第二传感器——例如视频传感器来提供对象确认并且释放紧急制动。然而,导致紧急制动辅助系统的触发(即碰撞时刻的预测)的信号通常仅仅来自第一传感器。
发明内容
在该背景下,借助在此提出的方案提出根据主权利要求的一种用于监视车辆前方的区域的方法、一种使用所述方法的设备以及一种相应的计算机程序。通过在从属权利要求中列出的措施,能够实现在独立权利要求中说明的设备的有利的扩展方案和改进方案。
当传感器基于俯仰运动从其检测区域丢失对象时,可以借助另一传感器继续跟踪所述对象。为此,另外的传感器可以相比第一传感器具有更大的检测区域。
为了可以借助另外的传感器可靠地跟踪对象,可以实现第一传感器的数据与另外的传感器的数据的数据融合。在此,尤其可以传输对象的参考距离。
提出一种用于监视车辆前方的区域的方法,其中,所述车辆具有朝所述区域的方向定向的第一传感器以及朝所述区域的方向定向的第二传感器,其中,第二传感器相比第一传感器具有更大的垂直检测角,其中,所述方法具有以下步骤:
将由第一传感器检测的距离信息分配给由第二传感器在所述区域中检测到的对象;以及
当所述对象基于车辆的俯仰角而离开第一传感器的检测角时,在使用第二传感器的情况下跟踪所述对象的位置。
车辆前方的区域尤其可以理解为未来待由车辆驶过的交通空间。第一传感器和第二传感器可以是前瞻性(vorausschauend)传感器。距离信息可以代表对象与车辆之间的间距。
当俯仰角大于阈值角时,可以实施分配的步骤。由此,只要由两个传感器检测到对象就可以传输距离信息。
可以在使用通过对象遮盖的水平角和/或垂直角的情况下跟踪对象。第二传感器可以是方向敏感的传感器。换言之,可以通过第二传感器的传感器数据中的位置来跟踪对象。通过参考距离可以将由对象遮盖的角度通过三角法计算来换算成距离值。
在跟踪的步骤中,还可以求取对象的位置变化。由此,例如可以跟踪对象的避让运动。
在分配的步骤中,还可以将车辆与对象之间的由第一传感器检测的相对速度分配给所述对象。相对速度会影响第二传感器的传感器数据的预期变化。
在跟踪的步骤中,可以跟踪相对速度的变化。由此,可以更新预计的碰撞速度。
第一传感器可以是雷达传感器,并且第二传感器可以是视频传感器。雷达传感器例如可以通过信号传播时间测量距离。视频传感器或摄像机可以检测对象在图像中的横向位置和水平位置。
所述方法例如可以以软件或硬件的方式或以由软件与硬件组成的混合形式例如在控制装置中实现。
在此提出的方案还实现一种设备,所述设备被构造用于在相应的装置中实施、控制或者实现在此提出的方法的变型方案的步骤。通过本发明的以设备形式的实施变型方案可以快速和高效地解决本发明所基于的任务。
设备在此可以理解为处理传感器信号并且据此输出控制信号和/或数据信号的电设备。所述设备可以具有按硬件方式和/或按软件方式构造的接口。在按硬件方式的构造中,接口例如可以是所谓的系统ASIC的包括所述设备的最不同功能的一部分。然而,也可能的是,接口是单独的集成电路或至少部分地由分立部件组成。在按软件方式的构造中,接口可以是软件模块,其例如与其他软件模块共存在微控制器上。
具有程序代码的计算机程序产品或者计算机程序也是有利的,所述程序代码可以存储在机器可读的载体或者存储介质,如半导体存储器、硬盘存储器或光学存储器上并且尤其用于当在计算机或者设备上执行程序产品或者程序时实施、实现和/或控制根据先前描述的实施方式之一的方法的步骤。
附图说明
本发明的实施例在附图中示出并且在后续的描述中进一步阐述。附图示出:
图1示出具有根据一个实施例的设备的车辆的示图;
图2根据距离示出摄像机的视角的示图;
图3示出根据一个实施例的用于监视车辆前方的区域的方法的流程图。
在本发明的有利的实施例的后续的描述中,对于在不同附图中示出的并且起类似作用的元件使用相同或类似的附图标记,其中,不再对所述元件作重复的描述。
具体实施方式
图1示出具有根据一个实施例的设备102的车辆100的示图。设备102构造用于监视车辆100前方的区域104。为此,设备102与车辆100的第一传感器106连接并且与车辆100的第二传感器108连接。两个传感器106、108朝区域104定向。第一传感器106具有第一垂直检测角110。第二传感器108具有第二垂直检测角112。第二检测角112大于第一检测角110。在此,第二检测角112从一定距离起完全覆盖第一检测角110。
第一传感器106提供第一传感器信号114。在第一传感器信号114中包含有至少一个距离信息116。距离信息116代表车辆100与布置在第一检测角110内的对象118之间的距离。
第二传感器108提供第二传感器信号120。在第二传感器信号120中包含有对象118的至少一个对象信息122,因为对象118由第二传感器108检测。对象信息122代表对象118在第二检测角112内的位置。
设备102具有用于分配的装置124以及用于跟踪的装置126。用于分配的装置124构造用于将距离信息116分配给第二传感器108的对象信息122。因此,将所述距离分配给对象118,并且对象118的当前空间位置118作为间距和角度已知。通过当前的距离到对象118的在时间上错开的另一分配,同样可以给对象118分配相对速度。用于跟踪的装置126构造用于当对象118基于车辆100的俯仰角130而离开第一传感器106的检测角110时,在使用第二传感器108的对象信息122的情况下跟踪对象118的位置128。
由车辆100的俯仰角传感器132提供俯仰角130。该俯仰角传感器例如也可以通过图像分析处理单元来取代。不一定需要专用的传感器。
在另一实施方式中,由第一传感器106检测到对象例如通过车辆的俯仰运动从第一检测区域110中消失,但还由第二传感器108检测到所述对象。
在一个实施例中,第一传感器106是雷达传感器。第二传感器108是摄像机。
当车辆100例如基于减速或加速实施俯仰运动时,第一传感器106可能从其检测角110中丢失对象118。因此,车辆100的仅仅分析处理第一传感器信号114的功能如此长时间不能够获得关于对象118的距离信息116,直到车辆100结束俯仰运动并且第一传感器106重新朝对象118定向。
通过在此提出的方案,只要车辆实施俯仰运动,就可以在第二传感器信号120中跟踪对象118。可以从角度信息122中以高置信度推导出对象118相对于车辆100的相对位置,因为到对象118的距离在跟踪开始时已知。
尤其可以在第二传感器信号120中跟踪对象118的位置变化。同样可以跟踪车辆100与对象118之间的相对速度。
在在此提出的方案中,提出摄像机数据120在车辆100强烈俯仰的情况下的应用。在此,基于车辆100的俯仰角130进行切换。
在紧急制动情况下,车辆100非常强烈地俯仰,因此,尤其碰撞重要相关的对象118可能从雷达传感器106的检测区域110中消失。通过使用雷达信息114来初始化摄像机信息120,接着可以将通常不太适合的摄像机信息120用于碰撞预测。这尤其对于车辆100的安全系统(ISS:集成安全系统)是重要的。
在一个实施例中,根据环境传感器106、108调节系统,例如安全气囊触发算法。环境传感器106、108——例如摄像机108、雷达106、激光雷达或超声检测环境104并且求取可能的即将发生的碰撞和碰撞类型。在此,可以更敏感地调节安全气囊控制装置,从而可以更快速地实现约束系统的触发。
因此,例如可以由雷达传感器106预测与车辆的前方碰撞。在预测会发生事故的时刻期间,减小用于约束系统的激活阈值,这导致更敏感且更早的反应。如果由被动安全的经典传感器,例如加速度传感器和/或碰撞传感器记录可能的事故,则可以更快速地对此作出反应,因为可以限制可信度测试持续时间。
视扩展阶段(Ausbaustufe)而定地,可以预测前部碰撞或侧面碰撞或者也对后方碰撞作出反应。在碰撞的情况下,可以区分不同的事故当事方,例如可以区分车辆与载重货车或行人或固定锚定的对象118。
在此,碰撞识别始终具有以下前提:事故已经发生或会不可避免以及将发生。仅仅缩短反应时间,由此可以使乘客更好地应对事故。例如可以提供更多的空间以降低动能并且因此避免加速度峰值。
借助加速度传感器等等的碰撞传感的基本功能性保留。
可以将安全系统功能预触发(用于激活可逆的人员保护装置)和预点火(用于激活不可逆的人员保护装置)理解为以下突出特征:其中,在发生事故当事方之间的接触之前就激活约束系统。可以使用不同的环境传感器106、108用于传感。
在此,区分可逆执行器的预点火与不可逆的例如烟火(pyrotechnisch)执行器的预触发。可以激活安全气囊和皮带张紧器,后者也经常可逆(预点火)。
不同的环境传感器106、108可以具有不同的特性和测量原理。
雷达系统和激光雷达系统106是发送信号——例如脉冲或频率斜坡——的主动传感器,该信号在对象118处反射并且又被接收。通过借助所接收的信号(例如通过其传播时间)分析处理所发送的信号,可以推断出在所发送的信号方向上的参量。
因此,当传感器106安装在行驶方向上时,通常可以在行驶方向上测量间距和相对速度,有时也测量相对加速度。
雷达传感器106的或激光雷达传感器的垂直张角110通常是小的,以便检测不重要相关的环境的尽可能少的干扰信号,例如车辆100上方的路灯。
雷达传感器106如此安装,使得该雷达传感器平行于平坦的道路地发送并接收信号。
摄像机108的典型的张角112例如为10°以上,以便足够接近地识别路灯,以及为10°以下,以便识别车道标记。
例如可以根据道路标记或通过惯性传感机构在图像中求取俯仰运动,并且可以在识别或测量对象118的情况下使用俯仰运动,以便使识别相对于俯仰运动保持稳健。
除明确的计算之外,也可以基于模型得出俯仰角。因此,例如可以根据加速度信号估计俯仰角,必要时在借助车辆质量和质量分布的情况下。另一种基于模型的俯仰角估计是紧急制动信号的持续时间或制动防抱死系统的干预的持续时间:从一定的持续时间起,最大减速度建立,由该最大减速度又可以推断出俯仰角。
同样可以间接地测量俯仰角,其方式是,在传感器中求取对象位置的变化并且将其与所求取的对象间距进行比较。
当对象接近第一传感器106的检测区域时,已经可以进行切换,因为可以从一定的俯仰运动出发。
当车辆100例如由于通过驾驶员或紧急制动辅助系统发起的强烈制动而强烈俯仰时,重要相关的对象118可能由于俯仰运动而不再位于雷达传感器检测区域110中。
因此,不再能够在使用雷达传感器106的情况下更新行驶方向上的对于ISS功能重要相关的参量,例如距离、相对速度、到碰撞的时间(Time To Impact)或所估计的碰撞时刻。在仅仅使用雷达传感器的情况下不再能够测量和考虑重要相关的参量的变化。
在安全系统功能的设计中可以考虑这一点。例如可以在碰撞识别中将可能的碰撞窗口选择得较大。
因此,在在此提出的方案中,根据车辆100的俯仰角130,从具有较小的垂直开口110的传感器106到具有较大的垂直开口112的传感器108地匹配传感器数据114的应用。
换言之,当俯仰角130大时,使用摄像机测量数据120用于碰撞预测。
在一个实施例中,雷达传感器106测量对象118的纵向数据116。接下来,车辆100例如由于事故之前的紧急制动而俯仰,由此,对象118从雷达传感器106的检测区域110中消失。因此,由雷达传感器106切换到具有较大的垂直检测区域112的视频传感器108上。为此,由视频传感器108借助雷达传感器106的行驶方向的数据116、尤其位置以及相对速度来初始化对象118。在初始化之后,可以由标度信息122——即由视角的变化与间距116一起——测量实际的相对速度或对象118的大小。通过开始时由雷达传感器106测量对象118而存在了足够的信息,以便也可以由视频传感器108来执行准确的碰撞预测。
通过在此提出的方案,现在在强烈的俯仰运动的情况下,也可以继续跟踪车辆,由此,能够实现约束系统的更准确的以及更有针对性的触发。
在另一实施例中,替代雷达传感器106地,车辆100具有激光雷达传感器106或另外的传感器106,所述另外的传感器在水平线以上具有相对小的垂直检测角110。尤其使用可以沿着行驶轴线或x轴线测量纵向参量116的传感器106。
第二传感器108可以是单摄像机、立体摄像机或另外的摄像机传感器。优选使用测量车辆100前方的角度的传感器108。
可能的是,借助摄像机108使用整个对象118的标度信息——例如车辆背部(Rückfront)或诸如牌照和尾灯的车辆部分——来测量相对运动。
图2根据距离示出摄像机108的视角112的示图。基于几何规律,在摄像机108的图像中,距离远的对象200比近的对象202显得更小。然而,只要对象200、202与摄像机108的绝对距离未知,在没有关于对象200、202的附加信息的情况下,就不能给出关于对象200、202的实际大小的声明。
当距摄像机108近的小的对象202相对于摄像机108实施小的相对运动时,对象202在图像中占据的角度204的变化与当距摄像机108远的大对象200相对于摄像机108实施大的相对运动时一致。
在在此提出的方案中,在使用单摄像机108进行距离确定的情况下的这样的系统性地决定的限制通过在使用来自另外的传感器的距离信息的情况下参考到对象200、202的距离来消除。由此,可以根据在使用通过对象200、202遮盖的水平角204和/或垂直角204的情况下的参考来跟踪对象200、202的位置。
摄像机系统108通常被动地检测环境的成像。摄像机系统108也可以借助主动的光源加强。摄像机系统108可以借助飞行时间技术(Time of Flight)执行深度测量。摄像机系统108例如可以测量决定地良好地测量延展(Ausdehnung),例如通过对像素进行计数。在此,像素位置相应于视角。
距离可以由被动的单摄像机系统108仅仅基于模型地求取,这导致高的不准确性。
摄像机系统108可以通过延展变化或标度因子求取相对运动。然而,以下距离仅仅不准确地被求取:在所述距离处发生间距变化。在近区域中相比远区域中标度变化更大,因此,所述方法特别适合于近的对象202。
在图2中,实际的对象大小和对象距离是未知的,这通过在暗的对象202以及亮的对象200的情况下相同的视角来示出。相对运动可以由大小差异求取,然而并不是绝对的。在单位时间角度变化相同的情况下,相比亮的大的对象200,小的暗的对象202具有更小的相对速度。
车辆越接近,该车辆在图像中变得越大。该信息可以在摄像机图像中作为视角204来检测。与在距离估计中不同的是,对于大小测量,不需要模型假设。
图3示出根据一个实施例的用于监视车辆前方的区域的方法300的流程图。例如可以在如图1中示出的那样的设备上实施方法300。方法300具有分配的步骤302以及跟踪的步骤304。在分配的步骤302中,将由车辆的第一传感器检测的距离信息分配给由车辆的第二传感器在该区域中检测到的对象。在跟踪的步骤304中,当对象基于车辆的俯仰角而离开第一传感器的检测角时,在使用第二传感器的情况下跟踪所述对象的位置。
在一个实施例中,进行对俯仰角的连续监视306。当俯仰角超出阈值时,触发分配302。当俯仰角小于阈值时,在替代的跟踪的步骤308中仅仅在使用第一传感器的情况下跟踪对象。
在监视306之前进行识别的步骤310。识别的步骤310具有两个子步骤310a、310b。在第一子步骤310a中,在第一传感器的第一传感器信号中识别对象。在第二子步骤310b中,在第二传感器的第二传感器信号中识别对象。
换言之,图3示出用于紧急制动辅助系统的流程图。紧急制动辅助系统识别紧急状况并且引入紧急制动,以便避免事故。
通常,传感器——例如雷达传感器测量相对于当事方车辆的间距和相对速度并且因此求取以防事故的最后可能的时刻。
相对速度以及位置在ISS功能中是重要的,因此,所述功能经常借助雷达传感器来实现。
在诸如紧急制动的俯仰过程中,雷达传感器或具有小的垂直开口的传感器可能在近区域内丢失对象。
至今,可以在通过制动产生的强烈俯仰的情况下保留最后的测量值,或者对于一定的时间不允许松开制动器,除非驾驶员过调(übersteuern)油门。
也可以外推出其他车辆的运动。然而,不考虑其他对象在车辆动力学中的变化。
在图3中示出的流程中,首先通过第一传感器和第二传感器进行对象的识别310。随后进行询问306:是否存在紧急制动。如果否,则基于第一传感器进行碰撞预测308。如果是,则借助第一传感器的数据进行第二传感器的数据的初始化302,并且接下来基于第二传感器的融合数据进行碰撞预测304。
在此,第一传感器在水平线以上具有小的垂直张角,第二传感器在水平线以上具有较大的张角。
一开始由两个传感器探测重要相关的对象。有意义的是,在所述时刻时就已经进行传感器数据融合,然而,这不是必然需要的。车辆还处于相对正常的状态中,即没有制动或部分制动,并且车辆至少尚未强烈地俯仰(einnicken),从而对象还可以始终由第一传感器识别。
这些对象还可以被测量一段时间,这通过沙漏示出,以便阐明不需要在相同的计算周期中发生。
在此,也始终测量:车辆在此期间是否强烈俯仰或是否执行了紧急制动。
当没有执行紧急制动时,可以借助第一传感器——例如雷达传感器——符合标准地执行碰撞时刻。
当执行紧急制动时,使用之前由第一传感器测量的数据,以便将第二传感器的数据与由第一传感器测量的数据进行比较或初始化第二传感器的数据。
然后根据第二传感器的经融合的或经优化的数据来执行碰撞预测。
如果一个实施例包括第一特征与第二特征之间的“和/或”关系,则这可以解读如下:所述实施例根据一种实施方式不仅具有第一特征,而且具有第二特征;并且根据另一种实施方式或者仅仅具有第一特征,或者仅仅具有第二特征。
Claims (10)
1.一种用于监视车辆(100)前方的区域(104)的方法(300),其中,所述车辆(100)具有朝所述区域(104)的方向定向的第一传感器(106)以及朝所述区域(104)的方向定向的第二传感器(108),其中,所述第二传感器(108)相比所述第一传感器(106)具有更大的垂直检测角(112),其中,所述方法(300)具有以下步骤:
将由所述第一传感器(106)检测的距离信息(116)分配(302)给由所述第二传感器(108)在所述区域(104)中检测到的对象(118);
当所述对象(118)基于所述车辆(100)的俯仰角(130)而离开所述第一传感器(106)的检测角(110)时,在使用所述第二传感器(108)的情况下跟踪(304)所述对象(118)的位置(128)。
2.根据权利要求1所述的方法(300),其中,当所述俯仰角(130)大于阈值角时,实施所述分配的步骤(302)。
3.根据以上权利要求中任一项所述的方法(300),其中,在所述跟踪的步骤(304)中,在使用通过所述对象(118)遮盖的水平角(204)和/或垂直角(204)的情况下跟踪所述对象(118)。
4.根据以上权利要求中任一项所述的方法(300),其中,在所述跟踪的步骤(304)中,还求取所述对象(118)的位置变化。
5.根据以上权利要求中任一项所述的方法(300),其中,在所述分配的步骤(302)中,还将所述车辆(100)与所述对象(118)之间的由所述第一传感器(106)检测的相对速度分配给所述对象(118)。
6.根据权利要求5所述的方法(300),其中,在所述跟踪的步骤(304)中,跟踪所述相对速度的变化。
7.根据以上权利要求中任一项所述的方法(300),其中,将雷达传感器(106)作为所述第一传感器(106)使用并且将视频传感器(108)作为所述第二传感器(108)使用。
8.一种设备(102),所述设备设置用于实施和/或控制根据以上权利要求中任一项所述的方法(300)。
9.一种计算机程序,所述计算机程序设置用于实施和/或控制根据以上权利要求中任一项所述的方法(300)。
10.一种机器可读的存储介质,在所述存储介质上存储有根据权利要求9所述的计算机程序。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015207375.0 | 2015-04-22 | ||
DE102015207375.0A DE102015207375A1 (de) | 2015-04-22 | 2015-04-22 | Verfahren und Vorrichtung zum Überwachen eines Bereichs vor einem Fahrzeug |
PCT/EP2016/054366 WO2016169685A1 (de) | 2015-04-22 | 2016-03-02 | Verfahren und vorrichtung zum überwachen eines bereichs vor einem fahrzeug |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107533133A true CN107533133A (zh) | 2018-01-02 |
CN107533133B CN107533133B (zh) | 2021-09-07 |
Family
ID=55446811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680022668.3A Active CN107533133B (zh) | 2015-04-22 | 2016-03-02 | 用于监视车辆前方的区域的方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10717436B2 (zh) |
CN (1) | CN107533133B (zh) |
DE (1) | DE102015207375A1 (zh) |
WO (1) | WO2016169685A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108184096A (zh) * | 2018-01-08 | 2018-06-19 | 北京艾恩斯网络科技有限公司 | 一种机场跑滑区全景监控装置、系统及方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10852418B2 (en) * | 2016-08-24 | 2020-12-01 | Magna Electronics Inc. | Vehicle sensor with integrated radar and image sensors |
CN109849902A (zh) * | 2017-11-30 | 2019-06-07 | 博世汽车部件(苏州)有限公司 | 用于防止车辆相撞的方法和装置 |
JP6976414B2 (ja) * | 2018-03-14 | 2021-12-08 | 本田技研工業株式会社 | 鞍乗り型車両の情報報知装置、鞍乗り型車両、および情報報知方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6337654B1 (en) * | 1999-11-05 | 2002-01-08 | Lockheed Martin Corporation | A-scan ISAR classification system and method therefor |
JP2006048435A (ja) * | 2004-08-05 | 2006-02-16 | Nissan Motor Co Ltd | 車両用画像処理装置 |
US7337650B1 (en) * | 2004-11-09 | 2008-03-04 | Medius Inc. | System and method for aligning sensors on a vehicle |
CN101330595A (zh) * | 2007-06-21 | 2008-12-24 | 上海冠林银保科技有限公司 | 超远程雷达与视频联动控制系统 |
CN101837782A (zh) * | 2009-01-26 | 2010-09-22 | 通用汽车环球科技运作公司 | 用于碰撞预备系统的多目标融合模块 |
CN102150062A (zh) * | 2008-06-27 | 2011-08-10 | 丰田自动车株式会社 | 物体检测装置 |
CN102609953A (zh) * | 2010-12-02 | 2012-07-25 | 通用汽车环球科技运作有限责任公司 | 摄影机和距离传感器数据的多物体外观增强融合 |
CN103764445A (zh) * | 2011-08-23 | 2014-04-30 | 罗伯特·博世有限公司 | 用于调节车辆的前大灯的照明距离的方法、控制设备和计算机程序产品 |
CN104021676A (zh) * | 2014-06-25 | 2014-09-03 | 上海交通大学 | 基于车辆动态视频特征的车辆定位及车速测量方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7460951B2 (en) * | 2005-09-26 | 2008-12-02 | Gm Global Technology Operations, Inc. | System and method of target tracking using sensor fusion |
AU2010200875A1 (en) * | 2010-03-09 | 2011-09-22 | The University Of Sydney | Sensor data processing |
JP5910046B2 (ja) * | 2011-12-05 | 2016-04-27 | トヨタ自動車株式会社 | 障害物検出装置 |
-
2015
- 2015-04-22 DE DE102015207375.0A patent/DE102015207375A1/de active Pending
-
2016
- 2016-03-02 WO PCT/EP2016/054366 patent/WO2016169685A1/de active Application Filing
- 2016-03-02 CN CN201680022668.3A patent/CN107533133B/zh active Active
- 2016-03-02 US US15/567,275 patent/US10717436B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6337654B1 (en) * | 1999-11-05 | 2002-01-08 | Lockheed Martin Corporation | A-scan ISAR classification system and method therefor |
JP2006048435A (ja) * | 2004-08-05 | 2006-02-16 | Nissan Motor Co Ltd | 車両用画像処理装置 |
US7337650B1 (en) * | 2004-11-09 | 2008-03-04 | Medius Inc. | System and method for aligning sensors on a vehicle |
CN101330595A (zh) * | 2007-06-21 | 2008-12-24 | 上海冠林银保科技有限公司 | 超远程雷达与视频联动控制系统 |
CN102150062A (zh) * | 2008-06-27 | 2011-08-10 | 丰田自动车株式会社 | 物体检测装置 |
CN101837782A (zh) * | 2009-01-26 | 2010-09-22 | 通用汽车环球科技运作公司 | 用于碰撞预备系统的多目标融合模块 |
CN102609953A (zh) * | 2010-12-02 | 2012-07-25 | 通用汽车环球科技运作有限责任公司 | 摄影机和距离传感器数据的多物体外观增强融合 |
CN103764445A (zh) * | 2011-08-23 | 2014-04-30 | 罗伯特·博世有限公司 | 用于调节车辆的前大灯的照明距离的方法、控制设备和计算机程序产品 |
CN104021676A (zh) * | 2014-06-25 | 2014-09-03 | 上海交通大学 | 基于车辆动态视频特征的车辆定位及车速测量方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108184096A (zh) * | 2018-01-08 | 2018-06-19 | 北京艾恩斯网络科技有限公司 | 一种机场跑滑区全景监控装置、系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
US10717436B2 (en) | 2020-07-21 |
CN107533133B (zh) | 2021-09-07 |
US20180105169A1 (en) | 2018-04-19 |
DE102015207375A1 (de) | 2016-10-27 |
WO2016169685A1 (de) | 2016-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106030336B (zh) | 车辆周围状况识别设备和车辆控制设备 | |
CN104960509B (zh) | 用于基于碰撞置信度最小化自动制动侵扰的方法 | |
CN106240565B (zh) | 碰撞减轻和躲避 | |
CN105922990B (zh) | 一种基于云端机器学习的车辆环境感知和控制方法 | |
US8798885B2 (en) | Collision reducing device | |
CN108473104B (zh) | 用于修正车辆的至少一个碰撞参数的方法和相应的集成安全系统 | |
CN104276121B (zh) | 控制车辆安全参数的系统、车辆和控制安全参数的方法 | |
US7480570B2 (en) | Feature target selection for countermeasure performance within a vehicle | |
CN106233159B (zh) | 使用位置数据的误警告减少 | |
US10866589B2 (en) | Method for providing an information item regarding a pedestrian in an environment of a vehicle and method for controlling a vehicle | |
US20210223391A1 (en) | Vehicle Driver Behavior Data Collection and Reporting | |
WO2016017822A1 (ja) | 衝突予想時間算出装置および衝突予想時間算出方法 | |
KR20170079096A (ko) | 지능형 차량용 블랙박스 | |
US7636625B2 (en) | Device for classifying at least one object with the aid of an environmental sensor system | |
CN107533133A (zh) | 用于监视车辆前方的区域的方法和设备 | |
CN105480225B (zh) | 车辆碰撞后前向运动的减缓 | |
CN110799383B (zh) | 一种后部防撞安全系统 | |
CN108437923B (zh) | 一种行人保护系统及方法 | |
CN108283019A (zh) | 车辆的碰撞时间的改进型计算 | |
CN103287375A (zh) | 用于对前视传感装置进行真实性检查的方法和装置 | |
CN107499272B (zh) | 用于控制车辆的人员保护装置的方法和控制器 | |
DE102016210470B4 (de) | Vorrichtung und Verfahren zur Warnung eines Fahrers eines Fahrzeugs | |
CN107458337A (zh) | 机动车保护装置的控制 | |
TWI541151B (zh) | 車輛碰撞偵測系統與方法 | |
US11661055B2 (en) | Close-in collision detection combining high sample rate near-field sensors with advanced real-time parallel processing to accurately determine imminent threats and likelihood of a collision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |