CN108369746A - 用于多相机交通工具系统的动态图像融合 - Google Patents
用于多相机交通工具系统的动态图像融合 Download PDFInfo
- Publication number
- CN108369746A CN108369746A CN201680074727.1A CN201680074727A CN108369746A CN 108369746 A CN108369746 A CN 108369746A CN 201680074727 A CN201680074727 A CN 201680074727A CN 108369746 A CN108369746 A CN 108369746A
- Authority
- CN
- China
- Prior art keywords
- image
- video
- camera
- video camera
- electronic processors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title description 8
- 238000004891 communication Methods 0.000 title description 4
- 239000002131 composite material Substances 0.000 claims abstract description 54
- 238000000034 method Methods 0.000 claims abstract description 31
- 239000013589 supplement Substances 0.000 claims abstract description 10
- 230000000007 visual effect Effects 0.000 claims description 35
- 230000001502 supplementing effect Effects 0.000 claims 2
- 239000011800 void material Substances 0.000 claims 1
- 230000002708 enhancing effect Effects 0.000 description 18
- 238000001514 detection method Methods 0.000 description 5
- 238000007500 overflow downdraw method Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- NBIIXXVUZAFLBC-UHFFFAOYSA-N Phosphoric acid Chemical compound OP(O)(O)=O NBIIXXVUZAFLBC-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000011469 building brick Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/303—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
一种用于生成用于在交通工具中显示的组合视频的方法和系统。从被配置成安置在交通工具上的多个摄像机生成多个视频流。通过电子处理器来变换视频流以创建虚拟相机视点。组合经变换的视频流来生成组合视频,所述组合视频包括从摄像机中的第一摄像机生成的第一图像的一部分。电子处理器检测在交通工具外部的物体并且确定物体是否至少部分地遮掩第一图像的该部分。当该物体至少部分地遮掩第一图像的该部分时,电子处理器利用由摄像机中的第二摄像机生成的第二图像的一部分来补充第一图像的该部分。
Description
相关申请
本申请要求2015年12月21日提交的美国临时申请号62/270445的优先权,所述美国临时申请的全部内容被通过引用结合于本文中。
背景技术
传统上,交通工具成像系统包括安置在交通工具的外部上的一个或多个摄像机。摄像机针对物体和危险而监视交通工具周围的区域。一些交通工具成像系统在仪表板上或仪表板附近提供显示器以用于供驾驶员观看。因此,增强了驾驶员对交通工具周围的区域的感知。在一些构造中,交通工具成像系统可以将多个相机视频流组合成组合视频以用于由驾驶员观看。所述多个相机视频流由视频处理装备处理,用来提供包括广角视图、自顶向下视图等等的多个不同的视图。
在图1中图解说明的一个已知系统中,来自在交通工具100的不同侧上隔开的四个广角(例如,全向)相机的相机馈送(feed)被组合成提供交通工具100的虚拟自顶向下视图的组合视频。在这样的系统中,自顶向下视频显示如图1中图解说明的交通工具100和周围的物体。然而,因为从多个全向相机生成虚拟自顶向下视图,所以组合视频包含失真的物体105,所述物体105具有拉伸的尺寸、裁切不正的边缘、扁平的表面等等。另外,由于阻挡摄像机130的视野125的阻挡物体120,自顶向下视频中的盲点115可能出现。
发明内容
实施例提供增强向交通工具的驾驶员显示的图像以得到改进视图的清晰度和视野的系统和方法。所述系统和方法增强失真的物体以提供交通工具和周围区域的改进视图。所述系统和方法还动态地融合多个视频流来减少由图像中的物体引起的盲点。
一个实施例提供一种生成用于在交通工具中显示的组合视频的方法。该方法包括从被配置成安置在交通工具上的多个摄像机生成多个视频流。通过电子处理器来变换所述多个视频流中的一个或多个视频流,从而创建虚拟相机视点。组合所述多个经变换的视频流来生成组合视频,所述组合视频包括从所述多个摄像机中的第一摄像机生成的第一图像的一部分。电子处理器检测在交通工具外部的物体并且确定物体是否至少部分地遮掩第一图像的该部分。当物体至少部分地遮掩第一图像的该部分时,电子处理器利用由所述多个摄像机中的第二摄像机生成的第二图像的一部分来补充第一图像的该部分。
另一实施例提供一种用于生成要在交通工具中显示的组合视频的系统。该系统包括多个摄像机,所述多个摄像机生成多个视频流并且被配置成安置在交通工具上。该系统还包括显示器和通信地耦合到所述多个摄像机和显示器的电子处理器。电子处理器被配置成变换所述多个视频流来创建虚拟相机视点。电子处理器组合所述多个经变换的视频流,用来生成组合视频,所述组合视频包括从所述多个摄像机中的第一摄像机生成的第一图像的一部分。电子处理器检测在交通工具外部的物体并且确定物体是否至少部分地遮掩第一图像的该部分。当物体至少部分地遮掩第一图像的该部分时,电子处理器利用由所述多个摄像机中的第二摄像机生成的第二图像的一部分来补充第一图像的该部分。
通过考虑详细的描述和随附各图,本发明的其它方面将变得显而易见。
附图说明
图1是如在交通工具显示器上显示的交通工具和周围区域的自顶向下透视图。
图2是根据一个实施例的装备有动态图像融合和增强系统的交通工具的框图。
图3是依照一个实施例的图2的交通工具的电子控制单元和关联连接的框图。
图4是利用图2的动态图像融合和增强系统来增强视频的方法的流程图。
图5是利用图2的动态图像融合和增强系统来动态地融合视频的方法的流程图。
图6A和6B是在利用图2的动态图像融合和增强系统来增强视频之后如在交通工具显示器上显示的交通工具和周围区域的自顶向下透视图。
具体实施方式
在详细地解释本发明的任何实施例之前,要理解:本发明在其应用方面不限于在以下描述中阐述或在以下各图中图解说明的构造的细节和组件的布置。本发明容许其它实施例并且能够以各种方式来实践或能够以各种方式来执行。
多个基于硬件和软件的设备以及多个不同结构组件可以用来实现本发明的实施例。另外,实施例可以包括硬件、软件和电子组件或模块,其出于讨论的目的可以被图解说明和描述成好像单独地在硬件中实现了大多数组件。然而,基于阅读该详细描述,本领域普通技术人员将认识到:在至少一个实施例中,可以在可由一个或多个处理器执行的(例如,存储在非暂时性计算机可读介质上的)软件中实现本发明的各方面。相应地,应当注意:多个基于硬件和软件的设备以及多个不同结构组件可以用来实现各种实施例。例如,说明书中描述的“控制单元”和“控制器”可以包括一个或多个电子处理器、包括非暂时性计算机可读介质的一个或多个存储器模块、一个或多个输入/输出接口以及使组件连接的各种连接(例如,系统总线)。
图2图解说明了根据一个实施例的装备有动态图像融合和增强系统205的交通工具200。交通工具200包括(例如,附连到驾驶员侧镜子或位于驾驶员侧镜子附近的)驾驶员侧相机210、(例如,附连到乘客侧镜子或位于乘客侧镜子附近的)乘客侧相机215、前视相机220和后视相机225。交通工具200还包括电子控制单元(ECU)230和交通工具显示器240。动态图像融合和增强系统205的组件中的每个组件都可以通信地耦合。例如,电子控制单元230经由有线或无线连接而耦合到交通工具显示器240、驾驶员侧相机210、乘客侧相机215、前视相机220和后视相机225。
图3中图解说明了动态图像融合和增强系统205的示例配置。在该示例中,电子控制单元230包括多个电气和电子组件,它们向在电子控制单元230内的组件和模块提供电力、操作控制和保护。除了别的之外,电子控制单元230还包括电子处理器305(诸如可编程电子微处理器、微控制器或类似设备)、存储器310(例如,非暂时性机器可读存储器)、视频输入接口315和视频输出接口325。电子处理器305通信地耦合到存储器310并且执行能够被存储在存储器310上的指令。电子处理器305被配置成从存储器310检索并且执行除了别的之外与在本文中描述的过程和方法相关的指令。在其它实施例中,电子控制单元230包括附加的、更少的或不同的组件。例如,可以在每个都被配置成执行特定功能或子功能的若干独立的电子控制单元中实现电子控制单元230。另外,电子控制单元230可以包含输入和处理视频数据(例如,视频流)并且执行相关过程的子模块。例如,位于电子控制单元230内或通信地耦合到电子控制单元230的视频分析模块可以输入一个或多个视频流、检测图像中的物体和特征、跟踪图像内的物体和特征、对图像中的物体和特征进行分类,并且将从这些过程输出的数据发送到交通工具200的其它电子控制单元或模块。
如所图解说明的那样,驾驶员侧相机210、乘客侧相机215、前视相机220和后视相机225共同地被图解说明和描述为摄像机320。摄像机320通信地耦合到视频输入接口315。视频输入接口315从摄像机320接收多个视频流并且处理所述多个视频流。与电子处理器305和存储器310协同地,视频输入接口315变换所述多个视频流并且将它们组合成组合视频。结合电子处理器305和存储器310,视频输出接口325生成组合视频并且将所述组合视频发送到交通工具显示器240以用于由驾驶员查看。例如,交通工具显示器240可以被安置在仪表板上、安置在中央控制台上或安置在对于驾驶员可见的其它位置。交通工具显示器240可包括各种类型的显示器,所述各种类型的显示器包括液晶显示器(LCD)、发光二极管(LED)、触摸屏等等。
电子控制单元230、视频输入接口315、视频输出接口325和交通工具显示器240可以通过直接的有线或无线连接而通信地链接。在其它实施例中,这些组件可以通过交通工具通信总线115和通信模块来通信地链接。
在一些实施例中,摄像机320中的每个摄像机都具有近似180度的视野。在一些实施例中,这些摄像机320的组合提供交通工具200周围达到360度的视野。摄像机320可以是具有广角视野的全向相机(例如,鱼眼镜头相机)。电子处理器305组合所述多个视频流中的每个视频流,使得所述多个视频流中的每个视频流的边缘例如在其中来自视频流的图像被缝合在一起的过程中重叠。以这种方式,所述多个视频流中的每个视频流的图像的边缘都与来自邻近相机的图像的边缘重叠。一旦电子处理器305接收所述多个视频流,电子处理器305就变换所述多个视频流中的一个或多个视频流来创建虚拟相机视点。该变换可包括在缝合来自摄像机22的图像之前或之后将来自所述多个视频流中的每个视频流的图像变换成直线(rectilinear)图像。例如,电子处理器305可从上面并且向下看交通工具100的视角利用直线图像来创建组合视频。
例如,驾驶员侧相机210可具有与后视相机225的视野重叠的视野。在重叠区中,或者驾驶员侧相机210或者后视相机225可以供应重叠区的视频输出的一部分。例如,在重叠区中,物体可以由前视相机220和乘客侧相机215二者可见。在一个特定示例中,如果与乘客侧相机215相比,从前视相机220来看,物体成更小的角度,则电子处理器305指定前视相机220为提供组合视频的包含该物体的部分。然而,如下面所描述的那样,电子处理器305利用来自在该示例中乘客侧相机215的图像的一部分来补充组合视频,从而生成在所检测到的物体后面的被阻挡区。
一般地,全向相机提供在图像的中心具有较高分辨率和较少失真并且在图像的边缘具有较低分辨率和较高失真的视频流。因此,电子处理器305至少部分地基于物体在所述多个视频流内的位置而生成组合视频。例如,摄像机320中的每个摄像机都提供交通工具200周围的区域的各部分的图像。通过将这些部分组合,电子处理器305形成组合视频。当组合所述多个视频流时,电子处理器305可以对齐视频流、调整视角、修剪图像并且定向视频流来将组合视频显示为连续且整合的自顶向下视野。
然而,在一些实例中,交通工具200周围的区域的各部分的图像以及交通工具200周围的物体可能在组合视频的该部分中失真或被遮掩。在一个示例中,当在组合视频中生成物体时,该物体可能由于主相机的广角视图而失真。在这种情况下,电子处理器305增强组合视频,从而基于所检测到的物体使交通工具200周围的区域的各部分清楚,如下面详细地描述的那样。在另一示例中,当物体位于交通工具200附近时,该物体可能阻挡主摄像机的主视野在该物体的对侧上的区。在这种情况下,电子处理器305将视野的被阻挡部分与来自这些摄像机320中的另一摄像机的视频流动态地融合,如下面也更详细地描述的那样。以这种方式,给主视野补充来自次级相机的次级视野。在一些实施例中,电子处理器305通过将来自次级相机的图像叠加在来自主摄像机的图像上来补充组合视频。例如,电子处理器305可以用来自最佳地匹配虚拟相机视点的次级摄像机的表示所检测到的物体周围的区域处的像素来替换在来自主摄像机的视频流中的表示所检测到的物体的像素。在一些实施例中,如果没有动态地融合图像,则单独地通过主摄像机来提供图像的具有重叠区的部分。
图4图解说明了根据一个实施例的增强方法400。在增强方法400中,所述多个摄像机320生成所述多个视频流并且将所述多个视频流发送到电子处理器305(框405)。电子处理器305在所述多个视频流中的至少一个视频流中检测在交通工具外部的物体(框410)。在一些实施例中,电子处理器305确定所述多个视频流中的哪个视频流包括所检测到的物体并且可以基于单个视频流或基于多个视频流来分析该物体。另外,电子处理器305可以在所述多个视频流中检测多个物体,并且可以独立地而且同时地处理每个物体。
在一些实施例中,一旦物体被检测到,电子处理器305就从多个源获得限定物体的特征和参数。例如,来自所述多个视频流的图像数据可以用来生成物体的特征,而交通工具200上的其它传感器可以帮助限定所检测到的物体的参数,诸如大小、尺寸、位置、颜色、形状、纹理等等。其它传感器可以包括雷达传感器、超声传感器、光检测和测距传感器(LIDAR)等等。电子处理器305基于所述多个视频流中的至少一个视频流并且在一些实施例中基于所检测到的物体的特征、参数或基于二者来使用预定类别对所检测到的物体进行分类(框415)。在一些实施例中,电子处理器305确定所检测到的物体在图像中是否失真,而且电子处理器305只在所检测到的物体失真时才增强视频流。
对所检测到的物体进行分类可以包括将所述至少一个视频流中检测到的物体与物体在存储器310中的预定图像的数据库进行比较,以及确定预定图像的数据库是否具有匹配所检测到的物体的图像(框420)。例如,在一些实施例中,电子处理器305可以通过所检测到的物体的参数与查找表中的多个已知物体的比较而对物体进行分类或细化物体的类别。以这种方式,电子处理器305在所检测到的物体匹配所述多个已知物体中的一个物体时选择所述多个已知物体中的那个物体来与所检测到的物体相关联。这可以包括将所检测到的物体的参数与限定已知物体的参数的范围进行比较。当物体匹配数据库中的图像(框425)时,电子处理器305确定该物体经受基于类别的增强。当物体不匹配数据库中的图像并且因此不经受增强(框425)时,该物体被显示在交通工具显示器240上的组合视频内而未被增强。相反地,当该物体经受增强时,电子处理器305利用来自数据库的图像来增强组合视频(框430)。然后,电子处理器305将组合视频发送到交通工具显示器240以用于查看(框435)。
一旦所检测到的物体被归类为经受增强,电子处理器305就生成匹配图像。匹配图像可以基于在视频流内的所检测到的物体的特征。在一些实施例中,电子处理器305利用预定图像的数据库来确定所检测到的物体的最佳匹配。例如,当所检测到的物体被归类为交通工具时,电子处理器305搜索包括交通工具的图像的图像的数据库,并且基于从视频流获得的特征找到匹配图像(例如,最佳匹配)。在一些实施例中,电子处理器305也基于从视频流获得的特征和从其它交通工具传感器获得的参数来搜索图像的数据库。一旦找到匹配图像,电子处理器305就基于所检测到的物体的特征和/或参数来调整匹配图像。例如,电子处理器305可以基于所检测到的物体的大小、尺寸、颜色等等来调整匹配图像。电子处理器305接着将匹配图像叠加在所检测到的物体之上,并且因此在组合视频中形成增强的物体。照此,匹配图像覆盖所检测到的物体并且有效地利用组合视频中的匹配图像来替换所检测到的图像。接着,电子处理器305将具有增强的物体的组合视频发送到交通工具显示器240。
图5图解说明了根据一个实施例的动态融合方法500。在动态融合方法500中,从所述多个摄像机22生成所述多个视频流(框505)。电子处理器305变换所述多个视频流中的一个或多个视频流来创建虚拟相机视点(框510)。电子处理器305组合所述多个视频流来生成组合视频,所述组合视频包括从所述多个摄像机22中的第一摄像机生成的第一图像的一部分(框515)。电子处理器305在所述多个视频流中的至少一个视频流中检测在交通工具200外部的物体(框520)。在一些情况下,所检测到的物体可以由多个相机可见。在这些情况下,电子处理器305可以确定所述多个视频流中的哪个视频流具有所检测到的物体的主视野。特别地,主视野描述了与其它相机相比具有所检测到的物体的更好视图(例如,具有更小查看角的视图、更接近的视图、更高分辨率的视图、更低失真的视图等等)的相机的视野。类似地,次级视野描述了具有所检测到的物体的没那么好的视野(例如,较长的视图、具有较大查看角的视图、较低分辨率的视图、较高失真的视图等等)的相机的视野。因此,具有该区的主视野的特定相机通常比具有次级视野的相机生成更好质量的图像。然而,该区中的一些可能在主相机的主视野中不可见。
在动态融合方法500中,电子处理器305确定物体是否至少部分地遮掩第一图像的部分(框525)。在一些实施例中,确定物体是否部分地遮掩第一图像的部分包括确定所检测到的物体阻挡主视野的区。电子处理器305也可以确定次级视野是否捕获主视野的被阻挡区。当次级视野捕捉主视野的被阻挡区时,电子处理器305确定组合视频应当动态地融合。当物体至少部分地遮掩第一图像的部分(框525)时,电子处理器305利用由所述多个摄像机22中的第二摄像机生成的第二图像的一部分(例如,次级摄像机的次级视野)来补充(例如,来自主视野的)第一图像的该部分(框535)。特别地,电子处理器305可以通过将被阻挡区的次级视野叠加到被阻挡区的主视野上而将被阻挡区的主视野与被阻挡区的次级视野融合,从而生成组合视频。当次级视野没有达到被阻挡区时,电子处理器305不能动态地融合图像。在任一情况下,在下一步骤中,电子处理器305都将组合视频发送到交通工具显示器240(框540)。
图6A和6B图解说明了在执行图4和5的方法之后在交通工具显示器240上显示的组合视频的示例。特别地,图6A图解说明了交通工具200的如下虚拟自顶向下视图,所述虚拟自顶向下视图包括由电子处理器305生成的增强的物体。图6B图解说明了交通工具200的如下虚拟自顶向下视图,所述虚拟自顶向下视图包括由电子处理器305动态地融合的图像。如上面所描述的那样,该虚拟自顶向下视图基于来自摄像机22的视频流和发生在电子处理器305内的视频处理而形成。
在图6A的图解说明的示例中,电子处理器305检测物体605(例如,邻近交通工具)和多个物体610(例如,马路牙子)。物体605由驾驶员侧相机210检测到,所述驾驶员侧相机210也提供主视野。物体605也可以由前视相机220和后视相机225检测到,所述前视相机220和后视相机225提供物体605的次级视野。根据图4的方法,电子处理器305检测物体605,将物体605归类为交通工具,确定物体605在第一预定类别之内,并且基于物体605来增强组合视频。在这种情况下,电子处理器305将物体605与特定交通工具的自顶向下图像匹配,所述特定交通工具在一些实施例中包括特定品牌和型号的交通工具。电子处理器305也可以基于主视野或基于从交通工具200中的其它传感器收集的参数来确定交通工具的颜色。接着,电子处理器305将具有合适的颜色的特定交通工具的图像叠加到物体605上并且在交通工具显示器240上显示组合视频。
类似地,电子处理器305至少利用前视相机220来检测物体610,将物体610归类为马路牙子,确定能够基于类别而增强的物体610(即,在数据库中存在匹配图像),并且基于物体610来增强组合视频。在这种情况下,电子处理器305可以确定物体610的特征和参数,诸如高度、长度、厚度等等,以便对物体610进行分类。电子处理器305也可以利用基于来自前视相机220和来自其它传感器的视频流的图像来增强组合视频。例如,电子处理器305可以调整在数据库内的马路牙子的图像,来对应于特征和参数并且接着将所调整的图像叠加到组合视频中的物体610上。
图6B图解说明了在执行动态融合方法500之后的组合视频的示例。组合视频包括阻挡后视相机225的视野的一部分(即,被阻挡区640)的物体630(例如,灯杆)。视野的被阻挡区640由驾驶员侧相机210可见。根据动态融合方法500,将如在驾驶员侧相机210的视频流中捕获的被阻挡区640融合到来自后视相机225的视频流中。如上面所讨论的那样,将来自次级相机的视频流的该部分叠加到来自主相机的包含被阻挡区的视频流的该部分上。在该示例中,将来自后视相机225的视频流的被阻挡区640与来自驾驶员侧相机210的视频流的该部分叠加。一旦该部分被叠加,电子处理器305就将具有可见的被阻挡区640的组合视频发送到交通工具显示器240。因此,被阻挡区640在交通工具显示器240中可见。
因此,除了别的之外,实施例还提供了用于增强和动态地融合来自安置在交通工具上的一个或多个摄像机的一个或多个视频流从而生成用于交通工具显示器的组合视频的系统和方法。以下权利要求书中阐述了本发明的各种特征和优点。
Claims (20)
1.一种生成用于在交通工具中显示的组合视频的方法,所述方法包括:
从被配置成安置在所述交通工具上的多个摄像机生成多个视频流;
变换所述多个视频流中的一个或多个视频流来创建虚拟相机视点;
组合所述多个经变换的视频流来生成组合视频,所述组合视频包括从所述多个摄像机中的第一摄像机生成的第一图像的一部分;
利用电子处理器检测所述交通工具外部的物体;
确定所述物体是否至少部分地遮掩所述第一图像的所述部分;以及
在所述物体至少部分地遮掩所述第一图像的所述部分时,利用由所述多个摄像机中的第二摄像机生成的第二图像的一部分来补充所述第一图像的所述部分。
2.根据权利要求1所述的方法,其中从所述多个摄像机生成所述多个视频流包括利用所述多个摄像机生成多个广角图像。
3.根据权利要求2所述的方法,其中变换所述多个视频流中的所述一个或多个视频流包括将所述多个广角图像变换成多个直线图像。
4.根据权利要求1所述的方法,其中组合所述多个经变换的视频流来生成所述组合视频包括将所述多个经变换的视频流缝合在一起以使得从所述虚拟相机视点形成组合图像。
5.根据权利要求1所述的方法,所述方法进一步包括:确定所述物体是否至少部分地遮掩所述多个摄像机中的第一摄像机的第一视野的被阻挡区。
6.根据权利要求5所述的方法,所述方法进一步包括:确定所述多个摄像机中的第二摄像机是否具有如下第二视野,所述第二视野覆盖所述多个摄像机中的第一摄像机的第一视野的被阻挡区的至少部分。
7.根据权利要求6所述的方法,其中利用所述第二图像的所述部分来补充所述第一图像的所述部分发生在所述第二视野覆盖所述多个摄像机中的第一摄像机的第一视野的被阻挡区的所述至少部分时。
8.根据权利要求7所述的方法,其中利用所述第二图像的所述部分来补充所述第一图像的所述部分包括将所述第二图像的所述部分叠加到所述组合视频内的所述第一图像的所述部分上。
9.根据权利要求1所述的方法,所述方法进一步包括:
利用所述电子处理器对所检测到的物体进行分类;
基于经分类的、所检测到的物体从图像的数据库生成图像;
将所述图像叠加在所述组合视频中的所检测到的物体上。
10.根据权利要求9所述的方法,所述方法进一步包括:
从至少一个传感器接收所检测到的物体的参数;以及
在将所述图像叠加在所述组合视频中的所检测到的物体上之前基于所述参数来调整所述图像。
11.一种用于生成要在交通工具中显示的组合视频的系统,所述系统包括:
多个摄像机,所述多个摄像机生成多个视频流,所述多个摄像机被配置成安置在所述交通工具上;
显示器;以及
电子处理器,所述电子处理器通信地耦合到所述多个摄像机和所述显示器,所述电子处理器被配置成
变换所述多个视频流来创建虚拟相机视点;
组合所述多个经变换的视频流来生成组合视频,所述组合视频包括从所述多个摄像机中的第一摄像机生成的第一图像的一部分;
利用电子处理器来检测所述交通工具外部的物体;
确定所述物体是否至少部分地遮掩所述第一图像的所述部分;以及
在所述物体至少部分地遮掩所述第一图像的所述部分时,利用由所述多个摄像机中的第二摄像机生成的第二图像的一部分来补充所述第一图像的所述部分。
12.根据权利要求11所述的系统,其中所述多个摄像机是广角相机。
13.根据权利要求11所述的系统,其中所述电子处理器被配置成:通过将多个广角图像变换成多个直线图像并且将所述多个经变换的视频流缝合在一起来变换所述多个视频流,从而创建所述虚拟相机视点,以使得从所述虚拟相机视点形成组合图像。
14.根据权利要求11所述的系统,其中所述电子处理器进一步被配置成确定所述物体是否至少部分地遮掩所述多个摄像机中的第一摄像机的第一视野的被阻挡区。
15.根据权利要求14所述的系统,其中所述电子处理器进一步被配置成确定所述多个摄像机中的第二摄像机是否具有如下第二视野,所述第二视野覆盖所述多个摄像机中的第一摄像机的第一视野的被阻挡区的至少部分。
16.根据权利要求15所述的系统,其中所述电子处理器被配置成在所述第二视野覆盖所述多个摄像机中的第一摄像机的第一视野的被阻挡区的所述至少部分时利用所述第二图像的所述部分来补充所述第一图像的所述部分。
17.根据权利要求16所述的系统,其中所述电子处理器被配置成通过将所述第二图像的所述部分叠加到所述组合视频内的所述第一图像的所述部分上而利用所述第二图像的所述部分来补充所述第一图像的所述部分。
18.根据权利要求11所述的系统,其中所述电子处理器进一步被配置成:
对所检测到的物体进行分类;
基于经分类的、所检测到的物体从图像的数据库生成图像;以及
将所述图像叠加在所述组合视频中的所检测到的物体上。
19.根据权利要求18所述的系统,其中所述电子处理器进一步被配置成
从至少一个传感器接收所检测到的物体的参数;以及
在将所述图像叠加在所述组合视频中的所检测到的物体上之前基于所述参数来调整所述图像。
20.根据权利要求18所述的系统,其中所述电子处理器被配置成:通过用来自与所述虚拟相机视点最佳地匹配的视点的所检测到的物体的模型替换表示所检测到的物体的像素,将所述图像叠加在所述组合视频中的所检测到的物体上。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562270445P | 2015-12-21 | 2015-12-21 | |
US62/270445 | 2015-12-21 | ||
PCT/EP2016/074401 WO2017108221A1 (en) | 2015-12-21 | 2016-10-12 | Dynamic image blending for multiple-camera vehicle systems |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108369746A true CN108369746A (zh) | 2018-08-03 |
Family
ID=57184412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680074727.1A Pending CN108369746A (zh) | 2015-12-21 | 2016-10-12 | 用于多相机交通工具系统的动态图像融合 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11184531B2 (zh) |
EP (1) | EP3394833B1 (zh) |
KR (1) | KR20180084952A (zh) |
CN (1) | CN108369746A (zh) |
WO (1) | WO2017108221A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111757050A (zh) * | 2019-03-29 | 2020-10-09 | B/E航空公司 | 用于向交通工具乘客提供姿态参考的设备和方法 |
CN111746796A (zh) * | 2019-03-29 | 2020-10-09 | B/E航空公司 | 提供用于交通工具乘客的姿态参考的装置和方法 |
CN112585958A (zh) * | 2018-08-31 | 2021-03-30 | 大众汽车股份公司 | 用于产生车辆的以图像信息来纹理化的周围环境地图的方法和装置以及包括这种装置的车辆 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016224905A1 (de) * | 2016-12-14 | 2018-06-14 | Conti Temic Microelectronic Gmbh | Vorrichtung und Verfahren zum Fusionieren von Bilddaten von einem Multikamerasystem für ein Kraftfahrzeug |
US10678244B2 (en) | 2017-03-23 | 2020-06-09 | Tesla, Inc. | Data synthesis for autonomous control systems |
JP7121470B2 (ja) * | 2017-05-12 | 2022-08-18 | キヤノン株式会社 | 画像処理システム、制御方法、及び、プログラム |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
AU2018333452B2 (en) * | 2017-09-13 | 2024-06-06 | Robert Bosch Gmbh | User interface for reversing a trailer with automated steering system |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
CA3092565C (en) * | 2018-03-29 | 2021-07-20 | Mitsubishi Electric Corporation | Image processing device, image processing method, and monitoring system |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US11153010B2 (en) * | 2019-07-02 | 2021-10-19 | Waymo Llc | Lidar based communication |
US11076102B2 (en) | 2019-09-24 | 2021-07-27 | Seek Thermal, Inc. | Thermal imaging system with multiple selectable viewing angles and fields of view for vehicle applications |
US11891057B2 (en) | 2019-09-24 | 2024-02-06 | Seek Thermal, Inc. | Thermal imaging system with multiple selectable viewing angles and fields of view for vehicle applications |
US11481884B2 (en) | 2020-06-04 | 2022-10-25 | Nuro, Inc. | Image quality enhancement for autonomous vehicle remote operations |
DE102022204313A1 (de) | 2022-05-02 | 2023-11-02 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs |
US12125225B1 (en) * | 2023-04-04 | 2024-10-22 | GM Global Technology Operations LLC | Monocular camera system performing depth estimation of objects surrounding a vehicle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090110239A1 (en) * | 2007-10-30 | 2009-04-30 | Navteq North America, Llc | System and method for revealing occluded objects in an image dataset |
US20100259372A1 (en) * | 2009-04-14 | 2010-10-14 | Hyundai Motor Japan R&D Center, Inc. | System for displaying views of vehicle and its surroundings |
CN102045546A (zh) * | 2010-12-15 | 2011-05-04 | 广州致远电子有限公司 | 一种全景泊车辅助系统 |
CN102577372A (zh) * | 2009-09-24 | 2012-07-11 | 松下电器产业株式会社 | 驾驶辅助显示装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5670935A (en) | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
US6429789B1 (en) * | 1999-08-09 | 2002-08-06 | Ford Global Technologies, Inc. | Vehicle information acquisition and display assembly |
DE102006052779A1 (de) | 2006-11-09 | 2008-05-15 | Bayerische Motoren Werke Ag | Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs |
CA2684516C (en) * | 2007-04-22 | 2018-02-06 | Ilookabout Inc. | Method of obtaining geographically related images using a vehicle |
US7688229B2 (en) * | 2007-04-30 | 2010-03-30 | Navteq North America, Llc | System and method for stitching of video for routes |
NO327577B1 (no) | 2007-07-31 | 2009-08-24 | Kongsberg Defence & Aerospace | Naerobservasjonssensor med folgestyring og malbestemmelse for vapenstasjon |
JP5132249B2 (ja) | 2007-10-23 | 2013-01-30 | アルパイン株式会社 | 車載用撮像装置 |
IL189251A0 (en) | 2008-02-05 | 2008-11-03 | Ehud Gal | A manned mobile platforms interactive virtual window vision system |
US8160391B1 (en) * | 2008-06-04 | 2012-04-17 | Google Inc. | Panoramic image fill |
JP5439890B2 (ja) | 2009-03-25 | 2014-03-12 | 富士通株式会社 | 画像処理方法、画像処理装置及びプログラム |
TWI408339B (zh) | 2010-03-22 | 2013-09-11 | Inst Information Industry | 即時擴增實境裝置、即時擴增實境方法及其電腦程式產品 |
WO2013086249A2 (en) | 2011-12-09 | 2013-06-13 | Magna Electronics, Inc. | Vehicle vision system with customized display |
US9516277B2 (en) | 2012-05-02 | 2016-12-06 | GM Global Technology Operations LLC | Full speed lane sensing with a surrounding view system |
US8633970B1 (en) | 2012-08-30 | 2014-01-21 | Google Inc. | Augmented reality with earth data |
US9743002B2 (en) * | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
EP2936235B1 (en) | 2012-12-21 | 2021-10-13 | Harman Becker Automotive Systems GmbH | System for a vehicle |
US10179543B2 (en) | 2013-02-27 | 2019-01-15 | Magna Electronics Inc. | Multi-camera dynamic top view vision system |
WO2014148394A1 (ja) * | 2013-03-19 | 2014-09-25 | 株式会社日立国際電気 | 画像表示装置および画像表示方法 |
US9639984B2 (en) | 2013-06-03 | 2017-05-02 | Daqri, Llc | Data manipulation based on real world object manipulation |
US20150042678A1 (en) | 2013-08-09 | 2015-02-12 | Metaio Gmbh | Method for visually augmenting a real object with a computer-generated image |
US9902322B2 (en) * | 2015-10-30 | 2018-02-27 | Bendix Commercial Vehicle Systems Llc | Filling in surround view areas blocked by mirrors or other vehicle parts |
-
2016
- 2016-10-12 CN CN201680074727.1A patent/CN108369746A/zh active Pending
- 2016-10-12 WO PCT/EP2016/074401 patent/WO2017108221A1/en active Application Filing
- 2016-10-12 KR KR1020187017408A patent/KR20180084952A/ko not_active Application Discontinuation
- 2016-10-12 US US16/325,171 patent/US11184531B2/en active Active
- 2016-10-12 EP EP16784815.9A patent/EP3394833B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090110239A1 (en) * | 2007-10-30 | 2009-04-30 | Navteq North America, Llc | System and method for revealing occluded objects in an image dataset |
US20100259372A1 (en) * | 2009-04-14 | 2010-10-14 | Hyundai Motor Japan R&D Center, Inc. | System for displaying views of vehicle and its surroundings |
CN102577372A (zh) * | 2009-09-24 | 2012-07-11 | 松下电器产业株式会社 | 驾驶辅助显示装置 |
CN102045546A (zh) * | 2010-12-15 | 2011-05-04 | 广州致远电子有限公司 | 一种全景泊车辅助系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112585958A (zh) * | 2018-08-31 | 2021-03-30 | 大众汽车股份公司 | 用于产生车辆的以图像信息来纹理化的周围环境地图的方法和装置以及包括这种装置的车辆 |
CN111757050A (zh) * | 2019-03-29 | 2020-10-09 | B/E航空公司 | 用于向交通工具乘客提供姿态参考的设备和方法 |
CN111746796A (zh) * | 2019-03-29 | 2020-10-09 | B/E航空公司 | 提供用于交通工具乘客的姿态参考的装置和方法 |
CN111746796B (zh) * | 2019-03-29 | 2024-04-26 | B/E航空公司 | 提供用于交通工具乘客的姿态参考的装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
US11184531B2 (en) | 2021-11-23 |
EP3394833A1 (en) | 2018-10-31 |
US20190230282A1 (en) | 2019-07-25 |
WO2017108221A1 (en) | 2017-06-29 |
KR20180084952A (ko) | 2018-07-25 |
EP3394833B1 (en) | 2020-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108369746A (zh) | 用于多相机交通工具系统的动态图像融合 | |
US9098928B2 (en) | Image-processing system and image-processing method | |
JP6091586B1 (ja) | 車両用画像処理装置および車両用画像処理システム | |
CN104321224B (zh) | 具有摄像机监控系统的机动车 | |
CN105196917B (zh) | 全景式监控影像装置及其工作方法 | |
KR101683509B1 (ko) | 헤드램프 눈부심 방지 장치 및 이를 이용한 눈부심 방지 방법 | |
US20160005316A1 (en) | Around view system and operating method thereof | |
EP2590397A2 (en) | Automatic image equalization for surround-view video camera systems | |
EP3326145B1 (en) | Panel transform | |
KR102315748B1 (ko) | 차량용 어라운드 뷰 시스템 | |
JP2019110492A (ja) | 画像表示装置 | |
WO2014181510A1 (ja) | 運転者状態監視装置、および運転者状態監視方法 | |
US9942475B2 (en) | Real cross traffic—quick looks | |
JP2014235639A (ja) | 車両表示装置 | |
JP2014235640A (ja) | 車両表示装置 | |
US20220070435A1 (en) | Non-same camera based image processing apparatus | |
US20060115144A1 (en) | Image information processing system, image information processing method, image information processing program, and automobile | |
TW201221390A (en) | Real-time imaging system and method for vehicle rear viewing | |
JP2007281989A (ja) | ステレオ式監視装置 | |
JP2021189676A (ja) | 表示制御装置、車両及び表示制御方法 | |
JP2021189677A (ja) | 表示制御装置、車両及び表示制御方法 | |
JP6256508B2 (ja) | 電子ミラー制御装置 | |
CN110992428A (zh) | 一种摄像头一致性的智能检测方法和检测装置 | |
KR101767433B1 (ko) | 헤드업 디스플레이의 영상 매칭 장치 및 그 방법 | |
KR101750160B1 (ko) | 어라운드 뷰 노이즈 제거 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |