[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN111767844B - 用于三维建模的方法和装置 - Google Patents

用于三维建模的方法和装置 Download PDF

Info

Publication number
CN111767844B
CN111767844B CN202010605153.4A CN202010605153A CN111767844B CN 111767844 B CN111767844 B CN 111767844B CN 202010605153 A CN202010605153 A CN 202010605153A CN 111767844 B CN111767844 B CN 111767844B
Authority
CN
China
Prior art keywords
obstacle
human eye
coordinate system
distance
reference obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010605153.4A
Other languages
English (en)
Other versions
CN111767844A (zh
Inventor
刘一鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Technology Beijing Co Ltd
Original Assignee
Apollo Intelligent Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Technology Beijing Co Ltd filed Critical Apollo Intelligent Technology Beijing Co Ltd
Priority to CN202010605153.4A priority Critical patent/CN111767844B/zh
Publication of CN111767844A publication Critical patent/CN111767844A/zh
Priority to US17/118,440 priority patent/US11697428B2/en
Priority to EP21165229.2A priority patent/EP3822850B1/en
Priority to JP2021053237A priority patent/JP7192017B2/ja
Priority to KR1020210040406A priority patent/KR102418795B1/ko
Application granted granted Critical
Publication of CN111767844B publication Critical patent/CN111767844B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了用于三维建模的方法和装置,涉及智能交通领域和自动驾驶领域。具体实现方案为:获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点;确定乘坐无人驾驶车辆的乘客的人眼所在的位置,以人眼所在的位置为坐标原点建立人眼坐标系;将障碍物在车辆坐标系下的坐标点转换为在人眼坐标系下的坐标点,以及根据人眼的观察视角,确定周围环境中的障碍物之间的可视化距离;基于障碍物在人眼坐标系下的坐标点和障碍物之间的可视化距离,对周围环境进行三维建模。该实施方式可以使得乘客通过车载屏幕看到的无人车的周围环境更接近通过车窗看到的周围环境。

Description

用于三维建模的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及智能交通领域和自动驾驶领域。
背景技术
无人驾驶车辆是智能汽车的一种,也称为轮式移动机器人,主要依靠车内的以计算机系统为主的智能驾驶仪来实现无人驾驶的目的。目前,无人驾驶车辆通常是把对周围环境的感知投射到车载屏幕上,增强乘客对车辆感知能力的信任。因此,如何对无人驾驶车辆的周围环境进行三维建模,以使得乘客通过屏幕看到的无人车的周围环境更接近通过车窗看到的周围环境,是亟待解决的问题。
发明内容
本公开提供了一种用于三维建模的方法和装置。
根据第一方面,提供了一种用于三维建模的方法,包括:获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点;确定乘坐无人驾驶车辆的乘客的人眼所在的位置,以人眼所在的位置为坐标原点建立人眼坐标系;将障碍物在车辆坐标系下的坐标点转换为在人眼坐标系下的坐标点,以及根据人眼的观察视角,确定周围环境中的障碍物之间的可视化距离;基于障碍物在人眼坐标系下的坐标点和障碍物之间的可视化距离,对周围环境进行三维建模。
根据第二方面,提供了一种用于三维建模的装置,包括:获取单元,被配置成获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点;建立单元,被配置成确定乘坐无人驾驶车辆的乘客的人眼所在的位置,以人眼所在的位置为坐标原点建立人眼坐标系;确定单元,被配置成将障碍物在车辆坐标系下的坐标点转换为在人眼坐标系下的坐标点,以及根据人眼的观察视角,确定周围环境中的障碍物之间的可视化距离;建模单元,被配置成基于障碍物在人眼坐标系下的坐标点和障碍物之间的可视化距离,对周围环境进行三维建模。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行第一方面中任一项的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行第一方面中任一项的方法。
根据第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述方法。
根据本申请的技术,首先获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点;之后,确定乘坐上述无人驾驶车辆的乘客的人眼所在的位置,以上述人眼所在的位置为坐标原点建立人眼坐标系;而后,将上述障碍物在上述车辆坐标系下的坐标点转换为在上述人眼坐标系下的坐标点,以及根据人眼的观察视角,确定上述周围环境中的障碍物之间的可视化距离;最后,基于上述障碍物在上述人眼坐标系下的坐标点和上述障碍物之间的可视化距离,对上述周围环境进行三维建模。通过这种方式可以确定周围环境中的障碍物在人眼的观察视角下的距离,以使得乘客通过车载屏幕看到的无人车的周围环境更接近通过车窗看到的周围环境。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请的用于三维建模的方法的一个实施例的流程图;
图2是根据本申请的用于三维建模的方法中确定障碍物之间的可视化距离的一个实施例的流程图;
图3是根据本申请的用于三维建模的方法中的障碍物在人眼坐标系下的坐标点的示意图;
图4是根据本申请的用于三维建模的方法中对周围环境进行三维建模的一个实施例的流程图;
图5是根据本申请的用于三维建模的方法中所划分出的区域的一个实施例的示意图;
图6是根据本申请的用于三维建模的装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了根据本申请的用于三维建模的方法的一个实施例的流程100。该用于三维建模的方法,包括以下步骤:
步骤101,获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点。
在本实施例中,用于三维建模的方法的执行主体(例如,无人驾驶车辆的车载终端设备)可以获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点。上述无人驾驶车辆上可以安装有车载摄像头和激光雷达等传感器,这些传感器可以对上述无人驾驶车辆的周围环境进行感知,获取到周围环境中各种障碍物的空间坐标,通过预先标定的车辆坐标系,将各个传感器获取到的障碍物的空间坐标进行融合,得到障碍物在上述无人驾驶车辆的车辆坐标系下的坐标点。上述车辆坐标系可以是以无人驾驶车辆的中心点为坐标原点的坐标系。上述车辆坐标系可以以无人驾驶车辆的行驶方向为X坐标轴或Y坐标轴。
在这里,上述周围环境中的障碍物可以包括但不限于:车辆、行人、建筑物、树木和路障设施。
步骤102,确定乘坐无人驾驶车辆的乘客的人眼所在的位置,以人眼所在的位置为坐标原点建立人眼坐标系。
在本实施例中,上述执行主体可以确定乘坐上述无人驾驶车辆的乘客的人眼所在的位置。上述无人驾驶车辆中可以安装有人眼感应设备(例如,车内摄像头和红外感应装置),可以利用上述人眼感应设备对乘客的人眼进行感知,从而确定人眼所在的位置。之后,上述执行主体可以以上述人眼所在的位置为坐标原点建立人眼坐标系。上述人眼坐标系的X坐标轴或Y坐标轴可以为无人驾驶车辆的行驶方向。
步骤103,将障碍物在车辆坐标系下的坐标点转换为在人眼坐标系下的坐标点,以及根据人眼的观察视角,确定周围环境中的障碍物之间的可视化距离。
在本实施例中,上述执行主体可以将上述障碍物在上述车辆坐标系下的坐标点转换为在上述人眼坐标系下的坐标点。在这里,上述执行主体可以利用上述车辆坐标系和上述人眼坐标系的坐标点之间的一一对应关系,通过坐标轴的平移或旋转等操作进行坐标转换。
作为示例,若障碍物A在上述车辆坐标系下的坐标点为(3,3,3),人眼在上述车辆坐标系下的坐标点为(1,1,1),此时,若以人眼所在位置(1,1,1)为人眼坐标系的坐标原点,则障碍物A在上述人眼坐标系下的新的坐标点为(2,2,2)。
之后,上述执行主体可以根据人眼的观察视角,确定上述周围环境中的障碍物之间的可视化距离。可视化是利用计算机图形学和图像处理技术,将数据转换成图形或图像在屏幕上显示出来,再进行交互处理的理论、方法和技术。在这里,上述可视化距离可以是在将上述周围环境中的障碍物的图像在车载屏幕上显示出来时所依据的距离。若需要在车载屏幕中显示障碍物时,通过对上述可视化距离进行一定比例的缩放可以确定上述周围环境中的障碍物的位置。
步骤104,基于障碍物在人眼坐标系下的坐标点和障碍物之间的可视化距离,对周围环境进行三维建模。
在本实施例中,上述执行主体可以基于上述障碍物在上述人眼坐标系下的坐标点和上述障碍物之间的可视化距离,对上述周围环境进行三维建模。在这里,上述执行主体可以通过障碍物与上述人眼之间的距离以及障碍物之间的距离,确定上述周围环境中每个障碍物的位置,从而对上述周围环境进行三维建模。
需要说明的是,由于乘客坐在无人驾驶车辆中,因此,障碍物与乘客的人眼之间的距离也可以认为是障碍物与无人驾驶车辆之间的距离。
在本实施例中,在对上述周围环境进行三维建模之后,上述执行主体可以对建模后的周围环境进行渲染。渲染可以是使图像符合3D场景的阶段。
在本实施例中,三维建模也可以称为3D建模,通常指的是利用三维制作软件通过虚拟三维空间构建出具有三维数据的模型。3D建模可以包括NURBS(Non-Uniform RationalB-Splines,非均匀有理B样条)和多边形网格这两种建模方式。NURBS是一种非常优秀的建模方式,在高级三维软件当中都支持这种建模方式。多边形网格是构成3D对象的顶点,边缘和面的集合,定义每个3D角色和对象的形状和轮廓。多边形网格中的每个顶点都存储x,y和z坐标信息。NURBS能够比传统的网格建模方式更好地控制物体表面的曲线度,从而能够创建出更逼真、生动的造型。
本申请的上述实施例提供的方法可以确定周围环境中的障碍物在人眼的观察视角下的距离,以使得乘客通过车载屏幕看到的无人车的周围环境更接近通过车窗看到的周围环境。
在本实施例的一些可选的实现方式中,上述执行主体可以通过如下方式根据人眼的观察视角,确定上述周围环境中的障碍物之间的可视化距离:上述执行主体可以从上述周围环境中选取目标区域。上述目标区域可以为预先规划出的区域,例如,可以是上述无人驾驶车辆的前方或后方50米范围内的区域,也可以是上述无人驾驶车辆的左侧或右侧50米范围内的区域,还可以将上述周围环境的整体作为目标区域。之后,上述执行主体可以确定上述目标区域中的障碍物之间的可视化距离。具体地,上述执行主体可以从上述目标区域的障碍物中选取目标障碍物,例如,可以从上述目标区域的障碍物中任意选取一个障碍物作为目标障碍物,也可以从上述目标区域的障碍物中选取距离人眼坐标系的坐标原点最近的障碍物作为目标障碍物。
之后,可以基于目标障碍物,执行如下可视化距离确定步骤:可以确定上述目标区域中距离目标障碍物最近的障碍物(第一障碍物)与目标障碍物之间的可视化距离。在这里,可以以上述人眼坐标系的坐标原点为圆心、以坐标原点到第一障碍物的距离为半径作圆,将以坐标原点为起点、穿过目标障碍物的坐标点的射线与圆的交点作为目标点,可以将目标点与第一障碍物的坐标点之间的连线的距离确定为第一障碍物与目标障碍物之间的可视化距离。而后,可以确定上述目标区域中是否存在未被确定可视化距离的障碍物。
若存在未被确定可视化距离的障碍物,则可以将未被确定可视化距离的障碍物作为目标障碍物,继续执行上述可视化距离确定步骤。
该实施方式提供了一种可视化距离的计算方式,从而可以丰富可视化距离的计算方式。
继续参考图2,其示出了用于三维建模的方法中确定障碍物之间的可视化距离的一个实施例的流程200。该确定障碍物之间的可视化距离的流程200,包括以下步骤:
步骤201,从周围环境中选取目标区域。
在本实施例中,用于三维建模的方法的执行主体(例如,无人驾驶车辆的车载终端设备)可以从上述周围环境中选取目标区域。上述目标区域可以为预先规划出的区域,例如,可以是上述无人驾驶车辆的前方或后方50米范围内的区域,也可以是上述无人驾驶车辆的左侧或右侧50米范围内的区域,还可以将上述周围环境的整体作为目标区域。
步骤202,从目标区域的障碍物中选取基准障碍物。
在本实施例中,上述执行主体可以从上述目标区域的障碍物中选取基准障碍物。作为示例,可以从上述目标区域的障碍物中选取距离上述无人驾驶车辆最近的障碍物作为基准障碍物。
步骤203,以人眼坐标系的坐标原点为起点,生成穿过基准障碍物的坐标点的射线。
在本实施例中,上述执行主体可以以上述人眼坐标系的坐标原点为起点,生成穿过上述基准障碍物的坐标点的射线。
如图3所示,图3示出了根据本申请的用于三维建模的方法中的障碍物在人眼坐标系下的坐标点的示意图。在图3中,人眼坐标系的坐标原点为O,OA为垂直于无人驾驶车辆的车载屏幕的线段,点B为基准障碍物B的坐标点,点C为障碍物C的坐标点。上述执行主体可以以人眼坐标系的坐标原点O为起点,生成穿过基准障碍物的坐标点B的射线,如图3中的射线OD。
步骤204,针对目标区域中除基准障碍物之外的每个其他障碍物,以该其他障碍物的坐标点为起点,作射线的垂线,将垂线的长度确定为该其他障碍物与基准障碍物之间的可视化距离。
在本实施例中,针对上述目标区域中除基准障碍物之外的每个其他障碍物,上述执行主体可以以该其他障碍物的坐标点为起点,作上述射线的垂线。可以将上述垂线的长度确定为该其他障碍物与上述基准障碍物之间的可视化距离。
如图3所示,针对障碍物C,可以以障碍物C的坐标点C为起点,作射线OD的垂线,得到垂线CD,可以将垂线CD的长度确定为障碍物C与基准障碍物B之间的可视化距离。在这里,假设线段OB与线段OA之间的夹角为α,那么线段CD与线段CB之间的夹角也为α,由于线段CB的长度是已知的,通过三角函数关系,可以确定线段CD=cosα×CB。
本申请的上述实施例提供的方法提供了又一种可视化距离的计算方式,这种可视化距离计算方式可以更加准确地确定出其他障碍物与基准障碍物之间的可视化距离。
进一步参考图4,其示出了用于三维建模的方法中对周围环境进行三维建模的一个实施例的流程400。该对周围环境进行三维建模的流程400,包括以下步骤:
步骤401,基于基准障碍物在人眼坐标系下的坐标点,对基准障碍物进行三维建模。
在本实施例中,用于三维建模的方法的执行主体(例如,无人驾驶车辆的车载终端设备)可以基于基准障碍物在人眼坐标系下的坐标点,对上述基准障碍物进行三维建模。具体地,上述执行主体可以通过上述基准障碍物在上述人眼坐标系下的坐标点,确定上述基准障碍物与上述无人驾驶车辆的相对位置关系,从而对上述基准障碍物进行三维建模。需要说明的是,为了更好地呈现周围环境的相对位置关系,也需要对上述无人驾驶车辆进行三维建模。
在这里,在对上述基准障碍物进行三维建模之后,上述执行主体可以对建模后的基准障碍物进行渲染。渲染可以是使图像符合3D场景的阶段。
步骤402,利用目标区域中除基准障碍物之外的其他障碍物与基准障碍物之间的可视化距离,确定其他障碍物的位置。
在本实施例中,上述执行主体可以利用上述目标区域中除上述基准障碍物之外的其他障碍物与上述基准障碍物之间的可视化距离,确定上述其他障碍物的位置。在这里,上述执行主体可以通过上述其它障碍物和上述基准障碍物在上述人眼坐标系下的坐标点,确定上述其它障碍物与上述基准障碍物的相对方位关系。上述执行主体可以保持上述其它障碍物与上述基准障碍物的相对方位关系不变,将上述其他障碍物向上述基准障碍物的方向进行平移,直到上述其他障碍物与上述基准障碍物之间的距离为上述可视化距离,将该位置确定为上述其他障碍物的位置。
步骤403,利用其他障碍物的位置,对其他障碍物进行三维建模。
在本实施例中,上述执行主体可以在上述其他障碍物的位置上,对上述其他障碍物进行三维建模。在对上述其他障碍物进行三维建模之后,上述执行主体可以对建模后的其他障碍物进行渲染。
本申请的上述实施例提供的方法可以以基准障碍物为基准,确定其他障碍物的位置关系,避免由于某一障碍物的位置出错而影响其他障碍物的定位。
在本实施例的一些可选的实现方式中,上述执行主体可以通过如下步骤基于上述基准障碍物在上述人眼坐标系下的坐标点,对上述基准障碍物进行三维建模:
步骤一,基于上述其他障碍物与上述基准障碍物之间的可视化距离、上述其它障碍物与上述基准障碍物之间的真实距离以及上述人眼与上述基准障碍物之间的真实距离,确定上述人眼与上述基准障碍物之间的可视化距离。
在这里,针对上述目标区域中除上述基准障碍物之外的每个其他障碍物,假设该其他障碍物与上述基准障碍物之间的可视化距离为a’,该其它障碍物与上述基准障碍物之间的真实距离为a,上述人眼与上述基准障碍物之间的真实距离为c,上述人眼与上述基准障碍物之间的可视化距离为c’。通过视觉等比关系a’/a=c’/c,可以得出c’=c×a’/a。由于该其他障碍物与上述基准障碍物之间的可视化距离a’、该其它障碍物与上述基准障碍物之间的真实距离a以及上述人眼与上述基准障碍物之间的真实距离c是已知的,因此,可以通过上述公式c’=c×a’/a,确定出在以该其它障碍物作为依据的情况下,上述人眼与上述基准障碍物之间的可视化距离c’。
若上述其它障碍物的数目为至少两个,则上述执行主体可以以至少两个其它障碍物作为依据的情况下,对得出的至少两个上述人眼与上述基准障碍物之间的可视化距离进行加权平均计算,得到上述人眼与上述基准障碍物之间的可视化距离。
需要说明的是,由于乘客坐在无人驾驶车辆中,因此,障碍物与乘客的人眼之间的距离也可以认为是障碍物与无人驾驶车辆之间的距离。
步骤二,利用上述基准障碍物在上述人眼坐标系下的坐标点和上述人眼与上述基准障碍物之间的可视化距离,确定上述基准障碍物的位置。
在这里,上述执行主体可以利用上述基准障碍物在上述人眼坐标系下的坐标点,确定上述基准障碍物与上述人眼的相对方位关系。之后,上述执行主体可以保持上述基准障碍物与上述人眼的相对方位关系不变,将上述基准障碍物向上述人眼的方向进行平移,直到上述基准障碍物与上述人眼之间的距离为上述人眼与上述基准障碍物之间的可视化距离,将该位置确定为上述基准障碍物的位置。
需要说明的是,将上述基准障碍物向上述人眼的方向进行平移之后,为了保证障碍物之间的相对位置关系,也需要将其他障碍物向上述人眼方向进行相应地平移。
步骤三,利用上述基准障碍物的位置,对上述基准障碍物进行三维建模。
在这里,上述执行主体可以在上述基准障碍物的位置,对上述基准障碍物进行三维建模。在对上述基准障碍物进行三维建模之后,上述执行主体可以对建模后的基准障碍物进行渲染。
通过这种方式,可以通过视觉等比关系,以多个其它障碍物作为依据,综合计算得到上述人眼与上述基准障碍物之间的可视化距离。从而可以更加准确、合理地确定出上述人眼与上述基准障碍物之间的可视化距离。
在本实施例的一些可选的实现方式中,上述执行主体可以通过如下方式从上述周围环境中选取目标区域:上述执行主体可以对上述周围环境进行划分。通常来说,所划分出的区域越多,在每个区域中确定出的可视化距离越准确。之后,可以从划分出的区域中选取任一区域作为目标区域。通过对周围环境进行划分,可以针对划分出的每个目标区域确定区域中的障碍物之间的可视化距离,从而可以更加准确地确定可视化距离。
如图5所示,图5示出了根据本申请的用于三维建模的方法中所划分出的区域的一个实施例的示意图。在图5中,可以将上述周围环境划分成4个区域。区域1包含无人驾驶车辆的前方、左侧部分区域和右侧部分区域。区域2包含无人驾驶车辆的左侧、前方部分区域和后方部分区域。区域3包含无人驾驶车辆的后方、左侧部分区域和右侧部分区域。区域4包含无人驾驶车辆的右侧、前方部分区域和后方部分区域。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种用于三维建模的装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于三维建模的装置600包括:获取单元601、建立单元602、确定单元603和建模单元604。其中,获取单元601被配置成获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点;建立单元602被配置成确定乘坐无人驾驶车辆的乘客的人眼所在的位置,以人眼所在的位置为坐标原点建立人眼坐标系;确定单元603被配置成将障碍物在车辆坐标系下的坐标点转换为在人眼坐标系下的坐标点,以及根据人眼的观察视角,确定周围环境中的障碍物之间的可视化距离;建模单元604被配置成基于障碍物在人眼坐标系下的坐标点和障碍物之间的可视化距离,对周围环境进行三维建模。
在本实施例中,用于三维建模的装置600的获取单元601、建立单元602、确定单元603和建模单元604的具体处理及其所带来的技术效果可分别参考图1对应实施例中的步骤101-104的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述确定单元603可以通过如下方式根据人眼的观察视角,确定上述周围环境中的障碍物之间的可视化距离:上述确定单元603可以从上述周围环境中选取目标区域。上述目标区域可以为预先规划出的区域,例如,可以是上述无人驾驶车辆的前方或后方50米范围内的区域,也可以是上述无人驾驶车辆的左侧或右侧50米范围内的区域,还可以将上述周围环境的整体作为目标区域。之后,上述确定单元603可以确定上述目标区域中的障碍物之间的可视化距离。具体地,上述确定单元603可以从上述目标区域的障碍物中选取目标障碍物,例如,可以从上述目标区域中的障碍物中任意选取一个障碍物作为目标障碍物,也可以从上述目标区域的障碍物中选取距离人眼坐标系的坐标原点最近的障碍物作为目标障碍物。
之后,可以基于目标障碍物,执行如下可视化距离确定步骤:可以确定上述目标区域中距离目标障碍物最近的障碍物(第一障碍物)与目标障碍物之间的可视化距离。在这里,可以以上述人眼坐标系的坐标原点为圆心、以坐标原点到第一障碍物的距离为半径作圆,将以坐标原点为起点、穿过目标障碍物的坐标点的射线与圆的交点作为目标点,可以将目标点与第一障碍物的坐标点之间的连线的距离确定为第一障碍物与目标障碍物之间的可视化距离。而后,可以确定上述目标区域中是否存在未被确定可视化距离的障碍物。
若存在未被确定可视化距离的障碍物,则可以将未被确定可视化距离的障碍物作为目标障碍物,继续执行上述可视化距离确定步骤。
该实施方式提供了一种可视化距离的计算方式,从而可以丰富可视化距离的计算方式。
在本实施例的一些可选的实现方式中,上述确定单元603可以从上述目标区域的障碍物中选取基准障碍物。作为示例,可以从上述目标区域的障碍物中选取距离上述无人驾驶车辆最近的障碍物作为基准障碍物。之后,上述确定单元603可以以上述人眼坐标系的坐标原点为起点,生成穿过上述基准障碍物的坐标点的射线。针对上述目标区域中除基准障碍物之外的每个其他障碍物,上述确定单元603可以以该其他障碍物的坐标点为起点,作射线的垂线。可以将上述垂线的长度确定为该其他障碍物与上述基准障碍物之间的可视化距离。
在本实施例的一些可选的实现方式中,上述建模单元604可以基于基准障碍物在人眼坐标系下的坐标点,对上述基准障碍物进行三维建模。具体地,上述建模单元604可以通过上述基准障碍物在上述人眼坐标系下的坐标点,确定上述基准障碍物与上述无人驾驶车辆的相对位置关系,从而对上述基准障碍物进行三维建模。需要说明的是,为了更好地呈现周围环境的相对位置关系,也需要对上述无人驾驶车辆进行三维建模。
之后,上述建模单元604可以利用上述目标区域中除上述基准障碍物之外的其他障碍物与上述基准障碍物之间的可视化距离,确定上述其他障碍物的位置。在这里,上述建模单元604可以通过上述其它障碍物和上述基准障碍物在上述人眼坐标系下的坐标点,确定上述其它障碍物与上述基准障碍物的相对方位关系。上述建模单元604可以保持上述其它障碍物与上述基准障碍物的相对方位关系不变,将上述其他障碍物向上述基准障碍物的方向进行平移,直到上述其他障碍物与上述基准障碍物之间的距离为上述可视化距离,将该位置确定为上述其他障碍物的位置。
最后,上述建模单元604可以在上述其他障碍物的位置上,对上述其他障碍物进行三维建模。在对上述其他障碍物进行三维建模之后,上述建模单元604可以对建模后的其他障碍物进行渲染。
在本实施例的一些可选的实现方式中,上述建模单元604可以通过如下步骤基于上述基准障碍物在上述人眼坐标系下的坐标点,对上述基准障碍物进行三维建模:
步骤一,基于上述其他障碍物与上述基准障碍物之间的可视化距离、上述其它障碍物与上述基准障碍物之间的真实距离以及上述人眼与上述基准障碍物之间的真实距离,确定上述人眼与上述基准障碍物之间的可视化距离。
在这里,针对上述目标区域中除上述基准障碍物之外的每个其他障碍物,假设该其他障碍物与上述基准障碍物之间的可视化距离为a’,该其它障碍物与上述基准障碍物之间的真实距离为a,上述人眼与上述基准障碍物之间的真实距离为c,上述人眼与上述基准障碍物之间的可视化距离为c’。通过视觉等比关系a’/a=c’/c,可以得出c’=c×a’/a。由于该其他障碍物与上述基准障碍物之间的可视化距离a’、该其它障碍物与上述基准障碍物之间的真实距离a以及上述人眼与上述基准障碍物之间的真实距离c是已知的,因此,可以通过上述公式c’=c×a’/a,确定出在以该其它障碍物作为依据的情况下,上述人眼与上述基准障碍物之间的可视化距离c’。
若上述其它障碍物的数目为至少两个,则上述建模单元604可以以至少两个其它障碍物作为依据的情况下,对得出的至少两个上述人眼与上述基准障碍物之间的可视化距离进行加权平均计算,得到上述人眼与上述基准障碍物之间的可视化距离。
需要说明的是,由于乘客坐在无人驾驶车辆中,因此,障碍物与乘客的人眼之间的距离也可以认为是障碍物与无人驾驶车辆之间的距离。
步骤二,利用上述基准障碍物在上述人眼坐标系下的坐标点和上述人眼与上述基准障碍物之间的可视化距离,确定上述基准障碍物的位置。
在这里,上述建模单元604可以利用上述基准障碍物在上述人眼坐标系下的坐标点,确定上述基准障碍物与上述人眼的相对方位关系。之后,上述建模单元604可以保持上述基准障碍物与上述人眼的相对方位关系不变,将上述基准障碍物向上述人眼的方向进行平移,直到上述基准障碍物与上述人眼之间的距离为上述人眼与上述基准障碍物之间的可视化距离,将该位置确定为上述基准障碍物的位置。
需要说明的是,将上述基准障碍物向上述人眼的方向进行平移之后,为了保证障碍物之间的相对位置关系,也需要将其他障碍物向上述人眼方向进行相应地平移。
步骤三,利用上述基准障碍物的位置,对上述基准障碍物进行三维建模。
在这里,上述建模单元604可以在上述基准障碍物的位置,对上述基准障碍物进行三维建模。在对上述基准障碍物进行三维建模之后,上述建模单元604可以对建模后的基准障碍物进行渲染。
通过这种方式,可以通过视觉等比关系,以多个其它障碍物作为依据,综合计算得到上述人眼与上述基准障碍物之间的可视化距离。从而可以更加准确、合理地确定出上述人眼与上述基准障碍物之间的可视化距离。
在本实施例的一些可选的实现方式中,上述确定单元603可以通过如下方式从上述周围环境中选取目标区域:上述确定单元603可以对上述周围环境进行划分。通常来说,所划分出的区域越多,在每个区域中确定出的可视化距离越准确。之后,可以从划分出的区域中选取任一区域作为目标区域。通过对周围环境进行划分,可以针对划分出的每个目标区域确定区域中的障碍物之间的可视化距离,从而可以更加准确地确定可视化距离。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图7所示,是根据本申请实施例的用于三维建模的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的用于三维建模的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的用于三维建模的方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的用于三维建模的方法对应的程序指令/模块(例如,附图6所示的获取单元601、建立单元602、确定单元603和建模单元604)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的用于三维建模的方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据用于三维建模的方法的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至用于三维建模的方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用于三维建模的方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与用于三维建模的方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请的技术,首先获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点;之后,确定乘坐上述无人驾驶车辆的乘客的人眼所在的位置,以上述人眼所在的位置为坐标原点建立人眼坐标系;而后,将上述障碍物在上述车辆坐标系下的坐标点转换为在上述人眼坐标系下的坐标点,以及根据人眼的观察视角,确定上述周围环境中的障碍物之间的可视化距离;最后,基于上述障碍物在上述人眼坐标系下的坐标点和上述障碍物之间的可视化距离,对上述周围环境进行三维建模。通过这种方式可以在人眼的观察视角下,确定周围环境中的障碍物之间的距离,以使得乘客通过车载屏幕看到的无人车的周围环境更接近通过车窗看到的周围环境。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (10)

1.一种用于三维建模的方法,包括:
获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点;
确定乘坐所述无人驾驶车辆的乘客的人眼所在的位置,以所述人眼所在的位置为坐标原点建立人眼坐标系;
将所述障碍物在所述车辆坐标系下的坐标点转换为在所述人眼坐标系下的坐标点,以及根据人眼的观察视角,确定所述周围环境中的障碍物之间的可视化距离;
基于所述障碍物在所述人眼坐标系下的坐标点和所述障碍物之间的可视化距离,对所述周围环境进行三维建模;
其中,所述根据人眼的观察视角,确定所述周围环境中的障碍物之间的可视化距离,包括:
从所述周围环境中选取目标区域,并从所述目标区域的障碍物中选取基准障碍物;
以所述人眼坐标系的坐标原点为起点,生成穿过所述基准障碍物的坐标点的射线;
针对所述目标区域中除所述基准障碍物之外的每个其他障碍物,以该其他障碍物的坐标点为起点,作所述射线的垂线,将所述垂线的长度确定为该其他障碍物与所述基准障碍物之间的可视化距离。
2.根据权利要求1所述的方法,其中,所述基于所述障碍物在所述人眼坐标系下的坐标点和所述障碍物之间的可视化距离,对所述周围环境进行三维建模,包括:
基于所述基准障碍物在所述人眼坐标系下的坐标点,对所述基准障碍物进行三维建模;
利用所述目标区域中除所述基准障碍物之外的其他障碍物与所述基准障碍物之间的可视化距离,确定所述其他障碍物的位置;
利用所述其他障碍物的位置,对所述其他障碍物进行三维建模。
3.根据权利要求2所述的方法,其中,所述基于所述基准障碍物在所述人眼坐标系下的坐标点,对所述基准障碍物进行三维建模,包括:
基于所述其他障碍物与所述基准障碍物之间的可视化距离、所述其他障碍物与所述基准障碍物之间的真实距离以及所述人眼与所述基准障碍物之间的真实距离,确定所述人眼与所述基准障碍物之间的可视化距离;
利用所述基准障碍物在所述人眼坐标系下的坐标点和所述人眼与所述基准障碍物之间的可视化距离,确定所述基准障碍物的位置;
利用所述基准障碍物的位置,对所述基准障碍物进行三维建模。
4.根据权利要求1所述的方法,其中,所述从所述周围环境中选取目标区域,包括:
对所述周围环境进行划分,从划分出的区域中选取目标区域。
5.一种用于三维建模的装置,包括:
获取单元,被配置成获取无人驾驶车辆的周围环境中的障碍物在车辆坐标系下的坐标点;
建立单元,被配置成确定乘坐所述无人驾驶车辆的乘客的人眼所在的位置,以所述人眼所在的位置为坐标原点建立人眼坐标系;
确定单元,被配置成将所述障碍物在所述车辆坐标系下的坐标点转换为在所述人眼坐标系下的坐标点,以及根据人眼的观察视角,确定所述周围环境中的障碍物之间的可视化距离;
建模单元,被配置成基于所述障碍物在所述人眼坐标系下的坐标点和所述障碍物之间的可视化距离,对所述周围环境进行三维建模;
其中,所述确定单元进一步被配置成通过如下方式根据人眼的观察视角,确定所述周围环境中的障碍物之间的可视化距离:
从所述周围环境中选取目标区域,并从所述目标区域的障碍物中选取基准障碍物;
以所述人眼坐标系的坐标原点为起点,生成穿过所述基准障碍物的坐标点的射线;
针对所述目标区域中除所述基准障碍物之外的每个其他障碍物,以该其他障碍物的坐标点为起点,作所述射线的垂线,将所述垂线的长度确定为该其他障碍物与所述基准障碍物之间的可视化距离。
6.根据权利要求5所述的装置,其中,所述建模单元进一步被配置成通过如下方式基于所述障碍物在所述人眼坐标系下的坐标点和所述障碍物之间的可视化距离,对所述周围环境进行三维建模:
基于所述基准障碍物在所述人眼坐标系下的坐标点,对所述基准障碍物进行三维建模;
利用所述目标区域中除所述基准障碍物之外的其他障碍物与所述基准障碍物之间的可视化距离,确定所述其他障碍物的位置;
利用所述其他障碍物的位置,对所述其他障碍物进行三维建模。
7.根据权利要求6所述的装置,其中,所述建模单元进一步被配置成通过如下方式基于所述基准障碍物在所述人眼坐标系下的坐标点,对所述基准障碍物进行三维建模:
基于所述其他障碍物与所述基准障碍物之间的可视化距离、所述其他障碍物与所述基准障碍物之间的真实距离以及所述人眼与所述基准障碍物之间的真实距离,确定所述人眼与所述基准障碍物之间的可视化距离;
利用所述基准障碍物在所述人眼坐标系下的坐标点和所述人眼与所述基准障碍物之间的可视化距离,确定所述基准障碍物的位置;
利用所述基准障碍物的位置,对所述基准障碍物进行三维建模。
8.根据权利要求5所述的装置,其中,所述确定单元进一步被配置成通过如下方式从所述周围环境中选取目标区域:
对所述周围环境进行划分,从划分出的区域中选取目标区域。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
CN202010605153.4A 2020-06-29 2020-06-29 用于三维建模的方法和装置 Active CN111767844B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010605153.4A CN111767844B (zh) 2020-06-29 2020-06-29 用于三维建模的方法和装置
US17/118,440 US11697428B2 (en) 2020-06-29 2020-12-10 Method and apparatus for 3D modeling
EP21165229.2A EP3822850B1 (en) 2020-06-29 2021-03-26 Method and apparatus for 3d modeling
JP2021053237A JP7192017B2 (ja) 2020-06-29 2021-03-26 3次元モデリングのための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
KR1020210040406A KR102418795B1 (ko) 2020-06-29 2021-03-29 3차원 모델링 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010605153.4A CN111767844B (zh) 2020-06-29 2020-06-29 用于三维建模的方法和装置

Publications (2)

Publication Number Publication Date
CN111767844A CN111767844A (zh) 2020-10-13
CN111767844B true CN111767844B (zh) 2023-12-29

Family

ID=72723210

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010605153.4A Active CN111767844B (zh) 2020-06-29 2020-06-29 用于三维建模的方法和装置

Country Status (5)

Country Link
US (1) US11697428B2 (zh)
EP (1) EP3822850B1 (zh)
JP (1) JP7192017B2 (zh)
KR (1) KR102418795B1 (zh)
CN (1) CN111767844B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420678A (zh) * 2021-06-25 2021-09-21 阿波罗智联(北京)科技有限公司 视线追踪方法、装置、设备、存储介质以及计算机程序产品
EP4375356A1 (en) 2021-07-20 2024-05-29 Toyo Seikan Group Holdings, Ltd. Means for controlling intracellular reaction utilizing needle-shaped body
EP4202750A1 (en) * 2021-12-21 2023-06-28 The West Retail Group Limited 3d model generation

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008076310A (ja) * 2006-09-22 2008-04-03 Nissan Motor Co Ltd 経路案内表示装置及び経路案内方法
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
JP2012025327A (ja) * 2010-07-27 2012-02-09 Fujitsu Ten Ltd 画像表示システム、画像処理装置及び画像表示方法
CN102378998A (zh) * 2009-12-10 2012-03-14 松下电器产业株式会社 信息显示设备和信息显示方法
JP2014044569A (ja) * 2012-08-27 2014-03-13 Xacti Corp 電子機器
JP2015210584A (ja) * 2014-04-24 2015-11-24 トヨタ自動車株式会社 画像処理装置
CN108082083A (zh) * 2018-01-16 2018-05-29 京东方科技集团股份有限公司 一种被遮挡对象的显示方法和显示系统以及车载防撞系统
WO2018094932A1 (zh) * 2016-11-23 2018-05-31 北京清影机器视觉技术有限公司 用于立体视觉呈现的人眼观察图像的生成方法和装置
CN110619303A (zh) * 2019-09-16 2019-12-27 Oppo广东移动通信有限公司 注视点追踪方法、装置、终端及计算机可读存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6501536B1 (en) * 1995-01-18 2002-12-31 Ronald J. Fredricks Method and apparatus for determining the location of an occupant of a vehicle
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
US6636822B2 (en) * 2002-01-17 2003-10-21 Rosco Inc. Method for testing vehicular mirrors for regulatory compliance using artificial visualization
US7257519B2 (en) * 2002-08-02 2007-08-14 Evans & Sutherland Computer Corporation System and method for weighted correction of an eyepoint position
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
US10800329B2 (en) * 2010-04-19 2020-10-13 SMR Patents S.à.r.l. Rear view mirror simulation
KR101265711B1 (ko) 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
DE102012200731A1 (de) 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
US8965741B2 (en) * 2012-04-24 2015-02-24 Microsoft Corporation Context aware surface scanning and reconstruction
JP2016134090A (ja) * 2015-01-21 2016-07-25 株式会社東芝 画像処理装置及びそれを用いた運転支援システム
US10999559B1 (en) * 2015-09-11 2021-05-04 Ambarella International Lp Electronic side-mirror with multiple fields of view
AU2018390994B2 (en) * 2017-12-22 2023-11-16 Mirage 3.4D Pty Ltd Camera projection technique system and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
JP2008076310A (ja) * 2006-09-22 2008-04-03 Nissan Motor Co Ltd 経路案内表示装置及び経路案内方法
CN102378998A (zh) * 2009-12-10 2012-03-14 松下电器产业株式会社 信息显示设备和信息显示方法
JP2012025327A (ja) * 2010-07-27 2012-02-09 Fujitsu Ten Ltd 画像表示システム、画像処理装置及び画像表示方法
JP2014044569A (ja) * 2012-08-27 2014-03-13 Xacti Corp 電子機器
JP2015210584A (ja) * 2014-04-24 2015-11-24 トヨタ自動車株式会社 画像処理装置
WO2018094932A1 (zh) * 2016-11-23 2018-05-31 北京清影机器视觉技术有限公司 用于立体视觉呈现的人眼观察图像的生成方法和装置
CN108082083A (zh) * 2018-01-16 2018-05-29 京东方科技集团股份有限公司 一种被遮挡对象的显示方法和显示系统以及车载防撞系统
CN110619303A (zh) * 2019-09-16 2019-12-27 Oppo广东移动通信有限公司 注视点追踪方法、装置、终端及计算机可读存储介质

Also Published As

Publication number Publication date
EP3822850B1 (en) 2023-09-27
US20210403026A1 (en) 2021-12-30
KR102418795B1 (ko) 2022-07-07
JP2021119466A (ja) 2021-08-12
US11697428B2 (en) 2023-07-11
KR20210042273A (ko) 2021-04-19
EP3822850A3 (en) 2021-09-22
CN111767844A (zh) 2020-10-13
JP7192017B2 (ja) 2022-12-19
EP3822850A2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
EP3869399A2 (en) Vehicle information detection method and apparatus, electronic device, storage medium and program
CN111623795B (zh) 实景导航图标显示方法、装置、设备和介质
CN111767844B (zh) 用于三维建模的方法和装置
KR102557026B1 (ko) 차량 순항 제어 방법, 장치, 전자 기기 및 저장 매체
JP6853280B2 (ja) 拡張現実ロボットシステムの可視化
CN112652016B (zh) 点云预测模型的生成方法、位姿估计方法及其装置
KR102498439B1 (ko) 차량용 카메라의 외부 파라미터 캘리브레이션 방법, 장치, 시스템 및 저장매체
CN111324945B (zh) 传感器方案确定方法、装置、设备及存储介质
EP3989117A1 (en) Vehicle information detection method and apparatus, method and apparatus for training detection model, electronic device, storage medium and program
CN110794844B (zh) 自动驾驶方法、装置、电子设备及可读存储介质
CN112184914B (zh) 目标对象三维位置的确定方法、装置和路侧设备
KR102566603B1 (ko) 자율 주행을 위한 속도 계획 방법, 장치, 설비, 매체 및 차량
CN111079079B (zh) 数据修正方法、装置、电子设备及计算机可读存储介质
EP3904829B1 (en) Method and apparatus for generating information, device, medium and computer program product
JP2022050311A (ja) 車両の車線変更を検出するための方法、装置、電子機器、記憶媒体、路側機、クラウド制御プラットフォーム、及びコンピュータプログラム
CN113706704B (zh) 基于高精地图规划路线的方法、设备以及自动驾驶车辆
CN111721281A (zh) 位置识别方法、装置和电子设备
CN110631603B (zh) 车辆导航方法和装置
CN111949816B (zh) 定位处理方法、装置、电子设备和存储介质
CN111260722B (zh) 车辆定位方法、设备及存储介质
CN114266876B (zh) 定位方法、视觉地图的生成方法及其装置
CN111753768B (zh) 表示障碍物形状的方法、装置、电子设备和存储介质
CN114655240A (zh) 信息的显示方法、装置、电子设备及存储介质
CN113283268B (zh) 图像处理的方法及装置
CN118502592A (zh) 码头数字孪生体构建与显示方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20211009

Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085

Applicant after: Apollo Intelligent Technology (Beijing) Co.,Ltd.

Address before: 2 / F, baidu building, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085

Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant