CN110322553B - 激光雷达点云混合现实场景实施放样的方法和系统 - Google Patents
激光雷达点云混合现实场景实施放样的方法和系统 Download PDFInfo
- Publication number
- CN110322553B CN110322553B CN201910621191.6A CN201910621191A CN110322553B CN 110322553 B CN110322553 B CN 110322553B CN 201910621191 A CN201910621191 A CN 201910621191A CN 110322553 B CN110322553 B CN 110322553B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- scene
- laser radar
- coordinates
- radar point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000013507 mapping Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims description 28
- 238000005259 measurement Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000004048 modification Effects 0.000 claims description 11
- 238000012986 modification Methods 0.000 claims description 11
- 238000010276 construction Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 2
- 230000010354 integration Effects 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000178 monomer Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2024—Style variation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Electromagnetism (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本申请涉及一种激光雷达点云混合现实场景实施放样的方法和系统。方法包括:获取待放样区域的激光雷达点云数据;对激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;根据处理后的激光雷达点云构建点云场景;将点云场景与待放样区域的现实场景进行配准;以配准后的点云场景的坐标为基准,在现实场景上放样。上述方法直接实现不同数据源场景高精度数据一体化,实动态场景下能进行高精度测绘或者精准放样减少重复采集工作量和成本。
Description
技术领域
本申请涉及混合现实与测绘技术领域,特别是涉及一种激光雷达点云混合现实场景实施放样的方法、系统、计算机设备和存储介质。
背景技术
随着混合现实技术(MR)科技和新一代测绘技术算法的发展,MR技术与智能终端使用非常普及,已经被广泛应用于多个领域来解决各种问题。例如通过利用MR技术使已有三维坐标和属性信息的激光雷达点云场景和现实场景精准叠加融合,从而可以同时使动态的现实场景高精度可量测化和三维激光雷达点云融合获取现实场景多样动态信息。
目前激光雷达点云可以通过激光雷达扫描瞬间获取场景的高精度三维静态信息,可以通过空中,地面,采用非接触式高速激光测量方式,以点云的形式获取地形及复杂物体三维表面的阵列式几何图形数据。用三维激光点云的方式对场景进行复刻和描述。具有高精度,高复原度的特性。通过赋予三维坐标和信息的三维激光点云处理后构建点云场景可以进行高精度的测绘、放样与分析。
然而,由于激光雷达扫描获取的是瞬时数据,而现实场景是一个随时间变化动态的场景,具有时效性。当需要对动态场景进行高精度测绘或者精准测绘放样的时需要再次扫描采集来保证时效性。这样势必造成扫描采集工作量和成本的大量增加。
混合现实技术(MR)是虚拟现实技术的进一步发展,该技术通过在虚拟环境中引入现实场景信息,在虚拟世界、现实世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感。由于普通的现实场景是无量测刻度信息和绝对坐标信息的,所以无法直接利用MR技术对现实场景进行绝对坐标高精度的测绘与放样。同理也无法对现实场景直接赋予绝对坐标的可量测刻度。
由于高精度的三维激光点云复刻点云场景描述的场景和现实场景是两个不同维度存在形态。两种场景目前只能通过第三方媒介进行数据信息交流,尚没有可以直接使场景高精度数据一体化的实现解决方法。
发明内容
基于此,有必要针对目前的三维激光点云复刻点云场景描述的场景与现实场景无法直接进行融合测绘以及放样的问题,提供一种激光雷达点云混合现实场景实施放样的方法、系统、计算机设备和存储介质。
一种激光雷达点云混合现实场景实施放样的方法,所述方法包括:
获取待放样区域的激光雷达点云数据;
对所述激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
根据所述处理后的激光雷达点云构建点云场景;
将所述点云场景与待放样区域的现实场景进行配准;
以配准后的所述点云场景的坐标为基准,在所述现实场景上放样。
在其中一个实施例中,在所述现实场景上放样包括:
依据所述点云场景的相对坐标为基准,并根据所述点云场景与所述现实场景的相对应坐标关系,在所述现实场景上相对放样;
或
在所述点云场景的绝对坐标为基准,在所述现实场景中进行绝对坐标放样。
在其中一个实施例中,在获取待放样区域的激光雷达点云数据的步骤中,包括:
在获取待放样区域的激光雷达点云数据的步骤中,包括:
从各采集设备中获取待放样区域的三维激光雷达点云数据,
对各所述三维激光雷达点云数据进行合并拼接,得到所述待放样区域的激光雷达点云数据。
在其中一个实施例中,对所述激光雷达点云数据进行坐标和属性赋值处理的步骤中,包括:
将所述激光雷达点云数据的相对坐标转换成绝对坐标;
对所述激光雷达点云数据进行单体化分组处理,其中每一组的激光雷达点云数据表示一个单体物;
对每一组单体化的所述激光雷达点云数据赋予属性。
在其中一个实施例中,在根据所述处理后的激光雷达点云构建点云场景的步骤中,包括:
采取抽稀、切割分块的方法对所述处理后的激光雷达点云进行处理,构建影像金字塔的点云场景模式;
对所述点云场景模式进行分组,并按分组后的组类数量依次加载所述点云场景模式;
对加载的所述点云场景模式采用四叉树空间索引的方法进行构建优化,得到所述点云场景。
在其中一个实施例中,将所述点云场景与待放样区域的现实场景进行配准的步骤中,包括:
对所述点云场景进行矩阵转换,并将矩阵转换后的所述点云场景通过MR设备投放到现实场景中;
采用最小二乘法对所述点云场景和所述现实场景进行配准。
在其中一个实施例中,将所述点云场景与待放样区域的现实场景进行配准的步骤之后,还包括:
对所述现实场景进行相对测绘,并输出相对量测坐标;
对所述相对量测坐标通过所述点云场景的绝对坐标进行转换,输出绝对量测坐标。
一种激光雷达点云混合现实场景实施放样的系统,所述系统包括:
数据获取模块,用于获取待放样区域的激光雷达点云数据;
点云获得模块,用于对所述激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
点云场景构建模块,用于根据所述处理后的激光雷达点云构建点云场景;
配准模块,用于将所述点云场景与待放样区域的现实场景进行配准;
放样模块,用于以配准后的所述点云场景的坐标为基准,在所述现实场景上放样。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待放样区域的激光雷达点云数据;
对所述激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
根据所述处理后的激光雷达点云构建点云场景;
将所述点云场景与待放样区域的现实场景进行配准;
以配准后的所述点云场景的坐标为基准,在所述现实场景上放样。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待放样区域的激光雷达点云数据;
对所述激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
根据所述处理后的激光雷达点云构建点云场景;
将所述点云场景与待放样区域的现实场景进行配准;
以配准后的所述点云场景的坐标为基准,在所述现实场景上放样。
上述激光雷达点云混合现实场景实施放样的方法、系统、计算机设备和存储介质,首选获取激光雷达点云数据,对这点云数据进行处理,处理后构建点云场景,然后将点云场景与现实场景融合配准,可建立点云场景和现实场景的直接数据信息关联,直接实现不同数据源场景高精度数据一体化,实动态场景下能进行精准放样减少重复采集工作量和成本。
附图说明
图1为一个实施例中激光雷达点云混合现实场景实施放样的方法的流程示意图;
图2为一个实施例中点云场景与现实场景配准的流程示意图;
图3为一个实施例中激光雷达点云混合现实场景实施放样的方法的流程示意图;
图4为一个实施例中点云场景与现实场景坐标转换关系图;
图5为一个实施例中点云场景矩阵转换图;
图6为另一实施例中激光雷达点云混合现实场景实施放样的方法的流程示意图;
图7为一个实施例中激光雷达点云混合现实场景实施放样的系统的结构示意图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的激光雷达点云混合现实场景实施放样的方法。本方法运用于终端中,终端可以是计算机、MR智能眼镜终端等。
在一个实施例中,如图1所示,提供了一种激光雷达点云混合现实场景实施放样的方法,以该方法应用于计算机为例行说明,包括以下步骤:
步骤S102,获取待放样区域的激光雷达点云数据;
其中,点云是指在逆向工程中通过测量仪器得到的产品外观表面的点数据集合;激光雷达点云数据是指采用激光雷达设备采集的带放样区域的表面点数据集合所述待放样区域是指需要进行放样的实际空间,可以是一间房间、一座建筑、一座山、一个风景或一片风景区域等。
步骤S104,对激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
具体的,根据激光测量原理得到的点云,包括三维坐标和激光反射强度;其中三维坐标通常是相对三维坐标,对激光雷达点云数据赋予坐标通常是指对相对三维坐标进行坐标转换,生成绝对三维坐标;并且对激光雷达点云数据赋予属性,包括对激光雷达点云数据进行分组、赋予颜色、形状、大小、用途等。
在其中一个具体的实施例中,对激光雷达点云数据进行坐标和属性赋值处理的步骤中,包括:将激光雷达点云数据的相对坐标转换成绝对坐标;对激光雷达点云数据进行单体化分组处理,其中每一组的激光雷达点云数据表示一个单体物;对每一组单体化的激光雷达点云数据赋予颜色属性。
其中,激光雷达点云分组属性为对点云进行单体化分组处理,达到若干点云分组后可以表示单体地物;激光雷达点云分类专题化处理及赋颜色处理。
步骤S106,根据处理后的激光雷达点云构建点云场景;
点云场景构建是指利用处理后的激光雷达点云并采用一些算法进行建模,形成点云场景。
步骤S108,将点云场景与待放样区域的现实场景进行配准;
具体的,通常是指将点云场景加载放置到现实场景中,然后采用一些算法(例如最小二乘法或人机交互方法等)将点云场景和现实场景进行融合匹配,从而完成配准(如图2所示)。
步骤S110,以配准后的点云场景的坐标为基准,在现实场景上放样。
具体的,放样是将一个二维形体对象作为沿某个路径的剖面,而形成复杂的三维对象。同一路径上可在不同的段给予不同的形体。可以利用放样来实现很多复杂模型的构建。工程上用于把图纸上的方案“搬挪”到实际现场。而在本实施例中,就是根据点云场景的坐标信息,从而在现实场景中放样。
上述激光雷达点云混合现实场景实施放样的方法,首选获取激光雷达点云数据,对这点云数据进行处理,处理后构建点云场景,然后将点云场景与现实场景融合配准,即可建立点云场景和现实场景的直接数据信息关联,直接实现不同数据源场景高精度数据一体化,实动态场景下能进行高精度测绘或者精准放样减少重复采集工作量和成本。
在其中一个实施例中,在现实场景上放样包括:
依据点云场景的相对坐标为基准,并根据点云场景与现实场景的相对应坐标关系,在现实场景上相对放样;或在点云场景的绝对坐标为基准,在现实场景中进行绝对坐标放样。
具体的,绝对坐标和相对坐标都是判定地理方位的重要指标。在有关方位的地理事物或者对有关地理事物进行定位中起到了重要意义。掌握好绝对坐标和相对坐标的异同点,对学习地理和提升地理读图能力具有极大的帮助。所谓绝对坐标,顾名思义也就是说他的标准是相对固定的,例如地球上的经纬度就是绝对的坐标。这样的坐标的特点就是不会因为参照物体的不同而改变。相当坐标是针对参考物而言,即某一物体以参考物为基准来确定该物体的相对坐标或位置。例如绝对坐标是不管目前你处于什么位置,从坐标原点到你的位置,X,Y,Z的值就是绝对坐标值,相对坐标的含义是相对上一点而言的,可以是你这一点的绝对坐标减去上一点的绝对坐标。
在本实施例中,放样分为相当放样和绝对放样,其中相当放样就是根据点云场景中某一点为基准(即相对坐标),然后根据点云场景与现实场景的相对应坐标关系为确定相对放样的位置,然后在该位置上完成相对放样;其中,所述坐标关系距离、角度等信息。另外,点云场景中具有完整的绝对坐标,可以根据待放样的物体的坐标信息在点云场景中确定放样的位置,然后在现实场景中相应的位置进行放样。
上述的方法使现实动态场景下能进行精准放样减少重复采集工作量和成本,即点云场景混合现实场景后可以直接利用MR技术对现实场景进行绝对坐标高精度的放样,效率高且精准。
在其中一个实施例中,如图3所示,在获取待放样区域的激光雷达点云数据的步骤中,包括:
步骤S202,从各采集设备中获取待放样区域的三维激光雷达点云数据;
步骤S204,对各三维激光雷达点云数据进行合并拼接,得到待放样区域的激光雷达点云数据。
具体的,采集设备包括有人飞行器、无人飞行器、地面车载、背负手持等激光雷达设备。每一个采集设备都能采集一种激光雷达数据,对每一种激光雷达数据进行合并拼接,得到待放样区域的激光雷达点云数据。采用上述方法可以多重激光雷达数据,使得得到的待放样区域的激光雷达点云数据更加全面且准确。
在其中一个实施例中,在根据处理后的激光雷达点云构建点云场景的步骤中,包括:
采取抽稀、切割分块的方法对处理后的激光雷达点云进行处理,构建影像金字塔的点云场景模式;
对点云场景模式进行分组,并按分组后的组类数量依次加载点云场景模式;
对加载的点云场景模式采用四叉树空间索引的方法进行构建优化,得到点云场景。
具体的,首先,对海量激光雷达点云数据采取抽稀、切割分块的方法,构建一种类似于影像金字塔的点云结构的点云场景模式;然后对点云场景模式中的激光雷达点云进行分组后按组类数量加载点云场景模式;再对加载的点云场景模式采用四叉树空间索引的方法进行构建优化,得到点云场景。采用多重方法进行建模,使得得到的点云场景更加精确。
在其中一个实施例中,将点云场景与待放样区域的现实场景进行配准的步骤中,包括:
对点云场景进行矩阵转换,并将矩阵转换后的点云场景通过MR设备投放到现实场景中;采用最小二乘法对点云场景和现实场景进行配准。
具体的,如图4所示,首先对点云场景通过矩阵转换,转换后通过MR设备投放到现实场景中;投放点云场景后通常采用同名点匹配方法进行点云场景和现实场景的配准;其中同名点匹配时可利用最小二乘法计算转换和人机交互方式进行和现实场景配准。
在其中一个实施例中,将点云场景与待放样区域的现实场景进行配准的步骤之后,还包括:
对现实场景进行相对测绘,并输出相对量测坐标;
具体的,对实景场景进行量测,通常可以是在实景场景中选择特征点,然后对特征点进行量测,得到测绘坐标;其中特征点可以选择多个,选择的越多,测绘结果越准确。
对相对量测坐标通过点云场景的绝对坐标进行转换,输出绝对量测坐标。
具体的,可以根据实景场景与点云场景之间的关系来确定点云场景测绘坐标。
在其中一种可选的实施例方式中,可以采用以下公式来对相对量测坐标通过点云场景的绝对坐标进行转换,
y1=y+S cosθ
x1=x+S sinθ
其中,点云场景坐标为(x,y),现实场景坐标为(x1,y1),θ为方位角,S为距离(如图5所示)。
在其中一个实施例中,如图6所示,将点云场景与待放样区域的现实场景进行配准的步骤中,还包括:
步骤302,从现实场景中获取属性信息和坐标信息;
其中,属性信息包括激光雷达点云分组信息、颜色信息等,其中分组是指对激光雷达点云按照单体化进行分组,其中每一组的激光雷达点云数据表示一个单体物;分组信息包括分组方式、分组数量等;颜色信息是指现实场景中激光雷达点云的颜色。
步骤304,根据坐标信息对激光雷达点云进行坐标修改,并根据属性信息对激光雷达点云进行属性修改,得到修改后的点云场景;
具体的,在点云场景与现实场景进行配准融合时,点云场景与现实场景可能会存在一些差异,例如属性或者坐标不同,因此,在本实施例中可以根据现实场景的属性信息和坐标信息对点云场景进行修改。上述的方法可以使得得到的点云场景更加准确,从而确保点云场景与现实场景配准度更高。
应该理解的是,虽然图1-6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-6中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,一种激光雷达点云混合现实场景实施放样的系统,系统包括:
数据获取模块10,用于获取待放样区域的激光雷达点云数据;
点云获得模块20,用于对激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
点云场景构建模块30,用于根据处理后的激光雷达点云构建点云场景;
配准模块40,用于将点云场景与待放样区域的现实场景进行配准;
放样模块50,用于以配准后的点云场景的坐标为基准,在现实场景上放样。
在其中一个实施例中,放样模块包括:
相对放样模块,用于依据点云场景的相对坐标为基准,并根据点云场景与现实场景的相对应坐标关系,在现实场景上相对放样;或绝对放样模块,在点云场景的绝对坐标为基准,在现实场景中进行绝对坐标放样。
在其中一个实施例中,数据获取模块包括:
激光雷达数据获取模块,用于各采集设备中获取待放样区域的三维激光雷达点云数据;
点云数据获得模块,用于对各三维激光雷达点云数据进行合并拼接,得到待放样区域的激光雷达点云数据。
在其中一个实施例中,点云获得模块包括:
坐标转化模块,用于将激光雷达点云数据的相对坐标转换成绝对坐标;
分组模块,用于对激光雷达点云数据进行单体化分组处理,其中每一组的激光雷达点云数据表示一个单体物;
属性赋予模块,用于对每一组单体化的激光雷达点云数据赋予颜色属性。
在其中一个实施例中,点云场景构建模块包括:
点云场景模块构建模块,用于采取抽稀、切割分块的方法对处理后的激光雷达点云进行处理,构建影像金字塔的点云场景模式;
点云场景模式加载模块,用于对点云场景模式进行分组,并按分组后的组类数量依次加载点云场景模式;
点云场景获得模块,用于对加载的点云场景模式采用四叉树空间索引的方法进行构建优化,得到点云场景。
在其中一个实施例中,还包括:
相对量测坐标输出模块,用于对现实场景进行相对测绘,并输出相对量测坐标;
绝对量测坐标输出模块,用于对相对量测坐标通过点云场景的绝对坐标进行转换,输出绝对量测坐标。
在其中一个实施例中,配准模块包括:
信息提取模块,用于从现实场景中获取属性信息和坐标信息;
点云场景修改模块,用于根据坐标信息对激光雷达点云进行坐标修改,并根据属性信息对激光雷达点云进行属性修改,得到修改后的点云场景。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储故障事例数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种激光雷达点云混合现实场景实施放样的方法。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取待放样区域的激光雷达点云数据;
对激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
根据处理后的激光雷达点云构建点云场景;
将点云场景与待放样区域的现实场景进行配准;
以配准后的点云场景的坐标为基准,在现实场景上放样。
在其中一个实施例中,处理器执行计算机程序时实现以下步骤:
在现实场景上放样包括:
依据点云场景的相对坐标为基准,并根据点云场景与现实场景的相对应坐标关系,在现实场景上相对放样;或在点云场景的绝对坐标为基准,在现实场景中进行绝对坐标放样。
在其中一个实施例中,处理器执行计算机程序时实现以下步骤:
从各采集设备中获取待放样区域的三维激光雷达点云数据,
对各三维激光雷达点云数据进行合并拼接,得到待放样区域的激光雷达点云数据。
在其中一个实施例中,处理器执行计算机程序时实现以下步骤:
将激光雷达点云数据的相对坐标转换成绝对坐标;
对激光雷达点云数据进行单体化分组处理,其中每一组的激光雷达点云数据表示一个单体物;
对每一组单体化的激光雷达点云数据赋予属性。
在其中一个实施例中,处理器执行计算机程序时实现以下步骤:
采取抽稀、切割分块的方法对处理后的激光雷达点云进行处理,构建影像金字塔的点云场景模式;
对点云场景模式进行分组,并按分组后的组类数量依次加载点云场景模式;
对加载的点云场景模式采用四叉树空间索引的方法进行构建优化,得到点云场景。
在其中一个实施例中,处理器执行计算机程序时实现以下步骤:
将点云场景与待放样区域的现实场景进行配准的步骤之后,还包括:
对现实场景进行相对测绘,并输出相对量测坐标;
对相对量测坐标通过云场景的绝对坐标进行转换,输出绝对量测坐标。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待放样区域的激光雷达点云数据;
对激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
根据处理后的激光雷达点云构建点云场景;
将点云场景与待放样区域的现实场景进行配准;
以配准后的点云场景的坐标为基准,在现实场景上放样。
在其中一个实施例中,计算机程序被处理器执行时实现以下步骤:
在现实场景上放样包括:
依据点云场景的相对坐标为基准,并根据点云场景与现实场景的相对应坐标关系,在现实场景上相对放样;或在点云场景的绝对坐标为基准,在现实场景中进行绝对坐标放样。
在其中一个实施例中,计算机程序被处理器执行时实现以下步骤:
在获取待放样区域的激光雷达点云数据的步骤中,包括:
从各采集设备中获取待放样区域的三维激光雷达点云数据,
对各三维激光雷达点云数据进行合并拼接,得到待放样区域的激光雷达点云数据。
在其中一个实施例中,计算机程序被处理器执行时实现以下步骤:
将激光雷达点云数据的相对坐标转换成绝对坐标;
对激光雷达点云数据进行单体化分组处理,其中每一组的激光雷达点云数据表示一个单体物;
对每一组单体化的激光雷达点云数据赋予属性。
在其中一个实施例中,计算机程序被处理器执行时实现以下步骤:
采取抽稀、切割分块的方法对处理后的激光雷达点云进行处理,构建影像金字塔的点云场景模式;
对点云场景模式进行分组,并按分组后的组类数量依次加载点云场景模式;
对加载的点云场景模式采用四叉树空间索引的方法进行构建优化,得到点云场景。
在其中一个实施例中,计算机程序被处理器执行时实现以下步骤:
对点云场景进行矩阵转换,并将矩阵转换后的点云场景通过MR设备投放到现实场景中;
采用最小二乘法对点云场景和现实场景进行配准。
在其中一个实施例中,计算机程序被处理器执行时实现以下步骤:
将点云场景与待放样区域的现实场景进行配准的步骤之后,还包括:
对现实场景进行相对测绘,并输出相对量测坐标;
对相对量测坐标通过云场景的绝对坐标进行转换,输出绝对量测坐标。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (4)
1.一种激光雷达点云混合现实场景实施放样的方法,所述方法包括:
获取待放样区域的激光雷达点云数据;
对所述激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
根据所述处理后的激光雷达点云构建点云场景;
将所述点云场景与待放样区域的现实场景进行配准;
以配准后的所述点云场景的坐标为基准,在所述现实场景上放样;
在获取待放样区域的激光雷达点云数据的步骤中,包括:
从各采集设备中获取待放样区域的三维激光雷达点云数据,
对各所述三维激光雷达点云数据进行合并拼接,得到所述待放样区域的激光雷达点云数据;
对所述激光雷达点云数据赋予坐标和属性处理的步骤中,包括:
将所述激光雷达点云数据的相对坐标转换成绝对坐标;
对所述激光雷达点云数据进行单体化分组处理,其中每一组的激光雷达点云数据表示一个单体物;
对每一组单体化的所述激光雷达点云数据赋予颜色属性;
在根据所述处理后的激光雷达点云构建点云场景的步骤中,包括:
采取抽稀、切割分块的方法对所述处理后的激光雷达点云进行处理,构建影像金字塔的点云场景模式;
对所述点云场景模式进行分组,并按分组后的组类数量依次加载所述点云场景模式;
对加载的所述点云场景模式采用四叉树空间索引的方法进行构建优化,得到所述点云场景;
将所述点云场景与待放样区域的现实场景进行配准的步骤中,包括:
对所述点云场景进行矩阵转换,并将矩阵转换后的所述点云场景通过MR设备投放到现实场景中;
采用最小二乘法对所述点云场景和所述现实场景进行配准;
将点云场景与待放样区域的现实场景进行配准的步骤中,还包括:
从现实场景中获取属性信息和坐标信息;
根据坐标信息对激光雷达点云进行坐标修改,并根据属性信息对激光雷达点云进行属性修改,得到修改后的点云场景;
将所述点云场景与待放样区域的现实场景进行配准的步骤之后,还包括:
对所述现实场景进行相对测绘,并输出相对量测坐标;
对所述相对量测坐标通过所述点云场景的绝对坐标进行转换,输出绝对量测坐标;
采用以下公式来对相对量测坐标通过点云场景的绝对坐标进行转换,
y1=y+S cosθ,
x1=x+S sinθ,
其中,点云场景坐标为(x,y),现实场景坐标为(x1,y1),θ为方位角,S为距离;
在所述现实场景上放样包括:
依据所述点云场景的相对坐标为基准,并根据所述点云场景与所述现实场景的相对应坐标关系,在所述现实场景上相对放样;或依据所述点云场景的绝对坐标为基准,在所述现实场景中进行绝对坐标放样。
2.一种激光雷达点云混合现实场景实施放样的系统,其特征在于,所述系统包括:
数据获取模块,用于获取待放样区域的激光雷达点云数据;
点云获得模块,用于对所述激光雷达点云数据赋予坐标和属性处理,得到处理后的激光雷达点云;
点云场景构建模块,用于根据所述处理后的激光雷达点云构建点云场景;
配准模块,用于将所述点云场景与待放样区域的现实场景进行配准;
将所述点云场景与待放样区域的现实场景进行配准的步骤中,包括:
对所述点云场景进行矩阵转换,并将矩阵转换后的所述点云场景通过MR设备投放到现实场景中;
采用最小二乘法对所述点云场景和所述现实场景进行配准;
放样模块,用于以配准后的所述点云场景的坐标为基准,在所述现实场景上放样;
数据获取模块包括:
激光雷达数据获取模块,用于各采集设备中获取待放样区域的三维激光雷达点云数据;
点云数据获得模块,用于对各三维激光雷达点云数据进行合并拼接,得到待放样区域的激光雷达点云数据;
点云获得模块包括:
坐标转化模块,用于将激光雷达点云数据的相对坐标转换成绝对坐标;
分组模块,用于对激光雷达点云数据进行单体化分组处理,其中每一组的激光雷达点云数据表示一个单体物;
属性赋予模块,用于对每一组单体化的激光雷达点云数据赋予颜色属性;
点云场景构建模块包括:
点云场景模块构建模块,用于采取抽稀、切割分块的方法对处理后的激光雷达点云进行处理,构建影像金字塔的点云场景模式;
点云场景模式加载模块,用于对点云场景模式进行分组,并按分组后的组类数量依次加载点云场景模式;
点云场景获得模块,用于对加载的点云场景模式采用四叉树空间索引的方法进行构建优化,得到点云场景;
配准模块包括:
信息提取模块,用于从现实场景中获取属性信息和坐标信息;
点云场景修改模块,用于根据坐标信息对激光雷达点云进行坐标修改,并根据属性信息对激光雷达点云进行属性修改,得到修改后的点云场景;
相对量测坐标输出模块,用于对现实场景进行相对测绘,并输出相对量测坐标;
绝对量测坐标输出模块,用于对相对量测坐标通过点云场景的绝对坐标进行转换,输出绝对量测坐标;
采用以下公式来对相对量测坐标通过点云场景的绝对坐标进行转换,
y1=y+S cosθ,
x1=x+S sinθ,
其中,点云场景坐标为(x,y),现实场景坐标为(x1,y1),θ为方位角,S为距离;
放样模块包括:
相对放样模块,用于依据点云场景的相对坐标为基准,并根据点云场景与现实场景的相对应坐标关系,在现实场景上相对放样;或绝对放样模块,依据点云场景的绝对坐标为基准,在现实场景中进行绝对坐标放样。
3.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1所述方法的步骤。
4.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910621191.6A CN110322553B (zh) | 2019-07-10 | 2019-07-10 | 激光雷达点云混合现实场景实施放样的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910621191.6A CN110322553B (zh) | 2019-07-10 | 2019-07-10 | 激光雷达点云混合现实场景实施放样的方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110322553A CN110322553A (zh) | 2019-10-11 |
CN110322553B true CN110322553B (zh) | 2024-04-02 |
Family
ID=68123178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910621191.6A Active CN110322553B (zh) | 2019-07-10 | 2019-07-10 | 激光雷达点云混合现实场景实施放样的方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110322553B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112862882A (zh) * | 2021-01-28 | 2021-05-28 | 北京格灵深瞳信息技术股份有限公司 | 目标距离测量方法,装置,电子设备及存储介质 |
CN117368869B (zh) * | 2023-12-06 | 2024-03-19 | 航天宏图信息技术股份有限公司 | 雷达三维威力范围的可视化方法、装置、设备及介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103366250A (zh) * | 2013-07-12 | 2013-10-23 | 中国科学院深圳先进技术研究院 | 基于三维实景数据的市容环境检测方法及系统 |
CN107392944A (zh) * | 2017-08-07 | 2017-11-24 | 广东电网有限责任公司机巡作业中心 | 全景影像与点云的配准方法及装置 |
CN108648272A (zh) * | 2018-04-28 | 2018-10-12 | 上海激点信息科技有限公司 | 三维实景采集建模方法、可读存储介质及装置 |
CN108665536A (zh) * | 2018-05-14 | 2018-10-16 | 广州市城市规划勘测设计研究院 | 三维与实景数据可视化方法、装置与计算机可读存储介质 |
CN109003326A (zh) * | 2018-06-05 | 2018-12-14 | 湖北亿咖通科技有限公司 | 一种基于虚拟世界的虚拟激光雷达数据生成方法 |
CN109523578A (zh) * | 2018-08-27 | 2019-03-26 | 中铁上海工程局集团有限公司 | 一种bim模型与点云数据的匹配方法 |
CN109633665A (zh) * | 2018-12-17 | 2019-04-16 | 北京主线科技有限公司 | 交通场景稀疏激光点云拼接方法 |
CN109945845A (zh) * | 2019-02-02 | 2019-06-28 | 南京林业大学 | 一种私家园林空间数字化测绘和三维可视化方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945198B (zh) * | 2016-10-13 | 2021-02-23 | 北京百度网讯科技有限公司 | 用于标注点云数据的方法和装置 |
US10546427B2 (en) * | 2017-02-15 | 2020-01-28 | Faro Technologies, Inc | System and method of generating virtual reality data from a three-dimensional point cloud |
CN107093210B (zh) * | 2017-04-20 | 2021-07-16 | 北京图森智途科技有限公司 | 一种激光点云标注方法及装置 |
CN108230379B (zh) * | 2017-12-29 | 2020-12-04 | 百度在线网络技术(北京)有限公司 | 用于融合点云数据的方法和装置 |
-
2019
- 2019-07-10 CN CN201910621191.6A patent/CN110322553B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103366250A (zh) * | 2013-07-12 | 2013-10-23 | 中国科学院深圳先进技术研究院 | 基于三维实景数据的市容环境检测方法及系统 |
CN107392944A (zh) * | 2017-08-07 | 2017-11-24 | 广东电网有限责任公司机巡作业中心 | 全景影像与点云的配准方法及装置 |
CN108648272A (zh) * | 2018-04-28 | 2018-10-12 | 上海激点信息科技有限公司 | 三维实景采集建模方法、可读存储介质及装置 |
CN108665536A (zh) * | 2018-05-14 | 2018-10-16 | 广州市城市规划勘测设计研究院 | 三维与实景数据可视化方法、装置与计算机可读存储介质 |
CN109003326A (zh) * | 2018-06-05 | 2018-12-14 | 湖北亿咖通科技有限公司 | 一种基于虚拟世界的虚拟激光雷达数据生成方法 |
CN109523578A (zh) * | 2018-08-27 | 2019-03-26 | 中铁上海工程局集团有限公司 | 一种bim模型与点云数据的匹配方法 |
CN109633665A (zh) * | 2018-12-17 | 2019-04-16 | 北京主线科技有限公司 | 交通场景稀疏激光点云拼接方法 |
CN109945845A (zh) * | 2019-02-02 | 2019-06-28 | 南京林业大学 | 一种私家园林空间数字化测绘和三维可视化方法 |
Non-Patent Citations (2)
Title |
---|
基于粒子群优化的点云场景拼接算法;张军等;《国防科技大学学报》;第35卷(第5期);第174-179页 * |
海量激光雷达点云数据的多尺度可视化高效管理;余飞;《工程勘察》;20160930;第69-73页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110322553A (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bosch et al. | A multiple view stereo benchmark for satellite imagery | |
US10297074B2 (en) | Three-dimensional modeling from optical capture | |
US8179393B2 (en) | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment | |
CN106097348A (zh) | 一种三维激光点云与二维图像的融合方法 | |
CN111080682B (zh) | 点云数据的配准方法及装置 | |
CN112528508B (zh) | 电磁可视化方法和装置 | |
Jebur et al. | Assessing the performance of commercial Agisoft PhotoScan software to deliver reliable data for accurate3D modelling | |
KR20180053724A (ko) | 명시야 콘텐츠를 인코딩하기 위한 방법 | |
CN105913372A (zh) | 二维房型平面图转换为三维空间图的方法及其系统 | |
CN110322553B (zh) | 激光雷达点云混合现实场景实施放样的方法和系统 | |
Zhang et al. | Natural forest ALS-TLS point cloud data registration without control points | |
Pyka et al. | LiDAR-based method for analysing landmark visibility to pedestrians in cities: case study in Kraków, Poland | |
CN114413849A (zh) | 一种输变电工程三维地理信息数据处理方法及装置 | |
CN106291756B (zh) | 临近空间大气虚拟环境资源的构建方法 | |
Baltabayev et al. | Virtual reality for sensor data visualization and analysis | |
Zhang et al. | Three-dimensional modeling and indoor positioning for urban emergency response | |
Ma et al. | Low‐Altitude Photogrammetry and Remote Sensing in UAV for Improving Mapping Accuracy | |
Lu | [Retracted] Algorithm of 3D Virtual Reconstruction of Ancient Buildings in Qing Dynasty Based on Image Sequence | |
Cho et al. | Application of a terrestrial lidar system for elevation mapping in terra nova bay, antarctica | |
Jazayeri | Trends in 3D land information collection and management | |
Kim et al. | Data simulation of an airborne lidar system | |
Ni et al. | A method for the registration of multiview range images acquired in forest areas using a terrestrial laser scanner | |
CN113066188A (zh) | 一种用于室外施工作业的三维仿真方法及设备 | |
CN117036511B (zh) | 多类型传感器的标定方法、装置、计算机设备和存储介质 | |
Xu et al. | Registration of oblique photography point clouds with terrestrial laser scanning point clouds based on geometric features of irregular building |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |