[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101798132B1 - 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법 - Google Patents

로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법 Download PDF

Info

Publication number
KR101798132B1
KR101798132B1 KR1020160179376A KR20160179376A KR101798132B1 KR 101798132 B1 KR101798132 B1 KR 101798132B1 KR 1020160179376 A KR1020160179376 A KR 1020160179376A KR 20160179376 A KR20160179376 A KR 20160179376A KR 101798132 B1 KR101798132 B1 KR 101798132B1
Authority
KR
South Korea
Prior art keywords
plane
data matrix
modeling
information
robot
Prior art date
Application number
KR1020160179376A
Other languages
English (en)
Inventor
박재한
배지훈
백문홍
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020160179376A priority Critical patent/KR101798132B1/ko
Application granted granted Critical
Publication of KR101798132B1 publication Critical patent/KR101798132B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법에 관한 것으로서, 더욱 상세히는 3차원 센서로부터 작업 환경의 스캔을 통해 생성한 점군 정보의 정보량을 축소하여 해당 작업 환경에서 작업하는 로봇의 장애물 검출에 필요한 처리 시간을 단축하고, 충돌 검사에 대한 실시간성을 보장하는 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법에 관한 것이다. 본 발명은 로봇의 작업 환경에서 특정 작업 공간을 점유하여 로봇과의 충돌이 발생할 수 있는 장애물을 평면만으로 모델링할 수 있으므로, 기존과 같이 높은 해상도의 점군 정보를 이용하여 내부 공간까지 세부적으로 모델링하는 기존 방식에 비해 점군 정보를 단일 평면으로 압축하여 모델링함으로써 작업 환경의 모델링에 소요되는 시간이나 부하를 획기적으로 감소시켜 로봇의 동작 과정에서 충돌 여부를 고속으로 판단할 수 있도록 지원할 수 있으며, 이를 통해 로봇의 동작에 대한 실시간성 및 신속한 반응성을 개선하는 효과가 있다.

Description

로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법{Modeling apparatus and method of work environment for high-speed collision detection of robot}
본 발명은 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법에 관한 것으로서, 더욱 상세히는 3차원 센서로부터 작업 환경의 스캔을 통해 생성한 점군 정보의 정보량을 축소하여 해당 작업 환경에서 작업하는 로봇의 장애물 검출에 필요한 처리 시간과 부하를 감소시켜, 충돌 검사에 대한 실시간성을 보장하는 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법에 관한 것이다.
현재 로봇 기술의 발전과 더불어 다양한 작업 환경에서 로봇을 이용한 자동 공정화가 진행되고 있으며, 이를 통해 공정의 작업 효율을 향상시키는 동시에 생산성을 높이고 있다.
최근 기업 간 경쟁이 심화되는 상황 속에서 제품 다변화와 지속적인 신제품의 개발이 요구되고 있으며, 이에 적극적으로 대처하기 위해 기업의 작업 환경 역시 수시로 가변되고 있다.
따라서, 이러한 복잡하고 변화가 발생할 수 있는 동적 작업환경에서 동작하는 로봇이 해당 작업 환경에 실시간으로 적응하는 것이 필수적으로 요구되며, 이러한 작업 환경의 변화에 따라 로봇의 작업에 장애가 될 수 있는 다양한 장애물이 로봇의 작업 환경 내에 존재한다.
이에 따라, 로봇이 이러한 장애물을 피해 충돌없이 안정적으로 작업하기 위해서는 3차원 센서 등을 이용하여 로봇의 작업 환경에 대한 정보를 얻은 후 이를 이용하여 실시간으로 충돌에 대한 계산을 수행해야 한다.
일반적으로 3차원 센서의 정보는 점군(Point-cloud) 형태로 제공되는데, 기존의 로봇에 적용되는 작업 환경의 모델링 관련 시스템은 작업 공간에 대한 정밀도를 우선시하여 높은 해상도의 점군 데이터를 확보한 후 이를 기반으로 생성되는 작업 환경에 대한 3차원 모델의 품질을 높이는데 주안을 두었다.
이로 인해, 센서의 해상도가 높거나 인식 범위가 넓어질수록 점군 데이터의 개수가 많아지게 되어 작업 환경의 인식에 요구되는 부하가 증가하게 되며, 이는 로봇이 작업 과정에서 장애물과의 충돌 여부를 검출하기 위한 처리 시간을 증가시키게 되므로 로봇의 실시간성 및 반응성이 현저하게 떨어지게 되며 작업 효율이 지나치게 저하되는 문제점이 발생한다.
한국등록특허 제10-1388749호
상술한 문제점을 해결하기 위하여, 본 발명은 로봇의 작업 환경에 대한 3차원 모델링을 단순화하여 작업 환경에 대한 3차원 모델링에 필요한 처리 시간과 부하를 감소시키고, 이를 기반으로 작업 환경에 따른 작업 공간 내에 위치하는 장애물과 로봇 사이의 충돌 여부를 고속 검출할 수 있도록 지원하여 로봇의 동작에 대한 실시간성을 보장하는 동시에 직접 반응성을 높일 수 있도록 지원하는데 그 목적이 있다.
또한, 본 발명은 작업 환경의 모델링에 이용되는 점군 데이터를 압축하여 충돌 여부의 검사가 가능한 정도의 수준으로 작업 환경을 모델링함으로써, 작업 환경의 모델링에 요구되는 부하를 최소화하여 로봇의 충돌 여부 검출에 대한 효율성을 높이는 동시에 작업 환경이 변화되는 경우에도 로봇이 적응적으로 대처할 수 있도록 지원하는데 그 목적이 있다.
본 발명의 실시예에 다른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치는 로봇의 작업 환경을 스캔하여 생성된 점군 정보를 수신하는 입력부와, 상기 점군 정보에 따른 깊이 정보를 기반으로 얻어지는 깊이 이미지의 좌표를 기준으로 클러스터링하는 클러스터링부와, 각 클러스터의 영상 좌표 영역에 속하는 점군의 데이터 행렬을 구성하고 해당 데이터 행렬의 랭크를 통해 평면 분포 여부를 확인하여 클러스터의 평면 여부를 판단하고 평면이 아닌 경우 클러스터를 세분화하여 재확인하는 평면 판단부 및 평면으로 판단된 클러스터를 평면 다각형이나 육면체로 모델링하여 데이터량을 줄이는 모델링부를 포함할 수 있다.
본 발명과 관련된 일 예로서, 상기 평면 판단부는 하기 수학식을 통해
Figure 112016127554320-pat00001
M개의 점으로 구성된 상기 점군의 데이터 행렬인
Figure 112016127554320-pat00002
을 구성하며, 상기
Figure 112016127554320-pat00003
는 점군에 속한 점이며, 상기 x, y, z는 점군 정보에 따른 점의 좌표인 것을 특징으로 할 수 있다.
본 발명과 관련된 일 예로서, 상기 평면 판단부는 상기 점군의 중심점인
Figure 112016127554320-pat00004
Figure 112016127554320-pat00005
을 통해 산출하고, 상기 중심점을 기준으로 상기 데이터 행렬을 이동시켜, 상기 데이터 행렬에 대한 특이값 분해를 수행하며, 0이 아닌 특이값의 수를 연산하여 상기 데이터 행렬의 랭크를 판별하는 것을 특징으로 할 수 있다.
본 발명과 관련된 일 예로서, 상기 평면 판단부는 상기 데이터 행렬의 랭크가 2 이고, 하기 수학식
Figure 112016127554320-pat00006
를 만족하는지 여부에 따라 상기 데이터 행렬의 평면 여부를 판단하는 것을 특징으로 할 수 있다.
본 발명과 관련된 일 예로서, 상기 모델링부는 상기 평면 판단부와 연동하여 평면으로 판단된 데이터 행렬의 특이값 분해를 통해 얻은 정보를 기초로 상기 육면체 정보를 생성하거나, 상기 평면으로 판단된 클러스터에 속한 점들 중 영상 좌표에서의 모서리 정보에 해당하는 점을 상기 다각형의 꼭짓점으로 하여 다각형 정보를 생성하는 것을 특징으로 할 수 있다.
본 발명과 관련된 일 예로서, 상기 모델링부는 상기 특이값 분해를 통해 얻은 정보와 미리 설정된 OBB(Oriented Bounding Box) 알고리즘을 기반으로 평면으로 판단된 클러스터에 대응되는 상기 점군 정보를 육면체로 모델링하는 것을 특징으로 할 수 있다.
본 발명과 관련된 일 예로서, 상기 모델링부는 상기 평면으로 판단된 서로 다른 복수의 클러스터 각각을 상기 평면 다각형이나 육면체로 모델링하여 상기 작업 환경에 대한 모델 정보를 생성하고, 상기 모델 정보를 상기 로봇에 전송하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치의 로봇의 작업 환경에 대한 모델링 방법은, 3차원 센서로부터 얻어진 작업 환경에 대한 점군 정보에 따른 깊이 정보를 기반으로 얻어지는 깊이 이미지의 좌표를 기준으로 클러스터링하는 단계와, 각 클러스터의 영상 좌표 영역에 속하는 점군의 데이터 행렬을 구성하고 해당 행렬의 랭크를 통해 평면 분포 여부를 확인하여 클러스터의 평면 여부를 판단하고 평면이 아닌 경우 클러스터를 세분화하여 재확인하는 단계 및 평면으로 판단된 클러스터를 평면 다각형이나 육면체로 모델링하여 데이터량을 줄이는 단계를 포함할 수 있다.
본 발명은 로봇의 작업 환경에서 특정 작업 공간을 점유하여 로봇과의 충돌이 발생할 수 있는 장애물을 평면만으로 모델링할 수 있으므로, 기존과 같이 높은 해상도의 점군 정보를 이용하여 내부 공간까지 세부적으로 모델링하는 기존 방식에 비해 점군 정보를 단일 평면으로 압축하여 모델링함으로써 작업 환경의 모델링에 소요되는 시간이나 부하를 획기적으로 감소시켜 로봇의 동작 과정에서 충돌 여부를 고속으로 판단할 수 있도록 지원할 수 있으며, 이를 통해 로봇의 동작에 대한 실시간성 및 신속한 반응성을 개선하는 효과가 있다.
또한, 본 발명은 작업 환경의 모델링에 이용되는 점군 정보를 압축하여 충돌 여부의 검사가 가능한 정도의 수준으로 작업 환경을 모델링함으로써, 작업 환경의 모델링에 요구되는 부하를 최소화하여 로봇의 충돌 여부 검출에 대한 효율성을 높이는 동시에 작업 환경이 변화되는 경우에도 로봇이 적응적으로 대처할 수 있도록 지원하는 효과가 있다.
도 1은 본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치의 구성도.
도 2는 본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치의 클러스터링 과정에 대한 예시도.
도 3 및 도 4는 본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치의 클러스터별 평면 여부 판단에 대한 동작 예시도.
도 5 및 도 6은 본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치의 모델링 과정에 대한 동작 예시도.
도 7은 본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치의 모델링을 통해 생성된 작업 환경 모델에 대한 예시도.
도 8은 본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 방법에 대한 순서도.
이하, 도면을 참고하여 본 발명의 상세 실시예를 설명한다.
우선, 도 1은 본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치(100)에 대한 구성도서, 도시된 바와 같이 입력부(110), 클러스터링부(120), 평면 판단부(130) 및 모델링부(140)를 포함할 수 있다.
상기 각 구성부의 동작 구성을 이하 도면을 통해 상세히 설명한다.
우선, 상기 입력부(110)는 3차원 센서를 통해 로봇(robot)의 작업 환경을 구성하는 작업 공간 및 장애물 등을 스캔하여 생성된 3차원의 점군(Point-cloud) 정보(또는 점군 데이터)를 입력으로 수신하고, 해당 점군 정보를 상기 클러스터링부(120)로 제공할 수 있다.
이때, 상기 작업 환경 모델링 장치(100)는 상기 3차원 센서를 포함하는 센서부를 더 포함하여 구성될 수도 있다.
이때, 상기 작업 환경은 로봇의 작업 공간과 상기 작업 공간 중 일부 공간을 점유하고 있는 장애물 등을 포함할 수 있으며, 해당 장애물은 시설 설비, 벽체 등을 포함할 수 있다.
한편, 도 2에 도시된 바와 같이 상기 클러스터링부(120)는 상기 점군 정보에 포함된 깊이정보를 기반으로 깊이 이미지를 생성할 수 있으며, 상기 깊이 이미지에 대하여 미리 설정된 영상 좌표계를 적용할 수 있다.
또한, 상기 클러스터링부(120)는 상기 깊이 이미지에 적용된 영상 좌표계에 따른 영상 좌표를 기준으로 상기 점군 정보를 블럭(block) 형태로 클러스터링(clustering)할 수 있으며, 이를 통해 복수의 서로 다른 클러스터(cluster)를 생성할 수 있다.
이때, 상기 클러스터링부(120)는 상기 클러스터의 크기를 다양하게 구성할 수 있으며, 일반적으로 상기 클러스터의 크기는
Figure 112016127554320-pat00007
픽셀(pixel) 단위로 구성할 수 있다. 또한, 상기 클러스터링을 통해 생성된 모든 클러스터의 크기는 상호 동일할 수 있다.
일례로, 상기 클러스터링부(120)는 상기 깊이 이미지에 좌표계를 적용하여 블럭 형태를 구성하는 서로 다른 복수의 영상 좌표를 클러스터링하여 상기 블럭 형태에 대응되는 클러스터를 생성할 수 있다.
기존의 모델링(modeling) 방법에서 점들의 3차원 위치정보를 이용하는 것에 비해 본 발명은 영상 좌표만을 이용하므로 간단하고 신속하게 점군 정보를 클러스터로 나눌 수 있다.
한편, 상기 평면 판단부(130)는 상기 클러스터링부(120)와 연동하여 상기 복수의 서로 다른 클러스터 각각에 대한 평면 여부를 확인하고, 평면이 아닌 경우 상기 평면이 아닌 블럭 형태의 클러스터를 동일 크기를 가진 서로 다른 복수의 블럭으로 분할하여 평면 여부를 재확인함으로써, 평면이 완성될 때까지 클러스터를 분할하여 세분화하는 과정을 반복할 수 있다.
이를 도 3 및 도 4를 참고로 상세히 설명하면, 상기 평면 판단부(130)는 상기 클러스터링부(120)로부터 상기 각 클러스터에 대한 정보를 수신할 수 있다.
또한, 도 3에 도시된 바와 같이 상기 평면 판단부(130)는 특정 클러스트에 대하여 상기 특정 클러스터를 구성하는 영상 좌표 영역에 속한 점군 정보를 취합하여 데이터 행렬을 구성할 수 있다.
일례로, 상기 평면 판단부(130)는 상기 영상 좌표 영역에 속한 복수의 서로 다른 점(
Figure 112016127554320-pat00008
)으로 구성된 점군 정보를 이용하여 하기의 수학식 1과 같은 데이터 행렬(
Figure 112016127554320-pat00009
)을 생성할 수 있다.
Figure 112016127554320-pat00010
상기 데이터 행렬은 도시된 바와 같이 클러스터의 영상 좌표 영역에 속한 M개의 점(
Figure 112016127554320-pat00011
)으로 구성된 점군 정보를 이용하여 구성되며, 상기 x, y, z는 점군 정보에 따른 점의 좌표를 의미할 수 있다.
또한, 도 4(a)에 도시된 바와 같이 상기 평면 판단부(130)는 하기 수학식 2를 통해 상기 M개의 점(p)으로 구성된 상기 데이터 행렬(
Figure 112016127554320-pat00012
)의 중심점(
Figure 112016127554320-pat00013
)을 산출할 수 있다. 이때, 상기 p와
Figure 112016127554320-pat00014
는 상호 동일할 수 있다.
Figure 112016127554320-pat00015
이후, 도 4(b)에 도시된 바와 같이 상기 평면 판단부(130)는 특이값 분해를 위해 미리 설정된 특이값 분해 관련 좌표계의 원점을 상기 데이터 행렬(
Figure 112016127554320-pat00016
)의 중심점(
Figure 112016127554320-pat00017
)과 일치시키기 위하여 하기 수학식 3을 통해 상기 데이터 행렬(
Figure 112016127554320-pat00018
)의 중심점(
Figure 112016127554320-pat00019
)을 기준으로 상기 데이터 행렬을 구성하는 각 점(
Figure 112016127554320-pat00020
)을 이동시켜 상기 원점과 중심점이 일치된 데이터 행렬(
Figure 112016127554320-pat00021
)을 생성할 수 있다.
다시 말해, 상기 평면 판단부(130)는 상기 데이터 행렬(
Figure 112016127554320-pat00022
)의 중심점(
Figure 112016127554320-pat00023
)이 원점이 되도록 상기 중심점을 기준으로 상기 데이터 행렬(
Figure 112016127554320-pat00024
)을 이동시켜 상기 원점과 중심점이 일치된 데이터 행렬(
Figure 112016127554320-pat00025
)을 생성할 수 있다.
Figure 112016127554320-pat00026
이후, 도 4(c)에 도시된 바와 같이 상기 평면 판단부(130)는 상기 특정 클러스터에 대응되는 데이터 행렬의 중심점(중심 좌표)을 상기 특이값 분해 관련 좌표계의 원점으로 이동시켜 생성한 데이터 행렬(
Figure 112016127554320-pat00027
)에 대하여 하기 수학식 4에 따른 미리 설정된 특이값 분해(SVD: Singular Value Decomposition)를 수행하여 상기 특정 클러스터에 대응되는 데이터 행렬의 랭크(rank)를 구할 수 있다.
Figure 112016127554320-pat00028
이때, y=Ax라는 선형변환에서 A를 상기 수학식 4의
Figure 112016127554320-pat00029
로 나타낼 수 있으며, 이에 따라 상기 S는 특이값 행렬로서 변환시 가감되는 이득을 대각행렬 형태로 나타낸 것이며, U는 출력측 특이벡터로서 특이값이 나오는 출력 y의 방향벡터를 나타낸 것이고, V는 입력측 특이벡터로서 특이값이 나오는 입력 x의 방향벡터를 나타낸 것이다.
일례로, 상기 평면 판단부(130)는 상기 특이값 분해를 통해 얻어지는 특이값의 수를 연산하고, 상기 특이값의 수를 통해 얻어진 데이터 행렬의 랭크(rank)를 판단하여 상기 특정 클러스터를 구성하는 점군에 속한 점들의 분포가 평면을 구성하는지 여부를 판단할 수 있다.
즉, 상기 데이터 행렬의 랭크는 데이터 분포의 차원을 나타내므로 1이라면 점군이 직선의 형태로 분포하고 있으며 랭크가 2이면 점군이 하나의 평면에 분포하고 있으며, 랭크가 3이면 3차원 공간에 분포하고 있음을 나타낸다.
이때, 데이터 행렬의 크기는
Figure 112016127554320-pat00030
으로 최대 랭크는 3이며, 상기 평면 판단부(130)는 상기 데이터 행렬의 랭크를 0이 아닌(0을 제외한) 특이값의 수를 세어서 파악할 수 있다.
상술한 구성을 통해, 상기 평면 판단부(130)는 클러스터링된 서로 다른 복수의 클러스터 각각에 대응되는 복수의 서로 다른 점군 정보들에 대하여 하나의 평면에 분포하는지 여부를 판단할 수 있으며, 이를 통해 서로 다른 복수의 클러스터 각각에 대하여 상술한 바에 따라 평면 여부를 판단할 수 있다.
또한, 상술한 구성을 통해 특정 클러스터에 속한 M개의 점으로 구성된 점군 정보가 하나의 평면에 분포하고 있다면 특정한 파라미터(예를 들면, 평면 방정식 및 꼭짓점 정보, 또는 면의 중심 좌표 및 변의 길이 등)로 표현할 수 있으므로 M이 클수록 점군 정보에 대한 압축효과가 커지게 된다.
한편, 상술한 구성에서 작업 공간을 스캔하는 3차원 센서의 정보는 잡음을 포함하고 있어 특이값이 정확하게 0이 되지 않을 수 있으므로, 상기 평면 판단부(130)는 미리 설정된 특정 임계치 이하의 값은 0이라고 판단할 수 있으며, 상기 임계치는 센서의 정확도 및 측정 잡음의 크기에 따라 상이하게 설정될 수 있다.
또한, 특정 클러스터 내에 공간상 불연속되는 영역이 있을 때 점들의 분포가 한 평면에 분포하지 않더라도 랭크가 2로 나타나는 경우가 있어 점들이 한 평면에 적절하게 분포되는지 검사할 필요가 있다. 랭크가 2로 판별된 클러스터는 첫 번째 특이값(
Figure 112016127554320-pat00031
)과 두 번째 특이값(
Figure 112016127554320-pat00032
)의 비율을 확인함으로써 한 평면에 분포하는지 판별할 수 있다.
따라서, 상기 평면 판단부(130)는 하기 수학식 5와 같은 판단 기준으로 상기 특정 클러스터에 대응되는 데이터 행렬에 대한 특이값 분해를 통해 얻어진 파라미터가 하기 수학식 5를 만족하는지 여부에 따라 상기 특정 클러스터 내 점군의 분포가 평면으로 구성되는지 판단할 수 있으며, 이를 통해 상기 특정 클러스터의 평면 여부를 판단할 수 있다.
여기서, 하기 수학식 4와 수학식 5의
Figure 112016127554320-pat00033
,
Figure 112016127554320-pat00034
,
Figure 112016127554320-pat00035
는 크기 순서대로 표현된 데이터 행렬의 특이값이며, ε는 랭크 판별을 위한 임계치이고, μ는 평면의 가로와 세로의 비율에 대한 임계치를 각각 나타낸다.
Figure 112016127554320-pat00036
상술한 구성을 통해, 상기 평면 판단부(130)는 서로 다른 복수의 클러스터 각각에 대하여 평면 여부를 판단할 수 있다.
한편, 상기 평면 판단부(130)는 특정 클러스터가 평면이 아닌 것으로 판명된 경우 미리 설정된 비율로 상기 특정 클러스터를 복수의 서로 다른 세부 클러스터로 분할할 수 있으며, 상기 각 세부 클러스터에 대하여 상술한 수학식 1 내지 5를 포함하는 상기 클러스터의 평면 여부 판단을 위한 과정을 적용하고, 평면이 아닌 세부 클러스터를 상기 평면이 아닌 클러스터와 마찬가지로 분할하는 상술한 과정을 적용할 수 있다.
이때, 상기 평면 판단부(130)는 특정 클러스터에서 서로 다른 복수의 세부 클러스터로 분할시 상기 특정 클러스터에서 분할되는 복수의 서로 다른 세부 클러스터가 상호 동일 크기를 가지도록 상기 특정 클러스터를 분할할 수 있다.
또한, 상기 평면 판단부(130)는 평면이 아닌 것으로 판단된 특정 클러스터에 클러스터 정보를 상기 클러스터링부(120)로 제공하고, 상기 클러스터링부(120)에서 평면이 아닌 상기 특정 클러스터를 상술한 바와 같이 세부 클러스터로 분할하여 각 세부 클러스터에 대한 정보를 다시 평면 판단부(130)로 제공할 수도 있으며, 상기 클러스터링부(120)와 실시간 연동하여 상기 평면이 아닌 클러스터를 복수의 세부 클러스터로 분할할 수도 있다.
더하여, 상기 평면 판단부(130)는 상기 세부 클러스터에 대하여 상술한 구성을 적용하여 평면 여부를 판단할 수 있으며, 상기 세부 클러스터가 평면이 아닌 경우 다시 해당 세부 클러스터를 미리 설정된 비율로 분할할 수 있으며, 상기 세부 클러스터에서 분할된 클러스터에 대해 평면 여부를 판단하고 평면이 아닌 경우 다시 분할된 클러스터를 재차 분할할 수 있다.
즉, 상기 평면 판단부(130)는 평면이 나타날 때까지 클러스터를 반복하여 분할할 수 있다.
이에 따라, 상기 평면 판단부(130)는 특정 클러스터에 대하여 평면이 나타날 때까지 분할을 반복할 수 있으며, 이를 통해 평면만으로 구성된 복수의 서로 다른 클러스터(분할된 클러스터 포함)를 생성할 수 있다.
이후, 상기 평면 판단부(130)는 평면으로 구성된 각 클러스트(분할된 클러스터 포함)에 대한 클러스터 정보를 상기 모델링부(140)로 제공할 수 있다.
이때, 상기 평면 판단부(130)는 클러스터의 최소 크기가 미리 설정될 수 있으며, 분할을 통해 생성된 세부 클러스터가 상기 최소 크기에 해당되는 경우 평면 여부에 대한 판단 없이 최소 크기에 해당되는 클러스터에 대한 정보를 상기 모델링부(140)로 제공할 수도 있다.
한편, 상기 모델링부(140)는 평면으로 판단된 클러스터(분할된 클러스터 포함)에 대한 상기 클러스터 정보에 포함된 점군 정보를 기초로 상기 점군 정보를 평면 육면체 또는 평면 다각형으로 표시(모델링)할 수 있다.
일례로, 도 5에 도시된 바와 같이 상기 모델링부(140)는 미리 설정된 OBB(Oriented Bounding Box) 알고리즘을 기반으로 특정 클러스터에 대응되는 상기 점군 정보를 육면체로 모델링할 수 있다.
상기 OBB는 물체의 표현을 육면체로 하며, OBB를 기반으로 생성된 서로 다른 객체 간 충돌을 빠르게 검출할 수 있어 게임과 같은 실시간 처리에 많이 활용되는 방법이다.
즉, 상기 모델링부(140)는 특정 클러스터에 대응되는 데이터 행렬의 특이값 분해를 통해 얻은 정보를 이용하여 육면체의 중심 위치, 넓이, 높이, 깊이에 대한 정보, 그리고 그(육면체의 넓이, 높이, 깊이)에 대한 방향 벡터로 표현된 OBB 정보를 생성할 수 있으며, 이를 통해 로봇의 작업 환경을 구성하는 작업 공간에 배치된 특정 장애물이나 작업공간의 구조를 구성하는 평면을 상기 OBB 정보를 기초로 입체적으로 구성할 수 있다.
이때, 상기 육면체의 중심 위치는 상기 수학식 2의 데이터 행렬의 중심점 정보(
Figure 112016127554320-pat00037
)를 이용하여 산출되며, 육면체의 넓이, 높이, 깊이는 각각 특이값
Figure 112016127554320-pat00038
,
Figure 112016127554320-pat00039
,
Figure 112016127554320-pat00040
가 된다.
또한, 넓이, 높이, 깊이에 대한 방향 벡터는 특이값 분해를 통해 얻은 입력벡터 행렬 V의 열 벡터(column vector)가 되며, V = [
Figure 112016127554320-pat00041
Figure 112016127554320-pat00042
Figure 112016127554320-pat00043
]로 나타낼 수 있다.
한편, 도 6에 도시된 바와 같이 상기 모델링부(140)는 평면을 구성하는 상기 클러스터 정보에 따른 점군정보를 평면 다각형으로 모델링할 수도 있다.
일례로, 상기 모델링부(140)는 삼각형과 사각형 중 어느 하나를 기반으로 다각형으로 모델링할 수 있는데, 삼각형으로 모델링하는 방법은 상기 평면으로 판단된 클러스터에 속한 점들 중 영상좌표에서의 모서리 정보에 해당하는 점을 삼각형의 꼭짓점으로 저장할 수 있다.
또한, 상기 모델링부(140)는 사각형으로 모델링하기 위해 클러스터에서 모서리 점의 3차원 정보를 평면에 다시 투영하여 이 정보를 사각형의 꼭짓점으로 저장할 수 있다.
이때, 모서리의 점을 평면으로 다시 투영하는 이유는 점군 정보가 잡음을 포함하고 있어서 평면에 속하는 점군 정보가 일반적으로 추정된 평면에서 랜덤하게 떨어져서 분포하고 있을 수 있으며, 이로 인해 모서리의 점 관련 정보를 그대로 이용하면 꼭지점에 잡음이 같이 반영되어서 이를 제거하고자 평면에 다시 한번 투영함으로써 정확한 평면 위의 점으로 변환하여 모서리 정보로 활용하기 위함이다.
이를 위하여, 상기 모델링부(140)는 하기 수학식 6과 같이 먼저 특이값 분해를 통해 얻은 입력 벡터의 방향을 나타내는 상기 V 행렬에서 세 번째 특이값에 해당되는 V의 열 벡터(column vector)와 클러스터의 중심 좌표(중심점)를 통해 평면방정식을 구한다.
Figure 112016127554320-pat00044
다음, 상기 모델링부(140)는 하기 수학식 7을 통해 클러스터의 모서리 점의 x, y 정보를 평면방정식에 넣어 z를 구하여 평면에 투영된 점에 대한 x, y, z를 점의 좌표로서 구하여 사각형의 꼭짓점 정보로 저장할 수 있다.
Figure 112016127554320-pat00045
상술한 구성을 통해, 상기 모델링부(140)는 도 7에 도시된 바와 같이 로봇의 작업 환경을 구성하는 작업 공간 및 장애물에 대한 모델링을 통해 작업 환경 모델에 대한 모델 정보를 생성할 수 있으며, 도 7(a)는 OBB를 통해 생성한 작업 환경 모델에 대한 예시도이며, 도 7(b)는 다각형을 기반으로 모델링한 작업 환경 모델에 대한 예시도이다.
상술한 바와 같이, 본 발명은 작업 환경을 3차원 센서를 통해 스캔(센싱)하여 얻어진 작업 환경에 대한 깊이 이미지에 대하여 가장 큰 크기의 클러스터부터 시작하여 점진적으로 단위를 세분화하며 평면 검출을 수행할 수 있으며, 클러스터의 크기가 커서 2개 이상의 평면으로 구성된 점군 정보가 평면이 아니라고 판별되더라도 이후의 세분화된 클러스터에서 평면으로 인식하여, 작업 환경에 따른 작업 공간 및 장애물을 서로 다른 복수의 평면으로 모델링할 수 있다.
상술한 구성을 통해, 본 발명은 기존과 같이 작업 환경을 정밀하게 렌더링하여 작업 환경의 모델링에 소요되는 부하와 시간이 상당한 기존 모델링 방법에 비해 작업 환경을 단순 좌표계를 통해 복수의 서로 다른 클러스터로 분할한 후 평면을 구성하는 클러스터를 하나의 평면으로 산출하고, 평면이 아닌 클러스터만을 대상으로 평면이 나타날 때까지 세부 클러스터로 분할하여, 평면을 구성하는 점군 정보를 평면으로 압축하여 모델링할 수 있으므로, 작업 공간의 모델링에 필요한 데이터량을 크게 줄일 수 있다.
즉, 본 발명은 작업 환경에서 작업하는 로봇과의 충돌 가능한 장애물과 작업 공간을 평면만으로 모델링할 수 있으므로, 기존과 같이 사용 가능한 모든 점군 정보를 이용하여 세부적으로 모델링하는 기존 방식에 비해 점군 정보를 단일 평면으로 압축하여 모델링함으로써 작업 환경의 모델링에 소요되는 시간이나 부하를 획기적으로 감소시켜 로봇의 동작 과정에서 충돌 여부를 고속으로 판단할 수 있도록 지원할 수 있으며, 이를 통해 로봇의 동작에 대한 실시간성 및 신속한 반응성을 지원할 수 있다.
도 8은 본 발명의 실시예에 따른 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치(100)의 모델링 방법에 대한 순서도이다.
도시된 바와 같이, 상기 작업 환경 모델링 장치(100)는 상기 3차원 센서로부터 얻어진 상기 점군 정보에 따른 깊이 정보를 기반으로 얻어지는 깊이 이미지의 좌표를 기준으로 클러스터링할 수 있다(S1).
이후, 작업 환경 모델링 장치(100)는 상기 클러스터링을 통해 생성된 서로 다른 각 클러스터에 대하여 클러스터의 영상 좌표 영역에 속하는 점군의 데이터 행렬을 구성하고(S2), 데이터 행렬의 중심점을 산출하며(S3), 해당 중심점을 특이값 분해 관련 좌표계의 원점으로 이동시켜(S4) 생성한 중심 이동된 데이터 행렬에 대하여 특이값 분해를 적용하여(S5) 해당 데이터 행렬의 랭크를 산출할 수 있다.
다음, 작업 환경 모델링 장치(100)는 상기 데이터 행렬의 랭크와 미리 설정된 상기 수학식 5를 통해 평면 분포 여부를 확인하여 클러스터의 평면 여부를 판단하고(S6), 평면이 아닌 경우 클러스터를 세분화하여 재확인할 수 있다(S7).
다음, 평면으로 판단된 클러스터를 평면 다각형이나 육면체로 모델링하여 데이터량을 줄일 수 있다(S8).
한편, 도 1에 도시된 바와 같이 상기 작업 환경 모델링 장치(100)는 상기 작업 환경에 대한 모델 정보를 로봇(10)에 전송하기 위한 인터페이스부나 통신부를 더 포함할 수 있으며, 상기 모델링부(140)는 해당 인터페이스부나 통신부를 통해 상기 모델 정보를 상기 로봇(10)에 전송할 수 있다.
이에 따라, 본 발명은 로봇의 작업 환경을 스캔하여 작업 환경의 모델링에 요구되는 연산 시간과 부하를 최소화하여 신속하게 작업 환경에 대한 모델 정보를 생성한 후 로봇에 전송할 수 있으며, 로봇이 해당 모델 정보를 기초로 작업 환경을 신속하게 파악하고 작업 환경에 대한 모델 정보를 통해 검출되는 장애물과의 충돌 여부를 신속히 검출하여 안정적인 작업이 이루어지도록 지원할 수 있다.
이때, 상기 작업 환경 모델링 장치(100)는 상기 로봇(10)을 구성하는 구성부로서 구성될 수도 있으며, 이를 통해 로봇(10)을 제어하는 제어부가 상기 작업 환경 모델링 장치(100)로부터 제공되는 모델 정보를 기초로 로봇(10)의 동작시 로봇(10)의 구성부와 작업 환경에 배치된 장애물과의 충돌 여부를 고속으로 검출할 수 있도록 지원할 수 있다.
상술한 구성을 통해, 본 발명은 작업 환경의 모델링에 이용되는 점군 정보를 압축하여 충돌 여부의 검사가 가능한 정도의 수준으로 작업 환경을 모델링함으로써, 작업 환경의 모델링에 요구되는 부하를 최소화하여 로봇의 충돌 여부 검출에 대한 효율성을 높이는 동시에 작업 환경이 변화되는 경우에도 로봇이 적응적으로 대처할 수 있도록 지원할 수 있다.
본 명세서에 기술된 다양한 장치 및 구성부는 하드웨어 회로(예를 들어, CMOS 기반 로직 회로), 펌웨어, 소프트웨어 또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 전기적 구조의 형태로 트랜지스터, 로직게이트 및 전자회로를 활용하여 구현될 수 있다.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 작업 환경 모델링 장치
110: 입력부 120: 클러스터링부
130: 평면 판단부 140: 모델링부

Claims (8)

  1. 로봇의 작업 환경을 스캔하여 생성된 점군 정보를 수신하는 입력부;
    상기 점군 정보에 따른 깊이 정보를 기반으로 얻어지는 깊이 이미지의 좌표를 기준으로 클러스터링하는 클러스터링부;
    각 클러스터의 영상 좌표 영역에 속하는 점군의 데이터 행렬을 구성하고 상기 데이터 행렬의 랭크를 통해 평면 분포 여부를 확인하여 클러스터의 평면 여부를 판단하고 평면이 아닌 경우 클러스터를 세분화하여 재확인하는 평면 판단부; 및
    평면으로 판단된 클러스터를 평면 다각형이나 육면체로 모델링하여 데이터량을 줄이는 모델링부;를 포함하며,
    상기 평면 판단부는 하기 수학식을 통해
    Figure 112017089901313-pat00060

    M개의 점으로 구성된 상기 점군의 데이터 행렬인
    Figure 112017089901313-pat00061
    을 구성하며, 상기
    Figure 112017089901313-pat00062
    는 점군에 속한 점이며, 상기 x, y, z는 점군 정보에 따른 점의 좌표이며,
    상기 점군의 중심점인
    Figure 112017089901313-pat00063

    Figure 112017089901313-pat00064
    을 통해 산출하고,
    상기 중심점을 기준으로 상기 데이터 행렬을 이동시켜, 상기 데이터 행렬에 대한 특이값 분해를 수행하며, 0이 아닌 특이값의 수를 연산하여 상기 데이터 행렬의 랭크를 판별하며,
    상기 특이값 분해를 통해 상기 데이터 행렬의 랭크가 2 이고, 하기 수학식
    Figure 112017089901313-pat00065

    를 만족하는지 여부에 따라 상기 데이터 행렬의 평면 여부를 판단하며, 상기
    Figure 112017089901313-pat00066
    ,
    Figure 112017089901313-pat00067
    Figure 112017089901313-pat00068
    은 상기 데이터 행렬의 특이값이고, 상기 ε은 랭크 판별을 위한 임계치이고, 상기 μ는 평면의 가로와 세로의 비율에 대한 임계치인 것을 특징으로 하는 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 청구항 1에 있어서,
    상기 모델링부는 상기 평면 판단부와 연동하여 평면으로 판단된 데이터 행렬의 특이값 분해를 통해 얻은 정보를 기초로 상기 육면체의 정보를 생성하거나, 상기 평면으로 판단된 클러스터에 속한 점들 중 영상 좌표에서의 모서리 정보에 해당하는 점을 상기 다각형의 꼭짓점으로 하여 다각형 정보를 생성하는 것을 특징으로 하는 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치.
  6. 청구항 5에 있어서,
    상기 모델링부는 상기 특이값 분해를 통해 얻은 정보와 미리 설정된 OBB(Oriented Bounding Box) 알고리즘을 기반으로 평면으로 판단된 클러스터에 대응되는 상기 점군 정보를 육면체로 모델링하는 것을 특징으로 하는 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치.
  7. 청구항 1에 있어서,
    상기 모델링부는 상기 평면으로 판단된 서로 다른 복수의 클러스터 각각을 상기 평면 다각형이나 육면체로 모델링하여 상기 작업 환경에 대한 모델 정보를 생성하고, 상기 모델 정보를 상기 로봇에 전송하는 것을 특징으로 하는 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치.
  8. 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치의 로봇의 작업 환경에 대한 모델링 방법에 있어서,
    3차원 센서로부터 얻어진 작업 환경에 대한 점군 정보에 따른 깊이 정보를 기반으로 얻어지는 깊이 이미지의 좌표를 기준으로 클러스터링하는 단계;
    각 클러스터의 영상 좌표 영역에 속하는 점군의 데이터 행렬을 구성하고 상기 데이터 행렬의 랭크를 통해 평면 분포 여부를 확인하여 클러스터의 평면 여부를 판단하고 평면이 아닌 경우 클러스터를 세분화하여 재확인하는 단계; 및
    평면으로 판단된 클러스터를 평면 다각형이나 육면체로 모델링하여 데이터량을 줄이는 단계를 포함하며,
    상기 데이터 행렬의 랭크를 통해 평면 분포 여부를 확인하여 클러스터의 평면 여부를 판단하는 단계는,
    하기 수학식을 통해
    Figure 112017089901313-pat00069

    M개의 점으로 구성된 상기 점군의 데이터 행렬인
    Figure 112017089901313-pat00070
    을 구성하며, 상기
    Figure 112017089901313-pat00071
    는 점군에 속한 점이며, 상기 x, y, z는 점군 정보에 따른 점의 좌표이며,
    상기 점군의 중심점인
    Figure 112017089901313-pat00072

    Figure 112017089901313-pat00073
    을 통해 산출하고,
    상기 중심점을 기준으로 상기 데이터 행렬을 이동시켜, 상기 데이터 행렬에 대한 특이값 분해를 수행하며, 0이 아닌 특이값의 수를 연산하여 상기 데이터 행렬의 랭크를 판별하며,
    상기 특이값 분해를 통해 상기 데이터 행렬의 랭크가 2 이고, 하기 수학식
    Figure 112017089901313-pat00074

    를 만족하는지 여부에 따라 상기 데이터 행렬의 평면 여부를 판단하며, 상기
    Figure 112017089901313-pat00075
    ,
    Figure 112017089901313-pat00076
    Figure 112017089901313-pat00077
    은 상기 데이터 행렬의 특이값이고, 상기 ε은 랭크 판별을 위한 임계치이고, 상기 μ는 평면의 가로와 세로의 비율에 대한 임계치인 것을 특징으로 하는 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 방법.
KR1020160179376A 2016-12-26 2016-12-26 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법 KR101798132B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160179376A KR101798132B1 (ko) 2016-12-26 2016-12-26 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160179376A KR101798132B1 (ko) 2016-12-26 2016-12-26 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101798132B1 true KR101798132B1 (ko) 2017-11-16

Family

ID=60806698

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160179376A KR101798132B1 (ko) 2016-12-26 2016-12-26 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101798132B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110942660A (zh) * 2019-11-13 2020-03-31 江苏创能智能科技有限公司 电力作业绝缘斗臂车辅助停车系统及其停车位置搜索方法
WO2020189891A1 (ko) * 2019-03-15 2020-09-24 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
CN112733923A (zh) * 2021-01-04 2021-04-30 上海高仙自动化科技发展有限公司 一种确定禁行区域的系统及机器人
CN113074748A (zh) * 2021-03-29 2021-07-06 北京三快在线科技有限公司 一种无人驾驶设备的路径规划方法及装置
CN113128248A (zh) * 2019-12-26 2021-07-16 深圳一清创新科技有限公司 障碍物检测方法、装置、计算机设备和存储介质
EP4279224A4 (en) * 2021-01-12 2024-02-28 Kawasaki Jukogyo Kabushiki Kaisha PATH GENERATION DEVICE, PATH GENERATION METHOD AND PATH GENERATION PROGRAM

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030226A (ja) 2002-06-26 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> 3次元点群からの形状モデル生成方法と装置、並びに、3次元点群からの形状モデル生成プログラムと該プログラムを記録した記録媒体
JP2008197884A (ja) 2007-02-13 2008-08-28 Toyota Motor Corp 環境地図の生成方法及び移動ロボット
JP4929828B2 (ja) * 2006-05-10 2012-05-09 日本電気株式会社 立体性認証方法、立体性認証装置および立体性認証プログラム
KR101388749B1 (ko) 2013-10-25 2014-04-29 중앙대학교 산학협력단 3차원 데이터로부터 3차원 산업 모델을 구축하는 시스템 및 방법
JP2014522058A (ja) 2012-06-14 2014-08-28 ソフトキネティック ソフトウェア 三次元オブジェクトのモデリング、フィッティング、およびトラッキング
JP2015125685A (ja) 2013-12-27 2015-07-06 Kddi株式会社 空間構造推定装置、空間構造推定方法及び空間構造推定プログラム
JP5785074B2 (ja) * 2011-12-22 2015-09-24 国立大学法人 東京大学 モデル生成装置、モデル生成方法及びモデル生成プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030226A (ja) 2002-06-26 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> 3次元点群からの形状モデル生成方法と装置、並びに、3次元点群からの形状モデル生成プログラムと該プログラムを記録した記録媒体
JP4929828B2 (ja) * 2006-05-10 2012-05-09 日本電気株式会社 立体性認証方法、立体性認証装置および立体性認証プログラム
JP2008197884A (ja) 2007-02-13 2008-08-28 Toyota Motor Corp 環境地図の生成方法及び移動ロボット
JP5785074B2 (ja) * 2011-12-22 2015-09-24 国立大学法人 東京大学 モデル生成装置、モデル生成方法及びモデル生成プログラム
JP2014522058A (ja) 2012-06-14 2014-08-28 ソフトキネティック ソフトウェア 三次元オブジェクトのモデリング、フィッティング、およびトラッキング
KR101388749B1 (ko) 2013-10-25 2014-04-29 중앙대학교 산학협력단 3차원 데이터로부터 3차원 산업 모델을 구축하는 시스템 및 방법
JP2015125685A (ja) 2013-12-27 2015-07-06 Kddi株式会社 空間構造推定装置、空間構造推定方法及び空間構造推定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Study on the Selection Criteria of 3D Collision Detection Model." Journal of IKEEE 7.2 (2003)*

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189891A1 (ko) * 2019-03-15 2020-09-24 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
CN110942660A (zh) * 2019-11-13 2020-03-31 江苏创能智能科技有限公司 电力作业绝缘斗臂车辅助停车系统及其停车位置搜索方法
CN113128248A (zh) * 2019-12-26 2021-07-16 深圳一清创新科技有限公司 障碍物检测方法、装置、计算机设备和存储介质
CN113128248B (zh) * 2019-12-26 2024-05-28 深圳一清创新科技有限公司 障碍物检测方法、装置、计算机设备和存储介质
CN112733923A (zh) * 2021-01-04 2021-04-30 上海高仙自动化科技发展有限公司 一种确定禁行区域的系统及机器人
EP4279224A4 (en) * 2021-01-12 2024-02-28 Kawasaki Jukogyo Kabushiki Kaisha PATH GENERATION DEVICE, PATH GENERATION METHOD AND PATH GENERATION PROGRAM
CN113074748A (zh) * 2021-03-29 2021-07-06 北京三快在线科技有限公司 一种无人驾驶设备的路径规划方法及装置
CN113074748B (zh) * 2021-03-29 2022-08-26 北京三快在线科技有限公司 一种无人驾驶设备的路径规划方法及装置

Similar Documents

Publication Publication Date Title
KR101798132B1 (ko) 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법
KR101850410B1 (ko) 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법
JP4677536B1 (ja) 3次元物体認識装置及び3次元物体認識方法
JP6323993B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
JP7314411B2 (ja) 移動ロボットの障害物情報感知方法、装置
US9616572B2 (en) Information processing apparatus for determining interference between peripheral objects and grasping unit, information processing method, and storage medium
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
CN110992356A (zh) 目标对象检测方法、装置和计算机设备
US20150134303A1 (en) Three-dimensional scanning system and method with hole-filling function for point cloud using contact probe
AU2013227985A1 (en) Backfilling points in a point cloud
KR20180004766A (ko) 실시간 가상 장면의 충돌체 사이의 충돌을 검출하기 위한 방법 및 단말과 저장 매체
JP2020135679A (ja) データセット作成方法、データセット作成装置、及びデータセット作成プログラム
JP2004326264A (ja) 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
US10902674B2 (en) Creating a geometric mesh from depth data using an index indentifying unique vectors
CN110000793B (zh) 一种机器人运动控制方法、装置、存储介质和机器人
JP6185385B2 (ja) 空間構造推定装置、空間構造推定方法及び空間構造推定プログラム
Stojanovic et al. Generation of Approximate 2D and 3D Floor Plans from 3D Point Clouds.
CN116030103B (zh) 确定砌筑质量的方法、装置、设备和介质
CN111142514A (zh) 一种机器人及其避障方法和装置
Park et al. Box-Scan: An efficient and effective algorithm for box dimension measurement in conveyor systems using a single RGB-D camera
KR102556759B1 (ko) 카메라-라이다 캘리브레이션 장치 및 방법
JP2020173584A (ja) 物体検出装置
US12094227B2 (en) Object recognition device and object recognition method
WO2023005195A1 (zh) 地图数据的处理方法、装置、家用电器和可读存储介质
Sandfuchs et al. Conversion of depth images into planar laserscans considering obstacle height for collision free 2D robot navigation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant