[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20230028848A - 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법 - Google Patents

보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법 Download PDF

Info

Publication number
KR20230028848A
KR20230028848A KR1020210110648A KR20210110648A KR20230028848A KR 20230028848 A KR20230028848 A KR 20230028848A KR 1020210110648 A KR1020210110648 A KR 1020210110648A KR 20210110648 A KR20210110648 A KR 20210110648A KR 20230028848 A KR20230028848 A KR 20230028848A
Authority
KR
South Korea
Prior art keywords
image
size
feature
depth
measurement
Prior art date
Application number
KR1020210110648A
Other languages
English (en)
Other versions
KR102530271B1 (ko
Inventor
육준
이재구
Original Assignee
주식회사 위두쉽
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 위두쉽 filed Critical 주식회사 위두쉽
Priority to KR1020210110648A priority Critical patent/KR102530271B1/ko
Publication of KR20230028848A publication Critical patent/KR20230028848A/ko
Application granted granted Critical
Publication of KR102530271B1 publication Critical patent/KR102530271B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2504Calibration devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 보정알고리즘을 이용한 부피측정장치 및 보정알고리즘에 의한 부피측정방법으로서, 물체의 깊이이미지(I)를 촬영 측정하기 위하여 형성되는 촬영측정부를 구비한 깊이센서모듈과, 상기 깊이센서모듈의 촬영측정부에서 촬영 측정된 상기 물체의 깊이이미지(I)에 의하여 물체의 특징부(F)와 크기(S)를 획득하고, 상기 획득한 물체의 특징부(F)와 크기(S)를 분석하여 최종적인 물체의 크기(S)에 대한 결과치를 처리하는 데이터처리센터와, 상기 데이터처리센터로부터 처리된 최종적인 물체의 크기(S)에 대한 측정치를 수신하는 외부통신유닛을 포함하며, 본 발명에 따른 보정알고리즘을 통하여 분석함으로써 물체의 부피(또는 크기)에 대한 측정치의 정밀도를 향상시킬 수 있다.

Description

보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법{Volume measurement apparatus using the correction algorithm and thereof method}
본 발명은 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법에 관한 발명으로서, 3D 깊이센서모듈(depth sensor module)에 의하여 물체의 부피(또는 크기)를 측정할 경우에 일정 시간마다 촬영된 깊이이미지(depth image)를 도출하고, 도출된 깊이이미지에 의하여 물체의 특징부 및 크기를 추출하고, 추출된 물체의 특징부 및 크기를 보정알고리즘을 통하여 분석함으로써 물체의 부피(또는 크기)에 대한 측정치의 정밀도를 향상시킨 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법에 관한 발명이다.
종래의 기술에 따르면, 3D 깊이센서모듈(depth sensor module)에 의해 촬영된 이미지를 분석하여 물체의 부피(가로, 세로, 높이)를 얻어내는 방식으로써, 이와 같은 종래기술에 의하면, 물체의 위치가 측정부 하단 정 중앙을 기준으로 측정 위치가 변동함에 따라 부피에 대한 측정값의 오차가 발생하며, 또한 표면의 재질, 빛의 반사율 등 다양한 조건에 의해 측정값의 크기가 변화된다는 문제가 발생되고 있다
즉, 부피측정을 계량의 목적으로 사용하기 위해서는 측정오차가 일정 범위 내의 값으로 측정되어야 함에도 불구하고, 물체의 위치, 뿐만 아니라 측정환경, 물체의 표면 재질, 색깔 및 외부의 빛에 의한 반사율 등 다양한 요인에 의해 매 측정 시 마다 측정치가 불규칙하게 측정되고 있는 실정이다.
등록특허공보 10-2124292(2020. 06. 17) 등록특허공보 10-1998292(2019. 07. 10) 등록특허공보 10-1909469(2018. 10. 18)
상기한 종래기술의 문제점을 해결하기 위하여, 본 발명에 따른 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법은 보정알고리즘에 의하여 물체의 위치, 뿐만 아니라 측정환경, 물체의 표면 재질, 색깔 및 외부의 빛에 의한 반사율 등 외부의 다양한 환경의 영향에 의해 발생되는 측정 오차값을 줄여서 항상 일정한 범위 내에서 측정치를 획득할 수 있도록 개선하는 것을 목적으로 한다.
본 발명에 따른 보정알고리즘을 이용한 부피측정장치는, 물체의 깊이이미지(I)를 촬영 측정하기 위하여 형성되는 촬영측정부를 구비한 깊이센서모듈과; 상기 깊이센서모듈의 촬영측정부에서 촬영 측정된 상기 물체의 깊이이미지(I)에 의하여 물체의 특징부(F)와 크기(S)를 획득하고, 상기 획득한 물체의 특징부(F)와 크기(S)를 분석하여 최종적인 물체의 크기(S)에 대한 결과치를 처리하는 데이터처리센터와; 상기 데이터처리센터로부터 처리된 최종적인 물체의 크기(S)에 대한 측정치를 수신하는 외부통신유닛을 포함하는 것을 특징으로 한다.
본 발명에 따른 보정알고리즘을 이용한 부피측정장치의 데이터처리센터는, 상기 깊이센서모듈로부터 측정된 물체의 깊이이미지로부터 물체에 대한 특징부와 크기를 추출하는 이미지처리부와; 상기 이미지처리부에서 추출된 물체에 대한 특징부와 크기로부터 보정알고리즘을 통하여 물체의 이미지를 분석하는 이미지분석부와; 상기 깊이센서모듈의 촬영측정부에서 촬영 측정된 물체의 깊이이미지와 이미지처리부에서 추출된 물체에 대한 특징부와 크기 및 이미지분석부에서 분석된 물체의 이미지 정보를 저장하기 위하여 형성되는 저장부와; 상기 이미지분석부에서 분석된 물체의 이미지 정보를 외부통신유닛으로 전송하는 통신부; 및 물체의 깊이이미지를 촬영측정부로 촬영 측정하기 위한 깊이센서모듈과, 물체의 특징부와 크기를 추출하는 이미지처리부와, 물체의 이미지를 분석하는 이미지분석부와, 저장부 및 통신부를 제어하기 위하여 형성되는 제어부; 를 포함하는 것을 특징으로 한다.
본 발명에 따른 보정알고리즘을 이용한 부피측정장치의 이미지처리부는, 깊이맵을 이용하여 상기 측정된 물체의 깊이이미지(I)로부터 물체를 인식 및 인식된 물체로부터 물체의 윤곽선을 추출하고, 추출된 물체의 윤곽선에 의하여 사각형체를 모델링하여 물체의 길이, 너비 및 높이 정보를 획득하는 것을 특징으로 한다.
본 발명에 따른 보정알고리즘을 이용한 부피측정장치의 이미지분석부는, 상기 깊이센서모듈로부터의 촬영측정부인 카메라의 매개정보를 기초로 하여, 상기 이미지처리부에서 추출된 물체의 특징부와 크기로부터 보정알고리즘을 통하여 물체의 특징부와 크기에 대한 이미지 정보를 분석하여 측정상태를 판단하는 것을 특징으로 한다.
본 발명에 따른 부피측정장치를 이용한 보정알고리즘에 의한 부피측정방법은, 데이터처리센터에 구비되는 제어부의 제어 동작에 의하여 깊이센서모듈의 촬영측정부로부터 물체의 깊이이미지(I)를 촬영하여 측정하는 단계(S100); 상기 깊이센서모듈에서 측정된 물체의 깊이이미지(I)를 데이터처리센터의 저장부에 저장하는 단계(S200); 상기 저장부에 저장된 물체의 깊이이미지(I)로부터 이미지처리부에서 물체의 특징부(F)와 크기(S)를 추출하는 단계(S300); 상기 이미지처리부에서 추출된 물체의 특징부(F)와 크기(S)를 데이터처리센터의 저장부에 저장하는 단계(S400); 상기 이미지처리부에서 추출된 물체의 특징부(F)와 크기(S)에 대한 이미지 정보를 이미지분석부로 전송하는 단계(S500); 상기 (S100)단계 내지 (S500)단계를 수행한 후에, 동일한 물체에 대하여 2회 더 상기 (S100)단계로부터 상기 (S500)단계를 수행하는 단계(S550); 상기 깊이센서모듈로부터의 촬영측정부인 카메라의 매개정보를 기초로 하여, 상기와 같이 3회에 걸쳐서 이미지처리부에서 추출된 물체A, 물체B 및 물체C 각각에 대한 특징부(F)와 크기(S)로부터 이미지분석부의 보정알고리즘을 통하여 3회에 걸쳐서 이미지처리부에서 추출된 물체A, 물체B 및 물체C 각각에 대한 특징부(F)와 크기(S)에 대한 물체의 이미지 정보를 분석하는 단계(S600); 상기 이미지분석부에서 분석된 물체의 이미지 정보를 저장부에 저장하는 단계(S700); 및 상기 이미지분석부로부터 분석된 물체의 이미지 정보를 통신부를 통하여 외부통신유닛으로 전송하는 단계(S800); 를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 상기 (S300)단계는, 상기 이미지처리부에 구비되는 깊이맵을 이용하여, 측정된 물체의 깊이이미지(I)로부터 측정된 물체를 인식하는 단계(S310)와, 상기 깊이맵에 의하여, 상기 인식된 물체의 윤곽선을 추출하는 단계(S320)와, 상기 깊이맵에 의하여, 상기 추출된 물체의 윤곽선으로부터 측정된 물체의 길이, 너비 및 높이 정보를 도출한 단계(S330)를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 상기 (S600)단계는, 상기 물체A 내지 물체C 각각의 특징부(F)에 대한 신호 대 노이즈(S/N) 비율 및, 측정 대상 물체의 모양, 위치 등의 정보를 기준으로 상기 물체의 특징부(F)에 대한 측정 상태를 판단하는 단계(S610); 상기 (S610)단계인 상기 물체A 내지 물체C의 특징부(F)와 크기(S)가 정상상태 또는 비정상상태 여부에 따라 상기 물체A 내지 물체C의 특징부(F)에 대한 측정 상태를 판단하는 단계(S610)를 수행한 후, 상기 물체A 내지 물체C의 특징부(F)에 대한 판단 결과치가 기준 목표치에 도달하지 못한 경우이거나, 또는, 상기 물체A 내지 물체C의 크기(S)의 상대적인 차이인 S(A)-S(B), S(B)-S(C) 및 S(A)-S(C)가 매우 작지 않은 경우인 큰 경우에는 상기 (S100)단계로 이동하여 재측정을 수행하는 단계(S620); 상기 단계(S600)의 판단결과 정상상태인 경우는, 상기 물체 A의 특징부 F(A)와 크기 S(A)를 기준으로 물체 B의 특징부 F(B)와 크기 S(B)를 F(B)’와 크기 S(B)’로 측정 보정을 수행하는 단계(S650); 상기 (S650)단계와 같은 측정 보정을 수행한 후, 상기 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)에서, 특징부 F(A), F(B), F(C) 상호 간의 일치도(matching degree) 및 크기 S(A), S(B), S(C) 상호 간의 일치도(matching degree)로부터 스코어(score)를 획득하는 단계(S660); 상기 단계(S660)의 획득한 스코어의 값을 통하여 재측정 여부를 판단하는 단계(S670); 상기 (S670)단계의 판단 결과, 스코어의 최대값 100을 기준으로 최소값이 70점 이상일 경우에는, 측정된 깊이이미지(I)가 충분하다고 판단하고, 그 결과치인 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)를 기초로 하여 획득한 물체의 최종적인 크기를 획득하는 단계(S670-1); 및 상기 (S670)단계의 판단 결과, 스코어의 최대값 100을 기준으로 최소값이 70점 이상일 경우에는, 측정된 깊이이미지(I)가 충분하지 않다고 판단하고, 단계 (S100)로 피드백하여 재측정하는 단계(S670-2)인 것을 특징으로 한다.
본 발명에 따르면, 상기 (S650)단계는, 데이터처리센터에 구비되는 저장부에 미리 기 저장된 직전의 이미지의 형태와 크기를 읽어 들여서 현재의 물체의 이미지 정보와 직전의 이미지 정보인 물체A, 물체B, 물체C 상호간의 연관성을 분석하여 크기를 보정하는 보정알고리즘 단계로서, 물체A의 깊이이미지 I(A)에 대한 품질파라미터가 물체B의 깊이이미지 I(B)의 품질파라미터에 비하여 양호한 상태인 경우는, {S(B)'= S(B)× 0.6 + S(A)× 0.4}와 같은 측정 보정을 수행하며, 물체B의 깊이이미지 I(B)가 물체A의 깊이이미지 I(A)에 비하여 품질파라미터가 양호한 상태인 경우에는, {S(B)'= S(B)× 0.9 + S(A)× 0.1}과 같은 측정 보정을 수행하는 것을 특징으로 한다.
본 발명에 따르면, 보정알고리즘에 의하여 물체의 위치, 뿐만 아니라 측정환경, 물체의 표면 재질, 색깔 및 외부의 빛에 의한 반사율 등 외부의 다양한 환경의 영향에 의해 발생되는 측정 오차값을 줄여서 항상 일정한 범위 내에서 측정치를 획득할 수 있는 효과가 있다.
또한, 본 발명에 따른 보정알고리즘을 이용한 부피측정방법에 따르면 종래 기술에 따른 방식의 측정오차 1cm에 비하여 0.5mm 이내의 측정치를 확보할 수 있는 효과가 있다.
도 1은 본 발명에 따른 보정알고리즘을 이용한 부피측정장치의 블록도이다
도 2는 도 1에 따른 부피측정장치를 이용한 보정알고리즘에 의한 부피측정방법을 설명하기 위한 대략적인 순서도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물 들을 포함하는 것으로 이해되어야 한다.
하기의 모든 도면에서 동일한 기능을 갖는 구성요소는 동일한 참조부호를 사용하여 반복적인 설명은 생략하며 아울러 후술하는 용어들은 본 발명에서의 기능을 고려하여 정의된 것으로서, 이는 본 발명의 기술적 사상에 부합하는 개념과 고유의 통용되는 의미로 해석되어야 함을 명시한다.
한편, 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
또한, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예들을 상세히 설명한다.
도 1은 본 발명에 따른 보정알고리즘을 이용한 부피측정장치의 블록도이다
도시된 바와 같이, 본 발명에 따른 보정알고리즘을 이용한 부피측정장치(10)는,
물체의 깊이이미지(depth image)(I)를 촬영 측정하기 위하여 형성되는 촬영측정부를 구비한 깊이센서모듈(100)과;
상기 깊이센서모듈(100)의 촬영측정부에서 촬영 측정된 상기 물체의 깊이이미지(I)에 의하여 물체의 특징부(F)와 크기(S)를 획득하고, 상기 획득한 물체의 특징부(F)와 크기(S)를 분석하여 최종적인 물체의 크기(S)에 대한 결과치를 처리하는 데이터처리센터(200)와;
상기 데이터처리센터(200)로부터 처리된 최종적인 물체의 크기(S)에 대한 측정치를 수신하는 외부통신유닛(300)을 포함하는 것을 특징으로 한다.
상기 데이터처리센터(200)는,
상기 깊이센서모듈(100)로부터 측정된 물체의 깊이이미지로부터 물체에 대한 특징부와 크기를 추출하는 이미지처리부(210)와;
상기 이미지처리부(210)에서 추출된 물체에 대한 특징부와 크기로부터 보정알고리즘(정제알고리즘)을 통하여 물체의 이미지를 분석하는 이미지분석부(220)와;
상기 깊이센서모듈(100)의 촬영측정부에서 촬영 측정된 물체의 깊이이미지와 이미지처리부(210)에서 추출된 물체에 대한 특징부와 크기 및 이미지분석부(220)에서 분석된 물체의 이미지 정보를 저장하기 위하여 형성되는 저장부(230)와;
상기 이미지분석부(220)에서 분석된 물체의 이미지 정보를 외부통신유닛(300)으로 전송하는 통신부(240); 및
물체의 깊이이미지(depth image)를 촬영측정부로 촬영 측정하기 위한 깊이센서모듈(100)과, 물체의 특징부와 크기를 추출하는 이미지처리부(210)와, 물체의 이미지를 분석하는 이미지분석부(220)와, 저장부(230) 및 통신부(240)를 제어하기 위하여 형성되는 제어부(250); 를 포함하는 것을 특징으로 한다.
보다 상세하게는, 상기 이미지처리부(210)는, 깊이맵(depth map)을 이용하여 상기 측정된 물체의 깊이이미지(I)로부터 물체를 인식 및 인식된 물체로부터 물체의 윤곽선을 추출하고, 추출된 물체의 윤곽선에 의하여 사각형체를 모델링하여 물체의 길이, 너비 및 높이 정보를 획득한다.
상기 이미지분석부(220)는, 상기 깊이센서모듈(100)로부터의 촬영측정부인 카메라의 매개정보를 기초로 하여, 상기 이미지처리부(210)에서 추출된 물체의 특징부와 크기로부터 보정알고리즘을 통하여 물체의 특징부와 크기에 대한 이미지 정보를 분석하고 측정상태를 판단한다.
도 2는 도 1에 따른 부피측정장치를 이용한 보정알고리즘에 의한 부피측정방법을 설명하기 위한 대략적인 순서도이다.
도시된 바와 같이, 본 발명에 따른 보정알고리즘을 이용한 부피측정방법은, 보정알고리즘을 이용한 부피측정장치(10)를 이용하여 물체의 크기(또는 부피)에 대한 보다 정확하고 안정적인 측정치를 얻기 위한 일련의 처리 방법이다.
보다 상세하게는, 본 발명에 따른 부피측정에 대한 보정알고리즘을 이용한 부피측정방법은 다음과 같다.
(step (S100)단계) : 데이터처리센터(200)에 구비되는 제어부(250)의 제어 동작에 의하여 깊이센서모듈(100)의 촬영측정부로부터 물체의 깊이이미지(depth image)(I)를 촬영하여 측정하는 단계(S100);
(step (S200)단계) : 상기 깊이센서모듈(100)에서 측정된 물체의 깊이이미지(I)를 데이터처리센터(200)의 저장부(230)에 저장하는 단계(S200);
(step (S300)단계) : 상기 저장부(230)에 저장된 물체의 깊이이미지(I)로부터 이미지처리부(210)에서 물체의 특징부(F)와 크기(S)를 추출하는 단계(S300);
여기서, 상기 (S300)단계에서는, 측정된 물체의 깊이이미지(I)로부터 물체의 특징부(F) 추출은, 상기 (S100)단계에서 깊이센서모듈(100)의 촬영측정부에서 촬영 측정과정을 수행하여 획득한 정보인, 물체의 깊이이미지(I)로부터, i) 신호 대 노이즈(S/N)비율 (이미지의 왜곡(distortion)) 및 ii) 측정 대상 물체의 모양, 위치 정보를 기준으로 특징부(F)를 추출한다.
또한, 상기 (S300)단계에서 측정된 물체의 깊이이미지(I)로부터 물체의 크기(S) 추출은, 다음과 같이 세부적인 세 개의 단계(S310 ~ S330)를 포함할 수 있다.
(step (S310)단계) : 상기 이미지처리부(210)에 구비되는 깊이 맵(depth map)을 이용하여, 측정된 물체의 깊이이미지(I)로부터 측정된 물체를 인식하는 단계(S310);
(step (S320)단계): 깊이 맵에 의하여, 상기 인식된 물체의 윤곽선(외곽선))을 추출(감지)하는 단계(S320);
(step (S330)단계) : 깊이 맵에 의하여, 추출된 물체의 윤곽선(외곽선)으로부터 측정된 물체의 길이, 너비 및 높이 정보를 도출한 단계(S330);
(step (S400)단계) : 상기 이미지처리부(210)에서 추출된 물체의 특징부(F)와 크기(S)를 데이터처리센터(200)의 저장부(230)에 저장하는 단계(S400);
(step (S500)단계) : 상기 이미지처리부(210)에서 추출된 물체의 특징부(F)와 크기(S)에 대한 이미지 정보를 이미지분석부(220)로 전송하는 단계(S500);
(step (S550)단계) : 상기 (S100)단계 내지 (S500)단계를 수행한 후에, 동일한 물체에 대하여 2회 더 상기 (S100)단계로부터 상기 (S500)단계를 수행하는 단계(S550);
여기서, 첫 번째 측정된 물체의 깊이이미지(I)와, 깊이이미지(I)로부터 추출된 물체의 특징부(F) 및 크기(S) 각각을 인덱스“A"를 부여하여 물체A의 I(A), F(A), S(A)로 표기하고, 두 번째 측정된 물체의 깊이이미지(I)와, 깊이이미지(I)로부터 추출된 물체의 특징부(F) 및 크기(S) 각각을 인덱스“B"를 부여하여 물체B의 I(B), F(B), S(B)로 표기하고, 마지막 세 번째 측정된 물체의 깊이이미지(I)와, 깊이이미지(I)로부터 추출된 물체의 특징부(F) 및 크기(S) 각각을 인덱스“C"를 부여하여 물체C의 I(C), F(C), S(C)로 표기한다.
다음으로는, 상기와 같이 동일한 물체에 대하여 3회 반복하여 추출된 깊이이미지(I(A), I(B), I(C)), 특징부 (F(A), F(B), F(C)), 및 크기 (S(A), S(B), S(C))로부터 각각의 측정상태를 본 발명에 따른 데이터처리센터(200)의 이미지분석부(220)에 의한 보정알고리즘에 의하여 다음과 같은 일련의 처리과정에 의하여 판단한다.
(step (S600)단계) : 상기 깊이센서모듈(100)로부터의 촬영측정부인 카메라의 매개정보를 기초로 하여, 상기 이미지처리부(210)에서 추출된 물체A, 물체B 및 물체C의 특징부(F(A), F(B), F(C))와 크기(S(A), S(B), S(C))로부터 이미지분석부(220)의 보정알고리즘을 통하여 물체A, 물체B 및 물체C의 특징부(F(A), F(B), F(C))와 크기(S(A), S(B), S(C))에 대한 물체의 이미지 정보를 분석하여 측정상태를 판단하는 단계(S600);
상기 (S600)단계는, 보다 구체적으로 데이터처리센터(200) 이미지분석부(220)에서 추출된 물체A 내지 물체C의 특징부(F(A), F(B), F(C))와 크기(S(A), S(B), S(C))에 대하여 다음과 같은 보다 상세한 처리 과정에 의한 보정알고리즘에 의하여 촬영된 물체의 이미지 정보를 분석하고, 그로부터 측정상태를 판단하는 일련의 절차를 수행한다.
(step (S610)단계) : 상기 물체A 내지 물체C 각각의 특징부(F)에 대한 신호 대 노이즈(S/N) 비율(즉, 이미지의 왜곡(distortion)) 및, 측정 대상 물체의 모양, 위치 등의 정보를 기준으로 상기 물체의 특징부(F)에 대한 측정 상태를 판단하는 단계(S610);
(step (S611)단계) : 상기 물체A 내지 물체C의 특징부(F) 중 신호 대 노이즈(S/N) 비율로부터 상기 물체A 내지 물체C의 특징부(F)의 측정 상태를 판단하는 단계(S611);
(step (S612)단계) : 상기 물체A 내지 물체C의 특징부(F) 중 측정 대상 물체의 모양, 위치 정보로부터 상기 물체A 내지 물체C의 특징부(F)의 측정 상태를 판단하는 단계(S612);
(step (S620)단계) : 상기 (S610)단계인 상기 물체A 내지 물체C의 특징부(F)와 크기(S)가 정상상태 또는 비정상상태 여부에 따라 상기 물체A 내지 물체C의 특징부(F)에 대한 측정 상태를 판단하는 단계(S610)를 수행한 후, 상기 물체A 내지 물체C의 특징부(F)에 대한 판단 결과치가 기준 목표치에 도달하지 못한 경우이거나, 또는, 상기 물체A 내지 물체C의 크기(S)의 상대적인 차이가 매우 작지 않은 경우인 큰 경우에는 상기 (S100)단계로 이동하여 재측정을 수행하는 단계(S620);
여기서, 상기 물체A 내지 물체C의 크기인 (S)의 상대적인 차이는, S(A)-S(B), S(B)-S(C) 및 S(A)-S(C)로부터 차이가 크게 발생된 경우를 의미한다.
(step (S650)단계) : 상기 단계(S600)의 판단결과 정상상태인 경우는, 상기 물체 A의 특징부 F(A)와 크기 S(A)를 기준으로 물체 B의 특징부 F(B)와 크기 S(B)를 F(B)’와 크기 S(B)’로 측정 보정을 수행하는 단계(S650);
(step (S660)단계) : 상기 (S650)단계와 같은 측정 보정을 수행한 후, 상기 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)에서, 특징부 F(A), F(B), F(C) 상호 간의 일치도(matching degree) 및 크기 S(A), S(B), S(C) 상호 간의 일치도(matching degree)로부터 스코어(score)를 획득하는 단계(S660);
(step (S670)단계) : 상기 단계(S660)의 획득한 스코어의 값을 통하여 재측정 여부를 판단하는 단계(S670);
(step (S670-1)단계) 상기 (S670)단계의 판단 결과, 스코어의 최대값 100을 기준으로 최소값이 70점 이상일 경우에는, 측정된 깊이이미지(I)가 충분하다고 판단하고, 그 결과치인 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)를 기초로 하여 획득한 물체의 최종적인 크기를 획득하는 단계(S670-1);
(step (S670-2)단계) 상기 (S670)단계의 판단 결과, 스코어의 최대값 100을 기준으로 최소값이 70점 이상일 경우에는, 측정된 깊이이미지(I)가 충분하지 않다고 판단하고, 단계 (S100)로 피드백하여 재측정하는 단계(S670-2);
vii) 상기 이미지분석부(220)에서 분석된 물체의 이미지 정보를 저장부(230)에 저장하는 단계(S700); 및
vi) 상기 이미지분석부(220)로부터 분석된 물체의 이미지 정보를 통신부(240)를 통하여 외부통신유닛(300)으로 전송하는 단계(S800); 를 포함하는 것을 특징으로 한다.
본 발명에 따른 보정알고리즘을 이용한 부피측정방법은, 상기와 같이 동일한 물체에 대하여 3회 반복 촬영하여 측정하고, 측정된 각각의 측정치로부터 최종 결과치를 도출한다. 즉, (S100)단계 내지 (S500)단계를 3회 수행한다.
본 발명에 따른 깊이센서모듈(100)의 촬영측정부인 카메라로부터 물체의 이미지를 촬영 측정하는 단계(S100)와, 측정된 물체의 이미지 정보를 이용하여 이미지처리부(210)에서 물체의 특징부와 크기를 추출하는 단계(S300)에 대하여 보다 상세하게 설명하기로 한다.
본 발명에 따르면, (S100)단계와 같이, 동일한 물체에 대하여 다음과 같이 3 회의 반복적인 촬영 측정과정을 통하여 물체의 깊이이미지(I)에 대한 측정치를 획득하고, (S300)단계와 같이, 이미지처리부(210)에서 상기 (S100)단계의 측정치인 물체의 깊이이미지(I)로부터 물체의 특징부(F)와 크기(S)를 추출하는 과정을 수행한다.
먼저, (S100)단계와 같이, 3 회의 반복적인 촬영 측정과정을 수행하여 측정치인 물체의 깊이이미지(I)를 획득하는 과정과, (S300)단계와 같은 상기 측정치인 물체의 깊이이미지(I)로부터 물체의 특징부(F)와 크기(S)를 추출하는 과정에 대하여 보다 세부적으로 구분하여 설명하면 다음과 같다,
우선적으로 동일한 물체에 대하여 깊이센서모듈(100)의 촬영측정부인 카메라로부터 첫 번째로 측정하는 과정은 다음과 같다.
(step (S100-A)단계) : 동일한 물체에 대하여 깊이센서모듈(100)의 촬영측정부인 카메라로부터 촬영 측정과정을 수행하여, 첫 번째로 촬영 측정되는 물체에 대하여 이미지 인덱스 A를 부가하여 “물체A”로 표시하고, 물체A의 깊이이미지(depth image) I(A)를 획득하는 단계(S100-A)이다.
이와 같이 (S100-A) 단계를 수행한 후에는 다음과 같이 측정치인 물체A의 깊이이미지 I(A)로부터 물체A의 특징부 F(A)와 크기 S(A)를 상기 이미지처리부(210)에서 추출하는 단계(S300-A)를 수행한다.
즉, (step (S300-A)단계) : 상기 깊이센서모듈(100)에서 획득한 깊이이미지 I(A)로부터 상기 이미지처리부(210)에서 물체A의 특징부 F(A) 및 크기 S(A)를 추출하는 단계(S300-A)이다.
다음으로, 동일한 물체에 대하여 깊이센서모듈(100)의 촬영측정부로부터 두 번째로 측정하는 과정은, 상기 첫 번째 측정하는 과정과 동일하다. 즉,
(step (S100-B)단계) : 동일한 물체에 대하여 깊이센서모듈(100)의 촬영측정부로부터 촬영 측정과정을 수행하여, 두 번째로 촬영되는 물체에 대하여 이미지 인덱스 B를 부가하여 “물체B”로 표시하고, 물체B의 깊이이미지 I(B)를 획득하는 단계(S100-B)이다.
이와 같이 (S100-B)단계를 수행한 후에는, 다음과 같이 측정치인 물체B의 깊이이미지 I(B)로부터 물체B의 특징부 F(B)와 크기 S(B)를 상기 이미지처리부(210)에서 추출하는 단계(S300-B)를 수행한다.
즉, (step (300-B)단계) : 상기 깊이센서모듈(100)에서 획득한 깊이이미지 I(B)로부터 상기 이미지처리부(210)에서 물체 B의 특징부 F(B) 및 크기 S(B)를 추출하는 단계(S300-B)이다.
다음으로, 동일한 물체에 대하여 깊이센서모듈(100)의 촬영측정부로부터 세 번째로 측정하는 과정은, 상기 첫 번째 및 두 번째 측정하는 과정과 동일하다. 즉,
(step S100-C단계) : 동일한 물체에 대하여 깊이센서모듈(100)의 촬영측정부로부터 촬영 측정과정을 수행하여, 세 번째로 촬영되는 물체에 대하여 이미지 인덱스 C를 부가하여 “물체C”로 표시하고, 물체C의 깊이이미지 I(C)를 획득하는 단계(S100-C)이다.
이와 같이 (S100-C)단계를 수행한 후에는, 다음과 같이 측정치인 물 C의 깊이이미지 I(C)로부터 물체C의 특징부 F(C) 및 크기 S(C)를 상기 이미지처리부(210)에서 추출하는 단계(S300-C)를 수행한다.
즉, (step (S300-C)단계) : 상기 깊이센서모듈(100)에서 획득된 깊이이미지 I(C)로부터 상기 이미지처리부(210)에서 물체C의 특징부 F(C) 및 크기 S(C)를 추출하는 단계(S300-C)이다.
여기서,
“A”, “B”, “C” : 깊이센서모듈(100)의 촬영측정부에 의하여 3 회에 걸쳐서 측정된 물체를 구분하기 위한 이미지 인덱스이다.
“I" : 깊이이미지(depth Image)를 나타내며, 물체A ~ 물체C 각각의 깊이이미지는 I(A), I(B), I(C)로 나타낸다.
“F”: 특징부(Feature)를 의미하며, 특징부(F)의 정보는 예로써 물체 위치, 모양, 환경 조명 등을 포함한다. 물체A ~ 물체C 각각의 특징부는 F(A), F(B), F(C)로 나타낸다.
“S” : 크기(Size)로서, 물체의 길이(length), 너비(width), 높이(height) 등이 포함될 수 있다. 물체A ~ 물체C 각각의 크기는 S(A), S(B), S(C)로 나타낸다.
다음으로는, (S300)단계인 물체에 대한 특징부(F)와 크기(C)를 추출하는 과정에 대하여 보다 상세히 설명하기로 한다.
(가) 물체에 대한 특징부(F)를 추출하는 과정은 다음과 같다.
상기 (S300)단계는, 측정된 물체의 깊이이미지(I)로부터 물체의 특징부(F)와 크기(S)를 추출하는 과정으로서, 물체의 특징부(F) 추출은, 상기 (S100)단계에서 깊이센서모듈(100)의 촬영측정부에서 촬영 측정과정을 수행하여 획득한 정보인, 물체의 깊이이미지(I)로부터, i) 신호 대 노이즈(S/N)비율 (이미지의 왜곡(distortion)) 및 ii) 측정 대상 물체의 모양, 위치 정보를 기준으로 특징부(F)를 추출한다.
(나) 물체의 크기(S)를 추출하는 과정은 다음과 같다.
상기 (S300)단계는, 측정된 물체의 깊이이미지(I)로부터 물체의 특징부(F)와 크기(S)를 추출하는 과정으로서, 물체의 크기(S) 추출은, 다음과 같이 세부적인 세 개의 단계(S310 ~ S330)를 포함할 수 있다.
(step (S310)단계) : 상기 이미지처리부(210)에 구비되는 깊이맵(depth map)을 이용하여, 측정된 물체의 깊이이미지(I)로부터 측정된 물체를 인식하는 단계(S310);
(step (S320)단계): 깊이맵에 의하여, 상기 인식된 물체의 윤곽선(외곽선))을 추출(감지)하는 단계(S320);
여기서, 물체의 윤곽선(외곽선)을 추출(감지)하는 단계란, 깊이맵을 이용하여 물체의 윤곽(외곽)선을 검측하여 추출하는 과정이다.
(step (S330)단계) : 깊이맵에 의하여, 추출된 물체의 윤곽선(외곽선)으로부터 측정된 물체의 길이, 너비 및 높이 정보를 도출한 단계(S330);를 수행한다.
여기서, 깊이맵을 이용하여 추출된 물체의 윤곽선(외곽선)을 둘러싼 사각형체를 모델링함으로써, 물체의 길이, 너비 및 높이 정보를 도출하여 획득할 수 있다.
따라서, 상기와 같은 (S310)단계 ~ (S330)단계의 과정을 수행하여 측정된 물체의 깊이이미지(I)로부터 측정된 물체에 대한 크기(S)를 추출할 수 있다.
다음으로는, 물체A 내지 물체C 각각에 대한 특징부와 크기를 추출하는 과정을 (S300-A)단계 ~ (S300-C)단계로 표시하여 설명하기로 한다.
(step (S300-A)단계) ~ (step (S300-C)단계)인 물체A 내지 물체C에 대한 특징부(F(A), F(B), F(C)) 및 크기(S(A), S(B) S(C))를 추출하는 과정에 대하여 보다 상세히 설명하면,
즉 (step (S300-A)단계) ~ (step (S300-C)단계)는, 상기 이미지처리부(210)에서 수행하는 단계로서, 즉, (step (S100-A)단계) ~ (step (S100-C)단계)에서의 깊이센서모듈(100)의 촬영측정부로부터 촬영 측정과정을 수행하여 획득한 물체A ~ 물체C의 깊이이미지 (I(A), I(B), I(C)로부터 이미지처리부(210)에서 물체A ~ 물체C의 특징부 (F(A) ~ F(C))와, 크기( S(A) ~ S(C))를 추출하는 단계로서, 구체적인 과정은 다음과 같다.
(가) (step (300-A)단계)인 물체A의 깊이이미지 I(A)로부터 상기 물체A의 특징부 F(A)를 추출하는 과정은, 상기 (S100-A)단계에서 깊이센서모듈(100)의 촬영측정부에서 촬영 측정과정을 수행하여 획득한 정보인, 물체A의 깊이이미지 I(A)로부터, i) 신호 대 노이즈(S/N)비율 (이미지의 왜곡(distortion)) 및 ii) 측정 대상 물체의 모양, 위치 정보를 기준으로 특징부 F(A)를 추출한다.
또한 (step (300-B)단계)인 물체B의 깊이이미지 I(B)로부터 상기 물체B의 특징부 F(B)를 추출하는 과정은, 상기 (S100-B)단계에서 깊이센서모듈(100)의 촬영측정부에서 촬영 측정과정을 수행하여 획득한 정보인, 물체B의 깊이이미지 I(B)로부터, i) 신호 대 노이즈(S/N) 비율(이미지의 왜곡(distortion)) 및 ii) 측정 대상 물체의 모양, 위치 정보를 기준으로 특징부 F(B) 정보를 추출한다.
또한, (step 300-C단계)인 물체C의 깊이이미지 I(C)로부터 상기 물체C의 특징부F(C)를 추출하는 과정은, 상기 (S100-C)단계에서 깊이센서모듈(100)의 촬영측정부에서 촬영 측정과정을 수행하여 획득한 정보인, 물체C의 깊이이미지 I(C)로부터, i) 신호 대 노이즈(S/N) 비율(이미지의 왜곡(distortion)) 및 ii) 측정 대상 물체의 모양, 위치 정보를 기준으로 특징부 F(C) 정보를 추출한다.
즉, (step 300-A단계) ~ (step 300-C단계)에서 물체A 내지 물체C의 특징부 (F(A), F(B), F(C))를 추출하는 과정은, 상기 (S100A ~ S100C)단계에서 깊이센서모듈(100)의 촬영측정부(카메라)에서 촬영 측정과정을 수행하여 획득한 정보인, 물체A 내지 물체C의 깊이이미지 (I(A), I(B), I(C))로부터, i) 신호 대 노이즈(S/N) 비율(이미지의 왜곡(distortion)) 및 ii) 측정 대상 물체의 모양, 위치 정보를 기준으로 특징부 (F(A), F(B), F(C))를 추출하는 과정이다.
(나) 물체A 내지 ~ 물체C의 크기 (S(A), S(B), S(C))를 추출하는 과정은 다음과 같다.
i) 먼저, 물체 A를 예로써 설명하면 다음과 같이 세부적인 세 개의 단계(S310-A ~ S330-A)를 포함할 수 있다.
(step (S310-A)단계) : 상기 이미지처리부(210)에 구비되는 깊이맵(depth map)을 이용하여, 물체A의 깊이이미지 I(A)로부터 물체A를 인식하는 단계(S310-A);
(step (S320-A)단계): 깊이맵(depth map)에 의하여, 상기 인식된 물체A의 윤곽선(외곽선))을 추출(감지)하는 단계(S320-A);
여기서, 물체A의 윤곽선(외곽선)을 추출(감지)하는 단계란, 깊이맵을 이용하여 물체A의 윤곽(외곽)선을 검측하여 추출하는 과정이다.
(step (S330-A)단계) : 깊이맵에 의하여, 추출된 물체A의 윤곽선(외곽선)으로부터 물체A의 길이, 너비 및 높이 정보를 도출한 단계(S330-A);를 포함한다.
여기서, 깊이맵을 이용하여 추출된 물체A의 윤곽선(외곽선)을 둘러싼 사각형체를 모델링함으로써, 물체A의 길이, 너비 및 높이 정보를 추출할 수 있다.
따라서, 상기 (S310-A)단계 내지 (S330-A)단계를 수행하여 물체A에 대한 크기 S(A)를 추출할 수 있다.
또한, 상기 물체B 및 물체C에 대한 크기(S(B), S(C)) 역시도, 물체A에 대한 크기 S(A)를 추출하는 과정과 동일한 과정 즉, (step (S310-B)단계) ~ (step (S330-B)단계) 및 (step (S310-C)단계) ~ (step (S330-C)단계)를 수행하여 상기 물체B 및 물 C에 대한 크기 (S(B), S(C))를 추출할 수 있다.
다음으로는, 상기 이미지분석부(220)에서 분석하여 처리하는 과정으로서, (S600)단계인 물체의 특징부(F)와 크기(S)로부터 보정알고리즘을 통하여 물체의 특징부(F)와 크기(S)에 대한 이미지 정보를 분석하여 측정상태를 판단하는 과정에 대하여 설명하기로 한다.
(S600)단계는, 상기 이미지분석부(220)에서 보정알고리즘을 통하여 상기 이미지처리부(210)에서 추출된 물체의 특징부(F)와 크기(S)를 분석하여 측정상태를 판단하는 단계(S600)로서, 이에 대하여 세부적으로 설명하면 다음과 같다.
즉, 상기 (S600)단계는, 상기 물체의 특징부(F)와 크기(S)로부터 이미지분석부(220)에 의하여 분석하는 과정으로서, 즉, 깊이센서모듈(100)의 카메라로부터 촬영하여 측정한 깊이이미지(I)로부터 이를 이미지처리부(210)에서 처리하여 물체 의 특징부(F)와 크기(S)를 추출하고, 추출된 물체의 특징부(F)와 크기(S)를 이미지분석부(220)에서 보정알고리즘을 통하여 분석하여 물체의 측정 상태를 판단하는 단계이다.
즉, 상기 물체에 대한 깊이이미지(I)에 의하여 추출된 물체의 특징부(F)는, 다음과 같은 판단 기준에 의하여 물체의 특징부(F)가 정상상태인가 또는 비정상상태인 경우인가에 대한 각각의 측정 상태를 판단할 수 있다.
(step (S610)단계) : 상기 물체의 특징부(F)에 대한 신호 대 노이즈(S/N) 비율(즉, 이미지의 왜곡(distortion)) 및, 측정 대상 물체의 모양, 위치 등의 정보를 기준으로 상기 물체의 특징부(F)에 대한 측정 상태를 판단하는 단계(S610); 를 수행한다.
상기 (S610)단계는 다음과 같이 세부적인 두 개의 단계로 구분하여 수행될 수 있다.
(step (S611)단계) : 상기 물체의 특징부(F) 중 신호 대 노이즈(S/N) 비율로부터 상기 물체의 특징부(F)의 측정 상태를 판단하는 단계(S611); 를 수행한다.
상기 (S611)단계에서 만약, 물체를 매번 촬영 측정할 때의 영상인 프레임(Frame 측정 물체의 영상에 대한 깊이이미지)에서 깊이이미지에 대한 신호 대 노이즈 비율인 (S/N)비로부터 노이즈가 크게 변경된 경우에는, 측정 장비인 깊이센서모듈(100)이 변경되었거나 또는 깊이센서모듈(100)의 각종 측정 파라미터 값이 변경 즉, 측정 환경이 변경되었음을 의미하는 것이다.
즉, 여기서 상기 신호 대 노이즈(S/N) 비율로부터 노이즈가 크게 변경된 경우는, 상기 물체의 프레임(물체의 측정 영상 각각의 깊이이미지)에서 매번 측정시의 프레임마다 깊이이미지에 대한 신호 대 노이즈(S/N) 비율로부터 노이즈 비율을 계산하여 상기 물체의 프레임에서 노이즈 비율이 20%이상 차이가 발생한 경우에 정상적인 기준을 초과한 것으로 판단한다. 즉, 측정 장비인 깊이센서모듈(100) 자체가 변경되었거나, 또는 측정 환경인 깊이센서모듈(100)의 각종 측정 파라미터 값이 변경된 것으로 물체의 특징부(F)가 비정상 상태인 경우로 판단한다.
(step (S612) 단계) : 상기 물체의 특징부(F) 중 측정 대상 물체의 모양, 위치 정보로부터 상기 물체의 특징부의 측정 상태를 판단하는 단계(S612); 를 수행한다.
상기 (S612)단계에서 만약, 물체의 특징부(F) 중에서 모양과 위치가 변경되는 경우에는, 물체의 움직임이 발생(또는 물체의 위치가 이동)된 것으로 판단한다.
즉, 여기서 물체의 위치가 이동(또는 움직임이 발생)된 경우에는 측정된 물체의 이미지 영상에 대한 왜곡이 크게 발생된 경우로써 측정 장비가 비정상적인 것으로써, 상세하게는 측정된 물체의 이미지 영상이 5% 이상 왜곡이 발생할 경우에는 물체의 특징부(F)가 비정상 상태인 경우로 판단한다.
반면에, 상기 (S611)단계와, 상기 (S612)단계의 판단 결과, 물체의 특징부(F)가 정상 상태인 경우 즉, 측정 장비 또는 측정 환경의 변화가 없고, 측정 물체도 움직이지 않고 왜곡이 발생하지 않는 경우에는 물체의 특징부(F)가 정상 상태인 것으로 판단하여 다음 단계를 수행한다.
반면에, 상기 (S611)단계와, 상기 (S612)단계의 판단 결과, 물체의 특징부(F)가 비정상 상태인 경우 즉, 측정 장비 또는 측정 환경의 변화가 발생하였거나, 측정 물체에 대한 움직임이 발생하여 이미지의 심한 왜곡이 발생한 경우에는 물체의 특징부(F)가 비정상 상태인 것으로 판단하여 단계(S100)로 피드백하여 (S100)단계인 촬영 측정과정을 다시 반복하여 수행하여 물체의 깊이이미지(I)를 획득한다.
다음으로는. 물체A 내지 물체C에 대한 특징부 (F(A), F(B), F(C))와 크기 (S(A), S(B), S(C))로부터 보정알고리즘을 통하여 물체의 특징부 (F(A), F(B), F(C))와 크기 (F(A), F(B), F(C))에 대한 이미지 정보를 분석하여 측정상태를 판단하는 과정을 (S600)단계를 통하여 설명하기로 한다.
즉, 상기 (S600)단계는, 상기 물체A 내지 물체C에 대한 각각의 특징부 (F(A), F(B), F(C))와 크기 (S(A), S(B), S(C))로부터 이미지분석부(220)에 의하여 분석하는 과정으로서, 즉, 깊이센서모듈(100)의 카메라로부터 촬영하여 측정한 깊이이미지 (I(A), I(B), I(C))로부터 이를 이미지처리부(210)에서 처리하여 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))와 크기 (S(A), S(B), S(C))를 추출하고, 추출된 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))와 크기 (S(A), S(B), S(C))를 이미지분석부(220)에서 보정알고리즘을 통하여 분석하여 물체A, 물체B, 물체C 각각의 측정 상태를 판단하는 단계이다.
즉, 상기 물체A 내지 물체C에 대한 깊이이미지 (I(A), I(B), I(C))에 의하여 추출된 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))는, 다음과 같은 판단 기준에 의하여 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))가 정상상태인가 또는 비정상상태인 경우인가에 대한 각각의 측정 상태를 판단할 수 있다.
다음으로는 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))에 의하여 측정상태를 판단하는 단계를 보다 구체적으로 설명하면 다음과 같다.
(step S610 단계) : 상기 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))에 대한 신호 대 노이즈(S/N) 비율(즉, 이미지의 왜곡(distortion)) 및, 측정 대상 물체의 모양, 위치 등의 정보를 기준으로 상기 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))에 대한 각각의 측정 상태를 판단하는 단계(S610)를 수행한다.
상기 (S610)단계는 다음과 같이 두 개의 단계로 구분하여 수행될 수 있다.
(step (S611)단계) : 상기 물체A 내지 물체C 각각의 특징부 (F(A), F(B), F(C)) 중 신호 대 노이즈(S/N) 비율로부터 상기 물체A, 물체B, 물체C의 특징부의 측정 상태를 판단하는 단계(S611); 를 수행한다.
상기 (S611)단계에서 만약, 물체A 내지 물체C 각각의 프레임에 대한 신호 대 노이즈(S/N) 비율로부터 노이즈가 크게 변경된 경우에는, 측정 장비인 깊이센서모듈(100)이 변경되었거나 또는 깊이센서모듈(100)의 각종 측정 파라미터 값이 변경 즉, 측정 환경이 변경되었음을 의미하는 것이다.
즉, 여기서 상기 신호 대 노이즈(S/N) 비율로부터 노이즈가 크게 변경된 경우는, 상기 물체A 내지 물체C 각각의 프레임(Frame)에서 매번 측정시의 프레임마다 신호 대 노이즈(S/N) 비율로부터 노이즈 비율을 계산하여 상기 물체A 내지 물체C 각각의 프레임의 노이즈 비율이 20%이상 차이가 발생한 경우에 정상적인 기준을 초과한 것으로 판단한다. 즉, 측정 장비인 깊이센서모듈(100) 자체가 변경되었거나, 또는 측정 환경인 깊이센서모듈(100)의 각종 측정 파라미터 값이 변경된 것으로 물체A, 물체B, 물 C의 특징부가 비정상 상태인 경우로 판단한다.
(step (S612) 단계) : 상기 물체A 내지 물체C 각각의 특징부 중 측정 대상 물체의 모양, 위치 정보로부터 상기 물체A, 물체B, 물체C의 특징부의 측정 상태를 판단하는 단계(S612); 를 수행한다.
상기 (S612)단계에서 만약, 물체A, 물체B, 물체C의 특징부 중에서 모양과 위치가 변경되는 경우에는, 물체의 움직임이 발생(또는 물체의 위치가 이동)된 것으로 판단한다.
즉, 여기서 물체의 위치가 이동(또는 움직임이 발생)된 경우에는 측정된 물체의 이미지 영상에 대한 왜곡이 크게 발생된 경우로써 측정 장비가 비정상적인 것으로써, 상세하게는 측정된 물체의 이미지 영상이 5% 이상 왜곡이 발생할 경우에는 물체A, 물체B, 물체C의 특징부가 비정상 상태인 경우로 판단한다.
반면에, 상기 (S611)단계와, 상기 (S612)단계의 판단 결과, 물체A, 물체B, 물체C의 특징부가 정상 상태인 경우 즉, 측정 장비 또는 측정 환경의 변화가 없고, 측정 물체도 움직이지 않고 왜곡이 발생하지 않는 경우에는 물체A, 물체B, 물체C의 특징부가 정상 상태인 것으로 판단하여 다음 단계를 수행한다.
반면에, 상기 (S611)단계와, 상기 (S612)단계의 판단 결과, 물체A, 물체B, 물체C의 특징부가 비정상 상태인 경우 즉, 측정 장비 또는 측정 환경의 변화가 발생하였거나, 측정 물체에 대한 움직임이 발생하여 이미지의 심한 왜곡이 발생한 경우에는 물체A, 물체B, 물체C의 특징부가 비정상 상태인 것으로 판단하여 처음의 (S100)단계로 피드백하여 (S100)단계인 촬영 측정과정을 다시 반복하여 수행하여 물체A 내지 물체C의 깊이이미지 (I(A), I(B), I(C))를 획득한다.
(step (S620) 단계) : 상기 (S610)단계인 상기 물체의 특징부(F)와 크기(S)가 정상상태 또는 비정상상태 여부에 따라 상기 물체의 측정 상태를 판단하는 단계(S610)를 수행한 후, 상기 물체의 특징부(F)에 대한 판단 결과치가 기준 목표치에 도달하지 못한 경우이거나, 또는, 상기 물체의 크기(C)의 차이가 매우 작지 않은 경우인 큰 경우에는 상기 (S100)단계로 이동하여 재측정을 수행하는 단계(S620)를 더 포함한다.
본 발명에 따른 보정알고리즘을 이용한 부피측정방법은, 깊이이미지(I)가 안정적이고, 움직임이 적고, 주변 소음이 적어야 보다 높은 정밀도의 측정치를 확보할 수 있다.
따라서, 상기 (S620)단계에서, 상기 물체의 특징부(F)에 대한 판단 결과치가 기준 목표치에 도달하지 못한 경우는, 물체의 특징부(F)에는 깊이이미지(I)의 노이즈 정보가 포함되어 있으며, 특징부(F)의 관계는 이미지가 안정적인지 또는 움직임이 있는지에 대한 정보를 포함하고 있다.
즉, 이미지가 안정적(Stable)인 경우를 판단하기 위해서는 다음과 같은 파라미터를 고려할 수 있다. 측정(촬영)된 이미지가 측정 설비 파라미터와 일치하는지 여부와, 측정 환경으로써 조명 및 물체가 촬영 측정 시에 변화가 있었는지 여부와, 심지어는 공기 기류 흐름도 관련성이 있을 수 있다.
본 발명에 따른 보정알고리즘을 이용한 부피측정방법에서 요구되고 있는 이미지가 안정적(Stable)일 경우는, 촬영 측정 시에 측정 대상 물체의 움직임이 없는 경우이며, 또한 측정 설비의 파라미터는 측정 전 설정 시의 값과 동일한 상태인 경우로 이와 같은 경우에는 재측정과정 없이 다음 단계를 수행한다.
따라서, 본 발명에 따른 부피측정과정에서 측정 대상의 물체를 측정할 경우에 매 프레임(Frame)마다 깊이이미지(I)에서 물체의 특징을 값으로 표현한 특정한 값인 특정값으로 기록하여 즉, 특징부(F)를 특정값으로 설정하여 측정 대상의 물체가 변화가 있었는지 판단을 하여 이미지에 대한 안정(Stable) 상태 여부를 확인한다.
아울러, 상기 (S620)단계에서, 상기 물체의 크기인 (S)의 차이가 매우 작은 경우는, 상기 물체의 크기(S)를 추출하는 단계인 (S310)단계 내지 (S330)단계를 수행하여 추출된 물체의 크기인(S)의 차이가 2% 미만인 경우에 해당되며, 이와 같은 경우에는 재측정 없이 다음 단계를 수행한다.
다음으로는 (S610)단계를 수행하여 상기 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))와 상기 물체A, 물체B, 물체C의 크기 (S(A), S(B), S(C))의 측정상태를 판단한 후 판단 결과치가 기준 목표치에 도달하지 못한 경우이거나, 이가 매우 작지 않은 경우인 큰 경우에 대하여 설명하기로 한다.
(step S620 단계) : 상기 (S610)단계인 상기 물체A, 물체B, 물체C의 특징부와 크기가 정상상태 또는 비정상상태 여부에 따라 상기 물체A, 물체B, 물체C의 각각의 측정 상태를 판단하는 단계(S610)를 수행한 후, 상기 물체A, 물체B, 물체C의 특징부(F(A), F(B), F(C))에 대한 판단 결과치가 기준 목표치에 도달하지 못한 경우이거나, 또는, 상기 물체A, 물체B, 물체C의 크기인 (S(A), S(B), S(C))의 차이가 매우 작지 않은 경우인 큰 경우에는 상기 (S100)단계로 이동하여 재측정을 수행하는 단계(S620); 를 더 포함한다.
본 발명에 따른 부피측정에 대한 보정알고리즘을 이용한 부피측정방법은, 물체A, 물체B, 물체C의 깊이이미지 (I(A), I(B), I(C))가 안정적이고, 움직임이 적고, 주변 소음이 적어야 보다 높은 정밀도의 측정치를 확보할 수 있다.
따라서, 상기 (S620)단계에서, 상기 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))에 대한 판단 결과치가 기준 목표치에 도달하지 못한 경우는, 물체A, 물체B, 물체C의 특징부 (F(A), F(B), F(C))에는 깊이이미지 (I(A), I(B), I(C))의 노이즈정보가 포함되어 있으며, 특징부 (F(A), F(B), F(C))의 관계는 이미지가 안정적인지 또는 움직임이 있는지에 대한 정보를 포함하고 있다.
즉, 이미지가 안정적(Stable)인 경우를 판단하기 위해서는 다음과 같은 파라미터를 고려할 수 있다. 측정(촬영)된 이미지가 측정 설비 파라미터와 일치하는지 여부와, 측정 환경으로써 조명 및 물체가 촬영 측정 시에 변화가 있었는지 여부와, 심지어는 공기 기류 흐름도 관련성이 있을 수 있다.
본 발명에 따른 부피측정에 대한 보정알고리즘을 이용한 부피측정방법에서 요구되고 있는 이미지가 안정적(Stable)일 경우는, 촬영 측정 시에 측정 대상 물체의 움직임이 없는 경우이며, 또한 측정 설비의 파라미터는 측정 전 설정 시의 값과 동일한 상태인 경우로 이와 같은 경우에는 재측정과정 없이 다음 단계를 수행한다.
따라서, 본 발명에 따른 부피측정과정에서 측정 대상의 물체를 측정할 경우에 물체A, 물체B, 물체C의 매 프레임(Frame)마다 깊이이미지 (I(A), I(B), I(C))의 특정값을 기록하여 즉, 특징부 (F(A), F(B), F(C))를 특정값으로 설정하여 측정 대상의 물체가 변화가 있었는지를 판단하여 이미지에 대한 안정(stable) 상태 여부를 판정한다.
아울러, 상기 (S620)계에서, 상기 물체A, 물체B, 물체C의 크기인 (S(A), S(B), S(C))의 차이가 매우 작은 경우는, 상기 물체A, 물체B, 물체C의 크기 (S(A), S(B), S(C))를 추출하는 단계인 (S310)단계 내지 (S330)단계를 수행하여 추출된 물체A, 물체B, 물체C의 크기인 (S(A), S(B), S(C)) 상호간의 차이가 2% 미만인 경우에 해당되며, 이와 같은 경우에는 재측정 없이 다음 단계를 수행한다.
(step (S650)단계) : 상기 단계(S600)의 판단결과 정상상태인 경우는, 상기 물체A의 특징부 F(A)와 크기 S(A)를 기준으로 물체B의 특징부 F(B)와 크기 S(B)를 F(B)’와 크기 S(B)’로 측정 보정을 수행하는 단계(S650);를 수행한다.
상기 (S650)단계는, 물체A, 물체B, 물체C 상호간의 연관성을 분석하여 크기를 수정하는 과정으로서, 저장부(230)에 미리 기 저장된 직전의 이미지의 형태와 크기를 읽어 들여서 현재의 물체의 이미지 정보와 직전의 이미지 정보 상호간의 연관성으로부터 크기를 보정하는 보정알고리즘 단계이다.
상기 (S650)단계와 같이, 상기 물체 A의 특징부 F(A)와 크기 S(A)를 기준으로 물체 B의 특징부 F(B)와 크기 S(B)를 F(B)’와 크기 S(B)’로 수정하여 조정하는 이유는, 물체 A의 특징부 F(A)에서 추출되는 신호 대 노이즈(S/N) 비율로부터 얻을 수 있는 영상의 노이즈 수치로부터 영상 프레임의 노이즈 비율이 20% 이상의 차이가 발생된 경우는 정상적인 기준을 초과한 경우에 해당되므로 이를 기초로 하여 설정시의 측정 설비의 파라미터와 측정 당시의 설비의 파라미터를 서로 비교하여 특징부 F(B)와 크기 S(B)에 대하여 미세조정을 수행하여 F(B)’와 크기 S(B)’를 확보한 후 물체 C의 깊이이미지 I(C)로부터 다음과 같은 검증 과정을 수행할 수 있다.
즉, 예를 들면, 물체B의 특징부 F(B)에 노이즈비율 등의 정보가 포함되어 있는데, 물체A의 깊이이미지 I(A)에 대한 노이즈비율과 같은 품질파라미터(측정 용도의 파라미터)가 물체B의 깊이이미지 I(B)의 품질파라미터에 비하여 양호한 상태인 경우는, {S(B)'= S(B)× 0.6 + S(A)× 0.4}와 같은 측정 보정을 수행하며, 그것과는 반대로 물체B의 깊이이미지 I(B)가 물체A의 깊이이미지 I(A)에 비하여 품질파라미터가 양호한 상태인 경우에는, {S(B)'= S(B)× 0.9 + S(A)× 0.1}과 같은 측정 보정을 수행한다.
여기서, 상기 품질파라미터를 수식으로 표현하면 다음과 같다.
품질 파라미터 = S/N비(신호대잡음 비) / 이미지 모서리부의 선명도(motion blur)
여기서, 상기 이미지 모서리의 선명도(Motion Blur)는 물체의 움직임이 없으면 이미지의 모서리부가 선명하고 얇은 반면, 물체의 움직임이 있으면 이미지의 모서리부가 두껍고 흐려지는 정도를 의미한다. 즉, 움직임이 없을 경우에는 모서리는 몇 픽셀 밖에 되지 않는 반면에, 움직임이 있는 경우에는 모서리의 픽셀이 두꺼워지는데 이와 같은 픽셀의 값을 이미지 모서리의 선명도라 한다. 이와같은 이미지 모서리의 선명도를 수식으로 표현하면 다음과 같다.
이미지 모서리의 선명도(Motion Blur) = 선 두께(blur distance) / 노출시간(exposure time)
(step S660단계) : 상기 단계(S650)와 같은 측정 보정을 수행한 후 상기 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)에서, 특징부 F(A), F(B), F(C) 서로 간의 일치도(matching degree) 및 크기 S(A), S(B), S(C)서로 간의 일치도(matching degree)로부터 스코어(score)를 획득하는 단계(S660); 를 수행한다.
여기서, 상기 일치도(matching degree)는 특정 공간에서 물체A 내지 물체C의 특징부 F(A), F(B), F(C)가 서로 비슷하다는 의미로써, 다른 측면에서는 F(A), F(B), F(C)의 특징부 벡터들이 직각좌표계의 공간상에 충분히 근접되게 모아져 있는 경우에는 각 특징부들이 서로 유사하여 일치도가 높은 것으로 판정한다.
본 발명에 따르면, 보정알고리즘을 통하여 조정된 수정된 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)로부터, 최종 수정된 이미지의 특징부와 크기를 직전 마지막 몇 번의 수정된 이미지의 특징부와 크기와 상호 비교하여 스코어를 획득하는 과정이다.
상기 (S650)단계에서 상기 스코어(Score)는 크기 S(A), S(B) 및 S(C)의 차이, 및 특징부 F(A), F(B) 및 F(C)의 관계 이미지의 신호 대 노이즈(S/N) 비율 중 보다 적은 최소값으로 선택한다,
예를 들어, F(A),F(B) 와 F(C)의 관련 연관성이 낮을 경우, 또는 S(A),S(B)와 S(C)의 변화가 클 경우는 상기 스코어의 값은 적다.
또한, 상기 신호 대 노이즈(S/N) 비율은, 물체A, 물체B 및 물체C의 깊이이미지 (I(A), I(B), I(C))로부터 이미지의 신호강도 대비 백색잡음(white noise)을 서로 비교하여 획득할 수 있다.
(step S670단계) : 상기 단계(S660)의 획득한 스코어의 값을 통하여 재측정 여부를 판단하는 단계(S670);를 수행한다.
(step S670-1단계) 상기 (S670) 단계의 판단 결과, 스코어의 최대값 100을 기준으로 최소값이 70점 이상일 경우에는, 측정된 깊이이미지(I)가 충분하다고 판단하고, 그 결과치인 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)를 기초로 하여 획득한 물체의 최종적인 크기를 획득하는 단계(S670-1);를 수행한다.
(step S670-2단계) 상기 (S670) 단계의 판단 결과, 스코어의 최대값 100을 기준으로 최소값이 70점 이상일 경우에는, 측정된 깊이이미지(I)가 충분하지 않다고 판단하고, 단계(S100)로 피드백하여 재측정하는 단계(S670-2);를 수행한다.
이상을 정리하면,
이미지처리부(210)에서 물체의 특징부(모양)와 크기를 도출하여 / 저장한 후에, 이미지분석부(220)에서 저장된 물체의 특징부(모양)와 크기를 읽어 들여서 그로부터 물체의 연관성을 분석한 후 크기를 수정한 수정된 물체의 특징부(모양) 및 크기와 마지막 몇 장의 수정된 이미지의 크기와 특징부(모양)를 종합적으로 상호 비교하여 스코어를 계산한 후, 이상 현상이 발생할 경우에는 재측정을 수행하며, 정상상태인 경우에는 최종 측정치에 대하여 외부통신모듈로 전송한다,
따라서, 본 발명에 따르면, 보정알고리즘에 의하여 물체의 위치, 뿐만 아니라 측정환경, 물체의 표면 재질, 색깔 및 외부의 빛에 의한 반사율 등 외부의 다양한 환경의 영향에 의해 발생되는 측정오차값(실제값과 측정값의 차이로 실제크기의 ± 5mm 범위 내 오차)을 줄여서 항상 일정한 범위 내에서 양호한 측정치를 획득할 수 있는 효과가 있다.
10 : 부피측정장치
100 : 깊이센서모듈
200 : 데이터처리센터
210 : 이미지처리부 220 : 이미지분석부
230 : 저장부 240 : 통신부
250 : 제어부
300 : 외부통신모듈

Claims (8)

  1. 물체의 깊이이미지(I)를 촬영 측정하기 위하여 형성되는 촬영측정부를 구비한 깊이센서모듈과;
    상기 깊이센서모듈의 촬영측정부에서 촬영 측정된 상기 물체의 깊이이미지(I)에 의하여 물체의 특징부(F)와 크기(S)를 획득하고, 상기 획득한 물체의 특징부(F)와 크기(S)를 분석하여 최종적인 물체의 크기(S)에 대한 결과치를 처리하는 데이터처리센터와;
    상기 데이터처리센터로부터 처리된 최종적인 물체의 크기(S)에 대한 측정치를 수신하는 외부통신유닛을 포함하는 것을 특징으로 하는 보정알고리즘을 이용한 부피측정장치.
  2. 청구항 1에 있어서, 상기 데이터처리센터는,
    상기 깊이센서모듈로부터 측정된 물체의 깊이이미지로부터 물체에 대한 특징부와 크기를 추출하는 이미지처리부와;
    상기 이미지처리부에서 추출된 물체에 대한 특징부와 크기로부터 보정알고리즘을 통하여 물체의 이미지를 분석하는 이미지분석부와;
    상기 깊이센서모듈의 촬영측정부에서 촬영 측정된 물체의 깊이이미지와 이미지처리부에서 추출된 물체에 대한 특징부와 크기 및 이미지분석부에서 분석된 물체의 이미지 정보를 저장하기 위하여 형성되는 저장부와;
    상기 이미지분석부에서 분석된 물체의 이미지 정보를 외부통신유닛으로 전송하는 통신부; 및
    물체의 깊이이미지를 촬영측정부로 촬영 측정하기 위한 깊이센서모듈과, 물체의 특징부와 크기를 추출하는 이미지처리부와, 물체의 이미지를 분석하는 이미지분석부와, 저장부 및 통신부를 제어하기 위하여 형성되는 제어부; 를 포함하는 것을 특징으로 하는 보정알고리즘을 이용한 부피측정장치.
  3. 청구항 2에 있어서, 상기 이미지처리부는,
    깊이맵을 이용하여 상기 측정된 물체의 깊이이미지(I)로부터 물체를 인식 및 인식된 물체로부터 물체의 윤곽선을 추출하고, 추출된 물체의 윤곽선에 의하여 사각형체를 모델링하여 물체의 길이, 너비 및 높이 정보를 획득하는 것을 특징으로 하는 보정알고리즘을 이용한 부피측정장치.
  4. 청구항 2에 있어서, 상기 이미지분석부는,
    상기 깊이센서모듈로부터의 촬영측정부인 카메라의 매개정보를 기초로 하여, 상기 이미지처리부에서 추출된 물체의 특징부와 크기로부터 보정알고리즘을 통하여 물체의 특징부와 크기에 대한 이미지 정보를 분석하여 측정상태를 판단하는 것을 특징으로 하는 보정알고리즘을 이용한 부피측정장치.
  5. 데이터처리센터에 구비되는 제어부의 제어 동작에 의하여 깊이센서모듈의 촬영측정부로부터 물체의 깊이이미지(I)를 촬영하여 측정하는 단계(S100);
    상기 깊이센서모듈에서 측정된 물체의 깊이이미지(I)를 데이터처리센터의 저장부에 저장하는 단계(S200);
    상기 저장부에 저장된 물체의 깊이이미지(I)로부터 이미지처리부에서 물체의 특징부(F)와 크기(S)를 추출하는 단계(S300);
    상기 이미지처리부에서 추출된 물체의 특징부(F)와 크기(S)를 데이터처리센터의 저장부에 저장하는 단계(S400);
    상기 이미지처리부에서 추출된 물체의 특징부(F)와 크기(S)에 대한 이미지 정보를 이미지분석부로 전송하는 단계(S500);
    상기 (S100)단계 내지 (S500)단계를 수행한 후에, 동일한 물체에 대하여 2회 더 상기 (S100)단계로부터 상기 (S500)단계를 수행하는 단계(S550);
    상기 깊이센서모듈로부터의 촬영측정부인 카메라의 매개정보를 기초로 하여, 상기와 같이 3회에 걸쳐서 이미지처리부에서 추출된 물체A, 물체B 및 물체C 각각에 대한 특징부(F)와 크기(S)로부터 이미지분석부의 보정알고리즘을 통하여 3회에 걸쳐서 이미지처리부에서 추출된 물체A, 물체B 및 물체C 각각에 대한 특징부(F)와 크기(S)에 대한 물체의 이미지 정보를 분석하는 단계(S600);
    상기 이미지분석부에서 분석된 물체의 이미지 정보를 저장부에 저장하는 단계(S700); 및
    상기 이미지분석부로부터 분석된 물체의 이미지 정보를 통신부를 통하여 외부통신유닛으로 전송하는 단계(S800); 를 포함하는 것을 특징으로 하는 부피측정장치를 이용한 보정알고리즘에 의한 부피측정방법.
  6. 청구항 5에 있어서, 상기 (S300)단계는,
    상기 이미지처리부에 구비되는 깊이맵을 이용하여, 측정된 물체의 깊이이미지(I)로부터 측정된 물체를 인식하는 단계(S310)와,
    상기 깊이맵에 의하여, 상기 인식된 물체의 윤곽선을 추출하는 단계(S320)와,
    상기 깊이맵에 의하여, 상기 추출된 물체의 윤곽선으로부터 측정된 물체의 길이, 너비 및 높이 정보를 도출한 단계(S330)를 포함하는 것을 특징으로 하는 부피측정장치를 이용한 보정알고리즘에 의한 부피측정방법.
  7. 청구항 5에 있어서, 상기 (S600)단계는,
    상기 물체A 내지 물체C 각각의 특징부(F)에 대한 신호 대 노이즈(S/N) 비율 및, 측정 대상 물체의 모양, 위치 등의 정보를 기준으로 상기 물체의 특징부(F)에 대한 측정 상태를 판단하는 단계(S610);
    상기 (S610)단계인 상기 물체A 내지 물체C의 특징부(F)와 크기(S)가 정상상태 또는 비정상상태 여부에 따라 상기 물체A 내지 물체C의 특징부(F)에 대한 측정 상태를 판단하는 단계(S610)를 수행한 후, 상기 물체A 내지 물체C의 특징부(F)에 대한 판단 결과치가 기준 목표치에 도달하지 못한 경우이거나, 또는, 상기 물체A 내지 물체C의 크기(S)의 상대적인 차이인 S(A)-S(B), S(B)-S(C) 및 S(A)-S(C)가 매우 작지 않은 경우인 큰 경우에는 상기 (S100)단계로 이동하여 재측정을 수행하는 단계(S620);
    상기 단계(S600)의 판단결과 정상상태인 경우는, 상기 물체 A의 특징부 F(A)와 크기 S(A)를 기준으로 물체 B의 특징부 F(B)와 크기 S(B)를 F(B)’와 크기 S(B)’로 측정 보정을 수행하는 단계(S650);
    상기 (S650)단계와 같은 측정 보정을 수행한 후, 상기 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)에서, 특징부 F(A), F(B), F(C) 상호 간의 일치도(matching degree) 및 크기 S(A), S(B), S(C) 상호 간의 일치도(matching degree)로부터 스코어(score)를 획득하는 단계(S660);
    상기 단계(S660)의 획득한 스코어의 값을 통하여 재측정 여부를 판단하는 단계(S670);
    상기 (S670)단계의 판단 결과, 스코어의 최대값 100을 기준으로 최소값이 70점 이상일 경우에는, 측정된 깊이이미지(I)가 충분하다고 판단하고, 그 결과치인 물체A 내지 물체C의 특징부 F(A), F(B), F(C) 및 크기 S(A), S(B), S(C)를 기초로 하여 획득한 물체의 최종적인 크기를 획득하는 단계(S670-1); 및
    상기 (S670)단계의 판단 결과, 스코어의 최대값 100을 기준으로 최소값이 70점 이상일 경우에는, 측정된 깊이이미지(I)가 충분하지 않다고 판단하고, 단계 (S100)로 피드백하여 재측정하는 단계(S670-2)인 것을 특징으로 하는 부피측정장치를 이용한 보정알고리즘에 의한 부피측정방법.
  8. 청구항 7에 있어서, 상기 (S650)단계는,
    데이터처리센터에 구비되는 저장부에 미리 기 저장된 직전의 이미지의 형태와 크기를 읽어 들여서 현재의 물체의 이미지 정보와 직전의 이미지 정보인 물체A, 물체B, 물체C 상호간의 연관성을 분석하여 크기를 보정하는 보정알고리즘 단계로서, 물체A의 깊이이미지 I(A)에 대한 품질파라미터가 물체B의 깊이이미지 I(B)의 품질파라미터에 비하여 양호한 상태인 경우는, {S(B)'= S(B)× 0.6 + S(A)× 0.4}와 같은 측정 보정을 수행하며, 물체B의 깊이이미지 I(B)가 물체A의 깊이이미지 I(A)에 비하여 품질파라미터가 양호한 상태인 경우에는, {S(B)'= S(B)× 0.9 + S(A)× 0.1}과 같은 측정 보정을 수행하는 것을 특징으로 하는 부피측정장치를 이용한 보정알고리즘에 의한 부피측정방법.
KR1020210110648A 2021-08-23 2021-08-23 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법 KR102530271B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210110648A KR102530271B1 (ko) 2021-08-23 2021-08-23 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210110648A KR102530271B1 (ko) 2021-08-23 2021-08-23 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법

Publications (2)

Publication Number Publication Date
KR20230028848A true KR20230028848A (ko) 2023-03-03
KR102530271B1 KR102530271B1 (ko) 2023-05-09

Family

ID=85510638

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210110648A KR102530271B1 (ko) 2021-08-23 2021-08-23 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법

Country Status (1)

Country Link
KR (1) KR102530271B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100356016B1 (ko) * 1999-12-21 2002-10-18 한국전자통신연구원 영상인식에 의한 소포우편물 부피계측시스템 및부피계측방법
KR101909469B1 (ko) 2017-03-14 2018-10-18 주식회사 웰텍 부피 및 중량 자동 측정 장치
KR101998292B1 (ko) 2017-08-25 2019-07-10 박지환 부피 측정 장치 및 그 제어방법
KR102124292B1 (ko) 2020-02-19 2020-06-17 백옥현 운송용 화물의 부피를 측정하는 방법 및 그를 이용한 시스템
KR20200126576A (ko) * 2019-04-30 2020-11-09 주식회사 누비랩 음식량 측정 방법, 장치, 서버 및 프로그램

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100356016B1 (ko) * 1999-12-21 2002-10-18 한국전자통신연구원 영상인식에 의한 소포우편물 부피계측시스템 및부피계측방법
KR101909469B1 (ko) 2017-03-14 2018-10-18 주식회사 웰텍 부피 및 중량 자동 측정 장치
KR101998292B1 (ko) 2017-08-25 2019-07-10 박지환 부피 측정 장치 및 그 제어방법
KR20200126576A (ko) * 2019-04-30 2020-11-09 주식회사 누비랩 음식량 측정 방법, 장치, 서버 및 프로그램
KR102124292B1 (ko) 2020-02-19 2020-06-17 백옥현 운송용 화물의 부피를 측정하는 방법 및 그를 이용한 시스템

Also Published As

Publication number Publication date
KR102530271B1 (ko) 2023-05-09

Similar Documents

Publication Publication Date Title
EP3477939A1 (en) Image processing method and device and computer-readable storage medium storing a program for performing beauty processing on face portrait images
US7055958B2 (en) Image projection method and device
JP5961945B2 (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
CN109712192B (zh) 摄像模组标定方法、装置、电子设备及计算机可读存储介质
CN106254860B (zh) 照相机的校准装置、照相机系统、以及照相机的校准方法
EP2439491A1 (en) Distance measuring device and distance measuring method
CN110519585B (zh) 一种应用于图像采集设备的成像校准方法及装置
CN111750804B (zh) 一种物体测量的方法及设备
CN111508011A (zh) 一种飞行时间相机的深度数据校准方法
CN111757097B (zh) 检测方法、检测装置及计算机可读存储介质
CN112264992A (zh) 一种工业机器人坐标系校准方法、系统、装置和存储介质
US8481918B2 (en) System and method for improving the quality of thermal images
CN110033461B (zh) 一种基于目标位移量估计的手机防抖功能评估方法
JPWO2016135856A1 (ja) 3次元形状計測システムおよびその計測方法
CN115086549B (zh) 拍摄方法、拍摄装置、计算机设备、存储介质
JP2008281481A (ja) 解像測定装置及び方法
US11004229B2 (en) Image measurement device, image measurement method, imaging device
KR102530271B1 (ko) 보정알고리즘을 이용한 부피측정장치 및 이를 이용한 부피측정방법
JP2008298589A (ja) 位置検出装置及び位置検出方法
CN112116665B (zh) 一种结构光传感器标定方法
JP2018009927A (ja) 画像処理装置、画像処理方法及びプログラム
CN116952168A (zh) 激光光束平行度的测量系统及测量方法
JP4789964B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
JP2015232478A (ja) 検査装置、検査方法およびプログラム
CN113587895A (zh) 双目测距方法及装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant