[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2022128087A - 計測システム及び計測プログラム - Google Patents

計測システム及び計測プログラム Download PDF

Info

Publication number
JP2022128087A
JP2022128087A JP2021026414A JP2021026414A JP2022128087A JP 2022128087 A JP2022128087 A JP 2022128087A JP 2021026414 A JP2021026414 A JP 2021026414A JP 2021026414 A JP2021026414 A JP 2021026414A JP 2022128087 A JP2022128087 A JP 2022128087A
Authority
JP
Japan
Prior art keywords
information
camera
dimensional shape
measurement
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021026414A
Other languages
English (en)
Other versions
JP7570944B2 (ja
Inventor
博昭 中村
Hiroaki Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021026414A priority Critical patent/JP7570944B2/ja
Priority to CN202111059366.2A priority patent/CN114979618B/zh
Priority to US17/474,554 priority patent/US11645771B2/en
Priority to DE102021210256.5A priority patent/DE102021210256A1/de
Publication of JP2022128087A publication Critical patent/JP2022128087A/ja
Application granted granted Critical
Publication of JP7570944B2 publication Critical patent/JP7570944B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】リアルタイム処理にも対応できる計測システム及び計測プログラムを提供すること。【解決手段】計測システムは、第1の算出部と、抽出部と、第2の算出部と、表示制御部とを有する。第1の算出部は、計測対象の各点までの深度である深度情報を計測対象の画像とともに計測するように構成されたカメラの位置及び姿勢を表す第1の情報を、計測対象に設けられたマーカを基準にして算出する。抽出部は、第1の情報に基づき、計測対象の3次元形状を表す第1の3次元形状情報からカメラの撮像範囲に相当する第2の3次元形状情報を抽出する。第2の算出部は、深度情報と第2の3次元形状情報とを比較し、深度情報と第2の3次元形状情報との比較結果に基づいてカメラの位置及び姿勢を表す第2の情報を算出する。表示制御部は、第2の情報に基づいて第2の3次元形状情報と深度情報との比較結果に関わる情報を表示装置に表示する。【選択図】図1

Description

実施形態は、計測システム及び計測プログラムに関する。
同一の計測対象に係る2つの点群のデータのマッチング手法の1つとして、ICP(Iterative Closest Point)手法が知られている。ICP手法等のマッチング手法は、例えば部品の組付けが正しく行われていることを確認するための画像の比較処理に適用され得る。
特開2019-101987号公報
ここで、ICP手法等のマッチング手法では、点群の数が多いときには、処理時間が増大しやすい。このため、ICP手法等のマッチング手法が単純に部品組付けシステムに適用されてしまうと、計測の際のリアルタイム性が損なわれる可能性がある。
実施形態は、リアルタイム処理にも対応できる計測システム及び計測プログラムを提供する。
一態様の計測システムは、第1の算出部と、抽出部と、第2の算出部と、表示制御部とを有する。第1の算出部は、計測対象の各点までの深度である深度情報を計測対象の画像とともに計測するように構成されたカメラの位置及び姿勢を表す第1の情報を、計測対象に設けられたマーカを基準にして算出する。抽出部は、第1の情報に基づき、計測対象の3次元形状を表す第1の3次元形状情報からカメラの撮像範囲に相当する第2の3次元形状情報を抽出する。第2の算出部は、深度情報と第2の3次元形状情報とを比較し、深度情報と第2の3次元形状情報との比較結果に基づいてカメラの位置及び姿勢を表す第2の情報を算出する。表示制御部は、第2の情報に基づいて第2の3次元形状情報と深度情報との比較結果に関わる情報を表示装置に表示する。
図1は、第1の実施形態に係る計測システムの一例の構成を示すブロック図である。 図2は、計測システムのハードウェア構成の一例を示す図である。 図3は、第1の実施形態における計測システムの動作を示すフローチャートである。 図4は、交差領域の概念を示す図である。 図5Aは、表示処理の一例を示す図である。 図5Bは、表示処理の一例を示す図である。 図5Cは、表示処理の一例を示す図である。 図6は、第2の実施形態に係る計測システムの一例の構成を示すブロック図である。 図7は、第2の実施形態における計測システムの動作を示すフローチャートである。 図8は、誘導処理について示すフローチャートである。 図9Aは、3次元オブジェクトの表示例を示す図である。 図9Bは、3次元オブジェクトの表示例を示す図である。
以下、図面を参照して実施形態を説明する。
[第1の実施形態]
図1は、第1の実施形態に係る計測システムの一例の構成を示すブロック図である。図1に示す計測システム1は、部品の組付けシステムにおける計測に用いられ得る。計測システム1の計測対象は、例えば装置Dに組付けられる部品pである。計測対象である部品pは、例えば組付けシステムによって機械的に装置Dに組付けられる。組付けシステムの構成は特に限定されるものではない。部品pは、例えば人によって装置Dに組付けられてもよい。
実施形態における計測システム1は、カメラ2によって計測される装置Dの3次元形状の情報と予め用意されている装置Dの3次元形状を表す情報とを比較し、その比較結果をユーザに提示する。ユーザは、例えば装置Dに対して部品pの組付けが正しく実施されているかを確認する作業員である。
図1に示すように、計測システム1は、第1の算出部11と、抽出部12と、形状データベース(DB)13と、第2の算出部14と、表示制御部15とを有している。計測システム1は、カメラ2と通信できるように構成されている。計測システム1とカメラ2との通信は、無線で行われてもよいし、有線で行われてもよい。また、計測システム1は、表示装置3と通信できるように構成されている。計測システム1と表示装置3との通信は、無線で行われてもよいし、有線で行われてもよい。
カメラ2は、例えばユーザによって把持され、計測対象の深度情報を計測対象の画像とともに計測するように構成されたカメラである。深度情報は、カメラ2から装置Dの表面の各点までの距離の情報である。ここで、カメラ2による深度情報の計測は、例えば2眼の赤外光の投光及び受光によって実施され得る。しかしながら、深度情報の計測は、これに限るものではない。深度情報は、例えばLiDAR(Light Detecting and Ranging)方式で計測されてもよい。また、カメラ2は、RGB-Dカメラであってもよい。RGB-Dカメラは、RGB-D画像を計測できるように構成されたカメラである。RGB-D画像は、深度画像(Depth image)とカラー画像(RGB color image)を含む。深度画像は、計測対象の各点の深度を画素の値として有する画像である。カラー画像は、計測対象の各点のRGB値を画素の値として有する画像である。カメラ2は、必ずしもカラー画像ではなく、グレースケールの画像を計測できるカメラであってもよい。
表示装置3は、液晶ディスプレイ及び有機ELディスプレイといった表示装置である。表示装置3は、計測システム1から転送されたデータに基づいて各種の画像を表示する。
第1の算出部11は、装置Dに予め配置されているマーカMを基準にして、装置Dを撮影したカメラ2の位置及び姿勢を表す第1の情報を算出する。マーカMは、装置Dの予め定められた位置に予め定められた向きで配置される、サイズが既知のマーカである。例えば、マーカMは、互いに直交する2辺が装置Dの面において予め定められたX軸及びY軸と平行であり、法線が装置Dの面において予め定められたZ軸と平行であるように装置Dの所定の位置に配置される。マーカMは、例えばAR(Augmented Reality)マーカであり、カメラ2によって取得された画像から認識され得る。2つ以上のマーカMが装置Dの1つの面に配置されてもよい。また、マーカMは、装置Dの2つ以上の面に配置されていてもよい。
抽出部12は、第1の情報に基づき、形状DB13に記憶されている計測対象の既知の3次元形状情報のうち、カメラ2の深度情報の撮像範囲に相当する3次元形状情報を抽出する。後で説明するように、深度情報の撮像範囲は、カメラ2を基準とした四角錐状の範囲である。
形状DB13は、計測対象の既知の3次元形状情報を記憶している。既知の3次元形状情報は、計測対象を含む装置Dの3D CAD(Computer Aided Design)による設計図面データ等であってよい。既知の3次元形状情報は、設計図面データに限らず、任意の点群のデータ又は点群のデータに変換できるデータであってよい。また、形状DB13は、計測システム1の外部に設けられていてもよい。この場合、計測システム1の抽出部12は、必要に応じて形状DB13から情報を取得する。また、既知の3次元形状情報は、形状DB13に登録されることなく、ユーザによって計測システム1に入力されてもよい。
第2の算出部14は、カメラ2によって計測された深度情報と抽出部12によって抽出された3次元形状情報との比較をする。具体的には、第2の算出部14は、深度情報から生成される計測点群のデータと3次元形状情報を構成する点群のデータとを比較し、両点群のデータのマッチングをすることで、第1の情報よりも高精度のカメラ2の位置及び姿勢を表す第2の情報を算出する。点群のデータのマッチングは、ICP(Iterative Closest Point)手法、CPD(Coherent Point Drift)手法等を用いて実施され得る。
表示制御部15は、第2の情報に基づき、第2の算出部14における形状の比較結果に関わる情報を表示装置3に表示する。形状の比較結果に関わる情報は、例えばカメラ2によって計測された点群に基づく画像に形状DB13に記憶されている計測対象の点群に基づく画像が重ねられた画像である。表示制御部15は、例えば高精度のカメラ2の位置及び姿勢に基づいて、カメラ2で計測された画像にカメラ2で計測された深度情報から得られる点群を対応付けて計測対象の3次元モデルを生成する。そして、表示制御部15は、生成した計測対象の3次元モデルに既知の3次元形状情報に基づく3次元モデルを重ねて表示装置3に表示する。
図2は、計測システム1のハードウェア構成の一例を示す図である。計測システム1は、パーソナルコンピュータ(PC)、タブレット端末等の各種の端末装置であり得る。図2に示すように、計測システム1は、プロセッサ101と、ROM102と、RAM103と、ストレージ104と、入力インタフェース105と、通信装置106とをハードウェアとして有している。
プロセッサ101は、計測システム1の全体的な動作を制御するプロセッサである。プロセッサ101は、例えばストレージ104に記憶されているプログラムを実行することによって、第1の算出部11と、抽出部12と、第2の算出部14と、表示制御部15として動作する。プロセッサ101は、例えばCPU(Central Processing Unit)である。プロセッサ101は、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等であってもよい。プロセッサ101は、単一のCPU等であってもよいし、複数のCPU等であってもよい。
ROM(Read Only Memory)102は、不揮発性のメモリである。ROM102は、計測システム1の起動プログラム等を記憶している。RAM(Random Access Memory)103は、揮発性のメモリである。RAM103は、例えばプロセッサ101における処理の際の作業メモリとして用いられる。
ストレージ104は、例えばハードディスクドライブ、ソリッドステートドライブといったストレージである。ストレージ104は、計測プログラム等のプロセッサ101によって実行される各種のプログラムを記憶している。また、ストレージ104は、形状DB13を記憶し得る。形状DB13は、必ずしもストレージ104に記憶されている必要はない。
入力インタフェース105は、タッチパネル、キーボード、マウス等の入力装置を含む。入力インタフェース105の入力装置の操作がされた場合、操作内容に応じた信号がプロセッサ101に入力される。プロセッサ101は、この信号に応じて各種の処理を行う。
通信装置106は、計測システム1がカメラ2及び表示装置3といった外部の機器と通信するための通信装置である。通信装置106は、有線通信のための通信装置であってもよいし、無線通信のための通信装置であってもよい。
次に第1の実施形態における計測システム1の動作を説明する。図3は、第1の実施形態における計測システム1の動作を示すフローチャートである。図3の処理は、プロセッサ101によって実行される。ここで、以下では、カメラ2は、RGB-Dカメラであり、また、既知の3次元形状情報は、装置Dの3D CADデータである例が説明される。しかしながら、前述したように、カメラ2はRGB-Dカメラでなくてもよく、また、既知の3次元形状情報も装置Dの3D CADデータでなくてもよい。
ステップS1において、プロセッサ101は、計測対象の部品pを含む装置DのRGB-D画像をカメラ2から取得する。
ステップS2において、プロセッサ101は、カメラ2から取得されたカラー画像からマーカMを検出する。プロセッサ101は、カメラ2から取得されたカラー画像を例えばグレースケールの画像に変換し、グレースケールの画像をさらに白黒の2値画像に変換し、この白黒の2値画像を予め記憶されているマーカMのパターンと比較することでマーカMを検出する。マーカMの検出手法は、これに限るものではない。
ステップS3において、プロセッサ101は、カメラ2の位置及び姿勢を算出する。プロセッサ101は、カラー画像において検出されたマーカMの位置、サイズ、向きからカメラ2の位置及び姿勢を算出する。マーカMは、装置Dの予め定められた位置に予め定められた向きで配置されている。カラー画像におけるマーカMの位置、サイズ及び向きから、装置Dに対するカメラ2の位置及び姿勢が算出され得る。例えば、カラー画像におけるマーカMの位置及びサイズからカメラ2からマーカMまでの距離、すなわちカメラ2の位置が算出され得る。また、カラー画像におけるマーカMの各辺(各軸)の傾きから装置Dに対するカメラ2の傾き、すなわちカメラ2の姿勢が算出され得る。
ステップS4において、プロセッサ101は、3D CADデータの座標変換をする。具体的には、プロセッサ101は、例えばストレージ104から装置Dの3D CADデータを取得する。そして、プロセッサ101は、算出したカメラ2の位置及び姿勢に基づいて、3D CADデータにおける各点の座標の値をカメラ2の座標系での値に変換する。例えば、プロセッサ101は、カメラ2の位置及び姿勢に基づいて算出される変換行列を3D CADデータにおける各点の座標の値に適用することで、3D CADデータにおける各点の座標を平行移動及び回転させる。
ステップS5において、プロセッサ101は、3D CADデータにおける点群とカメラ2の撮像範囲との交差領域を判定する。図4は、交差領域の概念を示す図である。奥行き方向も考えた場合、カメラ2の撮像範囲は、カメラ2の光軸周りに形成される四角錐状の範囲で表される。例えば、図4の点Cの位置にカメラ2があるとしたとき、カメラ2の撮像範囲rは、点Cを頂点とし、カメラ2の光軸を垂線とする四角錐状の範囲である。交差領域は、四角錐状の撮像範囲rと3D CADデータを構成する点群との重なる領域である。ここで、カメラ2の位置及び姿勢が既知であり、また、カメラ2の撮影時の画角又は焦点距離が既知であるとすると、四角錐状の撮像範囲rはカメラ2の座標系での値で表され得る。ステップS5において、プロセッサ101は、四角錐状の撮像範囲rのうち、3D CADデータの点群の座標の値を含む範囲を交差領域と判定する。ここで、カメラ2の位置及び姿勢の算出誤差が考慮されると、交差領域は、さらに多少のマージン領域を有していてもよい。
ステップS6において、プロセッサ101は、3D CADデータのうちの交差領域に含まれる3D CADデータを抽出する。カメラ2は、撮像範囲内の深度情報を計測している。したがって、深度情報から生成される計測点群のデータもカメラ2の撮像範囲内のデータに限定される。このため、3D CADデータもカメラ2の撮像範囲内のデータがあれば十分である。実施形態では、点群のマッチングの処理時間の短縮化のために3D CADデータがカメラ2の撮像範囲に応じて制限される。
ステップS7において、プロセッサ101は、抽出した3D CADデータを構成する点群のデータと深度情報から生成される計測点群のデータとをマッチングすることでカメラ2の高精度の位置及び姿勢を算出する。計測点群のデータは、深度情報とカラー画像データとをICP手法、CPD手法等を用いて位置合わせしてから合成することで生成され得る。実施形態では、3D CADデータの点群の数が撮像範囲に応じて制限されているので、マッチングが短時間で完了することが期待される。
ステップS8において、プロセッサ101は、カメラ2で計測された深度情報に基づく計測対象の3次元画像と3D CADデータに基づく計測対象の3次元画像とを重ねて表示装置3に表示する。その後、プロセッサ101は、図3の処理を終了させる。
図5A、図5B、図5Cは、ステップS8の表示処理の一例を示す図である。ここで、図5Aは、3D CADデータに基づく計測対象の画像の一例を示す。また、図5Bは、カメラ2で計測された深度情報に基づく計測対象の画像の一例を示す。また、図5Cは、ステップS8において実際に表示される画像の一例を示す。図5Aの画像は、例えば3D CADデータにテクスチャを貼り付けることで生成される。また、図5Bの画像は、例えば計測点群のデータにテクスチャ又はカラー画像データを貼り付けることで生成される。図5Cの画像は、例えば図5Aの画像と図5Bの画像を重ね合わせ、差異のある箇所を強調することで生成され得る。図5Aの画像と図5Bの画像との位置合わせは、ステップS8におけるマッチング結果に基づいて実施され得る。また、強調表示は、例えば差異のある箇所の色を変える、差異に応じた濃淡をつける、差異のある箇所を示す枠等を表示するといった種々の手法で行われ得る。
図5Aは、設計上では、部品pは、ボルト締めされることを示している。これに対し、図5Bで示すように、組付けの完了後に計測された画像では、部品pは、ボルト締めされていない。このため、図5Cに示すように比較結果を表す画像では、部品pは色付けされて表示される。ユーザは、図5Cの画像を見ることで部品pの組付けが正しく行われていないことを認識し得る。
ここで、図3の処理に加えて、カメラ2で計測された深度情報及びカラー画像がストレージ104に記憶されてもよい。このような深度情報及びカラー画像は、部品組付けの確認作業のエビデンスにもなり得る。
以上説明したように、第1の実施形態によれば、カメラ2の撮像範囲に応じてカメラ2の深度情報から生成される計測点群に対する比較対象である3次元形状情報における点群が制限される。カメラ2で計測できない範囲の点群はマッチングに用いられる必要がないので、予め3次元形状情報の点群が制限されることにより、マッチングの処理時間が短縮され得る。このため、第1の実施形態の計測システム1は、リアルタイム処理にも対応できる。
また、カメラ2で計測される計測点群の密度と既知の3次元形状情報の点群の密度とが異なる場合があり得る。この場合において、比較される両点群の範囲が異なると、特徴量次第では適切な位置でのマッチングが行われない可能性が生じる。第1の実施形態では、計測点群と比較対象の点群の範囲が同等になるように比較対象の点群が制限されるので、マッチングの誤差の抑制にも繋がる。
[第2の実施形態]
次に、第2の実施形態を説明する。図6は、第2の実施形態に係る計測システムの一例の構成を示すブロック図である。ここで、図6において、図1と同様の要素については、図1と同様の参照符号が付されている。この図1と同様の要素についての説明は、適宜に省略又は簡略化する。
図6に示す計測システム1は、誘導部16をさらに有している。誘導部16は、第1の算出部11で算出された第1の情報を受け取る。そして、誘導部16は、カメラ2の位置及び姿勢が深度情報の取得に適する状態となるようにユーザを誘導するための処理を行う。この処理は、例えば、次の計測対象を示す画像を生成する処理である。次の計測対象を示す画像は、例えば計測対象を模擬した3次元オブジェクトであり得る。
第2の実施形態の表示制御部15は、誘導部16によって生成された画像を表示装置3に表示する。
第2の実施形態における計測システム1のハードウェア構成は、基本的には図2と同様でよい。第2の実施形態においては、プロセッサ101は、誘導部16としても動作し得る。
次に第2の実施形態における計測システム1の動作を説明する。図7は、第2の実施形態における計測システム1の動作を示すフローチャートである。図7の処理は、プロセッサ101によって実行される。ここで、図7において、図3と同様の処理については図3と同様の参照符号が付されている。図3と同様の参照符号が付されている処理の説明は、適宜に省略又は簡略化する。
ステップS1-S4までの処理は図3と同様である。ステップS4において、3D CADデータの座標変換をした後のステップS11において、プロセッサ101は、誘導処理を実施する。誘導処理の後、処理はステップS12に移行する。誘導処理は、ユーザの誘導のための3次元オブジェクトを表示装置3に表示する処理である。以下、誘導処理について説明する。図8は、誘導処理について示すフローチャートである。
ステップS21において、プロセッサ101は、誘導のための次の計測対象の3次元オブジェクトを生成する。3次元オブジェクトは、計測対象の形状を模擬した3次元モデルである。例えば、計測対象が装置Dに組付けられる部品pである場合、3次元オブジェクトは、部品pの形状を模擬した3次元モデルであり得る。このような3次元オブジェクトは、例えばストレージ104に予め記憶されていてよい。この場合、プロセッサ101は、次の計測対象に相当する3次元オブジェクトをストレージ104から取得する。
ステップS22において、プロセッサ101は、次の計測対象の3次元オブジェクトを例えばカメラ2によって計測される装置Dのカラー画像に重畳する。3次元オブジェクトの重畳位置は、装置Dのカラー画像における次の計測対象の位置である。ステップS3の処理によって、マーカMを基準とした装置Dに対するカメラ2の位置及び姿勢が算出されている。このカメラ2の位置及び姿勢から、カラー画像における次の計測対象の位置が特定され得る。ここで、カラー画像に重畳される3次元オブジェクトは、装置Dに対するカメラ2の姿勢に応じて回転されることが望ましい。また、ステップS22では、次の計測対象の3次元オブジェクトは、カメラ2によって計測されるカラー画像に重畳されるとしている。しかしながら、これに限るものではない。次の計測対象の3次元オブジェクトは、カメラ2によって計測される深度画像に重畳されてもよいし、ストレージ104に記憶されている3D CADデータに重畳されてもよい。すなわち、3次元オブジェクトは、ユーザが次の計測対象の位置及び撮影方向を認識できる任意の画像に重畳されてよい。
ステップS23において、プロセッサ101は、3次元オブジェクトが重畳された装置Dのカラー画像を表示装置3に表示する。その後、プロセッサ101は、図8の処理を終了させて処理を図7に戻す。
図9A及び図9は、3次元オブジェクトの表示例を示す図である。図9A及び図9Bに示すように、3次元オブジェクトOは、次の計測対象の部品pnの位置に重畳される。図9A及び図9Bの画像を見ることにより、ユーザは、次の計測対象の位置がどこか、及び次の計測対象をどこから撮影すればよいかを認識することができる。ユーザは、例えば図9Aの画像を見たときに、3次元オブジェクトOが別の部品に重なっていることから、次の計測対象の部品pnが他の部品によって隠れてしまっていることを認識する。この場合、ユーザは、図9Bのような画像が撮影されるようにカメラ2の撮影方向を変えることを検討し得る。
ここで、図8の処理に加えて、3次元オブジェクトが重畳されたカラー画像がストレージ104に記憶されてもよい。このようなカラー画像は、部品組付けの確認作業のエビデンスにもなり得る。
ここで、図7の説明に戻る。誘導処理の後のステップS12において、プロセッサ101は、カメラ2の撮像範囲が適切であるか否かを判定する。ステップS12において、カメラ2の撮像範囲が適切であると判定されたときには、処理はステップS5に移行する。ステップS12において、カメラ2の撮像範囲が適切でないと判定されたときには、処理はステップS1に戻る。この場合、ユーザは、表示装置3に表示される画像を見ながらカメラ2の撮影方向を変えて再び計測対象の部品の撮影を実施する。
ステップS12の判定について説明する。カメラ2の撮像範囲が適切であるか否かは、次の計測対象についての十分な点群が取得される撮像範囲であるか否かによって判定される。例えば、図9Aでは、次の計測対象である部品pnが他の部品によって隠れてしまっている。他の部品によって隠れている部分については点群が得られない。このような場合には、撮像範囲が適切でないと判定される。したがって、例えば、ステップS12では、計測対象の部品pと3次元オブジェクトOとの重複範囲が閾値以下であるときに撮像範囲が適切であると判定され得る。また、ステップS12において、重複範囲が閾値以下であるか否かの判定に加えて、計測対象の部品pのカラー画像におけるサイズが閾値以上であるときに撮像範囲が適切であると判定されてもよい。
ステップS12において、処理がステップS5に移行した後は、プロセッサ101は、第1の実施形態と同様にして処理を実施する。ステップS5-S8の処理の説明については省略する。
以上説明したように第2の実施形態では、マーカMを基準とした装置Dに対するカメラ2の位置及び姿勢に基づき、カメラ2の位置及び姿勢が深度情報の取得に適する状態となるようにユーザを誘導するための処理が実施される。これにより、適切な位置及び姿勢での撮影が実施され、結果として計測点群と既知の3次元形状情報における点群とのマッチングの際の誤差が抑制され得る。
また、第2の実施形態では、次の計測対象の部品を示す3次元オブジェクトが例えばカラー画像に重畳表示される。これにより、部品組付けの確認作業が予め定められた順序に従って実施されるようにユーザが誘導され得る。
[変形例]
第1の実施形態及び第2の実施形態の変形例を説明する。第1の実施形態及び第2の実施形態において、計測システム1は、部品の組付けシステムにおける計測に用いられるとされている。これに対し、第1の実施形態及び第2の実施形態に係る計測システムは、カメラ2によって計測された深度情報に基づく第1の点群データと、第1の点群データよりも広い範囲で分散している第2の点群データとのマッチングが実施される任意の計測システムに対して適用され得る。この場合において、プロセッサ101は、第2の点群データからカメラ2の撮像範囲との交差領域の点群データを抽出する。
また、第1の実施形態及び第2の実施形態において、マーカMは、ARマーカであるとされている。これに対し、カメラ2の位置及び姿勢を算出することができるマーカであれば、必ずしも画像認識を伴うARマーカが用いられる必要はない。例えば、マーカMとして、光マーカといった他のマーカも用いられ得る。光マーカは、投光素子と受光素子の組み合わせによって認識が行われるマーカである。装置Dの面上に3組以上の光マーカが配置されることで、装置Dに対するカメラ2の位置及び姿勢が算出され得る。この他、2次元コード、バーコード、チェッカーボード等もマーカMとして用いられ得る。
また、第1の実施形態及び第2の実施形態において、カメラ2は、計測システム1と一体的に構成されていてもよい。この場合において、カメラ2の位置及び姿勢の制御が計測システム1によって実施されてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 計測システム、2 カメラ、3 表示装置、11 第1の算出部、12 抽出部、13 形状データベース(DB)、14 第2の算出部、15 表示制御部、16 誘導部、101 プロセッサ、102 ROM、103、RAM、104 ストレージ、105 入力インタフェース、106 通信装置。

Claims (6)

  1. 計測対象の各点までの深度である深度情報を前記計測対象の画像とともに計測するように構成されたカメラの位置及び姿勢を表す第1の情報を、前記計測対象に設けられたマーカを基準にして算出する第1の算出部と、
    前記第1の情報に基づき、前記計測対象の3次元形状を表す第1の3次元形状情報から前記カメラの撮像範囲に相当する第2の3次元形状情報を抽出する抽出部と、
    前記深度情報と前記第2の3次元形状情報とを比較し、前記深度情報と前記第2の3次元形状情報との比較結果に基づいて前記第1の情報よりも高精度の前記カメラの位置及び姿勢を表す第2の情報を算出する第2の算出部と、
    前記第2の情報に基づいて前記第2の3次元形状情報と前記深度情報との比較結果に関わる情報を表示装置に表示する表示制御部と、
    を有する計測システム。
  2. 前記第1の情報に基づき、前記カメラの位置及び姿勢が前記深度情報の取得に適する状態となるように前記カメラのユーザを誘導する誘導部をさらに有する請求項1に記載の計測システム。
  3. 前記誘導部は、前記表示装置に前記計測対象を表すオブジェクトを表示することで前記カメラのユーザを誘導する請求項2に記載の計測システム。
  4. 前記マーカは、ARマーカであり、
    前記抽出部は、前記カメラで取得された前記計測対象の画像から画像認識によって前記ARマーカを検出する、
    請求項1乃至3の何れか1項に記載の計測システム。
  5. 前記計測対象の画像は、前記計測対象のカラー画像である請求項4に記載の計測システム。
  6. 計測対象の各点までの深度である深度情報を前記計測対象の画像とともに計測するように構成されたカメラの位置及び姿勢を表す第1の情報を、前記計測対象に設けられたマーカを基準にして算出することと、
    前記第1の情報に基づき、前記計測対象の3次元形状を表す第1の3次元形状情報から前記カメラの撮像範囲に相当する第2の3次元形状情報を抽出することと、
    前記深度情報と前記第2の3次元形状情報とを比較し、前記深度情報と前記第2の3次元形状情報との比較結果に基づいて前記第1の情報よりも高精度の前記カメラの位置及び姿勢を表す第2の情報を算出することと、
    前記第2の情報に基づいて前記第2の3次元形状情報と前記深度情報との比較結果に関わる情報を表示装置に表示することと、
    をコンピュータに実行させるための計測プログラム。
JP2021026414A 2021-02-22 2021-02-22 計測システム及び計測プログラム Active JP7570944B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021026414A JP7570944B2 (ja) 2021-02-22 2021-02-22 計測システム及び計測プログラム
CN202111059366.2A CN114979618B (zh) 2021-02-22 2021-09-10 计测系统及记录有计测程序的记录介质
US17/474,554 US11645771B2 (en) 2021-02-22 2021-09-14 Measuring system and recording medium storing thereon a measuring program
DE102021210256.5A DE102021210256A1 (de) 2021-02-22 2021-09-16 Messsystem und Aufzeichnungsmedium, das darauf ein Messprogramm speichert

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021026414A JP7570944B2 (ja) 2021-02-22 2021-02-22 計測システム及び計測プログラム

Publications (2)

Publication Number Publication Date
JP2022128087A true JP2022128087A (ja) 2022-09-01
JP7570944B2 JP7570944B2 (ja) 2024-10-22

Family

ID=82702676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021026414A Active JP7570944B2 (ja) 2021-02-22 2021-02-22 計測システム及び計測プログラム

Country Status (4)

Country Link
US (1) US11645771B2 (ja)
JP (1) JP7570944B2 (ja)
CN (1) CN114979618B (ja)
DE (1) DE102021210256A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983818B2 (en) 2021-08-03 2024-05-14 Kabushiki Kaisha Toshiba Measurement system and storage medium storing measurement program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022170264A (ja) * 2021-04-28 2022-11-10 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5480667B2 (ja) 2010-02-26 2014-04-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラム
US9251590B2 (en) * 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
JP6196562B2 (ja) 2014-02-12 2017-09-13 日本電信電話株式会社 被写体情報重畳装置、被写体情報重畳方法及びプログラム
JP2016004486A (ja) * 2014-06-18 2016-01-12 株式会社リコー 情報処理装置、情報処理プログラム、および情報処理システム
EP3159829A1 (en) * 2015-10-21 2017-04-26 Thomson Licensing Methods of detecting and managing a fiducial marker displayed on a display device
US10122888B2 (en) * 2015-10-26 2018-11-06 Ricoh Company, Ltd. Information processing system, terminal device and method of controlling display of secure data using augmented reality
JP2018084954A (ja) 2016-11-24 2018-05-31 セイコーエプソン株式会社 プログラム、姿勢導出方法、姿勢導出装置
JP2018195070A (ja) * 2017-05-17 2018-12-06 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6867938B2 (ja) 2017-12-07 2021-05-12 日本電信電話株式会社 点群レジストレーション装置、方法、及びプログラム
JP7161857B2 (ja) * 2018-03-14 2022-10-27 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6937995B2 (ja) * 2018-04-05 2021-09-22 オムロン株式会社 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
JP7258476B2 (ja) 2018-06-08 2023-04-17 株式会社東芝 改修支援システム及び改修支援方法
JP7080750B2 (ja) 2018-06-29 2022-06-06 株式会社小松製作所 表示制御システム、遠隔操作システム、表示制御装置、および表示制御方法
US11253181B2 (en) * 2018-08-03 2022-02-22 From Zero, LLC Method for objectively tracking and analyzing the social and emotional activity of a patient
JP7404011B2 (ja) * 2019-09-24 2023-12-25 東芝テック株式会社 情報処理装置
US20210243362A1 (en) * 2020-01-31 2021-08-05 Hover Inc. Techniques for enhanced image capture using a computer-vision network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983818B2 (en) 2021-08-03 2024-05-14 Kabushiki Kaisha Toshiba Measurement system and storage medium storing measurement program

Also Published As

Publication number Publication date
DE102021210256A1 (de) 2022-08-25
CN114979618B (zh) 2025-06-10
US20220270272A1 (en) 2022-08-25
CN114979618A (zh) 2022-08-30
US11645771B2 (en) 2023-05-09
JP7570944B2 (ja) 2024-10-22

Similar Documents

Publication Publication Date Title
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6083747B2 (ja) 位置姿勢検出システム
US9846966B2 (en) Image processing device, image processing method, and computer program product
JP4677536B1 (ja) 3次元物体認識装置及び3次元物体認識方法
JP5548482B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
WO2018133130A1 (en) 3d marker model construction and real-time tracking using monocular camera
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP6067175B2 (ja) 位置測定装置及び位置測定方法
US10204404B2 (en) Image processing device and image processing method
JP6897787B2 (ja) 姿勢認識システム、画像補正プログラムおよび画像補正方法
CN104052976A (zh) 投影方法及装置
JP2020053008A (ja) 位置決め方法、ロボット及びコンピューター記憶媒体
KR20220026422A (ko) 카메라 캘리브레이션 장치 및 이의 동작 방법
KR20210086837A (ko) 증강현실을 이용한 실내 인테리어 시뮬레이션 방법
CN114979618B (zh) 计测系统及记录有计测程序的记录介质
US20240017412A1 (en) Control device, control method, and program
US11941852B2 (en) Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
US11983818B2 (en) Measurement system and storage medium storing measurement program
JP6822086B2 (ja) シミュレーション装置、シミュレーション方法およびシミュレーションプログラム
JP2013092888A (ja) データ処理装置
JP7640427B2 (ja) 注視位置分析システム及び注視位置分析方法
CN114723923B (zh) 一种传动解决方案模拟展示系统和方法
CN113961068B (zh) 一种基于增强现实头盔的近距离实物眼动交互方法
KR100991570B1 (ko) 다양한 형태를 갖는 간판크기를 원격으로 측정하는 방법 및그 방법을 이용한 간판크기 원격 측정 장치

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241009

R150 Certificate of patent or registration of utility model

Ref document number: 7570944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150