[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5561214B2 - 画像処理装置および画像処理プログラム - Google Patents

画像処理装置および画像処理プログラム Download PDF

Info

Publication number
JP5561214B2
JP5561214B2 JP2011056439A JP2011056439A JP5561214B2 JP 5561214 B2 JP5561214 B2 JP 5561214B2 JP 2011056439 A JP2011056439 A JP 2011056439A JP 2011056439 A JP2011056439 A JP 2011056439A JP 5561214 B2 JP5561214 B2 JP 5561214B2
Authority
JP
Japan
Prior art keywords
image
imaging
captured
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011056439A
Other languages
English (en)
Other versions
JP2012194641A (ja
Inventor
正寛 藤川
浩二 嶋田
角人 白根
泰之 池田
博幸 枦山
克弘 下田
理裕 守時
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2011056439A priority Critical patent/JP5561214B2/ja
Priority to CN201180066698.1A priority patent/CN103339466B/zh
Priority to PCT/JP2011/056775 priority patent/WO2012124139A1/ja
Priority to EP11860953.6A priority patent/EP2667145B1/en
Publication of JP2012194641A publication Critical patent/JP2012194641A/ja
Priority to US13/975,424 priority patent/US9998683B2/en
Application granted granted Critical
Publication of JP5561214B2 publication Critical patent/JP5561214B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、コンベアトラッキング等に向けられた画像処理装置および画像処理プログラムに関する。
ファクトリーオートメーション(FA)分野においては、省力化のため、画像処理を用いて各種の工程を制御する技術が多用されている。このような画像処理技術の適用例の一つとして、ベルトコンベア等の搬送装置によってワークを搬送するとともに、その搬送中のワークを移動機械(以下、「産業用ロボット」あるいは単に「ロボット」とも称す。)を用いて、追跡(トラッキング)および把持するような作業工程がある。このような作業工程は、コンベアトラッキング等と称される。
このコンベアトラッキングの技術においては、撮像装置を用いて搬送装置上のワークを撮像し、その撮像によって得られた画像に対して、画像処理装置を用いてパターンマッチングあるいは2値化処理などの計測処理を行うことで、各ワークの存在位置(座標値)を特定する。そして、この特定された各ワークの存在位置に基づいて、ロボットが各ワークを追跡および把持する。
例えば、特許文献1(特開2002−113679号公報)は、搬送体によって搬送される複数のワークを撮像し、当該撮像結果から認識された各ワークの位置座標に基づいて複数のワークのハンドリングを制御するトラッキング方法を開示している。より具体的には、特許文献1に記載のトラッキング方法は、撮像手段による撮像領域とその直後の撮像領域とがワークの全形が収まる一定の幅で進行方向に重なるように連続的に撮像し、撮像領域内に全形を含むワークのみ位置座標を認識するという構成を採用する。
このように連続的に撮像された画像を用いて搬送経路上の全体の状態を俯瞰するためには、撮像領域の重なり部分を利用して合成したパノラマ画像を用いることが有効であると考えられる。
コンベアトラッキングに向けられたものではないが、オペレータが手に持ったカメラをパンしながら連続撮像した複数のフレームを繋ぎ合わせることにより、オペレータが撮像した範囲のパノラマ画像を生成する画像処理装置が特許文献2(特開平5−260264号公報)に開示されている。
特開2002−113679号公報 特開平5−260264号公報
特許文献2の画像処理装置を用いて生成されるパノラマ画像は搬送装置上のワークを撮像したものではなく、ワークの計測情報とは何ら関連付されていない。
この発明の目的は、撮像画像を用いてワークを搬送する経路上の状態把握を支援するための情報を出力する画像処理装置および画像処理プログラムを提供することである。
この発明のある局面に従う画像処理装置は、連続する撮像の前後で撮像範囲に重複領域を有する撮像部に接続される画像処理装置であって、撮像部によって得られる複数枚の撮像画像を受け付けるインターフェイスと、撮像画像に対する計測処理を行うことにより、当該撮像画像中の被写体の計測結果を取得する計測手段と、複数枚の撮像画像を、重複領域に対応する重なり範囲で撮像順に重なり合うように合成して合成画像を生成する合成手段と、合成画像と、当該合成画像に関連付けて重なり範囲を示す情報および計測結果を示す情報とを出力する出力手段と、を備える。
好ましくは、出力手段は、重なり範囲を示す情報および計測結果を示す情報とを、合成画像に重畳させて出力する。
好ましくは、出力手段は、合成画像における各撮像画像の出力態様を相違させる。
好ましくは、画像処理装置は、外部からの操作を受け付ける操作入力部を、さらに備える。出力手段は、合成画像における操作入力部によって選択された撮像画像を拡大して出力する。
好ましくは、操作入力部が受け付ける操作によって指示される計測結果を、各撮像画像に対応する計測結果のうちから選択する選択手段を、さらに備える。出力手段は、選択手段により選択された計測結果に対応する撮像画像と、当該撮像画像の前後で撮像された撮像画像とから成る合成画像を出力する。
好ましくは、出力手段は、合成画像における撮像画像のうちから、対応する計測結果が予め指定された値を指示する撮像画像を選択して出力する。
好ましくは、出力手段は、合成画像における撮像画像のうち、撮像順が奇数番目の撮像画像に対応する計測結果と、偶数番目の撮像画像に対応する計測結果との出力態様を異ならせる。
好ましくは、画像処理装置は、計測手段による計測処理の所要時間に関する情報を出力する手段を、さらに備える。
好ましくは、所要時間に関する情報は、連続する撮像の前後の時間間隔に対する、撮像画像の計測処理の所要時間の比である。
好ましくは、合成画像の各撮像画像について比を取得し、合成画像と、当該合成画像の各撮像画像に関連付けて比を出力する。
この発明の他の局面に従うと、連続する撮像の前後で撮像範囲に重複領域を有する撮像部に接続されるコンピュータで実行される画像処理プログラムが提供される。
画像処理プログラムは、コンピュータを、撮像部によって得られる複数枚の撮像画像を受け付けるインターフェイスと、撮像画像に対する計測処理を行うことにより、当該撮像画像中の被写体の計測結果を取得する計測手段と、複数枚の撮像画像を、重複領域に対応する重なり範囲で撮像順に重なり合うように合成して合成画像を生成する合成手段と、合成画像と、当該合成画像に関連付けて重なり範囲を示す情報および計測結果を示す情報とを出力する出力手段、として機能させる。
本発明によれば、オペレータは、ワークを搬送する経路上の状態把握をするための情報を取得できる。
本発明の実施の形態1に係る視覚センサを利用したコンベアトラッキングシステムの構成を示す模式図である。 本発明の実施の形態1に係る視覚センサを利用したコンベアトラッキングシステムのハードウェア構成について示す模式図である。 本発明の実施の形態1に係る撮像画像処理のための機能構成について示す模式図である。 本発明の実施の形態1に係る撮像画像処理のためのデータの記憶内容示す模式図である。 本発明の実施の形態1に係るパノラマ画像の生成手順を説明するための図である。 本発明の実施の形態1に係る処理のメインフローチャートである。 本発明の実施の形態1のパノラマ画像を説明するための模式図である。 本発明の実施の形態1に係るパノラマ画像の表示態様の他の例を説明する図である。 本発明の実施の形態1に係るパノラマ画像のスクロールを説明する図である。 本発明の実施の形態2に係る処理のメインフローチャートである。 本発明の実施の形態2に係るパノラマ画像の表示態様を説明する図である。 本発明の実施の形態2に係るパノラマ画像の表示態様を説明する図である。 本発明の実施の形態2に係るパノラマ画像の表示態様を説明する図である。 本発明の実施の形態2に係るパノラマ画像の表示態様を説明する図である。 本発明の実施の形態2に係るパノラマ画像の表示態様を説明する図である。 本発明の実施の形態2に係るパノラマ画像の表示態様を説明する図である。 本発明の実施の形態2に係るパノラマ画像の表示態様を説明する図である。 本発明の実施の形態2に係る計測結果を閾値を用いて表示するための画面を例示する図である。 本発明の実施の形態2に係る計測結果を閾値を用いて表示するための画面を例示する図である。 本発明の実施の形態2に係る重複計測排除のためのパノラマ画像の例を示す図である。 本発明の実施の形態2に係る撮像間隔に対する計測処理時間の比を表示する画面例を示す図である。 本発明の実施の形態2に係るパラメータ変更のための画面例を示す図である。 本発明の実施の形態2に係る撮像パラメータの変更処理のフローチャートである。 本発明の実施の形態3に係るキャリブレーションを説明するための図である。 本発明の実施の形態3に係るキャリブレーションによって取得されるパラメータセットの一例を示す図である。 本発明の実施の形態3に係るキャリブレーションの手順を説明するための図である。 本発明の実施の形態3に係るキャリブレーションの手順を説明するための図である。 本発明の実施の形態3に係るキャリブレーションの手順を説明するための図である。 本発明の実施の形態4に係るサポート装置600のハードウェア構成を示す模式図である。
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
[実施の形態1]
図1は、本発明の実施の形態1に係る視覚センサを利用したコンベアトラッキングシステムの構成を示す模式図である。図1に示すコンベアトラッキングシステムは、2つの搬送装置(コンベア)10および20を含む。コンベア10および20は、それぞれ駆動ローラ12および22によって回転駆動される。以下では、コンベア10および20をそれぞれライン1およびライン2とも称す。図1に示す例では、ライン1は、紙面右側に移動し、ライン2は、紙面左側に移動する。ライン1には、搬出装置30等によって紙面左側からワークWがランダムに提供される。このライン1上のワークWは、紙面左側から紙面右側へ移動する。ワークWとしては、典型的には、お菓子等の食品や各種の錠剤等が想定される。
本実施の形態に係る視覚センサ100は、ライン1上の予め定められた位置に設けられる。視覚センサ100は、ワークなどの被写体を撮像するための撮像部と当該撮像部によって撮像された画像を処理するための撮像画像処理部とを一体的に構成したものである。ただし、撮像部と撮像画像処理部とを別体として構成してもよい。
視覚センサ100は、その撮像視野がライン1の幅方向(搬送方向とは直交する方向)の全体を含むように設定されている。撮像視野は、撮像部(カメラ)の画角(または視野角)の設定を用いて決定することができる。本明細書では、撮像視野は、撮像部で撮像され得る範囲に相当し『撮像範囲』と呼ぶこともある。
上述の撮像範囲となるように設置された視覚センサ100が、予め定められた周期で連続的に撮像を行うことで、ライン1上をランダムに流れてくるワークWを順次撮像できる。視覚センサ100は、この順次撮像される画像に対してパターンマッチング等の計測処理を行うことで、各ワークの位置決めおよびトラッキング処理を行う。このように、視覚センサ100の撮像部(後述の図2に示す撮像部110)は、搬送装置であるコンベア10上を搬送されるワークWを撮像するように配置されている。そして、この撮像部110には、撮像画像を処理するための撮像画像処理部120(後述の図2を参照)が接続される。
ライン1の搬送方向には、視覚センサ100の下流側に、ワークWを把持してライン2へ移動させるロボット300が配置されている。このロボット300は、ワークWを把持するためのアームを有しており、このアームを目的位置に移動させることで、ライン1上のワークを把持する。すなわち、ロボット300は、搬送装置であるコンベア10(ライン1)の搬送経路において、視覚センサ100の撮像部の撮像範囲より下流側に配置されるとともにワークWを取り扱う移動機械に相当する。より具体的には、ロボット300は、そのアームを目的のワークWに位置決めして、ピックアップしてライン2上に整列する。
さらに、ロボット300は、ライン1に沿って移動するための移動機構(図示せず)上に配置されており、所定の範囲に亘って移動する。このロボット300の移動範囲をトラッキング範囲とも称す。
ロボット300のトラッキング処理および位置決め処理については、ライン1に設けられたエンコーダ14による検出結果を用いて制御される。このエンコーダ14は、典型的には、ロータリーエンコーダが採用され、回転に伴ってパルス信号を発生する。この発生するパルス信号のパルス数をカウントすることで、コンベア10(ライン1)と連結されたローラの回転数、すなわち、エンコーダ14が発生するパルス信号は、搬送装置であるコンベア10の搬送経路における移動量を示す信号に相当し、このパルス信号に基づいて、コンベア10の移動量が算出される。
ロボット300は、ロボット制御装置200からの指示に従って動作する。すなわち、ロボット制御装置200は、移動機械であるロボット300を制御するための制御装置である。ロボット制御装置200は、視覚センサ100とネットワークNWを介して接続されており、視覚センサ100によって検出された各ワークWの位置に基づいて、ロボット300に対してワークWの把持動作に必要な指示を与える。
ネットワークNWには、視覚センサ100およびロボット制御装置200に加えて、操作表示装置500、およびパーソナルコンピュータに相当する機能を有するサポート装置600が接続されている。操作表示装置500は、視覚センサ100からの処理結果やロボット制御装置200からのロボット300の動作状態などを表示するとともに、ユーザからの操作に応答して、視覚センサ100および/またはロボット制御装置200へ各種の指示を与える。
図1に示すコンベアトラッキングシステムにおいては、生産性を向上するために、ライン速度(搬送速度)をより高めたいという潜在的なニーズが存在する。このようなニーズに対処するため、本実施の形態に係るコンベアトラッキングシステムにおいては、エンコーダ14が発生するパルス信号をロボット制御装置200だけではなく、視覚センサ100にも入力するという構成を採用する。このように、視覚センサ100およびロボット制御装置200が同期して対象の搬送装置(コンベア)の位置情報を取得することで、ロボット制御装置200と視覚センサ100との間のネットワークNWを介した通信による同期をとった動作が可能となる。ここでは、ロボット制御装置200と視覚センサ100との間での同期をとった動作制御に関する詳細は略す。
<撮像動作と移動量>
次に、図1に示すコンベアシステムにおける視覚センサ100の撮像動作と移動量の関係について説明する。
視覚センサ100は、ライン1を撮像する。視覚センサ100の撮像動作は、ロボット制御装置200からの撮像指示に応じて開始される。この撮像指示は、視覚センサ100とロボット制御装置200とを接続するネットワークNW経由で搬送される。このネットワークNWは、典型的には、イーサネット(登録商標)などの汎用的なネットワークを採用することができる。
視覚センサ100は、撮像指示をロボット制御装置200から受信するように構成されており、この撮像指示に応答して撮像を開始する。これにより、視覚センサ100は、撮像視野を写した画像を順次取得する。そして、視覚センサ100は、当該画像に対して計測処理を実行する。さらに、視覚センサ100は、この計測処理によって得られた各ワークWの撮像時の位置情報をロボット制御装置200へ送信する。このように、視覚センサ100は、撮像部の撮像によって得られた画像に対して計測処理を行うことで、画像中の予め登録されたワークに対応する領域の位置情報を取得する。
より具体的には、ロボット制御装置200は、エンコーダ14からのパルス信号に含まれるパルス数をカウントし、予め定められた値以上の数のパルスが入力されたタイミングで、ネットワークNWを経由して視覚センサ100に対して撮像指示を送出する。
視覚センサ100からの各ワークWの位置情報は、ネットワークNWを介してロボット制御装置200へ送信される。ロボット制御装置200は受信する位置情報を用いて、ロボット300に対して把持動作に必要な指示を与える。ここでは、ロボット300の把持動作に関する詳細は略す。
ライン1に設けられたエンコーダ14の検出結果に応じて生成されるパルス信号は、視覚センサ100およびロボット制御装置200へ入力されるように構成されている。視覚センサ100およびロボット制御装置200は、パルス信号に含まれるパルス数をカウントするためのエンコーダカウンタをそれぞれ有している。エンコーダ14からのパルス信号は、並列的に、視覚センサ100およびロボット制御装置200に入力されるので、それぞれのエンコーダカウンタを同じタイミングで初期化(カウンタリセット)しておけば、その後に入力されるパルス信号についてのカウンタ値は、互いに同じ値、すなわち、カウンタ値についての同期をとることができる。
より具体的には、視覚センサ100およびロボット制御装置200には、いずれも、エンコーダ14からのパルス信号に含まれる1パルスあたりのコンベアの移動量が予め設定されている。さらに、視覚センサ100およびロボット制御装置200のそれぞれのエンコーダカウンタについても、互いに同一のパラメータ(カウンタ最大値、カウンタ最小値、1パルスに対する増加値など)が設定されている。すなわち、視覚センサ100のエンコーダカウンタは、ロボット制御装置200のエンコーダカウンタとの間で、カウントに関して同一のパラメータが設定されている。
また、これらのエンコーダカウンタによるカウンタ値は、生産ラインの稼動前に0に初期化される。すなわち、視覚センサ100のエンコーダカウンタは、パルス信号に含まれるパルス数のカウント開始前に、ロボット制御装置200のエンコーダカウンタとともに、リセットされる。
このように本実施の形態においては、視覚センサ100とロボット制御装置200との間でコンベア10の搬送経路における移動量を同期して保持する手段が実現される。
<ハードウェア構成>
図2は、本発明の実施の形態1に係る視覚センサを利用したコンベアトラッキングシステムのハードウェア構成について示す模式図である。図2を参照して、視覚センサ100は、撮像部110と、撮像画像処理部120とを含む。撮像画像処理部120は操作表示装置500と通信する。ここでは、ロボット制御装置200およびサポート装置600の図示を略している。
図2では、撮像部110から、撮像によって得られた撮像画像を受理して処理する画像処理装置は、撮像画像処理部120と操作表示装置500とを含んで構成される。なお、操作表示装置500の機能をサポート装置600が備えてもよい。この場合には、画像処理装置は、撮像画像処理部120の機能とサポート装置600の機能とを含んで構成される。
撮像部110は、撮像視野に存在する被写体を撮像する装置であり、主体たる構成要素として、レンズや絞りなどの光学系と、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの受光素子とを含む。撮像部110は、撮像画像処理部120からの指令に従って撮像するとともに、その撮像によって得られた画像データを撮像画像処理部120へ出力する。
撮像画像処理部120は、CPU(Central Processing Unit)122と、メモリ124と、撮像制御部126と、通信インターフェイス(I/F)128と、入出力インターフェイス(I/F)130と、エンコーダカウンタ132と、着脱自在の記録媒体の一例であるCD−ROM(Compact Disk-Read Only Memory)136が装着されるメモリインターフェイス(I/F)135とを含む。これらのコンポーネントは、バス134を介して互いにデータ通信可能に接続されている。
CPU122は、撮像画像処理部120において主たる演算を行うプロセッサである。メモリ124は、CPU122によって実行される各種プログラム、撮像部110によって撮像された画像データ、各種パラメータなどを格納する。典型的には、メモリ124は、DRAM(Dynamic Random Access Memory)などの揮発性記憶装置と、FLASHメモリなどの不揮発性記憶装置とからなる。
撮像制御部126は、CPU122などからの内部コマンドに従って、接続されている撮像部110における撮像動作を制御する。撮像制御部126は、撮像部110に対して各種コマンドを送信するインターフェイスと、撮像部110からの画像データを受信するインターフェイスとを有している。
通信インターフェイス128は、操作表示装置500との間で各種データをやり取りする。典型的には、視覚センサ100および操作表示装置500とはイーサネット(登録商標)を介して接続されており、通信インターフェイス128は、このようなイーサネット(登録商標)に準拠したハードウェアである。
入出力インターフェイス130は、撮像画像処理部120から外部へ各種信号を出力し、あるいは、外部からの各種信号を入力する。特に、入出力インターフェイス130は、エンコーダ14で生成されるパルス信号を受け入れ、その信号をデジタル信号に変換してエンコーダカウンタ132へ出力する。
エンコーダカウンタ132は、エンコーダ14からのパルス信号に含まれるパルス数をカウントし、カウント値を出力する。このエンコーダカウンタ132は、基本的には、CPU122の演算サイクルとは独立して動作するため、エンコーダ14からのパルス信号に含まれるパルス数を取り逃すことがない。
一方、操作表示装置500は、メモリ520を含む演算処理部510と、通信インターフェイス(I/F)528と、入出力インターフェイス(I/F)550と、液晶などからなる外部のディスプレイ502の表示動作を制御する表示コントローラ540と、オペレータが操作するボタン,スイッチなどからなる操作部503からの操作を受付ける入力インターフェイス(I/F)550と、着脱自在の記録媒体の一例であるメモリカード531が装着されるメモリインターフェイス(I/F)529とを含む。これら各部は、表示用DSP(Digital Signal Processor)など各種プロセッサを用いて構成される。
ここでは、ディスプレイ502と操作部503を個別にしているが、両者が一体的に構成された、いわゆるタッチパネルで提供されてもよい。
演算処理部510は、視覚センサ100からの画像データを受信し、受信した画像データを用いて表示コントローラ540を制御することにより、ディスプレイ502に画像を表示させ、また操作部503のオペレータ操作による指示を入力インターフェイス550を介して入力する。メモリ220には、視覚センサ100から受信する画像データが格納される。また、視覚センサ100の計測処理によって検出されたそれぞれのワークWの計測結果などの情報が格納される。
通信インターフェイス(I/F)528は、視覚センサ100の撮像画像処理部120との間で各種データをやり取りする。典型的には、視覚センサ100および操作表示装置500とはイーサネット(登録商標)を介して接続されており、通信インターフェイス528は、このようなイーサネット(登録商標)に準拠したハードウェアである。
<機能構成>
図3は、本発明の実施の形態1に係る撮像画像処理のための機能構成について示す模式図である。図4は、本発明の実施の形態1に係る撮像画像処理のためのデータの記憶内容示す模式図である。
図3に示す各機能は、撮像画像処理部120のCPU122がメモリ124に予め格納されたプログラムを実行することにより実現されると想定するが、各機能は、プログラムのみならず、プログラムと回路の組合せで実現されてもよい。
撮像画像処理部120で実行される各種プログラムは、CD−ROM136に格納されて流通する。このCD−ROM136に格納されたプログラムは、CD−ROM(Compact Disk-Read Only Memory)ドライブ機能を有するメモリインターフェイス135によって読取られ、メモリ124などへ格納される。あるいは、上位のホストコンピュータなどからネットワークNWを通じてプログラムをダウンロードするように構成してもよい。
本実施の形態では、ライン1上をワークWが搬送される状態において、撮像部110が撮像範囲を連続的に撮像して取得される各画像データを重なり合わせながら繋げることにより、ライン1上の上流から下流までの全景に対応する画像を生成する。この全景に対応する画像を、パノラマ画像と称する。
CPU122は、パノラマ画像のための処理機能を有する。具体的には、撮像画像についてワークの計測処理を実行する計測処理部221、パノラマ画像の画像どうしの重なり範囲を取得するための重なり取得部222、重なり範囲で画像どうしが重なり合うようなパノラマ画像を生成するための画像生成部223、撮像間隔に対する計測処理の所要時間の比を取得するための比取得部225、各種のパラメータ(パラメータの種類および/または値)を更新するためのパラメータ更新部226、およびパノラマ画像を各撮像画像に分割する画像分割部229を備える。
パラメータ更新部226は、計測処理に係るパラメータを更新するための計測パラメータ更新部227、および撮像間隔に係るパラメータを更新するための撮像パラメータ更新部228を含む。
上述の計測処理には、典型的には、予め登録されたワークWについてのモデル画像に基づくパターンマッチングを用いたサーチ処理がある。サーチ処理では、ワークWの特徴部分を画像パターン(モデル)として予め登録しておき、入力画像のうち、当該予め登録されているモデルと最も似ている部分を入力画像から探し出す処理である。このとき、モデルと最も似ている部分の位置・傾き・回転角度や、モデルに対してどの程度似ているかを示す相関値などが算出される。また、ラベリング処理を適用するとした場合には、予め登録したモデルまたは表示属性(色など)と一致している部分を入力画像から探し出し、当該探し出した部分にラベル(番号)を付与する。これらの番号を利用することで、番号の指定に応答して、指定された部分の面積や重心位置を算出したりする。
ここでは、計測処理部221は、パターンマッチングによって算出されるワークWの位置と相関値を、計測結果として出力し、また、計測処理のパラメータ(種類,値)は、相関値を算出するための相関係数の種類または値を指すと、想定する。
図4を参照して、メモリ124には、撮像部110から出力される撮像画像の画像データ333と、各画像データ333に対応して関連データが格納されるテーブル331と、パノラマ画像データ332と、撮像パラメータ350とを含むデータが格納される。
テーブル331は、撮像毎に取得される撮像画像の画像データ333に対応する関連データは、当該画像データ333についての計測処理による計測結果334、ずれ量335、当該画像データを撮像時に入力するエンコーダカウンタによるカウンタ値336、当該画像データについての計測処理のパラメータ(種類および値)337、および後述する撮像間隔339を含む。計測結果334は、対応する画像データ333を計測処理部221によって計測処理した場合に取得される相関値および画像座標位置などを含む。パラメータ337は、相関値等を算出するための相関係数の種類または値を指す。
<パノラマ画像の生成処理>
図5は、本発明の実施の形態1に係るパノラマ画像の生成手順を説明するための図である。図5を参照して、画像生成部223によるパノラマ画像の生成処理について説明する。
パノラマ画像は、公知のパノラマ合成技術を使用して生成してもよいが、ここでは、エンコーダカウンタによるカウンタ値336を用いたパノラマ画像の生成処理を説明する。
パノラマ画像の生成に先立って、重なり取得部222により、各画像データ333についてずれ量335が取得されて、テーブル331に格納される。具体的には、重なり取得部222は、撮像時のエンコーダカウンタ132からカウンタ値336を取得し、撮像画像の画像データ333と関連付けてテーブル331に格納する。このように、撮像画像が取得される毎に、画像データ333とカウンタ値336が取得されてテーブル331に格納される。
重なり取得部222によるずれ量335の取得手順について説明する。エンコーダカウンタ132によるカウンタ値1パルス当りのコンベアのライン1上での移動量を表す移動量ベクトルをEpc=(Xp,Yp)とする。また、撮像画像の画像データ333の1ピクセル当りの変換係数:R[mm/pix]は予め決定されて、メモリ124に格納されているとする。この場合、カウンタ値336の1パルス当りの画像上での移動量ベクトルはEpp=(Xp/R,Yp/R)と規定することができる。なお、本実施の形態では、説明を簡単にするために、Epc=(Xp,0)とする。
ここで、図5を参照して、N枚目の画像データ333の撮像時のカウンタ値336をT(n)とし、(N+1)枚目の画像データ333の撮像時のカウンタ値336をT(n+1)とすると、N枚目と(N+1)枚目の画像のずれ量Mは、M=(T(n+1)−T(n))×Eppと算出することができる。
したがって、重なり取得部222は、テーブル331から読出したカウンタ値336を用いてN枚目と(N+1)枚目の画像データ333のずれ量Mを算出することができる。算出されたずれ量Mは、ずれ量335としてテーブル331に格納される。テーブル331の画像データ333について、画像データD(i)に対応するずれ量335は、画像データD(i+1)とのずれ量Mに相当する。
<パノラマ画像の生成>
画像生成部223による、パノラマ画像の生成について説明する。CPU122が操作表示装置500からモニタ指示を受信する都度、画像生成部223はパノラマ画像を生成する。
テーブル331には、撮像部110により撮像されて取得される画像データ333が、撮像の順番に従って順次に格納される。パノラマ画像生成時には、テーブル331にパノラマ画像を生成するために必要な数の画像データ333が格納されていると想定する。
画像生成部223は、モニタ指示を受信すると、テーブル331からN枚目と(N+1)枚目の画像データ333とを順に読出し、すなわち撮像順に従って読出し、読出した順に従って画像データ333を、メモリ124の予め定められた領域に配列する。この処理を繰返すことにより、連続して撮像された複数枚(具体的には2枚以上)の画像データ333からなるパノラマ画像データ332が生成される。
パノラマ画像データ332は、パノラマ画像を生成するのに用いた複数の画像データ333とともに、テーブル331から読出された各画像データ333に関連する計測結果334および、ずれ量335を含み、さらに、当該画像のパノラマ画像における位置338、および比340のデータを含む。なお、比340の詳細は後述する。
画像生成部223は位置338を次のように決定する。つまり、ここでは、パノラマ画像のサイズは、ディスプレイ502のサイズに応じたサイズに予め決められており、また、画像データ333のサイズも予め決められている。したがって、パノラマ画像を構成する画像データ333の枚数が決まると、各画像データ333のパノラマ画像における位置は、ずれ量335により一意に決定される。
画像生成部223は、パノラマ画像データ332を生成する都度、生成に用いた複数の画像データ333のうち、最後に読出した、すなわち最も最近に撮像された画像データ333を指示するポインタ360をテーブル331に設定する。
画像生成部223は、次回にモニタ指示を入力すると、ポインタ360が指示する画像データ333の次位以降に格納される画像データ333を用いて、次の新たなパノラマ画像のデータを生成する。
<メインフローチャート>
図6は、本発明の実施の形態1に係る処理のメインフローチャートである。図7は、本発明の実施の形態1のパノラマ画像を説明するための模式図である。図7では、上段の撮像画像の画像データ333それぞれを、撮像された順番で対応するずれ量335に従って重ね合わせることにより、下段のパノラマ画像が生成される。各画像データ333には、ライン1上を搬送されるワークの画像60が含まれている。パノラマ画像には、各画像データとともに、各画像データについての計測処理結果の画像61と、重ね合わせ領域の画像62がオーバーレイ(重畳)されて同時表示される。
ここでは、計測処理結果は画像61で表示したが、パノラマ画像と関連付けて表示する場合には、重畳される画像に限定されず個別のグラフ,数値などで表示してもよい。また、重ね合わせ領域は画像62で重畳して表示するとしたが、重畳する態様に限定されず、パノラマ画像に関連付けて表示する態様であればよい。図7のパノラマ画像の生成および表示手順については、図6のフローチャートを参照して説明する。
ここでは、テーブル331には、撮像部110の撮像により取得された複数の画像データ333と、各画像データ333に対応して関連データが格納されていると想定する。
まず、CPU122は、テーブル331から、画像生成部223によって生成されたパノラマ画像データ332を読出し、操作表示装置500に送信する。これにより、操作表示装置500の演算処理部510は、通信インターフェイス528を介してパノラマ画像データ332を受信する(ステップS1)。受信したパノラマ画像データ332は、メモリ520に格納される。
演算処理部510は、メモリ520から、パノラマ画像データ332の各画像データ333を、関連付けされたずれ量335と位置338に従って、ディスプレイ502に重ね合わせて表示する(ステップS2)。これにより、ディスプレイ502にはパノラマ画像が表示される。
次に、演算処理部510は、メモリ520から各画像データ333に関連付けされた計測結果334を読出し、計測結果334に基づく画像61をディスプレイ502のパノラマ画像上に表示する(ステップS3)。画像61の表示位置は、計測結果334に含まれる画像座標位置により決定することができる。また、パノラマ画像上に、画像データ333どうしの重ね合わせ領域を表す画像62を同時表示する(ステップS3)。
オペレータは、操作部503を用いてモニタ継続の操作または中止の操作をする。入力インターフェイス550は当該操作に応じてモニタ継続または中止の指示を受付けて出力する。演算処理部510は、入力した指示に基づき、モニタ継続または指示を判定する(ステップS4)。
中止と判定すると(ステップS4でYES)、一連の処理は終了するが、継続と判定すると(ステップS4でNO)、処理はステップS1に戻る。これにより、演算処理部510は、通信インターフェイス528を介して、撮像画像処理部120にモニタ指示を送信する。
撮像画像処理部120の画像生成部223は、受信したモニタ指示に応答して、次のパノラマ画像データ332を生成する。以降は、新たに生成されたパノラマ画像データ332について、ステップS1以降の処理が同様に行われるので、オペレータはディスプレイ502に表示される新たなパノラマ画像を用いてライン1をモニタすることができる。
ディスプレイ502には、図7の下段のようなパノラマ画像が表示されることから、オペレータは計測処理結果の画像61と、重ね合わせ領域の画像62を同時に確認することができる。画像60,61を確認することで、ワークを視覚センサ100により検出することができているかを確認することができる。
また、オペレータは、重ね合わせ領域の画像62を確認することで、撮像間隔を確認することができるため、ワークを検出できない原因が計測処理に拠るのか、または撮像間隔に拠るのかを判断することができる。
<他の表示態様>
本実施の形態1におけるパノラマ画像の表示態様は、図7に示すものに限定されず、次のような表示態様であってもよい。
図8は、本発明の実施の形態1に係るパノラマ画像の表示態様の他の例を説明する図である。パノラマ画像の表示態様は、図8(A)に示すようにワークの画像60に関連付けて計測処理結果に基づく画像61を表示するとともに、重ね合わせ領域の画像62を太線枠で囲むものとしてもよい。また、画像61は計測処理結果の値(相関値)に応じて色分けして表示してもよい。
また、図8(B)に示すように、重ね合わせ領域の画像62は当該領域を予め定められた色63で表示してもよい。また、図8(C)に示すように、パノラマ画像においてずれ量Mで重ね合わされた一連の画像について、N枚目と(N+1)枚目、換言すると奇数番目の画像と偶数番目の画像とは、表示態様を相違させてもよい。たとえば、背景色64を異ならせて表示してもよい。
<スクロール表示>
図9は、本発明の実施の形態1に係るパノラマ画像のスクロールを説明する図である。図9では、ディスプレイ502の表示領域は、パノラマ画像の表示領域72と、スライドバー70の表示領域と、選択画像73の表示領域とを含む。
領域72では、紙面横方向に複数枚の画像が一列に並んだパノラマ画像が表示されており、スライドバー70の延びる方向は、当該画像列が延びる方向に一致する。オペレータは、スライドバー70上のスライダ71をスライド操作する。スライダ71の移動量(移動方向、移動距離)は入力インターフェイス550を介して演算処理部510により検出されて、演算処理部510は、検出した移動量に係るスクロール指示を表示コントローラ540に出力する。表示コントローラ540は、スクロール指示に係る移動量に従って、領域72の画像(パノラマ画像)を移動させて、すなわちスクロールさせて表示する。
ここでは、スクロール可能なように、メモリ529には、十分な枚数の画像データ333からなるパノラマ画像データ332が格納されているものと想定する。
また、オペレータは、領域72に表示されたパノラマ画像における複数の画像のうちから所望の画像を、操作部503を介したクリック操作などで選択することができる。選択操作がされると、演算処理部510は、入力インターフェイス550を介してクリック操作によるクリック位置を検出する。そして、検出したクリック位置とパノラマ画像データ332の位置338とに基づき、選択された画像に対応する画像データ333を、選択画像73として拡大して表示する。
[実施の形態2]
次に、実施の形態2について説明する。本実施の形態では、オペレータが画像処理における各種パラメータを変更するのに好適な例を説明する。
図10は、本発明の実施の形態2に係る処理のメインフローチャートである。図10の処理では、計測処理に係るパラメータが変更される。
まず、CPU122は、テーブル331から、画像生成部223によって生成されたパノラマ画像データ332を読出し、操作表示装置500に送信する。これにより、操作表示装置500の演算処理部510は、通信インターフェイス528を介してパノラマ画像データ332を受信する(ステップS1a)。受信したパノラマ画像データ332は、メモリ520に格納される。
次のステップS2およびS3では、実施の形態1と同様に、ディスプレイ502にパノラマ画像が表示され、パノラマ画像に計測処理結果の画像61と、重ね合わせ領域の画像62がオーバーレイされて同時表示される。
オペレータは、計測処理のパラメータを変更する場合には、操作部503を操作して、パラメータを変更するための情報を入力する(ステップS4a)。具体的には、パラメータの種類と、変更後の値とを指示する情報を入力する。
パラメータを変更するための情報は、演算処理部510から、通信インターフェイス528を介して撮像画像処理部120に送信される。
撮像画像処理部120はパラメータを変更するための情報を受信する。計測パラメータ更新部227は受信した情報を用いて、計測処理のためのパラメータ(種類,値など)を更新し、更新後のパラメータを計測処理部221に出力する。
計測処理部221は、更新後のパラメータを用いて、表示中のパノラマ画像の各画像データ333について計測処理を行う。そして、その計測結果を用いて、メモリ124のパノラマ画像データ332の各画像データ333に関連する計測結果334を更新する(ステップS5)。これにより、メモリ124のパノラマ画像データ332は、更新後のパラメータを用いた計測処理による計測結果334を有するデータに編集(更新)された状態となる。
オペレータは、編集後のパノラマ画像の確認を希望する場合には、操作部503を介して編集結果の確認要求の操作をする。確認の操作がされると、演算処理部510は、操作に応じて確認指示を入力する。
演算処理部510は、確認指示が入力されないと判定すると(ステップS6でYES)、一連の処理を終了させる。一方、入力したと判定すると(ステップS6でNO)、演算処理部510は、撮像画像処理部120に対して確認指示を送信する。
撮像画像処理部120では、CPU122は確認指示を受信すると、編集後のパノラマ画像データ332をメモリ124から読出し、操作表示装置500に送信する。これにより、編集後のパノラマ画像データ332を用いて、ステップS1以降の処理が行われる。したがって、オペレータは、更新後のパラメータを用いた計測処理結果をパノラマ画像を用いて確認することができる。
ここでは、パラメータ更新後のパノラマ画像は、メモリ124に既に生成されて格納されているパノラマ画像データ332を編集することで取得するとしたが、取得方法は、これに限定されない。たとえば、新たに撮像されて取得された画像データ333を用いてもよい。
具体的には、実施の形態1で説明したように、ポインタ360が指示する画像データ333以降に格納されている画像データ333について更新後のパラメータで計測処理を行い新たなパノラマ画像データ332を生成するとしてもよい。
また、更新後のパラメータを用いて、テーブル331のパラメータ337を更新しても良い。たとえば、必要に応じて、より特定的にはオペレータが操作部503を介して更新指示を入力したときに、テーブル331のパラメータ337を更新するようにしてもよい。
<表示態様>
図11〜図13は、本発明の実施の形態2に係るパノラマ画像の表示態様を説明する図である。上述のように計測処理のパラメータを更新する場合には、オペレータが更新後の値の目安を把握し易いように、計測結果334の値を抽出して表示する。
図11を参照して、ディスプレイ502には、計測結果334の値が割当てされる縦軸と、縦軸に直交する横軸が表示される。横軸には、パノラマ画像における各画像データ333の位置を表す値が割当てられる。当該位置は、位置338に基づき取得される。ここでは、縦軸に割当てされる値は、たとえば相関値を指す。
グラフ91は、各画像データ333に対応する相関値を線分で繋ぐことにより生成されるグラフを指す。オペレータは、グラフ91から、計測結果334の値が低いまたは高い画像データ333が存在するか否かを速やかに把握することができる。
図12では、オペレータの操作に応じて、グラフ91の部分92が選択的に指定された状態が示される。部分92はグラフ91と区別し得るような態様で表示される。たとえば、部分92の囲み枠を赤色で表示する。
演算処理部510は、入力インターフェイス550を介して部分92に対応する横軸の値を抽出する。そして、抽出した値に対応する位置338に関連付けされた画像データ333と計測結果334とずれ量335とのデータを、メモリ520から読出し、読出したデータに基づく画像をディスプレイ502に表示する(図13を参照)。
図13には、部分92に対応する画像を拡大表示した状態が示される。図13のディスプレイ502では、上段にパノラマ画像93が表示されて、下段にはパノラマ画像93に対応してグラフ911が表示される。上段にパノラマ画像93は、選択された計測結果の部分92に対応する画像データ333と、当該画像データの前後で撮像して取得された画像データ333を含んで構成されるパノラマ画像である。
また、グラフ911の横軸が延びる方向と一致する方向に従ってスライドバー94が表示される。オペレータはスライドバー94上のスライダ95をスライド操作することができる。
スライド操作によるスライダ95の移動量(移動方向、移動距離)に基づき、演算処理部510は、部分92を移動させて表示する。また、移動後の部分92の位置に関連付けされた画像データ333と計測結果334とずれ量335とのデータを、メモリ520のパノラマ画像データ332から読出し、読出したデータに基づく画像をディスプレイ502に拡大表示する。これにより、スライド操作に連動して、図13のパノラマ画像とグラフ911をスクロール表示することができる。
なお、グラフ91の横軸には位置338の値を割当てたが、位置338に代替してカウンタ値336を割当ててもよい。
<表示態様の他の例>
グラフ911とパノラマ画像93とは、図14〜図17のような表示態様であってもよい。
図14では、図13のパノラマ画像93において計測結果の画像61の表示が略されており、図15では、パノラマ画像93のみが表示されている。
図16では、図11のグラフ911に代替して、各ワークWの計測結果の相関値のみが、上段のワークWの画像60に対応付けてプロットされた点912で表示されている。図17では、図16のパノラマ画像93から画像62を消去して、ワークの画像60のみが表示される。なお、図16や図17において、プロットされた点912どうしを線で結んでもよい。
オペレータは、操作部503を操作することにより、ディスプレイ502に表示される画像を、図13および図14〜図17の画像のいずれかに切替えることができる。
<閾値を用いた表示例>
図18と図19には、計測結果を閾値を用いて表示するための画面が例示される。
計測結果334について閾値97が設定された場合には、演算処理部510は、グラフ91の各計測結果334の値(特定的には、相関値)と閾値97とを比較し、比較結果に基づき、グラフ91のうち、閾値97の範囲内に該当する部分を表す画像96を、グラフ91に重畳して表示する(図18を参照)。画像96は、たとえば枠囲みにて表示されて、枠はグラフ91と識別可能な態様で表示される。たとえば、枠とグラフ91の色を異ならせて表示する。
画像96が表示されている状態で、オペレータが操作部503を操作すると、演算処理部510は、画像96をグラフ91の他の部分(グラフ91のうち、閾値97の範囲内に該当する部分)に順次に移動させて表示する。
図18の画像96は、閾値97の範囲内に該当する部分を指示するとしたが、図19に示すように閾値97の範囲外に該当する部分を指示するとしてもよい。
<重複計測を排除するための表示例>
ロボット300がワークWを正確に把持するためには、ライン1上の同一ワークWについて計測処理が2回以上行われる事態(以下、重複計測という)を排除する必要がある。本実施の形態2では、重複計測の排除を支援するための情報が表示される。
図20は、本発明の実施の形態2に係る重複計測排除のためのパノラマ画像の例を示す図である。オペレータが、表示されるパノラマ画像から、各ワークWについて重複して計測処理が行われているか否かの確認が容易となるように、演算処理部510は、パノラマ画像中の偶数枚目の画像と奇数枚目の画像とで、計測結果334に基づく画像61を異なる態様で表示する。たとえば、図20では、偶数枚目の画像における計測結果に基づく画像61Aと、奇数枚目の画像における計測結果に基づく画像61Bとは、異なる色で表示される。
<計測処理時間の余裕度の表示例>
図21は、本発明の実施の形態2に係る撮像間隔に対する計測処理時間の比を表示する画面例を示す図である。本実施の形態では、撮像間隔に対する計測処理時間の比によって、計測処理時間の余裕の程度を示す。この比を取得するために、以下のように撮像間隔と、計測処理時間とが取得される。
CPU122は、まず、撮像間隔を((It×a)/v)により算出する。ここで、It[パルス]は、撮像指示を入力する間隔を指し、a[mm/パルス]は1パルス当たりのコンベア移動量を指し、およびv[mm/sec]はコンベア速度を指す。これらの値は、予めメモリ124に撮像パラメータ350として格納されていると想定する。
算出される撮像間隔は、撮像動作により取得される画像データ333に関連付けて、テーブル331に撮像間隔339のデータとして格納される。
また、計測処理時間とは、計測処理部221が、1回の撮像動作によって取得された画像データ333について計測処理を開始してから、終了するまでに要する時間を指す。計測処理の開始から終了までは、たとえば、計測処理部221が撮像部110から画像データを入力してから、計測処理の結果を出力するまでを指す。この時間は、CPU122が、図示のないタイマを用いて計測することにより取得することができるが、ここでは、説明を簡単にするために計測処理時間T[sec]を用いる。
比取得部225は、比340のデータを取得する。つまり、メモリ520のパノラマ画像データ332の各画像データ333について、当該画像データ333に関連付けされた撮像間隔339と、計測処理時間Tを用いて、(計測処理時間(T)÷撮像間隔)により、撮像間隔に対する計測処理時間の比を算出する。このようにして、各画像データ333について算出した比を、比340として、パノラマ画像データ332の各画像データ333に関連付けて登録する。
操作表示装置500では、演算処理部510は比340に基づく情報を表示する。具体的には、撮像画像処理部120から受信して、メモリ520に格納されているパノラマ画像データ332の各画像データ333に関連付けされた比340のデータを用いて、グラフ133(図21参照)の画像を生成し、生成したグラフ133を表示コントローラ540を介してディスプレイ502に表示する。
図21を参照して、グラフ133では、縦軸には比340の値が割当てられ、縦軸に直交する横軸にはパノラマ画像の各画像データ333の位置338を指す値が割当てられる。グラフ133では、各画像データ333に関連付けされた比340の値は、棒グラフで表示されるが、表示態様は棒グラフに限定されない。
上述の算出式に従えば、比340が値“1”よりも大きい場合には、対応する画像データ333の計測処理は撮像間隔内に終了していないことが示されて、値“1”未満である場合には、計測処理時間に余裕があることが示される。したがって、オペレータは、グラフ133から、パノラマ画像において、計測処理が撮像間隔内に終了していない画像データ333が存在するか否かを速やかに把握することができる。
オペレータは、グラフ133から、変数It[パルス]の値、またはコンベア速度の適否を判断するための支援情報を得ることができる。具体的には、変数It[パルス]の値を小さくする、またはコンベア速度を速くするように、設定を変更するか否かの判断を支援するための情報を得ることができる。
グラフ133では、比340が値“1”よりも大きい部分については表示態様が変更される。たとえば、枠131を用いて当該部分を囲むことにより強調表示する。また、計測処理時間の余裕の程度に応じて、各画像データ333に対応する棒グラフの色を変更してもよい。
図21を参照して、オペレータがスライダ95をスライド操作すると、演算処理部510は、スライダ95の移動量(移動方向、移動距離)を入力し、入力した移動量に連動してパノラマ画像をスクロールし、同時に、グラフ133もスクロールするように、表示コントローラ540を制御する。
このように図21の画面によれば、計測処理時間の余裕の程度を提示することができる。したがって、図10のステップS5において計測処理のパラメータを変更した後において、変更後のパラメータを用いた計測処理時間に余裕が有るか否かをオペレータが判断する場合に、判断を支援するための情報を提示することができる。なお、計測処理時間の余裕の程度を示すためには、撮像間隔に対する計測処理時間の比に限らず、計測処理時間そのものを表示してもよい。
ステップS5でのパラメータ変更のための画面例が、図22に示される。図22では、オペレータは、画面のボタン171を操作することにより、計測処理のパラメータ変更指示を入力することができる。演算処理部510は変更指示を入力すると、ディスプレイ502の画面を、パラメータを調整するための別の画面(図示せず)に切替える。パラメータを調整するための画面には、たとえば、パラメータの種類、値の範囲(レンジ)の候補が表示される。
<撮像パラメータの変更>
図23は、本発明の実施の形態2に係る撮像パラメータの変更処理のフローチャートである。図10では計測処理のパラメータを変更したが、同様にして撮像動作に係るパラメータを変更することができる。
図23を参照して、ステップS1a〜S3の処理が図10と同様に行われる。これにより、ディスプレイ502にはパノラマ画像または計測結果のグラフが表示される。
表示後、オペレータは操作部503を操作して、撮像動作に係るパラメータを変更するための情報を入力することができる(ステップS4b)。具体的には、パラメータの種類と、変更後の値とを入力する。
演算処理部510は、パラメータを変更するための情報を、通信インターフェイス528を介して撮像画像処理部120に送信する。
撮像画像処理部120では、撮像パラメータ更新部228は、受信した情報を用いて、メモリ124の撮像パラメータ350を更新する。たとえば、図5で説明したずれ量Mを決定するパラメータを更新することが可能である。
操作部503を介して、変更後のパラメータを用いた計測結果の確認指示が入力されないと(ステップS6でYES)、処理は終了する。確認指示が入力されると(ステップS6でNO)、更新後のパラメータを用いた処理が行われる(ステップS7)。
ステップS7においては、更新後のパラメータを用いた計測処理が行われる。たとえば、パラメータ更新後のT(n)とT(n+1)に従うタイミングで撮像部110の撮像動作を模擬(シミュレート)することによる、パノラマ画像のデータを取得する。
具体的には、画像分割部229は、撮像パラメータ更新部228から変更後のT(n)とT(n+1)を入力し、入力したこれら値を用いて、図5の手順に従って、ずれ量Mを算出する。このようにして算出されたずれ量を、変更後ずれ量MMと称する。
画像分割部229は、メモリ124のパノラマ画像データ332に従うパノラマ画像を、先頭の画像データ333から最終の画像データ333まで、順番に、変更後ずれ量MMを用いて抽出する。これにより、パノラマ画像データ332を、当該パノラマ画像を構成する複数の画像データ333に分割することができる。分割により取得される各画像データ333は、変更後のT(n)とT(n+1)に従うタイミングで撮像部110が撮像動作したと想定した場合に取得される画像データを指す。このようにして画像データ333を取得することは、変更後のT(n)とT(n+1)に従うタイミングで撮像部110の撮像動作を模擬(シミュレート)することに相当する。
次に、計測処理部221は、画像分割部229により取得された各画像データ333について計測処理を行い、計測結果334を出力する。出力された計測結果334および変更後ずれ量MMなどを用いて、パノラマ画像データ332が生成される。これにより、更新後パノラマ画像データが取得されて、ステップS7の処理は終了する。
その後、処理はステップS2に移行する。ステップS2では、更新後パノラマ画像データは、撮像画像処理部120から操作表示装置500に送信される。操作表示装置500の演算処理部510は、受信した更新後パノラマ画像データを用いてディスプレイ502に更新後のパノラマ画像を表示し、重なり領域の画像および計測結果の画像を併せて表示する(ステップS3)。
オペレータは、ディスプレイ502に表示される更新後パノラマ画像に関連付けて計測結果を確認することができる。これにより、更新後の撮像パラメータの値が適切であったか否かを判断するための支援情報を得ることができる。
[実施の形態3]
本実施の形態では、キャリブレーションによるロボット座標系に従うパノラマ画像の表示について説明する。
<キャリブレーション>
まず、視覚センサ100による画像座標系を、ロボット300によるロボット座標系に変換するためのキャリブレーションについて説明する。
図24は、本発明の実施の形態に係るキャリブレーションを説明するための図である。図25は、図24に示すキャリブレーションによって取得されるパラメータセットの一例を示す図である。図26〜図28は、本発明の実施の形態に係るキャリブレーションの手順を説明するための図である。
図24を参照して、本実施の形態に係るキャリブレーションにおいては、主として、以下の2つの観点でキャリブレーションが行われる。
(1) ロボット−コンベア間のキャリブレーション:
このキャリブレーションにおいては、エンコーダ14からのパルス信号に含まれる1パルスあたりのコンベアの移動量が取得される。このコンベアの移動量は、図25の下から2段目に示されるdXおよびdYに相当する。図25に示すように、コンベアの移動量はベクトル量であるので、ロボット座標系のそれぞれの軸について値が取得されることになる。このコンベアの移動量は、ロボット300がエンコーダ14からのパルス信号を受けて、コンベア10上のワーク位置を追跡(トラッキング)するために必要なパラメータである。
(2) 視覚センサ−ロボット間のキャリブレーション:
視覚センサ100によって計測されたワークの位置情報(画像座標系の座標値(xi,yi)[pixel])を、ロボット座標系の座標値(X,Y)[mm]に変換するための関係式が取得される。この関係式は、図25の最下段に示される6個のパラメータA〜Fによって定義される。
なお、図24に示すように、キャリブレーションを行うためには、ロボット300の位置情報(ロボット座標値)が必要であるので、ロボット制御装置200からネットワークNWを介して視覚センサ100にこれらの位置情報が転送される。
次に、キャリブレーションの手順についてより詳細に説明する。なお、本実施の形態に従うコンベアシステムにおいては、ユーザは、上述したようなキャリブレーションの意味を理解せずとも、指定された手順に従って操作するだけで、容易にキャリブレーションを行うことができる。より具体的には、本実施の形態に係るキャリブレーションは、図26〜図28に示す3段階の手順によって実現される。
なお、本実施の形態に係るキャリブレーションにおいては、図25の最上段に示すターゲットパターンが描画されたキャリブレーション用シートSが用いられる。このキャリブレーション用シートSに示されたターゲットパターンは、その内部が約90°ずつに塗り分けられた5個の円(マーク)を含む。なお、後述するように、基本的には4個のマークを用いてキャリブレーションが行われるが、追加的に配置された1個のマークは、キャリブレーション用シートSの配置向きを所定方向に統一するために用いられる。
(第1段階)
第1段階としては、図26に示すように、ユーザは、ターゲットパターンが描画されたキャリブレーション用シートSを視覚センサ100(撮像部110)の視野内に配置する。そして、ユーザは、視覚センサ100に対して撮像指示を与える。すると、視覚センサ100は、撮像によって得られた画像(ターゲットパターンが被写体として含まれる画像)に対して計測処理を行い、ターゲットパターンに含まれる四隅に配置された4個のマークについての各中心点の座標値を決定する。これによって、ターゲットパターンに含まれる4個のマークについての画像座標系の座標値[pixel]がそれぞれ取得される。この取得される4個の座標値が、図25の最上段に示される(xi1,yi1)、(xi2,yi2)、(xi3,yi3)、(xi4,yi4)に相当する。
(第2段階)
第2段階としては、図27に示すように、ユーザは、コンベア10を動かしてターゲットパターンが描画されたキャリブレーション用シートSをロボット300のトラッキング範囲(稼動範囲)内に配置するとともに、ロボット300を操作して、ターゲットパターンに含まれる4個のマークとロボット300との位置関係を対応付ける。
より具体的には、まず、ユーザは、コンベア10を動かして、キャリブレーション用シートSをロボット300のトラッキング範囲(稼動範囲)内に配置する。なお、このコンベア10の移動前(キャリブレーション開始時)のカウント値が、予め取得されているものとする。このカウント値が図25の上から2段目に示されるエンコーダカウント値E1(キャリブレーション開始時)に相当する。
続いて、ユーザは、ロボット制御装置200に付属しているティーチングペンダント(図示せず)を操作するなどによって、ロボット300のハンド先端をキャリブレーション用シートS上の1つのマークと対応するように位置決めする。ユーザは、この位置決めされた状態で指示を与えることで、ロボット制御装置200が把握しているロボット300の位置情報(ロボット300のハンド先端の位置を示すロボット座標系での座標値)が視覚センサ100へ送信される。このロボット300のハンド先端の位置決めして、および、位置決め状態におけるロボット300の位置情報の視覚センサ100へ送信する処理は、ターゲットパターンに含まれる4個のマークのすべてに対して繰り返し実行される。
このような手順によって、ターゲットパターンに含まれる4個のマークに対応するロボット300の位置情報がそれぞれ取得される。この取得される4個のマークに対応するロボット300の位置情報が、図25の上から3段目に示される(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)に相当する。
なお、図27に示すように、キャリブレーション用シートSがロボット300のトラッキング範囲(稼動範囲)内に配置された状態は、4個のマークすべてに対応するロボット300の位置情報が視覚センサ100へ送信されるまで維持される。
また、視覚センサ100は、図27に示す状態におけるカウント値についても格納する。このカウント値が、図25の上から2段目に示されるエンコーダカウント値E2(コンベアをロボット稼動範囲(上流)まで移動させたとき)に相当する。
(第3段階)
第3段階としては、図28に示すように、ユーザは、コンベア10をさらに動かしてキャリブレーション用シートSをロボット300のトラッキング範囲(稼動範囲)の最下流の位置に配置するとともに、ロボット300を操作して、ターゲットパターンに含まれる1個のマークとロボット300との位置関係を対応付ける。
より具体的には、まず、ユーザは、コンベア10を動かして、キャリブレーション用シートSをロボット300のトラッキング範囲(稼動範囲)の下流側端部の位置に配置する。
続いて、ユーザは、ティーチングペンダント(図示せず)を操作するなどによって、ロボット300のハンド先端をキャリブレーション用シートS上の1番目のマーク(第2段階で座標値(X1,Y1)を取得したマーク)と対応するように位置決めする。ユーザは、この位置決めされた状態で指示を与えることで、ロボット制御装置200が把握しているロボット300の位置情報(ロボット300のハンド先端の位置を示すロボット座標系での座標値)が視覚センサ100へ送信される。
このような手順によって、ターゲットパターンに含まれる1番目のマークに対応するロボット300の位置情報がそれぞれ取得される。この取得される1番目のマークに対応するロボット300の位置情報が、図25の上から4段目に示される(X5,Y5)に相当する。
また、視覚センサ100は、図28に示す状態におけるカウント値についても格納する。このカウント値が、図25の上から2段目に示されるエンコーダカウント値E3(コンベアをロボット稼動範囲(下流)まで移動させたとき)に相当する。
(パラメータ算出処理)
上述したような第1〜第3段階の処理によって取得されたパラメータを用いて、まず、エンコーダ14からの1カウントあたりのワークの移動量dXおよびdYが算出される。より具体的には、以下の式に従って算出される。
dX=(X5−X1)/(E3−E2)
dY=(Y5−Y1)/(E3−E2)
これらの式は、図27に示す状態と図28に示す状態との間で、ロボット300のハンド先端がキャリブレーション用シートS内の同一のマークに位置決めされた場合に生じる、カウント値の変化量に対するロボット300の位置情報の変化量を算出することを意味する。これらの演算式によって、1カウントあたりのワークの移動量dXおよびdYが決定される。すなわち、ロボット−コンベア間のキャリブレーションが実現される。
また、図26において取得されるカメラ座標系の座標値(xi1,yi1),(xi2,yi2),(xi3,yi3),(xi4,yi4)と、図27において取得されるロボット座標系の座標値(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)との対応関係に基づいて、座標系の変換に係る変換式の6個のパラメータA〜Fが決定される。すなわち、公知の手法を用いて、以下の式を満たす(あるいは、誤差が最小となる)パラメータA〜Fが決定される。
X=A・xi+B・yi+C
Y=D・xi+E・yi+F
これにより、視覚センサ−ロボット間のキャリブレーションが実現される。
パラメータA〜Fが決定されると、CPU122は、カメラ座標系のパノラマ画像を、パラメータA〜Fを用いてロボット座標系の座標値に変換して表示してもよい。これにより、オペレータに対して、ロボット300が把持する時点における搬送路上のワークWの配置を提示することができる。
より具体的には、パノラマ画像データ332の計測結果334が示す各ワークの位置(座標値)を、パラメータA〜Fを用いてロボット座標系の座標値に変換し、変換後の座標値に従ってパノラマ画像に各ワークの画像60を表示する。これにより、ロボット300が把持する時点における搬送路上のワークWの配置を提示することができる。
なお、上述した各実施の形態に説明した各種の機能は、撮像画像処理部120と操作表示装置500において、全て搭載することもできるが、必要とする種類の機能を選択して搭載するようにしてもよい。
[実施の形態4]
次に、視覚センサ100およびロボット制御装置200とネットワークNWを介して接続されるサポート装置600について説明する。
図29は、本発明の実施の形態4に係るサポート装置600のハードウェア構成を示す模式図である。サポート装置600は、典型的には、汎用のコンピュータで構成される。なお、メンテナンス性の観点からは、可搬性に優れたノート型のパーソナルコンピュータが好ましい。
図29を参照して、サポート装置600は、OS(オペレーティングシステム)を含む各種プログラムを実行するCPU610と、BIOSや各種データを格納するROM(Read Only Memory)620と、CPU61でのプログラムの実行に必要なデータを格納するための作業領域を提供するメモリRAM630と、CPU61で実行されるプログラムなどを不揮発的に格納するハードディスク(HDD)640とを含む。
サポート装置600は、さらに、ユーザからの操作を受付けるキーボード650およびマウス660と、情報をユーザに提示するためのモニタ670とを含む。
後述するように、サポート装置600で実行される各種プログラムは、CD−ROM690に格納されて流通する。このCD−ROM690に格納されたプログラムは、CD−ROM(Compact Disk-Read Only Memory)ドライブ68によって読取られ、ハードディスク(HDD)640などへ格納される。あるいは、上位のホストコンピュータなどからネットワークを通じてプログラムをダウンロードするように構成してもよい。
上述したように、サポート装置600は、汎用的なコンピュータを用いて実現されるので、これ以上の詳細な説明は行わない。
このようなサポート装置600は、視覚センサ100およびロボット制御装置200のいずれともデータ通信可能であるので、各種のデータを収集することができる。そこで、上述した操作表示装置500のパノラマ画像表示に関する機能は、サポート装置600が備えるとしてもよい。
ロボット300の動作を解析するために、各画像データ333についての計測結果を格納するテーブル331を利用することができる。つまり、ロボット300において、ロボット動作をカウンタ値と関連付けて記録しておくことで、ロボット動作と対応する画像の計測結果334と関連付けることができる。これにより、たとえば、把持動作が失敗した場合などに、その失敗した原因を追求するために、把持対象であったワークの画像および計測結果334をサポート装置600または操作表示装置500上で再現できる。そのため、不具合原因をより容易に解析することができ、または解析を支援する情報を提示することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10,20 コンベア、100 視覚センサ、110 撮像部、120 撮像画像処理部、126 撮像制御部、132 エンコーダカウンタ、200 ロボット制御装置、510 演算処理部、221 計測処理部、222 重なり取得部、223 画像生成部、225 比取得部、226 パラメータ更新部、227 計測パラメータ更新部、228 撮像パラメータ更新部、229 画像分割部、300 ロボット、500 操作表示装置、600 サポート装置、NW ネットワーク、S キャリブレーション用シート、W ワーク。

Claims (13)

  1. 連続する撮像の前後で撮像範囲に重複領域を有する撮像部に接続される画像処理装置であって、
    前記撮像部によって得られる複数枚の撮像画像を受け付けるインターフェイスと、
    前記撮像画像に対する計測処理を行うことにより、当該撮像画像中の被写体の計測結果を取得する計測手段と、
    前記複数枚の撮像画像を、前記重複領域に対応する重なり範囲で撮像順に重なり合うように合成して合成画像を生成する合成手段と、
    前記合成画像と、当該合成画像に関連付けて前記重なり範囲を示す情報および前記計測結果を示す情報とを出力する出力手段と、を備える、画像処理装置。
  2. 前記出力手段は、
    前記重なり範囲を示す情報および前記計測結果を示す情報とを、前記合成画像に重畳させて出力する、請求項1に記載の画像処理装置。
  3. 前記出力手段は、前記合成画像における各撮像画像の出力態様を相違させる、請求項1または2に記載の画像処理装置。
  4. 外部からの操作を受け付ける操作入力部を、さらに備え、
    前記出力手段は、
    前記合成画像における前記操作入力部によって選択された撮像画像を拡大して出力する、請求項1に記載の画像処理装置。
  5. 前記操作入力部が受け付ける操作によって指示される計測結果を、各撮像画像に対応する前記計測結果のうちから選択する選択手段を、さらに備え、
    前記出力手段は、
    前記選択手段により選択された計測結果に対応する前記撮像画像と、当該撮像画像の前後で撮像された撮像画像とから成る合成画像を出力する、請求項4に記載の画像処理装置。
  6. 前記出力手段は、
    前記合成画像における撮像画像のうちから、対応する前記計測結果が予め指定された値を指示する撮像画像を選択して出力する、請求項1に記載の画像処理装置。
  7. 前記出力手段は、
    前記合成画像における撮像画像のうち、撮像順が奇数番目の撮像画像に対応する前記計測結果と、偶数番目の撮像画像に対応する前記計測結果との出力態様を異ならせる、請求項1に記載の画像処理装置。
  8. 前記計測手段による計測処理の所要時間に関する情報を出力する手段を、さらに備える、請求項1に記載の画像処理装置。
  9. 前記所要時間に関する情報は、前記連続する撮像の前後の時間間隔に対する、撮像画像の計測処理の所要時間の比である、請求項に記載の画像処理装置。
  10. 前記合成画像の各撮像画像について前記比を取得し、
    前記合成画像と、当該合成画像の各撮像画像に関連付けて前記比を出力する、請求項9に記載の画像処理装置。
  11. 前記連続する撮像の前後の時間間隔から、前記重複領域に対応する重なり範囲を取得する重なり取得手段を、さらに備える、請求項1に記載の画像処理装置。
  12. 連続する撮像の前後で撮像範囲に重複領域を有する撮像部に接続されるコンピュータで実行される画像処理プログラムであって、
    前記画像処理プログラムは、前記コンピュータを、
    前記撮像部によって得られる複数枚の撮像画像を受け付けるインターフェイスと、
    前記撮像画像に対する計測処理を行うことにより、当該撮像画像中の被写体の計測結果を取得する計測手段と、
    前記複数枚の撮像画像を、前記重複領域に対応する重なり範囲で撮像順に重なり合うように合成して合成画像を生成する合成手段と、
    前記合成画像と、当該合成画像に関連付けて前記重なり範囲を示す情報および前記計測結果を示す情報とを出力する出力手段、として機能させる、画像処理プログラム。
  13. 前記画像処理プログラムは、前記コンピュータを、さらに、
    前記連続する撮像の前後の時間間隔から、前記重複領域に対応する重なり範囲を取得する重なり取得手段、として機能させる、請求項12に記載の画像処理プログラム。
JP2011056439A 2011-03-15 2011-03-15 画像処理装置および画像処理プログラム Active JP5561214B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011056439A JP5561214B2 (ja) 2011-03-15 2011-03-15 画像処理装置および画像処理プログラム
CN201180066698.1A CN103339466B (zh) 2011-03-15 2011-03-22 图像处理装置
PCT/JP2011/056775 WO2012124139A1 (ja) 2011-03-15 2011-03-22 画像処理装置および画像処理プログラム
EP11860953.6A EP2667145B1 (en) 2011-03-15 2011-03-22 Image processing device, and image processing program
US13/975,424 US9998683B2 (en) 2011-03-15 2013-08-26 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011056439A JP5561214B2 (ja) 2011-03-15 2011-03-15 画像処理装置および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2012194641A JP2012194641A (ja) 2012-10-11
JP5561214B2 true JP5561214B2 (ja) 2014-07-30

Family

ID=46830255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011056439A Active JP5561214B2 (ja) 2011-03-15 2011-03-15 画像処理装置および画像処理プログラム

Country Status (5)

Country Link
US (1) US9998683B2 (ja)
EP (1) EP2667145B1 (ja)
JP (1) JP5561214B2 (ja)
CN (1) CN103339466B (ja)
WO (1) WO2012124139A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5003840B1 (ja) * 2011-10-31 2012-08-15 オムロン株式会社 画像処理装置および画像処理プログラム
JP6309220B2 (ja) * 2013-08-12 2018-04-11 株式会社ダイヘン 搬送システム
US9495606B2 (en) * 2014-02-28 2016-11-15 Ricoh Co., Ltd. Method for product recognition from multiple images
JP5835383B2 (ja) * 2014-03-18 2015-12-24 株式会社リコー 情報処理方法、情報処理装置、およびプログラム
JP6421722B2 (ja) * 2015-08-07 2018-11-14 オムロン株式会社 画像処理装置、校正方法および校正プログラム
JP6599697B2 (ja) * 2015-08-31 2019-10-30 株式会社ミツトヨ 画像測定装置及びその制御プログラム
KR101781172B1 (ko) * 2016-07-28 2017-09-25 동국대학교 산학협력단 영상 정합 장치 및 방법
JP6834232B2 (ja) * 2016-08-09 2021-02-24 オムロン株式会社 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム
JP2018024044A (ja) * 2016-08-09 2018-02-15 オムロン株式会社 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム
JP6381144B2 (ja) * 2016-10-06 2018-08-29 ソリッドビジョン株式会社 撮像処理装置
US10872405B2 (en) * 2016-11-01 2020-12-22 Fuji Corporation System for creating component shape data for image processing, and method for creating component shape data for image processing
JP6734253B2 (ja) * 2017-12-20 2020-08-05 ファナック株式会社 ワークを撮像する視覚センサを備える撮像装置
JP6954193B2 (ja) * 2018-03-12 2021-10-27 オムロン株式会社 制御装置、制御方法、およびプログラム
JP7159615B2 (ja) * 2018-05-22 2022-10-25 セイコーエプソン株式会社 画像処理装置、及び、ロボットシステム
JP2019205111A (ja) * 2018-05-25 2019-11-28 セイコーエプソン株式会社 画像処理装置、ロボット、及び、ロボットシステム
JP7084227B2 (ja) * 2018-06-22 2022-06-14 株式会社Screenホールディングス マーク位置検出装置、描画装置およびマーク位置検出方法
JP6788235B1 (ja) * 2019-07-30 2020-11-25 オムロン株式会社 情報管理システム、情報管理方法
JP7448328B2 (ja) * 2019-09-27 2024-03-12 ファナック株式会社 ワークの見逃し検知を行う機械システム
RU2727527C1 (ru) * 2020-03-10 2020-07-22 Вячеслав Михайлович Смелков Телевизионная система для наблюдения за перемещением горячего проката

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04256999A (ja) * 1991-02-12 1992-09-11 Toshiba Corp 画像表示装置
JP2989364B2 (ja) * 1992-03-12 1999-12-13 シャープ株式会社 画像処理装置及び画像処理方法
JPH06119457A (ja) * 1992-10-09 1994-04-28 Fujitsu Ltd 画像合成方法
US5481479A (en) * 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
JPH0748018A (ja) * 1993-08-03 1995-02-21 Omori Mach Co Ltd 物品移載装置用物品検出装置
JPH10178564A (ja) * 1996-10-17 1998-06-30 Sharp Corp パノラマ画像作成装置及び記録媒体
JP4143228B2 (ja) * 1999-08-27 2008-09-03 キヤノン株式会社 画像処理装置、画像処理方法および記憶媒体
JP4574819B2 (ja) * 2000-08-30 2010-11-04 パナソニック株式会社 ビデオプロジェクタ装置
JP4809524B2 (ja) * 2000-10-06 2011-11-09 セイコーインスツル株式会社 トラッキング方法、トラッキングシステム、及びトラッキング装置
US9092841B2 (en) * 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
US20050237631A1 (en) * 2004-04-16 2005-10-27 Hiroyuki Shioya Image pickup apparatus and image pickup method
JP4742733B2 (ja) * 2005-08-05 2011-08-10 日産自動車株式会社 画像つなぎ目処理装置および画像つなぎ目処理方法
JP4042780B2 (ja) * 2005-11-04 2008-02-06 オムロン株式会社 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置
JP2007240432A (ja) * 2006-03-10 2007-09-20 Omron Corp 欠陥検査装置および欠陥検査方法
JP2008098754A (ja) * 2006-10-06 2008-04-24 Olympus Imaging Corp 撮像装置、画像再生装置および撮像画像の表示方法
JP5082776B2 (ja) * 2007-10-31 2012-11-28 オムロン株式会社 画像処理装置
IL188825A0 (en) * 2008-01-16 2008-11-03 Orbotech Ltd Inspection of a substrate using multiple cameras
GB2492257B (en) * 2008-06-05 2013-02-13 Toshiba Machine Co Ltd Handling system, control device, control method, and program
JP5338174B2 (ja) * 2008-07-28 2013-11-13 富士通株式会社 パノラマ撮影装置及び方法、パノラマ撮影装置を搭載したカメラユニット
JP5141470B2 (ja) * 2008-09-25 2013-02-13 オムロン株式会社 画像合成方法および画像処理システム
EP2683156A3 (en) 2008-12-12 2015-02-11 Testo AG Thermal imaging camera
JP5509773B2 (ja) 2009-01-21 2014-06-04 オムロン株式会社 パラメータ決定支援装置およびパラメータ決定支援プログラム
JP5235798B2 (ja) * 2009-06-22 2013-07-10 富士フイルム株式会社 撮影装置及びその制御方法
JP5350928B2 (ja) * 2009-07-30 2013-11-27 オリンパスイメージング株式会社 カメラ及びカメラの制御方法

Also Published As

Publication number Publication date
WO2012124139A1 (ja) 2012-09-20
US20140015956A1 (en) 2014-01-16
EP2667145A1 (en) 2013-11-27
EP2667145B1 (en) 2020-10-07
US9998683B2 (en) 2018-06-12
JP2012194641A (ja) 2012-10-11
CN103339466B (zh) 2016-05-04
CN103339466A (zh) 2013-10-02
EP2667145A4 (en) 2015-08-26

Similar Documents

Publication Publication Date Title
JP5561214B2 (ja) 画像処理装置および画像処理プログラム
JP5003840B1 (ja) 画像処理装置および画像処理プログラム
JP5810562B2 (ja) 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置
JP5370398B2 (ja) 画像処理装置および画像処理プログラム
JP2012187651A (ja) 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
JP5316563B2 (ja) 画像処理装置および画像処理システム
JP6308248B2 (ja) コンベアトラッキング等に向けられたガイダンス装置
EP3527335B1 (en) Conveyor tracking system and calibration method
JP2020075354A (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
JP2017094407A (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP2018153874A (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP2011211678A (ja) 画像処理装置および画像処理プログラム
JP5862382B2 (ja) 作業支援装置
JP6220514B2 (ja) ロボット制御システムおよびロボット制御方法
JP4696826B2 (ja) X線検査装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140526

R150 Certificate of patent or registration of utility model

Ref document number: 5561214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250