[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009043184A - 画像処理方法および画像処理装置 - Google Patents

画像処理方法および画像処理装置 Download PDF

Info

Publication number
JP2009043184A
JP2009043184A JP2007210237A JP2007210237A JP2009043184A JP 2009043184 A JP2009043184 A JP 2009043184A JP 2007210237 A JP2007210237 A JP 2007210237A JP 2007210237 A JP2007210237 A JP 2007210237A JP 2009043184 A JP2009043184 A JP 2009043184A
Authority
JP
Japan
Prior art keywords
model
edge
image
error
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007210237A
Other languages
English (en)
Inventor
Shiro Fujieda
紫朗 藤枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2007210237A priority Critical patent/JP2009043184A/ja
Publication of JP2009043184A publication Critical patent/JP2009043184A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】認識対象のパターンに類似する輪郭パターンを含む認識対象外の輪郭パターンが誤認識されることがないようにする。
【解決手段】認識対象物のモデルの画像を表示し、この表示ウィンドウ20内で、認識対象パターンに類似する輪郭パターンと認識対象外のパターンを含むように指定領域21を設定する。この設定に応じて、領域21内の濃淡画像がエラーモデル画像として登録されるとともに、エラーモデル画像中のエッジ画素のうち、先に登録された基準エッジモデルに対応していないエッジ画素が特定され、これらのエッジ画素の位置および濃度勾配方向を表すエラーエッジモデルが登録される。パターン認識の際には、基準エッジモデルおよびエラーエッジモデルの双方に対する不一致度が算出され、前者の不一致度を、後者の不一致度が小さくなるほど値が大きくなるように調整する。
【選択図】図3

Description

この発明は、濃淡画像を対象に、この画像に特定の輪郭パターンが含まれているか否かを判別するための画像処理に関する。特にこの発明は、画像中のエッジ画素の位置および濃度勾配方向の組み合わせをあらかじめ登録したモデルデータと照合することによって、上記の判別を行う画像処理方法および画像処理装置に関する。
出願人は、先般、特定の輪郭パターンを認識対象として、この認識対象パターンのモデルを撮像することにより生成された基準モデル画像について、各エッジ画素の位置および濃度勾配方向を表すモデルデータを作成して登録し、このモデルデータに対する最大の類似度をもって、認識対象パターンの有無や位置を判別する手法を提案した(特許文献1参照。)。
特許文献1に具体的に記載されている方法では、基準モデル画像を構成する画素毎に、濃度勾配方向を表す角度データ(エッジコード)や濃度勾配方向の大きさ(エッジ強度)を算出し、これらの算出値をそれぞれ座標に対応づけて登録する。そして、処理対象画像に基準モデル画像に対応する大きさの照合領域(マスク)を走査しながら、走査位置毎に、マスク内のエッジコードと登録されたエッジコードとの不一致度を画素単位で算出し、各算出値を累計したものを、モデルデータ全体に対する不一致度とする。さらに、このモデルデータ全体に対する不一致度が最小の値になったときのマスクの位置を、認識対象パターンに最も類似する領域として特定する。
なお、特許文献1に記載された発明では、画素単位でのエッジコードの不一致度を求める際に、基準モデル画像側のエッジ強度が所定のしきい値より小さくなる画素に対応する演算結果がゼロになるようにしている(段落0050,0053参照。)。これにより、実質的に、認識対象パターンに対応する画素のみが照合対象となり、背景模様やノイズ等による認識対象外のエッジがあっても、その影響を受けずに、認識対象パターンの存在を判別することができる。
特開2002−230549号公報
上記したように、エッジコードを用いた照合処理では、処理対象画像中に認識対象のパターンに対応するエッジがあれば、検出対象外のエッジが存在しても、認識対象のパターンに対応するエッジを高い確度で検出することができる。しかし、認識対象パターンに類似する輪郭パターンが含まれるが、認識対象パターンとは異なる輪郭パターンも構成要素に含む画像を処理する場合には、認識対象パターンに類似する部分が誤検出されるおそれがある。
図11は、この種の誤認が起こりやすい画像の例として、アルファベット文字の「P」および「R」の各画像を示す。図中、上段は、各文字の印刷物を撮像することにより得た濃淡画像であり、下段は、これらの濃淡画像にエッジ抽出処理を施すことによって得たエッジ画像である。また「R」のエッジ画像中に一点鎖線で示す箇所は、「P」の画像に含まれていないエッジ(以下、この例において「非対応エッジ」という。)である。
ここで、「P」の画像を基準モデル画像として、「R」の画像について上記したエッジコードの不一致度を求めると、上記の非対応エッジ以外のエッジは「P」のパターンに対応するため、不一致度は非常に低い値になる。この結果、「R」のパターンが「P」のパターンとして誤認識される可能性がある。
この発明は上記の問題点に着目してなされたもので、認識対象のパターンに類似する輪郭パターンを含むが認識対象外の輪郭パターンが誤認されることがないような画像処理を行って、認識精度を向上することを課題とする。
この発明に係る画像処理方法は、特定の輪郭パターンを認識対象として、この認識対象パターンのモデルを撮像することにより生成された基準モデル画像につき、エッジ画素の位置および濃度勾配方向を表す基準エッジモデルを登録しておき、照合対象の濃淡画像の基準エッジモデルに対する類似度に基づき、照合対象の濃淡画像に認識対象パターンが含まれているか否かを判別するものである。
この方法が特徴とするところは、基準画像に含まれないエッジを含む濃淡画像を少なくとも1つ用意し、用意された画像毎に、当該画像に含まれるが基準モデル画像には含まれていないエッジ画素の位置および濃度勾配方向を表すデータを、エラーエッジモデルとして登録する点、および照合対象の濃淡画像について、基準エッジモデルに対する類似度およびエラーエッジモデルに対する類似度の双方に基づいて、認識対象パターンの有無を判別する点にある。
上記の方法では、たとえば認識対象パターンに類似する輪郭パターンと認識対象外の輪郭パターンとにより構成される対象物の画像について、この画像に含まれるが基準モデル画像には含まれていないエッジ画素の位置および濃度勾配方向を求め、これらを表すデータをエラーエッジモデルとして登録する。この登録によれば、エラーエッジモデルの登録に使用されたのと同様の輪郭パターンを含む画像を2種類のモデルにより照合すると、基準エッジモデルに対する類似度も、エラーエッジモデルに対する類似度も、ともに高い値になる。
一方、正しい認識対象パターンが照合対象になった場合には、基準エッジモデルに対する類似度は高くなるが、エラーエッジモデルに対する類似度はさほど高くならない。
このように、正しい認識対象パターンが照合対象となる場合と、このパターンに類似する輪郭パターンを含む認識対象外の輪郭パターンが照合対象となる場合とでは、エラーエッジモデルに対する類似度は異なるものになる。よって、基準エッジモデルに対する類似度が高い値を示した場合には、エラーエッジモデルに対する類似度の値に基づき、照合対象の画像に認識対象パターンが含まれているか否かを精度良く判別することが可能になる。
なお、類似度は不一致度として算出してもよい。またエラーエッジモデルの作成のために用意される濃淡画像は、認識対象パターンと認識対象外のパターンとを含むものに限らず、認識対象外のパターンのみを含むものであってもよい。または、認識対象のパターンの一部と認識対象外のパターンとを含むものであってもよい。
上記方法の好ましい態様では、基準エッジモデルに対する類似度を、エラーエッジモデルに対する類似度が高くなるほど大きく変化し、かつ変化前より低くなるように調整し、調整後の類似度を用いて照合対象の画像に認識対象パターンが含まれているか否かを判別する。このようにすれば、エラーエッジモデルの作成に使用された画像に含まれているのと同様の輪郭パターンを含む画像が照合対象となった場合には、基準エッジモデルに対する類似度が高い値を示しても、エラーエッジモデルに対する類似度により、基準エッジモデルに対する類似度が大幅に低くなるように調整することができ、誤認識が生じるのを防止することができる。
他の好ましい態様に係る方法では、エラーエッジモデルを登録する処理において、用意された濃淡画像で基準エッジモデルに対する類似度が最も高い領域を抽出し、この領域内で基準エッジモデルに対応していないエッジ画素を特定して、その位置および濃度勾配方向を表すデータをエラーエッジモデルとして登録する。
上記の処理によれば、エラーエッジモデルの登録用に用意された画像の中で、基準エッジモデルに対する領域が最も高い領域の画像を用いて基準エッジモデルに対応していないエッジ画素を特定するので、基準モデル画像に含まれていないエッジ画素を高い確度で特定でき、エラーエッジモデルの精度を高めることができる。また、エラーエッジモデルと基準エッジモデルとのサイズを同一にできるので、両モデルによる照合対象領域を完全に一致させることができ、判別の精度を高めることができる。
上記の方法が適用された画像処理装置は、認識対象のパターンのモデルを用いて生成された基準モデル画像について、エッジ画素の位置および濃度勾配方向を示す基準エッジモデルを作成する第1のモデル作成手段;基準モデル画像に含まれないエッジを含む濃淡画像を少なくとも1つ受け付けて、受け付けた画像毎にその画像に含まれるが基準モデル画像には含まれていないエッジ画素の位置および濃度勾配方向を表すエラーエッジモデルを作成する第2のモデル作成手段;基準エッジモデルおよびエラーエッジモデルを記憶するモデル記憶手段;照合対象の濃淡画像の入力を受け付けて、この濃淡画像につき、基準エッジモデルに対する類似度およびエラーエッジモデルに対する類似度を個別に算出する類似度算出手段;類似度算出手段により算出された各類似度に基づき、照合対象の濃淡画像に認識対象パターンが含まれているか否かを判別する判別手段;の各手段を具備する。これらの手段により上記した画像処理方法を実行することができ、認識対象パターンに類似するが、認識対象外のパターンが誤認されるのを防止することが可能になる。
好ましい態様による画像処理装置では、判別手段は、各エッジモデルよりサイズの大きい濃淡画像を照合対象として、この画像に基準エッジモデルに対応する大きさの照合領域を走査し、照合領域の設定位置を変更する毎に類似度算出手段に2種類の類似度を算出させて、基準エッジモデルに対する類似度を、エラーエッジモデルに対する類似度が高くなるほど大きく変化し、かつ変化前より低くなるように調整し、調整後の類似度を用いて照合領域内の画像に認識対象パターンが含まれているか否かを判別する。
上記の態様によれば、各モデルよりサイズが大きい画像を照合対象とする場合に、認識対象パターンに最も適合する領域を精度良く判別することができる。また、照合領域内の画像がエラーエッジモデルの登録に使用された画像と同様になった場合には、類似度を低い値に調整することができ、この照合領域が認識対象パターンの位置として誤認されるのを防止することができる。
さらに好ましい態様による画像処理装置は、画像表示用の表示部と設定操作用の操作部とを、さらに備える。また第2のモデル作成手段は、所定の濃淡画像を表示部に表示し、操作部により表示画像に対する領域指定操作が行われたのに応じて、その指定された領域内の画像をエラーエッジモデルの作成用画像として受け付け、受け付けた画像から基準エッジモデルに対する類似度が最も高い領域を特定し、特定された領域内で基準エッジモデルに対応しないエッジ画素の位置および濃度勾配方向を表すデータをエラーエッジモデルとして作成する。
上記の態様によれば、ユーザが誤認を防ぎたいパターンを含む画像を選択し、表示部に表示された画像中の目的物を含む領域を指定することにより、その領域内の画像がエラーエッジモデルの作成用画像として受け付けられる。さらにこの画像で基準エッジモデルに対する類似度が最も高い領域が自動抽出され、その領域内で基準エッジモデルに対応しないエッジ画素に基づきエラーエッジモデルが作成される。
このように、ユーザが登録対象の画像を選択して誤認を防ぎたい輪郭パターンを含む領域を指定するだけで、適切なエラーエッジモデルを自動登録することができるから、エラーエッジモデルを設定するための操作が非常に簡単になり、利便性が高められる。
さらに好ましい態様では、第2のモデル作成手段には、基準エッジモデルに対する類似度が最も高い領域について、基準エッジモデルに対応するエッジ画素と基準エッジモデルに対応しないエッジ画素とをそれぞれ異なる表示態様で表示部に表示する手段が含まれる。この態様によれば、ユーザは、指定した領域内のパターンのどの部分が基準エッジモデルに対応するかや、どの部分がエラーエッジモデルに採用されるのかを、容易に確認することができる。
さらに好ましい態様では、第2のモデル作成手段は、基準エッジモデルに対応しないエッジ画素として表示部に表示されたエッジ画素の一部を指定する操作を受け付けて、指定されたエッジ画素の情報が削除または無効化されたエラーエッジモデルを作成する。
たとえば、エラーエッジモデルの作成用の画像に、ノイズや背景模様のエッジなど、誤認対象のパターン以外のエッジが含まれていると、これらのエッジの情報もエラーエッジモデルに含まれてしまうが、このようなエラーエッジモデルでは、誤認対象のパターンを抽出する精度が低下してしまう。
上記の態様では、基準エッジモデルに対応しないエッジ画素として表示されたものの中から、エラーエッジモデルとして登録する必要のない部分を指定する操作により、エラーエッジモデルの精度を高められるから、誤認対象のパターンの抽出精度を確保することができる。
上記の画像処理方法および画像処理装置によれば、認識対象パターンに類似する輪郭形状を有する認識対象外の輪郭パターンが認識対象として誤認されるのを防止することができる。一方で、正しい認識対象パターンを含む画像であれば、ノイズ等による認識対象外のパターンが含まれていても、認識対象パターンの存在を認識することができる。よってパターン認識の精度を大幅に高めることができる。
図1は、この発明が適用された画像処理装置の構成例を示す。
この画像処理装置1は、カメラ2により生成された濃淡画像を入力して処理することにより、特定の輪郭パターンがカメラ2の視野内に含まれているか否かを判別したり、当該輪郭パターンの位置を計測するものである。たとえば、工場の生産ラインでワークの位置や姿勢を認識したり、検査ラインで文字等の輪郭パターンの適否を判別する用途に使用される。
この実施例の画像処理装置1は、制御部10、画像入力部11、画像メモリ12、操作部13、表示部14、出力部15などを具備する。画像入力部11には、カメラ2からの濃淡画像信号を取り込むためのインターフェース回路や、濃淡画像信号をディジタル変換するためのA/D変換回路などが含まれる。画像メモリ12は、画像入力部11によりディジタル変換された処理対象の濃淡画像データ(以下、「処理対象画像」という。)や、この処理対象画像に対するエッジ抽出処理により生成されたエッジ画像などが格納される。
制御部10は、CPU101を主体とするもので、記憶装置として、ROM102、RAM103、およびフラッシュディスク104(フラッシュメモリを用いたディスク装置)が含まれる。ROM102にはCPU101の基本的な動作に関わるプログラムが格納され、フラッシュディスク104には、OS(オペレーションシステム)、画像処理用のプログラム、GUI(グラフィカル・ユーザ・インターフェース)を構成するためのプログラムが格納される。さらに、フラッシュディスク104は、認識処理に使用する各種設定データ(モデル画像やエッジモデルを含む。)を登録するためのメモリとして、使用される。
CPU101は、フラッシュディスク104内のプログラムや各種データに基づき、輪郭パターンを認識するための一連の画像処理(パターン認識処理)を実行し、認識対象のパターンに対する処理対象画像の類似度や、その類似するパターンの位置(マッチング位置)を算出する。これらの演算結果は、表示部14に表示されるほか、出力部15を介して図示しない外部装置に出力される。
上記構成の画像処理装置1では、あらかじめ認識対象のパターンについてモデル画像を登録するほか、認識対象のパターンとして誤認される可能性のあるパターン(以下、「誤認候補パターン」という。)についても、モデル画像を登録できるようにしている。これらのモデル画像は、登録対象の濃淡画像を表示部14に表示し、ユーザの領域指定操作を受け付け、指定された領域内の画像を切り出すことにより設定される。以下では、認識対象のパターンのモデル画像を「基準モデル画像」と呼び、誤認候補パターンのモデル画像を「エラーモデル画像」と呼ぶ。
CPU101は、各モデル画像につき、それぞれその画像の構成画素毎に、濃度勾配の方向を表す角度(エッジコード)および濃度勾配の大きさ(エッジ強度)を算出し、その処理結果を反映したモデルデータを作成する。作成されたモデルデータは、モデル画像とともにフラッシュディスク104内に登録される。
基準モデル画像から作成されるモデルデータ(以下、「基準エッジモデル」という。)は、基準モデル画像に現れる輪郭パターンを表すエッジ(以下、「基準エッジ」という。)に関する情報を表すものである。
一方、エラーモデル画像から作成されるモデルデータ(以下、「エラーエッジモデル」という。)は、基準モデル画像に現れていない輪郭パターンを表すエッジ(以下、「エラーエッジ」という。)に関する情報を表すように構成される。
図2は、基準モデル画像および基準エッジモデルの登録の際にユーザに提示される設定画面の例を示す。この画面は、画像表示用のウィンドウ20の周囲に複数の設定ボタン22〜27を配置した構成のもので、上段の画面1が初期画面である。下段の画面2は登録されたモデルを確認したり、そのモデルを修正する作業に用いられるもので、画面1に表示されていた設定ボタン22〜27のうち、操作可能なもののみが表示される。
画面1のウィンドウ20内には、認識対象物(この例ではプリント基板40)のモデルの濃淡画像が表示される。ユーザは、この画像上に、基準モデル画像として登録すべき領域21を設定し、マウス等によりこの領域21の位置や大きさを調整する。図中の「OK」ボタン22は、領域21の設定を確定するためのものであり、「キャンセル」ボタン23は、領域21の設定を解除するためのものである。
領域21の指定が確定され、さらに右上の「モデル登録」ボタン24が操作されると、領域21内の画像が切り出されて、基準モデル画像として登録される。またエッジコードやエッジ強度の算出処理が行われ、その算出結果に基づいて基準エッジモデルが作成され、登録される。このように、ユーザは、登録対象の領域を指定する操作を行うのみで、基準モデル画像および基準エッジモデルの登録を完了することができる。
画面2は、上記の登録後に、「モデル表示」ボタン27を操作することにより呼び出される。この画面2中のウィンドウ20では、ユーザが指定した領域21に含まれるエッジ30が基準エッジとして緑色(図中、極太実線で表現する。)で表示される。領域21より外側のエッジは表示されないが、原画像の対応箇所と同じ位置にエッジ画像が表示されるので、ユーザは、原画像との照合を容易に行うことができる。また、基準エッジとして表示されたエッジの中にユーザが意図しないエッジが含まれていたり、認識対象のパターンの一部が欠けているなどの不備があった場合には、「キャンセル」ボタン23の操作により登録を抹消したり、「マスク登録」ボタン25の操作により、関係のないエッジの登録を無効にすることができる(この処理の詳細については後で図6を用いて説明する。)。
さらに、ここでは図示していないが、画面1の「エッジ抽出」ボタン26が操作された場合には、画像全体に対するエッジ抽出処理が行われ、ウィンドウ20内の表示もエッジ抽出結果を表す画面に切り替えられる。
図3は、エラーモデル画像およびエラーエッジモデルを登録する際の設定画面の例を示す。この設定画面も、基本的な構成は先の図2の例と同様であり、登録のための操作の方法も同様である。ただし、「モデル表示」ボタン27の操作により画面2に切り替えられたときに表示されるエッジ画像では、基準エッジ30と同形状のエッジ31が緑色で表示される一方、基準モデル画像には現れていないエッジ32がエラーエッジとして赤色で表示(図中、極太一点鎖線で表現する。)される。よってユーザは、この赤色表示が認識対象外とすべき輪郭パターンを反映しているか否かを確認することによって、適切なエラーエッジモデルが登録されたか否かを容易に確認することができる。
上記の図2および図3に示した認識対象のプリント基板40は、端縁に沿って枠部41が形成され、この枠部41の色彩が内部42より暗くなっている。また内部42の角部の近傍には、枠部41と同色の矩形マーク43が形成されている。
この実施例では、基準モデル画像の登録時には、基板の端縁の角部を含むように領域21を設定し、その結果、逆L字状の輪郭パターン30が基準エッジとして抽出されている。一方、エラーモデル画像の登録時には、枠部41と内部42との境界部分の角部と矩形マーク43とを含むように領域21(この例では、基準モデル画像側の領域21と同一サイズであるものとする。)が設定され、この結果、矩形マーク43の輪郭パターンを表すエッジ32がエラーエッジとして抽出されている。
図4および図5は、パッケージ44に印字された文字を認識対象とする場合のモデルの登録例を示す。各図に示される設定画面は、図2,3の例と同様のものであるが、ウィンドウ20内には、登録対象の文字パターンを含む画像が表示されている。この画像には、「P」「R」の各文字パターン45,46のほか、背景模様のパターン47の一部が含まれている。
この実施例では、「P」のパターン45を認識することを目的に、このパターン45を含む画像を基準モデル画像として登録するとともに、「P」に誤認されやすい「R」のパターン46を含む画像を、エラーモデル画像として登録するようにしている。
基準モデル画像の登録時は、図4(1)に示すように、「P」のパターン45の全体が含まれるように領域21を設定することにより、登録対象の領域を指定する。この領域指定により、図3の例と同様に、領域21内の画像が基準モデル画像として登録される。さらに、この基準モデル画像に含まれるエッジ33を基準エッジとして、基準エッジモデルが作成され、登録される。
エラーモデル画像の登録時にも、図5(1)に示すように、パターン46の全体が含まれるように領域21を設定するが、この実施例のパターン46はパターン45より若干大きいため、領域21も、基準モデル画像の登録時のものより大きくなる。またこの領域21には「R」のパターン46のほかに、文字とは無関係の背景模様のパターン47の一部が含まれている。
上記のように、エラーモデル画像の登録において基準モデル画像より大きなサイズの領域が指定された場合のモデル表示画面では、図5(2)に示すように、領域21内に基準エッジに最も類似する領域(以下、「対応領域」という。)29を示す枠が表示される。また基準エッジに対応するエッジ34と対応しないエッジとの色分け表示は、この対応領域29内でのみ行われ、対応領域29より外側のエッジ37は、白色(図中、極太点線により表現する。)で表示される。
上記の例では、対応領域29内でエラーエッジとして赤色表示されたエッジ35,36のうち、36は背景パターン37のエッジであり、エラーエッジとすべき性質のものではない。このように誤認候補パターンとは無関係のエッジが赤色表示された場合には、ユーザは、「マスク登録」ボタン25を用いて、この無関係のエッジに係る情報を無効化することができる。
図6は、「マスク登録」ボタン25の操作による処理内容を明確にするために、図5の第2画面の領域21内の画像を拡大して示したものである。この処理では、図6(A)に示すように、赤色で表示されたエッジ35,36のうち、誤認候補パターンとは無関係のエッジ36を含むようなマスク領域50を設定し、「マスク登録」ボタン25を操作する。この操作が行われると、図6(B)に示すように、対応領域29とマスク領域50とに共通に含まれるエッジ36の色彩が赤色から白色に変化する。この表示色の変化は、マスク領域50内のエッジ画素がエラーエッジと認識されないようにエラーエッジモデルのデータ構成を変更したことに連動するものである。このような処理により、誤認候補パターンを表すエッジのみをエラーエッジとして設定することができる。
上記の「マスク登録」ボタン25の操作によるエッジモデルのデータ変更処理は、エラーエッジモデルに限らず、基準エッジモデルに対しても行うことができる。
この実施例では、処理対象画像について、上記の設定により登録された各エッジモデルに対する不一致度を求め、双方の不一致度に基づき、認識対象のパターンに対する処理対象画像の類似度を求めるようにしている。以下、エッジモデルのデータ構成や不一致度の算出方法について、順を追って説明する。
まず図7は、この実施例で求めるエッジコードの概念を示す。図中、Sは画像中のエッジを拡大して示したもので、点Eは、このエッジSを構成する一エッジ画素であり、Fは、エッジ画素Eにおける濃度勾配方向を示すベクトルである。
上記のベクトルFは、x、yの各軸方向毎の濃度勾配の大きさを表すベクトルを合成することにより、得られるものである。
この実施例では、画素Eからx軸の正方向に向かうベクトルBを基準の方向とし、ベクトルFに直交するベクトルCとし(ベクトルFを時計回り方向に90度回転させたものがベクトルCとなる。)、ベクトルCをベクトルBから半時計回り方向に見たときの角度Ec(x,y)をエッジコードとする。ただし、エッジコードは上記に限らず、たとえばベクトルFの方向をベクトルBを基準に示した角度を、エッジコードとしてもよい。
この実施例では、基準モデル画像およびエラーモデル画像の各構成画素について、それぞれエッジコードを求めるとともに、各画素における濃度勾配の大きさ(エッジ強度)を求める。エッジ強度は、上記のベクトルFの長さに相当するもので、x,yの各方向の濃度勾配を用いて求めることができる。
各エッジモデルは、対応するモデル画像の構成画素の座標に、それぞれ当該画素のエッジコードおよびエッジ強度を対応づけたものとなる。エッジ強度が所定のしきい値以上となる画素の座標がエッジ画素の位置を表し、このエッジ画素の座標に対応づけられたエッジコードによって、エッジ画素の濃度勾配方向が表されることになる。
さらに、各エッジモデルには、画面2におけるエッジの表示色を決めるために、画素毎に設定されたフラグvが含まれる。このフラグvは、0,1,2のいずれかの値をとるので、表示色を緑色にする画素ではv=0となり、表示色を赤色にする画素ではv=1となり、表示色を白色にする画素ではv=2となる。ただし、このvの値に基づき表示されるのは、エッジ強度が所定のしきい値(以下「u」とする。)を上回る画素のみになる。
この実施例では、基準エッジモデルのエッジコードと照合対象の画像との間で対応する画素の組毎に、下記の(a)式によりエッジコードの不一致度を求め、各組の不一致度を累計したものを、基準エッジモデルに対する不一致度とする。なお、不一致度は、値が小さくなるほど類似の度合いが高いことを示すもので、類似度の一態様に相当する。
h(x,y)=|sin{Ic(i+x,j+y)−Mc(x,y)}|
・・・(a)
上記(a)式において、(x,y)は基準エッジモデル中の任意の画素の座標であり、Mc(x,y)は、この座標における基準エッジモデル側のエッジコードを、h(x,y)はこのエッジコードに対する不一致度を、それぞれ示す。(i,j)は、照合対象の画像において基準エッジモデルの原点(左上頂点)に対応づけされた点の座標であり、Ic(i+x,j+y)は、座標(x,y)に対応する画素におけるエッジコードである。
(a)式によれば、h(x,y)は、エッジコードIC(i+x,j+y)とMc(x,y)との差が90度または270度になったときに最大値1となり、エッジコードの差が0度または180度のときに最小値0となる。また上記のエッジコードの差が0度または180度に近づくにつれて、h(x,y)の値も0に近づく。
この実施例では、基準エッジモデルに対応づけられた領域(以下、「照合領域」という。)において、基準エッジモデル側の対応画素のエッジ強度がしきい値uを上回り、フラグvが0に設定されている画素を対象に、上記の(a)式を実行し、各算出値の総和ur(i,j)を求める。よって、この不一致度の総和ur(i,j)は、基準エッジとこれに対応する部分との間でのエッジコード分布の不一致度を表すことになる。
さらに(a)式によれば、照合対象の画像における明暗の関係が基準モデル画像と一致する場合のほか、基準モデル画像とは明暗の関係が逆になっている場合でも、不一致度h(x,y)が最小値の0になる。したがって、基準エッジが示すのと同様の形状の輪郭パターンが現れている画像であれば、基準モデル画像とは明暗の関係が逆になっていても、不一致度ur(i,j)の値をもって、基準エッジに対応するエッジを検出することができる。
エラーエッジモデルについても、上記と同様に、(a)式により画素単位での不一致度を求め、各不一致度を累計することにより、不一致度ur(i,j)を求める。この場合の(a)式は、エラーエッジモデルのうち、エッジ強度がしきい値uを上回り、フラグvが1に設定されている画素を対象に実行されるので、ur(i,j)は、エラーエッジとこれに対応する部分とのエッジコード分布の不一致度を示すものになる。
なお、図5の例で説明をしたように、エラーエッジモデルは、エラーモデル画像のうち、基準エッジモデルへの対応領域29に最も類似する領域の画像を用いて作成されるが、この最も類似する領域も上記の一致度ur(i,j)を算出する処理により特定される。この特定に基づいて作成されたエラーエッジモデルは、基準エッジモデルと同一サイズになるから、各エッジモデルにより同一の領域を照合することが可能になる。
そこでこの実施例では、処理対象画像に各エッジモデルのサイズに相当する照合領域を走査しながら、毎時の走査位置(i,j)において、照合領域内の画像の基準エッジモデルに対する不一致度ur(i,j)、およびエラーエッジモデルに対する不一致度ur(i,j)を算出する。さらに、エラーエッジモデルに対する不一致度ur(i,j)によって、基準エッジモデルに対する不一致度ur(i,j)を調整し、調整後の不一致度ur(i,j)を用いて認識対象のパターンの有無や位置を判別する。
不一致度ur(i,j)の調整は、下記の(b)式により行われる。
ur(i,j)=ur(i,j)+(VL−ur(i,j))・・・(b)
(b)式において、(VL−ur(i,j))は、不一致度ur(i,j)に対する調整値である。このうちVLは固定の値であって、たとえば、エラーエッジモデル中の50%の画素に対する不一致度h(x,y)がそれぞれ最大値1となったとときの不一致度ur(i,j)に基づき設定される。照合領域内の画像のエラーエッジモデルに対する類似度が高まるほど、ur(i,j)の値は小さくなるが、上記の(VL−ur(i,j))の値は大きくなる方向に変化する。
特に、誤認候補パターンが照合対象となった場合には、各類似度ur(i,j),ur(i,j)はともに最小値になる。このとき、(VL−ur(i,j))は最大値になるため、調整後の不一致度ur(i.j)には大きな値が設定される。よって、誤認候補パターンが認識対象のパターンであると判別されるのを防止することができる。
一方、認識対象のパターンが照合対象となった場合には、基準エッジモデルに対する不一致度ur(i,j)が最小値になる一方で、エラーエッジモデルに対する類似度ur(i,j)は大きな値になる。よって、ur(i,j)に加算される値を小さくすることができる。また認識対象のパターンが照合対象である場合には、調整前の不一致度ur(i,j)は0に近似する値になるから、(VL−ur(i,j))としてある程度の値が加算されたとしても、認識対象外のパターンを含まない画像を照合する場合よりも不一致度ur(i,j)の値を小さくすることができる。したがって、認識対象のパターンが照合対象となったときの不一致度ur(i,j)を最小値にすることができ、精度の高いパターン認識処理を行うことができる。
図8は、基準モデル画像および基準エッジモデルを登録する処理の流れを、図9は、エラーモデル画像およびエラーエッジモデルを登録する処理の流れを、それぞれ示す。
なお、各図および以下の説明において、STは「ステップ」の略である。
まず、図8の処理では、ST11,12において、前出の設定用画面のウィンドウ20に表示された画像に対する領域指定操作を受け付けて、その指定された領域21内の画像を切り出し、基準モデル画像として登録する。つぎにST13では、基準モデル画像の各構成画素につき、エッジコードおよびエッジ強度を算出する。さらにST14では、各構成画素にフラグvの初期値として、それぞれ「0」を設定する。
ST15では、領域21内の各画素のエッジコード、エッジ強度、フラグvを、それぞれ当該画素の座標に対応づけて登録する。これら3種類のデータの集合体が、基準エッジモデルとして機能することになる。
さらに、「マスク登録」ボタン25が操作された場合(ST16が「YES」の場合)には、ST17において、指定領域21内にマスク領域が設定されたことを条件に、この設定されたマスク領域50内に含まれる画素のフラグを「2」に変更する処理を実行する。
また、図8には記載していないが、「モデル表示」ボタン27が操作された場合には、画面1を画面2に切り換えるとともに、登録された基準エッジモデルに基づき、エッジ強度がしきい値uを上回る画素をフラグvの値に応じた色彩で表示する。また、この表示の後に「マスク登録」ボタン25が操作された場合には、ST16,17の処理の後に、フラグvの値が変更されたエッジ画素の色彩を緑色から白色に切り替える処理を実行する。
つぎに、図9の処理では、ST21において、領域指定操作を受け付けた後、つぎのST22において、指定された領域21内の画像をエラーモデル画像として登録する。さらにST23では、エラーモデル画像の各画素につき、それぞれエッジコードおよびエッジ強度を算出する。
つぎにST24では、エラーモデル画像に基準エッジモデルに対応する照合領域を走査し、走査位置毎に、前出の(a)(b)式に基づき、基準エッジモデルに対する不一致度ur(i,j)を算出する。そして、各走査位置での算出結果に基づき、不一致度ur(i,j)が最小になる領域、言い換えれば基準エッジモデルに最も類似する領域を抽出し、これを対応領域29とする。さらにST25では、この対応領域29内の各画素に、フラグvの初期値としてそれぞれ「0」を設定する。
ST26では、対応領域29においてエッジ強度がしきい値u以上になる画素のうち、基準エッジモデル側の対応画素のエッジ強度がしきい値u以下の画素を特定し、これらの画素のフラグvを「1」に変更する。この処理は、対応領域29内で基準エッジに対応していないエッジをエラーエッジとして設定する処理に該当する。
つぎのST27では、対応領域29内の各画素のエッジコード、エッジ強度、フラグvを、それぞれ当該画素の座標に対応づけて登録する。この一群のデータにより、基準モデル画像に対応していないエッジ画素の位置および濃度勾配方向を表すエラーエッジモデルが登録されることになる。
さらにこの処理でも、「マスク登録」ボタン25の操作があれば、対応領域29内でマスク領域50に含まれる画素のフラグvを、「2」に変更する(ST28,29)。また、図示していないが、「モデル表示」操作があれば、画面2を立ち上げて、ウィンドウ20内に、しきい値uを上回るエッジ強度を有する画素をフラグvの値に応じた色彩で表示する処理を実行する。
図10は、各モデル登録処理が終了した後に実行されるパターン認識処理の流れを示す。この処理の最初のステップであるST101では、最小の不一致度urとして、0より大きい所定の初期値(たとえば50%)を設定する。ST102では、処理対象画像を入力し、ST103では、その画像中の各画素につきエッジコードを算出する。
この後は、処理対象画像のあらかじめ設定されたサーチ範囲を対象に、照合領域を走査する。具体的にはST104,105において、照合領域の設定位置(i,j)をサーチ範囲の初期位置(x1,y1)に合わせた後、この(i,j)が、サーチ範囲の終点(x2,y2)になるまで1つずつ更新しながら、不一致度を算出する。ここでは、ST106で、基準エッジモデルに対する不一致度ur(i,j)を、ST107で、エラーエッジモデルに対する不一致度ur(i,j)を、それぞれ算出した後、ST108において、(b)式に基づき、調整後の不一致度ur(i,j)を算出する。
この不一致度ur(i,j)が最小値urより小さくなった場合(ST109が「YES」の場合)には、ST110に進み、ur(i,j)の値により最小値urを更新する。また、このur(i,j)を得たときのi,jをそれぞれsx,syにセットする。
上記の処理を繰り返すことにより、最終的に、urには、調整後の不一致度ur(i,j)の最も小さな値が格納される。また、sx,syは、このur(i,j)の最小値を得たときの位置を表すものとなる。
ST106,107では、それぞれ(a)式による画素単位での不一致度を算出しつつ、各算出値を累計することにより、ur(i,j)またはur(i,j)の値を更新する。ただし、ST106において、基準エッジモデルに対する不一致度ur(i,j)の途中累計値が所定のしきい値を上回った場合には、以下のST107,108を含めた演算を打ち切り、照合領域を次の操作位置に移動させる。このような処理により、基準エッジに全く対応していない領域が照合対象となった場合の演算時間を短縮して、処理を高速にすることができる。
ST115では、最小値urの値を、基準モデル画像に対する類似度Rに換算する。この後、ST116において、類似度Rを、sx,syの最終値とともに出力し、しかる後に処理を終了する。なお、sx,syはマッチング位置、すなわち認識対象のパターンの位置として出力される。
上記のパターン認識処理によれば、認識対象のパターンと同様の輪郭パターンのほぼ全体を含むパターンであっても、認識対象とは異なるパターンを誤認することがなくなり、認識精度を大幅に高めることができる。
さらに、エラーエッジモデルの登録は1つに限らず、複数のモデルを設定し、各エラーエッジモデル毎に算出した不一致度によって、基準エッジモデルに対する不一致度ur(i,j)を調整してもよい。この場合の調整処理も、(b)式と同様の演算で行うことができる。
たとえばエラーエッジモデルを2つ登録した場合、これらのモデルに対する不一致度をそれぞれurE1(i,j),urE2(i,j)とすれば、下記の(c)式によりur(i,j)を調整することができる。
ur(i,j)
=ur(i,j)+{VL−(urE1(i,j)+urE1(i,j))}
・・・(c)
ところで、上記の(b)(c)式では、エラーエッジモデルに対する類似度が高くなるほど値が大きくなる調整値を設定し、この調整値を基準エッジモデルに対する不一致度に加算することにより、最終の不一致度ur(i,j)を求めたが、認識対象のパターンを判別するための方法は、このような演算に限定されるものではない。
たとえば、照合領域の走査を行う毎に、基準エッジモデルに対する不一致度ur(i,j)を算出し、このur(i,j)が所定のしきい値Tより小さくなったときのみ、エラーエッジモデルに対する不一致度ur(i,j)を算出する。ここで、この不一致度ur(i,j)もしきい値Tを下回った場合には、不一致度ur(i,j)の値を高い値(たとえば90%)に変更する。そして、サーチ範囲の走査が終了した時点でのur(i,j)の最小値をもって、認識対象のパターンに対する類似度を算出する。
上記の処理によれば、エラーエッジモデルに対する類似度が高い領域でのur(i,j)の値が最小になることがないから、誤認候補パターンが認識対象のパターンとして誤認されるのを防止することができる。
画像処理装置の構成例を示すブロック図である。 基準モデル画像および基準エッジモデルの登録時の画面表示を示す説明図である。 エラーモデル画像およびエラーエッジモデルの登録時の画面表示を示す説明図である。 基準モデル画像および基準エッジモデルの登録時の画面表示を示す説明図である。 エラーモデル画像およびエラーエッジモデルの登録時の画面表示を示す説明図である。 図5の第2画面中の画像表示を拡大して、「マスク登録」操作に対する表示の変更処理の例を示す説明図である。 エッジコードの概念を示す説明図である。 基準モデル画像および基準エッジモデルの登録処理の流れを示すフローチャートである。 エラーモデル画像およびエラーエッジモデルの登録処理の流れを示すフローチャートである。 パターン認識処理の流れを示すフローチャートである。 パターンの誤認が生じる例を示す説明図である。
符号の説明
1 画像処理装置
10 制御部
12 画像メモリ
13 操作部
14 表示部
101 CPU
104 フラッシュディスク
20 (画像表示用)ウィンドウ
21 指定領域
30,33 基準エッジ
32,36 エラーエッジ

Claims (8)

  1. 特定の輪郭パターンを認識対象として、この認識対象パターンのモデルを撮像することにより生成された基準モデル画像につき、エッジ画素の位置および濃度勾配方向を表す基準エッジモデルを登録しておき、照合対象の濃淡画像の前記基準エッジモデルに対する類似度に基づき、前記照合対象の濃淡画像に前記認識対象パターンが含まれているか否かを判別する画像処理方法において、
    前記基準画像に含まれないエッジを含む濃淡画像を少なくとも1つ用意し、用意された画像毎に、当該画像に含まれるが基準モデル画像には含まれていないエッジ画素の位置および濃度勾配方向を表すデータを、エラーエッジモデルとして登録し、
    前記照合対象の濃淡画像について、基準エッジモデルに対する類似度およびエラーエッジモデルに対する類似度の双方に基づいて前記認識対象パターンの有無を判別する、
    ことを特徴とする画像処理方法。
  2. 請求項1に記載された画像処理方法において、
    前記判別処理では、基準エッジモデルに対する類似度を、エラーエッジモデルに対する類似度が高くなるほど大きく変化し、かつ変化前より低くなるように調整し、調整後の類似度を用いて前記照合対象の画像に認識対象パターンが含まれているか否かを判別する、画像処理方法。
  3. 請求項1に記載された画像処理方法において、
    前記エラーエッジモデルを登録する処理では、前記用意された濃淡画像において基準エッジモデルに対する類似度が最も高い領域を抽出し、抽出された領域内で基準エッジモデルに対応していないエッジ画素を特定して、その位置および濃度勾配方向を表すデータを前記エラーエッジモデルとして登録する画像処理方法。
  4. 認識対象のパターンのモデルを用いて生成された基準モデル画像について、エッジ画素の位置および濃度勾配方向を示す基準エッジモデルを作成する第1のモデル作成手段、
    前記基準モデル画像に含まれないエッジを含む濃淡画像を少なくとも1つ受け付けて、受け付けた画像毎にその画像に含まれるが基準モデル画像には含まれていないエッジ画素の位置および濃度勾配方向を表すエラーエッジモデルを作成する第2のモデル作成手段、
    前記基準エッジモデルおよびエラーエッジモデルを記憶するモデル記憶手段、
    照合対象の濃淡画像の入力を受け付けて、この濃淡画像につき、前記基準エッジモデルに対する類似度およびエラーエッジモデルに対する類似度を個別に算出する類似度算出手段、
    前記類似度算出手段により算出された各類似度に基づき、前記照合対象の濃淡画像に前記認識対象パターンが含まれているか否かを判別する判別手段、
    の各手段を具備する画像処理装置。
  5. 前記判別手段は、各エッジモデルよりサイズの大きい濃淡画像を照合対象として、この画像に前記基準エッジモデルに対応する大きさの照合領域を走査し、照合領域の設定位置を変更する毎に前記類似度算出手段に前記2種類の類似度を算出させ、基準エッジモデルに対する類似度を、エラーエッジモデルに対する類似度が高くなるほど大きく変化し、かつ変化前より低くなるように調整し、調整後の類似度を用いて前記照合領域内の画像に認識対象パターンが含まれているか否かを判別する、請求項4に記載された画像処理装置。
  6. 請求項4に記載された画像処理装置において、
    画像表示用の表示部と設定操作用の操作部とを、さらに備え、
    前記第2のモデル作成手段には、所定の濃淡画像を前記表示部に表示し、前記操作部により表示画像に対する領域指定操作が行われるのに応じて、その指定された領域内の画像をエラーエッジモデルの作成用画像として受け付け、受け付けた画像から前記基準エッジモデルに対する類似度が最も高い領域を特定し、特定された領域内で前記基準エッジモデルに対応しないエッジ画素の位置および濃度勾配方向を表すデータを前記エラーエッジモデルとして作成する、画像処理装置。
  7. 請求項6に記載された画像処理装置において、
    前記第2のモデル作成手段には、前記基準エッジモデルに対する類似度が最も高い領域について、前記基準エッジモデルに対応するエッジ画素と基準エッジモデルに対応しないエッジ画素とをそれぞれ異なる表示態様で表示部に表示する手段が含まれる、画像処理装置。
  8. 請求項7に記載された画像処理装置において、
    前記第2のモデル作成手段には、前記基準エッジモデルに対応しないエッジ画素として前記表示部に表示されたエッジ画素の一部を指定する操作を受け付けて、指定されたエッジ画素の情報が削除または無効化されたエラーエッジモデルを作成する、画像処理装置。
JP2007210237A 2007-08-10 2007-08-10 画像処理方法および画像処理装置 Pending JP2009043184A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007210237A JP2009043184A (ja) 2007-08-10 2007-08-10 画像処理方法および画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007210237A JP2009043184A (ja) 2007-08-10 2007-08-10 画像処理方法および画像処理装置

Publications (1)

Publication Number Publication Date
JP2009043184A true JP2009043184A (ja) 2009-02-26

Family

ID=40443839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007210237A Pending JP2009043184A (ja) 2007-08-10 2007-08-10 画像処理方法および画像処理装置

Country Status (1)

Country Link
JP (1) JP2009043184A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011096011A (ja) * 2009-10-29 2011-05-12 Toshiba Corp 搬送監視装置および搬送監視方法
US9245198B2 (en) 2010-09-03 2016-01-26 Canon Kabushiki Kaisha Object recognition by comparison of patterns against map of image

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6175978A (ja) * 1984-09-21 1986-04-18 Fujitsu Ltd 認識装置
JPH0620032A (ja) * 1992-07-03 1994-01-28 Fujitsu Ltd パターン検査装置及びパターン検査方法
JPH09147056A (ja) * 1995-11-22 1997-06-06 Hitachi Ltd マーク外観検査方法とその装置
JP2682382B2 (ja) * 1992-08-03 1997-11-26 ヤマハ株式会社 楽譜認識装置
JP2802183B2 (ja) * 1991-05-30 1998-09-24 日立エンジニアリング株式会社 パターンマッチングを用いる検査装置およびパターンマッチング方法
JP2002044489A (ja) * 2000-07-19 2002-02-08 Konica Corp 顔画像情報撮影記憶システム及び顔画像情報認識方法及び自動写真撮影装置
JP2002230549A (ja) * 2001-02-05 2002-08-16 Omron Corp 画像処理方法およびその装置
JP2005196678A (ja) * 2004-01-09 2005-07-21 Neucore Technol Inc テンプレートマッチング方法および対象画像領域抽出装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6175978A (ja) * 1984-09-21 1986-04-18 Fujitsu Ltd 認識装置
JP2802183B2 (ja) * 1991-05-30 1998-09-24 日立エンジニアリング株式会社 パターンマッチングを用いる検査装置およびパターンマッチング方法
JPH0620032A (ja) * 1992-07-03 1994-01-28 Fujitsu Ltd パターン検査装置及びパターン検査方法
JP2682382B2 (ja) * 1992-08-03 1997-11-26 ヤマハ株式会社 楽譜認識装置
JPH09147056A (ja) * 1995-11-22 1997-06-06 Hitachi Ltd マーク外観検査方法とその装置
JP2002044489A (ja) * 2000-07-19 2002-02-08 Konica Corp 顔画像情報撮影記憶システム及び顔画像情報認識方法及び自動写真撮影装置
JP2002230549A (ja) * 2001-02-05 2002-08-16 Omron Corp 画像処理方法およびその装置
JP2005196678A (ja) * 2004-01-09 2005-07-21 Neucore Technol Inc テンプレートマッチング方法および対象画像領域抽出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011096011A (ja) * 2009-10-29 2011-05-12 Toshiba Corp 搬送監視装置および搬送監視方法
US9245198B2 (en) 2010-09-03 2016-01-26 Canon Kabushiki Kaisha Object recognition by comparison of patterns against map of image
US9740965B2 (en) 2010-09-03 2017-08-22 Canon Kabushiki Kaisha Information processing apparatus and control method thereof

Similar Documents

Publication Publication Date Title
JP7113657B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9619727B2 (en) Matching process device, matching process method, and inspection device employing same
US11669953B2 (en) Pattern matching device and computer program for pattern matching
JP4380838B2 (ja) ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識プログラム
US10430650B2 (en) Image processing system
JP6736257B2 (ja) 情報処理装置、情報処理方法、プログラム
EP1783663A2 (en) Object recognizing method, program and storage medium for recognizing object, and object recognizing apparatus
JP6177541B2 (ja) 文字認識装置、文字認識方法及びプログラム
JP2019012016A (ja) 位置制御システム、位置検出装置、および制御プログラム
US20150071546A1 (en) Character-recognition method and character-recognition device and program using said method
JP5707570B2 (ja) 物体識別装置、物体識別方法、及び、物体識別装置の学習方法
JP7214432B2 (ja) 画像処理方法、画像処理プログラム、記録媒体、画像処理装置、生産システム、物品の製造方法
JP5906788B2 (ja) 文字切り出し方法、およびこの方法を用いた文字認識装置およびプログラム
JP6903966B2 (ja) 情報処理装置、情報処理システム及びプログラム
JP2009217832A (ja) ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識のプログラムを記憶した記憶媒体
JP2009043184A (ja) 画像処理方法および画像処理装置
JP2898562B2 (ja) ナンバープレート決定方法
JP4470513B2 (ja) 検査方法および検査装置
JP2007025902A (ja) 画像処理装置、画像処理方法
JP2002092674A (ja) 切手検出装置、切手検出方法、書状処理装置および書状処理方法
JP6890849B2 (ja) 情報処理システム
CN113963379A (zh) 四指指纹位置识别方法、装置及设备
JP2000180138A (ja) キャリブレーションプレート及びこれを利用する視覚センサのキャリブレーション装置
JPH10153407A (ja) 計測処理装置
JP6156212B2 (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Effective date: 20110311

Free format text: JAPANESE INTERMEDIATE CODE: A523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Written amendment

Effective date: 20110413

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110628