[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH09330407A - Picture pattern recognizing device - Google Patents

Picture pattern recognizing device

Info

Publication number
JPH09330407A
JPH09330407A JP8152439A JP15243996A JPH09330407A JP H09330407 A JPH09330407 A JP H09330407A JP 8152439 A JP8152439 A JP 8152439A JP 15243996 A JP15243996 A JP 15243996A JP H09330407 A JPH09330407 A JP H09330407A
Authority
JP
Japan
Prior art keywords
feature vector
selection
image
circuit
image pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8152439A
Other languages
Japanese (ja)
Inventor
Koichi Arimura
浩一 有村
Norihiro Hagita
紀博 萩田
Koji Sato
孝治 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP8152439A priority Critical patent/JPH09330407A/en
Publication of JPH09330407A publication Critical patent/JPH09330407A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Input (AREA)
  • Complex Calculations (AREA)

Abstract

PROBLEM TO BE SOLVED: To speedily and precisely rocognize an object within a picture of a normal form and a picture compressed based on an orthogonal extending method. SOLUTION: A small area extracting circuit 6 extracts plural pertinent small areas from the picture of the normal form and the picture of a compressed form. A mask processing circuit 7 prepares a mask processing small area. An orthogonal extending circuit 8 extracts a feature vector from the mask processing small area by using the orthogonal extending method. A sorting feature vector preparing circuit 11 decides a component to use for sorting judgement. A sorting feature extracting circuit 9 prepares a sorting feature vector. A sorting judging circuit 10 calculates the correlation value of the sorting feature vector and a standard pattern, decides whether the feature vector is similar to a recognition object class based on the correlation value and outputs only the sorting feature vector sorted to be similar to the recognition object class to a picture recognition circuit 4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、2値または多値か
らなる画像パターンを直交展開法を用いて認識処理する
画像認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition apparatus for recognizing a binary or multi-valued image pattern using an orthogonal expansion method.

【0002】[0002]

【従来の技術】従来、信号・雑音分離処理をともなった
認識処理を行う手段を有する画像パターン認識装置で
は、認識対象に応じてあらかじめ収集した大量のサンプ
ル画像から、信号・雑音分離処理および詳細認識処理で
用いるテンプレートを直交展開法を用いて複数個作成す
る手続と、さらに分類回路を構成する手続きとが必要で
ある。ここで用いる直交展開法に主成分分析法を利用す
る方法が知られている(たとえば、有村、萩田:統計的
画像認識における画像選別空間の構成法、進学技法、電
子情報通信学会、PRU95−147、1995)。
2. Description of the Related Art Conventionally, in an image pattern recognition apparatus having means for performing recognition processing accompanied by signal / noise separation processing, signal / noise separation processing and detailed recognition are performed from a large number of sample images collected in advance according to the recognition target. A procedure for creating a plurality of templates used in the processing by using the orthogonal expansion method and a procedure for configuring a classification circuit are required. A method using a principal component analysis method for the orthogonal expansion method used here is known (for example, Arimura, Hagita: construction method of image selection space in statistical image recognition, advanced technology, Institute of Electronics, Information and Communication Engineers, PRU95- 147, 1995).

【0003】一方、近年のコンピュータネットワーク技
術・マルティメディア技術の発展にともない、直交展開
法を用いた画像圧縮技術によって圧縮された画像が広く
流通・普及してきた。それにともない、直交展開を高速
でおこない、画像圧縮および復元処理の速度を向上する
方式および装置が開発されている。たとえば、JPEG
方式で用いられる8×8画素に対する離散コサイン変換
(DCT)を、8×8行列の変換行列の行列演算で高速
に実現する方法が知られている(たとえば、安田編、マ
ルティメディア符号化の国際標準、丸善、平成5年)。
加えて、これらの圧縮画像を対象として画像認識の要求
が高まっている。たとえば、画像データベース検索にお
いては、DCTを用いて圧縮した画像を対象に、DCT
係数の一部を用いて検索対象となる物体を検索する内容
検索の方法が知られている(たとえば、S.W.Smo
liar,H.Ahang,Content−Base
dVideo Indexing and Retri
eval,IEEE Multimedia,pp.6
2−72,Summer,1994)。
On the other hand, with the recent development of computer network technology and multimedia technology, images compressed by the image compression technology using the orthogonal expansion method have been widely distributed and spread. Along with this, a method and apparatus have been developed for performing orthogonal expansion at high speed and improving the speed of image compression and decompression processing. For example, JPEG
A method is known in which discrete cosine transform (DCT) for 8 × 8 pixels used in the method is realized at high speed by matrix calculation of a transform matrix of 8 × 8 matrix (for example, edited by Yasuda, International standard for multimedia coding). , Maruzen, 1993).
In addition, there is an increasing demand for image recognition for these compressed images. For example, in an image database search, a DCT is used to target an image compressed using DCT.
A method of content search in which an object to be searched is searched by using a part of the coefficient is known (for example, SW Smo).
liar, H .; Ahang, Content-Base
dVideo Indexing and Retri
eval, IEEE Multimedia, pp. 6
2-72, Summer, 1994).

【0004】[0004]

【発明が解決しようとする課題】直交展開法に主成分分
析を用いてテンプレートを作成する従来の画像パターン
認識装置では、サンプル画像の大きさや個数が増加する
と、大きな行列の固有ベクトルの計算が必要となり、計
算時間が多くかかるという欠点がある。たとえば、サン
プル画像の大きさを30×30画素に、個数を100,
000に設定した場合、100,000個のサンプルの
加算から900×900の共分散行列を作成し、その共
分散行列から固有ベクトルを計算することになる。ま
た、この方式では、利用者ごとに扱う認識対象が異なる
場合、その都度、多くの計算時間を費やし、あらたに固
有ベクトルを計算してテンプレートを作成し直すことが
必要なために、処理時間の短縮化には問題があった。さ
らに、テンプレートを記憶するための手段を必要とする
ために、画像パターン認識装置の小型化の点で問題があ
った。
In the conventional image pattern recognition apparatus which creates a template by using the principal component analysis in the orthogonal expansion method, when the size and the number of sample images increase, it is necessary to calculate the eigenvectors of a large matrix. However, there is a drawback that it takes a lot of calculation time. For example, the size of the sample image is 30 × 30 pixels, the number is 100,
When set to 000, a 900 × 900 covariance matrix is created from the addition of 100,000 samples, and the eigenvector is calculated from the covariance matrix. Also, with this method, when the recognition target handled by each user is different, it takes a lot of calculation time each time, and it is necessary to newly calculate the eigenvector and recreate the template, which reduces the processing time. There was a problem with the conversion. Further, there is a problem in downsizing the image pattern recognition device because a means for storing the template is required.

【0005】JPEG方式のように、DCTですでに直
交展開してある圧縮画像を従来の画像パターン認識装置
を用いて処理する場合には処理効率の点で問題があっ
た。従来の画像パターン認識装置で用いる直交展開法が
画像圧縮で用いたのとは別の方法であるために、圧縮画
像をいったんもとの画像に復元し、あらためて、パター
ン認識装置で用いる直交展開法、たとえば、主成分分析
法によって復元画像を再び処理することなる。このよう
な場合、使用する直交展開法の種別が異なるために、復
元処理ならびに直交展開の処理が省けずに処理量が増加
することになる。
When a compressed image that has been orthogonally expanded by DCT is processed using a conventional image pattern recognition device like the JPEG system, there is a problem in processing efficiency. Since the orthogonal expansion method used in the conventional image pattern recognition apparatus is a method different from that used in image compression, the compressed image is once restored to the original image, and then the orthogonal expansion method used in the pattern recognition apparatus is newly created. , The restored image will be processed again by the principal component analysis method. In such a case, since the type of orthogonal expansion method used is different, the processing amount increases without omitting the restoration processing and the orthogonal expansion processing.

【0006】以上説明したように、信号・雑音分離処理
を併用した詳細認識処理を行う手段を有する従来の画像
パターン認識装置では、m×n画素の大きさのサンプル
画像を(m×n)次元の1次元ベクトルデータとみなし
て、信号・雑音分離処理および詳細認識処理に主成分分
析法を用いたために、信号・雑音分離処理および詳細処
理で用いるテンプレート、および、分類・詳細認識回路
を、認識対象の変更に応じて短時間で効率よく構成する
ことができず、また装置で使用するデータの記憶容量が
大きく、装置を小型化できなかった。
As described above, in the conventional image pattern recognition apparatus having the means for performing the detailed recognition processing in combination with the signal / noise separation processing, the sample image having the size of m × n pixels is (m × n) dimensions. The template used in the signal / noise separation processing and the detailed processing and the classification / detail recognition circuit are recognized because the principal component analysis method is used for the signal / noise separation processing and the detailed recognition processing by regarding them as the one-dimensional vector data of It was not possible to efficiently configure the device in a short time according to the change of the target, and the data storage capacity of the device was large, so that the device could not be downsized.

【0007】本発明の目的は、DCTを用いた画像圧縮
・復元方式の利点と普及動向をかんがみ、信号・雑音分
離処理をともなった画像パターン認識装置において、あ
らかじめ収集したサンプル画像から、高性能なテンプレ
ート、および、分類・詳細認識回路を認識対象に応じて
すばやく作成することに加え、認識処理系全体の認識処
理の高速化、認識処理の性能の向上、および、装置で使
用するデータの記憶容量の小型化を実現した、適用範囲
の広い画像パターン認識装置を提供することにある。
The object of the present invention is to realize high performance from sample images collected in advance in an image pattern recognition apparatus with signal / noise separation processing in view of the advantages and trend of spread of the image compression / decompression method using DCT. In addition to quickly creating templates and classification / detail recognition circuits according to the recognition target, speed up recognition processing of the entire recognition processing system, improve recognition processing performance, and storage capacity of data used by the device An object of the present invention is to provide an image pattern recognition device which has a wide range of application and which has realized downsizing.

【0008】[0008]

【課題を解決するための手段】本発明の画像パターン認
識装置は、2値または多値からなる画像パターンを入力
し、記憶する画像パターン記憶手段と、前記画像パター
ンを圧縮した圧縮画像パターンを入力し、記憶する圧縮
画像パターン記憶手段と、該画像パターンまたは該圧縮
画像パターンから画像中の複数の小領域を抽出する小領
域抽出手段と、該小領域が認識対象に類似しているか否
かの2つのカテゴリに分類するための選別用特徴ベクト
ルを作成する選別特徴抽出手段と、該選別特徴抽出手段
によって得られた該選別用特徴ベクトルをあらかじめ用
意してある選別用標準パターンと照合して相関値を求
め、該相関値をもとに、該小領域が認識対象に類似して
いるか否かの2つのカテゴリに分類する選別判定手段
と、該選別判定手段によって認識対象に類似していると
判定された該小領域だけを、複数の認識対象カテゴリに
分類する画像認識手段と、前記認識判定手段の分類結果
を表示し、もしくは前記各手段が適切に動作するために
設定される調整値を入力するための画像入出力手段を有
する。
An image pattern recognition apparatus according to the present invention inputs an image pattern storing means for inputting and storing a binary or multi-valued image pattern and a compressed image pattern obtained by compressing the image pattern. Then, a compressed image pattern storage means for storing, a small area extracting means for extracting a plurality of small areas in the image from the image pattern or the compressed image pattern, and whether or not the small area is similar to the recognition target Selection feature extraction means for creating a selection feature vector for classifying into two categories, and the selection feature vector obtained by the selection feature extraction means is compared with a selection standard pattern prepared in advance for correlation. A selection determination unit that determines a value and classifies the small region into two categories based on the correlation value, that is, whether the small region is similar to the recognition target, and the selection determination unit. Image recognition means for classifying only the small area determined to be similar to the recognition target into a plurality of recognition target categories, and the classification result of the recognition determination means, or each of the means appropriately displays It has image input / output means for inputting adjustment values set for operation.

【0009】本発明の実施態様によれば、前記小領域抽
出手段で抽出された小領域の濃淡レベルを、あらかじめ
定められた濃淡レベルの範囲内になるように補正し、か
つあらかじめ定められた画像フィルタによってマスク処
理を行なうマスク処理手段を有する。
According to the embodiment of the present invention, the gray level of the small area extracted by the small area extracting means is corrected so as to be within the range of the predetermined gray level, and the predetermined image is obtained. It has a mask processing means for performing mask processing by a filter.

【0010】本発明の他の実施態様によれば、変換行列
の行列演算によるDCTを用いて、マスク処理された小
領域に直交展開を適用し、特徴ベクトルを作成する直交
展開手段を有する。
According to another embodiment of the present invention, the orthogonal expansion means is provided for applying the orthogonal expansion to the masked small area by using the DCT by the matrix operation of the transformation matrix to create the feature vector.

【0011】本発明の他の実施態様によれば、前記直交
展開手段で作成された特徴ベクトルを入力し、該特徴ベ
クトルの成分から、マスク処理された小領域が認識対象
に類似しているか否かを大まかに分類する選別処理に有
効な成分を選び、選別用特徴ベクトルを構成する方法を
認定する選別用特徴ベクトル作成手段を有し、前記選別
特徴抽出手段は前記特徴ベクトルを前記直交展開手段よ
り入力し、前記選別用特徴ベクトルの構成方法を前記選
別用特徴ベクトル作成手段より入力し、前記構成方法に
したがい前記特徴ベクトルから選別用特徴ベクトルを作
成する。
According to another embodiment of the present invention, the feature vector created by the orthogonal expansion means is input, and whether or not the masked small area is similar to the recognition target is determined from the components of the feature vector. The selection feature vector creating means for selecting a component effective in the selection process for roughly classifying the or, and recognizing the method of constructing the selection feature vector, and the selection feature extraction means includes the orthogonal expansion means for the feature vector. The selection feature vector is input from the selection feature vector creating means, and the selection feature vector is created from the feature vector according to the configuration method.

【0012】本発明の他の実施態様によれば、前記選別
特徴抽出手段で作成された選別用特徴ベクトルを入力
し、該選別用特徴ベクトルから選別用標準パターンを作
成する選別用標準パターン作成手段と、該選別用標準パ
ターンを記憶する選別用標準パターン記憶手段を有す
る。
According to another embodiment of the present invention, a sorting standard pattern creating means for inputting the sorting feature vector created by the sorting feature extracting means and creating a sorting standard pattern from the sorting feature vector And a selection standard pattern storage means for storing the selection standard pattern.

【0013】画像パターンの入力には、画像パターンを
入力し記憶する手段と、画像パターンを公知の画像圧縮
手段によって圧縮した圧縮画像パターンを入力し記憶す
る手段とを備え、小領域の抽出には、画像の種別に応じ
て画像から小領域を抽出する手段を備えたために、画像
パターンまたは画像パターンを公知の画像圧縮手段で圧
縮した圧縮画像パターンの両方の処理を行なうことがで
きる。
The image pattern is input by means for inputting and storing the image pattern and means for inputting and storing the compressed image pattern obtained by compressing the image pattern by a known image compression means. Since the means for extracting the small area from the image according to the type of the image is provided, both the processing of the image pattern or the compressed image pattern obtained by compressing the image pattern by the known image compression means can be performed.

【0014】選別用特徴ベクトル作成手段において、認
識対象ごとに選別処理に有効な成分を特徴ベクトルから
選別することで、選別用特徴ベクトルを認識対象ごとに
新規作成し、追加、更新できるようにしたために、認識
対象の変更にともなう作業負担を軽減することができ
る。
In the selection feature vector creating means, a component effective for the selection process is selected from the feature vector for each recognition target, so that the selection feature vector can be newly created for each recognition target and added or updated. In addition, it is possible to reduce the work load associated with the change of the recognition target.

【0015】マスク処理小領域に適用する直交展開手段
において、変換行列の行列演算によるDCTを用いた場
合、変換行列の成分は認識課題の変更にかかわらず同じ
数式で定義されるのに対して、主成分分析法のような公
知の他の直交展開法では、学習サンプルから変換行列を
作成する事前処理が認識課題の変更のたびに必要とな
る。つまり、変換行列の行列演算によるDCTを用いる
ことで、認識課題の変更のたびに行なう事前作業が省
け、作業時間が短縮できる。
In the orthogonal expansion means applied to the mask processing small area, when the DCT by the matrix operation of the transformation matrix is used, the components of the transformation matrix are defined by the same mathematical expression regardless of the change of the recognition task. In other well-known orthogonal expansion methods such as the principal component analysis method, pre-processing of creating a transformation matrix from learning samples is required every time the recognition task is changed. That is, by using the DCT based on the matrix calculation of the transformation matrix, it is possible to omit the preliminary work performed each time the recognition task is changed, and the work time can be shortened.

【0016】さらに、マスク処理小領域に適用する直交
展開手段で変換行列の行列演算によるDCTを使用した
場合、変換行列の成分は認識課題の変更にかかわらず同
じ数式で定義するため、作成した変換行列を記憶する場
合には、その数式もしくはその数式より作成した変換行
列を記憶すればよいのに対し、主成分分析法のような公
知の他の直交展開法では、認識課題の変更のたびに変換
行列の成分のすべてを記憶する必要がある。すなわち、
変換行列の行列演算によるDCTを用いることで、画像
パターン認識処理装置における変換行列の記憶容量が小
型化できる。
Further, when the DCT by the matrix operation of the transformation matrix is used in the orthogonal expansion means applied to the mask processing small area, the components of the transformation matrix are defined by the same mathematical expression regardless of the change of the recognition task, and thus the created transformation is performed. When storing a matrix, the mathematical formula or a transformation matrix created from the mathematical formula may be stored, whereas in other known orthogonal expansion methods such as the principal component analysis method, each time the recognition task is changed. All the elements of the transformation matrix need to be stored. That is,
By using the DCT by the matrix calculation of the conversion matrix, the storage capacity of the conversion matrix in the image pattern recognition processing device can be reduced.

【0017】マスク処理小領域に対する直交展開法に
は、変換行列の行列演算によるDCTを用いることで、
たとえばJPEGのような公知の圧縮手段の一部が利用
できるようにしたので、画像パターンまたは画像パター
ンを公知の画像圧縮手段で圧縮した圧縮画像パターンの
両方の処理を行なうことができる。
In the orthogonal expansion method for the mask processing small area, the DCT by the matrix operation of the transformation matrix is used.
For example, since a part of known compression means such as JPEG can be used, both the image pattern and the compressed image pattern obtained by compressing the image pattern by the known image compression means can be processed.

【0018】そして、公知の画像圧縮手段によって圧縮
された画像を入力した場合には、この圧縮画像を部分的
に復元するだけで特徴ベクトルを得ることができるた
め、圧縮画像から特徴ベクトルを作成する場合に、圧縮
画像を完全に復元画像にあらためて直交展開法を適用し
て特徴ベクトルを作成する場合にくらべて、特徴ベクト
ルの作成を高速に行なうことができる。
When an image compressed by a known image compression means is input, the characteristic vector can be obtained only by partially restoring the compressed image, so that the characteristic vector is created from the compressed image. In this case, the feature vector can be created faster than when the compressed image is completely reconstructed and the orthogonal expansion method is applied to create the feature vector.

【0019】[0019]

【発明の実施の形態】次に、本発明の実施形態について
図面を参照にして説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described with reference to the drawings.

【0020】図1は本発明の一実施形態の画像パターン
認識装置の構成図、図2は図1の画像選別回路3の構成
図、図3、4、5、6はそれぞれ図1の画像パターン認
識装置の処理のフローチャートである。
FIG. 1 is a block diagram of an image pattern recognition apparatus according to an embodiment of the present invention, FIG. 2 is a block diagram of the image selection circuit 3 of FIG. 1, and FIGS. 3, 4, 5 and 6 are image patterns of FIG. It is a flowchart of a process of a recognition device.

【0021】この画像パターン認識装置は、画像パター
ン記憶回路1と圧縮画像パターン記憶回路2と画像選別
回路3と画像認識回路4と画像入出力装置5とから構成
されている。
The image pattern recognition device comprises an image pattern storage circuit 1, a compressed image pattern storage circuit 2, an image selection circuit 3, an image recognition circuit 4 and an image input / output device 5.

【0022】画像パターン記憶回路1は入力されたM×
Nメッシュの大きさの2値または多値からなる画像パタ
ーンを記憶する。圧縮画像パターン記憶回路2は、たと
えばDCTを用いたJPEGのような公知の画像圧縮手
段によって、M×Nメッシュの大きさの2値または多値
からなる画像パターンを圧縮した圧縮画像パターンを記
憶する。画像選別回路3は、該画像パターンまたは該圧
縮画像パターンを入力し、画像選別処理を行ない、認識
対象に類似した小領域を検出する。画像認識回路4は、
該小領域を複数の認識対象カテゴリに分類することで入
力画像の認識を行なう。画像入出力装置5は、画像認識
回路4から出力される小領域の認識クラス番号、分類結
果などの情報を入力し、該情報を表示し、また外部か
ら、たとえばキーボードやマウスなどによって画像情報
や設定値を入力し、表示するとともに、画像選別回路3
に選別処理に関する情報を、画像認識回路4に認識処理
に関する情報をそれぞれ適宜入力させる。
The image pattern storage circuit 1 receives the input M ×
An image pattern consisting of binary or multi-valued N mesh size is stored. The compressed image pattern storage circuit 2 stores a compressed image pattern obtained by compressing an image pattern consisting of binary or multi-valued M × N mesh size by a known image compression means such as JPEG using DCT. . The image selection circuit 3 inputs the image pattern or the compressed image pattern, performs image selection processing, and detects a small area similar to the recognition target. The image recognition circuit 4
The input image is recognized by classifying the small areas into a plurality of recognition target categories. The image input / output device 5 inputs the information such as the recognition class number of the small area output from the image recognition circuit 4 and the classification result, displays the information, and also externally displays the image information such as a keyboard and a mouse. Input and display the set value, and the image selection circuit 3
The image recognition circuit 4 is caused to input the information regarding the selection processing, and the information regarding the recognition processing is input as appropriate.

【0023】画像選別回路3は本発明の主要部で、図2
に示すように、小領域抽出回路6とマスク処理回路7と
直交展開回路8と特徴抽出回路9と選別判定回路10と
選別用特徴ベクトル作成回路11と選別用標準パターン
作成回路12と選別用標準パターン記憶回路13で構成
されている。ここで、小領域抽出回路6は画像パターン
記憶回路1に記憶された画像パターンまたは圧縮画像パ
ターン記憶回路2に記憶された圧縮画像パターンを入力
し、画像中から複数の小領域を抽出するために、あらか
じめ定めた、小領域の大きさ、設定間隔、設定位置など
の設定方法にしたがい画像の種別に応じた小領域の切り
出し方法を用いて該画像パターンから複数の小領域を抽
出し、該小領域をマスク処理回路7へ出力する。マスク
処理回路7は、該小領域の濃淡レベルを、あらかじめ定
められた濃淡レベルの範囲内なるように補正し、かつ、
あらかじめ定められた画像フィルタで該小領域をマスク
処理してマスク処理小領域を作成し、該マスク処理小領
域を直交展開回路8へ出力する。直交展開回路8は、該
マスク処理小領域に直交展開を適用し、特徴ベクトルを
作成する。たとえばJPEGのような公知の画像圧縮手
段の一部が利用できるようするために、直交展開回路8
で用いる直交展開には変換行列の行列演算によるDCT
を用いる(たとえば、データ圧縮ハンドブック、M.ネ
ルソン、萩原訳、プレンティースホール、トッパン)。
選別用特徴ベクトル回路11は、該マスク処理小領域を
直交展開回路8で直交展開して作成した該特徴ベクトル
を入力し、該マスク処理小領域が認識対象に類似してい
るか否かを大まかに分類する選別処理で用いる選別用特
徴ベクトルを該特徴ベクトルから作成するために、該特
徴ベクトルの成分から該選別処理に有効な成分を選び、
選別用特徴ベクトルを構成する方法を決定し、その結果
を保存する。選別特徴抽出回路9は該特徴ベクトルを直
交展開回路8より入力し、選別用特徴ベクトル作成回路
11で定めて保存した該選別用特徴ベクトル構成方法を
入力し、それにしたがい該特徴ベクトルから選別用特徴
ベクトルを作成する。選別用標準パターン作成回路12
は、選別特徴抽出回路9で作成した該選別用特徴ベクト
ルを入力し、該選別用特徴ベクトルから選別標準パター
ンを作成し、該選別用標準パターンを選別用標準パター
ン記憶回路13へ出力し、選別用標準パターン記憶回路
13で該選別用標準パターンを記憶する。選別判定回路
10は、選別特徴抽出回路9で作成した該選別用特徴ベ
クトルを入力し、選別用標準パターン記憶回路13に記
憶された該選別用標準パターンを入力し、該選別用特徴
ベクトルと照合して相関値をもとめ、その相関値をもと
に該マスク処理小領域が認識対象に類似しているか否か
の2つのカテゴリに大まかに分類し、認識対象に類似し
ていると判定された該マスク処理小画像のみを画像認識
回路4へ出力する。
The image selection circuit 3 is a main part of the present invention and is shown in FIG.
As shown in FIG. 3, the small area extraction circuit 6, the mask processing circuit 7, the orthogonal expansion circuit 8, the feature extraction circuit 9, the selection determination circuit 10, the selection feature vector creation circuit 11, the selection standard pattern creation circuit 12, and the selection standard. It is composed of a pattern storage circuit 13. Here, the small area extraction circuit 6 inputs the image pattern stored in the image pattern storage circuit 1 or the compressed image pattern stored in the compressed image pattern storage circuit 2 in order to extract a plurality of small areas from the image. , A plurality of small areas are extracted from the image pattern using a small area cutout method according to the type of the image according to a predetermined setting method such as a small area size, a setting interval, and a setting position. The area is output to the mask processing circuit 7. The mask processing circuit 7 corrects the gray level of the small area so as to be within a predetermined gray level range, and
The small area is masked by a predetermined image filter to create a masked small area, and the masked small area is output to the orthogonal expansion circuit 8. The orthogonal expansion circuit 8 applies orthogonal expansion to the mask processing small area to create a feature vector. The orthogonal expansion circuit 8 is provided so that a part of a known image compression means such as JPEG can be used.
For the orthogonal expansion used in, the DCT by the matrix operation of the transformation matrix
(For example, Data Compression Handbook, M. Nelson, Hagiwara, Prentice Hall, Toppan).
The feature vector circuit for selection 11 inputs the feature vector created by orthogonally expanding the mask processing small area by the orthogonal expansion circuit 8 and roughly determines whether the mask processing small area is similar to the recognition target. In order to create a selection feature vector used in the selection process for classification from the feature vector, a component effective in the selection process is selected from the components of the feature vector,
The method of constructing the selection feature vector is determined, and the result is saved. The selection feature extraction circuit 9 inputs the feature vector from the orthogonal expansion circuit 8 and the selection feature vector constructing method determined and stored in the selection feature vector creation circuit 11 and accordingly selects the selection feature from the feature vector. Create a vector. Standard pattern creation circuit 12 for selection
Inputs the selection feature vector created by the selection feature extraction circuit 9, creates a selection standard pattern from the selection feature vector, outputs the selection standard pattern to the selection standard pattern storage circuit 13, and selects the selection standard pattern. The standard pattern storage circuit 13 stores the standard pattern for selection. The selection determination circuit 10 inputs the selection feature vector created by the selection feature extraction circuit 9, inputs the selection standard pattern stored in the selection standard pattern storage circuit 13, and collates with the selection feature vector. Then, the correlation value is obtained, and based on the correlation value, it is roughly classified into two categories, that is, whether the masking small area is similar to the recognition target, and it is determined that it is similar to the recognition target. Only the masked small image is output to the image recognition circuit 4.

【0024】次に、本画像パターン認識処理装置の処理
を図3、4、5、6を参照して説明する。
Next, the processing of the image pattern recognition processing apparatus will be described with reference to FIGS.

【0025】図3は画像パターン記憶回路1から小領域
抽出回路6、マスク処理回路7、直交展開回路8までの
処理のフローチャート、図4は圧縮画像パターン記憶回
路2から小領域抽出回路6、マスク処理回路7、直交展
開回路8までの処理のフローチャート、図5は直交展開
回路8の出力から選別用特徴ベクトル作成回路11、選
別特徴抽出回路9、選別用標準パターン作成回路12、
選別用標準パターン記憶回路13、画像認識回路4まで
の処理のフローチャートで、選別特徴抽出回路9で使用
する選別用特徴ベクトルの構成成分の決定、および選別
判定回路10で使用する選別用標準パターン、および画
像認識回路4において使用する標準パターンの作成・記
憶に関するフローチャート、図6は選別特徴抽出回路9
から選別判定回路10、画像認識回路4までの処理のフ
ローチャートで、選別用標準パターン記憶回路13に記
憶されている選別用標準パターンを用いた信号・雑音分
離処理および画像認識処理に関する処理を示している。
FIG. 3 is a flow chart of processing from the image pattern storage circuit 1 to the small area extraction circuit 6, the mask processing circuit 7, and the orthogonal expansion circuit 8. FIG. 4 is a flowchart of the compressed image pattern storage circuit 2 to the small area extraction circuit 6 and the mask. FIG. 5 is a flow chart of the processing up to the processing circuit 7 and the orthogonal expansion circuit 8. FIG. 5 shows a selection feature vector creation circuit 11, a selection feature extraction circuit 9, a selection standard pattern creation circuit 12, based on the output of the orthogonal expansion circuit 8.
In the flow chart of the processing up to the selection standard pattern storage circuit 13 and the image recognition circuit 4, determination of constituent components of the selection feature vector used in the selection feature extraction circuit 9, and selection standard pattern used in the selection determination circuit 10, And a flow chart relating to the creation and storage of a standard pattern used in the image recognition circuit 4, FIG.
FIG. 3 is a flowchart of the processing from the selection determination circuit 10 to the image recognition circuit 4, showing the processing related to the signal / noise separation processing and the image recognition processing using the standard selection pattern stored in the standard selection pattern storage circuit 13. There is.

【0026】はじめに、第1の動作例として、画像パタ
ーン記憶回路1、小領域抽出回路6、マスク処理回路
7、直交展開回路8が動作する場合、すなわち、M×N
メッシュの大きさの2値または多値からなる通常形式の
画像パターンを入力し、特徴ベクトルを作成する場合を
例にとって図3により説明する。
First, as a first operation example, when the image pattern storage circuit 1, the small area extraction circuit 6, the mask processing circuit 7, and the orthogonal expansion circuit 8 operate, that is, M × N.
An example of inputting an image pattern of a normal format consisting of binary or multi-valued mesh sizes and creating a feature vector will be described with reference to FIG.

【0027】この画像パターン認識処理装置では、2次
元状に画素を配列したような通常形式の画像を処理する
場合には、画像パターン記憶回路1において、まず処理
対象となるM×Nメッシュの大きさの画像パターンI
(x,y)、(x=1,2,...,M;y=1,
2,...,N)を入力する(ステップ101)。そし
て、この画像パターンI(x,y)の濃淡レベルを補正
して、濃淡レベル補正画像I F (x,y)を作成する
(ステップ102)。直交展開回路8で行なう変換行列
を用いたDCTの計算では、濃淡レベルが−128から
127の範囲となるメッシュを対象にするため、濃淡レ
ベル補正画像IF (x,y)の各メッシュの値が−12
8から127の範囲となるように濃淡値のレベルを調整
し、DCT用画像ID (x,y)を作成する(ステップ
103)。
In this image pattern recognition processing device, the secondary
Process a normal format image with pixels originally arranged
In this case, first, in the image pattern storage circuit 1, the processing is performed.
Image pattern I of target M × N mesh size
(X, y), (x = 1, 2, ..., M; y = 1,
2,. . . , N) is input (step 101). Soshi
To correct the gray level of this image pattern I (x, y)
Then, the gray level correction image I F Create (x, y)
(Step 102). Transformation matrix performed by the orthogonal expansion circuit 8
In the DCT calculation using, the gray level is -128
In order to target the mesh in the range of 127,
Bell corrected image IF The value of each mesh of (x, y) is -12
Adjust the gray level so that it is in the range of 8 to 127.
Image for DCT ID Create (x, y) (step
103).

【0028】小領域抽出回路6では、入力された画像パ
ターンの種別に応じた処理を実行する。まず、DCT用
画像ID (x,y)からm×nメッシュの小領域W
(u,v)、(u=1,2,...,m;v=1,
2,...,n)を切り出すために、観測窓の大きさや
個数、位置を設定する(ステップ104)。そして、こ
の設定にしたがい観測窓領域の切り出しのためのパラメ
ータを決定し(ステップ105)、DCT用画像ID
(x,y)から小領域W(u,v)を切り出す(ステッ
プ106)。設定にしたがって切り出した小領域W
(u,v)の実切り出し数と予定切り出し数との比較を
行い、予定した切り出しが終了するまで切り出し処理を
行う(ステップ107)。終了した場合、すべての切り
出し処理の終了判定をおこない、未処理の画像パターン
I(x,y)がある場合には、上記の切り出し処理を行
う(ステップ108)。すべての画像パターンI(x,
y)からの小領域W(u,v)の切り出しの処理が終了
した時点で、マスク処理回路7の動作を開始する。
The small area extraction circuit 6 executes processing according to the type of the input image pattern. First, a small region W of m × n mesh from the DCT image I D (x, y)
(U, v), (u = 1, 2, ..., m; v = 1,
2,. . . , N), the size, number and position of observation windows are set (step 104). Then, the parameters for cutting out the observation window region are determined according to this setting (step 105), and the DCT image I D
A small area W (u, v) is cut out from (x, y) (step 106). Small area W cut out according to the setting
The actual cutout number of (u, v) is compared with the planned cutout number, and the cutout process is performed until the scheduled cutout is completed (step 107). When it is finished, it is determined whether or not all the cutout processing is finished, and when there is an unprocessed image pattern I (x, y), the above cutout processing is performed (step 108). All image patterns I (x,
When the process of cutting out the small area W (u, v) from y) is completed, the operation of the mask processing circuit 7 is started.

【0029】マスク処理回路7でも入力された画像パタ
ーンの種別に応じた処理を実行する。まず、小領域W
(u,v)を入力し、ガウス関数g(u,v)をマスク
パターンとして各メッシュ(u,v)ごとに乗ずる。ガ
ウス関数g(u,v)は小領域W(u,v)の大きさが
w×wメッシュであるとき、次式で表される。
The mask processing circuit 7 also executes processing according to the type of the input image pattern. First, small area W
(U, v) is input, and a Gaussian function g (u, v) is used as a mask pattern and is multiplied for each mesh (u, v). The Gaussian function g (u, v) is expressed by the following equation when the size of the small area W (u, v) is w × w mesh.

【0030】[0030]

【数1】 その結果得られるマスク処理小領域WM (u,v)は次
のように表される。
[Equation 1] The resulting masked small area W M (u, v) is expressed as follows.

【0031】 WM (u,v)=W(u,v)×g(u,v) 次に、マスク処理小領域WM (u,v)を8×8メッシ
ュの画像ブロックB(i,j)、(i=1,2,...
8;j=1,2,...8)に分割する処理を個々のマ
スク処理小領域WM (u,v)を対象におこなう(ステ
ップ110)。たとえば、30×30メッシュの大きさ
のマスク処理小領域WM (u,v)は4行4列に配置し
た8×8メッシュの画像ブロックに分割する。
W M (u, v) = W (u, v) × g (u, v) Next, the mask processing small area W M (u, v) is set to the image block B (i, j), (i = 1, 2, ...
8; j = 1, 2 ,. . . The process of dividing into 8) is performed for each mask processing small area W M (u, v) (step 110). For example, the mask processing small area W M (u, v) having a size of 30 × 30 mesh is divided into image blocks of 8 × 8 mesh arranged in 4 rows and 4 columns.

【0032】分割で生じる端部分を含むブロックを検出
し(ステップ111)、ブロック内の余白メッシュ部分
の処理を行う(ステップ112)。すなわち、30×3
0メッシュの大きさのマスク処理小領域WM (u,v)
を8×8メッシュのブロックに分割した時に生じる6×
8メッシュもしくは8×6メッシュの半端な部分をステ
ップ112で処理する。8×8メッシュのブロックの余
白部分のメッシュの値を、たとえば半端部分のメッシュ
の値の平均値や0とする。
A block including an end portion generated by division is detected (step 111), and a blank mesh portion in the block is processed (step 112). That is, 30 × 3
Masking small area W M (u, v) with a size of 0 mesh
Generated when a block is divided into blocks of 8 × 8 mesh
The odd part of 8 mesh or 8 × 6 mesh is processed in step 112. The mesh value of the blank portion of the 8 × 8 mesh block is set to, for example, the average value of the mesh values of the half edges or 0.

【0033】次に、ブロックB(i,j)に対して、8
行8列の変換行列C(i,j)を用いたDCTを行い、
8×8メッシュのブロックB(i,j)から8行8列の
DCT係数行列DR (i,j)を作成する(ステップ1
13)。8行8列の変換行列C(i,j)の各成分は次
の公知の式で表される(たとえば、データ圧縮ハンドブ
ック、M.ネルソン、萩原訳、プレンティースホールト
ッパン)。
Next, for block B (i, j), 8
Perform DCT using the transformation matrix C (i, j) with 8 rows,
An 8 × 8 DCT coefficient matrix D R (i, j) is created from an 8 × 8 mesh block B (i, j) (step 1
13). Each element of the transformation matrix C (i, j) having 8 rows and 8 columns is represented by the following known formula (for example, Data Compression Handbook, M. Nelson, Hagiwara Translation, Prentice Hall Toppan).

【0034】[0034]

【数2】 ブロックB(i,j)とブロックB(i,j)との行列
の乗算でおこなう。DCTの計算には次の公知の式を用
いる(たとえば、データ圧縮ハンドブック、M.ネルソ
ン 萩原訳、プレンティースホール、トッパン)。
[Equation 2] This is performed by matrix multiplication of the block B (i, j) and the block B (i, j). The following known formulas are used for the calculation of DCT (eg, Data Compression Handbook, M. Nelson Hagiwara, Prentice Hall, Toppan).

【0035】[0035]

【数3】 ここで、Tは行列の転置を、*は行列の乗算を表す。も
ちろん、これらの計算方法はDCTは一例であり、ブロ
ックB(i,j)のDCTに他の計算方法が適用できる
ことはいうまでもない。
(Equation 3) Here, T represents the transpose of the matrix, and * represents the multiplication of the matrix. Of course, DCT is an example of these calculation methods, and it goes without saying that other calculation methods can be applied to the DCT of the block B (i, j).

【0036】8行8列のDCT係数行列DR (i,j)
の各成分は8×8メッシュの量子化テーブルQ(i,
j)を用いて量子化する(ステップ114)。8行8列
のDCT係数行列DR (i,j)に用いる量子化テーブ
ルQ(i,j)は成分ごとに量子化の間隔が調整できる
ように、8×8メッシュの大きさで事前に作成してお
く。たとえば、画像パターン中の空間周波数の分布の偏
りを考慮した、次のような値をもつ公知の8×8メッシ
ュの量子化テーブルQ(i,j)を用いる(たとえば、
マルティメディア符号化の国際標準、安田編、丸善)。
8 × 8 DCT coefficient matrix D R (i, j)
Each component of is a 8 × 8 mesh quantization table Q (i,
Quantize using j) (step 114). The quantization table Q (i, j) used for the DCT coefficient matrix D R (i, j) of 8 rows and 8 columns has a size of 8 × 8 mesh in advance so that the quantization interval can be adjusted for each component. Create it. For example, a known 8 × 8 mesh quantization table Q (i, j) having the following values is used in consideration of the bias of the spatial frequency distribution in the image pattern (for example,
International standard for multimedia coding, edited by Yasuda, Maruzen).

【0037】[0037]

【数4】 もちろん、この8行8列の行列は量子化テーブルQ
(i,j)の一例であり、成分が異なる他の8行8列の
行列が適用できることはいうまでもない。量子化テーブ
ルQ(i,j)によるDCT係数行列のi行j列成分D
(i,j)の量子化処理はつぎのように計算する。
(Equation 4) Of course, this 8 × 8 matrix is the quantization table Q
It is an example of (i, j), and it goes without saying that another matrix of 8 rows and 8 columns having different components can be applied. The i-th row and j-th column component D of the DCT coefficient matrix based on the quantization table Q (i, j)
The quantization process of (i, j) is calculated as follows.

【0038】[0038]

【数5】 ここで、DQ (i,j)は量子化処理後のi行j列の成
分の値を、Round[・]は小数点以下の切り捨てを
表す。
(Equation 5) Here, D Q (i, j) represents the value of the component in the i-th row and the j-th column after the quantization processing, and Round [·] represents the fractional part being rounded down.

【0039】次に、量子化処理後の値DQ (i,j)に
量子化テーブルQ(i,j)を用いて逆量子化処理を行
い、DCT整数係数行列DI (i,j)を作成する(ス
テップ115)。すべてのブロックB(i,j)に対し
てDCT整数係数行列DI (i,j)が作成できた時点
で処理を終了する。DCT整数係数行列のi行j列成分
I (i,j)はDQ (i,j)とQ(i,j)とから
つぎのように計算する。
Next, the value D Q (i, j) after the quantization process is inversely quantized using the quantization table Q (i, j), and the DCT integer coefficient matrix D I (i, j) Is created (step 115). The process ends when the DCT integer coefficient matrix D I (i, j) can be created for all the blocks B (i, j). The i-th row and j-th column component D I (i, j) of the DCT integer coefficient matrix is calculated from D Q (i, j) and Q (i, j) as follows.

【0040】 DI (i,j)=DQ (i,j)×Q(i,j) DCT整数係数行列DI (i,j)は選別用特徴ベクト
ル作成回路11または選別特徴抽出回路9へ送られる。
D I (i, j) = D Q (i, j) × Q (i, j) The DCT integer coefficient matrix D I (i, j) is the selection feature vector creation circuit 11 or the selection feature extraction circuit 9 Sent to.

【0041】次に、第2の動作例として、圧縮画像パタ
ーン記憶回路2、小領域抽出回路6、マスク処理回路
7、直交展開回路8が動作する場合、すなわち、図3の
ステップ115でDCT整数係数行列DI (i,j)を
生成するかわりに、たとえばJPEGのような公知の画
像圧縮手段によって圧縮した圧縮画像パターンZC
(k)を、この画像パターン認識装置に入力し、圧縮画
像ZC (k)からDCT整数係数行列DI (i,j)を
直接抽出する場合を例にとって説明する。
Next, as a second operation example, when the compressed image pattern storage circuit 2, the small area extraction circuit 6, the mask processing circuit 7, and the orthogonal expansion circuit 8 operate, that is, in step 115 of FIG. Instead of generating the coefficient matrix D I (i, j), a compressed image pattern Z C compressed by a known image compression means such as JPEG is used.
An example will be described in which (k) is input to the image pattern recognition apparatus and the DCT integer coefficient matrix D I (i, j) is directly extracted from the compressed image Z C (k).

【0042】はじめに、公知のJPEGの圧縮方法をお
おまかに説明する。JPEGでは、入力画像パターンを
8×8メッシュの大きさに分割する。ついで、8×8メ
ッシュのブロックにDCTを行い、1つのブロックから
8行8列の2次元配列状に配置された64個のDCT係
数を作成する。そして、64個のDCT係数に対して量
子化処理を行なう。さらに、64個の量子化されたDC
T係数にジグザグスキャン処理を行い、係数を一列に配
置する。ついで、一列に並べた係数列に対して、ランレ
ングス符号化、エントロピー符号化処理をおこなう。圧
縮画像の復元は圧縮処理を逆順におこなう。すなわち、
エントロピー復号化、ランレングス復号化、逆ジグザグ
スキャン処理、逆量子化処理、逆DCTの順で復号する
(たとえば、最新MPEG教科書、藤原監、アスキー出
版)。
First, a known JPEG compression method will be roughly described. In JPEG, the input image pattern is divided into 8 × 8 mesh sizes. Then, DCT is performed on the block of 8 × 8 mesh to generate 64 DCT coefficients arranged in a two-dimensional array of 8 rows and 8 columns from one block. Then, the quantization processing is performed on the 64 DCT coefficients. In addition, 64 quantized DC
Zigzag scanning processing is performed on the T coefficient, and the coefficients are arranged in a line. Then, run-length coding and entropy coding processing are performed on the coefficient string arranged in one line. To restore a compressed image, the compression process is performed in reverse order. That is,
Decoding is performed in the order of entropy decoding, run length decoding, inverse zigzag scan processing, inverse quantization processing, and inverse DCT (for example, latest MPEG textbook, Fujiwara Supervisor, ASCII Publishing).

【0043】図3のステップ115でDCT整数係数行
列DI (i,j)を作成する代わりに、圧縮画像パター
ンZC (k)からDCT整数係数行列DI (i,j)を
抽出する場合の動作例について、図4により説明する。
圧縮画像パターン記憶回路2では、はじめに処理対象と
なる圧縮画像ZC (k)を入力する(ステップ20
1)。そして、圧縮画像ZC (k)から、公知のエント
ロピー復号化、ランレングス復号化、逆ジグザグスキャ
ン処理、逆量子化処理を用いてDCT整数係数画像DZ
(x,y)を作成する(ステップ202)。このDCT
整数係数画像DZ (x,y)のメッシュの値はDCT係
数で、大きさは復元画像の大きさに等しい。このDCT
整数係数画像DZ (i,j)を8×8メッシュのブロッ
クに分割し、ブロックごとに逆DCTを施して、変換で
生成される2次元配列をもとのブロック位置に再配置す
れば、DCT整数係数画像DZ (i,j)からもとの復
元画像が生成できる。
When extracting the DCT integer coefficient matrix D I (i, j) from the compressed image pattern Z C (k) instead of creating the DCT integer coefficient matrix D I (i, j) in step 115 of FIG. An example of the above operation will be described with reference to FIG.
In the compressed image pattern storage circuit 2, first, the compressed image Z C (k) to be processed is input (step 20).
1). Then, the DCT integer coefficient image D Z is applied from the compressed image Z C (k) using known entropy decoding, run-length decoding, inverse zigzag scanning process, and inverse quantization process.
(X, y) is created (step 202). This DCT
The mesh value of the integer coefficient image D Z (x, y) is a DCT coefficient and its size is equal to the size of the restored image. This DCT
If the integer coefficient image D Z (i, j) is divided into blocks of 8 × 8 mesh, inverse DCT is applied to each block, and the two-dimensional array generated by the conversion is rearranged at the original block position, The original restored image can be generated from the DCT integer coefficient image D Z (i, j).

【0044】小領域抽出回路6では、入力された画像パ
ターンの種別に応じた手段を実行する。まず、このDC
T整数係数画像DZ (x,y)から8行8列のDCT整
数係数ブロックBI (i,j)を抽出するために、DC
T整数係数画像DZ (i,j)に対して観測窓の大きさ
や個数、位置を設定する(ステップ203)。これは、
図3に示した第1の動作例におけるステップ104の処
理に相当する。次に、観測窓に含まれる8行8列のDC
T整数係数ブロックBI (i,j)をDCT整数係数画
像DZ (x,y)から抽出する(ステップ204)。そ
して、マスク処理回路7においても、入力された画像パ
ターンの種別に応じた手段を実行する。まず、DCT整
数係数ブロックBI (i,j)を入力し、DCTマスク
パターンgD (i,j)を用いてマスク処理を行なう。
これは、第1の動作例におけるステップ109の処理に
相当する。
The small area extraction circuit 6 executes means corresponding to the type of the input image pattern. First, this DC
To extract a DCT integer coefficient block B I (i, j) of 8 rows and 8 columns from the T integer coefficient image D Z (x, y), DC
The size, number, and position of observation windows are set for the T integer coefficient image D Z (i, j) (step 203). this is,
This corresponds to the process of step 104 in the first operation example shown in FIG. Next, DC of 8 rows and 8 columns included in the observation window
The T integer coefficient block B I (i, j) is extracted from the DCT integer coefficient image D Z (x, y) (step 204). Then, the mask processing circuit 7 also executes the means corresponding to the type of the input image pattern. First, the DCT integer coefficient block B I (i, j) is input and mask processing is performed using the DCT mask pattern g D (i, j).
This corresponds to the process of step 109 in the first operation example.

【0045】前記のガウス関数g(u,v)に相当する
DCTマスクパターンgD (i,j)は、あらかじめ以
下の要領で作成しておく。
The DCT mask pattern g D (i, j) corresponding to the Gaussian function g (u, v) is created in advance in the following manner.

【0046】まず、前記のガウス関数g(u,v)を8
×8メッシュのブロックに分割する。ついで、前記の変
換行列C(i,j)を用いてDCTを行なう。次に、前
記の量子化テーブルQ(i,j)を用いて量子化処理を
行ったのちに、量子化テーブルQ(i,j)を用いて逆
量子化する。このようにして作成した8行8列の行列を
DCTマスクパターンgD (i,j)に用いる。
First, the Gaussian function g (u, v) is set to 8
Divide into blocks of × 8 mesh. Then, DCT is performed using the conversion matrix C (i, j). Next, after performing a quantization process using the quantization table Q (i, j), inverse quantization is performed using the quantization table Q (i, j). The matrix of 8 rows and 8 columns created in this way is used for the DCT mask pattern g D (i, j).

【0047】DCTマスクパターンgD (i,j)によ
るDCT整数係数ブロックBI (i,j)のマスク処理
では、DCTマスクパターンgD (i,j)とDCT整
数係数ブロックBI (i,j)を各メッシュ(i,j)
ごとに乗ずる。各メッシュごとの乗算には、公知のDC
T行列の成分どうしの乗算演算を利用する(たとえば、
B.C.Smith and L.A.Rowe,Al
gorithms for Manipulating
Compressed images,IEEE C
omputer Graphics and Appl
ications,pp.34−42,Vol.13,
No.5,Sep.,1993)。乗算の結果、DCT
整数係数行列DI (i,j)を得る(ステップ20
5)。設定にしたがって抽出したDCT整数係数行列D
I (i,j)の実抽出数と予定抽出数との比較を行い、
予定した抽出が終了するまで抽出処理を行う(ステップ
206)。終了した場合、すべての抽出処理の終了判定
をおこない、未処理の圧縮画像ZC (k)がある場合に
は、上記の抽出処理を行う(ステップ207)。すべて
の圧縮画像ZC (k)からのDCT整数係数行列DI
(i,j)の抽出処理が終了した時点で、すべての処理
を終了する。なお、DCT整数係数行列DI (i,j)
は選別用特徴ベクトル作成回路11または選別特徴抽出
回路9に出力する。
[0047] In the mask processing of DCT mask pattern g D where (i, j) by the DCT integer coefficient block B I (i, j) is, DCT mask pattern g D (i, j) and DCT integer coefficients block B I (i, j) for each mesh (i, j)
Take each one. A known DC is used for multiplication for each mesh.
Utilize multiplication operation between components of T matrix (for example,
B. C. Smith and L.M. A. Rowe, Al
gorithms for Manipulating
Compressed images, IEEE C
computer Graphics and Appl
ications, pp. 34-42, Vol. 13,
No. 5, Sep. , 1993). The result of multiplication, DCT
Obtain the integer coefficient matrix D I (i, j) (step 20)
5). DCT integer coefficient matrix D extracted according to the setting
The actual extraction number of I (i, j) is compared with the planned extraction number,
The extraction process is performed until the scheduled extraction is completed (step 206). When the extraction is completed, it is determined whether or not all the extraction processing is completed, and if there is an unprocessed compressed image Z C (k), the above extraction processing is executed (step 207). DCT integer coefficient matrix D I from all compressed images Z C (k)
When the extraction process of (i, j) is completed, all the processes are completed. The DCT integer coefficient matrix D I (i, j)
Is output to the selection feature vector creation circuit 11 or the selection feature extraction circuit 9.

【0048】もちろん、エントロピー復号化、ランレン
グス復号化、逆ジグザグスキャン処理、逆量子化処理を
圧縮画像ZC (k)全体に対して行なうことでDCT整
数係数画像DCT整数係数画像DZ (x,y)を作成
し、DCT整数係数行列DI (i,j)を抽出する上記
の処理は一例であり、エントロピー復号化、ランレング
ス復号化、逆ジグザグスキャン処理、逆量子化処理を圧
縮画像ZC (k)に対して局所的に行ない、DCT整数
係数行列DI (i,j)を抽出するなどの他の方法が適
用できることはいうまでもない。
Of course, entropy decoding, run-length decoding, inverse zigzag scan processing, and inverse quantization processing are performed on the entire compressed image Z C (k) to obtain a DCT integer coefficient image DCT integer coefficient image D Z (x , Y) to extract the DCT integer coefficient matrix D I (i, j) is an example, and entropy decoding, run-length decoding, inverse zigzag scan processing, and inverse quantization processing are performed on compressed images. It goes without saying that other methods such as performing locally on Z C (k) and extracting the DCT integer coefficient matrix D I (i, j) can be applied.

【0049】次に、第3の動作例として、選別用特徴ベ
クトル作成回路11、選別特徴抽出回路9、選別用標準
パターン作成回路12、選別用標準パターン記憶回路1
3、画像認識回路4が動作する場合、すなわち、選別特
徴抽出回路9で使用する選別用特徴ベクトルの構成成分
を決定する場合、および、選別判定回路10で使用する
選別用標準パターン、および画像認識回路4において使
用する標準パターンを作成し、記憶する場合を例にと
り、図5を用いて説明する。
Next, as a third operation example, a selection feature vector creation circuit 11, a selection feature extraction circuit 9, a selection standard pattern creation circuit 12, and a selection standard pattern storage circuit 1.
3. When the image recognition circuit 4 operates, that is, when the constituent components of the selection feature vector used in the selection feature extraction circuit 9 are determined, and the selection standard pattern used in the selection determination circuit 10 and the image recognition An example of creating and storing a standard pattern used in the circuit 4 will be described with reference to FIG.

【0050】はじめに、認識カテゴリに属するか否かで
あることがあらかじめ既知である該画像パターンもしく
は該圧縮画像パターンを用いて小領域抽出回路6で該小
領域を作成し、さらに直交展開回路8で該小領域から作
成したDCT整数係数行列D I (i,j)を選別用特徴
ベクトル作成回路11に入力する(ステップ301)。
選別用特徴ベクトル作成回路11において、DCT整数
係数行列DI (i,j)の(i,j)成分の分散比をつ
ぎのように計算する(ステップ302)。
First, it depends on whether or not it belongs to the recognition category.
The image pattern that is already known to exist
The small area extraction circuit 6 using the compressed image pattern.
An area is created, and then the orthogonal expansion circuit 8 is created from the small area.
Generated DCT integer coefficient matrix D I Features for sorting (i, j)
Input to the vector creating circuit 11 (step 301).
In the selection feature vector creation circuit 11, a DCT integer
Coefficient matrix DI The variance ratio of the (i, j) component of (i, j)
The calculation is performed like a step (step 302).

【0051】[0051]

【数6】 ここで、F(i,j)は(i,j)成分の分散比を、(Equation 6) Here, F (i, j) is the dispersion ratio of the (i, j) component,

【0052】[0052]

【外1】 は認識カテゴリに属すことが既知なDCT整数係数行列
I (i、j)の(i,j)成分に対する平均値および
分散を、
[Outside 1] Is the mean and variance for the (i, j) component of the DCT integer coefficient matrix D I (i, j) known to belong to the recognition category,

【0053】[0053]

【外2】 は認識カテゴリに属さないことが既知なDCT整数係数
行列DI (i,j)の(i,j)成分に対する平均値お
よび分散を表す。
[Outside 2] Represents the mean value and variance for the (i, j) component of the DCT integer coefficient matrix D I (i, j) known not to belong to the recognition category.

【0054】DCT整数係数行列DI (i,j)の成分
のうち、分散比が大きな成分を選択し、選別用特徴ベク
トルFの構成成分とする。なお、選別用特徴ベクトルF
の構成成分の新規作成・更新・変更は認識課題の変更ご
とに行なうことが可能である。さらに、選択する個数の
設定を画像入出力装置5によっておこなう。この設定が
事前にできるのはいうまでもない(ステップ303)。
Among the components of the DCT integer coefficient matrix D I (i, j), the component having a large variance ratio is selected and used as the constituent component of the selection feature vector F. The selection feature vector F
It is possible to newly create, update, or change the constituent components of each of the recognition tasks. Further, the image input / output device 5 sets the selected number. It goes without saying that this setting can be made in advance (step 303).

【0055】選別特徴回路9で該画像パターンまたは該
圧縮画像パターンから小領域抽出回路6で作成したDC
T整数係数行列DI (i,j)を入力し、選別用特徴ベ
クトル作成回路11での決定にしたがって、該DCT整
数係数行列DI (i,j)から選び出した成分を配置し
て、選別用特徴ベクトルF=(f1 ,f2 ,...,f
s ,...,fL )を作成する。成分の選択個数をLに
設定した場合、選別用特徴ベクトルの次元数はL次元と
なる(ステップ304)。たとえば、第1の動作例にお
いて30×30メッシュの大きさで認識カテゴリに属す
るか否かが既知な画像パターンW(u,v)を対象に、
8×8メッシュの大きさの16個のブロックに分割し、
各ブロックから8行8列のDCT整数係数行列DI
(i,j)を作成する。そして、16個のDCT整数係
数行列DI (i,j)の64個の成分について、認識カ
テゴリに属するサンプルと属さないサンプルに対する平
均値と分散をそれぞれの場合について計算し、(i,
j)成分ごとに分散比を計算する(ステップ302)。
64個×16個の分散比の中からLこの大きな分散比を
選択し(ステップ303)、その分散比に対応する成分
により選別用特徴ベクトルFを作成する(ステップ30
4)。もちろん、選別用特徴ベクトルFのこの構成方法
は一例であり、選別用特徴ベクトルFの作成に他の方法
が適用できることはいうまでもない。
DC generated by the small area extraction circuit 6 from the image pattern or the compressed image pattern by the selection feature circuit 9.
The T integer coefficient matrix D I (i, j) is input, and the components selected from the DCT integer coefficient matrix D I (i, j) are arranged according to the determination by the selection feature vector creation circuit 11, and the selection is performed. Feature vector F = (f 1 , f 2 , ..., F
s ,. . . , F L ). When the number of selected components is set to L, the number of dimensions of the selection feature vector is L (step 304). For example, in the first operation example, for the image pattern W (u, v) whose size is 30 × 30 mesh and is known to belong to the recognition category,
Divide into 16 blocks of 8 × 8 mesh size,
DCT integer coefficient matrix D I of 8 rows and 8 columns from each block
Create (i, j). Then, for the 64 components of the 16 DCT integer coefficient matrix D I (i, j), the average value and the variance for samples belonging to the recognition category and samples not belonging to the recognition category are calculated in each case, and (i,
j) Calculate the variance ratio for each component (step 302).
This large variance ratio L is selected from the 64 × 16 variance ratios (step 303), and the selection feature vector F is created by the component corresponding to the variance ratio (step 30).
4). Of course, this method of constructing the selection feature vector F is an example, and it goes without saying that another method can be applied to the creation of the selection feature vector F.

【0056】選別用標準パターン作成回路12では、選
別判定回路10で用いる標準パターンGF を特徴ベクト
ルFから作成する。選別特徴抽出回路9の動作にて作成
した複数個の特徴ベクトルFに対してk−means法
のような公知のクラスタリング手法を適用し、Q個のク
ラスタを計算する(ステップ305)。クラスタの個数
Qは画像入出力装置5を介して、あらかじめ設定された
ものとする。ここでのk−means法はクラスタリン
グの手法の一例であり、クラスタの生成に他のクラスタ
リング手法が適用できることはいうまでもない。
The standard pattern for selection circuit 12 creates a standard pattern G F used in the selection circuit 10 from the feature vector F. A known clustering method such as the k-means method is applied to the plurality of feature vectors F created by the operation of the selection feature extraction circuit 9 to calculate Q clusters (step 305). The number Q of clusters is set in advance via the image input / output device 5. The k-means method here is an example of a clustering method, and it goes without saying that other clustering methods can be applied to the generation of clusters.

【0057】選別判定回路10で用いる標準パターン
は、このクラスタリング処理結果を基に作成する。たと
えば、はじめに、選別用特徴ベクトルFからなるL次元
特徴空間でQ個のクラスタをおおうQL 個のBox形状
をした範囲を設定する。すなわち、クラスタqに対する
選別範囲
The standard pattern used in the selection determination circuit 10 is created based on the result of this clustering processing. For example, first, in the L-dimensional feature space consisting of the selection feature vector F, Q L box-shaped ranges that cover Q clusters are set. That is, the selection range for the cluster q

【0058】[0058]

【外3】 は特徴ベクトルFの成分fs が次の式を満たすように成
分ごとに設定する(ステップ306)。
[Outside 3] Is set for each component so that the component f s of the feature vector F satisfies the following equation (step 306).

【0059】[0059]

【数7】 ここで、Pr{・}は確率を、TB は画像入出力装置5
を介して設定する閾値(0<TB <1)を、αは画像入
出力装置5を介して設定する定数を、
(Equation 7) Here, Pr {•} is the probability, T B is the image input / output device 5
Is a threshold value (0 <T B <1) set via the, and α is a constant set via the image input / output device 5,

【0060】[0060]

【外4】 は第fs 成分に関するクラスタqの平均値と標準偏差を
それぞれ表す。
[Outside 4] Represents the average value and standard deviation of the cluster q with respect to the f s -th component.

【0061】次に、選別用標準パターン作成回路12で
は、選別用特徴ベクトルFの成分f s (s=
1,...,L)に対して、fs が選別範囲
Next, in the standard pattern forming circuit 12 for selection,
Is a component f of the selection feature vector F s (S =
1 ,. . . , L), fs Is the selection range

【0062】[0062]

【外5】 のいずれかに含まれた場合には、ブール変数gs =1を
割り当てる。さもなければ、ブール変数gs =0を割り
当てる。これにより、L次元の選別用特徴ベクトルFか
らLビットの2進数Gを作成する。
[Outside 5] Boolean variable g s = 1 if any of the above is included. Otherwise, assign the Boolean variable g s = 0. As a result, an L-bit binary number G is created from the L-dimensional selection feature vector F.

【0063】学習データの中で認識対象のクラスに属し
た画像パターンもしくは圧縮画像パターンから小領域抽
出回路6で作成した小領域に直交展開回路8を動作させ
て作成したDCT整数係数行列DI (i,j)に対して
ステップ301、302、303、304、305、3
06を動作させることで、Lビットの2進数Gを作成
し、Gの集合GF ={G|認識対象のクラスに属す学習
画像パターンから作成したLビットの2進数}を作成
し、標準パターンとする(ステップ306)。
A DCT integer coefficient matrix D I (D I ) created by operating the orthogonal expansion circuit 8 on the small area created by the small area extraction circuit 6 from the image pattern or compressed image pattern belonging to the class to be recognized in the learning data. i, j) steps 301, 302, 303, 304, 305, 3
By operating 06, an L-bit binary number G is created, and a set G F = {G | L-bit binary number created from a learning image pattern belonging to the class to be recognized} is created, and a standard pattern is created. (Step 306).

【0064】ここで説明したステップ301の動作は、
公知の標準パターン作成方法を応用したものであり、標
準パターン作成方法の一例であって、標準パターン作成
に他の方法が適用できることはいうまでもない(たとえ
ば、有村、萩田:統計的画像認識における画像選別空間
の構成法、PRU95−147、信学技法、199
5)。選別範囲
The operation of step 301 described here is as follows.
This is an application of a known standard pattern creation method, and it is an example of the standard pattern creation method, and it goes without saying that other methods can be applied to the creation of the standard pattern (for example, Arimura, Hagita: Statistical image recognition). Method for Constructing Image Selection Space, PRU95-147, Communication Technique, 199
5). Selection range

【0065】[0065]

【外6】 および標準パターンGF は選別用標準パターン記憶回路
13へ入力し、記憶しておく(ステップ307)。認識
課題の変更にともない選別用特徴ベクトル作成回路11
が動作したことで、選別用特徴ベクトルFの構成成分を
新規作成・更新・変更した場合には、選別用標準パター
ン作成回路12、選別用標準パターン記憶回路13を動
作させることで、該選別範囲
[Outside 6] The standard pattern G F and the standard pattern G F are input to and stored in the selection standard pattern storage circuit 13 (step 307). Selection feature vector creation circuit 11 due to change in recognition task
When the constituent component of the sorting feature vector F is newly created / updated / changed due to the operation of, the sorting standard pattern creating circuit 12 and the sorting standard pattern storage circuit 13 are operated to select the sorting range.

【0066】[0066]

【外7】 および標準パターンGF を新規作成・更新・変更するこ
とは言うまでもない。
[Outside 7] It goes without saying that the standard pattern G F is newly created, updated, and changed.

【0067】選別判定回路10では、画像パターンもし
くは圧縮画像パターンから小領域抽出回路6で作成した
小領域から作成したL次元の選別用特徴ベクトルFを用
いて該小領域が認識対象に類似しているか否かを大まか
に分類する。分類は選別範囲
The selection determining circuit 10 uses the L-dimensional selection feature vector F created from the small area created by the small area extracting circuit 6 from the image pattern or the compressed image pattern to make the small area similar to the recognition target. It is roughly classified whether or not there is. Classification is selection range

【0068】[0068]

【外8】 を用いてL次元の選別用特徴ベクトルFから作成したL
ビットの2進数Gと標準パターンGF とを次の要領で比
較しておこなう(ステップ308)。すなわち、該画像
パターンもしくは該圧縮画像パターンから小領域抽出回
路6で作成した小領域に選別特徴抽出回路9を動作して
作成したL次元の選別用特徴ベクトルFから作成したL
ビットの2進数Gについて、もし、G∈GF ならば、該
小領域は候補画像と判定し、さもなければ、該小領域は
棄却画像と判定する。候補画像と判定された該小領域に
対する該L次元選別用特徴ベクトルFのみが画像認識回
路4へ入力される。すなわち、選別された該小領域に対
応する該L次元選別用特徴ベクトルFを選別特徴ベクト
ルFS とする(ステップ309)。
[Outside 8] L created from the L-dimensional sorting feature vector F using
The binary number G of bits and the standard pattern G F are compared in the following manner (step 308). That is, L created from the L-dimensional screening feature vector F created by operating the screening feature extraction circuit 9 in the small area created by the small area extraction circuit 6 from the image pattern or the compressed image pattern.
For the binary number G of bits, if GεG F , the small area is determined to be a candidate image, and otherwise, the small area is determined to be a rejected image. Only the L-dimensional selection feature vector F for the small area determined as the candidate image is input to the image recognition circuit 4. That is, the L-dimensional sorting feature vector F corresponding to the selected small area is set as the sorting feature vector F S (step 309).

【0069】画像認識回路4では、選別特徴ベクトルF
S を入力し、たとえば公知のベイズ識別則に基づいて認
識処理用に識別関数R(FS )を作成する(ステップ3
10)。すなわち、
In the image recognition circuit 4, the selection feature vector F
Enter the S, for example, to create an identification function R (F S) for recognition processing on the basis of the known Bayesian classifier rule (Step 3
10). That is,

【0070】[0070]

【数8】 ここで、(Equation 8) here,

【0071】[0071]

【外9】 はそれぞれ、認識対象クラスCに属した選別特徴ベクト
ルFS に対する平均ベクトル、共分散行列、および生起
確率を表す。生成した識別関数R(FS )を記憶して、
処理を終了する(ステップ311)。もちろん、ベイズ
識別則に基づく識別関数を用いた認識方法は、選別判定
処理後の認識の一例であり、この他の公知の認識方法が
適用できることはいうまでもない。
[Outside 9] Represent the mean vector, the covariance matrix, and the occurrence probability of the selection feature vector F S belonging to the recognition target class C, respectively. The generated discriminant function R (F S ) is stored,
The process ends (step 311). Of course, it goes without saying that the recognition method using the identification function based on the Bayes identification rule is an example of recognition after the selection determination process, and other known recognition methods can be applied.

【0072】最後に、第4の動作例として、選別特徴抽
出回路9、選別用特徴ベクトル作成回路11、選別判定
回路10、選別用標準パターン記憶回路13、画像認識
回路4が動作する場合、すなわち、第1の動作例によっ
て、M×Nメッシュの大きさの2値または多値からなる
通常形式の画像パターン、もしくは第2の動作例によっ
て、該画像パターンをたとえばJPEGのような公知の
画像圧縮手段によって圧縮した圧縮画像パターンを入力
し、認識結果を表示する場合を例にとって説明する。
Finally, as a fourth operation example, when the selection feature extraction circuit 9, the selection feature vector creation circuit 11, the selection determination circuit 10, the selection standard pattern storage circuit 13, and the image recognition circuit 4 operate, that is, According to the first operation example, an image pattern of a normal format consisting of binary or multi-valued M × N mesh size, or the second operation example, the image pattern is a known image compression such as JPEG. An example will be described in which a compressed image pattern compressed by the means is input and the recognition result is displayed.

【0073】まず、ステップ306で作成した選別範囲First, the selection range created in step 306

【0074】[0074]

【外10】 および該標準パターンGF を選別用標準パターン記憶回
路13より、識別関数R(FS )を画像認識回路4より
入力する(ステップ401)。直交展開回路8よりDC
T整数係数行列DI (i,j)を入力する(ステップ4
02)。選別用特徴ベクトル作成回路11で定めた選別
用特徴ベクトルFの構成成分の指定を選別用特徴ベクト
ル作成回路11から入力する(ステップ403)。構成
成分の指定にしたがい、ステップ304の処理を行い、
DCT整数係数行列DI (i,j)より選別用特徴ベク
トルFを作成する(ステップ404)。選別用特徴ベク
トルFに対して、ステップ308の処理をおこない、選
別用特徴ベクトルFより選別判定の処理を行なう(ステ
ップ405)。判定結果が棄却画像の場合には(ステッ
プ406)、すべてのDCT整数係数行列DI (i,
j)に対する処理が終了したかどうかを判定し(ステッ
プ407)、すべてを処理した場合には終了する。未処
理のDCT整数係数行列DI (i,j)がある場合に
は、未処理のDCT整数係数行列DI (i,j)を入力
するためにステップ402へ戻り、処理を繰り返す。判
定結果が候補画像の場合には(ステップ406)、該当
する特徴ベクトルFを識別関数R(FS )を用いて認識
し(ステップ408)、認識の結果を画像入出力装置5
へ出力し、表示する(ステップ409)。すべてのDC
T整数係数行列DI (i,j)に対する処理が終了した
かどうかを判定し(ステップ410)、すべてを処理し
た場合には終了する。さもなければ、未処理のDCT整
数係数行列DI (i,j)を入力するためにステップ4
02へ戻り、処理を繰り返す。
[Outside 10] Further, the standard pattern G F is inputted from the standard pattern storage circuit 13 for selection, and the discrimination function R (F S ) is inputted from the image recognition circuit 4 (step 401). DC from orthogonal expansion circuit 8
Input the T integer coefficient matrix D I (i, j) (step 4
02). The designation of the constituent components of the selection feature vector F determined by the selection feature vector creation circuit 11 is input from the selection feature vector creation circuit 11 (step 403). According to the designation of the component, the process of step 304 is performed,
A selection feature vector F is created from the DCT integer coefficient matrix D I (i, j) (step 404). The process of step 308 is performed on the selection feature vector F, and the selection determination process is performed from the selection feature vector F (step 405). If the determination result is a rejected image (step 406), all DCT integer coefficient matrices D I (i,
It is judged whether or not the process for j) is completed (step 407), and if all are processed, the process is completed. If there is an unprocessed DCT integer coefficients matrix D I (i, j), the process returns to step 402 to input the raw DCT integer coefficients matrix D I (i, j), the process is repeated. If the determination result is a candidate image (step 406), the corresponding feature vector F is recognized using the discriminant function R (F S ) (step 408), and the recognition result is the image input / output device 5
Output to and displayed (step 409). All DC
It is determined whether the processing for the T integer coefficient matrix D I (i, j) is completed (step 410), and if all are processed, the processing is completed. Otherwise, step 4 to input the raw DCT integer coefficient matrix D I (i, j)
Returning to 02, the process is repeated.

【0075】上記第1、第2、第3および第4の動作例
において、画像入出力装置5から選別判定処理もしくは
認識処理の結果に応じて、適宜、各回路の設定値を変更
することで各回路の動作を調整することは可能である。
In the above first, second, third and fourth operation examples, the setting values of the respective circuits can be changed as appropriate according to the result of the selection judgment process or the recognition process from the image input / output device 5. It is possible to adjust the operation of each circuit.

【0076】このように、上記第1、第2、第3および
第4の動作例によれば、画像パターン記憶回路1、圧縮
画像パターン記憶回路2、小領域抽出回路5、マスク処
理回路7、直交展開回路8を備えるので、M×Nメッシ
ュの大きさの2値または多値からなる通常形式の画像パ
ターン、もしくは該画像パターンをたとえばJPEGの
ような公知の画像圧縮手段によって圧縮した圧縮画像パ
ターンの両方の認識処理が可能になる。また、画像パタ
ーンからの特徴ベクトルの作成のために直交展開法とし
て、高速計算が可能な変換行列を用いたDCTを用いた
ために、他の直交展開法を使用する場合に比べ高速処理
が可能となり、処理効率が向上する。特に、特徴ベクト
ルの作成に8×8メッシュに分割したブロックを離散コ
サイン変換する方法を用いることで、特徴ベクトルの作
成処理を公知のJPEG形式の圧縮方式に準拠させ、公
知のJPEG形式の復元方式の一部を特徴ベクトルの作
成に利用できるようにしたことで、該圧縮画像パターン
を対象とした処理では、該圧縮画像パターンの復元処理
の一部を省くことができるために、処理の効率が著しく
向上する。
As described above, according to the first, second, third and fourth operation examples, the image pattern storage circuit 1, the compressed image pattern storage circuit 2, the small area extraction circuit 5, the mask processing circuit 7, Since the orthogonal expansion circuit 8 is provided, an image pattern of a normal format consisting of binary or multi-valued M × N mesh size, or a compressed image pattern obtained by compressing the image pattern by a known image compression means such as JPEG. Both recognition processes can be performed. In addition, since the DCT using the transform matrix capable of high-speed calculation is used as the orthogonal expansion method for creating the feature vector from the image pattern, high-speed processing becomes possible as compared with the case of using other orthogonal expansion methods. , The processing efficiency is improved. In particular, by using a method of performing a discrete cosine transform of a block divided into 8 × 8 meshes to create a feature vector, the process of creating a feature vector conforms to a known JPEG compression method, and a known JPEG decompression method. Since a part of the compressed image pattern can be used to create a feature vector, a part of the compressed image pattern restoration process can be omitted in the process for the compressed image pattern, which improves the processing efficiency. Remarkably improved.

【0077】また、選別判定回路10、画像認識回路4
を備えることで、画像パターンを大まかに分類し、さら
に詳細に認識する、大分類、認識の2段階処理を含む多
段階の認識によって画像パターンを認識するために、認
識速度および認識精度において性能が高い画像パターン
認識装置を実現できる。
Further, the selection judgment circuit 10 and the image recognition circuit 4
Since the image patterns are roughly classified and recognized in more detail, the image patterns are recognized by multi-step recognition including two-step processing of large classification and recognition. Therefore, performance in recognition speed and recognition accuracy is improved. A high image pattern recognition device can be realized.

【0078】[0078]

【発明の効果】以上説明したように本発明は、下記のよ
うな効果がある。 (1)請求項1の発明は、2値または多値からなる画像
パターン、および該画像パターンをたとえば、JPEG
形式のような公知の画像圧縮手段によって圧縮した圧縮
画像パターンを入力し、記憶する手段と、該画像パター
ンおよび該圧縮画像パターンから複数の小領域を抽出す
る手段と、処理小領域が認識対象に類似しているか否か
の2つのカテゴリに大まかに分類する選別用特徴ベクト
ルを作成する選別特徴抽出手段と、該選別用特徴ベクト
ルを基に、該処理小領域が認識対象に類似しているかい
なかの2つのカテゴリに大まかに分類する選別判定手段
と、該選別判定手段で認識対象に類似していると判定さ
れた該処理小領域のみを、該選別用特徴ベクトルを基に
認識対象カテゴリに分類する手段を備えることにより、
多段階処理による画像認識処理において、入力画像の形
式がM×Nメッシュの大きさの2値または多値からなる
通常形式の画像パターン、もしくは該画像パターンをた
とえばJPEGのような公知の画像圧縮手段によって圧
縮した圧縮画像パターンであるかを利用者が意識するこ
となく処理することが可能になる。 (2)請求項3の発明は、マスク処理小領域に適用する
直交展開手段に、変換行列の行列演算によるDCTを用
いるようにしたことにより、変換行列の成分を認識課題
の変更にかかわらず同じ数式で定義できるようになった
ために、主成分分析法のような公知の他の直交展開法で
は認識課題の変更のたびに必要であった学習サンプルを
もとに変換行列を作成する事前処理変換行列を作成する
ための事前処理が省け、変換行列の作成時間が短縮で
き、そのうえ、作成した変換行列を記憶する場合には、
その数式もしくはその数式より作成した変換行列を記憶
すればよいのに対し、主成分分析法のような公知の他の
直交展開法では、認識課題の変更のたびに変換行列の成
分のすべてを記憶する必要がある。つまり、変換行列の
行列演算によるDCTを用いたことで、画像パターン認
識処理装置における変換行列の記憶容量が小型化が可能
となる効果がある。さらに、直交展開手段に変換行列の
行列演算によるDCTを用いることができるようにした
ことで、たとえばJPEGのような公知の画像圧縮手段
の一部が利用できるので、公知の画像圧縮手段によって
圧縮された画像を入力した場合には、この圧縮画像を部
分的に復元するだけで特徴ベクトルを得ることができる
ため、圧縮画像から特徴ベクトルを作成する場合に、圧
縮画像を完全に復元画像にあらためて直交展開法を適用
して特徴ベクトルを作成する場合にくらべて、特徴ベク
トルの作成が高速に行なえる効果がある。 (3)請求項5の発明は、選別判定手段で使用する選別
用特徴ベクトルを選別判定手段に有効な成分で認識対象
ごとに構成し、かつ認識課題の変更にともない該選別用
特徴ベクトル作成手段を動作させることで、選別用特徴
ベクトルの構成成分の新規作成・更新・変更できる選別
用特徴ベクトル作成手段と、選別用特徴ベクトル作成手
段の設定に従い作成した選別用特徴ベクトルを基に該選
別判定手段で用いる選別用標準パターンを作成する選別
用標準パターン作成手段と、該選別用標準パターンを記
憶する選別用標準パターン記憶手段を有し、選別用特徴
ベクトルを新規作成・更新・変更した場合には、選別用
標準パターンを新規作成・更新・変更することで、認識
対象ごとに選別用特徴ベクトル、および選別用標準パタ
ーンを自動的に新規作成し、追加、更新できるようにし
たため、認識対象の変更にともなう利用者の作業負担を
軽減できる効果がある。
As described above, the present invention has the following effects. (1) According to the invention of claim 1, a binary or multi-valued image pattern and the image pattern are, for example, JPEG.
A means for inputting and storing a compressed image pattern compressed by a known image compression means such as a format, a means for extracting the image pattern and a plurality of small areas from the compressed image pattern, and a processing small area as a recognition target. Selection feature extraction means for creating a selection feature vector for roughly classifying into two categories of similarity and whether the processing small region is similar to the recognition target based on the selection feature vector. The classification determining means for roughly classifying into the two categories, and only the processing small area determined to be similar to the recognition target by the classification determining means are classified into the recognition target category based on the classification feature vector. By providing a means for
In the image recognition processing by the multi-step processing, an image pattern of a normal format in which the format of an input image is binary or multi-valued having a size of M × N mesh, or a known image compression means such as JPEG is used for the image pattern. By this, it becomes possible for the user to process the compressed image pattern without being aware of it. (2) The invention according to claim 3 uses the DCT by the matrix operation of the transformation matrix for the orthogonal expansion means applied to the mask processing small area, so that the components of the transformation matrix are the same regardless of the change of the recognition task. Since it can be defined by a mathematical formula, in other known orthogonal expansion methods such as the principal component analysis method, a transformation matrix is created based on the learning sample that is required every time when the recognition task is changed. The pre-processing for creating the matrix can be omitted, the creation time of the conversion matrix can be shortened, and moreover, when storing the created conversion matrix,
While it is sufficient to store the equation or the transformation matrix created from the equation, in other known orthogonal expansion methods such as the principal component analysis method, all the elements of the transformation matrix are stored every time the recognition task is changed. There is a need to. That is, by using the DCT by the matrix calculation of the conversion matrix, there is an effect that the storage capacity of the conversion matrix in the image pattern recognition processing device can be reduced. Further, since the DCT by the matrix operation of the transformation matrix can be used for the orthogonal expansion means, a part of the known image compression means such as JPEG can be used, so that the image is compressed by the known image compression means. When a compressed image is input, the feature vector can be obtained by only partially restoring the compressed image. Therefore, when creating the feature vector from the compressed image, the compressed image is completely orthogonal to the restored image. Compared with the case where the expansion method is applied to create the feature vector, there is an effect that the feature vector can be created faster. (3) According to the invention of claim 5, the sorting feature vector used in the sorting determination means is configured for each recognition target with a component effective in the sorting determination means, and the sorting feature vector creating means is associated with a change in the recognition task. By operating the selection feature vector creation means capable of newly creating / updating / changing the constituent components of the selection feature vector, and the selection determination based on the selection feature vector created according to the setting of the selection feature vector creation means. When a standard feature pattern for selection is newly created / updated / changed, the standard pattern selection means for creating a standard pattern for selection used in the means and the standard pattern storage means for selection that stores the standard pattern for selection are provided. Automatically creates new sorting feature vectors and sorting standard patterns for each recognition target by creating, updating, and changing new sorting standard patterns. To create, add, because you have to be able to update, there is an effect that can reduce the work load on the user due to the change of the recognition target.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態の画像パターン認識装置の
構成図である。
FIG. 1 is a configuration diagram of an image pattern recognition device according to an embodiment of the present invention.

【図2】図1の画像選別回路3の構成図である。FIG. 2 is a configuration diagram of an image selection circuit 3 in FIG.

【図3】図1の画像パターン認識装置において、M×N
メッシュの大きさの2値または多値からなる通常形式の
画像パターンを入力して特徴ベクトルを作成する処理の
フローチャートである。
3 is a diagram illustrating an image pattern recognition apparatus of FIG.
7 is a flowchart of a process of creating a feature vector by inputting a normal-format image pattern having binary or multi-valued mesh sizes.

【図4】図1の画像パターン認識装置において、入力画
像の形式がM×Nメッシュの大きさの2値または多値か
らなる通常形式の画像パターンをたとえばJPEGのよ
うな公知の画像圧縮手段によって圧縮した圧縮画像パタ
ーン特徴ベクトルを作成する処理のフローチャートであ
る。
FIG. 4 is a diagram showing an image pattern recognition apparatus of FIG. 1 in which an input image format is a normal format image pattern consisting of binary or multi-valued M × N mesh size by a known image compression means such as JPEG. It is a flow chart of processing which creates a compressed compressed image pattern feature vector.

【図5】図1の画像パターン認識装置において、図3も
しくは図4のフローチャートに示す手順で作成した特徴
ベクトルを入力し、特徴ベクトルの成分のうち選別判定
処理に有効な成分を選び選別用特徴ベクトルを作成し、
選別判定処理や画像認識処理で用いる標準パターンや辞
書テーブルを作成するフローチャートである。
FIG. 5 is a diagram showing an image pattern recognition device of FIG. 1 in which a feature vector created by the procedure shown in the flowchart of FIG. 3 or 4 is input, and a component effective in the selection determination process is selected from the components of the feature vector. Create a vector,
9 is a flowchart for creating a standard pattern and a dictionary table used in the selection determination process and the image recognition process.

【図6】図1の画像パターン認識装置において、図3も
しくは図4のフローチャートに示す手順で作成した特徴
ベクトルを基に認識結果を表示する処理のフローチャー
トである。
6 is a flowchart of a process of displaying a recognition result based on the feature vector created by the procedure shown in the flowchart of FIG. 3 or 4 in the image pattern recognition apparatus of FIG.

【符号の説明】[Explanation of symbols]

1 画像パターン記憶回路 2 圧縮画像パターン記憶回路 3 画像選別回路 4 画像認識回路 5 画像入出力装置 6 小領域抽出回路 7 マスク処理回路 8 直交展開回路 9 選別特徴抽出回路 10 選別判定回路 11 選別用特徴ベクトル作成回路 12 選別用標準パターン作成回路 13 選別用標準パターン記憶回路 101〜115、201〜207、301〜311、4
01〜410 ステップ
DESCRIPTION OF SYMBOLS 1 image pattern storage circuit 2 compressed image pattern storage circuit 3 image selection circuit 4 image recognition circuit 5 image input / output device 6 small area extraction circuit 7 mask processing circuit 8 orthogonal expansion circuit 9 selection feature extraction circuit 10 selection determination circuit 11 selection feature Vector creation circuit 12 Standard pattern creation circuit for selection 13 Standard pattern storage circuit 101 for selection 201-207, 301-311, 4
01-410 steps

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 大分類、認識の2段階処理を含む多段階
処理によって画像パターンを認識する画像パターン認識
装置において、 2値または多値からなる画像パターンを入力し、記憶す
る画像パターン記憶手段と、 前記画像パターンを圧縮した圧縮画像パターンを入力
し、記憶する圧縮画像パターン記憶手段と、 該画像パターンまたは該圧縮画像パターンから画像中の
複数の小領域を抽出する小領域抽出手段と、 該小領域が認識対象に類似しているか否かの2つのカテ
ゴリに分類するための選別用特徴ベクトルを作成する選
別特徴抽出手段と、 該選別特徴抽出手段によって得られた該選別用特徴ベク
トルをあらかじめ用意してある選別用標準パターンと照
合して相関値を求め、該相関値をもとに、該小領域が認
識対象に類似しているか否かの2つのカテゴリに分類す
る選別判定手段と、 該選別判定手段によって認識対象に類似していると判定
された該小領域だけを、複数の認識対象カテゴリに分類
する画像認識手段と、 前記認識判定手段の分類結果を表示し、もしくは前記各
手段が適切に動作するために設定される調整値を入力す
るための画像入出力手段を有することを特徴とする画像
パターン認識装置。
1. An image pattern recognition device for recognizing an image pattern by multi-step processing including two-step processing of large classification and recognition, and an image pattern storage means for inputting and storing a binary or multi-valued image pattern. A compressed image pattern storing means for inputting and storing a compressed image pattern obtained by compressing the image pattern; a small area extracting means for extracting the image pattern or a plurality of small areas in the image from the compressed image pattern; A selection feature extraction unit for creating a selection feature vector for classifying into two categories depending on whether the region is similar to the recognition target, and the selection feature vector obtained by the selection feature extraction unit are prepared in advance. A correlation value is obtained by collating with a selected standard pattern for selection, and whether or not the small area is similar to the recognition target is determined based on the correlation value. A selection determining unit that classifies the categories into one category; an image recognition unit that classifies only the small area that is determined to be similar to the recognition target by the selection determining unit into a plurality of recognition target categories; An image pattern recognition apparatus comprising image input / output means for displaying a classification result or for inputting an adjustment value set for the respective means to operate properly.
【請求項2】 前記小領域抽出手段で抽出された小領域
の濃淡レベルを、あらかじめ定められた濃淡レベルの範
囲内になるように補正し、かつあらかじめ定められた画
像フィルタによってマスク処理を行なうマスク処理手段
を有する、請求項1記載の画像パターン認識装置。
2. A mask that corrects a gray level of a small area extracted by the small area extraction unit so as to be within a range of a predetermined gray level, and performs mask processing by a predetermined image filter. The image pattern recognition device according to claim 1, further comprising processing means.
【請求項3】 変換行列の行列演算によるDCTを用い
て、マスク処理された小領域に直交展開を適用し、特徴
ベクトルを作成する直交展開手段を有する、請求項2記
載の画像パターン認識装置。
3. The image pattern recognition apparatus according to claim 2, further comprising an orthogonal expansion means for applying a orthogonal expansion to the masked small area by using a DCT by a matrix operation of a conversion matrix to create a feature vector.
【請求項4】 前記直交展開手段で作成された特徴ベク
トルを入力し、該特徴ベクトルの成分から、マスク処理
された小領域が認識対象に類似しているか否かを大まか
に分類する選別処理に有効な成分を選び、選別用特徴ベ
クトルを構成する方法を認定する選別用特徴ベクトル作
成手段を有し、前記選別特徴抽出手段は前記特徴ベクト
ルを前記直交展開手段より入力し、前記選別用特徴ベク
トルの構成方法を前記選別用特徴ベクトル作成手段より
入力し、前記構成方法にしたがい前記特徴ベクトルから
選別用特徴ベクトルを作成する、請求項3記載の画像パ
ターン認識装置。
4. A selection process for inputting a feature vector created by the orthogonal expansion means and roughly classifying whether or not the masked small region is similar to the recognition target from the components of the feature vector. A selection feature vector creating means for selecting a valid component and recognizing a method of constructing a selection feature vector, wherein the selection feature extraction means inputs the feature vector from the orthogonal expansion means, 4. The image pattern recognition apparatus according to claim 3, wherein said configuration method is input from said selection feature vector creating means, and a selection feature vector is created from said feature vector according to said configuration method.
【請求項5】 前記選別特徴抽出手段で作成された選別
用特徴ベクトルを入力し、該選別用特徴ベクトルから選
別用標準パターンを作成する選別用標準パターン作成手
段と、該選別用標準パターンを記憶する選別用標準パタ
ーン記憶手段を有する、請求項4記載の画像パターン認
識装置。
5. A sorting standard pattern creating unit for inputting a sorting feature vector created by the sorting feature extracting unit and creating a sorting standard pattern from the sorting feature vector, and storing the sorting standard pattern. The image pattern recognition apparatus according to claim 4, further comprising a standard pattern storage means for selection.
JP8152439A 1996-06-13 1996-06-13 Picture pattern recognizing device Pending JPH09330407A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8152439A JPH09330407A (en) 1996-06-13 1996-06-13 Picture pattern recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8152439A JPH09330407A (en) 1996-06-13 1996-06-13 Picture pattern recognizing device

Publications (1)

Publication Number Publication Date
JPH09330407A true JPH09330407A (en) 1997-12-22

Family

ID=15540564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8152439A Pending JPH09330407A (en) 1996-06-13 1996-06-13 Picture pattern recognizing device

Country Status (1)

Country Link
JP (1) JPH09330407A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002021333A1 (en) * 2000-09-06 2002-03-14 Nec Corporation Image searching device
JP2002183145A (en) * 2000-12-12 2002-06-28 Nec Corp Image retrieval system and its image retrieving method, and storage medium with recorded image retrieving program
US7356190B2 (en) 2002-07-02 2008-04-08 Canon Kabushiki Kaisha Image area extraction method, image reconstruction method using the extraction result and apparatus thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197811A (en) * 1992-01-22 1993-08-06 Mitsubishi Heavy Ind Ltd Pattern recognizing device
JPH05298452A (en) * 1992-04-20 1993-11-12 Mitsubishi Heavy Ind Ltd Pattern recognizing device
JPH06231254A (en) * 1993-02-03 1994-08-19 Kokusai Denshin Denwa Co Ltd <Kdd> High-speed recognition and retrieval method for moving image
JPH0793551A (en) * 1993-09-28 1995-04-07 Nippon Telegr & Teleph Corp <Ntt> Picture pattern recognition processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197811A (en) * 1992-01-22 1993-08-06 Mitsubishi Heavy Ind Ltd Pattern recognizing device
JPH05298452A (en) * 1992-04-20 1993-11-12 Mitsubishi Heavy Ind Ltd Pattern recognizing device
JPH06231254A (en) * 1993-02-03 1994-08-19 Kokusai Denshin Denwa Co Ltd <Kdd> High-speed recognition and retrieval method for moving image
JPH0793551A (en) * 1993-09-28 1995-04-07 Nippon Telegr & Teleph Corp <Ntt> Picture pattern recognition processor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002021333A1 (en) * 2000-09-06 2002-03-14 Nec Corporation Image searching device
JP2002082985A (en) * 2000-09-06 2002-03-22 Nec Corp Device and method for retrieving picture and storage medium with picture retrieval program recorded thereon
JP2002183145A (en) * 2000-12-12 2002-06-28 Nec Corp Image retrieval system and its image retrieving method, and storage medium with recorded image retrieving program
US7006689B2 (en) 2000-12-12 2006-02-28 Nec Corporation Image search system and image search method thereof
US7356190B2 (en) 2002-07-02 2008-04-08 Canon Kabushiki Kaisha Image area extraction method, image reconstruction method using the extraction result and apparatus thereof
US7542615B2 (en) 2002-07-02 2009-06-02 Canon Kabushiki Kaisha Image area extraction method, image reconstruction method using the extraction result and apparatus thereof

Similar Documents

Publication Publication Date Title
US7174044B2 (en) Method for character recognition based on gabor filters
Eickeler et al. Recognition of JPEG compressed face images based on statistical methods
US6778697B1 (en) Color image processing method and apparatus thereof
CN110322445B (en) Semantic segmentation method based on maximum prediction and inter-label correlation loss function
CN110348357A (en) A kind of fast target detection method based on depth convolutional neural networks
CN111898461B (en) Time sequence behavior segment generation method
JP3634266B2 (en) Color video processing method and apparatus
JPH06231254A (en) High-speed recognition and retrieval method for moving image
CN113870283A (en) Image matting method and device, computer equipment and readable storage medium
KR100671099B1 (en) Method for comparing similarity of two images and method and apparatus for searching images using the same
KR100312331B1 (en) System and method for searching image based on contents
Feng et al. Sub clustering K-SVD: size variable dictionary learning for sparse representations
JPH1139325A (en) Similarity retrieval method and system therefor
Matsuda et al. A Lossless Image Coding Method Based on Probability Model Optimization
Peng et al. Robust sparse nonnegative matrix factorization based on maximum correntropy criterion
CN113011444B (en) Image identification method based on neural network frequency domain attention mechanism
JPH09330407A (en) Picture pattern recognizing device
CN118096799B (en) Hybrid weakly-supervised wafer SEM defect segmentation method and system
Bhardwaj et al. An Intelligent Multi-resolution and Co-occuring local pattern generator for Image Retrieval
JP4652698B2 (en) Image recognition apparatus, image recognition method, and program
CN113642515B (en) Pedestrian recognition method and device based on gesture association, electronic equipment and medium
US20020150301A1 (en) Video image searching method and apparatus
CN113221676B (en) Target tracking method and device based on multidimensional features
Hassairi et al. Sparse representation of images using substitution of wavelet by patches
CN112417249B (en) Data extraction method, system, device and computer readable storage medium

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040317