[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2849256B2 - Image recognition device - Google Patents

Image recognition device

Info

Publication number
JP2849256B2
JP2849256B2 JP3344489A JP34448991A JP2849256B2 JP 2849256 B2 JP2849256 B2 JP 2849256B2 JP 3344489 A JP3344489 A JP 3344489A JP 34448991 A JP34448991 A JP 34448991A JP 2849256 B2 JP2849256 B2 JP 2849256B2
Authority
JP
Japan
Prior art keywords
image
block
calculated
block size
representative value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3344489A
Other languages
Japanese (ja)
Other versions
JPH05174149A (en
Inventor
信 小杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3344489A priority Critical patent/JP2849256B2/en
Publication of JPH05174149A publication Critical patent/JPH05174149A/en
Application granted granted Critical
Publication of JP2849256B2 publication Critical patent/JP2849256B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、入力された自然画像の
中から目的とする画像を精度よく探索し、対象を特定す
るようにした画像認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognizing apparatus which searches for a target image from input natural images with high accuracy and specifies an object.

【0002】[0002]

【従来の技術】代表的な自然画像は濃淡あるいはカラー
画像であるが、自然画像の中から目的とする画像を検出
し認識するため、従来は、画像の形状に注目し、形状情
報を特徴として入力画像内から特徴の一致する候補を探
出・認識するものであった。しかし、自然画像の中から
正しい形状を抽出することは至難であり、従来は、対象
物体と背景の切り分けのため、背景を事前学習したりす
ること、あるいは背景は一様なものに制限すること、線
分を抽出し易くするため人工的な剛物体などに対象を制
限すること、など種々の制約条件を課していた。
2. Description of the Related Art A typical natural image is a gray-scale image or a color image. However, in order to detect and recognize a target image from the natural image, conventionally, attention has been paid to the shape of the image, and the shape information is characterized. In this method, candidates having the same characteristics are searched for and recognized from the input image. However, it is difficult to extract the correct shape from a natural image.Conventionally, in order to separate the target object from the background, it is necessary to pre-learn the background or limit the background to a uniform one. And various restrictions such as restricting the target to artificial rigid objects or the like in order to easily extract line segments.

【0003】[0003]

【発明が解決しようとする課題】目的の画像の有無の検
知でさえこのような困難が伴っており、まして自然画像
において対象物の正確な位置や大きさをつかむことは不
可能に近かった。
Even the detection of the presence or absence of a target image is accompanied by such difficulties, and it is almost impossible to grasp the exact position and size of a target object in a natural image.

【0004】即ち、任意の自然画像の中から対象物を正
確に抽出することは至難のことであり、このため、実用
上、制約が多く有用性に難があった。本発明は、上記の
さまざまな制約条件を緩和し、目的とする画像を画面内
のどこにあるか正確に求め、この結果に基づき対象を認
識できるようにすることを目的としている。
That is, it is extremely difficult to accurately extract a target object from an arbitrary natural image, and therefore, there are many restrictions in practical use, and the usefulness is difficult. SUMMARY OF THE INVENTION It is an object of the present invention to alleviate the above-mentioned various constraints, to accurately determine a target image in a screen, and to recognize a target based on the result.

【0005】[0005]

【課題を解決するための手段】本発明においては、対象
の特徴を形状ではなく粗い解像度の濃淡あるいはカラー
情報を用いる。即ち、リンカーンのモザイク画像からリ
ンカーンが識別できるように、解像度を大きく落とした
画像でも、対象の特徴を表現できることを根拠としてい
る。
According to the present invention, a feature of an object is not a shape but a shade of coarse resolution or color information. That is, it is based on the fact that the feature of the target can be expressed even in an image with a greatly reduced resolution so that Lincoln can be identified from the Lincoln mosaic image.

【0006】具体的には、認識対象となる物体画像を粗
くモザイク化し、これを探索時の対象画像の特徴として
用いて、未知画像を走査しおおよその位置と大きさとを
見つける。次に、認識対象となる物体画像を細かくモザ
イク化し、これを用いて、既に得られた大まかな位置付
近を走査し正確な位置と大きさとを見つける。さらに、
認識対象物体画像を細かくモザイク化し、すでに得られ
た未知画像中の位置と大きさとを得ている領域のモザイ
クと上記先の認識対象物体画像を細かくモザイクしたデ
ータのマッチングにより対象画像を認識する。
More specifically, an object image to be recognized is roughly converted into a mosaic, and using this as a feature of the target image at the time of searching, an unknown image is scanned to find an approximate position and size. Next, the object image to be recognized is finely tessellated, and by using this, the vicinity of the already obtained rough position is scanned to find the correct position and size. further,
The recognition target object image is finely mosaiced, and the target image is recognized by matching the mosaic of the region in which the position and the size of the already obtained unknown image have been obtained with the data obtained by finely mosaicing the previous recognition target object image.

【0007】[0007]

【作用】このように画像を数段階でモザイク化すること
により、任意の画面中から対象を正確に探し出し、さら
に認識することが容易に可能となる。
By mosaicizing an image in several stages in this manner, it is possible to easily search for an object from an arbitrary screen, and to easily recognize the object.

【0008】[0008]

【実施例】以下、本発明の一実施例について図面により
説明する。図1は本発明における画像認識を行う一実施
例を示す図であり、図2は図1に示す粗探索部の構成、
図3は図1に示す詳細探索部の構成、図4は図1に示す
認識部の構成を示す。また図5と図6とは一緒になって
1つの図を表しており探索対象画像あるいは未知画像を
モザイク化し、未知画像の中から目的の対象を探索・認
識する過程を説明する図である。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an embodiment for performing image recognition according to the present invention. FIG. 2 is a diagram showing a configuration of a coarse search unit shown in FIG.
3 shows the configuration of the detailed search unit shown in FIG. 1, and FIG. 4 shows the configuration of the recognition unit shown in FIG. FIG. 5 and FIG. 6 together show a single figure, which is a diagram for explaining a process of converting a search target image or an unknown image into a mosaic, and searching and recognizing a target object from the unknown image.

【0009】図1において1は認識対象画像入力部であ
り、TVカメラあるいはスキャナなどを用い、認識対象
となる物体、例えば人物であれば典型的な人物の顔画像
を取り込み、粗探索部100へ、具体的には、図2の粗
探索対象画像バッファ101へ入力する。したがって、
当該バッファ101の内容は濃淡あるいはカラーで表さ
れる画素の集合である。
In FIG. 1, reference numeral 1 denotes a recognition target image input unit which captures a face image of an object to be recognized, for example, a typical person in the case of a person, using a TV camera or a scanner. Specifically, it is input to the coarse search target image buffer 101 in FIG. Therefore,
The content of the buffer 101 is a set of pixels represented by shading or color.

【0010】この認識対象画像を行列F=[f]で表
し、図5、図6のように、これをWa画素×Wa画素の
サイズのブロックでM×Nに分割し、このモザイク画像
FCの各ブロックをブロック内の例えば濃淡ならば
ブロック内平均値、カラーならばブロック内で最大の頻
度を有する色で表す。なお当該ブロック内平均値やブロ
ック内での最大の頻度を有する色などによって代表され
る値を「代表値」と称することにし、複数の画像の対応
するブロックについての複数ブロック間での「平均値」
と区別して表現する。
This recognition target image is represented by a matrix F = [f]. As shown in FIGS. 5 and 6, this is divided into M × N by a block of Wa pixels × Wa pixels. each block represents a color having in the block, for example, if gray block average value, the maximum frequency in the block if the color. Note that the average value in the block
Represented by the color with the highest frequency in the
Values are referred to as “representative values,”
"Average value" of multiple blocks for multiple blocks
And expressed separately.

【0011】粗探索対象画像モザイク化部102は、前
記バッファ101の画像をモザイク化し、粗探索対象画
像辞書103に蓄積する。なお、必要ならば、複数の探
索対象、この例では複数の顔画像の平均値をとり、代表
的な顔のモザイクデータとするか、複数の粗探索対象画
像を用意してもよい。
The coarse search target image mosaic unit 102 converts the image in the buffer 101 into a mosaic and stores it in the coarse search target image dictionary 103. If necessary, an average value of a plurality of search targets, in this example, a plurality of face images, may be taken as representative mosaic data of a face, or a plurality of coarse search target images may be prepared.

【0012】一方、未知画像Uは図1の未知画像入力部
2を介して粗探索部100の中の、図2に示す未知画像
バッファ104に取り込まれる。そこで未知画像Uに対
して、やはり図5のように、未知画像モザイク化部10
5でWa画素×Wa画素のブロックサイズでP×Qに分
割し、ブロックごとに代表値を算出しモザイク画像UC
を得る。なお、未知画像入力部2は前記の認識対象画像
入力部1と同一でもよい。
On the other hand, the unknown image U is taken into the unknown image buffer 104 shown in FIG. 2 in the rough search unit 100 via the unknown image input unit 2 shown in FIG. Therefore, as shown in FIG.
In step 5, the image is divided into P × Q with a block size of Wa pixels × Wa pixels, a representative value is calculated for each block, and a mosaic image UC is calculated.
Get. The unknown image input unit 2 may be the same as the recognition target image input unit 1 described above.

【0013】次に、図5のように、未知画像のモザイク
を走査して粗探索対象画像モザイクと一致する場所を探
索する。即ち、次の原理に基づく。未知画像のP×Qの
モザイクデータのうち、任意のM×Nのモザイクデータ
をUi(斜線が存在する領域で示す)としたとき、Ui
と粗探索対象モザイクデータFCとの距離Diが最小値
となるときのUiの位置を粗探索結果とする。この距離
Diとして、種々の出し方があるが代表的なものとして
ユークリッド距離がある。
Next, as shown in FIG. 5, the mosaic of the unknown image is scanned to search for a place that matches the coarse search target image mosaic. That is, it is based on the following principle. When the arbitrary M × N mosaic data among the P × Q mosaic data of the unknown image is defined as Ui (indicated by an area with oblique lines), Ui
The position of Ui when the distance Di between the target and the coarse search target mosaic data FC is the minimum value is defined as the coarse search result. There are various ways of setting the distance Di, but a typical example is the Euclidean distance.

【0014】具体的には次のとおりである。図2におい
て、106は候補選択部であり、未知画像モザイク化部
105の中からM×Nブロック分の枠に入る候補データ
Ui(i=1,2…)を選択する。一般的には、はじめ
に未知画像の左上のM×Nブロック分がU1として選択
される。このモザイクデータU1との粗探索対象画像辞
書103からの粗探索対象モザイクデータFCとが距離
算出部107に入力され、上記の距離が算出される。こ
の結果は、このときの未知画像モザイクデータUCにお
けるM×Nの位置データ、即ちU1の位置データ、なら
びにモザイクのブロックサイズWaとともに位置・サイ
ズ・距離蓄積部108に蓄えられる。
The details are as follows. In FIG. 2, reference numeral 106 denotes a candidate selection unit which selects candidate data Ui (i = 1, 2,...) From the unknown image mosaic unit 105 that falls within the frame of M × N blocks. Generally, first, the upper left M × N block of the unknown image is selected as U1. The mosaic data U1 and the coarse search target mosaic data FC from the coarse search target image dictionary 103 are input to the distance calculation unit 107, and the above distance is calculated. This result is stored in the position / size / distance storage unit 108 together with the M × N position data in the unknown image mosaic data UC at this time, that is, the position data of U1 and the mosaic block size Wa.

【0015】さらに、候補選択部106は未知画像モザ
イク化部105から次の候補U2を選択し、距離算出部
107はこの時の距離を算出して、候補U2の位置、ブ
ロックサイズとともに位置・サイズ・距離蓄積部108
に蓄える。同様に、未知画像モザイクの全領域に対して
M×Nの候補Uiが順次選択され、選択された位置、ブ
ロックサイズと算出された距離はすべて位置・サイズ・
距離蓄積部108に蓄えられる。
Further, the candidate selection unit 106 selects the next candidate U2 from the unknown image mosaic unit 105, and the distance calculation unit 107 calculates the distance at this time, and the position / size together with the position and block size of the candidate U2.・ Distance accumulation unit 108
To store. Similarly, M × N candidates Ui are sequentially selected for the entire region of the unknown image mosaic, and the selected position, block size, and calculated distance are all the position, size,
The distance is stored in the distance storage unit 108.

【0016】ところで、以上では未知画像のモザイク化
において、探索対象画像と同じブロックサイズ、Wa画
素×Wa画素を用いた。探索対象画像と未知画像内の探
索対象画像が同じサイズであればこのままでよいが、一
般的には、未知画像内における探索対象画像のサイズも
また未知である。このため、未知画像モザイク化部10
5は、ブロックサイズの画素数を、例えば、Waの1/
5〜10/5などのWa’に変化させる。そこで、一つ
一つのブロックサイズWa’ごとに上記の手順を繰り返
して、得られた距離とそのときの位置ならびにブロック
サイズWa’を位置・サイズ・距離蓄積部108に蓄え
る。
By the way, in the mosaic of the unknown image, the same block size as the image to be searched, that is, Wa pixels × Wa pixels is used. If the size of the search target image and the size of the search target image in the unknown image are the same, the size may be kept as it is, but generally, the size of the search target image in the unknown image is also unknown. For this reason, the unknown image mosaic unit 10
5 is the number of pixels of the block size, for example, 1 / Wa.
It is changed to Wa ′ such as 5 to 10/5. Therefore, the above procedure is repeated for each block size Wa ', and the obtained distance, the position at that time, and the block size Wa' are stored in the position / size / distance storage unit 108.

【0017】また、複数の探索対象画像を辞書においた
場合も、同様にして、一つ一つの探索対象画像ごとに上
記の手順を繰り返し、得られた距離とそのときの位置お
よびブロックサイズを位置・サイズ・距離蓄積部108
に蓄える。
When a plurality of search target images are stored in the dictionary, the above procedure is similarly repeated for each search target image, and the obtained distance, the position at that time, and the block size are determined.・ Size / distance accumulation unit 108
To store.

【0018】こうして、全部の場合の距離が位置・サイ
ズ・距離蓄積部108に蓄えられると、最小距離検出部
109と、位置・サイズ・距離蓄積部108の中の距離
データのうち、最小値を取るものを検出する。この値は
認識対象有無判定部110に送られ、この値がある閾値
以下の時は未知画像内に対象画像があると判断し、その
位置およびブロックサイズを位置・サイズ・距離蓄積部
108から取り出して結果を粗探索結果出力部111に
出力する。粗探索結果出力部111は、ブロックサイズ
Waから未知画像内の探索対象画像の大きさを[M×W
a]×[N×Wa]より算出する。
Thus, when the distances in all cases are stored in the position / size / distance storage unit 108, the minimum value of the minimum distance detection unit 109 and the minimum value of the distance data in the position / size / distance storage unit 108 is calculated. Detect what to take. This value is sent to the recognition target presence / absence determination unit 110. If this value is less than a certain threshold value, it is determined that the target image exists in the unknown image, and its position and block size are extracted from the position / size / distance storage unit 108. The result is output to the coarse search result output unit 111. The coarse search result output unit 111 determines the size of the search target image in the unknown image from the block size Wa by [M × W
a] × [N × Wa].

【0019】一方、最小距離値がある閾値を越えたとき
は未知画像内に対象画像が無いと判断し、「無い」こと
を粗探索結果出力部111に出力する。粗探索結果出力
部111はこれらの結果を直ちに詳細探索部200に通
知する。
On the other hand, when the minimum distance value exceeds a certain threshold value, it is determined that there is no target image in the unknown image, and "no" is output to the coarse search result output unit 111. The coarse search result output unit 111 immediately notifies the detailed search unit 200 of these results.

【0020】こうして粗探索により、認識対象のおおよ
その位置と大きさがわかると、モザイクのブロックを小
さくして、詳細にその位置を探索する。なお、詳細探索
では粗探索に比べ対象画像の領域を一部分に絞ってもよ
いが、ここでは、同一領域を用いる場合をのべる。
When the approximate position and size of the recognition target are known by the coarse search, the mosaic block is reduced in size and the position is searched in detail. In the detailed search, the area of the target image may be narrowed down to a part as compared with the coarse search. However, here, the case where the same area is used will be described.

【0021】まず、予め、図6のように、認識対象をW
b画素×Wb画素(Wb<Wa)のサイズのブロックで
M’×N’に分割し、各ブロックをブロック内の代表値
で表す。
First, as shown in FIG.
The block is divided into M ′ × N ′ by a block of b pixels × Wb pixels (Wb <Wa), and each block is represented by a representative value in the block.

【0022】具体的には、詳細探索対象画像バッファ2
01は、認識対象画像入力部1から認識対象画像データ
を取り込み、これを詳細探索対象画像モザイク化部20
2に送る。詳細探索対象画像モザイク化部202は、こ
の画像をモザイク化(FD)し、詳細探索対象画像辞書
203に蓄積する。
More specifically, the detailed search target image buffer 2
01 fetches recognition target image data from the recognition target image input unit 1 and converts it into a detailed search target image mosaic unit 20
Send to 2. The detailed search target image mosaic unit 202 converts the image into a mosaic (FD) and stores the image in the detailed search target image dictionary 203.

【0023】なお、必要ならば、複数の詳細探索対象画
像の平均値をとるか、複数の詳細探索対象画像を用意す
ればよいのは、粗探索の場合と同じである。一方、上記
の粗探索結果が粗探索結果通知部220に通知される
と、未知画像バッファ204はこれを知って、図1の未
知画像入力部2から、未知画像Uの中の認識対象画像の
該当部分を取り込む。そこで、未知画像モザイク化部2
05は、これに対して、やはり図6のように、Wb画素
×Wb画素のブロックサイズでP’×Q’に分割し、ブ
ロックごとに代表値を算出しモザイクUDを得る。
If necessary, an average value of a plurality of detailed search target images or a plurality of detailed search target images may be prepared, as in the case of the coarse search. On the other hand, when the coarse search result is notified to the coarse search result notifying unit 220, the unknown image buffer 204 knows this and sends the unknown image buffer 204 from the unknown image input unit 2 of FIG. Import the relevant part. Therefore, the unknown image mosaic unit 2
On the other hand, in FIG. 5, as shown in FIG. 6, a block size of Wb pixels × Wb pixels is divided into P ′ × Q ′, and a representative value is calculated for each block to obtain a mosaic UD.

【0024】そこで、粗探索の場合と同様、図6のよう
に、未知画像の該当部分画像のモザイクを走査して詳細
探索対象モザイクFDと一致する場所を探索する。すな
わち、部分画像のP’×Q’のモザイクUDのうち任意
のM’×N’のモザイクをUj(斜線が存在する領域で
示す)としたとき、Ujと探索対象のモザイクFDとの
距離Djを最小となるときのUjの位置を詳細探索結果
とする。
Therefore, as in the case of the coarse search, as shown in FIG. 6, the mosaic of the relevant partial image of the unknown image is scanned to search for a place that matches the detailed search target mosaic FD. That is, when an arbitrary M ′ × N ′ mosaic among the P ′ × Q ′ mosaic UDs of the partial image is defined as Uj (indicated by an area where oblique lines exist), the distance Dj between Uj and the mosaic FD to be searched Let the position of Uj when is minimized be the detailed search result.

【0025】具体的には、図3において、候補選択部2
06は、未知画像モザイク化部205の中からM’×
N’分の枠に入る候補Ujを取り出す。距離算出部20
7は、このUjと詳細探索対象画像辞書203からの詳
細探索対象モザイクFDの距離Djを算出し、このとき
のUjの位置データ、ならびにモザイクのブロックサイ
ズWbとともに位置・サイズ・距離蓄積部208に送
る。
More specifically, in FIG.
06 is M ′ × from the unknown image mosaic unit 205.
A candidate Uj that falls within the N ′ frame is extracted. Distance calculator 20
7 calculates the distance Dj of Uj and the detailed search target mosaic FD from the detailed search target image dictionary 203, and stores it in the position / size / distance storage unit 208 together with the position data of Uj and the mosaic block size Wb. send.

【0026】ここで、必要に応じ、ブロックサイズWb
を変化させ(Wb’)たり、複数の詳細探索対象画像を
用いたりすることも、粗探索の場合と同様である。こう
して、最小距離検出部209で最小値を検出すると、こ
の時のUjの位置データならびにブロックサイズWbが
詳細探索結果出力部210に送られる。詳細探索結果出
力部210はブロックサイズWbより探索対象画像の正
確な大きさ、即ち、[M’×Wb]×[N’×Wb]を
算出し、位置データとともに認識部300に送出する。
Here, if necessary, the block size Wb
Is changed (Wb ′) or a plurality of detailed search target images are used in the same manner as in the coarse search. When the minimum value is detected by the minimum distance detection unit 209 in this way, the position data of Uj and the block size Wb at this time are sent to the detailed search result output unit 210. The detailed search result output unit 210 calculates the exact size of the search target image from the block size Wb, that is, [M ′ × Wb] × [N ′ × Wb], and sends it to the recognition unit 300 together with the position data.

【0027】こうして詳細探索により、認識対象の正確
な位置と大きさがわかると、モザイクのブロックを小さ
くして、対象が何かを認識する。まず、予め、図6のよ
うに、認識対象をWc画素×Wc画素(Wc<Wb)の
サイズのブロックでM”×N”に分割する。このモザイ
クの各ブロックを、前記の場合と同様にブロック内の代
表値で表す。なお、認識対象の特徴が部分領域に集中し
ていれば、その部分をM”×N”に分割してもよい。す
なわち、探索の過程では対象に普遍的な特徴が必要であ
るが、認識の過程では、個々を区別する特徴が必要であ
り、より細かなモザイクや部分領域が有効となる。
When the precise position and size of the object to be recognized are found by the detailed search, the mosaic block is reduced in size to recognize what the object is. First, as shown in FIG. 6, the recognition target is divided into M × N by a block having a size of Wc pixels × Wc pixels (Wc <Wb). Each block of the mosaic is represented by a representative value in the block as in the above case. If the feature to be recognized is concentrated in a partial region, that portion may be divided into M "× N". That is, in the process of searching, a universal feature is required for the object, but in the process of recognition, a feature for distinguishing the individual is required, and a finer mosaic or partial area is effective.

【0028】ここでは、この部分領域を用いる場合をの
べる。具体的には、認識対象画像バッファ301は、認
識対象画像入力部1から認識対象画像の部分領域のデー
タを取り込み、これを認識対象画像モザイク化部302
に送る。認識対象画像モザイク化部302は、この画像
をモザイク化(FDD)し、認識対象画像辞書303に
蓄積する。
Here, the case where this partial area is used will be described. More specifically, the recognition target image buffer 301 takes in data of a partial area of the recognition target image from the recognition target image input unit 1 and converts the data into a recognition target image mosaicizing unit 302.
Send to The recognition target image mosaic unit 302 converts the image into a mosaic (FDD) and stores the mosaic in the recognition target image dictionary 303.

【0029】なお、通常、多くの認識対象画像について
モザイク化し、認識対象画像辞書303に蓄積する。一
方、上記の詳細探索結果が詳細探索部200より詳細探
索結果通知部320に通知されると、未知画像バッファ
304はこれを知って、図1の未知画像入力部2から、
未知画像Uの中の認識対象画像の正確な位置と大きさの
画像を取り込む。画像切り出し・モザイク化部305
は、さらにその中の部分領域に対して、やはり図6のよ
うにWc画素×Wc画素のブロックサイズでM”×N”
に分割し、ブロックごとに代表値を算出しモザイクデー
タUDDを得る。
Normally, many images to be recognized are mosaiced and stored in the image dictionary for recognition 303. On the other hand, when the detailed search result is notified from the detailed search unit 200 to the detailed search result notifying unit 320, the unknown image buffer 304 knows this and sends the information from the unknown image input unit 2 in FIG.
An image of the exact position and size of the recognition target image in the unknown image U is captured. Image cutout / mosaic unit 305
Further, for the partial region therein, as shown in FIG. 6, a block size of Wc pixels × Wc pixels is M ″ × N ″.
And mosaic data UDD is obtained by calculating a representative value for each block.

【0030】そこで、このモザイクデータUDDと認識
対象画像モザイクデータFDDの距離を算出し、これが
或る閾値以下であれば、未知画像は認識対象画像である
と判定する。あるいは、認識対象画像が複数あれば、F
DDとの距離の最小となるものを認識対象として判定す
る。ここでは、一般的な、後者の場合を例にのべる。
Therefore, the distance between the mosaic data UDD and the recognition target image mosaic data FDD is calculated. If the distance is equal to or smaller than a certain threshold value, it is determined that the unknown image is the recognition target image. Alternatively, if there are a plurality of recognition target images, F
The object having the minimum distance from the DD is determined as a recognition target. Here, the latter case will be described as an example.

【0031】具体的には、図4において、距離算出部3
06は、画像切り出し・モザイク化部305の出力であ
る未知画像モザイクデータUDDと認識対象画像辞書3
03からの認識対象画像モザイクデータFDDの距離を
算出し、このときの距離と認識対象画像の符号を距離蓄
積部307に送る。同様に、距離算出部306は、認識
対象画像辞書303から次々と認識対象画像モザイクデ
ータを取り出しては、未知画像モザイクデータUDDと
の距離を算出し、この値と認識対象画像の符号を距離蓄
積部307に送る。
More specifically, in FIG.
06 is the unknown image mosaic data UDD output from the image cutout / mosaicization unit 305 and the recognition target image dictionary 3
The distance of the recognition target image mosaic data FDD from the target image 03 is calculated, and the distance and the code of the recognition target image are sent to the distance storage unit 307. Similarly, the distance calculation unit 306 takes out the recognition target image mosaic data one after another from the recognition target image dictionary 303, calculates the distance to the unknown image mosaic data UDD, and stores this value and the code of the recognition target image in the distance. Send to unit 307.

【0032】つぎに、最小距離検出部308は、距離蓄
積部307の中の最小値を検出すると、この時の認識対
象画像の符号を認識結果出力部309へ送出する。この
結果はさらに出力部3へ送出される。
Next, upon detecting the minimum value in the distance accumulation unit 307, the minimum distance detection unit 308 sends the code of the image to be recognized at this time to the recognition result output unit 309. This result is further sent to the output unit 3.

【0033】一方、粗探索の結果、対象画像が「無し」
の場合は、このことが出力部3に通知される。こうし
て、未知画像Uの中から、まず認識対象画像Fのおおよ
その位置がみつかり、これを手がかりに正確な位置と大
きさが見つけられ、さらに対象が特定される。
On the other hand, as a result of the rough search, the target image is "none".
In this case, this is notified to the output unit 3. In this way, the approximate position of the recognition target image F is first found from the unknown image U, and the accurate position and size are found based on the approximate position, and the target is further specified.

【0034】[0034]

【発明の効果】本発明によれば、認識対象画像および未
知画像をモザイク化し探索・認識することによって、背
景に対する一様性など特殊な条件を与えることなく、ま
た、線分を用いた場合のノイズによるエラーを起すこと
なく、容易に対象画像を見いだしてその位置や大きさを
得た上、認識することが可能となる。とくに、形状や色
が似通った対象、例えば、人間の顔や蝶などには効果的
である。
According to the present invention, a recognition target image and an unknown image are mosaiced and searched and recognized, so that no special condition such as uniformity with respect to the background is given. It is possible to easily find a target image, obtain its position and size, and recognize it without causing an error due to noise. It is particularly effective for objects having similar shapes and colors, such as human faces and butterflies.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の全体を説明するブロック図である。FIG. 1 is a block diagram illustrating the whole of the present invention.

【図2】粗探索部100の内容を示す図である。FIG. 2 is a diagram showing the contents of a coarse search unit 100.

【図3】詳細探索部200の内容を示す図である。FIG. 3 is a diagram showing contents of a detailed search unit 200.

【図4】認識部300の内容を示す図である。FIG. 4 is a diagram showing the contents of a recognition unit 300.

【図5】認識対象画像ならびに未知画像をモザイク化
し、未知画像の中から認識対象を段階的に探索・認識す
る過程を説明する図である。
FIG. 5 is a diagram illustrating a process of converting a recognition target image and an unknown image into a mosaic, and searching for and recognizing a recognition target in the unknown image stepwise.

【図6】図5と一緒になって1つの図を構成し、認識対
象画像ならびに未知画像をモザイク化し、未知画像の中
から認識対象を段階的に探索・認識する過程を説明する
図である。
FIG. 6 is a diagram illustrating a process of composing one diagram together with FIG. 5, mosaicizing a recognition target image and an unknown image, and gradually searching for and recognizing a recognition target from among the unknown images. .

【符号の説明】[Explanation of symbols]

1 認識対象画像入力部 2 未知画像入力部 3 出力部 100 粗探索部 200 詳細探索部 300 認識部 REFERENCE SIGNS LIST 1 recognition target image input unit 2 unknown image input unit 3 output unit 100 coarse search unit 200 detailed search unit 300 recognition unit

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 予め、認識対象となる自然画像を第1の
ブロックサイズに該当する大きなブロックサイズ(幅W
a,高さWa)でM×Nに分割し、各ブロックの濃淡あ
るいはカラーの代表値を算出して辞書データとして記憶
する第1の手段と、 同じく、予め、当該認識対象の自然画像を第2のブロッ
クサイズに該当する小さなブロックサイズ(幅Wb,高
さWb、ただしWb<Wa)でM’×N’に分割し、各
ブロックの濃淡あるいはカラーの代表値を算出して辞書
データとして記憶する第2の手段と、 同じく、予め当該認識対象の自然画像を第3のブロック
サイズに該当するさらに小さなブロックサイズ(幅W
c,高さWc、ただしWc<Wb)でM”×N”に分割
し、各ブロックの濃淡あるいはカラーの代表値を算出し
て辞書データとして記憶する第3の手段と、 未知の自然画像が入力として与えられたとき、入力画像
第1のブロックサイズに該当する大きなブロックサイ
ズでP×Qに分割して各ブロックの代表値を算出し、こ
の中から任意のM×Nの領域を取り出して第1の手段で
得られた代表値群とのなす距離を算出し蓄積する第4の
手段と、 P×Qの全領域にわたって第4の手段を繰り返し適用
し、得られた距離の中から最小値を求め、この最小値が
予め与えられた閾値より小さいとき、入力画像中の最小
値を導いた位置に認識対象画像に相当する画像があると
判定し、一方、最小値が閾値より大きいとき、入力画像
内に認識対象画像に相当する画像が存在しないと判断す
る第5の手段と、 第5の手段で、或る位置に認識対象有りと判定されたと
き、入力画像中の該当位置の近傍のM×N領域を第2の
ブロックサイズに該当する小さなブロックでP’×Q’
に分割し各ブロックの代表値を算出し、この中から任意
のM’×N’の領域を取り出して第2の手段で得られた
代表値群とのなす距離を算出しこれを蓄積する第6の手
段と、 P’×Q’の全領域にわたって第6の手段を繰り返し適
用し、得られた距離の中から最小値を求め、この時の
M’×N’画像の位置と大きさを認識対象画像の位置と
大きさとする第7の手段と、 第7の手段で得られた入力画像中の該当位置と大きさの
領域を、第3のブロックサイズに該当するより小さなブ
ロックサイズでM”×N”に分割して各ブロックの代表
値を算出し、第3の手段で得られた代表値群とのなす距
離を算出し、これが或る閾値以下ならば認識対象画像で
あると特定する第8の手段を有することを特徴とする画
像認識装置。
1. A natural image to be recognized is first stored in a first
Large block size corresponding to the block size (width W
a, height Wa) , dividing the image into M × N, calculating a representative value of shades or colors of each block, and storing the representative value as dictionary data . 2 blocks
Small block size corresponding to Kusaizu (width Wb, high
A second means for dividing into M ′ × N ′ by Wb, where Wb <Wa) , calculating a representative value of shading or color of each block, and storing the calculated value as dictionary data; Image in third block
A smaller block size corresponding to the size (width W
c, a height Wc, where Wc <Wb) , dividing into M "× N", calculating a representative value of shading or a color of each block, and storing it as dictionary data; When given as an input, the input image is divided into P × Q with a large block size corresponding to the first block size, a representative value of each block is calculated, and an arbitrary M × N area is taken out of this. A fourth means for calculating and accumulating a distance between the representative value group obtained by the first means, and a fourth means for repeatedly applying the fourth means over the entire area of P × Q. When the minimum value is obtained and the minimum value is smaller than a predetermined threshold value, it is determined that there is an image corresponding to the recognition target image at the position where the minimum value is derived in the input image, while the minimum value is larger than the threshold value. When the input image corresponds to the recognition target image A fifth means for determining that there is no image to be performed; and a fifth means for determining that an M × N area near the corresponding position in the input image is in the second position when it is determined that the recognition target exists at a certain position .
P '× Q' in small block corresponding to block size
, A representative value of each block is calculated, an arbitrary M ′ × N ′ region is taken out of the block, a distance between the region and the representative value group obtained by the second means is calculated, and the distance is calculated. The sixth means and the sixth means are repeatedly applied over the entire area of P ′ × Q ′, and the minimum value is obtained from the obtained distances, and the position and size of the M ′ × N ′ image at this time are determined. A seventh means for determining the position and size of the image to be recognized, and an area of the corresponding position and size in the input image obtained by the seventh means being reduced to a smaller block size corresponding to the third block size by M A representative value of each block is calculated by dividing into “× N”, and a distance between the representative value group obtained by the third means and a representative value group is calculated. An image recognizing device comprising an eighth means for performing the following.
【請求項2】 上記第1の手段において、予め対象とな
る画像を唯一でなく、類似する複数の画像群とし、これ
らの画像ごとにM×Nに分割して各ブロックについての
各ブロックごとの代表値を算出し、複数の画像間の対応
するブロックについての複数ブロック間での平均値を算
出し、これを辞書として記憶することを特徴とする請求
項1記載の画像認識装置。
2. The method according to claim 1, wherein the target image is not limited to a unique image group, but is a group of a plurality of similar images .
2. The image recognition apparatus according to claim 1 , wherein a representative value of each block is calculated , an average value of a plurality of blocks corresponding to a plurality of images is calculated, and the average value is stored as a dictionary. .
【請求項3】 上記第2の手段において、予め対象とな
る画像を唯一でなく、類似する複数の画像群とし、これ
らの画像ごとにM’×N’に分割して各ブロックについ
ての各ブロックごとの代表値を算出し、複数の画像間の
対応するブロックについての複数ブロック間での平均値
を算出し、これを辞書として記憶することを特徴とする
請求項1記載の画像認識装置。
3. A said second means, not only the image to be pre-interest, a plurality of image groups to be similar, with each block is divided into M '× N' for each of these images
2. The image according to claim 1 , wherein a representative value is calculated for each of all the blocks , an average value among a plurality of blocks for a corresponding block between the plurality of images is calculated , and the average value is stored as a dictionary. Recognition device.
【請求項4】 上記第3の手段において、予め対象とな
る画像を唯一でなく、複数の画像群とし、これらの画像
ごとにM”×N”に分割して各ブロックについての各ブ
ロックごとの代表値を算出し、これを辞書として記憶す
ることを特徴とする請求項1記載の画像認識装置。
4. A said third means, not only the image to be pre-interest, a plurality of image groups, each blanking for each divided into M "× N" for each of these image blocks
2. The image recognition apparatus according to claim 1 , wherein a representative value for each lock is calculated and stored as a dictionary.
【請求項5】 上記第2の手段において、予め、認識対
象画像の部分画像を第2のブロックサイズに該当する
さなブロックサイズでM’×N’に分割し、各ブロック
の代表値を算出して辞書データとして記憶し、上記第6
の手段および第7の手段において、上記第5の手段で得
られたM×N領域の部分領域をP’×Q’に分割し、こ
の中のM’×N’ごとに当該辞書データとの距離を算出
することを特徴とする請求項1記載の画像認識装置。
5. The method according to claim 2, wherein the partial image of the image to be recognized is divided into M ′ × N ′ in advance with a small block size corresponding to a second block size. Is calculated and stored as dictionary data.
And the seventh means, the partial area of the M × N area obtained by the fifth means is divided into P ′ × Q ′, and each of the M ′ × N ′ is divided into The image recognition device according to claim 1, wherein the distance is calculated.
【請求項6】 上記第3の手段において、予め、認識対
象画像の部分画像を、第3のブロックサイズに該当する
より小さなブロックサイズでM”×N”に分割し、各ブ
ロックの代表値を算出して辞書データとして記憶し、上
記第8の手段において、上記M’×N’領域を、第3の
ブロックサイズに該当するより小さなブロックサイズで
M”×N”に分割することを特徴とする請求項1記載の
画像認識装置。
6. The method according to claim 3, wherein the partial image of the recognition target image is divided in advance into M ″ × N ″ with a smaller block size corresponding to the third block size. Is calculated and stored as dictionary data. In the eighth means, the M ′ × N ′ area is stored in the third
2. The image recognition apparatus according to claim 1, wherein the image data is divided into M ".times.N" with a smaller block size corresponding to the block size.
【請求項7】 上記第4の手段において、分割に用いる
ブロックサイズを可変とすることを特徴とする請求項1
記載の画像認識装置。
7. The apparatus according to claim 1, wherein in the fourth means, a block size used for division is variable.
An image recognition device according to claim 1.
【請求項8】 上記第6の手段において、分割に用いる
ブロックサイズを可変とすることを特徴とする請求項1
記載の画像認識装置。
8. The method according to claim 1, wherein the block size used for the division is variable.
An image recognition device according to claim 1.
JP3344489A 1991-12-26 1991-12-26 Image recognition device Expired - Fee Related JP2849256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3344489A JP2849256B2 (en) 1991-12-26 1991-12-26 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3344489A JP2849256B2 (en) 1991-12-26 1991-12-26 Image recognition device

Publications (2)

Publication Number Publication Date
JPH05174149A JPH05174149A (en) 1993-07-13
JP2849256B2 true JP2849256B2 (en) 1999-01-20

Family

ID=18369663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3344489A Expired - Fee Related JP2849256B2 (en) 1991-12-26 1991-12-26 Image recognition device

Country Status (1)

Country Link
JP (1) JP2849256B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302327A (en) * 1993-08-11 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting image of object
JPH0883341A (en) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting object area and object recognizing device
JP3496897B2 (en) * 1995-03-24 2004-02-16 株式会社リコー Color image recognition method and apparatus
KR100812903B1 (en) * 1998-05-19 2008-03-11 가부시키가이샤 소니 컴퓨터 엔터테인먼트 Image processing apparatus and method, and recording medium of program
AU6309099A (en) 1998-05-20 1999-12-06 Sony Computer Entertainment Inc. Information processing device and method, providing medium, and recording medium
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
JP2000099686A (en) * 1998-09-17 2000-04-07 Nippon Telegr & Teleph Corp <Ntt> Pattern recognition and vehicle recognition method and storage medium recording its program
JP4392886B2 (en) * 1999-01-22 2010-01-06 キヤノン株式会社 Image extraction method and apparatus
JP4226247B2 (en) 2002-01-15 2009-02-18 富士フイルム株式会社 Image processing device
JP4517633B2 (en) * 2003-11-25 2010-08-04 ソニー株式会社 Object detection apparatus and method
JP2008102589A (en) * 2006-10-17 2008-05-01 Toa Corp Moving image processor, moving image processing method and moving image processing program
JP4329821B2 (en) 2007-01-31 2009-09-09 ブラザー工業株式会社 Face detection device, face detection method, and face detection program
JP4518139B2 (en) 2007-11-30 2010-08-04 トヨタ自動車株式会社 Image processing device
JP4535164B2 (en) * 2008-04-09 2010-09-01 ソニー株式会社 Imaging apparatus, image processing apparatus, and image analysis method and program therefor

Also Published As

Publication number Publication date
JPH05174149A (en) 1993-07-13

Similar Documents

Publication Publication Date Title
JP2849256B2 (en) Image recognition device
US6546136B1 (en) Matching CCITT compressed document images
US4047154A (en) Operator interactive pattern processing system
CN1162793C (en) Method and device for object representation and retrieval using shape
US20150213328A1 (en) Object identification apparatus, object identification method, and program
US20090016573A1 (en) Bioindex mechanism for increasing the relative speed of biometric indentification against large population samples
US6763137B1 (en) Recognition and clustering of connected components in bi-level images
JPH0772905B2 (en) How to recognize a symbol string
JP3602596B2 (en) Document filing apparatus and method
US8385656B2 (en) Image processing apparatus, image processing method and program
JPH05159063A (en) Image retrieving device
JPH05159064A (en) Image searching device
JPH11220650A (en) Motion detecting device by gradation pattern matching and method therefor
JP5094682B2 (en) Image processing apparatus, image processing method, and program
JP2002024830A (en) Image checking device, method and computer-readable storage medium
JP5147640B2 (en) Image processing apparatus, image processing method, and program
US8401310B2 (en) Image comparing method, apparatus and program
JP4133246B2 (en) Image deformation information generation apparatus, image deformation information generation method, and image deformation information generation program
JP3330348B2 (en) Video search method and apparatus, and recording medium storing video search program
JP3574562B2 (en) Method for recognizing and detecting deformation of a series of patterns in an image and recording medium storing the program
EP1010128B1 (en) Method for performing character recognition on a pixel matrix
US8300926B2 (en) Image processing apparatus and image processing method
Vijayarani et al. A survey on word spotting techniques for document image retrieval
JPH0950532A (en) Contour detector
JP2000231571A (en) Isar image retrieving device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees