JP3272381B2 - Region boundary point extraction method - Google Patents
Region boundary point extraction methodInfo
- Publication number
- JP3272381B2 JP3272381B2 JP29090991A JP29090991A JP3272381B2 JP 3272381 B2 JP3272381 B2 JP 3272381B2 JP 29090991 A JP29090991 A JP 29090991A JP 29090991 A JP29090991 A JP 29090991A JP 3272381 B2 JP3272381 B2 JP 3272381B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- boundary point
- code
- pattern
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Image Analysis (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、画像データ中の領域
(同じ画素値または同じラベルを持つ画素の連結成分)
の境界点を、境界点の前後関係とともに抽出する領域境
界点抽出方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a region in image data (a connected component of pixels having the same pixel value or the same label).
And an area boundary point extraction method for extracting the boundary points of the region along with the context of the boundary points.
【0002】[0002]
【従来の技術】文字認識装置、図面認識装置、文書画像
(文字・図表混在)認識装置、濃淡画像/カラー画像認
識装置などにおいては、画像中で同じ画素値(またはラ
ベル)を持つ連結成分を領域とみなし、領域の境界(た
だし領域内部)に属する境界点を検出し、かつ例えば、
左手に領域内部を見るように境界点追跡を行なう場合
に、隣合う境界点に前後関係を付ける、という領域境界
点抽出の処理が必要となることが少なくない。2値画像
における黒画素連結成分の境界点についての処理は、そ
の特殊な場合にあたる。従来、かかる領域境界点抽出は
逐次処理による方法であった(例えば、長尾真監訳「デ
ジタル画像処理」,近代科学社,pp.353-361)。2. Description of the Related Art In a character recognition device, a drawing recognition device, a document image (mixed character / chart) recognition device, a grayscale image / color image recognition device, etc., a connected component having the same pixel value (or label) in an image is used. Consider a region, detect a boundary point belonging to the boundary of the region (but inside the region), and, for example,
When boundary point tracking is performed so that the inside of the area is viewed on the left hand, it is often necessary to perform an area boundary point extraction process of giving an adjacent boundary point a context. The processing on the boundary point of the black pixel connected component in the binary image corresponds to the special case. Conventionally, such region boundary point extraction is a method based on sequential processing (for example, “Digital Image Processing” translated by Shin Nagao, Modern Science Co., pp.353-361).
【0003】[0003]
【発明が解決しようとする課題】しかし、従来の逐次処
理による方法では、処理に多くの時間を必要とする問題
があった。よって本発明の目的は、並列処理が容易で高
速に領域境界点抽出を行なう方法を提供することにあ
る。However, the conventional sequential processing method has a problem that a long time is required for the processing. SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a method for easily performing parallel processing and extracting a region boundary point at high speed.
【0004】[0004]
【課題を解決するための手段】領域境界点抽出の処理を
並列化する際の問題は、一つの画素に対応する境界点が
必ずしも一つでない(最大4個になる)ということに起
因する。例えば、ある画素を中心とする3×3画素パタ
ーンがサイコロの5の目のパターンである場合、その画
素に対応する境界点が4個必要となる(ただし8連結の
とき)。このように、一つの画素に対応する境界点が複
数個存在し得る状況下では、境界点の前後関係を一意に
定めることが容易でないという問題が生じる。A problem in parallelizing the process of extracting area boundary points is that the number of boundary points corresponding to one pixel is not always one (up to four). For example, if a 3 × 3 pixel pattern centered on a certain pixel is the fifth eye pattern of the die, four boundary points corresponding to the pixel are required (however, in the case of eight connections). As described above, in a situation where there are a plurality of boundary points corresponding to one pixel, there is a problem that it is not easy to uniquely determine the context of the boundary points.
【0005】本発明は、この問題を解決するために、境
界点追跡方向に相当する局所的な進行方向に着目し、ま
た境界点の前後関係を決定できるように、各画素に対応
して次のようなテーブルを用意する。In order to solve this problem, the present invention focuses on a local traveling direction corresponding to a boundary point tracking direction, and furthermore, it is necessary to correspond to each pixel so as to determine the context of the boundary point. Prepare a table like
【0006】このテーブルの基本構造は、最大8つのエ
ントリーを持ち、各エントリーは3つの情報の組すなわ
ち[境界点番号(id),後方向コード,前方向コード]
を表わす。ここで、[境界点番号]は境界点を識別する
ための番号を意味し、[後方向コード]はその境界点に
入って来るときの進行方向を表す方向コード、また[前
方向コード]はその境界点から出て行くときの進行方向
を表わす方向コードである。The basic structure of this table has a maximum of eight entries, and each entry has three sets of information, ie, [boundary point number (id), backward code, forward code].
Represents Here, [boundary point number] means a number for identifying the boundary point, [backward code] is a direction code indicating the traveling direction when entering the boundary point, and [forward direction code] is This is a direction code representing the traveling direction when the vehicle leaves the boundary point.
【0007】請求項1の発明にあっては、このような基
本構造の画素対応テーブルを用い、注目画素を中心とし
た3×3画素パターンを観測して境界点を検出し、各境
界点の境界点番号、後方向コード及び前方向コードの組
をテーブルの一つのエントリーに設定する。そして、方
向コードをキーとして近傍画素のテーブルを参照するこ
とによって、前後関係を決定する。According to the first aspect of the present invention, a boundary point is detected by observing a 3 × 3 pixel pattern centered on a pixel of interest using the pixel correspondence table having such a basic structure. A set of the boundary point number, the backward code and the forward code is set in one entry of the table. Then, by referring to the table of neighboring pixels using the direction code as a key, the context is determined.
【0008】このようなテーブル参照による境界点の前
後関係の決定は、周辺画素のテーブルが設定された画素
について可能であり、この条件を満たした複数の画素位
置について同時に実行することができ、またパターン観
測によるテーブルの設定の処理とは独立している。した
がって、パターン観測・テーブル設定の処理も、複数の
画素位置について同時に行なうことが可能である。すな
わち、本発明の境界点抽出方法は本質的に並列処理が容
易である。The determination of the context of the boundary point by referring to the table can be performed for the pixels for which the table of the peripheral pixels is set, and can be simultaneously executed for a plurality of pixel positions satisfying this condition. It is independent of the table setting process by pattern observation. Therefore, the processing of pattern observation and table setting can be performed simultaneously for a plurality of pixel positions. That is, the boundary point extracting method of the present invention is essentially easy to perform parallel processing.
【0009】このような本質的特徴に着目し、請求項2
の発明は、3×3画素パターンを観測しテーブルを設定
するための手段と、テーブルを参照し境界点の前後関係
を決定するための手段をそれぞれ複数用いて、処理を並
列化する。また、請求項3の発明は、3行分の画素値を
バッファリングするための手段及び3行分の画素対応の
テーブルをバッファリングするための手段を用い、3×
3画素パターンを観測しテーブルを設定する処理と、テ
ーブルを参照し境界点の前後関係を決定する処理をパイ
プライン処理することにより、処理を並列化する。Attention is paid to such essential features.
The invention uses a plurality of means for observing a 3 × 3 pixel pattern and setting a table, and a plurality of means for determining the anterior-posterior relationship of a boundary point with reference to the table, to parallelize the processing. The invention according to claim 3 uses a unit for buffering pixel values for three rows and a unit for buffering a table corresponding to pixels for three rows, and uses 3 ×
The processing for observing the three-pixel pattern and setting the table and the processing for determining the anteroposterior relationship of the boundary points with reference to the table are pipelined to parallelize the processing.
【0010】請求項4の発明は、処理を走査型にする。
すなわち、画像データの走査順に注目画素を選び処理す
る。走査型の処理の場合、注目画素の周辺画素中の一部
画素は既に処理済みでテーブルは設定済みであるから、
これら画素の境界点と注目画素の位置の境界点との間の
関係はテーブル参照により決定できる。そこで、注目画
素のテーブルには、その周辺画素中の未処理の画素に関
係する情報(方向コード)だけを設定する。左から右へ
主走査し、上から下へ副走査する場合、注目画素の右、
左下、下、右下の画素に関係する情報のみをテーブルに
設定する。According to a fourth aspect of the present invention, the processing is of a scanning type.
That is, the target pixel is selected and processed in the scanning order of the image data. In the case of the scanning type processing, since some pixels in the peripheral pixels of the target pixel have already been processed and the table has been set,
The relationship between the boundary points of these pixels and the boundary point of the position of the target pixel can be determined by referring to the table. Therefore, only the information (direction code) related to the unprocessed pixel in the surrounding pixels is set in the target pixel table. When performing main scanning from left to right and sub-scanning from top to bottom,
Only information related to the lower left, lower, and lower right pixels is set in the table.
【0011】請求項5の発明は、請求項4の発明の方法
において、前方向コードと後方向コードを統一的に扱い
(前方向コードと後方向コードは重複のないコードにす
る)、一つの方向コードと境界点番号の組をテーブルの
一つのエントリーとする。According to a fifth aspect of the present invention, in the method of the fourth aspect, the forward code and the backward code are treated in a unified manner (the forward code and the backward code are non-overlapping codes). A set of the direction code and the boundary point number is one entry of the table.
【0012】後方向コードも前方向コードも、同時に起
こりえないコードの組み合わせがある。請求項6の発明
は、請求項4の発明の方法において、そのような同時に
起こりえないコードの組(実施例に関連して後述するパ
ターングループ)をテーブルの各エントリーに割り当
て、境界点番号のみをテーブルに設定する。すなわち、
境界点番号のみを一つのエントリーとする。[0012] There are code combinations that cannot occur at the same time for both backward and forward codes. According to a sixth aspect of the present invention, in the method of the fourth aspect, such a set of non-simultaneous codes (a pattern group described later in relation to the embodiment) is assigned to each entry of the table, and only the boundary point number is assigned. Is set in the table. That is,
Only the boundary point number is one entry.
【0013】請求項7の発明は、請求項4,5または6
の発明の方法において、3行分の画素値をバッファリン
グするための手段及び2行分の画素対応のテーブルをバ
ッファリングするための手段を用い、3×3画素パター
ンを観測しテーブルを設定する処理と、テーブルを参照
し境界点の前後関係を決定する処理をパイプライン処理
する。The invention of claim 7 is the invention of claim 4, 5 or 6.
In the method of the present invention, a 3 × 3 pixel pattern is observed and a table is set by using means for buffering pixel values for three rows and means for buffering a table corresponding to pixels for two rows. The process and the process of referring to the table to determine the context of the boundary point are pipelined.
【0014】請求項8の発明は、請求項1ないし7の各
発明の方法において、画像データは左から右へ主走査さ
れ、上から下へ副走査されるとして、注目画素とその左
下及び右下の画素の画素値が等しく、かつ、注目画素と
その一つ下の画素の画素値が等しくなく、かつ注目画素
の一つ下の画素と注目画素の左の画素の画素値が等しく
なく、かつ注目画素とその二つしたの画素の画素値が等
しい場合に、注目画素の一つ下の画素を注目画素の画素
値に変更するノイズ除去処理を行ない、このノイズ除去
処理後の3×3画素パターンに基づいてテーブルの設定
を行なうことを特徴とする。また、このノイズ除去処理
は、2値の画像データを対象とした請求項8の発明にあ
っては、注目画素とその左下及び右下の画素の画素値が
等しく、かつ、注目画素とその一つ下の画素の画素値が
等しくなく、かつ注目画素とその二つしたの画素の画素
値が等しい場合に、注目画素の一つ下の画素を注目画素
の画素値に変更する、という内容に簡略化される。According to an eighth aspect of the present invention, in the method according to any one of the first to seventh aspects, the image data is main-scanned from left to right and sub-scanned from top to bottom. The pixel value of the lower pixel is equal, and the pixel value of the target pixel and the pixel immediately below it are not equal, and the pixel value of the pixel immediately below the target pixel and the pixel to the left of the target pixel are not equal, If the pixel value of the pixel of interest is equal to the pixel value of the two pixels, noise removal processing for changing the pixel immediately below the pixel of interest to the pixel value of the pixel of interest is performed. The table is set based on the pixel pattern. Further, in the noise removal processing according to the invention of claim 8 which targets binary image data, the pixel value of the target pixel is equal to the pixel value of the lower left and lower right pixels, and the pixel of interest is equal to the pixel value of the target pixel. If the pixel value of the pixel below is not equal and the pixel value of the pixel of interest is equal to the pixel value of the two pixels, the pixel below the pixel of interest is changed to the pixel value of the pixel of interest. Simplified.
【0015】[0015]
【作用】前述のように、請求項1の発明によれば、本質
的に境界点抽出の並列処理が容易になる。As described above, according to the first aspect of the present invention, the parallel processing of boundary point extraction is essentially facilitated.
【0016】請求項2、3または7の発明によれば、処
理の並列化によって、境界点抽出を飛躍的に高速化で
き、実時間処理も可能となる。また請求項3または7の
発明によれば、テーブル保存に必要なメモリ量も少な
く、処理の高速化とメモリ有効利用とを両立できる。According to the second, third or seventh aspect of the present invention, the parallelization of the processing makes it possible to remarkably increase the speed of boundary point extraction and to perform real-time processing. Further, according to the third or seventh aspect of the present invention, the amount of memory required for storing the table is small, and it is possible to achieve both high-speed processing and effective memory utilization.
【0017】請求項4の発明によれば、周辺の全画素に
関する情報をテーブルに設定する方法に比べ、必要なテ
ーブルサイズを減らすことができ、また、テーブル参照
処理の無駄も減少し処理効率の面でも効果的である。According to the fourth aspect of the present invention, the required table size can be reduced as compared with the method of setting information on all the surrounding pixels in the table, and the waste of the table reference processing is reduced, thereby improving the processing efficiency. It is also effective in terms of aspects.
【0018】請求項5の発明によれば、前述の如きテー
ブル構造とすることにより、[境界点番号、後方向コー
ド及び前方向コード]の組を一つのエントリーとするテ
ーブル構造に比べて、また、[境界点、後方向コード]
のエントリーと[境界点、前方向コード]のエントリー
のペアにより一つの境界点情報を保存するテーブル構造
に比べても、テーブルサイズをさらに削減できる。請求
項6の発明によれば、テーブルサイズの一層の削減が可
能である。According to the fifth aspect of the present invention, by adopting the above-described table structure, compared with a table structure having a set of [boundary point number, backward code and forward code] as one entry, , [Boundary point, backward code]
The table size can be further reduced as compared with a table structure in which one boundary point information is stored by a pair of the entry of [boundary point and forward code]. According to the invention of claim 6, the table size can be further reduced.
【0019】請求項8または9の発明によれば、画像中
の完全に他の領域に含まれる大きさが1つの領域(ノイ
ズ)を境界点抽出処理の対象から排除でき、処理量の削
減に寄与できる。According to the eighth or ninth aspect of the present invention, an area (noise) of one size completely contained in another area in the image can be excluded from the target of the boundary point extraction processing, and the processing amount can be reduced. Can contribute.
【0020】[0020]
【実施例】以下、本発明の実施例について図面を用い説
明する。Embodiments of the present invention will be described below with reference to the drawings.
【0021】実施例1 図1は本発明の領域境界点抽出処理を実行するためのシ
ステム構成の一例を示すブロック図である。10は処理
対象の2値イメージデータを記憶するためのイメージメ
モリ、11はイメージメモリ10内の2値イメージデー
タに対し領域境界点抽出処理を実行する中央演算処理装
置、12はその処理のためのプログラムを記憶している
プログラムメモリである。13は処理のための作業記憶
域を提供するデータメモリであり、画素対応のテーブル
や最終結果(具体例は詳述)などはここに記憶される。 Embodiment 1 FIG. 1 is a block diagram showing an example of a system configuration for executing an area boundary point extracting process according to the present invention. Reference numeral 10 denotes an image memory for storing binary image data to be processed, 11 denotes a central processing unit for executing an area boundary point extraction process on the binary image data in the image memory 10, and 12 denotes an image memory for the processing. This is a program memory that stores programs. Reference numeral 13 denotes a data memory that provides a working storage area for processing, in which a table corresponding to pixels, a final result (specific examples are described in detail), and the like are stored.
【0022】このようなソフトウエアを利用した構成
は、汎用性はあるが、高速性の面では制約が大きいた
め、必要機能をハードウエアもしくはファームウエアに
よって実現する構成も当然に可能である。図2はそのよ
うなシステム構成の一例を示すもので、20はイメージ
データを記憶するためのイメージメモリ、21は画素対
応のテーブル(後述)を格納するためのテーブルメモ
リ、22は最終結果が格納されるデータメモリ、23は
後述のパターン観測と方向コード判定を行なってテーブ
ルメモリ21上の画素対応のテーブルを設定し、またデ
ータメモリ22上に必要数の境界点構造体(後述)する
方向コード判定器、24はデータメモリ22上の境界点
構造体について前後関係の参照付けを行なう前後関係設
定器である。この方向コード判定器23と前後関係設定
器24は、図1の構成ではプログラムによってCPU1
1の機能により実現されるものである。以下の説明にお
いては、図1の構成を参照する。Although such a configuration using software has general versatility, it has great limitations in terms of high-speed performance. Therefore, a configuration in which necessary functions are realized by hardware or firmware is naturally possible. FIG. 2 shows an example of such a system configuration, in which reference numeral 20 denotes an image memory for storing image data, 21 a table memory for storing a pixel correspondence table (described later), and 22 a final result. The data memory 23 performs a pattern observation and a direction code determination described later to set a pixel correspondence table on the table memory 21, and a required number of boundary point structures (described later) on the data memory 22. A decision unit 24 is a context setting unit for referring to the context of the boundary point structure on the data memory 22. In the configuration shown in FIG. 1, the direction code determiner 23 and the context setting unit 24
This is realized by the first function. In the following description, the configuration of FIG. 1 will be referred to.
【0023】つぎに処理内容について説明する。外部の
イメージスキャナーなどから、2値イメージデータがイ
メージメモリ10に入力される。境界点抽出処理は図7
のフロー図に示すように二つの処理段階A,Bからなる
が、この処理はイメージデータの入力が終了してから行
なわれるか、あるいは、この入力と並行して実行され
る。Next, the contents of the processing will be described. Binary image data is input to the image memory 10 from an external image scanner or the like. FIG. 7 shows the boundary point extraction processing.
As shown in the flow chart of FIG. 5, the processing comprises two processing steps A and B. This processing is performed after the input of the image data is completed, or is executed in parallel with the input.
【0024】また、イメージデータ中の各画素に対応し
たテーブルがデータメモリ13上に用意される。このテ
ーブルは、上述のように[境界点番号]と、[後方向コ
ード]、[前方向コード]を表わすエントリーを最大8
エントリー持つテーブルであるが、その具体的構造につ
いては後述する。A table corresponding to each pixel in the image data is prepared on the data memory 13. As described above, this table stores up to eight entries representing [boundary point number], [backward code], and [forward code].
The table has entries, and the specific structure will be described later.
【0025】処理段階A 方向コード判定器23によって、2値イメージデータ中
の各画素について、その画素を中心とする3×3画素パ
ターンが観測され、境界点が検出されて登録され、対応
したテーブルの内容が設定されるとともに、データメモ
リ22に必要数の境界点構造体が作成される。 Processing stage A A 3 × 3 pixel pattern centered on each pixel in the binary image data is observed for each pixel in the binary image data, and a boundary point is detected and registered. Are set, and a required number of boundary point structures are created in the data memory 22.
【0026】すなわち、ある注目する画素を中心とした
画素パターンが、図3に示したパターンの一つ以上と一
致したときは、一致した数だけ境界点を登録し、対応し
たテーブルの境界点数分のエントリーに境界点番号と、
後方向コード(図3の一致パターンに対応した方向コー
ド)と、この後方向コードに対応して図6より求めた前
方向コードとを設定する。前方向コードと画素パターン
の対応関係は、図4に示す通りである。また、方向コー
ドと方向との対応は、図5に示す通りである。That is, when a pixel pattern centered on a certain pixel of interest matches one or more of the patterns shown in FIG. 3, the number of matching points is registered and the number of matching points in the corresponding table is determined. Entry with the boundary point number,
A backward code (a direction code corresponding to the matching pattern in FIG. 3) and a forward code obtained from FIG. 6 corresponding to the backward code are set. The correspondence between the forward direction code and the pixel pattern is as shown in FIG. The correspondence between the direction code and the direction is as shown in FIG.
【0027】ここで、図6について説明する。例えば、
ある境界点の後方向コードが1の場合、その3×3画素
パターンが、図4に示す前方向コード3のパターンと前
方向コード5のパターンのいずれとも一致したとする。
この場合、図6の後方向コード1の行には前方向コード
3が前方向コード5よりも左側に示されているので、前
方向コード3が選ばれテーブルに設定される。Referring now to FIG. For example,
When the backward code of a certain boundary point is 1, it is assumed that the 3 × 3 pixel pattern matches any of the forward code 3 pattern and the forward code 5 pattern shown in FIG.
In this case, since the forward code 3 is shown on the left side of the forward code 5 in the row of the backward code 1 in FIG. 6, the forward code 3 is selected and set in the table.
【0028】図8に、画素対応テーブルの構造の一例を
示す。31,32,33はそれぞれテーブルの一つのエ
ントリーであり、境界点番号、後方向コード、前方向コ
ードの3個のフィールドからなる。このような構造の場
合、一つの画素について最大4エントリーが必要とな
る。図8の左部分に示した画素(境界点)35について
は、同画素な対応したエントリー31は図示のような内
容に設定されることになる。また、画素36(境界点)
については、同画素に対応した2個のエントリー32,
33は図示のような内容に設定される。FIG. 8 shows an example of the structure of the pixel correspondence table. Reference numerals 31, 32, and 33 denote one entry of the table, respectively, and include three fields of a boundary point number, a backward code, and a forward code. In the case of such a structure, up to four entries are required for one pixel. For the pixel (boundary point) 35 shown in the left part of FIG. 8, the corresponding entry 31 corresponding to the pixel is set to the content as shown. Pixel 36 (boundary point)
For the two entries 32,
33 is set as shown in the figure.
【0029】図9に、画素対応テーブルの他の構造例を
示す。41は画素43(図8中の画素35に相当)に対
応した8個のエントリー、42は画素44(図8中の画
素36に相当)に対応した8個のエントリーである。各
エントリーの順番が後方向コードと対応している。すな
わち、この例は、各エントリーの後方向コードが固定さ
れた構造で、各エントリーは境界点番号と前方向コード
のフィールドからなり、画素43,44の場合には図示
のような設定になる。FIG. 9 shows another example of the structure of the pixel correspondence table. Reference numeral 41 denotes eight entries corresponding to the pixel 43 (corresponding to the pixel 35 in FIG. 8), and reference numeral 42 denotes eight entries corresponding to the pixel 44 (corresponding to the pixel 36 in FIG. 8). The order of each entry corresponds to the backward code. That is, this example has a structure in which the backward code of each entry is fixed, and each entry is made up of a boundary point number and a field of a forward code. In the case of pixels 43 and 44, the settings are as shown in the figure.
【0030】なお、各エントリーの前方向コードを固定
し、境界点番号と後方向コードのフィールドを設定する
ような構造も可能である。It is also possible to adopt a structure in which the forward code of each entry is fixed, and the boundary point number and backward code fields are set.
【0031】図10に、データメモリ22に作成される
境界点構造体の一例を示す。ただし、これは前後関係の
参照付けがなされた後の状態を示している。この例にお
いては、51は座標(3,4)にある境界点aの構造
体、52は座標(4,5)にある境界点bの構造体、5
3は座標(4,6)にある境界点cの構造体である。FIG. 10 shows an example of a boundary point structure created in the data memory 22. However, this shows the state after the context is referenced. In this example, 51 is the structure of the boundary point a at the coordinates (3, 4), 52 is the structure of the boundary point b at the coordinates (4, 5), 5
Reference numeral 3 denotes a structure of the boundary point c at the coordinates (4, 6).
【0032】処理段階B 以上の処理の終了後、あるいは同時に、テーブル内容に
基づく境界点の参照付けすなわち前後関係の決定が前後
関係設定器24により行なわれる。ある画素について、
その3×3画素近傍内の全ての画素に対応するテーブル
が設定されたならば、境界点の前後関係を決定できる。After or at the same time as the processing at the processing stage B or more, the reference setting of the boundary points based on the contents of the table, that is, the determination of the context is performed by the context setting unit 24. For a pixel,
If a table corresponding to all the pixels in the vicinity of the 3 × 3 pixels is set, it is possible to determine the order of the boundary points.
【0033】そこで、注目画素のテーブルのエントリー
から、その画素で登録した境界点番号(id)と、その後
方向コード及び前方向コードを読み出す。この前方向コ
ードに従って参照すべきテーブル(参照テーブル)を決
定し、また読み出した後方向コードをキーとして参照テ
ーブル中から参照するエントリーを求め、このエントリ
ー内の境界点idを読み出すことにより、境界点を互いに
参照付ける。Therefore, the boundary point number (id) registered for the target pixel, the backward direction code and the forward direction code are read from the entry of the table of the target pixel. A table (reference table) to be referred to is determined in accordance with the forward direction code, an entry to be referenced is obtained from the reference table using the read backward direction code as a key, and a boundary point id in this entry is read to obtain a boundary point. Are referred to each other.
【0034】例えば、注目した画素について登録された
境界点のエントリー内容が(m,2,1)であったとすると
(図8または図9の境界点番号mの境界点に相当す
る)、前方向コードが1であり、これが図5から右上方
向を示す方向コードであるので、注目画素(図8の画素
36または図9の画素44に相当)から右上の画素に対
応したテーブルを参照する。For example, if the entry content of the boundary point registered for the pixel of interest is (m, 2, 1) (corresponding to the boundary point of boundary point number m in FIG. 8 or FIG. 9), Since the code is 1, which is the direction code indicating the upper right direction from FIG. 5, a table corresponding to the upper right pixel from the target pixel (corresponding to the pixel 36 in FIG. 8 or the pixel 44 in FIG. 9) is referred to.
【0035】この参照したテーブル中には、後方向コー
ドが1に設定されたエントリーの境界点が必ず一つだけ
存在する。このエントリーの内容が(n,1,3)であった
とすれば、この境界点(図8または図9の境界点番号n
の境界点に相当)は境界点の前方向にあるとして、両境
界点(m),(n)が前後に関係付けられる。つまり、
図10に示したような構造の境界点(m)の構造体の
「後方向境界点番号(id)」に境界点(n)の境界点
番号が設定され、また境界点(n)の構造体の「前方向
境界点番号」に境界点(m)の境界点番号が設定され
る。また、注目画素のエントリー(m,2,1)は、後方向
コードが2であるので、図5から分かるように下隣の画
素を処理する過程で参照されることになる。In the referenced table, there is always only one boundary point of the entry for which the backward code is set to 1. If the content of this entry is (n, 1, 3), this boundary point (boundary point number n in FIG. 8 or FIG. 9)
) Are located in front of the boundary point, and the two boundary points (m) and (n) are related before and after. That is,
The boundary point number of the boundary point (n) is set in the “backward boundary point number (id)” of the structure of the boundary point (m) of the structure as shown in FIG. The boundary point number of the boundary point (m) is set in the “front boundary point number” of the body. Also, since the backward code is 2, the entry (m, 2, 1) of the target pixel is referred to in the process of processing the lower adjacent pixel as can be seen from FIG.
【0036】図10の例の場合、境界を左周りに追跡す
るとして、c,b,aの順に追跡されるような関係であ
るならば、矢線で示されるように前後関係の参照付けが
なされることになる。すなわち、境界点cの構造体53
の「前方向境界点番号」に境界点bの境界点番号が設定
され、境界点bの構造体52の「後方向境界点番号」に
境界点cの境界点番号が、「前方向境界点番号」に境界
点aの境界点番号が、それぞれ設定され、また境界点a
の構造体51の「後方向境界点番号」に境界点bの境界
点番号が設定される。このような前後関係の参照付けが
なされた境界点構造体が最終結果のデータである。In the case of the example of FIG. 10, if the relationship is such that the boundary is traced leftward and the traces are traced in the order of c, b, and a, the context is referenced as indicated by the arrow. Will be done. That is, the structure 53 at the boundary point c
Is set to the boundary point number of the boundary point b, and the boundary point number of the boundary point c is set to the “backward boundary point number” of the structure 52 of the boundary point b. No., the boundary point number of the boundary point a is set, and the boundary point a
The boundary point number of the boundary point b is set in the “backward boundary point number” of the structure 51. The boundary point structure referred to in such a context is the final result data.
【0037】以上説明した処理は、完全な並列処理が容
易であり、また3行分の画素値のバッファと3行分のテ
ーブルのバッファとを用意することにより、パイプライ
ン処理による並列化も可能で、このような並列化により
ほぼ実時間(スキャナーから画像を入力する時間)での
領域境界点抽出も可能である。The above-described processing is easy to perform completely in parallel, and by preparing a pixel value buffer for three rows and a buffer for a table for three rows, parallel processing by pipeline processing is also possible. With such parallelization, it is also possible to extract a region boundary point almost in real time (time for inputting an image from a scanner).
【0038】なお、後方向コードを基準に前方向コード
を決定したが、前方向コードを基準に後方向コードを決
定してもよいことは当然である。このことは、本実施例
のみならず後述の他の実施例においても同様である。Although the forward code is determined based on the backward code, it is obvious that the backward code may be determined based on the forward code. This is the same not only in this embodiment but also in other embodiments described later.
【0039】実施例2 本実施例は、図11に示すように、方向コード判定器群
61と前後関係設定器群62を備えることにより、境界
点抽出を並列処理で実行する。方向コード判定器群61
は並列動作する複数の方向コード判定器の集合であり、
個々の方向コード判定器は図2の方向コード判定器23
と同様のものである。また、前後関係設定器群62は並
列動作する複数の前後関係設定器の集合であり、個々の
前後関係判定器は図2の前後関係設定器24と同様のも
のである。これ以外の構成は図2と同様である。 Embodiment 2 In this embodiment, as shown in FIG. 11, a boundary code extraction unit 61 and a context setting unit group 62 are provided to execute boundary point extraction by parallel processing. Direction code determiner group 61
Is a set of a plurality of direction code determiners operating in parallel,
Each direction code determiner is the direction code determiner 23 in FIG.
Is similar to The context setting device group 62 is a set of a plurality of context setting devices that operate in parallel, and each context determination device is the same as the context setting device 24 in FIG. Other configurations are the same as those in FIG.
【0040】境界点抽出の前半処理すなわち図7に示し
た処理段階Aに対応する処理には、イメージメモリ2
0、方向コード判定器群61、テーブルメモリ21、デ
ータメモリ22が関与する。イメージメモリ20の内容
を方向コード判定器群61により観測するが、完全な並
列処理のために、観測対象の画素のデータは通常のRA
Mではなくフリップフロップに蓄えられる。方向コード
判定器群61の各方向コード判定器によって、それぞれ
に対応する画素を中心とする3×3画素パターンの観
測、検出された境界点の画素対応テーブル(テーブルメ
モリ21上)への登録及び境界点構造体(データメモリ
22上)の作成が、複数画素分並列に実行される。複数
画素が同時に処理されることを除いて、各方向コード判
定器により処理内容は前記実施例1の場合と同様であ
り、画素対応テーブルと境界点構造体の構造、画素パタ
ーンと後方向コードの対応、後方向コードと前方向コー
ドに関する規則も前記実施例1と同様である。The first half of the boundary point extraction, that is, the processing corresponding to the processing stage A shown in FIG.
0, the direction code determiner group 61, the table memory 21, and the data memory 22 are involved. The contents of the image memory 20 are observed by the direction code determiner group 61. For complete parallel processing, the data of the pixel to be observed is stored in a normal RA.
It is stored in a flip-flop instead of M. Each direction code determiner of the direction code determiner group 61 observes a 3 × 3 pixel pattern centered on the corresponding pixel, registers the detected boundary point in a pixel correspondence table (on the table memory 21), and The creation of the boundary point structure (on the data memory 22) is executed in parallel for a plurality of pixels. Except that a plurality of pixels are processed at the same time, the processing content by each direction code determiner is the same as that of the first embodiment, and the pixel correspondence table and the structure of the boundary point structure, the pixel pattern and the backward code The rules for correspondence, backward code and forward code are the same as in the first embodiment.
【0041】境界点抽出の後半処理、すなわち図7に示
した処理段階Bに対応する処理には、テーブルメモリ2
1、前後関係設定器群62、データメモリ22が関係す
る。前後関係設定器群62の各前後関係設定器は、それ
ぞれ対応する画素を中心とする3×3画素のテーブル
(テーブルメモリ21上)の内容に従って、境界点の前
後関係を決定し境界点構造体(データメモリ22上)の
「後方向境界点番号」及び「前方向境界点番号」を設定
し参照付けを行なう。このような処理は、並列処理であ
ること以外は前記実施例1の場合と同様である。The latter half of the boundary point extraction, that is, the processing corresponding to the processing stage B shown in FIG.
1, the context setting unit group 62 and the data memory 22 are related. Each of the context setting devices of the context setting device group 62 determines the context of the boundary point in accordance with the contents of the 3 × 3 pixel table (on the table memory 21) centered on the corresponding pixel, and determines the boundary point structure. A “backward boundary point number” and a “forward boundary point number” in (on the data memory 22) are set and referenced. Such processing is the same as in the first embodiment except that the processing is parallel processing.
【0042】実施例3 本実施例はパイプライン処理によって処理を並列化する
もので、そのシステム構成の一例を図12に示す。 Embodiment 3 In this embodiment, processing is parallelized by pipeline processing, and FIG. 12 shows an example of the system configuration.
【0043】図12において、71は入力されるイメー
ジデータの3行(ライン)分の画素値をバッファリング
するための画素値バッファであり、この画素値バッファ
71への入力時(または画素値バッファ71からの出力
時)に3×3画素パターンが3×3画素パターンレジス
タ72に蓄えられる。73は方向コード判定器であり、
これは3×3画素パターンレジスタ72上のパターンを
観測し、図2の方向コード判定器23と同様に、境界点
を検出し、必要数だけ境界点構造体をデータメモリ74
に作成し、また、画素対応テーブルを作成する。このテ
ーブルは3行分のテーブルバッファ75にバッファリン
グされる。このテーブルバッファ75の書き込み時に、
3×3画素のテーブルが3×3テーブルレジスタ76に
バッファリングされる。In FIG. 12, reference numeral 71 denotes a pixel value buffer for buffering pixel values of three lines (lines) of input image data. 3 × 3 pixel pattern is stored in the 3 × 3 pixel pattern register 72 at the time of output from the pixel 71). 73 is a direction code determiner,
This is done by observing the pattern on the 3 × 3 pixel pattern register 72, detecting the boundary points in the same manner as the direction code determiner 23 of FIG.
And a pixel correspondence table is created. This table is buffered in a table buffer 75 for three rows. When writing the table buffer 75,
A table of 3 × 3 pixels is buffered in a 3 × 3 table register 76.
【0044】77は図2の前後関係設定器24と同様の
前後関係設定器であり、これは方向コード判定器73と
同時に動作し、3×3テーブルレジスタ76にバッファ
リングされたテーブルの内容を参照して境界点の前後関
係を決定し、データメモリ74上の境界点構造体に境界
点の前後関係の参照付けをする。かくして、最終結果が
データメモリ74に得られる。なお、境界点構造体と画
素対応テーブルの構造、3×3画素パターンと後方向コ
ード及び前方向コードに関する規則は、前記実施例1と
同様である。Reference numeral 77 denotes a context setting device similar to the context setting device 24 of FIG. 2, which operates simultaneously with the direction code decision device 73, and stores the contents of the table buffered in the 3 × 3 table register 76. The context of the boundary point is determined with reference to the boundary point structure on the data memory 74, and the context of the boundary point is referenced. Thus, the final result is obtained in the data memory 74. The rules for the structure of the boundary point structure and the pixel correspondence table, the 3 × 3 pixel pattern, the backward code, and the forward code are the same as in the first embodiment.
【0045】このようなパイプライン処理の構成によれ
ば、1個の方向コード判定器73と1個の前後関係設定
器77を備えるだけで、処理の高速化が可能であり、イ
メージ入力との実時間処理も容易に実現できる。According to such a configuration of the pipeline processing, it is possible to speed up the processing only by providing one direction code judging unit 73 and one context setting unit 77, and it is possible to perform the processing with the image input. Real-time processing can also be easily realized.
【0046】実施例4 本実施例のシステム構成は図2により示すことができる
が、後述のように、方向コード判定器23と前後関係設
定器24の処理内容及び画素対応テーブルの構造に違い
がある。 Embodiment 4 The system configuration of this embodiment can be shown in FIG. 2, but as will be described later, there are differences in the processing contents of the direction code decision unit 23 and the context setting unit 24 and the structure of the pixel correspondence table. is there.
【0047】本実施例では、イメージデータの走査(左
から右へ主走査、上から下へ副走査するラスター走査)
の順に画素を取り出し処理することを前提としている。
前記各実施例は、このような制限はない。また、境界点
は8連結に限るが、これは前記各実施例の場合と同様で
ある。In this embodiment, scanning of image data (main scanning from left to right, raster scanning for sub-scanning from top to bottom)
In this order.
The above embodiments do not have such a limitation. Although the number of boundary points is limited to eight, this is the same as in the above embodiments.
【0048】このような走査型の処理の場合、注目した
画素の周辺画素の中で左上、上、右上、左にある各画素
は処理済み(その画素に対応する境界点を作成済み)で
あり、未処理の画素は右、左下、下、右下にある画素で
ある。そこで、本実施例においては、走査順に取り出し
た注目画素を中心とした3×3画素パターンを観測して
必要な数だけ境界点を作成するとともに、既に処理済み
の左、左上、上、右上にある画素に対応した境界点との
前後関係を、それらの情報から決定し境界点構造体に設
定する。この際、注目画素に対応したテーブルには、未
処理の周辺画素位置の境界点との間の出入りに関係する
情報(それらの周辺画素の処理時点で現注目画素位置の
境界点との前後関係の決定に必要な情報)だけを蓄え
る。このようにすることによって、境界点の情報を蓄積
するための画素対応テーブルのサイズを削減することが
できる。In the case of such a scanning type process, the upper left, upper, upper right and left pixels among the peripheral pixels of the target pixel have been processed (the boundary points corresponding to the pixel have been created). , Unprocessed pixels are pixels on the right, lower left, lower, lower right. Thus, in the present embodiment, a required number of boundary points are created by observing a 3 × 3 pixel pattern centered on the target pixel extracted in the scanning order, and the already processed left, upper left, upper, and upper right The context with the boundary point corresponding to a certain pixel is determined from the information and set in the boundary point structure. At this time, the table corresponding to the pixel of interest contains information relating to the ingress and egress between the unprocessed peripheral pixel position and the boundary point of the current pixel position at the time of processing of those peripheral pixels. Only the information necessary for the decision). By doing so, it is possible to reduce the size of the pixel correspondence table for storing information on the boundary points.
【0049】図13は、3×3画素パターンの内部にお
いて起こり得る局所パターンをコード化したものであ
る。領域内部を左に見るように追跡するとして、図示の
パターンコード0〜15,−1の中で、0〜7は中央の
画素に入る境界点列の方向を表わすコードすなわち前記
の後方向コードである。8〜15は中央の画素から出て
いく境界点列の方向を示すコードすなわち前記の前方向
コードである。このように、後方向コードと前方向コー
ドを区別せずにパターンコード(方向コード)として統
一的に扱われる。また、−1は中央の画素が孤立点であ
ることを意味するコードである。FIG. 13 is an encoding of a local pattern that can occur within a 3 × 3 pixel pattern. Assuming that the inside of the area is tracked as seen to the left, among the pattern codes 0 to 15 and -1 shown, 0 to 7 are codes representing the direction of the boundary point sequence entering the central pixel, that is, the backward code described above. is there. Numerals 8 to 15 are codes indicating the direction of the boundary point sequence exiting from the central pixel, that is, the above-mentioned forward code. In this way, the backward code and the forward code are unified and treated as a pattern code (direction code) without distinction. -1 is a code indicating that the central pixel is an isolated point.
【0050】後方向コードに対応するパターンコードの
0と1、2と3、4と5、6と7は、それぞれのパター
ンが一つの画素について同時に観測されることは有り得
ない。同様に、前方向コードに対応するパターンコード
の8と9、10と11、12と13、14と15は、そ
れぞれのパターンが一つの画素について同時に観測され
ることはない。そこで本実施例では、そのような同時に
出現しないパターンの組を次のようにグループ化する
(図13参照)。 パターングループA(パターンコード0,1):左下ま
たは下の境界点から入るパターン パターングループB(パターンコード2,3):右下ま
たは右の境界点から入るパターン パターングループC(パターンコード4,5):右上ま
たは上の境界点から入るパターン パターングループD(パターンコード6,7):左上ま
たは左の境界点から入るパターン パターングループE(パターンコード8,9):右上ま
たは上の境界点に出るパターン パターングループF(パターンコード 10,11):左上ま
たは上の境界点に出るパターン パターングループG(パターンコード 12,13):左下ま
たは下の境界点に出るパターン パターングループH(パターンコード 14,15):右下ま
たは右の境界点に出るパターンRegarding the pattern codes 0, 1, 2, 3, 4, 5, and 6 and 7 corresponding to the backward code, it is impossible that each pattern is observed simultaneously for one pixel. Similarly, pattern codes 8, 9, 10, and 11, 12 and 13, and 14 and 15 corresponding to the forward code are not observed simultaneously for one pixel. Thus, in the present embodiment, such sets of patterns that do not appear at the same time are grouped as follows (see FIG. 13). Pattern group A (pattern code 0, 1): pattern entering from lower left or lower boundary point Pattern group B (pattern code 2, 3): pattern entering from lower right or right boundary point Pattern group C (pattern code 4, 5) ): Pattern entering from upper right or upper boundary point Pattern group D (Pattern code 6, 7): Pattern entering from upper left or left boundary point Pattern group E (Pattern code 8, 9): Exiting at upper right or upper boundary point Pattern Pattern group F (Pattern code 10, 11): Pattern appearing at the upper left or upper boundary point Pattern group G (Pattern code 12, 13): Pattern appearing at the lower left or lower boundary point Pattern group H (Pattern code 14, 15) ): Pattern that appears at the lower right or right boundary point
【0051】ここで、本実施例において、境界点のテー
ブルに蓄積される情報は、注目する画素と、その左下、
下、右下、左に隣接する画素位置においてできるであろ
う境界点との間の出入りに関係する情報のみである。す
なわち、パターングループA,B,E,Hに関する情報
のみである。他のパターングループC,D,E,Fに関
しては、既に、処理済みの隣接画素についてテーブルに
蓄積されている情報に基づき、注目画素位置の境界点と
の前後関係を決定できるからである。Here, in this embodiment, the information stored in the boundary point table includes the pixel of interest, its lower left,
Only information relating to entry and exit from the boundary points that may be formed at pixel positions adjacent to the lower, lower right and left sides. That is, it is only information on the pattern groups A, B, E, and H. This is because, for the other pattern groups C, D, E, and F, it is possible to determine the context of the target pixel position with respect to the boundary point based on the information stored in the table for the processed adjacent pixels.
【0052】以下、処理内容を説明する。図14は処理
の概略フロー図である。Hereinafter, the processing contents will be described. FIG. 14 is a schematic flowchart of the process.
【0053】方向コード判定器23は、イメージメモリ
20より走査順に画素を取り出し(ステップ80)、注
目画素を中心とした3×3画素のパターンを観測してパ
ターングループのペアを検出する(ステップ84)。こ
のパターングループのペアの検出は次のような処理であ
る。The direction code determiner 23 takes out the pixels from the image memory 20 in the scanning order (step 80), observes the pattern of 3 × 3 pixels centering on the pixel of interest, and detects a pattern group pair (step 84). ). The detection of this pattern group pair is as follows.
【0054】観測されたパターングループA〜Dのパタ
ーンコード(後方向コード)に対して、次のようにして
決まるパターングループとをペアとして検出する。 a)パターングループA(のコード)と、H,E,F,
Gのいずれかで、この順序で最も前の一致したパターン
グループ(のコード)。(例えば、EとFの両方のパター
ンと一致する場合、H,E,F,Gの順からはEが先で
あるので、EとAをパターングループのペアとして検出
する。以下同様)。 b)パターングループB(のコード)と、E,F,G,
Hのいずれかで、この順序で最も前の一致したパターン
グループ(のコード)。 c)パターングループC(のコード)と、F,G,H,
Eのいずれかで、この順序で最も前の一致したパターン
グループ(のコード)。 d)パターングループD(のコード)と、G,H,E,
Fのいずれかで、この順序で最も前の一致したパターン
グループ(のコード)。For the observed pattern codes (backward codes) of the pattern groups A to D, a pattern group determined as follows is detected as a pair. a) (code of) pattern group A, H, E, F,
The first of the matched pattern groups in this order, in any of G (For example, if the pattern matches both the patterns E and F, E and A are detected as a pair of pattern groups since E is first in the order of H, E, F, and G. The same applies hereinafter). b) (code of) pattern group B, E, F, G,
The first of the matched pattern groups in this order, in any of H. c) (code of) pattern group C, F, G, H,
E (the code of) the earliest matched pattern group in this order, in any of E. d) (code of) pattern group D, G, H, E,
F (the code of) the first matched pattern group in this order in any of F.
【0055】なお、観測されたパターングループE〜H
のパターンコード(前方向コード)に対して、次のよう
にしてペアを検出してもよい。 e)パターングループE(のコード)と、B,A,D,
Cのいずれかで、この順序で最も前の一致したパターン
グループ(のコード)。 f)パターングループF(のコード)と、C,B,A,
Dのいずれかで、この順序で最も前の一致したパターン
グループ(のコード)。 g)パターングループG(のコード)と、D,C,B,
Aのいずれかで、この順序で最も前の一致したパターン
グループ(のコード)。 h)パターングループG(のコード)と、A,D,C,
Bのいずれかで、この順序で最も前の一致したパターン
グループ(のコード)。The observed pattern groups E to H
With respect to the pattern code (forward code), a pair may be detected as follows. e) (code of) pattern group E, B, A, D,
C, the (first code) of the first matching pattern group in this order. f) (code of) pattern group F, C, B, A,
D, (the code of) the first matched pattern group in this order in this order. g) (code of) pattern group G, D, C, B,
A (the code of) the first matching pattern group in this order in any of A. h) (code of) pattern group G, A, D, C,
B (the code of the first matched pattern group in this order).
【0056】方向コード判定器23は、このようなパタ
ーングループのペアの一つ一つについて、一つの境界点
を作成する、すなわち一つの境界点構造体をデータメモ
リ22に作成する(ステップ90)。ただし、観測した
パターンコードが−1の場合、一つの境界点を作成する
のみである。The direction code determiner 23 creates one boundary point for each pair of such pattern groups, that is, creates one boundary point structure in the data memory 22 (step 90). . However, when the observed pattern code is -1, only one boundary point is created.
【0057】前述のようにA,B,G,Hの情報のみを
テーブルに蓄積すればよい。そこで、方向コード判定器
23は、各パターングループ・ペアの後方向コードが
4,5,6または7(パターングループではCまたは
D)であるか、0,1,2または3(AまたはB)であ
るか調べる(ステップ92)。後方向コードが0,1,
2または3の場合、方向コード判定器23は、その後方
向コードを境界点番号とともにテーブルメモリ21上の
対応したテーブルに登録する(ステップ94)。後方向
コードが4,5,6または7の場合、テーブルには登録
されず、前後関係設定器24が注目画素の左、左上、上
または右上の画素に対応するテーブルを参照し、データ
メモリ22上の境界点構造体を前後に参照付けする(ス
テップ96)。As described above, only the information of A, B, G, and H need be stored in the table. Therefore, the direction code determiner 23 determines whether the backward code of each pattern group pair is 4, 5, 6, or 7 (C or D in the pattern group), or 0, 1, 2, or 3 (A or B). Is checked (step 92). If the backward code is 0,1,
In the case of 2 or 3, the direction code determiner 23 then registers the direction code together with the boundary point number in the corresponding table on the table memory 21 (step 94). If the backward direction code is 4, 5, 6 or 7, it is not registered in the table, and the context setting unit 24 refers to the table corresponding to the pixel at the left, upper left, upper or upper right of the target pixel, and The upper boundary point structure is referenced before and after (step 96).
【0058】次に、方向コード判定器23は、パターン
グループ・ペアの前方向コードが12,13,14また
は15(GまたはH)であるか、8,9,10または1
1(EまたはF)であるか調べる。そして、12,1
3,14または15の場合、そのコードをテーブルに登
録する(ステップ100)。そうでない場合は前方向コ
ードのテーブルへの登録は行なわれず、前後関係設定器
24が注目画素の左、左上、上、右上の画素位置に対応
するテーブルを参照し、境界点構造体を前後に参照付け
る(ステップ102)。Next, the direction code determiner 23 determines whether the forward code of the pattern group pair is 12, 13, 14 or 15 (G or H), 8, 9, 10 or 1
Check if it is 1 (E or F). And 12,1
In the case of 3, 14, or 15, the code is registered in the table (step 100). Otherwise, the forward code is not registered in the table, and the context setting unit 24 refers to the table corresponding to the left, upper left, upper, and upper right pixel positions of the target pixel, and moves the boundary point structure forward and backward. Reference is made (step 102).
【0059】このような処理が全てのパターンコード・
ペアについて実行されることにより、データメモリ22
上に前後関係を参照付けられた境界点構造体が抽出結果
として得られる。Such processing is performed for all pattern codes
By being executed for the pair, the data memory 22
The boundary point structure to which the context is referred to above is obtained as an extraction result.
【0060】画素対応のテーブルの構造の一例を図15
に示す。本実施例では、図13のように後方向コードと
前方向コードは重複がないので、前方向コードと後方向
コードを未参照方向コードとして統一的に扱い、これと
境界点番号とをテーブルの一つのエントリーに設定す
る。この例において、110は左部分に示す画素111
に対応するテーブルの一つのエントリーで、この画素に
ついて検出されるパターングループ・ペアはA−E(後
方向コード0−前方向コード9)のみであり、E(9)
はテーブルに蓄積する必要がないため、後方向コード0
だけが設定されることになる。112は画素113に対
応するテーブルの二つのエントリーであり、この場合は
後方向コード1と前方向コード12がそれぞれ境界点番
号とともに各エントリーに設定される。このようなテー
ブル構造によれば、(境界点番号、前方向コード、後方
向コード)の組を一つのエントリーとする場合に比べテ
ーブルサイズが少なくなることは勿論のこと、1組の
(境界点番号、後方向コード、前方向コード)を、(境
界点番号と前方向コード)、(境界点番号と後方向コー
ド)の二つの組とし、それぞれをテーブルの一つのエン
トリーとした場合に比べてテーブルサイズは半分です
む。FIG. 15 shows an example of the structure of a table corresponding to pixels.
Shown in In this embodiment, since the backward code and the forward code do not overlap as shown in FIG. 13, the forward code and the backward code are unified as unreferenced direction codes, and this and the boundary point number are stored in the table. Set for one entry. In this example, 110 is a pixel 111 shown in the left part.
Is the only pattern group pair detected for this pixel in one entry of the table corresponding to A-E (backward code 0-forward code 9), and E (9)
Does not need to be stored in the table, so backward code 0
Only will be set. Reference numeral 112 denotes two entries of the table corresponding to the pixel 113. In this case, the backward code 1 and the forward code 12 are set in each entry together with the boundary point number. According to such a table structure, it is needless to say that the table size is reduced as compared with the case where a set of (boundary point number, forward code, backward code) is one entry, and one set of (boundary point Number, backward code, forward code) as two sets of (boundary point number and forward code) and (boundary point number and backward code), each of which is a single entry in the table. The table size is half.
【0061】実施例5 本実施例は、前記実施例5の改良例であり、そのシステ
ム構成は前記実施例と同様でよく、また処理内容も基本
的に前記実施例6と同様でそのフローは図14で表わす
ことができる。本実施例と前記実施例4との主要な相違
点はテーブル構造に関する。この相違点について以下説
明する。 Fifth Embodiment This embodiment is an improvement of the fifth embodiment. The system configuration may be the same as that of the fifth embodiment, and the processing is basically the same as that of the sixth embodiment. This can be represented in FIG. The main difference between the present embodiment and the fourth embodiment relates to the table structure. This difference will be described below.
【0062】本実施例においては、一つの画素対応のテ
ーブルは4個のエントリーからなり、各エントリーは、
同時に起こりえない特定の二つのパターンコードに割り
当てられている。すなわち、一つのテーブルは、パター
ングループAまたはEに関するエントリー、BまたはF
に関するエントリー、GまたはCに関するエントリー、
HまたはDに関するエントリーからなる。このようにす
るため、テーブルのエントリー数が半分の4個で済むわ
けである。さらに、エントリーの順番と、それに割り当
てられたパターングループとの間に一意の関係がある。
つまりエントリーの順序に意味を持たせている。ただ
し、この順序は一例である。このようにエントリーの順
序によってパターングループ(方向コード)が特定され
る結果、各エントリーには境界点番号だけを設定すれば
よくなり、各エントリーのサイズが最小になり、必要な
テーブルサイズは前記実施例4に比べても非常に小さく
て済むことになる。ただし、テーブルへ設定されるのは
パターングループA,B,G,Hのいずれかのパターン
コードの場合に限り、その後に参照される場合にはパタ
ーングループE,F,C,Dのいずれかとして参照され
ることになる。In this embodiment, a table corresponding to one pixel includes four entries, and each entry is
It is assigned to two specific pattern codes that cannot occur at the same time. That is, one table has entries for pattern groups A or E, B or F
Entry for G, entry for G or C,
Consists of entries for H or D. Thus, the number of entries in the table is reduced to half, that is, four. Furthermore, there is a unique relationship between the order of entries and the pattern groups assigned to them.
In other words, the order of entries has meaning. However, this order is an example. As a result of specifying the pattern group (direction code) according to the order of the entries as described above, only the boundary point number needs to be set for each entry, the size of each entry is minimized, and the required table size is set as described in the above. It will be much smaller than in Example 4. However, only the pattern code of one of the pattern groups A, B, G, and H is set in the table, and if the pattern code is subsequently referred to, it is set as one of the pattern groups E, F, C, and D. Will be referenced.
【0063】処理について説明する。パターングループ
のペアがA−E(パターンコードで0−9)の場合、A
(後方向コード0)に関しては蓄積すべき情報であるた
め、ステップ94(図14)において、対応したテーブ
ルの1番目のエントリーに境界点番号が設定される。E
(9)に関しては、これは蓄積する必要がないのでテー
ブルには設定されない。ステップ102において、注目
画素の上の画素に対応するテーブルの1番目のエントリ
ーから境界点番号を取り出して前後関係を決定できるか
らである。The processing will be described. If the pattern group pair is AE (0-9 in the pattern code), A
Since (backward code 0) is information to be stored, the boundary point number is set in the first entry of the corresponding table in step 94 (FIG. 14). E
Regarding (9), this is not set in the table because it does not need to be stored. This is because in step 102, the boundary point number can be extracted from the first entry of the table corresponding to the pixel above the target pixel to determine the context.
【0064】図16は画素パターンの例とテーブルの設
定内容を示す。120は左部分に示された画素122に
対応したテーブルである。121は画素123に対応し
たテーブルである。この例において、画素122につい
て検出されるパターングループEはテーブル120には
蓄積されないが、左下の画素123の処理時に、そのテ
ーブル121の1番目のエントリーが参照されることに
より、前後関係が決定されることを理解できるであろ
う。FIG. 16 shows an example of a pixel pattern and setting contents of a table. Reference numeral 120 denotes a table corresponding to the pixel 122 shown in the left part. Reference numeral 121 denotes a table corresponding to the pixel 123. In this example, the pattern group E detected for the pixel 122 is not stored in the table 120, but the context is determined by referring to the first entry of the table 121 when processing the lower left pixel 123. You will understand that.
【0065】実施例6 前記実施例4,5はいずれもパイプライン処理によって
処理を並列化することができる。本実施例は、パイプラ
イン処理による並列化の例であり、そのシステム構成を
図7に示す。処理の内容は、パイプライン処理であるこ
とを除けば前記実施例5,6と同様であり、そのフロー
図は図14のように表わされる。 Embodiment 6 In each of Embodiments 4 and 5, processing can be parallelized by pipeline processing. The present embodiment is an example of parallelization by pipeline processing, and the system configuration is shown in FIG. The contents of the processing are the same as those of the fifth and sixth embodiments except that the processing is a pipeline processing, and the flowchart is shown in FIG.
【0066】図17において、131は入力されるイメ
ージデータの3行(ライン)分の画素値をバッファリン
グするための画素値バッファであ。この画素値バッファ
131への入力時(または画素値バッファ131からの
出力時)に画素値が3×3画素パターンレジスタ132
にバッファリングされることによって、3×3画素パタ
ーンが3×3画素パターンレジスタ72に蓄えられる。In FIG. 17, reference numeral 131 denotes a pixel value buffer for buffering pixel values of three lines (lines) of input image data. At the time of input to the pixel value buffer 131 (or at the time of output from the pixel value buffer 131), the pixel value is set to the 3 × 3 pixel pattern register 132.
, The 3 × 3 pixel pattern is stored in the 3 × 3 pixel pattern register 72.
【0067】133は方向コード判定器(パターングル
ープ・ペア判定器)であり、これは3×3画素パターン
レジスタ132上のパターンを観測し、前記実施例4ま
たは5に説明したようにパターングループ・ペアを検出
し、検出したペアの数だけデータメモリ134上に境界
点構造体を作成する。このとき、ペアのパターングルー
プがA,B,G,Hのいずれかであれば、注目画素(観
測された3×3画素パターンの中央画素)に対応するテ
ーブルの対応エントリーに境界点番号を設定する。な
お、ここでは前記実施例5と同様なパターングループと
エントリーの順序とを対応付けたテーブル構造であると
して説明しているが、前記実施例4と同様のテーブル構
造でもよい。Reference numeral 133 denotes a direction code judging unit (pattern group / pair judging unit) which observes the pattern on the 3 × 3 pixel pattern register 132 and, as described in the fourth or fifth embodiment, determines the pattern group / pair. The pairs are detected, and boundary point structures are created on the data memory 134 by the number of detected pairs. At this time, if the pattern group of the pair is any of A, B, G, and H, the boundary point number is set in the corresponding entry of the table corresponding to the target pixel (the central pixel of the observed 3 × 3 pixel pattern). I do. Here, the table structure is described as having the same pattern group and entry order as in the fifth embodiment, but may be the same as in the fourth embodiment.
【0068】135は方向コード判定器133により作
成された画素対応のテーブルを2行分バッファリングす
るためのテーブルバッファである。このテーブルバッフ
ァ135の書き込み時に、テーブルがテーブルレジスタ
136にバッファリングされることにより、方向コード
判定器133の注目画素と、その左、左上、上、、右上
の合計5画素分のテーブルがテーブルレジスタ136上
に蓄積される。137は前後関係設定器であり、これは
注目画素より検出されたパターングループがC,D,
E,Fのいずれかであれば、テーブルレジスタ136上
の処理済みの周辺4画素のテーブルを参照することによ
って境界点の前後関係を決定し、データメモリ134上
の境界点構造体に前後関係の参照付けをする。Reference numeral 135 denotes a table buffer for buffering two rows of the pixel correspondence table created by the direction code determiner 133. When the table buffer 135 is written, the table is buffered in the table register 136, so that the target pixel of the direction code determiner 133 and a table of a total of five pixels on the left, upper left, upper, and upper right are stored in the table register 136. 136. Reference numeral 137 denotes an in-context relation setting unit, which is used to determine whether a pattern group detected from the target pixel is C, D,
If it is any of E and F, the context of the boundary point is determined by referring to the table of the processed peripheral four pixels on the table register 136, and the context of the boundary point structure on the data memory 134 is determined. Make a reference.
【0069】このようなパイプライン処理の構成によれ
ば、イメージ入力との実時間処理も容易に実現できる。
また、前記実施例3に比べテーブルサイズが小さくてよ
く、したがってテーブルバッファ135及びテーブルレ
ジスタ136の容量を削減できる。According to such a configuration of the pipeline processing, real-time processing with image input can be easily realized.
Further, the table size may be smaller than that of the third embodiment, so that the capacity of the table buffer 135 and the table register 136 can be reduced.
【0070】実施例7 本実施例は、前記各実施例の方向コード判定の前処理と
して、4連結の意味で大きさが1画素であり完全に他の
領域に含まれる領域をノイズと看做して、その大部分を
除去する処理を行なうものである。このノイズ除去処理
の機能は、方向コード判定器に組み込むことも可能であ
るし、方向コード判定器の前段に独立した回路として付
加してもよく、また、図1に示すようなソフトウエア処
理によるシステム構成の場合には、ノイズ除去処理を方
向コード判定処理のプログラムに組み込むか、または独
立した前処理プログラムとして追加することができる。
したがって、システム構成の具体例の説明は省略し、ノ
イズ除去処理の内容について以下に説明する。 Embodiment 7 In this embodiment, as preprocessing for the direction code determination in each of the above embodiments, a region having a size of one pixel in the sense of four connections and completely included in another region is regarded as noise. Then, a process for removing most of them is performed. The function of the noise removal processing can be incorporated in the direction code determiner, may be added as an independent circuit before the direction code determiner, and may be implemented by software processing as shown in FIG. In the case of a system configuration, the noise removal processing can be incorporated in a program for the direction code determination processing, or can be added as an independent preprocessing program.
Therefore, description of a specific example of the system configuration is omitted, and the content of the noise removal processing will be described below.
【0071】図18はノイズ除去処理のフロー図であ
る。また、図19は除去されるノイズを説明するための
パターン図である。FIG. 18 is a flowchart of the noise removal processing. FIG. 19 is a pattern diagram for explaining noise to be removed.
【0072】ステップ150において、注目する画素を
中心とした3×3画素パターンを観測する。次のステッ
プ152において、注目画素の周囲画素が全て同一の画
素値であれば、注目画素の画素値を周囲画素の画素値に
変更する。すなわち、図19に示す3×3画素パターン
161は、その中央の画素162がノイズとして除去さ
れる結果、パターン163のように変換される。In step 150, a 3 × 3 pixel pattern centering on the pixel of interest is observed. In the next step 152, if all the peripheral pixels of the target pixel have the same pixel value, the pixel value of the target pixel is changed to the pixel value of the peripheral pixel. That is, the 3 × 3 pixel pattern 161 shown in FIG. 19 is converted like the pattern 163 as a result of removing the central pixel 162 as noise.
【0073】ステップ154において、「注目する画素
と、その左下及び右下の画素の画素値が等しく」、かつ
「注目画素と、その一つ下の画素の画素値が等しくな
く」、かつ「注目画素の一つ下の画素と、注目画素の左
の画素の画素値が等しくない」場合は、注目画素の二つ
下の画素の画素値を調べ、この画素値が注目画素と等し
いときは、注目画素の一つ下の画素を注目画素の画素値
に変更する。すなわち、図19に示すパターン164
は、その注目画素165の一つ下の画素166がノイズ
とみなされる結果、パターン167のように変換され
る。In step 154, "the pixel value of the pixel of interest is equal to the pixel value of the lower left and lower right pixels", "the pixel value of the pixel of interest is not equal to the pixel value of the pixel immediately below it", and When the pixel value of the pixel immediately below the pixel and the pixel to the left of the pixel of interest are not equal, the pixel value of the pixel two pixels below the pixel of interest is checked, and when this pixel value is equal to the pixel of interest, The pixel immediately below the target pixel is changed to the pixel value of the target pixel. That is, the pattern 164 shown in FIG.
Is converted as a pattern 167 as a result of the pixel 166 immediately below the pixel of interest 165 being regarded as noise.
【0074】なお、白黒2値画像の黒画素領域のみの境
界抽出の場合、ステップ154は次のよう簡略される。
すなわち、「注目画素と、その左下及び右下の画素の画
素値が等しく」、かつ「注目画素と、その一つ下の画素
の画素値が等しくない」場合は、注目画素の二つ下の画
素の画素値を調べ、この画素値が注目画素の画素値と等
しいときは、注目画素の一つ下の画素を、注目画素の画
素値に変更する。すなわち、図19に示すパターン16
8は、注目画素169の一つ下の画素170がノイズと
して除去される結果、パターン171のように変換され
る。In the case of extracting the boundary of only the black pixel area of the black and white binary image, step 154 is simplified as follows.
That is, "the pixel value of the pixel of interest and the lower left and lower right pixels thereof are equal" and "the pixel value of the pixel of interest and the pixel immediately below it are not equal" are two pixels below the pixel of interest. The pixel value of the pixel is checked, and if this pixel value is equal to the pixel value of the pixel of interest, the pixel immediately below the pixel of interest is changed to the pixel value of the pixel of interest. That is, the pattern 16 shown in FIG.
8 is converted as a pattern 171 as a result of removing the pixel 170 immediately below the target pixel 169 as noise.
【0075】このようなノイズ処理を行なえば、大きさ
1の領域をノイズとして除去することによって無駄な境
界点の生成を減らすことができるため、境界点抽出の処
理量を削減できる効果がある。When such noise processing is performed, the generation of useless boundary points can be reduced by removing the area of size 1 as noise, and thus the effect of reducing the processing amount of boundary point extraction can be obtained.
【0076】[0076]
【発明の効果】以上の詳細説明から明らかなように、本
発明によれば以下の効果を得られる。 (1)請求項1の発明によれば、境界点抽出の並列処理
が極めて容易になる。 (2)請求項2の発明によれば、完全な並列処理によっ
て極めて高速な境界点抽出が可能になる。 (3)請求項3または7の発明によれば、境界点抽出処
理を並列化し高速化できるとともに、テーブルと画素値
のバッファリングのためのメモリ量も少なくできる。 (4)請求項4、5または6の発明によれば、テーブル
サイズを削減できる。 (5)請求項8または9の発明によれば、完全に他の領
域に含まれる大きさが1のノイズを境界点抽出の対象か
ら排除し、ノイズによる処理量の増加を避けることがで
きる。As is apparent from the above detailed description, the following effects can be obtained according to the present invention. (1) According to the first aspect of the present invention, parallel processing of boundary point extraction becomes extremely easy. (2) According to the second aspect of the present invention, extremely high-speed boundary point extraction can be performed by complete parallel processing. (3) According to the third or seventh aspect of the invention, the boundary point extraction processing can be parallelized and speeded up, and the amount of memory for buffering the table and pixel values can be reduced. (4) According to the invention of claim 4, 5 or 6, the table size can be reduced. (5) According to the eighth or ninth aspect of the present invention, noise having a magnitude of 1 completely included in another region can be excluded from boundary point extraction targets, and an increase in processing amount due to noise can be avoided.
【図1】実施例1のシステム構成の一例を示すブロック
図である。FIG. 1 is a block diagram illustrating an example of a system configuration according to a first embodiment.
【図2】実施例1のシステム構成の他の例を示すブロッ
ク図である。FIG. 2 is a block diagram illustrating another example of the system configuration according to the first embodiment.
【図3】3×3画素パターンと後方向コードを説明する
パターン図である。FIG. 3 is a pattern diagram illustrating a 3 × 3 pixel pattern and a backward code.
【図4】3×3画素パターンと前方向コードを説明する
パターン図である。FIG. 4 is a pattern diagram illustrating a 3 × 3 pixel pattern and a forward code.
【図5】方向コードの説明図である。FIG. 5 is an explanatory diagram of a direction code.
【図6】後方向コードと、それに対応した前方向コード
の選択の優先順の説明図である。FIG. 6 is an explanatory diagram of a priority order of selection of a backward code and a corresponding forward code.
【図7】実施例1の処理フロー図である。FIG. 7 is a processing flowchart of the first embodiment.
【図8】画素対応テーブルの構造の一例の説明図であ
る。FIG. 8 is an explanatory diagram of an example of the structure of a pixel correspondence table.
【図9】画素対応テーブルの構造の他の例の説明図であ
る。FIG. 9 is an explanatory diagram of another example of the structure of the pixel correspondence table.
【図10】境界点構造体の一例の説明図である。FIG. 10 is an explanatory diagram of an example of a boundary point structure.
【図11】実施例2のシステム構成を示すブロック図で
ある。FIG. 11 is a block diagram illustrating a system configuration according to a second embodiment.
【図12】実施例3のシステム構成を示すブロック図で
ある。FIG. 12 is a block diagram illustrating a system configuration according to a third embodiment.
【図13】パターンコードとパターングループを説明す
るパターン図である。FIG. 13 is a pattern diagram illustrating a pattern code and a pattern group.
【図14】実施例4の処理フロー図である。FIG. 14 is a processing flowchart of the fourth embodiment.
【図15】実施例4の画素対応テーブルの構造の説明図
である。FIG. 15 is an explanatory diagram of a structure of a pixel correspondence table according to the fourth embodiment.
【図16】実施例5の画素対応テーブルの構造の説明図
である。FIG. 16 is an explanatory diagram of a structure of a pixel correspondence table according to the fifth embodiment.
【図17】実施例6のシステム構成を示すブロック図で
ある。FIG. 17 is a block diagram illustrating a system configuration according to a sixth embodiment.
【図18】ノイズ除去の処理フロー図である。FIG. 18 is a processing flowchart of noise removal.
【図19】ノイズ除去の説明のためのパターン図であ
る。FIG. 19 is a pattern diagram for explaining noise removal.
20 イメージメモリ 21 テーブルメモリ 22,74,134 データメモリ 23,73,133 方向コード判定器 24,77,137 前後関係設定器 61 方向コード判定器群 62 前後関係設定器群 71,131 画素値バッファ 72,132 3×3画素パターンレジスタ 75,135 テーブルバッファ 76 3×3テーブルレジスタ 136 テーブルレジスタ 20 Image memory 21 Table memory 22,74,134 Data memory 23,73,133 Direction code determiner 24,77,137 Pre / post relation setting unit 61 Direction code judgment group 62 Pre / post relation setting group 71,131 Pixel value buffer 72,132 3 × 3 pixel pattern register 75,135 Table Buffer 76 3 × 3 table register 136 table register
フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 7/60 JICSTファイル(JOIS)Continuation of the front page (58) Field surveyed (Int.Cl. 7 , DB name) G06T 7/60 JICST file (JOIS)
Claims (9)
とともに境界点の前後関係を求める領域境界点抽出方法
において、境界点を識別するための番号と、境界点に入
って来るときの進行方向を意味する後方向コードと、境
界点から出て行くときの進行方向を示す前方向コードと
の組を一つのエントリーとする、最大8エントリーのテ
ーブルを画素毎に用意し、注目画素を中心とした3×3
画素パターンを観測することにより注目画素に対応した
テーブルの内容を設定し、方向コードをキーとしたテー
ブルの参照により境界点の前後関係を決定することを特
徴とする領域境界点抽出方法。1. An area boundary point extraction method for detecting a boundary point of an area in image data and obtaining the context of the boundary point, a number for identifying the boundary point, and a progress when entering the boundary point. A table of up to eight entries is prepared for each pixel, in which a set of a backward code indicating a direction and a forward code indicating a traveling direction when the vehicle goes out of the boundary point is prepared as one entry, and a table including a target pixel as a center is provided. 3x3
An area boundary point extraction method, wherein the contents of a table corresponding to a target pixel are set by observing a pixel pattern, and the order of the boundary points is determined by referring to the table using a direction code as a key.
設定するための手段と、テーブルを参照し境界点の前後
関係を決定するための手段をそれぞれ複数用い、処理を
複数の画素位置について並列に実行することを特徴とす
る請求項1記載の領域境界点抽出方法。2. A plurality of means for observing a 3 × 3 pixel pattern and setting a table and a plurality of means for determining the anteroposterior relationship of a boundary point with reference to the table are used, and the processing is performed in parallel for a plurality of pixel positions. 2. The method according to claim 1, wherein the method is executed in the following manner.
めの手段及び3行分の画素対応のテーブルをバッファリ
ングするための手段を用い、3×3画素パターンを観測
しテーブルを設定する処理と、テーブルを参照し境界点
の前後関係を決定する処理をパイプライン処理すること
を特徴とする請求項1記載の領域境界点抽出方法。3. A process for observing a 3 × 3 pixel pattern and setting a table using a means for buffering pixel values for three rows and a means for buffering a table corresponding to pixels for three rows. 2. A region boundary point extraction method according to claim 1, wherein a process of determining the context of the boundary points with reference to a table is performed by pipeline processing.
注目画素に対応するテーブルに、その周辺画素中の未処
理画素と関係する情報だけを設定することを特徴とする
請求項1記載の領域境界点抽出方法。4. A target pixel is selected in the scanning order of the image data,
2. The area boundary point extracting method according to claim 1, wherein only information relating to an unprocessed pixel among its surrounding pixels is set in a table corresponding to the target pixel.
扱い、一つの方向コードと境界点番号の組をテーブルの
一つのエントリーとすることを特徴とする請求項4記載
の領域境界点抽出方法。5. The region boundary point extraction according to claim 4, wherein the forward code and the rearward code are treated in a unified manner, and a set of one direction code and a boundary point number is made one entry of a table. Method.
えない特定の複数の方向コードを割り当て、境界点番号
のみをテーブルの一つのエントリーとすることを特徴と
する請求項4記載の領域境界点抽出方法。6. The area boundary point extracting method according to claim 4, wherein a plurality of specific direction codes that cannot occur at the same time are assigned to each entry of the table, and only the boundary point number is used as one entry of the table. .
めの手段及び2行分の画素対応のテーブルをバッファリ
ングするための手段を用い、3×3画素パターンを観測
しテーブルを設定する処理と、テーブルを参照し境界点
の前後関係を決定する処理をパイプライン処理すること
を特徴とする請求項4、5または6記載の領域境界点抽
出方法。7. A process for observing a 3 × 3 pixel pattern and setting a table using a means for buffering pixel values for three rows and a means for buffering a table corresponding to pixels for two rows. 7. The area boundary point extracting method according to claim 4, wherein the processing of determining the anteroposterior relationship of the boundary points by referring to the table is performed by pipeline processing.
から下へ副走査されるとして、注目画素とその左下及び
右下の画素の画素値が等しく、かつ、注目画素とその一
つ下の画素の画素値が等しくなく、かつ注目画素の一つ
下の画素と注目画素の左の画素の画素値が等しくなく、
かつ注目画素とその二つしたの画素の画素値が等しい場
合に、注目画素の一つ下の画素を注目画素の画素値に変
更するノイズ除去処理を行ない、このノイズ除去処理後
の3×3画素パターンに基づいてテーブルの設定を行な
うことを特徴とする請求項1ないし7のいずれか1項に
記載の領域境界点抽出方法。8. Assuming that image data is main-scanned from left to right and sub-scanned from top to bottom, the pixel value of the target pixel is equal to the pixel value of the lower left and lower right pixels, and the pixel of interest is The pixel value of the lower pixel is not equal, and the pixel value of the pixel immediately below the target pixel and the pixel to the left of the target pixel are not equal,
If the pixel value of the pixel of interest is equal to the pixel value of the two pixels, noise removal processing for changing the pixel immediately below the pixel of interest to the pixel value of the pixel of interest is performed. The method according to any one of claims 1 to 7, wherein the table is set based on the pixel pattern.
主走査され、上から下へ副走査されるとして、注目画素
とその左下及び右下の画素の画素値が等しく、かつ、注
目画素とその一つ下の画素の画素値が等しくなく、かつ
注目画素とその二つしたの画素の画素値が等しい場合
に、注目画素の一つ下の画素を注目画素の画素値に変更
するノイズ除去処理を行ない、このノイズ除去処理後の
3×3画素パターンに基づいてテーブルの設定を行なう
ことを特徴とする請求項1ないし7のいずれか1項に記
載の領域境界点抽出方法。9. Assuming that image data is binary data, main scanning is performed from left to right and sub-scanning is performed from top to bottom, the pixel value of the target pixel and its lower left and lower right pixels are equal, and If the pixel value of the pixel and the pixel immediately below it are not equal and the pixel value of the pixel of interest and the two pixels below it are equal, change the pixel immediately below the pixel of interest to the pixel value of the pixel of interest 8. The method according to claim 1, wherein a noise removal process is performed, and a table is set based on the 3 × 3 pixel pattern after the noise removal process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29090991A JP3272381B2 (en) | 1990-11-29 | 1991-10-09 | Region boundary point extraction method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33259490 | 1990-11-29 | ||
JP2-332594 | 1990-11-29 | ||
JP29090991A JP3272381B2 (en) | 1990-11-29 | 1991-10-09 | Region boundary point extraction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0567212A JPH0567212A (en) | 1993-03-19 |
JP3272381B2 true JP3272381B2 (en) | 2002-04-08 |
Family
ID=26558298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29090991A Expired - Lifetime JP3272381B2 (en) | 1990-11-29 | 1991-10-09 | Region boundary point extraction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3272381B2 (en) |
-
1991
- 1991-10-09 JP JP29090991A patent/JP3272381B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH0567212A (en) | 1993-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4803493B2 (en) | Label image generation method and image processing system | |
JP4565396B2 (en) | Image processing apparatus and image processing program | |
JP3272381B2 (en) | Region boundary point extraction method | |
JP4194309B2 (en) | Document direction estimation method and document direction estimation program | |
JP2002342710A (en) | Character segmenting device and character segmenting method used for the same device and its program | |
JPH0362177A (en) | Picture processor | |
JP3022856B1 (en) | License plate position extraction method | |
JP3115041B2 (en) | Reader | |
JPH0877355A (en) | Weighed pattern matching method | |
JP2506071B2 (en) | Contour tracking device | |
JP2658346B2 (en) | Parallel image processing device | |
JP2954218B2 (en) | Image processing method and apparatus | |
JP2859453B2 (en) | Image thinning method | |
JPS6175477A (en) | Filing system | |
JP2838556B2 (en) | Image processing device | |
JP2646642B2 (en) | Image inside / outside area judgment system | |
JP3679619B2 (en) | Image contour extraction method, apparatus, and recording medium | |
JP2940974B2 (en) | Matching method | |
JP3037504B2 (en) | Image processing method and apparatus | |
JP2522511B2 (en) | Image contour tracking unit | |
JP2001126030A (en) | Pattern recognition method and pattern recognition device | |
JPH0762873B2 (en) | Contour tracking device | |
JPH0973507A (en) | Bar code recognition processor | |
JPS62260279A (en) | High-speed image processing circuit | |
JPH0214752B2 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080125 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090125 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100125 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110125 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120125 Year of fee payment: 10 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120125 Year of fee payment: 10 |