[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPS63182961A - System for detecting distortion of color image - Google Patents

System for detecting distortion of color image

Info

Publication number
JPS63182961A
JPS63182961A JP62013334A JP1333487A JPS63182961A JP S63182961 A JPS63182961 A JP S63182961A JP 62013334 A JP62013334 A JP 62013334A JP 1333487 A JP1333487 A JP 1333487A JP S63182961 A JPS63182961 A JP S63182961A
Authority
JP
Japan
Prior art keywords
image
partial
correction
partial image
color image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62013334A
Other languages
Japanese (ja)
Other versions
JPH0531345B2 (en
Inventor
Yoshihiro Shima
嶋 好博
Tatsuya Murakami
達也 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP62013334A priority Critical patent/JPS63182961A/en
Publication of JPS63182961A publication Critical patent/JPS63182961A/en
Publication of JPH0531345B2 publication Critical patent/JPH0531345B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PURPOSE:To reproduce beautiful image display with fidelity, by finding the aberration of a partial image by a correlative operation based on the similarity of the partial image, and correcting geometric distortion from aberration distribution at the representative point of a document image. CONSTITUTION:A red color image is selected as an image set as reference, and the partial image which becomes the reference is segmented from the red color image at a reference part image extracting part 105. Also, a green color image and a blue color image which become the target to be detected of distortion are selected by a selector 104, and their partial images are segmented being shifted at a targeted partial image extracting part 106. A correlative operation part 107 finds the similarity at every picture element of a reference partial image and a targeted partial image, A correction quantity at every picture element is calculated at a correction quantity calculating part 110 by using an interpolation method proportional to a distance, and the correction of a targeted image is performed at an image correction part 110. In such a way, the image in which the targeted image is corrected is stored by selecting a selector 111 at an after-correction green color image storage part 112 or an aftercorrection blue color image storage part 113.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はカラー画像の歪検出と補正に係り、特に文字を
含むカラー文書画像の歪検出に好適な部分画像の相関に
基づいた幾何学的な歪検出方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to distortion detection and correction of color images, and in particular, a geometric method based on correlation of partial images suitable for detecting distortion of color document images containing characters. This paper relates to a distortion detection method.

【従来の技術〕[Conventional technology]

従来より、カラーテレビカメラにより採取したカラー画
像に対しては、長方、河合輝男(日立。
Traditionally, color images taken with a color television camera have been developed by Nagata and Teruo Kawai (Hitachi).

NHK):”テレビカメラの測定″テレビジョン学会誌
、 Vol、38. No、8. pp、762−77
0(昭和59年)において論じられているように、歪の
測定法が確立されており、その補正が行われている。し
かしながら、文書画像の入力装置としては、高解像度が
要求されるため、テレビカメラは用いられず、主に、ラ
インセンサを用いたイメージスキャナが使われる。この
イメージスキャナから入力したカラー文書画像の補正に
関しては、関沢秀和、山本直史、用上晴子(東芝総合研
究所)二゛′カラースキャナ光源の色変動補正”昭和6
1年度電子通信学会総合全国大会 1286 (昭和6
1年3月)において論じられているように、カラースキ
ャナの光源の色変動を補正するもの、若林弘雄、太田日
佐雄(日本電信電話公社横須賀通研): “カラー密着
センサ色補正の検討″昭和60年度電子通信学会総合全
国大会 1328(昭和60年3月)において論じられ
ているように、三色の光源の発光波長を補正するものな
ど色補正に関する方法が提案されている。
NHK): “Television Camera Measurement” Journal of the Television Society, Vol. 38. No, 8. pp, 762-77
0 (1982), a method for measuring distortion has been established, and its correction has been carried out. However, since high resolution is required as a document image input device, a television camera is not used, and an image scanner using a line sensor is mainly used. Regarding the correction of color document images input from this image scanner, please refer to Hidekazu Sekizawa, Naofumi Yamamoto, and Haruko Yogami (Toshiba Research Institute) ``Color variation correction of color scanner light source''
1st Annual National Conference of the Institute of Electronics and Communication Engineers 1286 (Showa 6)
Hiroo Wakabayashi, Hisao Ota (Nippon Telegraph and Telephone Public Corporation Yokosuka Telecommunications Laboratory): “Study of color correction for color contact sensors” (March 1, 2013) As discussed at the 1985 IEICE General Conference 1328 (March 1985), methods related to color correction have been proposed, such as one that corrects the emission wavelengths of three-color light sources.

また、モノクロ文書画像の補正としては、小林直積、歓
崎実(NTT電気通信研究所): “簡易影画像入力方
式における歪補正方式″昭和60年度電子通信学会総合
全国大会 1314 (昭和60年3月)、歓崎実、小
林直樹(NTT電気通信研究所):′″簡簡易両画像入
力方式おける歪補正方式(その2)”昭和61年度電子
通信学会総合全国大会 1285 (昭和60年3月)
において論じられているように、ハンドスキャナによる
簡易形文書入力装置における歪の補正が提案されている
。しかしながら、カラー文書画像の幾何学的な図形歪の
検出に関しては、まだ配慮されていなかった。
In addition, for correction of monochrome document images, see Naoki Kobayashi and Minoru Kanzaki (NTT Telecommunications Laboratories): “Distortion correction method for simple shadow image input method” 1985 IEICE General Conference 1314 (March 1985) (Mon.), Minoru Kanzaki, Naoki Kobayashi (NTT Telecommunications Laboratories): ``Distortion correction method for simple dual-image input method (Part 2)'' 1985 IEICE General Conference 1285 (March 1985) )
As discussed in , correction of distortion in hand-scanner handheld document input devices has been proposed. However, no consideration has been given to detecting geometric distortion of color document images.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上記従来技術は、カラー画像の画素の配置に係わる幾何
学的な歪の検出と補正方法の点について配慮がされてお
らず、このカラー画像を表示するとカラー文書画像中の
文字に色ずれが目立ち、見苦しいという問題があった。
The above-mentioned conventional technology does not take into account the detection and correction method of geometric distortion related to the pixel arrangement of color images, and when this color image is displayed, color shift is noticeable in the characters in the color document image. , there was a problem that it was unsightly.

また、三原色の画像における画素の配置がずれているた
め、カラー画像に対する処理が正常におこなえないとい
う問題があった。
Furthermore, since the arrangement of pixels in the three primary color images is shifted, there is a problem in that the color image cannot be processed normally.

本発明の目的は、カラー文書画像に対して、三原色の画
像相互の幾何学的な歪を検出・補正することにある。
An object of the present invention is to detect and correct geometric distortion between images of three primary colors in a color document image.

〔問題点を解決するための手段〕[Means for solving problems]

上記目的は、部分画像の類似性を基にした相関演算によ
って部分画像の位置ずれを求め、文書画像の代表点にお
ける位置ずれ分布より幾何学的な歪を補正することによ
り達成される。
The above object is achieved by determining the positional deviation of the partial images by correlation calculation based on the similarity of the partial images, and correcting the geometric distortion from the positional deviation distribution at the representative points of the document image.

〔作用〕[Effect]

カラーの文書画像においては、文字2図形、写真が混在
しているが、これらの部分は三原色の画像間において相
関がある。特に、白い背景にある黒い文字の部分は、文
書画像においては、最もよくみられる部分画像である。
In a color document image, characters, two figures, and a photograph are mixed, but these parts have a correlation among the three primary color images. In particular, black text on a white background is the most commonly seen partial image in document images.

この文字部分を含む部分画像は1本来、モノクロ画像で
あり、赤色成分、緑色成分、青色成分がほぼ同一値とな
るため、三原色の画像において極めて顕著な相関がある
The partial image including this character portion is originally a monochrome image, and the red component, green component, and blue component have approximately the same value, so there is an extremely significant correlation in the three primary color images.

従って、三原色の画像間において、この白い背景にある
黒い文字部分を含む各色の部分画像をそれぞれ同一位置
から取りだし、これらの部分画像の相対的な位置ずれを
求める。この位置ずれが幾何学的な歪に対応することに
なる。相対的な位置ずれを求めるには、対象画像におい
である一定の大きさの部分画像を取りだし、画素ごとの
類似性を位置をずらしながら求めればよい。類似性は、
画素同士の濃淡値の差を算出するという相関演算により
検出するが、その内、最も類似性の高い位置を求める。
Therefore, among the images of the three primary colors, partial images of each color including the black character portion on the white background are extracted from the same position, and the relative positional shift of these partial images is determined. This positional shift corresponds to geometric distortion. To find the relative positional shift, it is sufficient to extract a partial image of a certain size from the target image and find the similarity for each pixel while shifting the position. The similarity is
Detection is performed by a correlation calculation that calculates the difference in gray values between pixels, and among them, the position with the highest similarity is determined.

〔実施例〕〔Example〕

以下、本発明の一実施例を第1図により説明する。カラ
ー文書の表面画像をカラーイメージスキャナ等のカラー
画像入力装置100によって採取し、三原色の画像、即
ち、赤色画像を赤色画像格納部101に、緑色画像を緑
色画像格納部102に、また、青色画像を青色画像格納
部103に、それぞれ格納する。幾何学的な歪を検出す
るため、基準となる画像として例えば、赤色画像を選び
、この赤色画像から、基準部分画像抽出部105におい
て、基準となる部分画像を切り出す、一方、歪の検出対
象となる緑色画像と青色画像はあらかじめいずれか一つ
の画像が制御部120を介してセレクタ104で選択さ
れ、同じように、対象部分画像抽出部106において、
その部分画像がずらしながら切り出される。相関演算部
107は、基準となる標準部分画像と歪検出対象である
対象部分画像との画素ごとの類似性を求める。
An embodiment of the present invention will be described below with reference to FIG. A surface image of a color document is collected by a color image input device 100 such as a color image scanner, and images of three primary colors, that is, a red image is stored in a red image storage section 101, a green image is stored in a green image storage section 102, and a blue image is stored in a green image storage section 102. are respectively stored in the blue image storage unit 103. In order to detect geometric distortion, for example, a red image is selected as a reference image, and a reference partial image is extracted from this red image in the reference partial image extraction unit 105. One of the green and blue images is selected in advance by the selector 104 via the control unit 120, and similarly, in the target partial image extraction unit 106,
The partial images are cut out while being shifted. The correlation calculation unit 107 calculates pixel-by-pixel similarity between the standard partial image that is the reference and the target partial image that is the object of distortion detection.

この類似性の指標としては、後述する画素データの誤差
をとる。そして、最小値検出部108において、不一致
の誤差の最小値を求める、即ち、最もよく、標準部分画
像と一致する対象部分画像のずらし位置を求める。この
ずらし位置をもとに、補正量算出部109で、画素ごと
の補正量を後述する距離に比例する補間法を用いて算出
し、画像補正部110で、対象画像の補正を行ない、補
正後縁色画像格納部112または、補正後青色画像格納
部113に、セレクタ111の選択により、対象画像を
補正した画像が格納される。なお、原画像用アドレス制
御部114及び、補正画像用アドレス制御部115は、
上記一連の処理において。
An error in pixel data, which will be described later, is used as an index of this similarity. Then, the minimum value detection unit 108 determines the minimum value of the mismatch error, that is, determines the shifted position of the target partial image that most closely matches the standard partial image. Based on this shifted position, the correction amount calculation unit 109 calculates the correction amount for each pixel using an interpolation method proportional to the distance, which will be described later.The image correction unit 110 corrects the target image. An image obtained by correcting the target image is stored in the edge color image storage section 112 or the corrected blue image storage section 113 according to the selection of the selector 111. Note that the original image address control section 114 and the corrected image address control section 115 are as follows:
In the above series of processing.

アドレス信号及び初期化等の制御信号を生成する。Generates address signals and control signals such as initialization.

部分画像の相関に基づく幾何学的な歪の検出では、先ず
、標準とする画像を三原色の画像の中から一つ選ぶ。こ
こでは、赤色画像を標準の画像として選択する。なお、
幾何学的な歪は三原色画像間の相対的な位置ずれで表さ
れるため、残りの色画像(緑色画像や青色画像)を標準
の画像として選んでもよい0次いで、標準の画像として
選んだ赤色画像の中から、白い背景地にある黒い文字部
を含む部分画像を標準部分画像として切り出す。
In detecting geometric distortion based on the correlation of partial images, first, one of the three primary color images is selected as a standard image. Here, the red image is selected as the standard image. In addition,
Since geometric distortion is expressed by the relative positional deviation between the three primary color images, the remaining color images (green image and blue image) may be selected as the standard image. A partial image containing black characters on a white background is cut out from the image as a standard partial image.

そして、その標準部分画像の切り出し位置を標準位置と
する。本実施例では、標準位置は、予め与えられている
ものとする。今、標準とした赤色画像を基準にして、青
色画像の幾何学的な歪を検出する場合について述べる。
Then, the cutting position of the standard partial image is set as the standard position. In this embodiment, it is assumed that the standard position is given in advance. Now, a case will be described in which geometric distortion of a blue image is detected using a standard red image as a reference.

青色画像において、対応する標準位置を中心にして、切
り出し位置をずらしながら対象画像から部分画像を切り
出し、前述の標準部分画像との相関演算を行い、最も一
致するずらし位置を求める。標準位置に対して、求めた
位置がずれている場合は、幾何学的な歪が存在すること
になる。従って、標準位置とずらし位置との変位を求め
、これを幾何学的歪の量とする。
In the blue image, a partial image is cut out from the target image while shifting the cutout position around the corresponding standard position, and a correlation calculation with the aforementioned standard partial image is performed to find the most matching shifted position. If the determined position deviates from the standard position, geometric distortion exists. Therefore, the displacement between the standard position and the shifted position is determined, and this is taken as the amount of geometric distortion.

緑色画像についても、同様に、緑色画像から切り出した
部分画像と赤色画像の標準部分画像との相関演算を行い
゛、最も一致するずらし位置に対して標準位置からの変
位を求める。このようにして。
Regarding the green image, a correlation calculation is similarly performed between the partial image cut out from the green image and the standard partial image of the red image, and the displacement from the standard position is determined for the most matching shifted position. In this way.

ある部分領域における赤色画像を基準にした場合の青色
画像と緑色画像の幾何学的な歪が求まる。
Geometric distortions of the blue and green images in a certain partial area are determined based on the red image.

カラー文書画像全体における幾何学的な歪の分布を求め
るには、標準部分画像を文書画像の異なる多数の位置か
ら切り出し、それぞれ上述の部分画像の相関に基づく幾
何学的な歪を算出すればよい。
To find the distribution of geometric distortion in the entire color document image, standard partial images can be cut out from a number of different positions in the document image, and the geometric distortion can be calculated based on the correlation of each partial image as described above. .

ここでは、部分画像の類似性を求める相関演算の方法を
示す。今、第2図に示すように、対象とする文書画像2
00の座標系203を(xty)とし1画素の濃淡値を
f(x、y)で表す、そして、標準となる部分画像20
2(標準部分画像と呼ぶ)をg (io J)とする。
Here, we will show a correlation calculation method for determining the similarity of partial images. Now, as shown in Figure 2, the target document image 2
The coordinate system 203 of 00 is (xty), and the gray value of one pixel is expressed as f(x, y), and the standard partial image 20
2 (referred to as a standard partial image) is g (io J).

この部分画像の大きさは、横方向を■、縦方向をJとす
る。相関演算では、対象とする文書画像において標準部
分画像と同じ大きさの部分画像201 (対象部分画像
と呼ぶ)を位置をずらしながら切り出すことになるが、
この時のずらし位置の開始点204を(xotyo)と
する。また、このX方向、X方向へのずらし量を表すた
めの座標を(s、t)とし、この時のずらしの幅を、横
方向をS、縦方向をT、即ち、横方向O≦S≦S−1.
縦力向0≦t≦T−1,とする。標準部分画像に対して
、切り出した対象部分画像の類似性を求めるために、こ
こでは画素同士の差を足しあわせたもの(不一致度)求
めることにする。ずらし範囲内205(横力向0≦S≦
S−1.縦力向0≦t≦T−1)で最小となる不一致度
errを次式で表す。
The size of this partial image is assumed to be ■ in the horizontal direction and J in the vertical direction. In the correlation calculation, a partial image 201 (referred to as a target partial image) having the same size as the standard partial image is cut out from the target document image while shifting its position.
The starting point 204 of the shifted position at this time is (xotyo). In addition, the coordinates for expressing the amount of shift in the X direction and the ≦S-1.
It is assumed that the longitudinal force direction is 0≦t≦T−1. In order to find the similarity of the cut out target partial image with respect to the standard partial image, here we will calculate the sum of the differences between pixels (degree of mismatch). Within the shift range 205 (lateral force direction 0≦S≦
S-1. The minimum mismatch degree err in the vertical force direction (0≦t≦T-1) is expressed by the following equation.

この最小の不一致度errをもつ時のずらし位置をC3
’ l  t’ )とすると、このずらし位置(s’ 
+ t’ )が標準画像g (io j)と最も一致す
る部分画像の対象画像からの切り出し位置に対応する。
The shift position when having this minimum mismatch degree err is C3
'lt'), this shifted position (s'
+t') corresponds to the cutout position from the target image of the partial image that most matches the standard image g (io j).

部分画像の相関演算の過程を第3図に示す、ステップ3
00で、標準の部分画像を切り出すための位置を設定す
る。次いで、ステップ301で、基準とする色画像より
、標準部分画像を切り出し。
The process of correlation calculation of partial images is shown in FIG. 3, Step 3
00, the position for cutting out a standard partial image is set. Next, in step 301, a standard partial image is cut out from the reference color image.

この部分画像をg He J)とする、ステップ302
と303では、縦方向のずらし座標tを0≦t!T−1
まで、順次増加させていく。また、横方向のずらし座標
についても、0≦S≦S−1まで、順次増加させていく
。そして、ステップ304で、歪検出対象の色画像より
部分画像を切り出す。この切り出した部分画像はf(x
、)+s+i、Yo+t+j)で表わされる。なお、(
xo+yo)は先に述べたように、ずらしの開始点であ
る。ステップ305では、不一致の程度を計数するため
の累算用変数sumを初期化、即ちsum←0とする。
Let this partial image be g He J), step 302
and 303, the vertical shift coordinate t is 0≦t! T-1
It will be gradually increased until. Furthermore, the horizontal shift coordinates are also increased sequentially until 0≦S≦S−1. Then, in step 304, a partial image is cut out from the color image to be subjected to distortion detection. This cut out partial image is f(x
, )+s+i, Yo+t+j). In addition,(
xo+yo) is the starting point of the shift, as described above. In step 305, an accumulation variable sum for counting the degree of mismatch is initialized, that is, sum←0.

そして、ステップ306と307で1部分画像の横方向
座標、次いで縦方向座標を順次更新しながら、ステップ
308゜309を行なう。ステップ308では、2つの
部分画像の画素値の差を算出する。そして、ステップ3
09で、差の累算を行ない、累算用変数sumに、順次
、差を加算していく。ステップ306゜307が終了す
ると、ステップ310で、差の和sumの最小値err
を求め、さらにステップ311でその最小となるずらし
座標を登録する。
Then, steps 308 and 309 are performed while sequentially updating the horizontal coordinates of one partial image and then the vertical coordinates in steps 306 and 307. In step 308, the difference between the pixel values of the two partial images is calculated. And step 3
In step 09, the differences are accumulated, and the differences are sequentially added to the accumulation variable sum. When steps 306 and 307 are completed, in step 310, the minimum value err of the sum of differences sum is determined.
is determined, and further, in step 311, the minimum shift coordinate is registered.

第4図は、相関演算部107の構成である。標準部分画
像抽出部105から送出された画素データと、対象部分
画像抽出部106から送出された画素データとの差を、
減算部400で求め、その差の結果の絶対値を、絶対値
化部401で求める。
FIG. 4 shows the configuration of the correlation calculation section 107. The difference between the pixel data sent out from the standard partial image extraction unit 105 and the pixel data sent out from the target partial image extraction unit 106 is
The subtraction unit 400 calculates the difference, and the absolute value of the difference result is calculated by the absolute value converting unit 401.

加算部402では、差の絶対値を順次加算していき、累
算誤差レジスタ403に格納し、最小値検出部108に
送出する。
The adder 402 sequentially adds the absolute values of the differences, stores them in the cumulative error register 403, and sends them to the minimum value detector 108.

第5図は、最小値検出部108の構成である。FIG. 5 shows the configuration of the minimum value detection section 108.

相関演算部107から送出された累算誤差は、最小値用
レジスタ502の内容と大小比較部500において、大
小比較され、もし、当該の累算誤差の方が小さければ、
セレクタ501を介して、最小値レジスタ502に、こ
の累算誤差が格納される。また、原画像用アドレス制御
部114から送出されたずらし座標は、同じく、当該の
累算誤差の方が小さければ、それぞれずらし座標(横方
向)格納レジスタ503.ずらし座標(縦方向)格納レ
ジスタ504に格納され、補正量算出部109にこれら
ずらし座標が送出される。
The accumulated error sent from the correlation calculation section 107 is compared in magnitude with the contents of the minimum value register 502 in the magnitude comparison section 500, and if the accumulated error concerned is smaller,
This accumulated error is stored in the minimum value register 502 via the selector 501. Similarly, if the cumulative error is smaller, the shift coordinates sent from the original image address control unit 114 are stored in the shift coordinate (horizontal direction) storage register 503. The shifted coordinates (vertical direction) are stored in the storage register 504, and these shifted coordinates are sent to the correction amount calculation unit 109.

部分画像の相関を用いた幾何学的な図形歪の検出手順を
、第6図に示す。先ず、ステップ600において切り出
す部分画像の位置を決定し、これを標準位置として登録
する。この部分画像には、白地の背景に黒い文字の部分
が含まれるように、部分画像の位置を設定する必要があ
る0次いで。
FIG. 6 shows a procedure for detecting geometric shape distortion using correlation of partial images. First, in step 600, the position of the partial image to be cut out is determined and registered as a standard position. It is necessary to set the position of this partial image so that it includes a black character part on a white background.

ステップ601に示すように多数ある標準位置を全て尽
くすまで、以下の処理を行う。即ち、ステップ602に
おいて赤色画像から標準位置に対応する部分画像を切り
出し、これを標準の部分画像とする。そして、ステップ
603において緑色画像において、標準位置と対応する
部分を中心に切り出し位置をずらしながら、先の赤色の
標準部分画像との相関演算を行い、ステップ604で最
も一致する点の座標を求める。ステップ605に示すよ
うにこの座標と標準位置の座標との差が赤色画像を基準
にした時の緑色画像の幾何学的、歪の量となる。さらに
、同じく青色画像においても、ステップ606において
標準位置と対応する部分を中心に切り出し位置をずらし
ながら、先の赤色の標準部分画像との相関演算を行い、
ステップ607において最も一致する点の座標を求める
As shown in step 601, the following process is performed until all of the many standard positions are exhausted. That is, in step 602, a partial image corresponding to the standard position is cut out from the red image, and this is taken as the standard partial image. Then, in step 603, a correlation calculation is performed on the green image with the previous red standard partial image while shifting the cutting position around the part corresponding to the standard position, and in step 604, the coordinates of the most matching point are determined. As shown in step 605, the difference between these coordinates and the coordinates of the standard position becomes the amount of geometric distortion of the green image when the red image is taken as a reference. Furthermore, similarly for the blue image, in step 606, a correlation calculation is performed with the previous red standard partial image while shifting the cropping position around the part corresponding to the standard position,
In step 607, the coordinates of the most matching point are determined.

ステップ608に示すようにこの座標と標準位置の座標
との差が青色画像の幾何学的歪の量となる。
As shown in step 608, the difference between these coordinates and the coordinates of the standard position is the amount of geometric distortion in the blue image.

このようにして求めた、幾何学的歪の量を、対応する標
準位置ごとに保存しておく。そして、多数ある標準位置
を全て尽くすまで、上述の一連の処理を繰返し行う。
The amount of geometric distortion obtained in this way is saved for each corresponding standard position. The above-described series of processes is then repeated until all of the many standard positions are exhausted.

画像は、予め、矩形の領域に分割しておき、各分割領域
ごとに縦横への画素の補正量を設定する。
The image is divided into rectangular regions in advance, and the vertical and horizontal pixel correction amounts are set for each divided region.

ここで、分割領域ごとに代表的な補正量を設定するのは
、補正量算出のための処理量を削減するためである。こ
の補正量は、前述の幾何学的な歪を表す標準画像との変
位量を基に算出する。なお、分割領域内に白い背景地を
もった黒い文字部分が存在しない場合は、隣接する分割
領域における補正量を基に、座標値の差による簡単な補
間法によって予め設定する。また、カラー画像の各色の
画像には、それぞれ、異なる、補正量が与えられる。
Here, the reason why a typical correction amount is set for each divided area is to reduce the amount of processing for calculating the correction amount. This correction amount is calculated based on the amount of displacement with respect to the standard image representing the aforementioned geometric distortion. Note that if a black character portion with a white background does not exist in a divided area, the amount of correction is set in advance by a simple interpolation method using a difference in coordinate values based on the correction amount in an adjacent divided area. Further, different correction amounts are given to each color image of the color image.

この補正量に従って、各画素の位置を補正するが、分割
領域によって補正量が異なるため、単純な方法では、分
割領域の境界で、補正量が大きく異なることがあり、こ
の場合、画像が滑らかにつながらずずが目立つことにな
る。そこで1分割領域の境界付近でも補正量が少しずつ
連続して変化するよう、補正量に補間を加えるものとす
る。以下に、補正量の補間法を述べる。今、第7図に示
すように、対象画像700において、分割領域701の
横方向の番号をm、縦方向の番号をnとする(1≦+n
:aM、1≦n≦N)、各分割領域は(m、n)で表さ
れる。分割領域(m、n)における補正f702をΔx
 (m、n) 、Δy(m。
The position of each pixel is corrected according to this correction amount, but since the correction amount differs depending on the divided area, with a simple method, the correction amount may differ greatly at the boundary of the divided area, and in this case, the image will not be smooth. The disconnections will be noticeable. Therefore, interpolation is applied to the correction amount so that the correction amount changes continuously little by little even near the boundary of one divided area. A method of interpolating the amount of correction will be described below. Now, as shown in FIG. 7, in the target image 700, the horizontal number of the divided area 701 is m, and the vertical number is n (1≦+n
:aM, 1≦n≦N), and each divided area is represented by (m, n). The correction f702 in the divided area (m, n) is Δx
(m, n), Δy(m.

n)とする。この補正量は、ここでは簡単のため、分割
領域の中心に割当てられているとする。隣接する4つの
分割領域(m、n)、(m+1.n)、(m、n+1)
、(m+1.n+1)の中心点703.704,705
,706を囲む矩形領域にある注目画素707の補正量
δx (a、b)、δy (a、b)は、簡単のため、
注目する画素の座標と分割領域の中心座標との差に比例
するとし、次式で補間することとする。
n). For the sake of simplicity, it is assumed here that this correction amount is assigned to the center of the divided area. Four adjacent divided areas (m, n), (m+1.n), (m, n+1)
, (m+1.n+1) center point 703.704,705
, 706, the correction amount δx (a, b), δy (a, b) for the pixel of interest 707 in the rectangular area surrounding
It is assumed that it is proportional to the difference between the coordinates of the pixel of interest and the center coordinates of the divided area, and interpolation is performed using the following equation.

δx(a、b)=Δx(m、n)(1−a)(1−b)
+Δx(m+l、n)a(1−b)+Δx(m、n+1
)(1−a)b+Δx(m+1.n+1)abδy(a
、b)=Δy(m、n)(1−a)(1−b)+Δy(
I11+1.n)a(1−b)+Δy(IIl、n+1
) (1−a)b+Δy(+++1.n+1)ab但し
、変数aは、隣接する4つの分割領域の中心点を囲む矩
形領域の横方向の長さを1とした場合の領域(m、n)
の中心点から注目画素までの横方向の長さの比である。
δx (a, b) = Δx (m, n) (1-a) (1-b)
+Δx(m+l,n)a(1-b)+Δx(m,n+1
)(1-a)b+Δx(m+1.n+1)abδy(a
,b)=Δy(m,n)(1-a)(1-b)+Δy(
I11+1. n) a(1-b)+Δy(IIl, n+1
) (1-a)b+Δy(+++1.n+1)ab However, the variable a is the area (m, n) when the horizontal length of the rectangular area surrounding the center point of the four adjacent divided areas is 1.
It is the ratio of the horizontal length from the center point to the pixel of interest.

同じく、変数すは、隣接する4つの分割領域の中心点を
囲む矩形領域の縦方向の長さを1とした場合の領域(m
、n)の中心点から注目画素までの縦方向の長さの比で
ある。なお、例えば、m=1やm = Mの列にある分
割領域のように、端にある分割領域の注目画素の補正量
の算出には、端の外側に仮想的な分割領域を設定し、同
じように、上式で算出する。この時、仮想的な領域の補
正量は、隣接する分割領域の補正量と同じとする。
Similarly, the variable S is the area (m
, n) from the center point to the pixel of interest in the vertical direction. Note that, for example, to calculate the correction amount for a pixel of interest in a divided area at the edge, such as a divided area in the column m = 1 or m = M, a virtual divided area is set outside the edge, Similarly, calculate using the above formula. At this time, it is assumed that the amount of correction for the virtual area is the same as the amount of correction for the adjacent divided area.

上述の補間法によって、画素の位置ごとに、赤色画素を
基準にして他の色画像の画素を移動するための補正量が
与えられることになる。この補正量をもとにして1画素
の幾何学的歪を補正する。
The above-described interpolation method provides, for each pixel position, a correction amount for moving pixels of other color images with respect to the red pixel. The geometric distortion of one pixel is corrected based on this correction amount.

この補正手順は、第8図に示すように、先ず、ステップ
800,801において補正後の緑色画像を格納するた
めの二次元配列の横方向座標と縦方向座標を走査に沿っ
て順次生成する。この座標に対応して、緑色画像のため
の補正量が格納されているため、この座標生成に従って
、順次、ステップ802で補正量を読み出す、ステップ
803で読み出した補正量を基に、もとの緑色画像から
画素データを取り出す、この過程では、順次生成した横
方向座標と縦方向座標に、読み出した補正量をそれぞれ
加算することによって、原画像の座標を求め、この座標
値に従って、ステップ804で原画像から画素データを
取り出す。この一連の処理を、緑色画像全面について行
う。そして、同じく、青色画像についても、ステップ8
06゜807.808,809において青色画像のため
の補正量に従って、もとの青色画像から画素データを読
出し、補正後の画像を格納する二次元配列に格納する。
In this correction procedure, as shown in FIG. 8, first, in steps 800 and 801, horizontal and vertical coordinates of a two-dimensional array for storing the corrected green image are sequentially generated along the scan. Corresponding to these coordinates, the amount of correction for the green image is stored, so according to this coordinate generation, the amount of correction is read out in step 802, and based on the amount of correction read out in step 803, the original In this process of extracting pixel data from the green image, the coordinates of the original image are obtained by adding the readout correction amounts to the horizontal and vertical coordinates that are generated sequentially, and the coordinates are calculated in step 804 according to these coordinate values. Extract pixel data from the original image. This series of processing is performed on the entire green image. Similarly, for the blue image, step 8
At 06° 807, 808, 809, pixel data is read out from the original blue image according to the amount of correction for the blue image and stored in a two-dimensional array that stores the corrected image.

〔発明の効果〕 本発明によれば、カラー文書画像において一般によく含
まれている文字部を対象とした幾何学的な歪を検出でき
るので、文字部分の色ずれを補正し、美しい忠実画面表
示を再現する効果がある。
[Effects of the Invention] According to the present invention, it is possible to detect geometric distortion in character parts that are commonly included in color document images, so color shift in character parts can be corrected and beautiful, faithful screen display can be achieved. It has the effect of reproducing.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例の構成図、第2図は相関演算
のための座標系の説明図、第3図は部分画像の相関演算
過程を示す図、第4図は相関演算部の構成図、第5図は
最小値検出部の構成図、第算部、108・・・最小値検
出部、105・・・標準部分画像抽出部、106・・・
対象部分画像抽出部、205・・・ずらし範囲、202
・・・標準部分画像、308・・・画素値の差の算出、
403・・・累積誤差レジスタ、500・・・大小比較
部6 第7目 方う−4メーンメA【7′ 晃Z目 鼾*ユ橡f(χ、ρ 肩Iす11分ν1(ム、19 ↓ 員小I直矛に但考丁 eTl 第2国 第 7 区
Fig. 1 is a configuration diagram of an embodiment of the present invention, Fig. 2 is an explanatory diagram of a coordinate system for correlation calculation, Fig. 3 is a diagram showing a correlation calculation process of a partial image, and Fig. 4 is a correlation calculation unit. FIG. 5 is a block diagram of the minimum value detection section, a calculation section, 108...minimum value detection section, 105... standard partial image extraction section, 106...
Target partial image extraction unit, 205...shift range, 202
...Standard partial image, 308...Calculation of pixel value difference,
403... Cumulative error register, 500... Size comparison section 6 7th eye way U - 4 main eye A [7' 昃昃Z目弾*ゆう橡f(χ,ρ Shoulder Is 11 minutes ν1(Mu, 19 ↓ Member elementary school I direct spear ni dankocho eTl 2nd country 7th ward

Claims (1)

【特許請求の範囲】[Claims] 1、三原色のカラー画像を入力する手段と、入力した画
像を処理する手段とを有する画像の歪検出方式において
、上記三原色画像の一つを基準の画像として選択し、該
原色画像から文字部分を含む部分画像を、基準位置にあ
る部分画像として切り出す第一の手段と、歪を検出する
ための対象画像として上記以外の原色画像を選択し、該
基準位置を中心にして、位置をずらしながら、部分画像
を切り出す第二の手段と、上記2つの部分画像の相関を
求め、不一致の度合が最小となる部分画像の切り出しの
ためのずらし位置を求める第三の手段と、該ずらし位置
をもとに歪の補正量を算出する第四の手段とを設けたこ
とを特徴とするカラー画像の歪検出方式。
1. In an image distortion detection method having means for inputting a color image of three primary colors and means for processing the inputted image, one of the three primary color images is selected as a reference image, and a text portion is extracted from the primary color image. A first means of cutting out the included partial image as a partial image at a reference position, and selecting a primary color image other than the above as a target image for detecting distortion, and shifting the position around the reference position, a second means for cutting out a partial image; a third means for determining a correlation between the two partial images and a shift position for cutting out a partial image that minimizes the degree of mismatch; and a fourth means for calculating a distortion correction amount.
JP62013334A 1987-01-24 1987-01-24 System for detecting distortion of color image Granted JPS63182961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62013334A JPS63182961A (en) 1987-01-24 1987-01-24 System for detecting distortion of color image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62013334A JPS63182961A (en) 1987-01-24 1987-01-24 System for detecting distortion of color image

Publications (2)

Publication Number Publication Date
JPS63182961A true JPS63182961A (en) 1988-07-28
JPH0531345B2 JPH0531345B2 (en) 1993-05-12

Family

ID=11830232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62013334A Granted JPS63182961A (en) 1987-01-24 1987-01-24 System for detecting distortion of color image

Country Status (1)

Country Link
JP (1) JPS63182961A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005515527A (en) * 2002-01-04 2005-05-26 アメリカ オンライン インコーポレイテッド Separation registration
JP2009519676A (en) * 2005-12-16 2009-05-14 トムソン ライセンシング Color component registration method, apparatus and system
US7715655B2 (en) 2002-01-04 2010-05-11 Warner Bros. Entertainment Inc. Image registration system
US7835570B1 (en) 2002-01-04 2010-11-16 Warner Bros. Entertainment Inc. Reducing differential resolution of separations
US9241128B2 (en) 2013-02-14 2016-01-19 Warner Bros. Entertainment Inc. Video conversion technology
JP2016110320A (en) * 2014-12-04 2016-06-20 三菱電機株式会社 Image synthesizer

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8818088B2 (en) 2002-01-04 2014-08-26 Warner Bros. Entertainment Inc. Registration of separations
US7835570B1 (en) 2002-01-04 2010-11-16 Warner Bros. Entertainment Inc. Reducing differential resolution of separations
JP2005515527A (en) * 2002-01-04 2005-05-26 アメリカ オンライン インコーポレイテッド Separation registration
US7715655B2 (en) 2002-01-04 2010-05-11 Warner Bros. Entertainment Inc. Image registration system
US9104938B2 (en) 2002-01-04 2015-08-11 Warner Bros. Entertainment Inc. Registration of separations
US8094972B2 (en) 2002-01-04 2012-01-10 Warner Bros. Entertainment Inc. Registration of separations
US9773314B2 (en) 2002-01-04 2017-09-26 Warner Bros. Entertainment Inc. Registration of separations
US8401337B2 (en) 2002-01-04 2013-03-19 Warner Bros. Entertainment Inc. Registration of separations
US7672541B2 (en) 2002-01-04 2010-03-02 Warner Bros. Entertainment Inc. Registration of separations
JP2009519676A (en) * 2005-12-16 2009-05-14 トムソン ライセンシング Color component registration method, apparatus and system
US8126290B2 (en) 2005-12-16 2012-02-28 Thomson Licensing Method, apparatus and system for color component registration
US9241128B2 (en) 2013-02-14 2016-01-19 Warner Bros. Entertainment Inc. Video conversion technology
US9723257B2 (en) 2013-02-14 2017-08-01 Warner Bros. Entertainment Inc. Video conversion technology
US10277862B2 (en) 2013-02-14 2019-04-30 Warner Bros. Entertainment Inc. Video conversion technology
US10687017B2 (en) 2013-02-14 2020-06-16 Warner Bros. Entertainment Inc. Video conversion technology
US11997417B2 (en) 2013-02-14 2024-05-28 Warner Bros. Entertainment Inc. Video conversion technology
JP2016110320A (en) * 2014-12-04 2016-06-20 三菱電機株式会社 Image synthesizer

Also Published As

Publication number Publication date
JPH0531345B2 (en) 1993-05-12

Similar Documents

Publication Publication Date Title
JPH0355078B2 (en)
JP4375781B2 (en) Image processing apparatus, image processing method, program, and recording medium
US6178272B1 (en) Non-linear and linear method of scale-up or scale-down image resolution conversion
US8768094B2 (en) System and method for automated calibration and correction of display geometry and color
EP1855486B1 (en) Image processor correcting color misregistration, image processing program, image processing method, and electronic camera
US6671399B1 (en) Fast epipolar line adjustment of stereo pairs
US7447379B2 (en) Method and apparatus for enhancing local luminance of image, and computer-readable recording medium for storing computer program
US8467629B2 (en) Methods and systems for automatic coloring of digital images
US20020008715A1 (en) Image resolution improvement using a color mosaic sensor
CN110852953B (en) Image interpolation method and device, storage medium, image signal processor and terminal
JP2007241356A (en) Image processor and image processing program
US20050069218A1 (en) Image processing apparatus performing pixel similarity judgment and image processing program
JPS63182961A (en) System for detecting distortion of color image
JPWO2006057037A1 (en) Color correction method and color correction apparatus
US7251360B2 (en) Look-up table generation method, computer program, and imaging apparatus
KR102667039B1 (en) Image processing apparatus and its operation method
JP5928465B2 (en) Degradation restoration system, degradation restoration method and program
JP2658089B2 (en) Color image processing method
US6891968B2 (en) Method to upscale single-pixel wide text without loss of image sharpness
US20100245226A1 (en) Image signal processing device
US20220114697A1 (en) Image correction device
CN112672073B (en) Method, system and equipment for amplifying sub-pixel characters in video image transmission
CN107135382A (en) A kind of quick Zoom method of image based on YUV signal processing
JP3641402B2 (en) Color correction circuit and color correction method
JP2000138949A (en) Image information conversion device and conversion method

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term