JP6246379B2 - Image processing apparatus, image processing method, image reading apparatus, and program - Google Patents
Image processing apparatus, image processing method, image reading apparatus, and program Download PDFInfo
- Publication number
- JP6246379B2 JP6246379B2 JP2016546342A JP2016546342A JP6246379B2 JP 6246379 B2 JP6246379 B2 JP 6246379B2 JP 2016546342 A JP2016546342 A JP 2016546342A JP 2016546342 A JP2016546342 A JP 2016546342A JP 6246379 B2 JP6246379 B2 JP 6246379B2
- Authority
- JP
- Japan
- Prior art keywords
- low
- frequency
- image data
- data
- scanning direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 137
- 238000003672 processing method Methods 0.000 title claims description 16
- 238000003384 imaging method Methods 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 39
- 238000004364 calculation method Methods 0.000 claims description 34
- 239000002131 composite material Substances 0.000 claims description 19
- 230000000052 comparative effect Effects 0.000 claims description 12
- 230000002093 peripheral effect Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 36
- 239000011521 glass Substances 0.000 description 30
- 238000006243 chemical reaction Methods 0.000 description 28
- 230000003287 optical effect Effects 0.000 description 28
- 238000001514 detection method Methods 0.000 description 15
- 230000008859 change Effects 0.000 description 14
- 238000005286 illumination Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000000758 substrate Substances 0.000 description 5
- 230000032258 transport Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/024—Details of scanning heads ; Means for illuminating the original
- H04N1/028—Details of scanning heads ; Means for illuminating the original for picture information pick-up
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/19—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Input (AREA)
- Facsimile Scanning Arrangements (AREA)
- Facsimile Heads (AREA)
- Editing Of Facsimile Originals (AREA)
Description
本発明は、被読取物を複数のラインセンサでスキャンすることによって得られた画像データを結合して被読取物に対応する合成画像データを生成する画像処理装置、画像処理方法、及び画像読取装置、並びに、前記画像データを結合させる処理をコンピュータに実行させるプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image reading apparatus that combine image data obtained by scanning a read object with a plurality of line sensors to generate composite image data corresponding to the read object. The present invention also relates to a program for causing a computer to execute processing for combining the image data.
被読取物を主走査方向にライン状に並ぶ複数の撮像素子を有するラインセンサ(一次元撮像素子)によってスキャンして、被読取物に対応する画像データを生成する画像読取装置が、複写機、スキャナ、及びファクシミリ等に広く使用されている。例えば、特許文献1(特開2011−50039号公報)及び特許文献2(特開2006−140599号公報)に示されているように、主走査方向(ラインセンサが配列された方向)にライン状に間隔を開けて配列された複数台のラインセンサから成る第1列のラインセンサ群及び第2列のラインセンサ群を、隣接するラインセンサの端部が互いに重複(オーバーラップ)するように、千鳥状に配列した画像読取装置がある。 An image reading apparatus that scans a reading object with a line sensor (one-dimensional imaging element) having a plurality of imaging elements arranged in a line in the main scanning direction and generates image data corresponding to the reading object is a copying machine, Widely used in scanners and facsimiles. For example, as shown in Patent Document 1 (Japanese Patent Laid-Open No. 2011-50039) and Patent Document 2 (Japanese Patent Laid-Open No. 2006-140599), a line shape is formed in the main scanning direction (direction in which line sensors are arranged). The line sensor group in the first row and the line sensor group in the second row composed of a plurality of line sensors arranged with a space between each other, so that the ends of the adjacent line sensors overlap each other (overlap). There is an image reading device arranged in a staggered pattern.
このような画像読取装置では、読取られた画像データは、原稿を主走査方向の複数の領域に分割して得られた副走査方向に長い矩形形状の領域の画像データになる。言い換えれば、このような画像読取装置によって読取られた画像データは、ラインセンサ毎に副走査方向に長い矩形形状の領域の画像データを、主走査方向に複数個並べたような画像データになる。そのため、複数のラインセンサにより読取られた複数の画像データに対する処理として、第1の画像データと複数の第2の画像データそれぞれとのオーバーラップ部分を比較し、複数の画像データの中から差分の最も小さい第2の画像データを選択することで、副走査方向の画像ずれを補正する技術(例えば、特許文献1)、及び、調整用原稿の直線画像パターンを読取り、重複範囲における画素数の差分から隣接したセンサ同士の副走査方向に沿った位置ずれを計測し、この計測の結果から隣接したセンサ間の画像の合成に要する遅延時間を決定する技術(例えば、特許文献2)を用いて、画像データの副走査方向(スキャンする方向)の位置ずれを求め、画像データの副走査方向の位置を合わせることで、画像データを繋ぎ合せて、被読取物に対応する合成画像データを生成している。 In such an image reading apparatus, the read image data is image data of a rectangular region long in the sub-scanning direction obtained by dividing the document into a plurality of regions in the main scanning direction. In other words, the image data read by such an image reading device is image data in which a plurality of image data of rectangular regions that are long in the sub-scanning direction are arranged in the main scanning direction for each line sensor. Therefore, as processing for a plurality of image data read by a plurality of line sensors, an overlap portion between the first image data and each of the plurality of second image data is compared, and a difference is determined from the plurality of image data. A technique for correcting image shift in the sub-scanning direction by selecting the smallest second image data (for example, Patent Document 1) and a linear image pattern of an adjustment document are read, and the difference in the number of pixels in the overlapping range Using the technique (for example, patent document 2) which measures the position shift along the sub-scanning direction of adjacent sensors from the sensor, and determines the delay time required for the synthesis | combination of the image between adjacent sensors from the result of this measurement, By obtaining the positional deviation of the image data in the sub-scanning direction (scanning direction) and aligning the position of the image data in the sub-scanning direction, the image data are joined and read. And it generates a composite image data corresponding to the object.
上述したように、特許文献1及び特許文献2の画像読取装置においては、ラインセンサが重複して読取る画像データを比較し、画像データが一致する副走査方向の位置を検出することによって、隣接するラインセンサによって生成された2つの画像データの副走査方向の位置ずれを求めていた。
As described above, in the image reading apparatuses of
しかしながら、上記画像読取装置においては、ラインセンサ毎に性能のばらつき及び照明分布などの読取り条件の違いがあるため、ラインセンサ間には読取った画像データのレベル差が生じる場合がある。このため、1つのラインセンサの主走査方向の範囲を一単位とみなすと、一単位ごとに主走査方向に取得した画像データのレベル差(すなわち、明暗の差、又は、画素データの値の差である)が現れる。 However, in the image reading apparatus, since there are differences in reading conditions such as performance variation and illumination distribution for each line sensor, there may be a difference in the level of the read image data between the line sensors. For this reason, if the range in the main scanning direction of one line sensor is regarded as one unit, the level difference of image data acquired in the main scanning direction for each unit (that is, the difference in brightness or the difference in pixel data value). Appears).
したがって、ラインセンサにより読取られた画像データのそのままの画素値により、隣接するラインセンサ間のオーバーラップ部分の画像データの比較を行うと、その差分には、隣接するラインセンサ間のレベル差が含まれる。このため、上記画像読取装置においては、隣接するラインセンサが同じ画像を読取ったとしても、読取画像のレベル差による差分が比較結果として検出され、この差分が、副走査方向の位置ずれの誤検出を生じさせ、隣接するラインセンサによって生成された画像データの副走査方向の位置ずれを適切に検出できないという問題があった。 Therefore, when the image data of the overlap portion between the adjacent line sensors is compared with the pixel value as it is of the image data read by the line sensor, the difference includes the level difference between the adjacent line sensors. It is. For this reason, in the image reading apparatus, even if the adjacent line sensors read the same image, a difference due to the level difference of the read image is detected as a comparison result, and this difference is erroneously detected as a positional deviation in the sub-scanning direction. There is a problem that the positional deviation in the sub-scanning direction of the image data generated by the adjacent line sensors cannot be properly detected.
本発明は、上記従来技術の課題を解決するためになされたものであり、その目的は、各列のラインセンサにより読取られる画像データ間の副走査方向の位置ずれを検出する際に、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響を抑えて、副走査方向の位置ずれの誤検出がなく、精度よく画像の位置ずれを求め、被読取物に対応する高品質な合成画像データを生成することができる画像処理装置、画像処理方法、及び画像読取装置、並びに、前記画像データを結合する処理をコンピュータに実行させるプログラムを提供することである。 The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to detect a positional deviation in the sub-scanning direction between image data read by the line sensors in each column. High-quality composite image corresponding to the object to be read by suppressing the influence of level differences caused by differences in performance and reading conditions, and detecting misalignment in the sub-scanning direction without misdetection of the image. An object is to provide an image processing apparatus, an image processing method, and an image reading apparatus capable of generating data, and a program for causing a computer to execute processing for combining the image data.
本発明の一態様に係る画像処理装置は、主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データを処理する画像処理装置であって、前記複数のラインセンサからの出力に基づく画像データを格納する画像メモリと、前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去部と、前記低域除去部で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出部と、前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定部と、前記シフト量推定部によって算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理部とを備え、前記低域除去部は、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成することを特徴としている。 An image processing apparatus according to an aspect of the present invention includes a plurality of line sensors arranged in the main scanning direction at least two rows at different positions in the sub-scanning direction, and the end portions of adjacent line sensors in different rows are main. An image processing apparatus that processes image data generated by an imaging unit that is arranged to have overlapping areas within the same range in the scanning direction, and that is configured to output image data based on outputs from the plurality of line sensors. The image data to be stored and the image data in the overlap area of the image data stored in the image memory are determined in advance from image data in a pixel range including the pixel of interest and peripheral pixels of the pixel of interest. The low frequency component, which is a frequency component lower than the detected frequency, is removed, and the image data from which the low frequency component has been removed is removed. -Low band based on low band removal reference data at a predetermined position in the sub-scanning direction in the overlap area and image data from which the low band frequency component is removed in an area overlapping the overlap area of the low band removal reference data. A low-frequency removal unit that obtains low-frequency band removal comparison data, and a process of comparing the low-frequency removal reference data obtained by the low-frequency band removal unit with the low-frequency band removal comparison data, the position of the low-frequency band removal comparison data Is performed on a plurality of low frequency band removal comparison data at a plurality of positions moved in the sub-scanning direction, and a plurality of similarities are calculated between the low frequency band removal reference data and the plurality of low frequency band removal comparison data Sub-run of low-frequency removal comparison data having the highest similarity among the calculation unit, the position of the low-frequency removal reference data in the sub-scanning direction, and the plurality of low-frequency removal comparison data A shift amount estimation unit that calculates shift amount data based on a difference from a direction position, and a sub-scanning direction of image data that is read from the image memory based on the shift amount data calculated by the shift amount estimation unit A combining process for generating composite image data by determining the position of the image data, reading out the image data at the determined position from the image memory, and combining the image data read out by adjacent line sensors in different columns And the low-frequency removing unit includes a plurality of sub-scanning directions at the same position in the main scanning direction as the target pixel from image data in the pixel range of the image data read from the image memory. The low frequency component in the sub-scanning direction is removed based on the image data at the position, and the low frequency component in the sub-scanning direction is removed. The low-frequency removal reference data and the low-frequency removal comparison data are generated .
本発明の他の態様に係る画像処理方法は、主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データを処理する画像処理方法であって、前記複数のラインセンサからの出力に基づく画像データを画像メモリに格納する格納ステップと、前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去ステップと、前記低域除去ステップで求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出ステップと、前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定ステップと、前記シフト量推定ステップで算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理ステップとを備え、前記低域除去ステップでは、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成することを特徴とする。 An image processing method according to another aspect of the present invention includes a plurality of line sensors arranged in the main scanning direction at least two rows at different positions in the sub-scanning direction, and ends of adjacent line sensors in different rows are adjacent to each other. An image processing method for processing image data generated by an imaging unit arranged so as to have overlapping areas in the same range in the main scanning direction, the image data based on outputs from the plurality of line sensors Storing in the image memory, and image data in a pixel range including the pixel of interest and peripheral pixels of the pixel of interest with respect to the image data in the overlap region of the image data stored in the image memory The low frequency component, which is a frequency component lower than the predetermined frequency, is removed, and the low frequency component is removed. The low-frequency removal reference data at a predetermined position in the sub-scanning direction in the overlap region of the image data and the low-frequency component in the region overlapping the overlap region of the low-frequency removal reference data are removed. A low-frequency removal step for obtaining low-frequency removal comparison data based on image data, and a process for comparing the low-frequency removal reference data obtained in the low-frequency removal step with the low-frequency removal comparison data. A plurality of low-frequency removal comparison data at a plurality of positions where the position of the removal comparison data is moved in the sub-scanning direction, and a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data A similarity calculation step for calculating the low-frequency band removal reference data, a position in the sub-scanning direction of the low-frequency band removal reference data, and the highest type of the plurality of low-frequency band removal comparison data A shift amount estimation step for calculating shift amount data based on a difference between the low-frequency removal comparison data having a degree and a position in the sub-scanning direction, and the shift amount data calculated based on the shift amount data calculated in the shift amount estimation step. The position in the sub-scanning direction of the image data read from the image memory is determined, the image data at the determined position is read from the image memory, and the image data read by adjacent line sensors in different columns are combined. A combined processing step of generating composite image data by performing the same, and in the low frequency removing step, the same main pixel as the target pixel is obtained from the image data in the pixel range of the image data read from the image memory. Low frequency component in the sub-scanning direction based on image data at multiple positions in the sub-scanning direction Is generated, and the low-frequency-removal reference data and the low-frequency-removed comparison data from which the low-frequency components in the sub-scanning direction are removed are generated .
本発明の他の態様に係る画像読取装置は、主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部と、前記複数のラインセンサからの出力に基づく画像データを格納する画像メモリと、前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去部と、前記低域除去部で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出部と、前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定部と、前記シフト量推定部によって算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理部とを備え、前記低域除去部は、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成することを特徴としている。 An image reading apparatus according to another aspect of the present invention has a plurality of line sensors arranged in the main scanning direction at least two rows at different positions in the sub-scanning direction, and ends of adjacent line sensors in different rows are adjacent to each other. An image pickup unit arranged so as to have overlapping areas in the same range in the main scanning direction, an image memory storing image data based on outputs from the plurality of line sensors, and stored in the image memory A low frequency component which is a frequency component lower than a predetermined frequency from image data in a pixel range including a target pixel and peripheral pixels of the target pixel with respect to the image data in the overlap region of the image data And a predetermined position in the sub-scanning direction in the overlap region of the image data from which the low frequency component has been removed. A low-frequency removal unit that obtains low-frequency removal reference data in image data and low-frequency removal comparison data based on image data in which the low-frequency components in the region overlapping the overlap region of the low-frequency removal reference data are removed The processing for comparing the low-frequency removal reference data obtained by the low-frequency removal unit and the low-frequency removal comparison data is performed at a plurality of positions where the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculator for calculating a plurality of similarities between the plurality of low-frequency removal reference data and the plurality of low-frequency removal comparison data; Shift amount data is calculated based on the difference between the position in the scanning direction and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data. A shift amount estimating unit; and determining a position in the sub-scanning direction of image data read from the image memory based on the shift amount data calculated by the shift amount estimating unit; A combination processing unit that generates composite image data by combining the image data read from the image memory and read by the adjacent line sensors in different columns, and the low-frequency removal unit includes: Low-frequency components in the sub-scanning direction based on image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel from image data in the pixel range of the read image data Is generated, and the low-frequency removal reference data and the low-frequency removal comparison data from which the low-frequency components in the sub-scanning direction are removed are generated. It is characterized in that that.
本発明の他の態様に係るプログラムは、主走査方向に並ぶ複数のラインセンサを、副走査方向の異なる位置に少なくとも2列有し、互いに異なる列の隣接するラインセンサの端部同士が主走査方向における同じ範囲内で重なるオーバーラップ領域を有するように配置されている撮像部によって生成された画像データの処理をコンピュータに実行させるためのプログラムであって、前記複数のラインセンサからの出力に基づく画像データを画像メモリに格納する格納処理と、前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去処理であって、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する低周波除去処理と、前記低域除去処理で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出処理と、前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定処理と、前記シフト量推定処理で算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理とをコンピュータに実行させることを特徴としている。 A program according to another aspect of the present invention has a plurality of line sensors arranged in the main scanning direction at least two columns at different positions in the sub-scanning direction, and ends of adjacent line sensors in different columns are in the main scanning. A program for causing a computer to process image data generated by an imaging unit arranged so as to have overlapping regions within the same range in a direction, based on outputs from the plurality of line sensors A storage process for storing image data in an image memory, and a pixel range including a target pixel and peripheral pixels of the target pixel with respect to the image data in the overlap region of the image data stored in the image memory. A low frequency component that is a frequency component lower than a predetermined frequency is removed from the image data, and the low frequency The low-frequency removal reference data at a predetermined position in the sub-scanning direction in the overlap region of the image data from which several components have been removed, and the low-frequency region in a region overlapping the overlap region of the low-frequency removal reference data Low-frequency removal processing for obtaining low-frequency removal comparison data based on image data from which frequency components have been removed , wherein the pixel of interest is obtained from image data in the pixel range of the image data read from the image memory. The low-frequency component in the sub-scanning direction is removed based on the image data at a plurality of positions in the sub-scanning direction at the same position in the main-scanning direction, and the low-frequency component in the sub-scanning direction is removed. wherein the frequency canceling reference data wherein the low frequency removal process for generating a low-frequency removal comparative data, the said low-frequency canceling reference data obtained by the low-pass removal process A process of comparing the low-frequency band removal comparison data is performed on a plurality of low-frequency band removal comparison data at a plurality of positions where the position of the low-frequency band removal comparison data is moved in the sub-scanning direction. Similarity calculation processing for calculating a plurality of similarities between the low-frequency band removal comparison data, the position of the low-frequency band removal reference data in the sub-scanning direction, and the highest of the plurality of low-frequency band removal comparison data Based on the difference between the low-frequency removal comparison data having similarity and the position in the sub-scanning direction, based on the shift amount estimation process for calculating shift amount data, and the shift amount data calculated in the shift amount estimation process A position in the sub-scanning direction of image data read from the image memory is determined, the image data at the determined position is read from the image memory, and adjacent lines in different columns It is characterized by causing a computer to execute a combining process for generating composite image data by combining image data read by a sensor.
本発明においては、オーバーラップ領域における画像データに対して、注目画素とその周辺画素とを含む画素範囲における画像データから低域周波数成分を除去し、オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、低域除去基準データのオーバーラップ領域に重複する領域における低域除去比較データとを求め、低域除去基準データと低域除去比較データから求められたシフト量データを用いて、互いに異なる列の隣接するラインセンサによって読み出された画像データを結合している。このため、本発明によれば、ラインセンサ毎の性能及び読取り条件の違いにより生じるラインセンサ間のレベル差の影響を抑えて、副走査方向の位置ずれの誤検出なく、精度よく画像の位置ずれを求めることができ、被読取物に対応する高品質な合成画像データを生成することができる。 In the present invention, the low frequency component is removed from the image data in the pixel range including the target pixel and its surrounding pixels with respect to the image data in the overlap region, and the sub-scanning direction in the overlap region is determined in advance. The shift amount data obtained from the low-frequency removal reference data and the low-frequency removal comparison data are obtained by obtaining the low-frequency removal reference data at the position and the low-frequency removal comparison data in the region overlapping the overlap region of the low-frequency removal reference data. Are used to combine image data read by adjacent line sensors in different columns. For this reason, according to the present invention, it is possible to suppress the influence of the level difference between the line sensors caused by the difference in performance and reading conditions for each line sensor, and to accurately detect the positional deviation of the image without erroneous detection of the positional deviation in the sub-scanning direction. And high-quality composite image data corresponding to the object to be read can be generated.
実施の形態1.
図1は、本発明の実施の形態1に係る画像読取装置1の構成を概略的に示す機能ブロック図である。図1に示されるように、実施の形態1に係る画像読取装置1は、撮像部2と、A/D変換部3と、画像処理部4とを備えている。画像処理部4は、実施の形態1に係る画像処理装置(実施の形態1に係る画像処理方法を実施することができる装置)であり、画像メモリ41と、低域除去部42と、類似度算出部43と、シフト量推定部44と、結合処理部45とを備えている。
FIG. 1 is a functional block diagram schematically showing a configuration of an
撮像部2は、主走査方向に間隔を開けて(例えば、ライン状に)並ぶ複数(例えば、n個)の第1列のラインセンサを含む第1列のラインセンサ群(後述する図2(a)に符号21O又は21Eとして示される)と、主走査方向に間隔を開けて(例えば、ライン状に)並ぶ複数(例えば、n個)の第2列のラインセンサを含む第2列のラインセンサ群(図2(a)に符号21E又は21Oとして示される)とを備えている。ここで、nは、正の整数である。複数の第1列のラインセンサの主走査方向の位置は、複数の第2列のラインセンサが備えられていない領域、すなわち、主走査方向に隣接する第2列のラインセンサの間の領域、に対向する位置であり、複数の第2列のラインセンサの主走査方向の位置は、複数の第1列のラインセンサが備えられていない領域、すなわち、主走査方向に隣接する第1列のラインセンサの間の領域、に対向する位置となる。その結果、複数の第1列のラインセンサと複数の第2列のラインセンサとは、センサ基板上に千鳥状に配列される。また、複数の第1列のラインセンサと複数の第2列のラインセンサのうちの互いに隣接する第1列のラインセンサと第2列のラインセンサとは、隣接する端部同士(図2(a)において、最も近い位置にある端部srと端部sl)が、主走査方向における同じ範囲内で重なる重複領域(「オーバーラップ領域」とも呼ぶ。)を有するよう配置される。
The
撮像部2は、被読取物としての原稿の画像を光学的に読取り、原稿の画像に対応する電気信号(画像データ)SIを生成する。撮像部2で生成される電気信号(画像データ)SIは、第1列のラインセンサ群を構成する複数の第1列のラインセンサから出力される第1の画像データと、第2列のラインセンサ群を構成する複数の第2のラインセンサから出力される第2の画像データとを含む。なお、第1列のラインセンサ群及び第2列のラインセンサ群と原稿との間には、例えば、第1列のラインセンサ群及び第2列のラインセンサ群のそれぞれに正立像を結像させるレンズなどのような光学系を備えてもよい。
The
以下の説明においては、撮像部2が2列のラインセンサ群を備えた例を説明するが、ラインセンサ群の列数が3列以上の装置にも、本発明は適用可能である。また、本発明は、オーバーラップ領域を有する2個以上のラインセンサを有する撮像部によって被読取物の画像を読取る場合に適用可能である。したがって、本発明は、第1列のラインセンサ群が1個のラインセンサから構成され、第2列のラインセンサ群が1個のラインセンサから構成される場合にも適用可能である。
In the following description, an example in which the
図2(a)及び(b)は、撮像部2を説明するための図であり、図2(a)は、撮像部2を概略的に示す平面図であり、図2(b)は、被読取物としての原稿60を示す平面図である。図2(a)は、例えば、複写機の原稿台ガラス(以下「ガラス面」という)26を上から見た状態を示している。図3は、撮像部2の構成要素の1つであるラインセンサ21O1を使ってラインセンサの構成を説明するための図である。2 (a) and 2 (b) are diagrams for explaining the
図2(a)に示されるように、撮像部2は、センサ基板20を有する。センサ基板20には、複数のラインセンサが2列になるように配置されている。センサ基板20において、一方の端部(例えば、左側)から数えて奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onは、主走査方向(X方向)の直線状に間隔を開けて配置されている。左側の端部から数えて偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enは、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onと主走査方向(X方向)について異なる位置に、主走査方向の直線状に配置される。偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enと奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onとは、千鳥状に配列されている。図2(a)において、nは2以上の整数であり、kは1以上n以下の整数である。奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onは、複数の第1のラインセンサを含む第1列のラインセンサ群(又は、複数の第2のラインセンサを含む第2列のラインセンサ群)を構成し、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enは、複数の第2のラインセンサを含む第2列のラインセンサ群(又は、複数の第1のラインセンサを含む第1列のラインセンサ群)を構成する。As illustrated in FIG. 2A, the
図2(a)に示されるように、第1列のラインセンサ群に属する複数の第1のラインセンサ(例えば、21E1,…,21Ek,…,21En)は、第2列のラインセンサ群におけるラインセンサの主走査方向の間隔に対向するように配置され、第2列のラインセンサ群に属する複数のラインセンサ(例えば、21O1,…,21Ok,…,21On)は、第1列のラインセンサ群におけるラインセンサの主走査方向の間隔に対向するように配置されている。また、隣接する第1のラインセンサと第2のラインセンサの隣接する端部同士(端部srとsl)は、主走査方向の位置が同じ位置である(主走査方向において重複する領域である)オーバーラップ領域を有している。As shown in FIG. 2A, the plurality of first line sensors (for example, 21E 1 ,..., 21E k ,..., 21E n ) belonging to the first row line sensor group are arranged in the second row line. A plurality of line sensors (for example, 21O 1 ,..., 21O k ,..., 21O n ) arranged so as to face the interval in the main scanning direction of the line sensors in the sensor group and belonging to the second row line sensor group are The line sensors in the first row of line sensor groups are arranged so as to face the interval in the main scanning direction. Further, the adjacent end portions (end portions sr and sl) of the adjacent first line sensor and the second line sensor have the same position in the main scanning direction (an overlapping region in the main scanning direction). ) It has an overlap area.
図2(a)に示されるように、撮像部2は、搬送部(後述の図4(a)における24)によって副走査方向(Y方向)に移動し、被読取物としての原稿(図4(a)における60)を読取る。また、搬送部24は、撮像部2を固定し、副走査方向の反対方向(−Y方向)に原稿60を搬送させ、被読取物としての原稿を読取る装置であってもよい。ここで、本出願の各実施の形態においては、搬送部24によって撮像部2が矢印Dy方向(図2(a))に移動する場合を説明する。なお、副走査方向(Y方向)は、撮像部2の移動方向を示し(図2(a)の矢印Dy方向)、主走査方向は、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onの配列方向、又は、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの配列方向を示す。As shown in FIG. 2A, the
図3に示されるように、ラインセンサ21O1は、受光した光のうちの赤色成分の光を電気信号に変換する複数の赤色用光電変換素子(R光電変換素子)26Rと、受光した光のうちの緑色成分の光を電気信号に変換する複数の緑色用光電変換素子(G光電変換素子)26Gと、受光した光のうちの青色成分の光を電気信号に変換する複数の青色用光電変換素子(B光電変換素子)26Bとを備えている。図3に示されるように、複数のR光電変換素子26Rは、主走査方向(X方向)に直線状に配列され、複数のG光電変換素子26Gは、主走査方向(X方向)に直線状に配列され、複数のB光電変換素子26Bは、主走査方向(X方向)に直線状に配列されている。実施の形態1においては、図3の構成のラインセンサについて説明するが、本発明は、色を識別しない白黒用の光電変換素子が1列に並んだものとしてもよい。また、複数のR光電変換素子26R、複数のG光電変換素子26G、及び複数のB光電変換素子26Bの配列は、図3の例に限定されない。ラインセンサ21O1は、受光した情報を電気信号SI(O1)として出力する。また、ラインセンサ21E1,21O2,…,21On,21Enも同様に、受光した情報を電気信号SI(E1),SI(O2),…,SI(On),SI(En)として出力する。全てのラインセンサから出力される電気信号を、電気信号SIと表記する。撮像部2から出力された電気信号SIは、A/D変換部3に入力される。As shown in FIG. 3, the line sensor 21O 1 includes a plurality of red photoelectric conversion elements (R photoelectric conversion elements) 26R that convert red component light of received light into an electrical signal, and the received light. A plurality of green photoelectric conversion elements (G photoelectric conversion elements) 26G for converting green component light into electrical signals, and a plurality of blue photoelectric conversions for converting blue component light of received light into electrical signals. And an element (B photoelectric conversion element) 26B. As shown in FIG. 3, the plurality of R
奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enとは、一部重複して原稿60を読取るオーバーラップ領域A1,1,A1,2,…,Ak,k,Ak,K+1,Ak+1,K+1,…,An,nを有している。なお、オーバーラップ領域の詳細は、後述する。
A/D変換部3は、撮像部2から出力される電気信号SIをデジタルデータ(画像データ)DIに変換する。画像データDIは、画像処理部4に入力され、画像処理部4の画像メモリ41に格納される。
The A /
図4(a)〜(c)は、画像処理部4内の画像メモリ41に格納される画像データDIを説明するための図である。図4(a)は、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの光軸27Oと光軸27Eが交差する位置に原稿60がある場合(すなわち、光軸27Oと27Eを副走査方向(Y方向)に見たときに、光軸27Oと光軸27Eとがガラス面26上で交差する場合)の原稿60とラインセンサの位置関係を示す図である。図4(b)は、原稿60の一例を示す図である。図4(c)は、原稿60とラインセンサが図4(a)の位置関係にある場合に読取られた図4(b)の原稿60に対応する画像データDIを概念的に示す図である。4A to 4C are diagrams for explaining the image data DI stored in the
図4(a)は、画像読取装置1の概略的な側面図であり、画像読取装置1を備えた装置(例えば、複写機)を横から見た状態を示している。図2(a)に示される奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onは、ラインセンサ21Oとも表記し、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enは、ラインセンサ21Eとも表記する。発光ダイオード(LED)などの照明光源25で光照射された原稿60の反射光は、光軸27Oに沿ってラインセンサ21Oに向けて進み、光軸27Eに沿ってラインセンサ21Eに向けて進む。副走査方向(Y方向)に搬送される撮像部2は、ガラス面26に置かれた原稿60の反射光を逐次光電変換し、変換した電気信号SIを出力し、A/D変換部3は、その電気信号SIを画像データDIに変換して出力する。FIG. 4A is a schematic side view of the
図4(b)に示されるような原稿60を、撮像部2により逐次光電変換し、A/D変換部3によりデジタルデータに変換すると、図4(c)に示されるような画像データDIが画像メモリ41に格納される。画像データDIは、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onが生成する画像データDI(O1),…,DI(Ok),…,DI(On)と、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enが生成する画像データDI(E1),…,DI(Ek),…,DI(En)とから成る。図4(c)では、奇数番目に位置するラインセンサ21Ok及び21Ok+1が生成する画像データDI(Ok)及びDI(Ok+1)と、偶数番目に位置するラインセンサ21Ek及び21Ek+1が生成する画像データDI(Ek)及びDI(Ek+1)とを示している。When a
なお、ラインセンサ毎には、性能のばらつき及び照明分布などの読取り条件の違いがあるため、ラインセンサ21O1,…,21Ok,…,21Onが生成する画像データDI(O1),…,DI(Ok),…,DI(On)とラインセンサ21E1,…,21Ek,…,21Enが生成する画像データDI(E1),…,DI(Ek),…,DI(En)とのそれぞれで、ラインセンサ毎に読取った画像データのレベル差(明暗の差、画素データの値の差)が生じる場合がある。このため、同一の画像を読取った場合であっても、画像データDI(Ok)とDI(Ek)とでは、画像データにおける画素値(レベル)に差が生じる。Note that the each line sensor, because of the difference in read conditions such as variation and the illumination distribution of the performance, the line sensor 21O 1, ..., 21O k, ..., image data DI (O 1) generated by 21O n, ... , DI (O k), ... , DI (O n) and the line sensor 21E 1, ..., 21E k, ..., image data DI to be generated 21E n (E 1), ... , DI (E k), ..., There may be a difference in level of image data read for each line sensor (brightness / darkness difference, difference in pixel data value) with each of DI (E n ). For this reason, even when the same image is read, there is a difference in the pixel value (level) in the image data between the image data DI (O k ) and DI (E k ).
ここで、オーバーラップ領域A1,1,A1,2,…,Ak,k,Ak,K+1,Ak+1,K+1,…,An,nについて説明する。図2(a)に示されるように、撮像部2が副走査方向(Y方向)に搬送されて原稿60を読取ると、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enで一部重複した領域(オーバーラップ領域)が読取られる。例えば、ラインセンサ21O1の右端srとラインセンサ21E1の左端slは、原稿60の同じ領域、すなわち、領域A1,1を読取る。同様に、ラインセンサ21E1の右端srとラインセンサ21O2の左端slは、原稿60の同じ領域、すなわち、領域A1,2を読取る。Here, the overlap area A 1,1, A 1,2, ..., A k, k, A k, K + 1, A
図4(b)に示される例で説明すると、ラインセンサ21Okの右端srとラインセンサ21Ekの左端slは、ともに原稿60の領域Ak,kを読取り、ラインセンサ21Ekの右端srとラインセンサ21Ok+1の左端slは、ともに原稿60の領域Ak,k+1を読取り、ラインセンサ21Ok+1の右端srとラインセンサ21Ek+1の左端slは、ともに原稿60の領域Ak+1,k+1を読取る。Referring to the example shown in FIG. 4 (b), the left end sl the right sr and the
したがって、ラインセンサ21Okに対応する画像データDI(Ok)は、原稿60のオーバーラップ領域Ak,kに対応するデジタルデータdrを含み、ラインセンサ21Ekに対応する画像データDI(Ek)は、原稿60の領域Ak,kに対応するデジタルデータdlを含んでいる。原稿60が、図4(a)で示されるように、ガラス面26に密着している場合、ラインセンサ21Oとラインセンサ21Eの、原稿60の副走査方向(Y方向)についての読取り位置は、ほぼ同じ位置であるため、図4(c)に示されるように、隣接するデジタルデータdrとdlは、原稿60の副走査方向(Y方向)についての位置ずれの無いデータになる。言い換えれば、ラインセンサ21Oとラインセンサ21Eによって読取られる副走査方向(Y方向)の位置、すなわち、ライン(以下「読取ライン」ともいう)は、隣接するデジタルデータdrとdlではほぼ同じ位置になり、ラインセンサ21Oとラインセンサ21Eによって読取られた画像データ間の副走査方向の位置ずれ量(ライン数)は、ゼロに近い値となる。Thus, image data DI (O k) corresponding to the line sensor 21O k is the overlap area A k of the document 60, it includes a digital data d r corresponding to k, image data DI (E corresponding to the
また、上述したように、ラインセンサ毎には性能のばらつき及び照明分布などの読取り条件の違いがあると、ラインセンサ21Okに対応する画像データDI(Ok)に含まれるオーバーラップ領域Ak,kに対応するデジタルデータdrと、ラインセンサ21Ekに対応する画像データDI(Ek)に含まれる領域Ak,kに対応するデジタルデータdlとでは、同じ原稿60の領域Ak,kを読取っていても、画像データの値にレベル差が生じることになる。Further, as described above, when the each line sensor there is a difference of reading conditions, such as variations and lighting distribution performance, the overlap area A k included in the image data DI (O k) corresponding to the line sensor 21O k , a digital data d r corresponding to k, the area a k included in the image data DI (E k) corresponding to the
次に、原稿60がガラス面26から離れることにより原稿60とラインセンサの位置関係が、図4(a)に示される場合と異なる場合について説明する。図5(a)〜(c)は、画像メモリ41に格納される画像データDIを説明するための図である。図5(a)は、原稿60がガラス面26から浮いて(離れて)おり、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onの光軸と偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの光軸とが交差する位置とは違う位置に、原稿60がある場合における、原稿60とラインセンサの位置関係を示す図である。図5(b)は、原稿60の一例を示す図であり、図5(c)は、原稿60とラインセンサが図5(a)の位置関係にある場合の図5(b)の原稿60に対応する画像データDIを概念的に示す図である。Next, a case where the positional relationship between the original 60 and the line sensor is different from the case shown in FIG. 4A when the original 60 is separated from the
原稿60がガラス面26から浮いている場合であっても、平面図で見た場合のラインセンサと原稿60の位置関係は、変わらない。すなわち、原稿60がガラス面26から浮いている場合と、ガラス面26上に密着している場合とでは、各ラインセンサは主走査方向(X方向)については、同じ位置のデータを取得する。したがって、図5(b)では、図4(b)の場合と同様に、ラインセンサ21Okの右端srとラインセンサ21Ekの左端slは、ともに原稿60の領域Ak,kを読取り、ラインセンサ21Ekの右端srとラインセンサ21Ok+1の左端slは、ともに原稿60の領域Ak,k+1を読取り、ラインセンサ21Ok+1の右端srとラインセンサ21Ek+1の左端slは、ともに原稿60の領域Ak+1,k+1を読取る。Even when the
一方、図5(a)に示されるように、撮像部2の側面図で見た場合、原稿60がガラス面26から浮いているため、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onの光軸27Oが原稿60と交わる位置と偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの光軸27Eが原稿60と交わる位置が異なる。そのため、原稿60がガラス面26から浮いている場合、副走査方向(Y方向)には、ラインセンサごとで読取り位置が異なる。これは、副走査方向(Y方向)に撮像部2が搬送されるとき、それぞれのラインセンサは、逐次光電変換しているため、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enは、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onに比べて、同じ位置の画像を時間的に遅れて取得することになるからである。したがって、図5(c)に示されるように、奇数番目に位置するラインセンサ21Ok,21Ok+1に対応する画像データDI(Ok),DI(Ok+1)と偶数番目に位置するラインセンサ21Ek,21Ek+1に対応する画像データDI(Ek),DI(Ek+1)とは、副走査方向の位置(ライン)がずれて(画像データDI(Ok),DI(Ok+1)に比べ画像データDI(Ek),DI(Ek+1)が図示の下方向にずれて)、画像メモリ41に格納される。言い換えれば、ラインセンサ21Oとラインセンサ21Eによって読取られる副走査方向(Y方向)の位置は、隣接するデジタルデータdrとdlでは、画像メモリ41内の副走査方向の位置(ライン)が異なることになり、ラインセンサによって読取られた画像データとの間の副走査方向の位置ずれ量(ライン数)が生じる。また、図4(a)〜(c)の場合と同様に、ラインセンサ毎には性能のばらつき及び照明分布などの読取り条件の違いがあるため、ラインセンサ21Oが読取る画像データDI(Ok)と、ラインセンサ21Eが読取る画像データDI(Ek)では、ラインセンサ毎に読取った画像データのレベル差が生じる場合がある。On the other hand, as shown in FIG. 5A, when viewed from the side view of the
画像読取装置1の画像処理部4は、画像メモリ41と、低域除去部42とを備えている。画像メモリ41は、第1列のラインセンサ群と第2列のラインセンサ群の複数のラインセンサによる出力から生成された、第1の画像データと第2の画像データを格納する。低域除去部42は、画像メモリ41に格納されている画像データDIのうちのオーバーラップ領域における画像データに対しての処理を行う。すなわち、低域除去部42は、オーバーラップ領域における注目画素近傍(すなわち、注目画素と該注目画素の周辺画素とを含む画素範囲)における画像データから低域周波数成分を除去し、この低域周波数成分が除去された画像データのうち、副走査方向の予め決められた位置(所定の副走査位置又は所定のラインとも記す)の基準データと、この基準データと重複して読取られた同じオーバーラップ領域の予め決められたライン数の比較データとを出力する。なお、低域除去部42から出力される基準データ及び比較データは、低域除去基準データ及び低域除去比較データとも言う。また、「注目画素近傍」とは、注目画素と、この注目画素の周囲の予め決められた範囲内の周辺画像と、を含む範囲(画素範囲)を意味する。また、「所定の副走査方向の位置」とは、副走査方向における予め決められた位置を意味する。また、「低域周波数成分」とは、予め設定された(予め決められた)周波数よりも低い周波数の成分を意味する。
The
また、画像処理部4は、低域除去部42における低域周波数成分の除去処理によって生成された低域除去基準データと低域除去比較データとを比較する処理を、複数の位置の低域除去比較データについて行い、低域除去基準データと副走査方向の複数の位置における低域除去比較データ(すなわち、複数ラインの低域除去比較データ)との間の類似度を算出する類似度算出部43と、低域除去基準データの副走査方向の位置と複数ラインの低域除去比較データとの間の複数の類似度のうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいてシフト量データを算出(推定)するシフト量推定部44とを備えている。
Further, the
さらに、画像処理部4は、シフト量データに基づいて副走査方向の位置を変えて、画像メモリ41から画像データを読み出し、第1の画像データと第2の画像データとを結合する結合処理部45とを備えている。
Further, the
画像処理部4内の低域除去部42と類似度算出部43、及びシフト量推定部44では、画像メモリ41に格納されている画像データDIのうちのオーバーラップ領域における画像データに対しての処理を行う。すなわち、画像処理部4の低域除去部42から類似度算出部43、シフト量推定部44での処理により、オーバーラップ領域における注目画素とその周辺画素を含む画素範囲における画像データの低域周波数成分を除去し、この低域周波数成分が除去されたオーバーラップ領域における低域除去基準データと複数の低域除去比較データとを比較して複数の類似度を算出し、複数の類似度のうちの最も類似度の高い低域除去比較データの副走査方向の位置からシフト量データを算出する。そして、画像処理部4内の結合処理部45において、算出されたシフト量データに基づいて画像メモリ41から画像データを読み出し、読み出された画像データの結合処理を行って合成画像データを生成する。以下に、この画像処理部4の構成及び動作をさらに具体的に説明する。
In the low
画像処理部4内の低域除去部42には、画像メモリ41内のオーバーラップ領域における画像データ、すなわち、画像データDIのうち、副走査方向(Y方向)の所定位置ynとその前後のラインにおけるオーバーラップ領域(図4及び図5中のdr又はdl)の画像データrMを読み出し入力する。オーバーラップ領域の画像データrMは、画像メモリ41内のオーバーラップ領域における画像データDIのうち、画像データrMO(低域除去基準データに相当)と、画像データrMOと重複して読取られた同じオーバーラップ領域に位置する画像データrME(低域除去比較データに相当)を含んでいる。The low-
低域除去部42は、オーバーラップ領域における画像データrMに対する処理、すなわち、オーバーラップ領域における注目画素とその周辺画素を含む画素範囲について、画像データの低域周波数成分を画像データから除去して、低域周波数成分を除去された低域除去画像データhM(低域除去基準データhMO及び低域除去比較データhME)を生成する。そして、低域除去部42は、低域除去画像データhMのうち、副走査方向(Y方向)の所定位置Ymとその周辺(Y方向1ライン間隔毎及びX方向)の低域除去画像データを低域除去基準データMOとして、低域除去基準データMOと重複して読取られた同じオーバーラップ領域における低域除去基準データMOの副走査方向(Y方向)の位置である基準ラインYmを中心として−yから+yまでの範囲((Ym−y)から(Ym+y)までの範囲)、すなわち、基準ラインYmの前後ラインにおける予め決められた検索範囲“−y〜+y”の位置とその周辺(Y方向1ライン間隔毎及びX方向)における低域除去画像データを低域除去比較データMEとし、予め決められたライン数の低域除去基準データMOと低域除去比較データMEとして出力する。The low
ここで、上述したように、ラインセンサ毎の性能及び照明分布などの読取り条件の違いにより、ラインセンサにより読取られた画像データDIには、ラインセンサ間で画像データの値のレベル差(明暗の差、画素データの値の差)が生じる。このラインセンサ間のレベル差を生じさせる各ラインセンサで取得した画像データの値の変化、すなわち、デジタルデータDIの値の変化は、画素ごとで発生するランダムノイズ及び、読取り画像にある副走査方向若しくは主走査方向の1ライン単位又は1画素単位で変化するようなパターン及びエッジ等の輪郭での変化とは異なり、副走査方向あるいは主走査方向に、比較的緩やかに変化する低域周波数成分として現れる。この低域周波数成分は、例えば、副走査方向に数ライン(3ライン以上のライン数)より多くのライン周期に亘り変化するような、画像データの値の変化として扱うことができる。 Here, as described above, due to differences in reading conditions such as the performance of each line sensor and illumination distribution, the image data DI read by the line sensor has a level difference (brightness and darkness) of the value of the image data between the line sensors. Difference, difference in pixel data value). The change in the value of the image data acquired by each line sensor causing the level difference between the line sensors, that is, the change in the value of the digital data DI is caused by random noise generated in each pixel and the sub-scanning direction in the read image. Alternatively, as a low frequency component that changes relatively slowly in the sub-scanning direction or the main scanning direction, unlike a pattern and an edge or the like that change in units of one line or one pixel in the main scanning direction. appear. This low frequency component can be treated as a change in the value of the image data, for example, which changes over a line cycle larger than several lines (the number of lines of 3 lines or more) in the sub-scanning direction.
したがって、低域除去部42において、この緩やかに変化する低域周波数成分をオーバーラップ領域における画像データrMから除くことで、画像処理部4は、ラインセンサ毎の性能及び読取り条件の違いにより生じる取得したオーバーラップ領域における画像データDIの値の変化を除き、重複して読取られた同じオーバーラップ領域の低域除去基準データMOと低域除去比較データMEを、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データとして得ることができる。
Therefore, the low-
低域除去部42は、例えば、図6に示されるように構成される。低域除去部42は、画像メモリ41から読み出されたオーバーラップ領域における画像データrMに対しての処理を行う。すなわち、低域除去部42は、オーバーラップ領域における画像データrMの低域周波数成分を、画像データrMから除去して低域除去画像データhMを生成し、低域除去画像データhMのうち、オーバーラップ領域の位置に応じて低域除去基準データhMOと低域除去比較データhMEとをそれぞれオーバーラップMO画像メモリ424とオーバーラップME画像メモリ425のいずれかに一時格納し、一時格納されたデータから予め決められたライン数の低域除去基準データMOと低域除去比較データMEを読み出して出力する。
The low
図6に示されるように、低域除去部42は、オーバーラップ低域除去部421と、オーバーラップMO画像メモリ424と、オーバーラップME画像メモリ425とを備えている。また、オーバーラップ低域除去部421は、低域周波数成分を抽出する低域成分抽出部422と、減算部423とを備えている。
As shown in FIG. 6, the low
低域除去部42におけるオーバーラップ低域除去部421は、画像メモリ41から、オーバーラップ領域における画像データrM(基準画像データrMOと比較画像データrME)を読み出す。オーバーラップ低域除去部421は、オーバーラップ領域における画像データrMに対しての処理を行う。すなわち、オーバーラップ低域除去部421は、画像の低域周波数成分を画像データrMから除去して低域除去画像データhMを生成する。このとき、低域除去画像データhMは、低域周波数成分が除かれた、画像データの副走査方向若しくは主走査方向の1ライン、1画素単位で変化するようなパターン及びエッジ等の輪郭での変化情報を持つ値により構成される画像データとなり、例えば、符号付きの画像データ、又は、所定のオフセット値により正の値へ変換した画像データとなる。
The overlap low-
図7は、低域除去部42において、低域周波数成分を抽出する画素範囲の一例を示す。図7は、低域除去部42での低域成分抽出画素範囲の位置関係を示す。ここで、オーバーラップ低域除去部421で画像の低域周波数成分として抽出する範囲(低域成分抽出範囲)は、例えば、図7に示されるように、画像メモリ41内の副走査方向の所定位置ynにおけるオーバーラップ領域の注目画素P0を中心とし、副走査方向9ライン、主走査方向1画素の合計9画素で構成される画素範囲(低域成分抽出範囲)b2である。オーバーラップ低域除去部421は、副走査方向9ラインの範囲(低域成分抽出ライン範囲)における低域周波数成分を得て、低域周波数成分を除去された低域除去画像データhMを生成する。この低域除去画像データhMは、副走査方向の低域周波数成分が除去された低域除去画像データhMとなる。FIG. 7 shows an example of a pixel range in which the low
なお、低域成分抽出範囲は、図7に示される副走査方向9ライン(ラインyn+4からラインyn−4までの9ライン)、主走査方向1画素の計9画素で構成される範囲に限定されるものではなく、ラインセンサ間のレベル差につながる各ラインセンサで取得した画像データの値の変化、例えば、副走査方向に数ラインより多くのライン周期に亘り変化するような、比較的緩やかに変化する低域周波数成分が抽出できる範囲であれば、他の範囲であってもよい。低域成分抽出範囲は、例えば、画像メモリ41内の副走査方向の所定位置ynにおけるオーバーラップ領域の注目画素P0を中心とし、副走査方向uライン、主走査方向v画素の合計(u×v)画素で構成される画素範囲としてもよい。ここで、uは、2以上の整数であり、vは1以上の整数である。The low-frequency component extraction range is a range composed of (9 lines from the line y n +4 to the line y n -4), a total of nine pixels in the main scanning direction by one pixel sub-scanning direction 9 lines shown in FIG. 7 It is not limited to, but the change of the value of the image data acquired by each line sensor that leads to the level difference between the line sensors, for example, the comparison that changes over several line periods in the sub-scanning direction Any other range may be used as long as a low frequency component that changes gradually can be extracted. Low-frequency component extraction range, for example, the pixel of interest P0 in the overlap region in the sub-scanning direction at a predetermined position y n of the
また、主走査方向に2画素以上の範囲をとり、副走査方向と主走査方向の二次元方向で低域周波数成分を求めることもできる。しかし、ラインセンサ間の副走査方向の位置ずれは、一般的には、主走査方向に同じ値が並ぶ横線又は傾きを持つ斜め線など(副走査方向のエッジ部、高域周波数部分)の一致による判定が主要素となり、主走査方向のエッジである縦線だけでは副走査方向の画像の一致は判定できない。したがって、副走査方向のみの低域周波数成分の抽出であっても、低域周波数成分の抽出の精度は低下し難い。また、副走査方向のみで低域周波数成分を求める場合には、二次元方向で低域周波数成分を求める場合に比べて、ハードウェアの構成の簡素化及び演算処理の容易化が実現でき、演算規模を小さくすることができる。 It is also possible to obtain a low frequency component in the two-dimensional direction of the sub-scanning direction and the main scanning direction by taking a range of two or more pixels in the main scanning direction. However, the positional deviation between the line sensors in the sub-scanning direction generally coincides with horizontal lines or diagonal lines with the same value in the main scanning direction (edges in the sub-scanning direction, high-frequency parts). The determination by is the main element, and the coincidence of the images in the sub-scanning direction cannot be determined only by the vertical lines that are the edges in the main scanning direction. Therefore, even if the low frequency component is extracted only in the sub-scanning direction, the accuracy of extracting the low frequency component is unlikely to decrease. In addition, when the low frequency component is obtained only in the sub-scanning direction, the hardware configuration can be simplified and the arithmetic processing can be facilitated, compared with the case where the low frequency component is obtained in the two-dimensional direction. The scale can be reduced.
図6において、オーバーラップ低域除去部421へ入力されたオーバーラップ領域における画像データrMは、低域成分抽出部422と、減算部423へ入力される。
In FIG. 6, the image data rM in the overlap region input to the overlap low
オーバーラップ低域除去部421における低域成分抽出部422は、オーバーラップ領域の画像データrM内の注目画素P0を中心とする副走査方向9ラインの低域成分抽出範囲b2(図7に長方形の破線で囲う範囲)において、注目画素P0(又はそれに対応する位置)の近傍の画像データにおける副走査方向の低域周波数成分である低域成分adcを抽出し、これを出力する。
The low-frequency
低域成分抽出部422における画像データの低域周波数成分(低域成分adc)抽出は、例えば、低域成分抽出範囲b2に対応する位置にある画素の画素値の平均を算出することにより行う。低域成分抽出範囲b2内における平均を算出するので、副走査方向の9ラインの間に平均して存在する画素レベル、すなわち、9ライン中の低域周波数成分を抽出することができる。ここで、図7に示される低域成分抽出範囲b2では9画素(9ライン)の画素値の平均値を求めるため、画素値の合計を9分の1することとなるが、ハードウェアの構成の容易さ及び演算処理の容易さを考慮して、9に代えて、8(2の3乗)又は、4(2の2乗)で割る演算となるように低域成分抽出部422を構成してもよい。低域成分抽出部422が行う処理は、低域周波数成分としての平均値を反映した指標が得られる処理であれば、他の処理であってもよい。また、低域成分抽出部422は、低域成分抽出範囲b2に対応する位置にある画素の画素値の平均値に、予め決められた係数を乗算して、ゲイン調整等の変換を行うよう構成することもできる。
The low frequency component (low frequency component adc) extraction of the image data in the low frequency
なお、低域成分抽出部422では画素値の平均から低域成分adcを求める場合を説明したが、低域成分抽出部422は、注目画素P0に対する各画素の位置(図7ではライン間隔)に応じて、重み付け平均化してもよく、例えば、注目画素P0に近い画素における重みが大きく、注目画素P0からの距離が大きくなるほど重みが次第に小さくなるように重み付け加算することで重み付け平均化を行うこととしてもよい。
Note that the low frequency
また、低域成分抽出部422は、低域通過フィルタ(ローパスフィルタ、又は、LPFとも記す)等により構成することができ、ライン間の画素でLPF処理した値を低域成分adcとして求めることもできる。この場合、低域成分抽出部422では、通過させる低域周波数成分が、ライン周波数の数ライン分の1(例えば、図7においては1/9)となるように、緩やかに変化する低域周波数成分を抽出させるようなフィルタ係数を設定すればよい。
Further, the low-frequency
図6のオーバーラップ低域除去部421における減算部423へは、オーバーラップ領域における画像データrMの中心ライン(図7における副走査方向読み出しラインyn)の注目画素P0と、低域成分抽出部422からの低域周波数成分である低域成分adcとが入力される。To the
オーバーラップ低域除去部421の減算部423は、画像データrMに対する処理、すなわち、画像データrMの注目画素P0の画像データから、低域成分抽出部422からの低域成分adcを減算することで、画像データrMから注目画素P0の近傍にある画像の低域周波数成分を除去し、低域除去画像データhMを生成する処理を行う。このとき、低域除去画像データhMは、低域周波数成分である低域成分adcを画像データrMから減算することによって生成されるので、符号付きのパターン及びエッジ等などの輪郭での変化情報を持つ値の画像データとなる。この低域除去画像データhMは、符号付きの値のままで扱うことも可能であるが、所定のオフセット値により正の値に変換(絶対値に変換)したデータであってもよい。ただし、減算結果を絶対値化した値は、エッジ及び輪郭情報の有無を示す値となり、変化の方向を示していないので、この場合の低域除去画像データhMでは、符号値(変化する方向を示す)を併せて保持する必要がある。
The
オーバーラップ低域除去部421へ入力されたオーバーラップ領域の画像データrMは、オーバーラップ領域における画像データDIのうちの、画像データrMO(基準データに相当)と、画像データrMOと重複して読取られた同じオーバーラップ領域に位置する画像データrME(比較データに相当)とを含んでいるので、減算部423で低域周波数成分を除去された低域除去画像データhMもまた、基準データとなる画像データrMOと比較データとなる画像データrMEから低域周波数成分を除去した低域除去基準データhMO及び低域除去比較データhMEを含む。
The overlap region image data rM input to the overlap low
以上のように、図6に示されるオーバーラップ低域除去部421は、オーバーラップ領域における画像データrMに対する処理、すなわち、画像の低域周波数成分を除去した低域除去画像データhMを生成して出力する処理を行う。オーバーラップ低域除去部421からの低域除去画像データhMは、オーバーラップMO画像メモリ424及びオーバーラップME画像メモリ425へと入力されて、一時格納される。
As described above, the overlap low-
オーバーラップ低域除去部421からの低域除去画像データhMは、低域除去基準データとなる画像データrMOと低域除去比較データとなる画像データrMEとから低域周波数成分を除去した低域除去基準データhMO及び低域除去比較データhMEを持つので、低域除去画像データhMのうち、オーバーラップ領域の位置(処理のタイミング)に応じて、低域除去基準データhMOはオーバーラップMO画像メモリ424に、低域除去比較データhMEはオーバーラップME画像メモリ425にそれぞれ格納される。
The low-frequency removal image data hM from the overlap low-
そして、オーバーラップMO画像メモリ424及びオーバーラップME画像メモリ425からは、次の類似度算出部43での処理タイミングに合わせ、予め決められたライン数の低域除去基準データMOと低域除去比較データMEが読み出され、出力される。オーバーラップMO画像メモリ424からは、低域除去基準データhMOのうちの所定の副走査方向(Y方向)の位置Ymとその周辺(Y方向1ライン間隔毎及びX方向)の低域除去画像データが、低域除去基準データMOとして読み出される。オーバーラップME画像メモリ425からは、低域除去比較データhMEのうち、低域除去基準データMOと重複して読取られた同じオーバーラップ領域において、低域除去基準データMOの副走査方向(Y方向)の位置Ymの前後ラインにおける予め決められた検索範囲“−y〜+y”(「+」で示す正方向が副走査方向)の位置とその周辺(Y方向1ライン間隔毎及びX方向)における低域除去画像データが、低域除去比較データMEとして読み出される。Then, from the overlap
オーバーラップMO画像メモリ424から読み出された低域除去基準データMOとオーバーラップME画像メモリ425から読み出された低域除去比較データMEとは、低域周波数成分を除去した予め決められたライン数の低域除去基準データMOと低域除去比較データMEとして、低域除去部42から類似度算出部43へと送られる。
The low-frequency removal reference data MO read from the overlap
上記予め決められた検索範囲“−y〜+y”は、低域除去基準データMO(低域除去基準データhMO)の中心ライン位置との差、すなわち、副走査方向の位置ずれ量(シフト量とも呼ぶ。)dYが取り得る値の範囲である。検索範囲“−y〜+y”は、画像読取装置1の撮像部2により原稿60を読取る際、原稿60とガラス面との距離及び光軸のずれ等により起こり得る副走査方向の位置のずれ量を考慮して決められる。検索範囲“−y〜+y”は、結合処理において画像データをシフトさせる副走査方向の位置(ライン)、すなわち、副走査方向の位置ずれの検出を行う検索範囲である。位置ずれ量dYは、−yから+yまでの範囲内の値をとる。
The predetermined search range “−y to + y” is different from the center line position of the low-frequency removal reference data MO (low-frequency removal reference data hMO), that is, the positional deviation amount in the sub-scanning direction (both the shift amount). This is the range of values that dY can take. The search range “−y to + y” is the amount of positional deviation in the sub-scanning direction that may occur due to the distance between the original 60 and the glass surface, the optical axis, and the like when the
以上から、図6における低域除去部42は、オーバーラップ領域における画像データrMから低域周波数成分を除去した低域除去画像データhM(低域除去基準データhMO及び低域除去比較データhME)を生成し、低域除去画像データhMのうち、オーバーラップ領域におけるラインYm(後述する図8〜10に示される)とその周辺の画像データを、検索範囲“−y〜+y”に対する低域除去基準データMOとして出力する。また、低域除去部42は、対応するオーバーラップ領域については、ラインYmを中心とした検索範囲“−y〜+y”(すなわち、ライン(Ym−y)からライン(Ym+y)までの範囲)内のラインとその周辺の画像データを低域除去比較データhMEとして求め、検索範囲“−y〜+y”内にある各ラインの低域除去比較データMEとして出力する。低域除去部42から出力する際の副走査方向の位置ずれ量dYの検出を行うための検索範囲は、ライン(Ym−y)からライン(Ym+y)までの範囲内のラインとなり、低域除去基準データMOと検索範囲“−y〜+y”内にあるライン数に等しい数の低域除去比較データMEは、類似度算出部43へ送られる。From the above, the low-
低域除去部42は、オーバーラップ領域における画像データrMから、オーバーラップ低域除去部421において低域周波数成分を除去して低域除去画像データhM(低域除去基準データhMO及び低域除去比較データhME)を生成し、低域除去画像データhMを、低域除去画像データのうちの低域除去基準データMOと、位置ずれ量dYが−yから+yまでの範囲内の値をとる低域除去比較データMEとして、出力することができる。このように、低域除去部42は、重複して読取られた同じオーバーラップ領域の低域除去基準データMOと低域除去比較データMEを、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データとして、出力することができる。また、オーバーラップ低域除去部421における低域成分抽出範囲を副走査方向に並ぶラインとしたので、出力される低域除去画像データは、副走査方向の低域周波数成分が除去された低域除去基準データMOと低域除去比較データMEとなり、低域周波数成分の抽出の精度を落とさず、ハードウェアの構成の簡素化、演算処理の容易化を実現でき、演算規模を小さくすることができる。
The low
図8は、原稿がガラス面に密着しているときの低域除去部42及び類似度算出部43の動作を説明するための図であり、図9は、原稿がガラス面から離れているときの低域除去部42及び類似度算出部43の動作を説明するための図である。図8及び図9は、低域除去部42が、画像メモリからオーバーラップ領域における画像データrMを読み出し、読み出された画像データrMから低域周波数成分を除去して得られた低域除去画像データのうちの低域除去基準データMOと低域除去比較データMEとを出力する際の、低域除去基準データMOの画像データDI(O)と低域除去比較データMEの画像データDI(E)のオーバーラップ領域上での位置と動作を説明するための図である。
FIG. 8 is a diagram for explaining the operation of the low
図8は、図4(c)に対応する図(原稿60がガラス面に密着している場合)であり、低域除去画像データのうちの低域除去基準データMOと低域除去比較データMEの画像データDI上における位置関係を示している。低域除去基準データMOは、副走査方向(Y方向)の位置Ym(ラインYm)における画像データから低域周波数成分を除去して得られた低域除去画像データであり、低域除去比較データMEは、位置ずれ量dYが−yから+yまでの範囲内の値をとる画像データから低域周波数成分を除去して得られた低域除去画像データである。FIG. 8 is a diagram corresponding to FIG. 4C (when the original 60 is in close contact with the glass surface), and the low-frequency removal reference data MO and the low-frequency removal comparison data ME of the low-frequency removal image data. The positional relationship on the image data DI is shown. The low-frequency removal reference data MO is low-frequency-removed image data obtained by removing low-frequency components from the image data at the position Y m (line Y m ) in the sub-scanning direction (Y direction). The comparison data ME is low-frequency-removed image data obtained by removing low-frequency components from image data in which the positional deviation amount dY takes a value in the range from −y to + y.
図9は、図5(c)に対応する図(原稿60がガラス面から離れている場合)であり、副走査方向(Y方向)の位置Ym(ラインYm)における画像データから低域周波数成分を除去して得られた低域除去画像データである低域除去基準データMOと、位置ずれ量dYが−yから+yまでの範囲内の値をとる画像データから低域周波数成分を除去して得られた低域除去比較データMEとの位置関係を示している。FIG. 9 is a diagram corresponding to FIG. 5C (in the case where the
上述したように、低域除去部42には、画像メモリ41から読み出されたオーバーラップ領域における画像データrMが、オーバーラップ低域除去部421に入力される。図8及び図9に示されるように、副走査方向(Y方向)の位置Ymにおける低域除去画像データである低域除去基準データMOは、ラインセンサ21Okに対応する画像データDI(Ok)のオーバーラップ領域drにおいて、ラインYmを中心とした周辺の画像データに対応する低域除去画像データであり、図8及び9におけるMO(Ok,dr,Ym)となる。位置ずれ量dYが−yから+yまでの範囲内の値をとる画像データから低域周波数成分を除去して得られた低域除去比較データMEは、ラインセンサ21Ekに対応する画像データDI(Ek)のオーバーラップ領域dlにおいて、ラインYmを中心とし検索範囲“−y〜+y”内のラインとその周辺の画像データに対応する低域除去画像データであり、図8及び図9における画像データME(Ek,dl,Ym)となる。低域除去比較データMEは、検索範囲“−y〜+y”内のラインの画像データに対応する低域除去画像データであり、低域除去基準データMOより低域除去比較データMEが副走査方向(Y方向)に広くなる。As described above, the image data rM in the overlap region read from the
図8及び図9において、低域除去部42は、
画像データDI(Ok)のオーバーラップ領域drの低域除去基準データMO(Ok,dr,Ym)と画像データDI(Ek)のオーバーラップ領域dlの低域除去比較データME(Ek,dl,Ym)、
画像データDI(Ok+1)のオーバーラップ領域dlの低域除去基準データMO(Ok+1,dl,Ym)と画像データDI(Ek)のオーバーラップ領域drの低域除去比較データME(Ek,dr,Ym)、
画像データDI(Ok+1)のオーバーラップ領域drの低域除去基準データMO(Ok+1,dr,Ym)と画像データDI(Ek+1)のオーバーラップ領域dlの低域除去比較データME(Ek+1,dl,Ym)、…のような順番で、
順次、低域除去基準データと低域除去比較データとを出力する。In FIG. 8 and FIG.
Image data DI (O k) of the overlap region d r of the low-frequency canceling reference data MO (O k, d r, Y m) and the low-frequency removal comparative data overlap region d l of the image data DI (E k) ME (E k , d l , Y m ),
Image data DI (O k + 1) of the overlap region d l of the low-frequency canceling reference data MO (O k + 1, d l, Y m) and the low-frequency removal comparative data overlap region d r of the image data DI (E k) ME (E k , dr , Y m ),
Image data DI (O k + 1) of the overlap region d r of the low-frequency canceling reference data MO (O k + 1, d r, Y m) and the low-frequency removal comparative data overlap region d l of the image data DI (E k + 1) In the order of ME (E k + 1 , d l , Y m ), ...
Sequentially, low-pass removal reference data and low-pass removal comparison data are output.
図10は、低域除去部42から出力される予め決められたライン数の低域除去基準データMOと低域除去比較データMEの副走査方向の位置関係をさらに詳しく説明するための図である。図10は、低域除去部42から出力されるときの低域除去基準データMOと低域除去比較データMEの副走査方向(ラインの配列方向)の位置関係を示している。低域除去部42は、ラインYmを基準ラインとして、オーバーラップ領域における画像データrMから低域周波数成分を除去し、低域除去基準データMOと低域除去比較データMEを生成する。低域除去基準データMOと低域除去比較データMEは、検出基準ラインYmを中心として複数の画素のデータで構成される。FIG. 10 is a diagram for explaining in more detail the positional relationship in the sub-scanning direction between the low-frequency removal reference data MO having a predetermined number of lines output from the low-
図10において、低域除去部42では、低域除去基準データMOと低域除去比較データMEが、オーバーラップMO画像メモリ424及びオーバーラップME画像メモリ425により、検出基準ラインYmを中心とした低域除去基準データMO(Ok,dr)と低域除去比較データME(Ek,dl)としてそれぞれ格納される。低域除去部42は、オーバーラップMO画像メモリ424及びオーバーラップME画像メモリ425から画像データを読み出し、低域除去基準データMOと低域除去比較データMEを出力する。低域除去基準データMO(Ok,dr)は、基準ラインYmを中心とした副走査方向の幅bhラインの低域除去基準データhMOにおける画像データMO(Ok,dr,Ym)であり、低域除去比較データME(Ek,dl)は、デジタルデータDI(Ek)のオーバーラップ領域dlにおいて、基準ラインYmを中心とした検索範囲“−y〜+y”内の各ラインで、それぞれがMO(Ok,dr,Ym)と同じ幅bhラインとなるような画像データME(Ek,dl,dY)となる。具体的には、図10において、検出基準ラインYmと中心位置が同じデータとして、画像データME(Ek,dl,0)とし、1ライン分ずらした位置のデータME(Ek,dl,1)、yライン分ずらしたデータME(Ek,dl,y)とし、逆方向にyライン分ずらしたデータME(Ek,dl,−y)として配置して、低域除去部42から出力する。ここで、yは、ライン数を示す正の整数である。10, the low-
なお、図10に関する上記説明では、低域除去部42において出力される予め決められたライン数の低域除去基準データMOと低域除去比較データMEは、基準ラインYmを中心とした副走査方向の幅bhラインの低域除去画像データとしたが、幅bhは1つの中心ラインのみにしてもよい。副走査方向の幅bhをとることで、周辺の画像データの情報をもつ低域除去基準データ及び低域除去比較データとすることができ、後述する類似度算出部43における処理でより精度よく類似度を算出することができる。In the above description of FIG. 10, the low-frequency canceling reference data MO and the low frequency removal comparative data ME of a predetermined number of lines to be output in the low
また、画像処理部4は、図6に示される低域除去部42の代わりに、図11に示される低域除去部42bを備えてもよい。図11に示される低域除去部42bにおいては、画像メモリ41内のオーバーラップ領域における画像データrMを基準データとなる画像データrMOと比較データとなる画像データrMEとして別々に読み出して、それぞれの画像データに対し図6のオーバーラップ低域除去部421と同様の処理を行い、低域除去基準データhMO及び低域除去比較データhMEを求める。
Further, the
図11において、図6に示される構成要素と同一又は対応する構成要素には、図6における符号と同じ符号を付す。図11に示される低域除去部42bは、2つのオーバーラップ低域除去部4211及び4212を備えている点において、1つのオーバーラップ低域除去部421を備えている図6の低域除去部42と相違する。図11に示されるオーバーラップ低域除去部4211及び4212には、オーバーラップ領域における画像データrMのうちの基準画像データrMO及び比較画像データrMEがそれぞれ入力される。オーバーラップ低域除去部4211は、オーバーラップ領域における画像データrMのうちの基準画像データrMOに対し、画像の低域周波数成分を画像データから除去して低域除去基準データhMOを出力する。オーバーラップ低域除去部4212は、オーバーラップ領域における画像データrMのうちの比較画像データrMEに対し、画像の低域周波数成分を画像データから除去して低域除去比較データhMEを出力する。
11, components that are the same as or correspond to the components shown in FIG. 6 are given the same reference numerals as those in FIG. The low-
図11の低域除去部42bにおけるオーバーラップMO画像メモリ424とオーバーラップME画像メモリ425において、低域除去基準データhMOはオーバーラップMO画像メモリ424に、低域除去比較データhMEはオーバーラップME画像メモリ425にそれぞれ格納され、低域除去部42bからの出力として、低域周波数成分を除去した予め決められたライン数の低域除去基準データMOと低域除去比較データMEを読み出し、出力する。以上に説明した点を除き、図11に示される低域除去部42bは、図6に示される低域除去部42と同じである。
In the overlap
画像処理部4内の類似度算出部43には、低域除去部42からの低域周波数成分を除去された低域除去画像データである低域除去基準データMOと低域除去比較データMEが送られる。低域除去比較データMEは、位置ずれ量dYの検索範囲“−y〜+y”内のラインによる低域除去比較データである。類似度算出部43では、低域除去基準データMOと低域除去比較データMEとを比較する処理を位置ずれ量dYが−yから+yまでの範囲内をとる複数の位置について行い、類似度である相関データD43を算出し、生成する。
The
図12(a)及び(b)は、類似度算出部43の動作を説明するための図であり、類似度算出部43に検出基準ラインYmを中心とした低域除去基準データMO(Ok,dr)と低域除去比較データME(Ek,dl)が入力される場合を示している。図12(a)において、類似度算出部43は、入力された低域除去基準データMO(Ok,dr)に対し、まず、位置ずれ量dYが−yから+yまでの範囲内をとる低域除去比較データME(Ek,dl)から低域除去基準データMO(Ok,dr)と同じ大きさ(同じ副走査方向の幅bhライン)の複数の画像データME(Ek,dl,dY)を抽出する。dYは、低域除去基準データMO(Ok,dr)との副走査方向の位置ずれ量であり、探索範囲“−y〜+y”の範囲内の値をとる。低域除去基準データMO(Ok,dr)の中心位置である検出基準ラインYmと同じ位置にあるデータを画像データME(Ek,dl,0)とし、1ライン分ずらしたデータをME(Ek,dl,1)、さらに順に1ラインずつずらし、yライン分ずらしたデータを画像データME(Ek,dl,y)とし、逆方向にyライン分ずらしたデータを、画像データME(Ek,dl,−y)とする。Figure 12 (a) and (b) are diagrams for explaining the operation of the
次に、類似度算出部43は、低域除去基準データMO(Ok,dr)と低域除去比較データME(Ek,dl)における画像データME(Ek,dl,−y)〜ME(Ek,dl,y)との間の類似度を算出し、相関データD43(Ok,Ek)を出力する。低域除去基準データMO(Ok,dr)と低域除去比較データME(Ek,dl,−y)〜ME(Ek,dl,y)のそれぞれは、副走査方向の大きさが同じである。例えば、類似度算出部43は、低域除去基準データMO(Ok,dr)と低域除去比較データME(Ek,dl,−y)〜ME(Ek,dl,y)のそれぞれとの画素毎の差分の絶対値の和、又は、画素毎の差分の二乗和を類似度として算出し、相関データD43(Ok,Ek,dY)とし出力する。同様に、類似度算出部43は、次の低域除去基準データMO(Ok+1,dl)と低域除去比較データME(Ek,dr)、低域除去基準データMO(Ok+1,dr)と低域除去比較データME(Ek+1,dl)、…の類似度を順次算出し、相関データD43(Ok+1,Ek,dY),D43(Ok+1,Ek+1,dY),…と生成する。Next, the
なお、図12(a)において、検索範囲“−y〜+y”内の低域除去比較データME(Ek,dl)から、副走査方向の位置ずれ量dYとして1ラインずつずらして画像データME(Ek,dl,dY)をとり、類似度(相関データD43)を算出する場合を説明したが、類似度算出部43は、副走査方向の前後ラインの画像データから補間処理することで、ラインとラインの間の副走査方向の位置(サブ・ラインと記す)を求め、同様に低域除去基準データMOとの類似度を算出し、相関データD43を生成することもできる。In FIG. 12A, the image data is shifted by one line as the positional deviation amount dY in the sub-scanning direction from the low-frequency removal comparison data ME (E k , d l ) within the search range “−y to + y”. The case of calculating ME (E k , d l , dY) and calculating the similarity (correlation data D43) has been described, but the
図12(b)は、類似度算出部43において、検出基準ラインYmを中心とした低域除去基準データMO(Ok,dr)と低域除去比較データME(Ek,dl)における画像データME(Ek,dl,−y)〜ME(Ek,dl,y)の類似度を算出したときの位置ずれ量dY(検索範囲“−y〜+y”)に対する相関データD43(Ok,Ek,dY)の値の例を示している。図12(b)において、破線が図8に対応する相関データD43(Ok,Ek,dY)であり、実線が図9に対応する相関データD43(Ok,Ek,dY)である。図8では、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enが副走査方向(Y方向)で同じ位置を読取っているため、そのデータもずれていない。したがって、図12(b)の破線のようにdY=0の位置で類似度が高く(すなわち、非類似度が低く)なる。また、図9では、原稿60がガラス面26から上に離れているため、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onに対して偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの読取り画像が、画像の副走査方向の位置が下方向にずれ、正の値(dY=+a)の位置で、類似度が最も高く(すなわち、非類似度が最も低く)なる。FIG. 12B shows the
類似度算出部43は、低域除去部42からの低域除去基準データMOと低域除去比較データMEから、位置ずれ量dYが−yから+yまでの範囲内をとる複数の位置について類似度である相関データD43を算出しているので、この相関データD43は、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響を除かれている。したがって、実施の形態1に係る画像処理装置によれば、画像データのパターン及びエッジ等の輪郭での変化情報による低域除去画像データから求めた類似度に基づく相関データD43を得ることができる。
The
シフト量推定部44へは、類似度算出部43からの“−y〜+y”範囲内の複数のラインの位置ずれ量dYにおける相関データD43が入力される。シフト量推定部44は、複数のラインの相関データD43のうち類似度が最も高いずれデータに対応する位置ずれ量dYをシフト量データdybとして、結合処理部45へと出力する。
Correlation data D43 for the positional deviation amounts dY of a plurality of lines within the range of “−y to + y” from the
言い換えれば、図12(b)において、破線のようにdY=0の位置で類似度が高く(すなわち、非類似度が低く)なる場合は、dY=0をシフト量データdybとし、また、実線が示すようなdY=+aの位置で類似度が最も高く(すなわち、非類似度が最も低く)なる場合は、dY=+aをシフト量データdybとする。 In other words, in FIG. 12B, when the similarity is high (ie, the dissimilarity is low) at the position of dY = 0 as shown by the broken line, dY = 0 is used as the shift amount data dyb, and the solid line When the similarity is the highest (ie, the dissimilarity is the lowest) at the position of dY = + a as shown in FIG. 6, dY = + a is set as the shift amount data dyb.
類似度算出部43からの相関データD43は、低域除去画像データから求めた類似度で算出されており、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響を除かれている。このため、シフト量推定部44で相関データD43のうち類似度が最も高いずれデータに対応する位置ずれ量dYを求めて副走査方向の位置ずれを検出する際に、ラインセンサ毎のレベル差の影響を抑えて、誤検出なく、精度よく副走査方向の値に相当するシフト量データdybを得ることができる。
The correlation data D43 from the
画像処理部4内の結合処理部45へは、シフト量推定部44からのシフト量データdybが入力される。結合処理部45は、シフト量データdybに基づいて画像データの読み出し位置RPを算出し、その読み出し位置に対応する画像データM45を読み出し、シフト量データdybに基づいて画像データをずらす処理を行い、画像データのオーバーラップ領域におけるデータを結合する。
The shift amount data dyb from the shift
図13並びに図14(a)及び(b)は、結合処理部45の動作を説明するための図である。結合処理部45は、図13に示されるように、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onに対応する画像データDI(Ok)をシフトさせずに、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enに対応する画像データDI(Ek)を、シフト量データdyb分だけ副走査方向にシフトさせて、副走査方向の位置ずれを無くしてから、奇数番目の画像データと偶数番目の画像データとを結合して合成画像データを生成することができる。この処理の代わりに、結合処理部45は、図14(a)及び(b)に示されるように、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onに対応する画像データDI(Ok)(k=1,…k,…,n)と、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enに対応する画像データDI(Ek)(k=1,…k,…,n)との両方をシフトし、これら両方のシフトのシフト量の合計値がシフト量データdybと同じになるようにして、副走査方向の位置ずれを無くしてから、奇数番目の画像データと偶数番目の画像データとを結合して合成画像データを生成することができる。なお、図14(a)は、低域除去部42で基準ラインとして読み出した副走査方向(Y方向)の位置Ymにおける、隣接するラインセンサに対応する画像データDI(Ok)とDI(Ek)との両方を互いに逆方向にシフト量dyb/2ずつラインYmからシフトさせて、シフト量データdybのシフトを行う場合を示している。図14(b)は、低域除去部42で基準ラインとして読み出した副走査方向(Y方向)における、隣接するラインセンサに対応する画像データDI(Ok)とDI(Ek)との両方を互いに逆方向にシフト量dyb/2ずつラインYmに向けてシフトさせて、シフト量データdybのシフトを行う場合を示している。FIG. 13 and FIGS. 14A and 14B are diagrams for explaining the operation of the
言い換えれば、結合処理部45は、シフト量データdybに基づいて、画像データの読み出し位置RPを算出し、その読み出し位置に対応する画像データM45を画像メモリ41から読み出し、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onのデータと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enのデータが重複するオーバーラップ領域を結合して画像データD45を生成する。シフト量データdybは、低域除去画像データによる類似度(相関データD43)から求められているので、ラインセンサ毎の性能ばらつき及び読取り条件の違いにより生じるレベル差の影響を抑えて、誤検出なく、精度のよい副走査方向の位置ずれを示すデータとして得ている。よって、結合処理部45は、このシフト量データdybに基づいて画像データの読み出し位置RPを算出すれば、精度よく、正確に各ラインに対応した読み出し位置を求めることができる。In other words, the
画像処理部4において、低域除去部42は、オーバーラップ領域における画像データrMに対し、低域周波数成分を画像データから除去して低域除去画像データhMを生成し、ある副走査方向(Y方向)の位置Ymを基準ラインとして、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onに対応するオーバーラップ領域における低域除去画像データと、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enに対応するオーバーラップ領域における低域除去画像データを求めて、これらを予め決められたライン数の低域除去基準データMOと低域除去比較データMEとして出力する。類似度算出部43は、低域除去基準データMOと低域除去比較データMEとを比較して類似度データ(相関データ)D43を算出し、シフト量推定部44は、検出基準ラインYmについて類似度が最も高い(相関の最も大きい)低域除去比較データの副走査方向の位置に対応する位置ずれ量をシフト量データdybとして算出し、結合処理部45は、シフト量データdybに基づいて画像データを読み出し、結合した画像データD45を出力する。画像処理部4は、このような一連の処理を順次繰り返す。In the
図15は、図4(c)における画像、図5(c)における画像、図8における画像、又は、図9における画像を結合して得られた合成画像を示す図である。図15に示されるように、実施の形態1に係る画像読取装置1においては、隣接する偶数番目に位置するラインセンサと奇数番目に位置するラインセンサで生成された2つの画像データの副走査方向(Y方向)の位置ずれを補正し、図4(b)及び図5(b)に示される原稿60と同じ画像の合成画像データを生成することができる。例えば、図5(c)及び図9の場合には、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onの画像データと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの画像データとは、副走査方向(Y方向)にずれていたが、実施の形態1に係る画像読取装置1によれば、図5(b)に示される原稿60と同じ画像の画像データを出力することができる。FIG. 15 is a diagram illustrating a composite image obtained by combining the image in FIG. 4C, the image in FIG. 5C, the image in FIG. 8, or the image in FIG. 9. As shown in FIG. 15, in the
図15は、また、結合処理部45から出力される結合処理後の画像データD45を概念的に示す説明図でもある。実施の形態1に係る画像読取装置1によれば、誤検出なく、精度よく得られたシフト量データdybから読み出し位置を求め、シフト量データdybによる値分ずらした位置とその位置の周辺のラインの画像データを用いて画像データD45を生成するので、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの副走査方向のずれが修正され、重複して読取っていたオーバーラップ領域の画像が結合される。FIG. 15 is also an explanatory diagram conceptually showing the combined image data D45 output from the combining
図16(a)及び(b)は、撮像部2を搬送中に、ガラス面26に対する原稿60の位置が変わる例を示す図である。副走査方向(Y方向)の位置Ymでは、原稿60は、ガラス面26から浮いており、位置Yuでは、原稿60は、ガラス面26に密着している。この場合には、ラインセンサ毎の性能ばらつき及び読取り条件の違いにより生じるレベル差(レベルの変動)は、同じラインセンサによる画像データ内であっても、副走査方向の位置により生じる。撮像部2は、副走査方向(Y方向)の各位置において順次画像データを処理しているため、搬送中に原稿60の位置が変わったり、レベル値の変動があったりしたとしても、画像処理部4では、各位置において、オーバーラップ領域の画像データから低域周波数成分を除去した画像データにより位置ずれ量を算出しているため、精度よく位置ずれ量を求めて正しく画像を結合することができる。また、図8から図10で説明したように、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enのうちの隣接する全てのラインセンサ間で、個別にずれ量を算出しているので、主走査方向(X方向)に原稿60のガラス面26に対する位置が変わったとしても、正しく画像を結合することができる。FIGS. 16A and 16B are diagrams illustrating an example in which the position of the
以上に説明したように、実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法においては、低域除去部42で、オーバーラップ領域における画像データrMに対する処理、すなわち、低域周波数成分を画像データから除去して低域除去画像データhMを生成し、ある副走査方向(Y方向)の位置Ymを基準ラインとして、低域除去画像データのうちの予め決められたライン数の低域除去基準データMOと低域除去比較データMEを出力する処理を行い、類似度算出部43で、低域除去基準データMOと低域除去比較データMEとを比較して複数の類似度(相関データ)D43を算出する処理を行い、シフト量推定部44で複数の類似度のうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置に対応する位置ずれ量をシフト量データdybとして算出する処理を行い、結合処理部45で、このシフト量データdybに基づいて分割画像(奇数番目の画像及び偶数番目の画像の少なくとも一方の画像)の副走査方向の位置を適切な位置にシフトさせて、隣り合う分割画像同士を結合させた画像データを生成している。As described above, in the
したがって、実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法においては、オーバーラップ領域における画像データのうちの、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データである低域除去基準データMOと検索範囲“−y〜+y”内にあるライン数に等しい数の低域除去比較データMEを求めることができる。よって、実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法によれば、誤検出なく、精度のよい副走査方向の位置ずれを示すシフト量データdybを算出できるとともに、このシフト量データdybを用いて、奇数番目の画像データと偶数番目の画像データの副走査方向の位置ずれを補正してから、結合した画像データを生成することができ、被読取物に対応する高品質な合成画像データを生成することができる。
Therefore, in the
また、実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法によれば、低域除去部42における低域成分抽出範囲を副走査方向に並ぶ複数ラインの範囲として、副走査方向の低域周波数成分が除去された低域除去基準データMOと低域除去比較データMEとを生成しているので、低域周波数成分の抽出の精度を落とさず、ハードウェアの構成の簡素化、演算処理の容易化を実現でき、演算規模を小さくすることができる。
In addition, according to the
なお、上記画像処理部4では、図8及び図9で説明したように、低域除去画像データである低域除去基準データMOは、ラインセンサ21Okに対応するデジタルデータDI(Ok)のオーバーラップ領域の画像データに対応し、低域除去比較データMEは、ラインセンサ21Ekに対応するデジタルデータDI(Ek)のオーバーラップ領域の画像データに対応する低域除去画像データであるとしたが、本発明は、これに限定されない。例えば、画像処理部4は、低域除去画像データである低域除去基準データMOをラインセンサ21Ekに対応するデジタルデータDI(Ek)のオーバーラップ領域の画像データに対応させ、低域除去比較データMEをラインセンサ21Okに対応するデジタルデータDI(Ok)のオーバーラップ領域の画像データに対応させ、低域除去画像データを求め、低域除去基準データMOと低域除去比較データMEとを比較して相関データD43を算出するよう構成してもよい。In the
また、画像処理部4は、ラインセンサ21O又は21Eによる画像データDI(Ok)又はDI(Ek)のオーバーラップ領域drを低域除去基準データとして用い、隣接するラインセンサのオーバーラップ領域dlを低域除去比較データとして用いてもよく、オーバーラップ領域における画像データに対し、低域周波数成分を画像データから除去して低域除去画像データhMを生成し、低域除去画像データのうちの隣接するラインセンサによって重複して読取られるオーバーラップ領域の画像データから予め決められたライン数の低域除去基準データMOと低域除去比較データMEとを得ることができれば、上記実施の形態1と同様の効果を奏する。The
実施の形態2.
実施の形態1に係る画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法は、画像処理部4内の低域除去部42,42bを図6及び図11に示されるように構成し、オーバーラップ低域除去部421において、低域成分抽出部422で注目画素P0の近傍の画像データの低域周波数成分である低域成分adcを抽出し、減算部423において画像データから低域成分adcを減算することで、低域除去画像データhMを生成するよう構成されている。これに対し、実施の形態2に係る画像読取装置、画像処理装置、及び画像処理方法は、実施の形態1における低域除去部42及び42bに代えて、図17に示される低域除去部42cを採用している。これ以外の点について、実施の形態2は、実施の形態1と同じである。したがって、実施の形態2の説明においては、図1をも参照する。
In the
図17は、実施の形態2に係る画像読取装置1内の画像処理部4において、低域除去部42の代わりに用いられる低域除去部42cの構成を示すブロック図である。図17において、図1及び図6を参照して説明した構成要素と同一又は対応する構成要素には、図6に示される符号と同じ符号を付している。
FIG. 17 is a block diagram illustrating a configuration of a low-
図17において、実施の形態2に係る画像読取装置1の画像処理部4における低域除去部42cは、オーバーラップ低域除去部421cを備えており、オーバーラップ低域除去部421cは、低域周波数成分を除去し、高域周波数成分を抽出する高域成分抽出部426を備えている。その他のオーバーラップMO画像メモリ424と、オーバーラップME画像メモリ425の構成及び動作は、実施の形態1で示されるものと同じであり、その詳細な説明は省略する。
In FIG. 17, the low-
低域除去部42cにおけるオーバーラップ低域除去部421cでは、画像メモリ41内のオーバーラップ領域における画像データrM(基準画像データrMOと比較画像データrME)が入力され、オーバーラップ領域における画像データrMに対し、画像の低域周波数成分を画像データから除去して低域除去画像データhMを生成する。この動作は、実施の形態1における低域除去部42のオーバーラップ低域除去部421と同じである。図17において、オーバーラップ低域除去部421cへ入力されたオーバーラップ領域における画像データrMは、高域成分抽出部426へ入力される。高域成分抽出部426では、オーバーラップ領域の画像データrM内の注目画素P0を中心とする例えば、副走査方向9ラインの範囲(図7の低域成分抽出範囲b2)において、注目画素P0(又はそれに対応する位置)の近傍の画像データにおける副走査方向の高域周波数成分を抽出する。
In the overlap low-
高域成分抽出部426における画像データの高域周波数成分の抽出は、実施の形態1で図7に示す低域成分抽出範囲b2と同じ範囲に位置する画素から行えばよく、具体的には、帯域通過フィルタ(BPF)及び高域通過フィルタ(HPF)等により行い、ライン間の画素で副走査方向のBPF処理を行い、副走査方向の高域周波数成分を抽出する。この場合、BPF処理により除去される低域周波数成分は、ライン周波数の数ライン分の1(例えば、図7では1/9)として緩やかに変化する低域周波数成分を除き、それ以外の高域周波数成分を通過させるようなフィルタ係数を設定すればよい。
The extraction of the high frequency component of the image data in the high frequency
なお、高域成分抽出部426で抽出した高域周波数成分に対し、予め決められた係数を乗算し、ゲイン調整等の変換を行うよう構成することもできる。また、高域周波数成分の抽出範囲は、図7に示される副走査方向9ラインの低域成分抽出範囲b2に限定されるものではなく、ラインセンサ間のレベル差につながる各ラインセンサで取得した画像データの値の変化、例えば、副走査方向に数ラインより多くのライン周期に亘り変化するような、比較的緩やかに変化する低域周波数成分を除く高域周波数成分を抽出できればよく、副走査方向と主走査方向の二次元方向で求めることもできる。なお、実施の形態2においては、実施の形態1と同様に、低域周波数成分除去の精度を落とすことはなく、ハードウェアの構成の簡素化、演算処理の容易化を実現でき、演算規模を小さくすることができる。
Note that the high frequency component extracted by the high frequency
高域成分抽出部426で抽出した高域周波数成分は、画像データrMから近傍にある画像の低域周波数成分を除去した低域除去画像データhMとして、オーバーラップ低域除去部421cから出力される。低域除去画像データhMは、高域周波数成分を抽出した画像データであるので、符号付きのパターン及びエッジ等の輪郭での変化情報を持つ値の画像データとなる。この低域除去画像データhMは、符号付きの値のままでも、又は、予め定められたオフセット値により正の値へ変換したデータとしてもよい。ただし、減算結果を絶対値化した値は、エッジなどの輪郭情報の有無を示す値となるため、この場合の低域除去画像データhMでは、符号値(変化する方向を示すことになる)を保持する。
The high-frequency component extracted by the high-frequency
オーバーラップ低域除去部421cへ入力されたオーバーラップ領域の画像データrMは、オーバーラップ領域における画像データDIのうち基準画像データrMOと比較画像データrMEを含んでいる。このため、高域成分抽出部426により高域周波数成分を抽出したことによる低域除去画像データhMもまた、低域除去基準データとなる画像データrMOと低域除去比較データとなる画像データrMEから低域周波数成分を除去した低域除去基準データhMO及び低域除去比較データhMEとなる。
The overlap region image data rM input to the overlap low-
低域除去部42cにおけるオーバーラップMO画像メモリ424とオーバーラップME画像メモリ425において、低域除去基準データhMOはオーバーラップMO画像メモリ424に、低域除去比較データhMEはオーバーラップME画像メモリ425にそれぞれ格納され、低域除去部42cからの出力として、低域周波数成分を除去した予め決められたライン数の低域除去基準データMOと低域除去比較データMEが読み出され、出力される。上記以外の点において、低域除去部42cは、実施の形態1の図6に示されるものと同じである。
In the overlap
また、画像処理部4は、図17に示される低域除去部42cの代わりに、図18の低域除去部42dを用いることもできる。図18に示される低域除去部42dにおいては、画像メモリ41内のオーバーラップ領域における画像データrMを基準データとなる画像データrMOと比較データとなる画像データrMEとして別々に読み出して、それぞれの画像データに対し図17のオーバーラップ低域除去部421cと同様の処理を行い、高域周波数成分を抽出したことによる低域除去基準データhMO及び低域除去比較データhMEを求める。図18において、図17に示される構成要素と同一又は対応する構成要素には、図17における符号と同じ符号を付す。図18に示される低域除去部42dは、2つのオーバーラップ低域除去部421c1及び421c2を備えている点において、1つのオーバーラップ低域除去部421cを備えている図17の低域除去部42cと相違する。図18に示されるオーバーラップ低域除去部421c1及び421c2には、オーバーラップ領域における画像データrMのうちの基準画像データrMO及び比較画像データrMEがそれぞれ入力される。オーバーラップ低域除去部421c1は、オーバーラップ領域における画像データrMのうちの基準画像データrMOに対し、画像の低域周波数成分を画像データから除去して低域除去基準データhMOを出力する。オーバーラップ低域除去部421c2は、オーバーラップ領域における画像データrMのうちの比較画像データrMEに対し、画像の低域周波数成分を画像データから除去して低域除去比較データhMEを出力する。
Further, the
図18の低域除去部42dにおけるオーバーラップMO画像メモリ424とオーバーラップME画像メモリ425において、低域除去基準データhMOはオーバーラップMO画像メモリ424に、低域除去比較データhMEはオーバーラップME画像メモリ425にそれぞれ格納され、低域除去部42dからの出力として、低域周波数成分を除去した予め決められたライン数の低域除去基準データMOと低域除去比較データMEを読み出し、出力する。以上に説明した点を除き、図18に示される低域除去部42dは、図17に示される低域除去部42cと同じである。
In the overlap
以上のように、実施の形態2に係る画像処理部4内の低域除去部42c及び42dによれば、オーバーラップ低域除去部421cにおいて、オーバーラップ領域における画像データrMから高域周波数成分を抽出することで、低域除去画像データhM(低域除去基準データhMO及び低域除去比較データhME)を生成し、低域除去画像データのうちの低域除去基準データMOと、位置ずれ量dYが−yから+yまでの範囲内の値をとる低域除去比較データMEとして出力することができ、重複して読取られた同じオーバーラップ領域の低域除去基準データMOと低域除去比較データMEを、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データとして得ることができる。
As described above, according to the low
また、オーバーラップ低域除去部421cにおける高域周波数成分抽出範囲を副走査方向に並ぶラインとしたので、副走査方向の低域周波数成分が除去された低域除去基準データMOと低域除去比較データMEとなり、低域周波数成分の抽出の精度を落とさず、ハードウェアの構成の簡素化、演算処理の容易化を実現でき、演算規模を小さくすることができる。
In addition, since the high frequency component extraction range in the overlap low
したがって、実施の形態2に係る低域除去部42cによる画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法によれば、オーバーラップ領域における画像データのうちの、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データである低域除去基準データMOと検索範囲“−y〜+y”内にあるライン数に等しい数の低域除去比較データMEを求めることができる。このため、実施の形態2に係る低域除去部42cによる画像読取装置1、画像処理部(画像処理装置)4、及び画像処理方法によれば、誤検出なく、精度のよい副走査方向の位置ずれを示すシフト量データdybを算出できるとともに、誤検出なく、精度よく得られたシフト量データdybを位置ずれ量を示す値として得て、結合した画像データを生成することができるので、被読取物に対応する高品質な合成画像データを生成することができる。
Therefore, according to the
実施の形態3.
実施の形態1及び実施の形態2に係る画像読取装置1の機能の一部は、ハードウェア構成で実現されてもよいし、あるいは、CPU(central processing unit)を含むマイクロプロセッサにより実行されるコンピュータプログラムで実現されてもよい。画像読取装置1の機能の一部がコンピュータプログラムで実現される場合には、マイクロプロセッサは、コンピュータ読取り可能な記憶媒体から、又は、インターネットなどの通信によって、当該コンピュータプログラムをロードし実行することによって当該機能の一部を実現することができる。
A part of the functions of the
図19は、実施の形態3に係る画像読取装置1bの機能の一部をコンピュータプログラムで実現する場合の構成を示す機能ブロック図である。図19に示されるように、画像読取装置1bは、撮像部2と、A/D変換部3と、演算装置5とを備える。演算装置5は、CPUを含むプロセッサ51、RAM(random access memory)52、不揮発性メモリ53、大容量記憶媒体54、及びバス55を備える。不揮発性メモリ53としては、例えば、フラッシュメモリを使用することができる。また、大容量記憶媒体54としては、例えば、ハードディスク(磁気ディスク)、光ディスク、又は、半導体記憶装置を使用することができる。
FIG. 19 is a functional block diagram showing a configuration when a part of the functions of the
A/D変換部3は、図1のA/D変換部3と同じ機能を有する。撮像部2が出力する電気信号SIは、A/D変換部3によってデジタルデータに変換され、プロセッサ51を介してRAM52に格納される。
The A /
プロセッサ51は、不揮発性メモリ53又は大容量記憶媒体54からコンピュータプログラムをロードし、実行することにより、図1に示される画像処理部4の機能を実現することができる。
The
図20は、実施の形態3の演算装置5による処理の一例を概略的に示すフローチャートである。図20に示されるように、プロセッサ51は、まず、画像データのうちのオーバーラップ領域におけるデータを読み出し、画素範囲における画像の低域周波数成分を画像データから除去し、低域周波数成分が除去された画像データのうちの、予め決められたライン数の低域除去基準データMOと低域除去比較データMEを抽出するオーバーラップ領域低域除去処理を実行する(ステップS1)。次に、プロセッサ51は、低域除去画像データである低域除去基準データMOと低域除去比較データMEとを比較する類似度算出処理を実行する(ステップS2)。その後、プロセッサ51は、シフト量推定処理を実行してシフト量データを求める(ステップS3)。最後に、プロセッサ51は、結合処理を実行する(ステップS4)。なお、演算装置5によるステップS1〜S4の処理は、実施の形態1における画像処理部4が行う処理と同じである。
FIG. 20 is a flowchart schematically illustrating an example of processing performed by the arithmetic device 5 according to the third embodiment. As shown in FIG. 20, the
以上に説明したように、実施の形態3に係る画像読取装置1bにおいては、オーバーラップ領域における画像データに対する処理として、低域周波数成分を画像データから除去して予め決められたライン数の低域除去基準データMOと低域除去比較データMEとを得て、類似度を算出し、算出された複数の類似度のうちから最も高い類似度が得られた低域除去比較データの副走査方向の位置からシフト量データを算出しており、このシフト量データdybに基づいて分割画像の副走査方向の位置をシフトさせて、結合した画像データを生成している。よって、実施の形態3に係る画像読取装置1bにおいては、オーバーラップ領域における画像データに対する処理として、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データである低域除去基準データMOと検索範囲“−y〜+y”内にあるライン数に等しい数の低域除去比較データMEを求めることができる。このため、実施の形態4によれば、誤検出なく、精度のよい副走査方向の位置ずれを示すシフト量データdybを算出できるとともに、誤検出なく、精度よく得られたシフト量データdybを位置ずれ量を示す値として得て、得られたシフト量データに基づいて画像メモリ41から画像データを読み出し、読み出された画像データを結合した画像データを生成することができる。このため、実施の形態3によれば、正確に画像データを結合して被読取物に対応する高品質な合成画像データを生成することができる。
As described above, in the
実施の形態4.
実施の形態1においては、図4(a)に示されるように、撮像部2の長手方向の一方の端部(例えば、左端)から数えて奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onの光軸27Oと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの光軸27Eとが交差する場合を説明した。実施の形態4においては、撮像部2の長手方向の一方の端部(例えば、図21(a)及び(b)が描かれている紙面に垂直な方向における手前側)から数えて奇数番目に位置するラインセンサ21O1,…,21Ok,…,21On(すなわち、ラインセンサ21O)の光軸28Oと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21En(すなわち、ラインセンサ21E)の光軸28Eとが交差せず、平行である場合について説明する。実施の形態4に係る画像読取装置は、光軸28Oと光軸28Eが互いに平行である点を除き、実施の形態1に係る画像読取装置1と実質的に同じである。したがって、実施の形態4の説明においては、図1をも参照する。
In the first embodiment, as shown in FIG. 4A, the line sensors 21O 1 ,..., 21O located at odd numbers from one end (for example, the left end) in the longitudinal direction of the
図21(a)及び(b)は、実施の形態4に係る画像読取装置の撮像部2の奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onの光軸28Oと偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enの光軸28Eとが平行である場合の、被読取物としての原稿60とラインセンサとの位置関係を示す概略的な側面図である。図21(a)は、原稿60が原稿台載置面であるガラス面26に密着している場合を示し、図21(b)は、原稿60がガラス面26から少し浮いて離れている場合を示す。Figure 21 (a) and (b), the
実施の形態4に係る画像読取装置おいては、図21(a)に示されるように原稿60がガラス面26に密着している場合及び図21(b)に示されるように原稿60がガラス面26から離れている場合のいずれの場合であっても、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onによる原稿60の読取画像はほとんど変化せず、同様に、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enによる原稿60の読取画像はほとんど変化しない。また、副走査方向(Y方向)に撮像部2が搬送される場合、奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onは、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enに比べて、同じ位置の画像を時間的に遅れて取得するが、光軸28Oと光軸28Eとが平行であるので、読取る副走査方向の位置のずれはほぼ一定量YLとして求めることができる。ただし、ほぼ一定量YLには微小な位置ずれが加わる場合がある。微小な位置ずれとしては、ラインセンサの取り付け誤差等による光軸28O又は光軸28Eの位置ずれと搬送速度の時間的なゆらぎ(すなわち、速度変動)による位置ずれとを含む微小位置ずれbtを含む。In the image reading apparatus according to the fourth embodiment, when the
また、実施の形態1と同様に、ラインセンサ毎に、性能のばらつき及び照明分布などの読取り条件の違いがあるため、ラインセンサ21Oが生成する画像データDI(Ok)と、ラインセンサ21Eが生成する画像データDI(Ek)との間に、ラインセンサ毎に読取った画像データのレベル差(明暗の差、画素データの値の差)が生じる場合がある。Similarly to the first embodiment, since there is a difference in reading conditions such as performance variation and illumination distribution for each line sensor, the image data DI (O k ) generated by the line sensor 21O and the
図22は、原稿を読取った際の偶数番目に位置するラインセンサ21Ok,21Ok+1に対応する画像データDI(Ok),DI(Ok+1)と奇数番目に位置するラインセンサ21Ek,21Ek+1に対応する画像データDI(Ek),DI(Ek+1)とを示している。それぞれは、副走査方向の位置(ライン)が、一定量YLに微小位置ずれbt分を加算した量(すなわち、YL+bt)ずれている。FIG. 22 shows image data DI (O k ) and DI (O k + 1 ) corresponding to the even-numbered line sensors 21O k and 21O k + 1 when the document is read, and the odd-numbered
このため、画像処理部4では、画像メモリ41への書込み時に奇数番目に位置するラインセンサ21O1,…,21Ok,…,21Onによる読取画像、又は、偶数番目に位置するラインセンサ21E1,…,21Ek,…,21Enによる読取画像のいずれか一方、又は、両方を、副走査方向にほぼ一定量YL分ずらす処理を行う。これにより、図23に示されるように、画像メモリ41に格納される画像データは、副走査方向の位置(ライン)がbtだけずれて画像メモリ41に格納される。Therefore, the
なお、実施の形態4における上記説明では、画像メモリ41への画像データの書込み時に、奇数番目の読取画像又は偶数番目の読取画像を副走査方向に一定量YL分ずらす処理を行う(書込まれる画像データに処理を行う)場合を説明した。しかし、低域除去部42及び結合処理部45において画像データを読み出す際に、奇数番目の読取画像又は偶数番目の読取画像を副走査方向に一定量YL分を、読み出し位置にオフセット分として加えて、位置を求める処理を行う(読み出された画像データに処理を行う)ように構成してもよい。
In the above description of the fourth embodiment, when the image data is written to the
画像処理部4は、副走査方向の微小位置ずれbtを求め、画像を結合するために、オーバーラップ領域における画像データに対して次の処理を行う。すなわち、画像処理部4は、オーバーラップ領域における画像データから低域周波数成分を除去して予め決められたライン数の低域除去基準データMOと低域除去比較データMEとを得て、得られた低域除去基準データと低域除去比較データとを比較して類似度を算出し、算出された類似度のうちの最も高い類似度が得られた低域除去比較データの副走査方向の位置からシフト量データを算出し、算出されたシフト量データにより画像メモリ41から画像データを読み出し、読み出された画像データを結合処理する。このような処理を行う構成、及びこのような処理動作は、上記実施の形態1のものと同じである。
The
以上に説明したように、実施の形態4に係る画像読取装置においては、撮像部2による撮像時に、原稿60若しくは撮像部2のいずれか一方、又は、両方を副走査方向に移動する際の搬送機による搬送速度に時間的なゆらぎ(すなわち、速度変動)がある場合であっても、実施の形態1の場合と同様に、オーバーラップ領域における画像データに対しての処理を行うことができる。すなわち、実施の形態4に係る画像読取装置においては、ラインセンサ毎の性能及び読取り条件の違いにより生じるレベル差の影響が抑えられた画像データである低域除去基準データMOと低域除去比較データMEを求めることができ、誤検出なく、精度のよい副走査方向の位置ずれを示すシフト量データdybを算出することができるとともに、誤検出なく、精度よく得られたシフト量データdybを位置ずれ量を示す値として得て、算出されたシフト量データにより画像メモリ41から画像データを読み出し、読み出された画像データを結合した画像データを生成することができる。このため、実施の形態4によれば、正確に画像データを結合して被読取物に対応する高品質な合成画像データを生成することができる。
As described above, in the image reading apparatus according to the fourth embodiment, at the time of imaging by the
本発明は、複写機、スキャナ、及びファクシミリ等の画像読取装置に適用することができる。また、本発明が適用されたプログラムは、複写機、スキャナ、及びファクシミリ等の画像読取装置と通信可能なパーソナルコンピュータなどの情報処理装置に適用することができる。 The present invention can be applied to image reading apparatuses such as copying machines, scanners, and facsimiles. The program to which the present invention is applied can be applied to an information processing apparatus such as a personal computer that can communicate with an image reading apparatus such as a copying machine, a scanner, and a facsimile.
1 画像読取装置、 2 撮像部、 3 A/D変換部、 4 画像処理部(画像処理装置)、 5 演算装置、 20 センサ基板、 21O,21O1,…,21Ok,…,21On 奇数番目に位置するラインセンサ、 21E,21E1,…,21Ek,…,21En 偶数番目に位置するラインセンサ、 sr ラインセンサの右端の領域、 sl ラインセンサの左端の領域、 A1,1,…,Ak,k,Ak,k+1,Ak+1,k+1,…,An,n オーバーラップ領域、 25 照明光源、 26R 赤色光用の光電変換素子、 26G 緑赤色光用の光電変換素子、 26B 青色光用の光電変換素子、 27O,28O 奇数番目に位置するラインセンサの光軸、 27E,28E 偶数番目に位置するラインセンサの光軸、 41 画像メモリ、 42,42b,42c,42d 低域除去部、 43 類似度算出部、 44 シフト量推定部、 45 結合処理部、 51 プロセッサ、 52 RAM、 53 不揮発性メモリ、 54 大容量記憶装置、 60 原稿、 421,4211,4212,421c,421c1,421c2 オーバーラップ低域除去部、 422 低域成分抽出部、 423 減算部、 426 高域成分抽出部、 424 オーバーラップMO画像メモリ、 425 オーバーラップME画像メモリ、 426 高域成分抽出部、 SI 電気信号、 DI,DI(Ok),DI(Ek) デジタルデータ(画像データ)、 rM,rMO,rME 画像データ、 hM,hMO,hME 低域除去画像データ、 MO 低域除去基準データ、 ME 低域除去比較データ、 D43 相関データ、 dyb シフト量データ、 RP 読み出し位置、 M45 画像データ、 D45 画像データ、 Dy 撮像部の搬送方向。1 image reading apparatus, second imaging unit, 3 A / D conversion unit, 4 an image processing section (image processing apparatus), 5 calculation unit, 20 sensor substrate, 21O, 21O 1, ..., 21O k, ..., 21O n odd 21E, 21E 1 ,..., 21E k ,..., 21E n even-numbered line sensors, sr line sensor right end region, sl line sensor left end region, A 1,1,. , A k, k , A k, k + 1 , A k + 1, k + 1 ,..., An, n overlap region, 25 illumination light source, 26R photoelectric conversion element for red light, 26G photoelectric conversion element for green red light, 26B Photoelectric conversion elements for blue light, 27O, 28O optical axes of odd-numbered line sensors, 27E, 28E optical axes of even-numbered line sensors, 41 image memory, 42, 42b, 42c, 42d Low frequency elimination unit, 43 Similarity calculation unit, 44 Shift amount estimation unit, 45 Coupling processing unit, 51 Processor, 52 RAM, 53 Non-volatile memory, 54 Mass storage device, 60 Document, 421, 4211 , 4212, 421c, 421c1, 421c2 overlap low-frequency removal unit, 422 low-frequency component extraction unit, 423 subtraction unit, 426 high-frequency component extraction unit, 424 overlap MO image memory, 425 overlap ME image memory, 426 high frequency Component extraction unit, SI electrical signal, DI, DI (O k ), DI (E k ) Digital data (image data), rM, rMO, rME image data, hM, hMO, hME Low frequency removal image data, MO low frequency Removal reference data, ME low frequency removal comparison data, D43 correlation data, dyb shift amount Over data, RP read position, M45 image data, D45 image data, the transport direction of Dy imaging unit.
Claims (8)
前記複数のラインセンサからの出力に基づく画像データを格納する画像メモリと、
前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去部と、
前記低域除去部で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出部と、
前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定部と、
前記シフト量推定部によって算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理部と
を備え、
前記低域除去部は、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する
ことを特徴とする画像処理装置。 A plurality of line sensors arranged in the main scanning direction have at least two rows at different positions in the sub-scanning direction, and overlap regions where the ends of adjacent line sensors in different rows overlap within the same range in the main scanning direction In an image processing apparatus that processes image data generated by an imaging unit arranged to have
An image memory for storing image data based on outputs from the plurality of line sensors;
A frequency lower than a predetermined frequency for image data in the overlap region of the image data stored in the image memory from image data in a pixel range including the target pixel and peripheral pixels of the target pixel A low-frequency removal reference data at a predetermined position in a sub-scanning direction in the overlap region of the image data from which the low-frequency component is removed, and the low-frequency removal reference A low-frequency removal unit for obtaining low-frequency removal comparison data based on image data from which the low-frequency components in the region overlapping the overlap region of the data are removed;
A process of comparing the low-frequency removal reference data obtained by the low-frequency removal unit with the low-frequency removal comparison data is performed at a plurality of positions at which the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculator that calculates a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data,
Shift based on the difference between the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data A shift amount estimation unit for calculating amount data;
Determining a position in the sub-scanning direction of image data read from the image memory based on the shift amount data calculated by the shift amount estimating unit, reading out the image data at the determined position from the image memory, and A combination processing unit that generates composite image data by combining image data read by adjacent line sensors in different columns ;
The low-frequency removal unit is configured to output image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel from image data in the pixel range of the image data read from the image memory. Based on the above, the low frequency component in the sub-scanning direction is removed, and the low frequency removal reference data from which the low frequency component in the sub-scanning direction is removed and the low frequency removal comparison data are generated. Image processing device.
ことを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1.
前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから前記低域周波数成分を除去した低域除去画像データを生成するオーバーラップ低域除去部を備えており、
前記低域除去画像データのうち、前記オーバーラップ領域における副走査方向の予め決められた位置における画像データを前記低域除去基準データとして出力し、
前記オーバーラップ領域において、前記低域除去基準データの副走査方向の位置と同じ位置及びその前後の副走査方向の位置における前記低域除去画像データから選択された予め決められたライン数の副走査方向の位置におけるデータを前記低域除去比較データとして出力する
ことを特徴とする請求項1又は2に記載の画像処理装置。 The low-frequency removing unit is
An overlap low-frequency removal unit that generates low-frequency-removed image data obtained by removing the low-frequency component from the image data in the pixel range of the image data read from the image memory;
Among the low-frequency removal image data, output image data at a predetermined position in the sub-scanning direction in the overlap region as the low-frequency removal reference data,
In the overlap region, a sub-scan with a predetermined number of lines selected from the low-frequency-removed image data at the same position as the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction before and after that position. the image processing apparatus according to claim 1 or 2, and outputs the data in the direction of the position as the low-frequency removal comparative data.
前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから前記低域周波数成分を抽出する低域成分抽出部と、
前記低域成分抽出部により抽出された前記低域周波数成分を、前記画像メモリから読み出された前記注目画素の画像データから減算する減算部とを備え、
前記減算部で得られた前記低域周波数成分が減算された画像データを前記低域除去画像データとする
ことを特徴とする請求項3に記載の画像処理装置。 The overlap low-frequency removal unit is
A low frequency component extraction unit that extracts the low frequency component from the image data in the pixel range of the image data read from the image memory;
A subtracting unit that subtracts the low frequency component extracted by the low frequency component extracting unit from the image data of the target pixel read from the image memory;
The image processing apparatus according to claim 3 , wherein the image data obtained by subtracting the low frequency component obtained by the subtracting unit is used as the low frequency removal image data.
前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから高域周波数成分を抽出する高域成分抽出部を備えており、
前記抽出された高域周波数成分を、前記低域除去画像データとする
ことを特徴とする請求項3に記載の画像処理装置。 The overlap low-frequency removal unit is
A high frequency component extraction unit that extracts high frequency components from image data in the pixel range of the image data read from the image memory;
The image processing apparatus according to claim 3 , wherein the extracted high frequency component is the low frequency removal image data.
前記複数のラインセンサからの出力に基づく画像データを画像メモリに格納する格納ステップと、
前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去ステップと、
前記低域除去ステップで求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出ステップと、
前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定ステップと、
前記シフト量推定ステップで算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理ステップと
を備え、
前記低域除去ステップでは、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する
ことを特徴とする画像処理方法。 A plurality of line sensors arranged in the main scanning direction have at least two rows at different positions in the sub-scanning direction, and overlap regions where the ends of adjacent line sensors in different rows overlap within the same range in the main scanning direction In an image processing method for processing image data generated by an imaging unit arranged to have,
A storage step of storing image data based on outputs from the plurality of line sensors in an image memory;
A frequency lower than a predetermined frequency for image data in the overlap region of the image data stored in the image memory from image data in a pixel range including the target pixel and peripheral pixels of the target pixel A low-frequency removal reference data at a predetermined position in a sub-scanning direction in the overlap region of the image data from which the low-frequency component is removed, and the low-frequency removal reference A low-frequency removal step for obtaining low-frequency removal comparison data based on image data in which the low-frequency component in a region overlapping the overlap region of data is removed;
A process of comparing the low-frequency removal reference data obtained in the low-frequency removal step with the low-frequency removal comparison data is a plurality of positions at a plurality of positions where the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculation step for calculating a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data,
Shift based on the difference between the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data A shift amount estimation step for calculating amount data;
Determining a position in the sub-scanning direction of image data read from the image memory based on the shift amount data calculated in the shift amount estimating step, reading out the image data at the determined position from the image memory, and A combined processing step of generating composite image data by combining image data read by adjacent line sensors in different columns ;
In the low frequency band removing step, image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel is derived from the image data in the pixel range of the image data read from the image memory. Based on the above, the low frequency component in the sub-scanning direction is removed, and the low frequency removal reference data from which the low frequency component in the sub-scanning direction is removed and the low frequency removal comparison data are generated. Image processing method.
前記複数のラインセンサからの出力に基づく画像データを格納する画像メモリと、
前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去部と、
前記低域除去部で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出部と、
前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定部と、
前記シフト量推定部によって算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理部と
を備え、
前記低域除去部は、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する
ことを特徴とする画像読取装置。 A plurality of line sensors arranged in the main scanning direction have at least two rows at different positions in the sub-scanning direction, and overlap regions where the ends of adjacent line sensors in different rows overlap within the same range in the main scanning direction An imaging unit arranged to have,
An image memory for storing image data based on outputs from the plurality of line sensors;
A frequency lower than a predetermined frequency for image data in the overlap region of the image data stored in the image memory from image data in a pixel range including the target pixel and peripheral pixels of the target pixel A low-frequency removal reference data at a predetermined position in a sub-scanning direction in the overlap region of the image data from which the low-frequency component is removed, and the low-frequency removal reference A low-frequency removal unit for obtaining low-frequency removal comparison data based on image data from which the low-frequency components in the region overlapping the overlap region of the data are removed;
A process of comparing the low-frequency removal reference data obtained by the low-frequency removal unit with the low-frequency removal comparison data is performed at a plurality of positions at which the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculator that calculates a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data,
Shift based on the difference between the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data A shift amount estimation unit for calculating amount data;
Determining a position in the sub-scanning direction of image data read from the image memory based on the shift amount data calculated by the shift amount estimating unit, reading out the image data at the determined position from the image memory, and A combination processing unit that generates composite image data by combining image data read by adjacent line sensors in different columns ;
The low-frequency removal unit is configured to output image data at a plurality of positions in the sub-scanning direction at the same position in the main scanning direction as the target pixel from image data in the pixel range of the image data read from the image memory. Based on the above, the low frequency component in the sub-scanning direction is removed, and the low frequency removal reference data from which the low frequency component in the sub-scanning direction is removed and the low frequency removal comparison data are generated. Image reading device.
前記複数のラインセンサからの出力に基づく画像データを画像メモリに格納する格納処理と、
前記画像メモリに格納された画像データのうちの前記オーバーラップ領域における画像データに対して、注目画素と該注目画素の周辺画素とを含む画素範囲における画像データから予め決められた周波数よりも低い周波数成分である低域周波数成分を除去し、前記低域周波数成分が除去された画像データの前記オーバーラップ領域における副走査方向の予め決められた位置における低域除去基準データと、前記低域除去基準データの前記オーバーラップ領域に重複する領域における前記低域周波数成分が除去された画像データに基づく低域除去比較データとを求める低域除去処理であって、前記画像メモリから読み出された画像データのうちの前記画素範囲における画像データから、前記注目画素と同じ主走査方向の位置にある副走査方向の複数の位置の画像データに基づく、副走査方向の低域周波数成分を除去して、前記副走査方向の低域周波数成分が除去された前記低域除去基準データと前記低域除去比較データを生成する低周波除去処理と、
前記低域除去処理で求められた前記低域除去基準データと前記低域除去比較データとを比較する処理を、前記低域除去比較データの位置を副走査方向に移動させた複数の位置における複数の低域除去比較データについて行い、前記低域除去基準データと前記複数の低域除去比較データとの間の複数の類似度を算出する類似度算出処理と、
前記低域除去基準データの副走査方向の位置と、前記複数の低域除去比較データのうちの最も高い類似度を持つ低域除去比較データの副走査方向の位置との差分に基づいて、シフト量データを算出するシフト量推定処理と、
前記シフト量推定処理で算出された前記シフト量データに基づいて前記画像メモリから読み出される画像データの副走査方向の位置を決定し、前記決定された位置の画像データを前記画像メモリから読み出し、前記互いに異なる列の隣接するラインセンサによって読み出された画像データを結合することによって合成画像データを生成する結合処理と
をコンピュータに実行させるプログラム。 A plurality of line sensors arranged in the main scanning direction have at least two rows at different positions in the sub-scanning direction, and overlap regions where the ends of adjacent line sensors in different rows overlap within the same range in the main scanning direction A program for causing a computer to execute processing of image data generated by an imaging unit arranged to have,
A storage process for storing image data based on outputs from the plurality of line sensors in an image memory;
A frequency lower than a predetermined frequency for image data in the overlap region of the image data stored in the image memory from image data in a pixel range including the target pixel and peripheral pixels of the target pixel A low-frequency removal reference data at a predetermined position in a sub-scanning direction in the overlap region of the image data from which the low-frequency component is removed, and the low-frequency removal reference Image data read out from the image memory, wherein the image data read out from the image memory is a low-frequency removal processing for obtaining low-frequency removal comparison data based on image data from which the low-frequency components are removed in a region overlapping the overlap region of data From the image data in the pixel range in the sub-scanning direction at the same position in the main scanning direction as the target pixel. The low-frequency component in the sub-scanning direction is removed based on the image data at several positions, and the low-frequency removal reference data and the low-frequency removal comparison data from which the low-frequency component in the sub-scanning direction is removed are generated. Low frequency removal processing to
A process of comparing the low-frequency removal reference data obtained in the low-frequency removal processing with the low-frequency removal comparison data is performed at a plurality of positions at a plurality of positions where the position of the low-frequency removal comparison data is moved in the sub-scanning direction. A similarity calculation process for performing a plurality of similarities between the low-frequency removal reference data and the plurality of low-frequency removal comparison data,
Shift based on the difference between the position in the sub-scanning direction of the low-frequency removal reference data and the position in the sub-scanning direction of the low-frequency removal comparison data having the highest similarity among the plurality of low-frequency removal comparison data Shift amount estimation processing for calculating amount data;
Determining a position in the sub-scanning direction of the image data read from the image memory based on the shift amount data calculated in the shift amount estimation process, reading out the image data at the determined position from the image memory, and A program that causes a computer to execute combining processing for generating composite image data by combining image data read by adjacent line sensors in different columns.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014178821 | 2014-09-03 | ||
JP2014178821 | 2014-09-03 | ||
PCT/JP2015/063877 WO2016035387A1 (en) | 2014-09-03 | 2015-05-14 | Image processing device, image processing method, image reading device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016035387A1 JPWO2016035387A1 (en) | 2017-04-27 |
JP6246379B2 true JP6246379B2 (en) | 2017-12-13 |
Family
ID=55439461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016546342A Active JP6246379B2 (en) | 2014-09-03 | 2015-05-14 | Image processing apparatus, image processing method, image reading apparatus, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6246379B2 (en) |
WO (1) | WO2016035387A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9707102B2 (en) | 2015-02-03 | 2017-07-18 | Rcm Enterprise Llc | Bio-mechanical prosthetic finger with H-shaped rocker |
US9707101B2 (en) | 2015-02-03 | 2017-07-18 | Rcm Enterprise Llc | Bio-mechanical prosthetic finger with Y-shaped rocker |
WO2016187133A1 (en) | 2015-05-15 | 2016-11-24 | RCM Enterprise, LLC | Bidirectional biomechanical prosthetic full finger configured for abduction and adduction with mcp pivot and multiple-finger ring |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000134537A (en) * | 1998-10-28 | 2000-05-12 | Ricoh Co Ltd | Image input device and its method |
JP2004139219A (en) * | 2002-10-16 | 2004-05-13 | Seiko Instruments Inc | Image processing method and image processor |
JP5821563B2 (en) * | 2011-11-21 | 2015-11-24 | 三菱電機株式会社 | Image reading apparatus, image reading method, and MTF correction parameter determination method |
JP2014022806A (en) * | 2012-07-13 | 2014-02-03 | Sharp Corp | Image pickup device and image pickup device control method |
-
2015
- 2015-05-14 WO PCT/JP2015/063877 patent/WO2016035387A1/en active Application Filing
- 2015-05-14 JP JP2016546342A patent/JP6246379B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2016035387A1 (en) | 2016-03-10 |
JPWO2016035387A1 (en) | 2017-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10326908B2 (en) | Image reading apparatus and image reading method | |
WO2013145554A1 (en) | Image processing apparatus and image processing method | |
US8963910B2 (en) | Pixel information management apparatus and image capture apparatus using the same | |
JP2017216621A (en) | Image reading device, image forming apparatus, image reading method, and computer program | |
US20100183237A1 (en) | Device and method for interpolating image, and image scanner | |
JP6246379B2 (en) | Image processing apparatus, image processing method, image reading apparatus, and program | |
JP5821563B2 (en) | Image reading apparatus, image reading method, and MTF correction parameter determination method | |
JP6422428B2 (en) | Image processing apparatus, image processing method, image reading apparatus, and program | |
KR102232524B1 (en) | Image generating apparatus and method for generating image | |
JP2016200703A (en) | Focus detection device, control method therefor, image capturing device, program, and storage medium | |
JP6058115B2 (en) | Image processing apparatus, image processing method, image reading apparatus, and program | |
JP5002670B2 (en) | Image processing apparatus and image reading apparatus | |
JP2009224829A (en) | Image reading apparatus | |
JP5590911B2 (en) | Image reading apparatus and method | |
JP2015226127A (en) | Image reading apparatus, image connecting method and program | |
JP2009098815A (en) | Image input device, authentication device, and electronic apparatus | |
JP2009141583A (en) | Imaging apparatus | |
JP2017158182A (en) | Image reading apparatus | |
JP2016195367A (en) | Image processing apparatus and method, imaging apparatus, and program | |
JP5901559B2 (en) | Image processing device | |
JP4568610B2 (en) | Signal correction apparatus, signal correction method, and signal correction program | |
JPWO2018198680A1 (en) | Image reader | |
JP2015106168A (en) | Parallax measurement instrument and parallax measurement method | |
JP2009206636A (en) | Manuscript reading apparatus | |
JP2006107382A (en) | Image processing controller and image processing control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6246379 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |