[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3638231B2 - Image processing apparatus and recording medium - Google Patents

Image processing apparatus and recording medium Download PDF

Info

Publication number
JP3638231B2
JP3638231B2 JP24075599A JP24075599A JP3638231B2 JP 3638231 B2 JP3638231 B2 JP 3638231B2 JP 24075599 A JP24075599 A JP 24075599A JP 24075599 A JP24075599 A JP 24075599A JP 3638231 B2 JP3638231 B2 JP 3638231B2
Authority
JP
Japan
Prior art keywords
image
processing apparatus
thin line
pixel
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24075599A
Other languages
Japanese (ja)
Other versions
JP2001069338A (en
Inventor
至 古川
昌一 馬越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd, Dainippon Screen Manufacturing Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP24075599A priority Critical patent/JP3638231B2/en
Publication of JP2001069338A publication Critical patent/JP2001069338A/en
Application granted granted Critical
Publication of JP3638231B2 publication Critical patent/JP3638231B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理における「線切れ」現象の発生箇所となる細線を検出する技術、および線切れ現象を防止する技術に関する。
【0002】
【背景技術】
デジタル画像の網点化処理を行うに際して、線切れ現象が発生することがある。たとえば、次のように、網点ピッチとデジタル画像の画素ピッチとの比が整数比の関係にない場合に生じる「線切れ」現象が存在する。図22および図23は、その原理について説明する図である。
【0003】
図22は、網点ピッチとデジタル画像の画素ピッチとの比が整数比の関係にある場合において、50%濃度の垂直方向(縦方向)の細線を網点化する例を示すものである。ここでは、たとえば、網点の線数が175線(1インチあたりの線数)、画素ピッチが350dpi(1インチあたりの画素数)である場合のように、網点ピッチU1(=1/175(インチ))と画素ピッチU2(1/350(インチ))」との比U2/U1が350/175=2/1=2(整数)の場合を示している。この場合には、元のデジタル画像における各画素が網点化される際に、網点パターンの単位領域(以下「単位網点領域DU」)と個々の画素PXとの間での相対位置はどの部分でも同一であって、それらの間に空間的変化は生じないため、いずれの画素位置に存在する細線であっても、同様の網点面積を有するように網点化される。
【0004】
しかしながら、網点ピッチとデジタル画像の画素ピッチとの比が整数比の関係にない場合には、網点化処理において、原画像の画素が同じ濃度(階調値)を有する場合であっても、網点化時における画素の相対位置に応じて、網点化の結果(網点化時に於ける面積の大きさ)は異なるものとなる。
【0005】
たとえば、図23において、網点の線数が175線(1インチあたりの線数)、画素ピッチが400dpi(1インチあたりの画素数)である場合のように、網点ピッチU1(=1/175(インチ))と画素ピッチU3(1/400(インチ))」との比U3/U1が400/175=2.2、すなわち整数でない場合について考える。この場合において、デジタル画像の各画素PXの網点パターン上における単位網点領域DUとの相対位置は、徐々にずれていき比較的大きな周期で変動する。したがって、網点パターン上での画素の相対位置が、PAの位置に存在することもあれば、PBの位置に存在することもある。そして、PAの位置に1画素幅の細線が存在する場合には網点化時の面積が比較的小さく(大きく)、PBの位置に1画素幅の細線が存在する場合には網点化時の面積が比較的大きく(小さく)なる。ここで、1画素幅の細線LAが垂直方向に対して微小角θだけ傾いて存在する場合(図24(a)参照)には、網点化時における画素の相対位置がPAからPBなどへと比較的大きな周期で周期的に変動する状態に相当し、その周期的変動に応じて細線の太さも変動して見えることになるが、特に、網点化時の面積が小さな部分では、人間の目にはその細線が途切れた様に映る「線切れ」現象となって現れる。この状況が、図24(b)に模式的に示されている(便宜上、各網点は黒丸で示している)。この線切れ現象は、網点ピッチに対して、線幅が小さい場合に顕著に生じる。
【0006】
以上が網点ピッチとデジタル画像の画素ピッチとの比が整数比の関係にない場合に生じる「線切れ」現象の概略である。
【0007】
また、このような線切れ現象は、USM(アンシャープマスク)処理によって生じることもある。このUSM処理は、網点化出力の際に一般的に生じるシャープネスの低下を回避するために行うものである。この際の線切れ現象は、両側からのエッジ強調により、細線の濃度レベルが低下することに伴うものである。これは、図25に示すように、細線部では高濃度領域の両側からのエッジ強調によるピークが重なって画素値が飽和してしまうことがあり、そのために細線部の濃度(したがってその部分の網点面積率)が、本来のものよりも低下することに起因する。細線におけるこの領域は、上記と同様、人間の目には「線切れ」として映ることになる。さらに、「線切れ」を発生させる細線が等間隔で平行に並んでいる場合には、各線の低濃度部がお互いに連なって、長周期の濃度変動=モアレが発生する。
【0008】
【発明が解決しようとする課題】
そして、上記のような各種の原因で生ずる線切れ現象は、画像品質を低下させるものであり、画像出力時の大きな障害となる。
【0009】
そこで、本発明は前記問題点に鑑み、線切れの発生源となる細線を検出する画像処理に関する技術、および当該検出結果に基づき線切れを防止する処理を行う画像処理に関する技術を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記目的を達成するため、請求項1に記載の画像処理装置は、原画像に対して処理を施す画像処理装置であって、前記原画像を所定方向に縮小して縮小画像を生成する縮小画像生成手段と、前記縮小画像について、前記所定方向に直交する方向において特定濃度領域を細らせる細らせ処理を行うことにより第1処理画像を生成する細らせ処理手段と、前記第1処理画像について、前記所定方向に直交する方向において特定濃度領域を太らせる太らせ処理を行うことにより第2処理画像を生成する太らせ処理手段と、前記縮小画像と前記第2処理画像との差分である差分画像を生成する差分画像生成手段と、を備えることを特徴とする。
【0011】
請求項2に記載の画像処理装置は、請求項1に記載の画像処理装置において、前記縮小画像生成手段は、前記原画像を前記所定方向に縮小するにあたって前記所定方向に沿うn画素の平均化処理を伴うことを特徴とする。
【0012】
請求項3に記載の画像処理装置は、請求項1に記載の画像処理装置において、前記特定濃度領域は、高濃度領域であることを特徴とする。
【0013】
請求項4に記載の画像処理装置は、請求項1に記載の画像処理装置において、前記特定濃度領域は、低濃度領域であることを特徴とする。
【0014】
請求項5に記載の画像処理装置は、請求項1に記載の画像処理装置において、前記所定方向は、互いに異なる2つの方向であり、前記縮小画像生成手段、前記細らせ処理手段、前記太らせ処理手段、および前記差分画像生成手段は、前記2つの方向のそれぞれに関する各処理を行うことを特徴とする。
【0015】
請求項6に記載の画像処理装置は、請求項1ないし請求項5のいずれかに記載の画像処理装置において、前記差分画像に対して、前記縮小画像生成手段における縮小率の逆数倍に前記所定方向に拡大する拡大処理を行うことにより、前記原画像の各画素位置における細線の有無の程度を表す細線指標を生成する拡大処理手段、をさらに備えることを特徴とする。
【0016】
請求項7に記載の画像処理装置は、請求項6に記載の画像処理装置において、前記原画像に所定のフィルタ処理を施した結果を前記原画像に加重する際の加重係数を前記細線指標に基づいて決定する加重係数決定手段と、前記原画像に所定のフィルタ処理を施した結果を、前記加重係数を用いて前記原画像に加重した処理画像を得るフィルタ処理手段と、をさらに備えることを特徴とする。
【0017】
請求項8に記載の画像処理装置は、請求項7に記載の画像処理装置において、前記加重係数決定手段は、あらかじめ細線指標と加重係数との対応関係を参照テーブルとして有していることを特徴とする。
【0018】
請求項9に記載の画像処理装置は、請求項7に記載の画像処理装置において、前記拡大処理手段は、前記拡大処理を行うにあたって、前記差分画像の高濃度領域を拡張する処理をも行うことにより前記細線指標を生成することを特徴とする。
【0019】
請求項10に記載の記録媒体は、コンピュータを、請求項1ないし請求項9のいずれかに記載の画像処理装置として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴とする。
【0020】
【発明の実施の形態】
<A.構成>
図1は、この発明の実施形態に係る画像処理装置1のハードウエア構成を表す概念図である。画像処理装置1は、CPU2、半導体メモリおよびハードディスクなどを含む記憶部3、各種の記録媒体から情報を読み出すメディアドライブ4、モニタなどを含む表示部5、キーボートおよびマウスなどを含む入力部6、デジタル画像を読み込む画像入力部7、処理後の画像を出力する画像出力部8を備えるコンピュータシステムである。CPU2は、バスラインBLおよび入出力インターフェースIFを介して、記憶部3、メディアドライブ4、表示部5、入力部6、画像入力部7、画像出力部8などに接続されている。また、メディアドライブ4は、CD−ROM、DVD(Digital Versatile Disk)、フレキシブルディスクなどの可搬性の記録媒体9からその中に記録されている情報を読み出す。このコンピュータシステムは、プログラムを記録した可搬性記録媒体9からそのプログラムを読み込むことによって、後述するような細線検出機能とそれに基づく線切れ防止機能とを持つようになる。さらに、記憶部3は、読み込まれたプログラムの全部または一部を記憶するプログラム記憶部3a、および各種の処理画像を記憶する画像記憶部3bなどを有する。
【0021】
図2は画像処理装置1の概略構成を表す機能ブロック図であり、図3は画像処理装置1のさらに詳細な機能ブロック図である。図3においては、垂直方向および水平方向に伸びる細線を検出し、その検出結果に基づいて線切れ防止処理を行う場合の機能ブロックを記載している。
【0022】
図2および図3に示されるように、画像処理装置1は、デジタル画像を読み込む画像入力部7と、細線検出機能を有する細線検出部20と、検出結果に基づく線切れ防止機能を有する線切れ防止処理部50と、処理後の画像を網点化して出力する画像出力部8とを備えている。
【0023】
細線検出部20は、一般的には、所定方向に伸びる細線を検出することが可能であるが、ここでは、細線検出部20は、垂直方向の細線を検出する垂直方向細線検出部20Aと水平方向の細線を検出する水平方向細線検出部20Bとを有するものとし、垂直方向および水平方向に伸びる細線を検出する場合を示している(図3)。ここにおいて、「水平方向」とは画素のマトリクス配列における行方向を指しており、「垂直方向」とはそのマトリクス配列における列方向を指しているが、これらは相対的なものであって、上記とは逆に定義することもできる。
【0024】
この細線検出部20(20A,20B)は、読み込まれたデジタル画像(原画像)を所定方向(ここでは垂直方向および水平方向)に縮小して縮小画像を生成する縮小画像生成部21(21A,21B)と、白細線抽出部23w(23wA,23wB)および黒細線抽出部23b(23bA,23bB)とを有している。
【0025】
ここにおいて、この実施形態では「黒」が階調値「0」で、「白」が階調値「255」で表現されている場合を考えている(8ビット表現の場合)。このため、黒側の階調領域が「低濃度領域」として、また、白側の階調領域が「高濃度領域」としてそれぞれ定義される。このため、この実施形態での「濃度」は「白濃度」であって、たとえば「白線」とは「低濃度領域(黒領域)の中に存在する高濃度(白)の線」ということになる。一般には、原画像の背景色(白または黒)側の濃度を持つ領域が低濃度領域として定義される。
【0026】
白細線抽出部23wは、大きな階調値(高濃度値)を有する画素の集合として表現される細線(白細線)を抽出するものであり、黒細線抽出部23bは、小さな階調値(低濃度値)を有する画素の集合として表現される細線(黒細線)を抽出するものである。なお、ここでは、白黒の両細線を抽出しているが、白細線または黒細線のうちのいずれか一方のみを抽出すればよい場合には、対応する一方の抽出部23w,23bのみを設ければよい。
【0027】
これらの白細線抽出部23wおよび黒細線抽出部23bは、それぞれ、縮小画像生成部21(21A,21B)において生成された縮小画像についてその縮小方向に直交する方向(直交方向)において特定濃度領域(高濃度領域または低濃度領域)を細らせる細らせ処理を行うことにより第1処理画像を生成する細らせ処理部25(25wA,25bA,25wB,25bB)と、第1処理画像について、縮小方向に直交する方向において特定濃度領域を太らせる太らせ処理を行うことにより第2処理画像を生成する太らせ処理部27(27wA,27bA,27wB,27bB)と、縮小画像と第2処理画像との差分である差分画像を生成する差分画像生成部29(29wA,29bA,29wB,29bB)とを有している。
【0028】
また、細線検出部20は、白細線に関する差分画像と黒細線に関する差分画像とを合成する細線データ合成部31(31A,31B)と、高濃度領域を拡張する処理を行う高濃度領域拡張部33(33A,33B)と、得られた差分画像を縮小方向と同じ方向に今度は拡大(縮小画像生成部21における縮小率の逆数倍に拡大して原画像の画素数と同一となるように拡大)する拡大処理部35(35A,35B)とをさらに有している。なお、拡大処理部35における拡大処理により、原画像の各画素位置における細線の有無の程度を表す細線指標が生成される。また、高濃度領域拡張部33は、拡大処理部35による拡大処理を行うにあたって、差分画像の高濃度領域を拡張する処理を併せて行うものであり、高濃度領域拡張部33と拡大処理部35とを併せて広義の拡大処理手段と称することもできる。
【0029】
また、線切れ防止処理部50は、上記の垂直方向および水平方向の細線指標に関するデータを合成する垂直水平方向細線データ合成部51と、得られた細線指標に基づいて加重係数を決定する加重係数決定部53と、その加重係数に基づいて原画像に所定のフィルタ処理を施した結果を原画像に加重して処理画像を得るフィルタ処理部55と、を有している。
【0030】
以下では、このような概略構成を有する画像処理装置1において、垂直方向および水平方向に伸びる細線を検出する動作について、ならびにその検出結果に基づいて線切れ防止を行う動作について説明する。
【0031】
<B.動作>
<B1.概要>
図4は、画像処理装置1における処理動作について示すフローチャートである。図4に示すように、まず、ステップSP10において、画像入力部7などを用いて、処理対象となる原画像Gを読み込む。この原画像Gは、複数の画素が垂直方向および水平方向においてマトリクス配列され、それらの各画素が複数の階調値(たとえば2の8乗=256階調)を有するデジタル画像として得られる。
【0032】
次に、ステップSP20において垂直方向に伸びる細線を検出する動作を行い、ステップSP30において水平方向に伸びる細線を検出する動作を行う。これらの両方向に伸びる細線の検出結果は、ステップSP60において合成される。そして、ステップSP70において細線の検出結果に基づいて線切れ防止のための処理を行い、ステップSP80において処理後の画像が出力される。
【0033】
<B2.垂直方向の細線検出>
ここで、垂直方向に伸びる細線を検出する動作(ステップSP20)の詳細について説明する。図5は、その処理の手順を示すフローチャートである。
【0034】
まず、ステップSP21において、原画像Gを垂直方向において1/mに縮小して縮小画像を生成する縮小画像生成処理が行われる。
【0035】
図6は、この処理を説明するための概念図であり、原画像Gにおいて垂直方向に配列されているn画素(n=8)の階調値の平均を算出することにより縮小処理後の縮小画像G0の1画素の画素値が算出される。ただし、nは2以上の整数である。言い換えれば、このステップSP21の縮小処理においてn画素が1画素に縮小される。ここでは、変倍率1/mは、1/n(すなわちm=n)となる。
【0036】
<白細線抽出>
次に、ステップSP22において、高濃度の領域が1画素幅程度の幅で線状に連なった細線としての白細線を抽出する処理を行う。そのため、縮小画像G0に対して、ステップSP23〜SP25の動作を行う。図8は、白細線の検出動作の原理について説明するための図であり、これらの動作を図8を参照しながら説明する。
【0037】
ステップSP23では、縮小画像G0について水平方向において高濃度領域を細らせる細らせ処理を行うことにより第1処理画像G1を生成する。具体的には、縮小画像G0における各注目画素Pv(i,j)(図7)の画素値とその水平方向の隣接画素Pv(i+1,j)の画素値との最小値を算出し、その値を第1処理画像G1における各画素Pvi(i,j)の画素値とする。すなわち、Pvi(i,j)=min{Pv(i,j),Pv(i+1,j)}である。そして、縮小画像G0内の全ての画素のそれぞれを順次に注目画素として上記処理を進めることにより、第1処理画像G1を生成する。
【0038】
図8(a)は、処理前の縮小画像G0における水平方向に配列される複数の画素の画素値の一例を表すものである。この画素列は、水平方向に1画素分の幅を有し、かつ、垂直方向にn画素分の長さを有する細線(白細線)が存在する場合に相当する。このような画素Pvの配列にステップSP23の処理を施すと、図8(b)の画素Pviの配列が生成される。図8(b)では、各画素値はゼロとなっている。
【0039】
つぎに、ステップSP24において、第1処理画像G1について、水平方向において高濃度領域を太らせる太らせ処理を行うことにより第2処理画像G2を生成する。具体的には、第1処理画像G1における各注目画素Pvi(i,j)の画素値とその水平方向において反対側の隣接画素Pvi(i−1,j)の画素値との最大値を算出し、その値を第2処理画像G2における各画素Pvia(i,j)の画素値とする。すなわち、Pvia(i,j)=max{Pvi(i−1,j),Pvi(i,j)}である。そして、第1処理画像G1内の全ての画素のそれぞれを順次に注目画素として上記処理を進めることにより、第2処理画像G2を生成する。
【0040】
図8(b)の画素Pviの配列にステップSP24の高濃度領域太らせ処理を施すと、図8(c)の画素Pviaの配列が生成され、ここでは、左から2番目の画素値は復元されずにゼロとなったままである。
【0041】
そして、ステップSP25において、縮小画像G0と第2処理画像G2との差分である差分画像G3を生成する。具体的には、縮小画像G0における各注目画素Pv(i,j)の画素値と、第2処理画像G2における対応する位置の画素Pvia(i,j)の画素値との差分値を、差分画像G3の画素Mvw(i,j)における画素の画素値とする。すなわち、Mvw(i,j)=Pv(i,j)−Pvia(i,j)である。ただし、この差分値が負となる場合には、ゼロに修正するものとし(リミット処理)、この修正動作をも含めた差分動作により得られる画像を差分画像と称するものとする。
【0042】
そして、第2処理画像G2内の全ての画素のそれぞれを順次に注目画素として上記処理を進めることにより、差分画像G3を生成する。
【0043】
図8(d)は、図8(a)の画素Pvの配列と図8(c)の画素Pviaの配列とについてステップSP25の処理を施した結果を示した図である。ここでは、左から2番目の画素の画素値が大きな値を有しており、この部分に細線が存在する程度が高いことが示されている。
【0044】
ここで、図8は、検出すべき細線が存在する部分に関してステップSP23〜SP25の処理を施した場合について説明するための図であったが、図9を参照しながら、検出すべき細線が存在しない場合について例示する。図9は、水平方向に2画素分の幅を有し、かつ、垂直方向にn画素分の長さを有する線が存在する場合に同様の処理を施した場合について説明するための図である。
【0045】
この場合には、画素Pvの配列にステップSP23の処理を施すと、図9(b)の画素Pviの配列が生成されるが、左から2番目の画素の画素値はゼロとはならずに、値255を有している。そして、この画素Pviの配列にステップSP24の高濃度領域太らせ処理を施すと、図9(c)の画素Pviaの配列が生成され、ここでは、左から2番目の画素値と3番目の画素値が縮小画像G0の元の値に復元され、高濃度領域が2画素幅に戻る。したがって、差分画像G3の画素Mvw(i,j)は、全てゼロとなり、細線が存在しないものとして判定される。
【0046】
このように縮小方向に直交する方向である水平方向に細らせ処理および太らせ処理を順次に行い、その結果得られた画像G2と縮小画像G0との差分である差分画像G3を得ることにより、1画素幅の高濃度領域として表現される白細線を抽出することができる。
【0047】
図10は、このような処理を平面的に行う場合について説明する図であり、図10(a)は処理前の縮小画像G0を表し、図10(b)は処理後の差分画像G3を表す。図10(b)に示すように、処理前の縮小画像G0の水平方向の画素配列であるラインL2,L3,L5、L6においては、水平方向の幅が1画素分である高濃度領域が存在し、このような領域が差分画像G3において細線が存在する程度が高い領域として抽出されている。一方、処理前の縮小画像G0のラインL1,L4,L7においては、水平方向の幅が2画素分である高濃度領域が存在するが、差分画像G3においてこのような領域は細線が存在する程度が低いとして差分画像G3の各画素の値はゼロとなっている。
【0048】
<黒細線抽出>
次に、ステップSP26において、低濃度の領域が1画素幅程度の幅で線状に連なった細線としての黒細線を抽出する処理を行う。そのため、縮小画像G0に対して、ステップSP27〜SP29の動作を行う。上記のステップSP22の白細線抽出処理動作においては、特定濃度領域である高濃度領域を水平方向に細らせた後に同方向に太らせることにより、その結果画素値が復元される程度の差に基づいて細線が存在する程度を検出していたが、このステップSP26の黒細線抽出処理動作においては、特定濃度領域として低濃度領域を選択し、この低濃度領域を水平方向に細らせた後に同方向に太らせることにより、各画素値が復元される程度の差に基づいて細線が存在する程度を検出する。
【0049】
具体的には、ステップSP27において、縮小画像G0について水平方向において低濃度領域を細らせる細らせ処理を行うことにより第1処理画像G1を生成する。具体的には、縮小画像G0における各注目画素Pv(i,j)(図7)の画素値とその水平方向の隣接画素Pv(i+1,j)の画素値との「最大値」を算出し、その値を第1処理画像G1における各画素Pva(i,j)の画素値とする。すなわち、Pva(i,j)=max{Pv(i,j),Pv(i+1,j)}である。
【0050】
つぎに、ステップSP28において、第1処理画像G1について、水平方向において低濃度領域を太らせる太らせ処理を行うことにより第2処理画像G2を生成する。具体的には、第1処理画像G1における各注目画素Pva(i,j)の画素値とその水平方向において反対側の隣接画素Pva(i−1,j)の画素値との「最小値」を算出し、その値を第2処理画像G2における各画素Pvai(i,j)の画素値とする。すなわち、Pvai(i,j)=min{Pva(i−1,j),Pva(i,j)}である。
【0051】
そして、ステップSP29において、縮小画像G0と第2処理画像G2との差分である差分画像G3を生成する。具体的には、第2処理画像G2における対応する位置の画素Pvai(i,j)の画素値と、縮小画像G0における各注目画素Pv(i,j)の画素値との差分値を、差分画像G3の画素Mvb(i,j)における画素の画素値とする。すなわち、Mvb(i,j)=Pvai(i,j)−Pv(i,j)である。ただし、この差分値が負となる場合には、ゼロに修正するものとする。
【0052】
なお、上記各ステップSP27〜SP29においては、各画像G0〜G2内の全ての画素のそれぞれを順次に注目画素として各処理を進めることにより、各画像G1〜G3を生成する。
【0053】
図11(a)は、処理前の縮小画像G0における水平方向に配列される複数の画素の画素値の一例を表すものである。この画素列は、水平方向に1画素分の幅を有し、かつ、垂直方向にn画素分の長さを有する黒細線が存在する場合に相当する。このような画素Pvの配列にステップSP27の処理を施すと、図11(b)の画素Pvaの配列が生成され、ここでは、各画素値は255となっている。
【0054】
そして、図11(b)の画素Pvaの配列にステップSP28の低濃度領域太らせ処理を施すと、図8(c)の画素Pvaiの配列が生成され、ここでは、左から2番目の画素値は復元されずに255となったままである。
【0055】
図11(d)は、図11(c)の画素Pvaiの配列と図11(a)の画素Pvの配列とについてステップSP29の処理を施した結果を示した図である。ここでは、左から2番目の画素の画素値が大きな値を有しており、この部分に細線が存在する程度が高いことが示されている。
【0056】
ここで、図11は、検出すべき細線が存在する部分に関してステップSP27〜SP29の処理を施した場合について説明するための図であったが、図12を参照しながら、検出すべき細線が存在しない場合について例示する。図12は、水平方向に2画素分の幅を有し、かつ、垂直方向にn画素分の長さを有する黒線(低濃度の線)が存在する場合に同様の処理を施した場合について説明するための図である。
【0057】
この場合には、画素Pvの配列にステップSP27の処理を施すと、図12(b)の画素Pvaの配列が生成されるが、左から2番目の画素の画素値は255とはならずに、値ゼロを有している。そして、この画素Pvaの配列にステップSP28の高濃度領域太らせ処理を施すと、図12(c)の画素Pvaiの配列が生成され、ここでは、左から2番目の画素値と3番目の画素値が縮小画像G0の元の値に復元され、低濃度領域が2画素幅に戻る。したがって、差分画像G3の画素Mvb(i,j)は、全てゼロとなり、細線が存在しないものとして判定される。
【0058】
このように縮小方向に直交する方向である水平方向に細らせ処理および太らせ処理を順次に行い、その結果得られた画像G2と縮小画像G0との差分である差分画像G3を得ることにより、1画素幅の低濃度領域として表現される黒細線を抽出することができる。
【0059】
図13は、このような処理を平面的に行う場合について説明する図であり、図13(a)は処理前の縮小画像G0を表し、図13(b)は処理後の差分画像G3を表す。このように、処理前の縮小画像G0の水平方向の画素配列であるラインL2,L3,L5、L6においては、水平方向の幅が1画素分である低濃度領域が存在し、このような領域が差分画像G3において細線が存在する程度が高い領域として抽出されている。一方、処理前の縮小画像G0のラインL1,L4,L7においては、水平方向の幅が2画素分である低濃度領域が存在するが、差分画像G3においてこのような領域は細線が存在する程度が低いものとされている。
【0060】
<白黒細線抽出結果の合成など>
つぎに、ステップSP30(図5)において、上記の白細線抽出結果と黒細線抽出結果とを合成する。具体的には、各画素(i,j)における上記の画素Mvw(i,j)と画素Mvb(i,j)とを加算することにより、白細線および黒細線の両方の細線に関する細線データを合成する。すなわち、Mv(i,j)=Mvw(i,j)+Mvb(i,j)である。
【0061】
そして、ステップSP31において、高濃度領域を拡張する処理(高濃度領域拡張処理)を行う。この高濃度領域拡張処理は、たとえば、注目画素およびその隣接8画素の合計9個の画素の画素値のうちの最大値をその注目画素の画素値とするフィルタを用いることにより実現できる。図14は、そのような最大値フィルタを用いて高濃度領域拡張処理を行う場合の処理前(a)および処理後(b)の画像の画素値を表す図である。この高濃度領域拡張処理処理は、後述するように、細線データをマスクデータとして用いてフィルタ処理を行うにあたって、細線が存在する近傍の領域にもフィルタ処理による影響を加えるために行うものであり、細線の位置を検出することのみを目的とする場合においては不要である。
【0062】
さらに、ステップSP32において、各画素Mv(i,j)で構成される画像を垂直方向に拡大処理する。具体的には、各画素Mv(i,j)を最近隣内挿法(ニアレストネイバー法)を用いて、垂直方向にm倍(=n倍)に拡大する。
【0063】
この拡大率m(=n)は、縮小画像生成部21における拡大率(縮小率)1/m(=1/n)の逆数であり、この拡大の結果、原画像の画素数と同一となるようにする。これにより、細線の存在位置を原画像の各画素位置に対応づけて特定することが容易になる。なお、細線の存在位置を検出する必要がない場合、たとえば細線の有無のみを検出する場合などにおいては、この拡大処理は不要である。
【0064】
以上のようにして、垂直方向の細線を検出することができる。
【0065】
<B3.水平方向の細線検出>
つぎに、ステップSP40(図4)における水平方向の細線の検出について説明する。水平方向の細線検出は、垂直方向の細線検出と同様の処理に基づいて行うことができる。
【0066】
図15は、水平方向に伸びる細線を検出する手順を示すフローチャートであり、図5に対応するものである。図15において「水平方向」を表す添え字hを有する参照符号は、図5において「垂直方向」を表すvを添え字として有する参照符号に対応する。また、ステップSP41〜SP52の処理は、それぞれ、対応するステップSP21〜SP32の処理と同様の処理である。
【0067】
ここで、垂直方向の細線検出と相違する点は、原画像Gを(垂直方向ではなく)「水平方向」に縮小し、その水平方向と直交する方向である「垂直方向」に太らせ処理および細らせ処理を行うことにより細線を検出する点である。すなわち、上記の垂直方向の細線検出動作において、垂直方向を水平方向と置き換え、水平方向を垂直方向と置き換えればよい。
【0068】
また、これに応じて、ステップSP22,ステップSP26に対応する工程においても、「垂直方向」の隣接画素との最大、最小演算を行うことになる。たとえば、ステップSP23においては、高濃度領域細らせ処理を行うにあたって、縮小画像G0における各注目画素Ph(i,j)(図7)の画素値とその垂直方向の隣接画素Ph(i,j+1)の画素値との最小値を算出し、その値を第1処理画像G1における各画素Phi(i,j)の画素値とする。すなわち、Phi(i,j)=min{Ph(i,j),Ph(i,j+1)}である。また、その他の処理についても同様である。
【0069】
このようなステップSP40の処理により、細線検出動作などを行うことができる。
【0070】
<B4.両方向の細線データ合成>
次のステップSP60(図4)では、このようにして得られた垂直方向の細線データと水平方向の細線データとを合成して両方向の細線データを考慮した細線データ(マスクデータ)Mを生成する。具体的には、上記のMv(i,j)とMh(i,j)とについて、両者の差の絶対値を新たな値M(i,j)として算出する。すなわち、M(i,j)=abs{Mv(i,j)−Mh(i,j)}である。ただし、記号abs{}は、絶対値を表す。
【0071】
なお、この演算は排他的論理和に準ずるものである。ここで、MvとMhとについて論理和(加算)ではなく排他的論理和(減算)を行うのは、次のような理由による。MvおよびMhの値が両方とも大きな値となるのは、たとえば、垂直方向の細線が存在し、かつ、水平方向の細線が存在する部分、すなわち両細線が交差する部分である。しかしながら、このような交差部分は、線切れが生じる部分であるとは考えにくく、逆に、一つの方向にのみ、細線が生じる場合に特に線切れが生じやすいと考えられる。たとえば、図16においては、線切れは、交差部分A1ではなく、厳密な垂直方向からわずかの角度だけずれた方向に伸びる細線部分A2などにおいて起こりやすいものと考えられる。したがって、MvとMhとについて排他的論理和(減算)を行うことにより、細線部分としての検出領域から上記のような交差部分を排除し、一つの方向にのみ細線が存在する場合を特徴的に抽出することが好ましいと考えられる。
【0072】
<B5.線切れ防止処理>
次にステップSP70において、上記のマスクデータMに基づいて、線切れ防止処理を行う。この処理は、線切れ防止処理部50により行われる。
【0073】
図17は、ステップSP70における詳細動作を表すフローチャートである。図17の各ステップSP71〜SP75の工程を、原画像G内の全ての画素について行うことにより、原画像Gに対して線切れ防止のための処理を施すことが可能になる。
【0074】
まず、ステップSP71において、原画像Gの注目画素位置に対応するマスクデータMの値に基づいて、対応する加重係数kを決定する。この加重係数kは、マスクデータMの値を変数とする関数により表される値であり、たとえば図18に示すような関数により表される。図18は、横軸にマスクデータMの値をとり、縦軸に加重係数k(ここでkはゼロ以上1以下の実数)の値をとったグラフである。
【0075】
具体的には、この各マスクデータMの値に対応するkの値を参照テーブルLUT(図18)にあらかじめ記憶しておくことができる。これにより、各マスクデータMの値に対応するkを即時に参照することができる。また、Mとkとの関係の数式による表現が困難な場合であっても容易にkの値を決定することができる。
【0076】
なお、Mとkとの関係が所定の数式で表せる場合などには、その所定の数式に基づいて随時計算によってMに対応するkを求めてもよい。
【0077】
また、図19は、線切れ防止処理の概要を示す説明図である。上記の加重係数kを用いて、原画像Gに対してフィルタ処理を施した結果を原画像Gに加重して処理画像を出力画像として得る。
【0078】
そのため、次のステップSP73において、注目画素およびその近傍画素を用いてフィルタ処理を行う。この処理の際のフィルタとしては、たとえば、図20に示すような加重平均フィルタを用いることができる。この加重平均フィルタは、注目画素の画素値に4/16を乗じた値と、注目画素に対して左右上下に隣接する画素のそれぞれの画素値に2/16を乗じた値と、注目画素に対して斜め方向に隣接する画素のそれぞれの画素値に1/16を乗じた値とを加算することにより当該注目画素の位置における新たな画素値とするフィルタであり、これにより、「ぼかし」処理を行うことができる。
【0079】
そして、ステップSP75において、図19に示すように、原画像Gに対して図20のような加重平均フィルタによる処理を行って得た値を、原画像Gの画素値に加重して新たな画素値とするにあたって、その加重時の係数として上述の加重係数kを用いる。より具体的には、注目画素およびその近傍画素に対して加重平均フィルタ処理を行って得られた画素値p2に加重係数kを乗じた値と、注目画素の画素値p1に係数(1−k)を乗じた値とを加算することにより、注目画素位置における新たな画素値とする。
【0080】
このような各ステップSP71〜SP75の動作を、原画像G内の全ての画素について行うことにより、原画像Gに対して線切れ防止のための処理を施すことができる。
【0081】
ここで、マスクデータMは、原画像Gの各画素位置に関して、線切れの発生原因である細線の存在程度を表す指標としての値を有している。したがって、このマスクデータMに基づいて定められた係数kに応じて、加重平均フィルタによる影響をどの程度加えるかを決定することにより、細線が存在する位置を特定した上で、適切に加重平均フィルタによる処理を特定の領域において施すことができる。言い換えれば、線切れが発生する可能性が高い部分のみに対して、選択的に加重平均フィルタによる「ぼかし」効果を加えることができる。
【0082】
なお、ここでは図18に示すように、マスクデータMが閾値S1以下の場合には、加重係数kをゼロにしている。この閾値S1をゼロでない所定の値(たとえば20程度)として設定することにより、縮小画像G0において隣接する2つの画素が若干異なる画素値(たとえば、両画素の画素値が245,255)を有しておりステップSP20などにおいて細線として「誤検出」されていた場合(正確には細線が存在する程度がゼロではないものとして検出されていた場合)にも、その影響を排除して、上記加重平均フィルタによる処理が必要な位置に対して選択的にフィルタ処理の結果を加重することができる。
【0083】
また、マスクデータMは、上述のステップSP31において高濃度領域拡張処理を施すことによって得られている。したがって、このような加重平均フィルタ処理をさらに施すことにより、細線部分のみならず細線近傍の部分においてもフィルタ処理による影響を加えることができるので、滑らかに細線を太らせるような処理を施すことが可能になる。これにより、線切れの防止の効果をさらに大きくすることができる。この際に、拡張処理後のマスクデータから、拡張処理前のマスクデータMを除外(減算)することで、「細線自体の濃度を保ったまま、周囲のみぼかして太らせる」ことができる。このため、低コントラストの細線が消えてしまうことがなくなる。
【0084】
なお、上述の例においては、kがゼロでない場合にもステップSP73においてフィルタ処理を行ったが、kがゼロである場合にはフィルタ処理を行わずに原画像の対応画素の画素値をそのまま新たな画素値として出力してもよい。
【0085】
<C.変形例など>
上記実施形態の垂直方向の細線検出動作(ステップSP20)においては、縮小画像G0,第1処理画像G1,第2処理画像G2、差分画像G3の各画像の作成にあたって、それぞれの全画素全てについて画像を作成した後に次の処理に移行する場合を示したがこれに限定されず、たとえば、1ライン(行)ずつ各画像G0〜G3の作成を進めてもよい。また、ステップSP40の水平方向の細線検出動作についても同様であり、1カラム(列)ずつ各画像G0〜G3を作成してもよい。
【0086】
また、上記実施形態においては、ステップSP60などにおいて、2つの方向に関する細線検出データを合成することによりマスクデータMを得ていたが、これに限定されず、1つの方向に関する細線検出データをマスクデータMとして用いてもよい。
【0087】
上記実施形態においては、原画像を垂直または水平方向に縮小する際の縮小率1/mの逆数mと、その方向に沿う平均化処理の画素数nとが等しい(m=n)場合について説明したが、これに限定されない。たとえば、原画像を所定方向に縮小する際の縮小率1/mの逆数mは、所定方向に沿う平均化処理の画素数nよりも小さくてもよい。
【0088】
図21は、そのような場合のステップSP21における縮小画像生成動作について説明する図であり、上記実施形態の図6に対応する図である。
【0089】
上記実施形態では、原画像Gにおける所定方向の8画素(n=8)の平均値を縮小画像G0の1画素とし、同様の動作を所定方向に8画素(m=n=8)ずつずらしながら繰り返すことにより、原画像Gを所定方向において1/8に縮小して縮小画像を生成していたが、この変形例では、原画像Gにおける所定方向のn画素(n=8)ごとの平均値を縮小画像G0の1画素とするものの、同様の動作を4画素(m=4≠n)ずつずらしながら繰り返すことにより、原画像Gを所定方向において1/4に縮小して縮小画像を生成する。これによれば、n画素の平均化処理により特定方向に伸びる細線の検出を行うにあたって、縮小時の所定方向の情報の欠落を低下させることができるので、生成されるマスクデータMにおける「がたつき」を防止することができる。
【0090】
ここで、検出すべき細線の方向は、上記平均化処理における画素数nの値を変更することにより調整することができる。すなわち、この画素数nが大きくなるにつれて特定方向からのずれ角が小さな細線を検出することができ、逆に画素数nを小さくするにつれて特定方向からのずれ角が大きな細線を検出することができる。言い換えれば、画素数nが大きいほど、検出する細線の特定方向からのずれの範囲を限定することができ、特定方向に伸びる細線を検出することができる。このように、平均化処理における画素数nを調整することにより、検出すべき細線の方向性を調整することができ、指向性を有する細線検出が可能である。
【0091】
また、上記実施形態においては、垂直方向および水平方向に配列された画素配列の垂直方向および水平方向に近い方向に伸びる細線検出などについて説明した。これは、たとえば、網点パターンの方向と画素の配列方向とが傾きを有しない場合(平行の場合)に生じる線切れ現象を回避するために用いることができる。しかしながら、本発明は、これに限定されず、垂直方向および水平方向以外の特定の方向に伸びる細線の検出などについても適用することができる。たとえば、網点パターンが画素の配列方向に所定の傾きを有している場合において、線切れの発生源となる細線の方向性も変化することになるが、このような線切れの発生源となる細線の方向性に応じて、その方向に伸びる細線を検出し、さらには、その検出結果に基づいて、線切れ防止処理を行うことができる。この場合においては、線切れの発生源となる細線の方向性に応じて、検出すべき細線の方向(斜め方向)に縮小し、その直交方向に細らせ処理および太らせ処理を順次行うことなどにより、細線を検出することができる。なお、斜め方向の縮小動作においては、その斜め方向において座標変換により投影される複数の対応画素の平均を求めればよい。また、細らせ処理および太らせ処理においては、検出すべき細線の方向に応じて、垂直水平双方向に配列された画素列において注目画素の垂直方向、水平方向、斜め方向に隣接する画素を用いて細らせ太らせ処理を適宜に使い分けることができる。具体的には、検出すべき細線の方向に直交する方向に最も近い方向の隣接画素を用いることができる。
【0092】
さらに、上記実施形態においては、互いに垂直な2つの方向(垂直方向および水平方向)近傍において伸びる細線の検出などについて説明したが、これに限定されず、検出すべき細線が互いに異なる任意の2つの方向近傍に指向性を有する場合にもその2つの方向近傍に伸びる細線の検出を行うことができる。これによれば、たとえば、直交しない2つの軸方向を基準にする網点パターンを用いて網点化を行う場合にも、同様の効果を得ることができる。
【0093】
【発明の効果】
以上のように、請求項1に記載の画像処理装置によれば、原画像を所定方向に縮小して生成した縮小画像について所定方向に直交する方向に細らせ処理を行った後に太らせ処理を行うことにより第2処理画像が得られ、この第2処理画像と縮小画像との差分である差分画像が得られるので、得られた差分画像により所定方向に近い方向において伸びる細線を検出することができる。
【0094】
請求項2に記載の画像処理装置によれば、原画像を所定方向に縮小するにあたって所定方向に沿うn画素の平均化処理を伴うので、このnの値を調整することにより、検出すべき細線の指向性を調整することができる。
【0095】
請求項3に記載の画像処理装置によれば、特定濃度領域は高濃度領域であるので、差分画像に基づいて高濃度の細線を検出することができ、請求項4に記載の画像処理装置によれば、特定濃度領域は低濃度領域であるので、差分画像に基づいて低濃度の細線を検出することができる。
【0096】
請求項5に記載の画像処理装置によれば、特に線切れが生じやすい2つの方向の細線を検出することができる。
【0097】
請求項6に記載の画像処理装置によれば、差分画像に対して、縮小画像生成手段における縮小率の逆数倍に所定方向に拡大する拡大処理を行うことにより、原画像の各画素位置における細線の有無の程度を表す細線指標を生成するので、検出された細線の原画像における対応位置を容易に求めることができる。
【0098】
また、請求項7に記載の画像処理装置によれば、原画像に所定のフィルタ処理を施した結果を前記原画像に加重する際の加重係数を前記細線指標に基づいて決定する加重係数決定手段と、前記原画像に所定のフィルタ処理を施した結果を、前記加重係数を用いて前記原画像に加重した処理画像を得るフィルタ処理手段と、を備えているので、線切れが発生する可能性が高い部分である細線部分を特定して選択的にフィルタ処理の影響を加えて、線切れ防止処理を行うことができる。
【0099】
請求項8に記載の画像処理装置によれば、加重係数決定手段は、あらかじめ細線指標と加重係数との対応関係を参照テーブルとして有しているので、加重係数決定手段は、細線指標に基づいて加重係数を容易に決定することができる。
【0100】
請求項9に記載の画像処理装置によれば、拡大処理手段は、拡大処理を行うにあたって、差分画像の高濃度領域を拡張する処理をも行うことにより細線指標を生成し、その細線指標に基づいて得られた加重係数を用いてフィルタ処理手段がフィルタ処理を行うので、細線の近傍にもフィルタ処理を施すことができる。
【0101】
さらに、請求項10に記載の記録媒体によれば、請求項1ないし請求項9のいずれかに記載の発明と同様の効果を得ることができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る画像処理装置1のハードウエア構成を表す図である。
【図2】画像処理装置1に関する機能ブロック図である。
【図3】画像処理装置1の詳細機能ブロック図である。
【図4】画像処理装置1における処理動作に関するフローチャートである。
【図5】垂直方向に伸びる細線を検出する動作に関するフローチャートである。
【図6】縮小画像生成処理を説明するための概念図である。
【図7】注目画素Pv(i,j)について説明するための概念図である。
【図8】白細線の検出動作について説明するための図である。
【図9】白細線の検出動作について説明するための図である。
【図10】白細線の検出動作について説明するための図である。
【図11】黒細線の検出動作について説明するための図である。
【図12】黒細線の検出動作について説明するための図である。
【図13】黒細線の検出動作について説明するための図である。
【図14】高濃度領域拡張処理(ステップSP31)について説明するための図である。
【図15】水平方向に伸びる細線を検出する動作に関するフローチャートである。
【図16】原画像Gの細線を示す図である。
【図17】線切れ防止処理の詳細動作を表すフローチャートである。
【図18】マスクデータMと加重係数kとの関係を示す図である。
【図19】線切れ防止処理の概要を示す説明図である。
【図20】フィルタの一例である加重平均フィルタを示す図である。
【図21】縮小画像生成動作の変形例に関する説明図である。
【図22】線切れについて説明するための図である。
【図23】線切れについて説明するための図である。
【図24】線切れについて説明するための図である。
【図25】USM処理による線切れについて説明するための図である。
【符号の説明】
1 画像処理装置
20 細線検出部
20A 垂直方向細線検出部
20B 水平方向細線検出部
21 縮小画像生成部
23bA,23bB 黒細線抽出部
23wA,23wB 白細線抽出部
50 線切れ防止処理部
G 原画像
G0 縮小画像
G3 差分画像
LUT 参照テーブル
M マスクデータ
k 加重係数
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for detecting a thin line that is a location where a “line break” phenomenon occurs in image processing, and a technique for preventing the line break phenomenon.
[0002]
[Background]
When the halftone processing of a digital image is performed, a line break phenomenon may occur. For example, as described below, there is a “line break” phenomenon that occurs when the ratio between the halftone dot pitch and the pixel pitch of the digital image is not an integer ratio. 22 and 23 are diagrams for explaining the principle.
[0003]
FIG. 22 shows an example in which a thin line in the vertical direction (longitudinal direction) having a 50% density is formed into halftone dots when the ratio between the halftone dot pitch and the pixel pitch of the digital image is an integer ratio. Here, for example, the dot pitch U1 (= 1/175) as in the case where the number of lines of halftone dots is 175 lines (number of lines per inch) and the pixel pitch is 350 dpi (number of pixels per inch). (Inches)) and pixel pitch U2 (1/350 (inch)) "is shown as a ratio U2 / U1 of 350/175 = 2/1 = 2 (integer). In this case, when each pixel in the original digital image is halftone, the relative position between the unit area of the halftone pattern (hereinafter “unit halftone area DU”) and each pixel PX is Since any part is the same and no spatial change occurs between them, a thin line existing at any pixel position is halftone doted so as to have the same halftone dot area.
[0004]
However, if the ratio between the halftone dot pitch and the pixel pitch of the digital image is not an integer ratio, even if the pixels of the original image have the same density (gradation value) in the halftone processing, Depending on the relative positions of the pixels at the time of halftoning, the result of halftoning (the size of the area at the time of halftoning) varies.
[0005]
For example, in FIG. 23, the halftone dot pitch U1 (= 1/1 /) as in the case where the number of halftone dots is 175 lines (number of lines per inch) and the pixel pitch is 400 dpi (number of pixels per inch). Consider a case where the ratio U3 / U1 of 175 (inch) to pixel pitch U3 (1/400 (inch)) is 400/175 = 2.2, that is, not an integer. In this case, the relative position of each pixel PX of the digital image with respect to the unit dot area DU on the dot pattern gradually shifts and fluctuates with a relatively large period. Therefore, the relative position of the pixel on the halftone dot pattern may exist at the position PA, or may exist at the position PB. When a 1-pixel wide thin line exists at the PA position, the area at the time of halftone dot formation is relatively small (large), and when a 1-pixel wide thin line exists at the PB position, the halftone dot conversion Becomes relatively large (small). Here, when the thin line LA having a width of one pixel exists with a small angle θ with respect to the vertical direction (see FIG. 24A), the relative position of the pixel at the time of halftoning is changed from PA to PB or the like. The thickness of the thin line appears to change according to the periodic fluctuation. Especially in the area where the halftone dot area is small, humans It appears as a “line break” phenomenon in which the thin line appears to be broken. This situation is schematically shown in FIG. 24B (for the sake of convenience, each halftone dot is indicated by a black circle). This line break phenomenon occurs remarkably when the line width is small with respect to the halftone dot pitch.
[0006]
The above is the outline of the “line break” phenomenon that occurs when the ratio between the halftone dot pitch and the pixel pitch of the digital image is not an integer ratio.
[0007]
Further, such a line break phenomenon may be caused by USM (unsharp mask) processing. This USM process is performed in order to avoid a reduction in sharpness that generally occurs during halftone output. The line break phenomenon at this time is accompanied by a decrease in the density level of the fine line due to edge enhancement from both sides. This is because, as shown in FIG. 25, in the fine line portion, peaks due to edge emphasis from both sides of the high density region may overlap and the pixel value may be saturated. This is because the point area ratio is lower than the original one. This area in the thin line appears as “line break” to the human eye as described above. Further, when the thin lines that cause “line breaks” are arranged in parallel at equal intervals, the low density portions of each line are connected to each other, and long-period density fluctuation = moire occurs.
[0008]
[Problems to be solved by the invention]
The line break phenomenon caused by various causes as described above deteriorates the image quality and becomes a major obstacle at the time of image output.
[0009]
Accordingly, in view of the above problems, the present invention provides a technique related to image processing for detecting a thin line that is a source of line breakage, and a technique related to image processing for performing processing for preventing line breakage based on the detection result. Objective.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, an image processing apparatus according to claim 1 is an image processing apparatus that performs processing on an original image, and reduces the original image in a predetermined direction to generate a reduced image. Generating means, thinning processing means for generating a first processed image by thinning a specific density region in a direction orthogonal to the predetermined direction, and the first processing A thickening processing unit that generates a second processed image by performing a thickening process for thickening a specific density region in a direction orthogonal to the predetermined direction, and a difference between the reduced image and the second processed image. And a difference image generating means for generating a certain difference image.
[0011]
The image processing device according to claim 2 is the image processing device according to claim 1, wherein the reduced image generating means averages n pixels along the predetermined direction when the original image is reduced in the predetermined direction. It involves processing.
[0012]
The image processing apparatus according to a third aspect is the image processing apparatus according to the first aspect, wherein the specific density region is a high density region.
[0013]
According to a fourth aspect of the present invention, in the image processing apparatus according to the first aspect, the specific density region is a low density region.
[0014]
An image processing apparatus according to a fifth aspect is the image processing apparatus according to the first aspect, wherein the predetermined directions are two different directions, the reduced image generation means, the thinning processing means, and the thickening. The processing unit and the difference image generation unit perform each processing relating to each of the two directions.
[0015]
An image processing apparatus according to a sixth aspect is the image processing apparatus according to any one of the first to fifth aspects, wherein the difference image is set to a reciprocal multiple of a reduction ratio in the reduced image generating unit. The image processing apparatus further includes enlargement processing means for generating a fine line index indicating the degree of presence or absence of a fine line at each pixel position of the original image by performing enlargement processing that enlarges in a predetermined direction.
[0016]
The image processing device according to claim 7 is the image processing device according to claim 6, wherein a weighting factor for weighting a result of applying a predetermined filter process to the original image to the original image is used as the thin line index. Weight coefficient determination means for determining based on the result, and filter processing means for obtaining a processed image obtained by weighting the original image with the result of applying a predetermined filter process to the original image using the weight coefficient. Features.
[0017]
The image processing apparatus according to claim 8 is the image processing apparatus according to claim 7, wherein the weighting coefficient determining means has a correspondence relationship between the thin line index and the weighting coefficient in advance as a reference table. And
[0018]
The image processing apparatus according to claim 9 is the image processing apparatus according to claim 7, wherein the enlargement processing unit also performs a process of expanding a high density region of the difference image when performing the enlargement process. To generate the fine line index.
[0019]
The recording medium according to claim 10 is a computer-readable recording medium recording a program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 9. To do.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
<A. Configuration>
FIG. 1 is a conceptual diagram showing a hardware configuration of an image processing apparatus 1 according to an embodiment of the present invention. The image processing apparatus 1 includes a CPU 2, a storage unit 3 including a semiconductor memory and a hard disk, a media drive 4 for reading information from various recording media, a display unit 5 including a monitor, an input unit 6 including a keyboard and a mouse, a digital The computer system includes an image input unit 7 for reading an image and an image output unit 8 for outputting a processed image. The CPU 2 is connected to the storage unit 3, the media drive 4, the display unit 5, the input unit 6, the image input unit 7, the image output unit 8, and the like via the bus line BL and the input / output interface IF. The media drive 4 reads information recorded therein from a portable recording medium 9 such as a CD-ROM, DVD (Digital Versatile Disk), or flexible disk. By reading the program from the portable recording medium 9 on which the program is recorded, this computer system has a fine line detection function as described later and a line break prevention function based thereon. Furthermore, the storage unit 3 includes a program storage unit 3a that stores all or part of the read program, an image storage unit 3b that stores various processed images, and the like.
[0021]
FIG. 2 is a functional block diagram illustrating a schematic configuration of the image processing apparatus 1, and FIG. 3 is a more detailed functional block diagram of the image processing apparatus 1. FIG. 3 shows functional blocks when a thin line extending in the vertical direction and the horizontal direction is detected, and a line break prevention process is performed based on the detection result.
[0022]
As shown in FIGS. 2 and 3, the image processing apparatus 1 includes an image input unit 7 that reads a digital image, a fine line detection unit 20 that has a fine line detection function, and a line break that has a line break prevention function based on a detection result. A prevention processing unit 50 and an image output unit 8 that outputs the processed image in halftone dots are provided.
[0023]
In general, the thin line detection unit 20 can detect a thin line extending in a predetermined direction, but here, the thin line detection unit 20 and the vertical direction thin line detection unit 20A that detects a vertical direction thin line are horizontal. It is assumed that a horizontal thin line detection unit 20B that detects a thin line in a direction is included, and a thin line extending in the vertical direction and the horizontal direction is detected (FIG. 3). Here, the “horizontal direction” refers to the row direction in the matrix arrangement of pixels, and the “vertical direction” refers to the column direction in the matrix arrangement. Conversely, it can also be defined.
[0024]
The thin line detection unit 20 (20A, 20B) reduces the read digital image (original image) in a predetermined direction (here, the vertical direction and the horizontal direction) to generate a reduced image generating unit 21 (21A, 20A, 20B). 21B), white thin line extraction unit 23w (23wA, 23wB) and black thin line extraction unit 23b (23bA, 23bB).
[0025]
Here, in this embodiment, a case is considered in which “black” is represented by a gradation value “0” and “white” is represented by a gradation value “255” (in the case of 8-bit expression). For this reason, the black tone region is defined as a “low density region” and the white tone region is defined as a “high density region”. For this reason, the “density” in this embodiment is “white density”. For example, “white line” means “a high density (white) line existing in a low density area (black area)”. Become. In general, an area having a density on the background color (white or black) side of the original image is defined as a low density area.
[0026]
The white thin line extraction unit 23w extracts a thin line (white thin line) expressed as a set of pixels having a large gradation value (high density value), and the black thin line extraction unit 23b has a small gradation value (low level). A thin line (black thin line) expressed as a set of pixels having (density value) is extracted. Here, both black and white fine lines are extracted. However, when only one of the white thin lines or the black thin lines needs to be extracted, only the corresponding one of the extraction units 23w and 23b can be provided. That's fine.
[0027]
The white thin line extraction unit 23w and the black thin line extraction unit 23b respectively have specific density regions (orthogonal directions) in a direction (orthogonal direction) orthogonal to the reduction direction of the reduced image generated in the reduced image generation unit 21 (21A, 21B). A thinning processing unit 25 (25wA, 25bA, 25wB, 25bB) for generating a first processed image by performing a thinning process for thinning a high-density region or a low-density region) A thickening processing unit 27 (27wA, 27bA, 27wB, 27bB) for generating a second processed image by performing a thickening process for thickening a specific density region in a direction orthogonal to the reduction direction, and the reduced image and the second processed image And a difference image generation unit 29 (29wA, 29bA, 29wB, 29bB) for generating a difference image that is a difference from the above.
[0028]
In addition, the fine line detection unit 20 includes a fine line data synthesis unit 31 (31A, 31B) that synthesizes the difference image related to the white fine line and the difference image related to the black fine line, and the high density region expansion unit 33 that performs processing for extending the high density region. (33A, 33B) and the obtained difference image is enlarged in the same direction as the reduction direction (this is enlarged to be the reciprocal of the reduction ratio in the reduced image generation unit 21 to be the same as the number of pixels of the original image). It further includes an enlargement processing unit 35 (35A, 35B) for enlarging. Note that, by the enlargement process in the enlargement processing unit 35, a fine line index that indicates the degree of presence or absence of a fine line at each pixel position of the original image is generated. In addition, the high density area expansion unit 33 performs a process of expanding the high density area of the difference image when performing the enlargement process by the enlargement processing unit 35. The high density area expansion unit 33 and the enlargement processing unit 35 are also performed. And can also be referred to as broadening processing means.
[0029]
Further, the line breakage prevention processing unit 50 includes a vertical horizontal direction thin line data composition unit 51 that synthesizes data related to the above-described vertical and horizontal direction thin line indices, and a weighting coefficient that determines a weighting coefficient based on the obtained thin line indices. A determination unit 53; and a filter processing unit 55 that obtains a processed image by weighting the result of applying a predetermined filter process to the original image based on the weighting coefficient.
[0030]
Hereinafter, in the image processing apparatus 1 having such a schematic configuration, an operation of detecting a thin line extending in the vertical direction and the horizontal direction, and an operation of preventing a line break based on the detection result will be described.
[0031]
<B. Operation>
<B1. Overview>
FIG. 4 is a flowchart showing the processing operation in the image processing apparatus 1. As shown in FIG. 4, first, in step SP10, the original image G to be processed is read using the image input unit 7 or the like. The original image G is obtained as a digital image in which a plurality of pixels are arranged in a matrix in the vertical direction and the horizontal direction, and each of the pixels has a plurality of gradation values (for example, 2 8 = 256 gradations).
[0032]
Next, in step SP20, an operation for detecting a thin line extending in the vertical direction is performed, and in step SP30, an operation for detecting a thin line extending in the horizontal direction is performed. The detection results of these thin lines extending in both directions are synthesized in step SP60. In step SP70, processing for preventing line breakage is performed based on the detection result of the thin line, and in step SP80, the processed image is output.
[0033]
<B2. Vertical thin line detection>
Here, the detail of the operation | movement (step SP20) which detects the thin line extended to a perpendicular direction is demonstrated. FIG. 5 is a flowchart showing the processing procedure.
[0034]
First, in step SP21, reduced image generation processing is performed in which the original image G is reduced to 1 / m in the vertical direction to generate a reduced image.
[0035]
FIG. 6 is a conceptual diagram for explaining this processing. By calculating the average of the gradation values of n pixels (n = 8) arranged in the vertical direction in the original image G, the reduction after the reduction processing is performed. A pixel value of one pixel of the image G0 is calculated. However, n is an integer of 2 or more. In other words, n pixels are reduced to one pixel in the reduction process of step SP21. Here, the scaling factor 1 / m is 1 / n (that is, m = n).
[0036]
<White fine line extraction>
Next, in step SP22, a process of extracting a white thin line as a thin line in which a high density region is connected in a line with a width of about one pixel width is performed. Therefore, the operations of steps SP23 to SP25 are performed on the reduced image G0. FIG. 8 is a diagram for explaining the principle of the white thin line detection operation, which will be described with reference to FIG.
[0037]
In step SP23, the first processed image G1 is generated by performing a thinning process for thinning the high density region in the horizontal direction on the reduced image G0. Specifically, the minimum value of the pixel value of each pixel of interest Pv (i, j) (FIG. 7) in the reduced image G0 and the pixel value of the adjacent pixel Pv (i + 1, j) in the horizontal direction is calculated. The value is set as the pixel value of each pixel Pvi (i, j) in the first processed image G1. That is, Pvi (i, j) = min {Pv (i, j), Pv (i + 1, j)}. Then, the first process image G1 is generated by advancing the above process by sequentially using all the pixels in the reduced image G0 as the target pixel.
[0038]
FIG. 8A shows an example of pixel values of a plurality of pixels arranged in the horizontal direction in the reduced image G0 before processing. This pixel column corresponds to a case where a thin line (white thin line) having a width of one pixel in the horizontal direction and a length of n pixels in the vertical direction exists. When the processing of step SP23 is performed on such an array of pixels Pv, an array of pixels Pvi in FIG. 8B is generated. In FIG. 8B, each pixel value is zero.
[0039]
Next, in step SP24, a second processed image G2 is generated by performing a thickening process to thicken the high density region in the horizontal direction for the first processed image G1. Specifically, the maximum value of the pixel value of each pixel of interest Pvi (i, j) in the first processed image G1 and the pixel value of the adjacent pixel Pvi (i-1, j) on the opposite side in the horizontal direction is calculated. Then, the value is set as the pixel value of each pixel Pvia (i, j) in the second processed image G2. That is, Pvia (i, j) = max {Pvi (i−1, j), Pvi (i, j)}. Then, the second process image G2 is generated by advancing the above process by sequentially setting all the pixels in the first process image G1 as the target pixel.
[0040]
When the high-density region thickening process in step SP24 is performed on the array of pixels Pvi in FIG. 8B, the array of pixels Pvia in FIG. 8C is generated. Here, the second pixel value from the left is restored. It remains zero.
[0041]
In step SP25, a difference image G3 that is a difference between the reduced image G0 and the second processed image G2 is generated. Specifically, the difference value between the pixel value of each pixel of interest Pv (i, j) in the reduced image G0 and the pixel value of the pixel Pvia (i, j) at the corresponding position in the second processed image G2 is calculated as a difference. The pixel value of the pixel in the pixel Mvw (i, j) of the image G3 is used. That is, Mvw (i, j) = Pv (i, j) −Pvia (i, j). However, when the difference value is negative, it is corrected to zero (limit processing), and an image obtained by the difference operation including the correction operation is referred to as a difference image.
[0042]
And the difference image G3 is produced | generated by advancing the said process by making each of all the pixels in the 2nd process image G2 into an attention pixel sequentially.
[0043]
FIG. 8D is a diagram illustrating a result of performing the process of step SP25 on the array of pixels Pv in FIG. 8A and the array of pixels Pvia in FIG. Here, the pixel value of the second pixel from the left has a large value, and it is shown that the degree to which a thin line exists in this portion is high.
[0044]
Here, FIG. 8 is a diagram for explaining the case where the processing of steps SP23 to SP25 is performed on the portion where the thin line to be detected exists, but there is a thin line to be detected with reference to FIG. An example will be given for the case of not. FIG. 9 is a diagram for explaining a case where the same processing is performed when there is a line having a width of two pixels in the horizontal direction and a length of n pixels in the vertical direction. .
[0045]
In this case, when the processing of step SP23 is performed on the array of pixels Pv, the array of pixels Pvi in FIG. 9B is generated, but the pixel value of the second pixel from the left does not become zero. , Value 255. Then, when the high density region thickening process in step SP24 is performed on the array of the pixels Pvi, the array of the pixels Pvia in FIG. 9C is generated. Here, the second pixel value and the third pixel from the left are generated. The value is restored to the original value of the reduced image G0, and the high density region returns to the width of 2 pixels. Accordingly, the pixels Mvw (i, j) of the difference image G3 are all zero, and it is determined that no thin line exists.
[0046]
In this manner, the thinning process and the thickening process are sequentially performed in the horizontal direction that is orthogonal to the reduction direction, and a difference image G3 that is a difference between the image G2 and the reduction image G0 obtained as a result is obtained. It is possible to extract a white thin line expressed as a high density region having a width of one pixel.
[0047]
FIGS. 10A and 10B are diagrams for explaining a case where such processing is performed in a planar manner. FIG. 10A shows a reduced image G0 before processing, and FIG. 10B shows a differential image G3 after processing. . As shown in FIG. 10B, in the lines L2, L3, L5, and L6 that are the pixel arrangement in the horizontal direction of the reduced image G0 before the processing, there is a high density region having a horizontal width of one pixel. Such a region is extracted as a region having a high degree of thin line in the difference image G3. On the other hand, in the lines L1, L4, and L7 of the reduced image G0 before processing, there is a high density region having a horizontal width of two pixels, but in such a region in the difference image G3, there is a thin line. Is low, the value of each pixel of the difference image G3 is zero.
[0048]
<Black fine line extraction>
Next, in step SP26, a process of extracting a black thin line as a thin line in which a low density region is connected in a line shape with a width of about one pixel width is performed. Therefore, the operations of steps SP27 to SP29 are performed on the reduced image G0. In the white thin line extraction processing operation of step SP22 described above, the high density area which is the specific density area is thinned in the horizontal direction and then thickened in the same direction, so that the pixel value is restored as a result. However, in the black thin line extraction processing operation of step SP26, the low density area is selected as the specific density area, and the low density area is thinned in the horizontal direction. By thickening in the same direction, the degree to which a thin line exists is detected based on the difference in the degree to which each pixel value is restored.
[0049]
Specifically, in step SP27, the first processed image G1 is generated by performing a thinning process for thinning the low density region in the horizontal direction on the reduced image G0. Specifically, the “maximum value” between the pixel value of each pixel of interest Pv (i, j) (FIG. 7) in the reduced image G0 and the pixel value of the adjacent pixel Pv (i + 1, j) in the horizontal direction is calculated. The value is set as the pixel value of each pixel Pva (i, j) in the first processed image G1. That is, Pva (i, j) = max {Pv (i, j), Pv (i + 1, j)}.
[0050]
Next, in step SP28, a second processed image G2 is generated by performing a thickening process for thickening the low density region in the horizontal direction on the first processed image G1. Specifically, the “minimum value” between the pixel value of each pixel of interest Pva (i, j) in the first processed image G1 and the pixel value of the adjacent pixel Pva (i−1, j) on the opposite side in the horizontal direction. And the value is set as the pixel value of each pixel Pvai (i, j) in the second processed image G2. That is, Pvai (i, j) = min {Pva (i-1, j), Pva (i, j)}.
[0051]
In step SP29, a difference image G3 that is a difference between the reduced image G0 and the second processed image G2 is generated. Specifically, the difference value between the pixel value of the pixel Pvai (i, j) at the corresponding position in the second processed image G2 and the pixel value of each pixel of interest Pv (i, j) in the reduced image G0 is calculated as a difference. The pixel value of the pixel in the pixel Mvb (i, j) of the image G3 is used. That is, Mvb (i, j) = Pvai (i, j) −Pv (i, j). However, when this difference value is negative, it is corrected to zero.
[0052]
In each of the steps SP27 to SP29, the images G1 to G3 are generated by proceeding with each of the pixels in each of the images G0 to G2 sequentially as the target pixel.
[0053]
FIG. 11A shows an example of pixel values of a plurality of pixels arranged in the horizontal direction in the reduced image G0 before processing. This pixel column corresponds to a case where there is a black thin line having a width of one pixel in the horizontal direction and a length of n pixels in the vertical direction. When the processing of step SP27 is performed on such an array of pixels Pv, an array of pixels Pva in FIG. 11B is generated, and each pixel value is 255 here.
[0054]
Then, when the low density region thickening process of step SP28 is performed on the array of pixels Pva in FIG. 11B, the array of pixels Pvai in FIG. 8C is generated. Here, the second pixel value from the left is generated. Remains 255 without being restored.
[0055]
FIG. 11D is a diagram illustrating a result of performing the process of step SP29 on the array of pixels Pvai in FIG. 11C and the array of pixels Pv in FIG. Here, the pixel value of the second pixel from the left has a large value, and it is shown that the degree to which a thin line exists in this portion is high.
[0056]
Here, FIG. 11 is a diagram for explaining the case where the processing of steps SP27 to SP29 is performed on the portion where the thin line to be detected exists, but there is a thin line to be detected with reference to FIG. An example will be given for the case of not. FIG. 12 shows a case where the same processing is performed when there is a black line (low density line) having a width of two pixels in the horizontal direction and a length of n pixels in the vertical direction. It is a figure for demonstrating.
[0057]
In this case, when the processing of step SP27 is performed on the array of pixels Pv, the array of pixels Pva in FIG. 12B is generated, but the pixel value of the second pixel from the left does not become 255. Has a value of zero. Then, when the high density area thickening process in step SP28 is performed on the array of the pixels Pva, the array of the pixels Pvai in FIG. 12C is generated. Here, the second pixel value and the third pixel from the left are generated. The value is restored to the original value of the reduced image G0, and the low density region returns to the width of 2 pixels. Accordingly, the pixels Mvb (i, j) of the difference image G3 are all zero, and it is determined that no thin line exists.
[0058]
In this manner, the thinning process and the thickening process are sequentially performed in the horizontal direction that is orthogonal to the reduction direction, and a difference image G3 that is a difference between the image G2 and the reduction image G0 obtained as a result is obtained. A black thin line expressed as a low density region having a width of one pixel can be extracted.
[0059]
FIGS. 13A and 13B are diagrams for explaining a case where such processing is performed in a plane. FIG. 13A shows a reduced image G0 before processing, and FIG. 13B shows a differential image G3 after processing. . As described above, in the lines L2, L3, L5, and L6, which are the horizontal pixel array of the reduced image G0 before processing, there is a low density region whose horizontal width is one pixel, and such a region exists. Is extracted as a region where the thin line is high in the difference image G3. On the other hand, in the lines L1, L4, and L7 of the reduced image G0 before processing, there is a low density region whose horizontal width is two pixels, but in such a region in the difference image G3, there is a thin line. Is considered to be low.
[0060]
<Combination of black and white thin line extraction results>
Next, in step SP30 (FIG. 5), the white thin line extraction result and the black thin line extraction result are synthesized. Specifically, by adding the pixel Mvw (i, j) and the pixel Mvb (i, j) in each pixel (i, j), fine line data on both the white fine line and the black fine line is obtained. Synthesize. That is, Mv (i, j) = Mvw (i, j) + Mvb (i, j).
[0061]
In step SP31, a process of expanding the high density area (high density area expansion process) is performed. This high-density area expansion processing can be realized by using, for example, a filter in which the maximum value among the pixel values of a total of nine pixels of the target pixel and its adjacent eight pixels is the pixel value of the target pixel. FIG. 14 is a diagram illustrating pixel values of images before (a) and after (b) processing when high density region expansion processing is performed using such a maximum value filter. As will be described later, this high-density region expansion processing is performed in order to add the influence of the filtering processing to the neighboring region where the thin line exists when performing the filtering processing using the thin line data as mask data. This is not necessary when the purpose is only to detect the position of the fine line.
[0062]
Furthermore, in step SP32, the image composed of each pixel Mv (i, j) is enlarged in the vertical direction. Specifically, each pixel Mv (i, j) is enlarged m times (= n times) in the vertical direction by using the nearest neighbor interpolation method (nearest neighbor method).
[0063]
This enlargement ratio m (= n) is the reciprocal of the enlargement ratio (reduction ratio) 1 / m (= 1 / n) in the reduced image generation unit 21, and as a result of this enlargement, it is the same as the number of pixels of the original image. Like that. Thereby, it becomes easy to specify the presence position of the fine line in association with each pixel position of the original image. Note that when it is not necessary to detect the presence position of a fine line, for example, when only the presence or absence of a fine line is detected, this enlargement process is unnecessary.
[0064]
As described above, a vertical thin line can be detected.
[0065]
<B3. Horizontal thin line detection>
Next, the detection of the horizontal thin line in step SP40 (FIG. 4) will be described. The fine line detection in the horizontal direction can be performed based on the same processing as the fine line detection in the vertical direction.
[0066]
FIG. 15 is a flowchart showing a procedure for detecting a thin line extending in the horizontal direction, and corresponds to FIG. In FIG. 15, a reference symbol having a subscript h representing “horizontal direction” corresponds to a reference symbol having “v” representing “vertical direction” as a subscript in FIG. 5. Further, the processes of steps SP41 to SP52 are the same as the processes of corresponding steps SP21 to SP32, respectively.
[0067]
Here, the difference from the thin line detection in the vertical direction is that the original image G is reduced in the “horizontal direction” (not in the vertical direction), and thickened in the “vertical direction” which is a direction orthogonal to the horizontal direction. The thin line is detected by performing the thinning process. That is, in the above-described thin line detection operation in the vertical direction, the vertical direction may be replaced with the horizontal direction, and the horizontal direction may be replaced with the vertical direction.
[0068]
Accordingly, in the processes corresponding to step SP22 and step SP26, the maximum and minimum calculations with the adjacent pixels in the “vertical direction” are performed. For example, in step SP23, when performing the high density region thinning process, the pixel value of each pixel of interest Ph (i, j) (FIG. 7) in the reduced image G0 and the adjacent pixel Ph (i, j + 1) in the vertical direction thereof. ) And the pixel value of each pixel Phi (i, j) in the first processed image G1. That is, Phi (i, j) = min {Ph (i, j), Ph (i, j + 1)}. The same applies to other processes.
[0069]
A thin line detection operation or the like can be performed by such processing in step SP40.
[0070]
<B4. Thin line data synthesis in both directions>
In the next step SP60 (FIG. 4), the fine line data in the vertical direction and the fine line data in the horizontal direction thus obtained are combined to generate fine line data (mask data) M in consideration of the fine line data in both directions. . Specifically, the absolute value of the difference between Mv (i, j) and Mh (i, j) is calculated as a new value M (i, j). That is, M (i, j) = abs {Mv (i, j) −Mh (i, j)}. The symbol abs {} represents an absolute value.
[0071]
This operation is based on exclusive OR. Here, the reason why exclusive OR (subtraction) is performed on Mv and Mh instead of OR (addition) is as follows. The values of both Mv and Mh are large, for example, in a portion where a vertical thin line exists and a horizontal thin line exists, that is, a portion where both thin lines intersect. However, such an intersecting portion is unlikely to be a portion where a line break occurs, and conversely, it is considered that a line break is particularly likely to occur when a thin line occurs only in one direction. For example, in FIG. 16, it is considered that line breaks are likely to occur not in the intersection portion A1, but in the thin line portion A2 extending in a direction shifted by a slight angle from the strict vertical direction. Therefore, by performing exclusive OR (subtraction) on Mv and Mh, the above intersection is excluded from the detection area as a thin line portion, and a case where a thin line exists only in one direction is characteristic. It is considered preferable to extract.
[0072]
<B5. Line break prevention treatment>
Next, in step SP70, line break prevention processing is performed based on the mask data M described above. This process is performed by the line break prevention processing unit 50.
[0073]
FIG. 17 is a flowchart showing the detailed operation in step SP70. By performing the processes of steps SP71 to SP75 in FIG. 17 for all the pixels in the original image G, it is possible to perform processing for preventing line breakage on the original image G.
[0074]
First, in step SP71, the corresponding weighting coefficient k is determined based on the value of the mask data M corresponding to the target pixel position of the original image G. The weighting coefficient k is a value represented by a function having the value of the mask data M as a variable, and is represented by a function as shown in FIG. 18, for example. FIG. 18 is a graph in which the horizontal axis represents the value of the mask data M, and the vertical axis represents the value of the weighting coefficient k (where k is a real number between zero and 1).
[0075]
Specifically, the value of k corresponding to the value of each mask data M can be stored in advance in the reference table LUT (FIG. 18). Thereby, k corresponding to the value of each mask data M can be referred to immediately. Even if it is difficult to express the relationship between M and k by a mathematical expression, the value of k can be easily determined.
[0076]
In addition, when the relationship between M and k can be expressed by a predetermined mathematical expression, k corresponding to M may be obtained from time to time based on the predetermined mathematical expression.
[0077]
Moreover, FIG. 19 is explanatory drawing which shows the outline | summary of a line break prevention process. Using the above weighting coefficient k, the result of filtering the original image G is weighted to the original image G to obtain a processed image as an output image.
[0078]
Therefore, in the next step SP73, filter processing is performed using the target pixel and its neighboring pixels. As a filter for this process, for example, a weighted average filter as shown in FIG. 20 can be used. This weighted average filter is a value obtained by multiplying the pixel value of the target pixel by 4/16, a value obtained by multiplying each pixel value of pixels adjacent to the target pixel in the left, right, upper, and lower directions by 2/16, and the target pixel. On the other hand, it is a filter that adds a value obtained by multiplying each pixel value of pixels adjacent in the oblique direction by 1/16 to obtain a new pixel value at the position of the target pixel. It can be performed.
[0079]
Then, in step SP75, as shown in FIG. 19, a value obtained by processing the original image G by the weighted average filter as shown in FIG. In setting the value, the above-described weighting coefficient k is used as the weighting coefficient. More specifically, a value obtained by multiplying the pixel value p2 obtained by performing weighted average filtering on the target pixel and its neighboring pixels by a weighting coefficient k, and a pixel value p1 of the target pixel and a coefficient (1-k ) Is added to a new pixel value at the target pixel position.
[0080]
By performing the operations in steps SP71 to SP75 for all the pixels in the original image G, the original image G can be subjected to processing for preventing line breakage.
[0081]
Here, the mask data M has a value as an index representing the degree of presence of a thin line that is a cause of the occurrence of line breaks for each pixel position of the original image G. Therefore, by determining how much the influence of the weighted average filter is applied according to the coefficient k determined based on the mask data M, the position where the thin line is present is specified, and the weighted average filter is appropriately applied. Can be performed in a specific area. In other words, the “blurring” effect by the weighted average filter can be selectively applied only to the portion where the line break is likely to occur.
[0082]
Here, as shown in FIG. 18, when the mask data M is equal to or less than the threshold value S1, the weighting coefficient k is set to zero. By setting the threshold value S1 as a predetermined value that is not zero (for example, about 20), two adjacent pixels in the reduced image G0 have slightly different pixel values (for example, the pixel values of both pixels are 245 and 255). Even if it is “falsely detected” as a thin line in step SP20 or the like (exactly when it is detected that the degree of the presence of the thin line is not zero), the influence is eliminated, and the above weighted average The result of the filtering process can be weighted selectively with respect to the position where the processing by the filter is necessary.
[0083]
The mask data M is obtained by performing the high density region expansion process in the above-described step SP31. Therefore, by further performing such weighted average filter processing, the influence of the filter processing can be applied not only to the thin line portion but also to the portion in the vicinity of the thin line, and thus processing to smoothly thicken the thin line can be performed. It becomes possible. Thereby, the effect of preventing line breakage can be further increased. At this time, by excluding (subtracting) the mask data M before the expansion process from the mask data after the expansion process, it is possible to “blur and thicken only the surroundings while maintaining the density of the thin line itself”. For this reason, the low-contrast thin line does not disappear.
[0084]
In the above example, the filtering process is performed in step SP73 even when k is not zero. However, when k is zero, the pixel value of the corresponding pixel of the original image is updated as it is without performing the filtering process. You may output as a pixel value.
[0085]
<C. Variations>
In the thin line detection operation in the vertical direction (step SP20) of the above-described embodiment, when creating the reduced image G0, the first processed image G1, the second processed image G2, and the difference image G3, all the pixels are all imaged. However, the present invention is not limited to this. For example, each image G0 to G3 may be created one line (row) at a time. The same applies to the horizontal thin line detection operation in step SP40, and the images G0 to G3 may be created for each column.
[0086]
In the above embodiment, the mask data M is obtained by synthesizing the thin line detection data for two directions in step SP60 or the like. However, the present invention is not limited to this, and the thin line detection data for one direction is used as the mask data. It may be used as M.
[0087]
In the above embodiment, a case where the inverse number m of the reduction ratio 1 / m when the original image is reduced in the vertical or horizontal direction is equal to the number n of pixels in the averaging process along the direction (m = n) will be described. However, it is not limited to this. For example, the reciprocal number m of the reduction ratio 1 / m when the original image is reduced in a predetermined direction may be smaller than the number n of pixels in the averaging process along the predetermined direction.
[0088]
FIG. 21 is a diagram for explaining the reduced image generation operation in step SP21 in such a case, and corresponds to FIG. 6 of the above embodiment.
[0089]
In the above embodiment, the average value of 8 pixels (n = 8) in the predetermined direction in the original image G is 1 pixel in the reduced image G0, and the same operation is shifted by 8 pixels (m = n = 8) in the predetermined direction. By repeating, the original image G was reduced to 1/8 in the predetermined direction to generate a reduced image. In this modification, the average value for every n pixels (n = 8) in the predetermined direction in the original image G Although the same operation is repeated while shifting by 4 pixels (m = 4 ≠ n), the original image G is reduced to ¼ in a predetermined direction to generate a reduced image. . According to this, when detecting a thin line extending in a specific direction by the averaging process of n pixels, it is possible to reduce a lack of information in a predetermined direction at the time of reduction, and thus “ Can be prevented.
[0090]
Here, the direction of the thin line to be detected can be adjusted by changing the value of the number of pixels n in the averaging process. That is, a thin line with a small deviation angle from the specific direction can be detected as the number n of pixels increases, and a thin line with a large deviation angle from the specific direction can be detected with a decrease in the number n of pixels. . In other words, as the number of pixels n is larger, the range of deviation of the fine line to be detected from the specific direction can be limited, and the thin line extending in the specific direction can be detected. In this way, by adjusting the number n of pixels in the averaging process, the directionality of the thin line to be detected can be adjusted, and fine line detection having directivity can be performed.
[0091]
Further, in the above-described embodiment, the detection of the thin line extending in the direction close to the vertical direction and the horizontal direction of the pixel array arranged in the vertical direction and the horizontal direction has been described. This can be used, for example, to avoid a line break phenomenon that occurs when the direction of the halftone dot pattern and the pixel arrangement direction have no inclination (in the case of being parallel). However, the present invention is not limited to this, and can also be applied to detection of a thin line extending in a specific direction other than the vertical direction and the horizontal direction. For example, in the case where the halftone dot pattern has a predetermined inclination in the pixel arrangement direction, the directionality of the thin line that becomes the line break generation source also changes. Depending on the directionality of the thin line, a thin line extending in that direction can be detected, and further, a line break prevention process can be performed based on the detection result. In this case, in accordance with the direction of the thin line that is the source of the line break, it is reduced in the direction of the thin line to be detected (diagonal direction), and the thinning process and the thickening process are sequentially performed in the orthogonal direction. Thus, a thin line can be detected. In the oblique reduction operation, an average of a plurality of corresponding pixels projected by coordinate transformation in the oblique direction may be obtained. In the thinning process and the thickening process, pixels adjacent in the vertical, horizontal, and diagonal directions of the pixel of interest in the pixel row arranged in the vertical and horizontal bidirectional directions are selected according to the direction of the thin line to be detected. The thinning and fattening process can be used properly as needed. Specifically, the adjacent pixel in the direction closest to the direction orthogonal to the direction of the thin line to be detected can be used.
[0092]
Furthermore, in the above-described embodiment, detection of thin lines extending in the vicinity of two directions perpendicular to each other (vertical direction and horizontal direction) has been described. However, the present invention is not limited to this, and any two arbitrary thin lines to be detected are different from each other. Even when there is directivity in the vicinity of directions, it is possible to detect a thin line extending in the vicinity of the two directions. According to this, for example, the same effect can be obtained also when halftone dot conversion is performed using a halftone dot pattern based on two axial directions that are not orthogonal.
[0093]
【The invention's effect】
As described above, according to the image processing apparatus of claim 1, the reduced image generated by reducing the original image in the predetermined direction is thinned in the direction orthogonal to the predetermined direction and then thickened. Since the second processed image is obtained and a difference image that is the difference between the second processed image and the reduced image is obtained, a thin line extending in a direction close to a predetermined direction is detected from the obtained difference image. Can do.
[0094]
According to the image processing apparatus of the second aspect, when the original image is reduced in the predetermined direction, an averaging process of n pixels along the predetermined direction is involved. Therefore, the fine line to be detected is adjusted by adjusting the value of n. The directivity of can be adjusted.
[0095]
According to the image processing apparatus of the third aspect, since the specific density area is a high density area, a high density thin line can be detected based on the difference image. According to this aspect, since the specific density area is a low density area, a low density thin line can be detected based on the difference image.
[0096]
According to the image processing apparatus of the fifth aspect, it is possible to detect a thin line in two directions in which line breakage is particularly likely to occur.
[0097]
According to the image processing device of claim 6, the difference image is subjected to an enlargement process that enlarges the difference image in a predetermined direction to a reciprocal multiple of the reduction ratio in the reduced image generation unit. Since the fine line index indicating the degree of presence or absence of the fine line is generated, the corresponding position of the detected fine line in the original image can be easily obtained.
[0098]
Further, according to the image processing apparatus of claim 7, the weighting coefficient determining means for determining a weighting coefficient when weighting the result of applying a predetermined filter process to the original image to the original image based on the fine line index. And a filter processing means for obtaining a processed image obtained by weighting the original image using the weighting coefficient as a result of applying a predetermined filter process to the original image. It is possible to perform a line break prevention process by specifying a thin line portion that is a high portion and selectively adding an influence of a filter process.
[0099]
According to the image processing apparatus of the eighth aspect, since the weighting coefficient determining means has a correspondence table between the thin line index and the weighting coefficient as a reference table in advance, the weighting coefficient determining means is based on the thin line index. The weighting factor can be easily determined.
[0100]
According to the image processing apparatus of the ninth aspect, when performing the enlargement process, the enlargement processing unit generates a thin line index by performing a process of expanding a high density region of the difference image, and based on the thin line index. Since the filter processing means performs the filter process using the weighting coefficient obtained in this way, the filter process can also be performed in the vicinity of the thin line.
[0101]
Furthermore, according to the recording medium of the tenth aspect, it is possible to obtain the same effect as that of the invention according to any one of the first to ninth aspects.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a hardware configuration of an image processing apparatus 1 according to an embodiment of the present invention.
FIG. 2 is a functional block diagram related to the image processing apparatus 1;
FIG. 3 is a detailed functional block diagram of the image processing apparatus 1;
FIG. 4 is a flowchart regarding processing operations in the image processing apparatus 1;
FIG. 5 is a flowchart relating to an operation of detecting a thin line extending in the vertical direction.
FIG. 6 is a conceptual diagram for explaining reduced image generation processing;
FIG. 7 is a conceptual diagram for explaining a target pixel Pv (i, j).
FIG. 8 is a diagram for explaining a white thin line detection operation;
FIG. 9 is a diagram for explaining a white thin line detection operation;
FIG. 10 is a diagram for explaining a white thin line detection operation;
FIG. 11 is a diagram for explaining a black thin line detection operation;
FIG. 12 is a diagram for explaining a black thin line detection operation;
FIG. 13 is a diagram for explaining a black thin line detection operation;
FIG. 14 is a diagram for explaining high-density area expansion processing (step SP31).
FIG. 15 is a flowchart relating to an operation of detecting a thin line extending in the horizontal direction.
16 is a diagram showing fine lines of an original image G. FIG.
FIG. 17 is a flowchart showing a detailed operation of a line break prevention process.
FIG. 18 is a diagram showing the relationship between mask data M and weighting coefficient k.
FIG. 19 is an explanatory diagram showing an outline of a line break prevention process.
FIG. 20 is a diagram illustrating a weighted average filter which is an example of a filter.
FIG. 21 is an explanatory diagram relating to a modified example of the reduced image generation operation.
FIG. 22 is a diagram for explaining a line break;
FIG. 23 is a diagram for explaining line breaks;
FIG. 24 is a diagram for explaining line breaks;
FIG. 25 is a diagram for explaining line breaks caused by USM processing;
[Explanation of symbols]
1 Image processing device
20 Fine line detector
20A Vertical direction thin line detector
20B Horizontal thin line detector
21 Reduced image generator
23bA, 23bB Black line extraction unit
23 wA, 23 wB white thin line extraction unit
50 Line break prevention processing section
G Original image
G0 reduced image
G3 difference image
LUT reference table
M mask data
k Weighting factor

Claims (10)

原画像に対して処理を施す画像処理装置であって、
前記原画像を所定方向に縮小して縮小画像を生成する縮小画像生成手段と、
前記縮小画像について、前記所定方向に直交する方向において特定濃度領域を細らせる細らせ処理を行うことにより第1処理画像を生成する細らせ処理手段と、
前記第1処理画像について、前記所定方向に直交する方向において特定濃度領域を太らせる太らせ処理を行うことにより第2処理画像を生成する太らせ処理手段と、
前記縮小画像と前記第2処理画像との差分である差分画像を生成する差分画像生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that performs processing on an original image,
Reduced image generating means for reducing the original image in a predetermined direction to generate a reduced image;
Thinning processing means for generating a first processed image by performing a thinning process for thinning a specific density region in a direction orthogonal to the predetermined direction with respect to the reduced image;
About the first processed image, a thickening processing unit that generates a second processed image by performing a thickening process of thickening a specific density region in a direction orthogonal to the predetermined direction;
Difference image generation means for generating a difference image that is a difference between the reduced image and the second processed image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記縮小画像生成手段は、前記原画像を前記所定方向に縮小するにあたって前記所定方向に沿うn画素の平均化処理を伴うことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The reduced image generating means includes an averaging process of n pixels along the predetermined direction when the original image is reduced in the predetermined direction.
請求項1に記載の画像処理装置において、
前記特定濃度領域は、高濃度領域であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the specific density area is a high density area.
請求項1に記載の画像処理装置において、
前記特定濃度領域は、低濃度領域であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the specific density area is a low density area.
請求項1に記載の画像処理装置において、
前記所定方向は、互いに異なる2つの方向であり、
前記縮小画像生成手段、前記細らせ処理手段、前記太らせ処理手段、および前記差分画像生成手段は、前記2つの方向のそれぞれに関する各処理を行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The predetermined direction is two different directions,
The reduced image generating means, the thinning processing means, the thickening processing means, and the difference image generating means perform each processing relating to each of the two directions.
請求項1ないし請求項5のいずれかに記載の画像処理装置において、
前記差分画像に対して、前記縮小画像生成手段における縮小率の逆数倍に前記所定方向に拡大する拡大処理を行うことにより、前記原画像の各画素位置における細線の有無の程度を表す細線指標を生成する拡大処理手段、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5,
A thin line index representing the degree of presence or absence of a thin line at each pixel position of the original image by performing an enlargement process for enlarging the difference image in the predetermined direction to a reciprocal of the reduction ratio in the reduced image generation unit. Expansion processing means for generating
An image processing apparatus further comprising:
請求項6に記載の画像処理装置において、
前記原画像に所定のフィルタ処理を施した結果を前記原画像に加重する際の加重係数を前記細線指標に基づいて決定する加重係数決定手段と、
前記原画像に所定のフィルタ処理を施した結果を、前記加重係数を用いて前記原画像に加重した処理画像を得るフィルタ処理手段と、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 6.
A weighting coefficient determining means for determining a weighting coefficient when weighting the original image with a result of applying a predetermined filtering process to the original image based on the fine line index;
Filter processing means for obtaining a processed image obtained by weighting the original image using the weighting coefficient, as a result of applying a predetermined filter process to the original image;
An image processing apparatus further comprising:
請求項7に記載の画像処理装置において、
前記加重係数決定手段は、あらかじめ細線指標と加重係数との対応関係を参照テーブルとして有していることを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The image processing apparatus according to claim 1, wherein the weighting coefficient determining means has a correspondence relationship between the thin line index and the weighting coefficient in advance as a reference table.
請求項7に記載の画像処理装置において、
前記拡大処理手段は、前記拡大処理を行うにあたって、前記差分画像の高濃度領域を拡張する処理をも行うことにより前記細線指標を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The enlargement processing unit generates the fine line index by performing a process of expanding a high density region of the difference image when performing the enlargement process.
コンピュータを、請求項1ないし請求項9のいずれかに記載の画像処理装置として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium storing a program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 9.
JP24075599A 1999-08-27 1999-08-27 Image processing apparatus and recording medium Expired - Fee Related JP3638231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24075599A JP3638231B2 (en) 1999-08-27 1999-08-27 Image processing apparatus and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24075599A JP3638231B2 (en) 1999-08-27 1999-08-27 Image processing apparatus and recording medium

Publications (2)

Publication Number Publication Date
JP2001069338A JP2001069338A (en) 2001-03-16
JP3638231B2 true JP3638231B2 (en) 2005-04-13

Family

ID=17064242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24075599A Expired - Fee Related JP3638231B2 (en) 1999-08-27 1999-08-27 Image processing apparatus and recording medium

Country Status (1)

Country Link
JP (1) JP3638231B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018408A (en) * 2001-07-04 2003-01-17 Nidec Copal Corp Image processor and image processing method
JP2015120279A (en) * 2013-12-24 2015-07-02 コニカミノルタ株式会社 Image processing device, image formation device, and image generation method

Also Published As

Publication number Publication date
JP2001069338A (en) 2001-03-16

Similar Documents

Publication Publication Date Title
JP4727720B2 (en) Image processing method and image processing apparatus
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
JP2001113754A (en) Apparatus and method for processing image
US6289133B1 (en) Image processing method and apparatus
JP4113232B2 (en) Image processing apparatus and image processing method
JP3638231B2 (en) Image processing apparatus and recording medium
JPH0793531A (en) Picture processor
JP2001086355A (en) Image processor and recording medium
WO2000075865A1 (en) Image processing method
JP2005293265A (en) Image processing device, and method
KR100679046B1 (en) Method and apparatus for bit resolution extension using local information of image
JP3200351B2 (en) Image processing apparatus and method
JP4055908B2 (en) Wipe pattern generator
CN101847252B (en) Image amplification method for maintaining image smoothness
JP4547752B2 (en) Image processing apparatus and method, and recording medium
JP6700873B2 (en) Image processing device, image processing method, and program
JP6326914B2 (en) Interpolation apparatus and interpolation method
JP4603799B2 (en) Digital watermark embedding device and digital watermark detection device
JP3934353B2 (en) Image processing apparatus, recording medium, and program
JP6661434B2 (en) Image processing device
JP4517288B2 (en) Image processing apparatus, image processing method, and program thereof
JP2001086368A (en) Image processor
JP4242824B2 (en) Digital image enlargement / reduction method, digital image enlargement / reduction apparatus, and digital image enlargement / reduction program
JP2008072384A (en) Contour correction circuit
JP5014514B2 (en) Image processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees