[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3767667B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3767667B2
JP3767667B2 JP23147299A JP23147299A JP3767667B2 JP 3767667 B2 JP3767667 B2 JP 3767667B2 JP 23147299 A JP23147299 A JP 23147299A JP 23147299 A JP23147299 A JP 23147299A JP 3767667 B2 JP3767667 B2 JP 3767667B2
Authority
JP
Japan
Prior art keywords
image
unit
image data
prohibited
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP23147299A
Other languages
Japanese (ja)
Other versions
JP2001057631A (en
Inventor
裕義 上條
淳一 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP23147299A priority Critical patent/JP3767667B2/en
Publication of JP2001057631A publication Critical patent/JP2001057631A/en
Application granted granted Critical
Publication of JP3767667B2 publication Critical patent/JP3767667B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データに複写をすべきでない画像が含まれている場合に、画像データに対して所定の加工を行う画像処理装置に関するものである。
【0002】
【従来の技術】
近年、高性能のカラー画像複写装置が普及してきており、画像入出力機器の高画質化に伴ってさらに原稿画像を忠実に複写することが可能となってきている。しかし、このような高画質で複写できるカラー画像複写装置を悪用し、紙幣や有価証券等の偽造事件等も発生している。そのため、カラー画像複写装置において偽造を防止することが社会的に重要になってきている。
【0003】
そこで、カラー原稿をデジタル的に読み取って複写する際に、読み取った原稿画像中の特定パターンを識別し、紙幣や有価証券などの複写が禁止されている画像(以下、禁止画像と呼ぶ)であると判定された場合には画像の再現を阻止する技術が各種提案されている。その一つとして、禁止画像が含まれた画像データを記録紙に出力する場合、記録紙に出力される画像全体に対し、所定の加工を施してオリジナルの画像とは明らかに異なる画像として出力している。例えば、出力される画像全体をシアンや黒などの色で塗りつぶし、オリジナルの画像が分からない状態で出力している。
【0004】
一方、カラー画像複写装置の高機能化に伴い、各種の画像編集が可能になってきている。例えば、入力された複数の画像データを1枚の記録紙上に集約して記録するN−up機能や、画像が形成された記録紙を折り畳むことによって小冊子が得られるように複数の画像を記録紙の両面に記録するシグニチャ機能などがある。
【0005】
このように複数の画像データを1枚の記録紙上に記録する機能を利用するとき、画像データ中に上述のような禁止画像を含むものが存在する場合、従来はその禁止画像を含む画像データだけでなく、記録紙に記録する画像全体に対して所定の加工を施していた。そのため、禁止画像を含まない画像データについては正常に出力されることが期待されているにもかかわらず、この禁止画像を含まない画像データが記録される部分についても同様の加工が施されてしまうという問題があった。
【0006】
このような問題は、複数の画像データを1枚の記録紙上に記録する機能を利用する場合に限らない。例えば1つの画像データ中に禁止画像とその他の画像が混在している場合、禁止画像については所定の加工を施す必要があるが、他の画像部分については所定の加工を施す必要はなく、忠実に再現すべきである。しかし従来は、記録紙上に記録する画像全体について所定の加工を行ってしまうため、禁止画像以外の部分についても所定の加工が施されてしまっていた。また、記録紙全体に所定の加工が施された画像が出力されることに対して、利用者側の不満もあった。
【0007】
【発明が解決しようとする課題】
本発明は、上述した事情に鑑みてなされたもので、1枚の記録紙などに記録される画像について、禁止画像が含まれている場合でも全体に対して所定の加工を施すことなく、禁止画像以外の部分の再現を可能にした画像処理装置を提供することを目的とするものである。
【0008】
【課題を解決するための手段】
本発明は、画像処理装置において、入力された画像データから所定の禁止画像を認識し、その認識結果に従って、所定の領域ごとに、禁止画像が含まれていると認識された領域に対して所定の加工を施すことを特徴とするものである。例えば所定の領域として、入力された画像データのページ単位とするとき、禁止画像を含む画像データとともに複数の画像データを1つの画像に合成しても、禁止画像を含む画像データのページ部分に対して所定の加工を施すことができる。そのため、合成された画像において、禁止画像を含む画像データのページ部分以外の部分は所定の加工が施されずに再現される。
【0009】
このように、本発明の画像処理装置では、複数の画像データで構成される画像に禁止画像が含まれている場合でも、全体に対して所定の加工を施すのではなく、禁止画像を含むページ部分にのみ所定の加工が施される。そのため、所定の加工が施されない部分については再現することが可能である。
【0010】
【発明の実施の形態】
図1は、本発明の画像処理装置の実施の一形態を含むカラー画像複写装置の一例を示す概略構成図である。図中、1は画像入力部、2は画像出力部、3は禁止画像認識部、4は画像処理部、5は画像蓄積部、6は制御部である。
【0011】
画像入力部1は、カラー画像を取得する。この例では原稿載置台、光源、CCDラインセンサなどからなる画像読取部や、画像読取部から出力される画像信号を処理するためのA/D変換器、シェーディング補正部などを有している。例えば1次元のCCDラインセンサの並び(主走査方向)と直交する方向(副走査方向)に原稿を走査することによって、原稿の画像をレッド(R)、グリーン(G)、ブルー(B)の3原色に色分解した電気信号を生成する。各色ごとの信号をA/D変換し、シェーディング補正処理などを行い、処理後の画像データを画像処理部4に出力する。もちろん、他の機器から回線やネットワーク、ケーブルなどを介して送られてきた画像を受け取る構成であってもよい。
【0012】
また画像入力部1は、出力するRGBの画像データに対して、禁止画像認識部3で用いる色空間、例えばL* * * 色空間への色変換処理を行って、禁止画像認識部3へ変換後の画像データを送る。そして、禁止画像認識部3から少なくとも禁止画像が存在するか否かを示す認識結果を取得し、その認識結果を画像蓄積部5に伝える。禁止画像認識部3から認識結果として例えば禁止画像の有無を示す情報が渡される場合には、その情報をそのまま画像蓄積部5に伝える。また、例えば禁止画像らしさを示す確率の情報が渡される場合には、所定の閾値と比較して禁止画像の有無を判断して、判断結果を画像蓄積部5に伝えるようにすればよい。もちろん、認識結果として禁止画像の有無や確からしさのほかに、例えば禁止画像の位置などの情報も渡される場合には、それらの情報についても画像蓄積部5に伝えるように構成してもよい。
【0013】
画像出力部2は、入力される画像データに従って、例えば記録紙などにカラー画像を形成する。ここでは画像処理部4から渡される画像データに従ってカラー画像を形成するが、例えば外部から与えられた画像データに従って画像を形成する機能を有していてもよい。以下の説明では、イエロー(Y)、マゼンタ(M)、シアン(G)、ブラック(K)の4色のトナーを用い、フルカラー画像の形成を行うものとする。このとき、Y→M→C→Kの順番で4回の画像形成動作により画像を形成してもよいし、各色の画像形成を並行して行ってもよい。なお、各色の画像形成を並行して行う場合、後述する画像処理部についても、それに対応する必要がある。
【0014】
禁止画像認識部3は、例えば紙幣や有価証券などの複写を行ってはならない禁止画像が、画像入力部1に入力された画像データ中に含まれているか否かを認識する。そして認識結果を画像入力部1に伝える。認識方法は任意である。また、認識結果は、例えば禁止画像が含まれているであろう確率を出力したり、あるいは禁止画像の有無を出力してもよい。さらに、禁止画像が含まれている場合にはその位置情報など、種々の情報を出力してもよい。
【0015】
画像処理部4は、画像入力部1に入力された画像データを受け取り、画像出力部2において原稿の画像が良好に再現されるような画像データを生成する。ここでは、画像入力部1からRGB色空間の画像データを受け取り、画像出力部2に対してYMCK色空間の画像データを出力する。その過程において、各種の画像処理を行う。例えば、RGB色空間からYMCK色空間への色空間変換処理を行う。もちろん、中間で他の色空間、例えばL* * * 色空間等に変換してもよい。そのほか、階調補正処理や、必要に応じて拡大縮小処理、空間フィルタリング処理なども行うことができる。さらに、画像データ中の各領域の特性を認識し、認識結果に応じて各領域ごとに処理を行うこともできる。
【0016】
画像処理部4は、このような各種の画像処理を行う過程において画像蓄積部5に画像データを格納しておくことができる。そして画像出力部2において必要となった画像データを画像蓄積部5から取り出して残りの画像処理を施し、画像出力部2に対して出力することができる。
【0017】
また画像処理部4は、禁止画像認識部3における認識結果を画像入力部1または画像蓄積部5から受け取り、禁止画像が含まれている画像データの部分に対して所定の加工を行う画像加工手段としても機能する。例えば禁止画像認識部3から画像データ単位で認識結果が出力されている場合、例えば後述する画像蓄積部5で他の画像データとの合成が行われても、禁止画像を含むと判定された画像データの部分のみに対して所定の加工を行う。また、例えば禁止画像認識部3から禁止画像を含む領域に関する情報も出力されている場合には、画像データ中の禁止画像を含む領域のみについて所定の加工を行うことができる。
【0018】
画像蓄積部5は、画像処理部4が出力する画像データを受けてページ単位に蓄積保持する。また、画像処理部4において画像データ中の各領域の特性を認識する場合、その認識結果を例えば属性情報(タグ情報)として保持することができる。さらに、画像入力部1から送られてくる、禁止画像が含まれているか否かを示す情報についても保持することができる。この禁止画像が含まれているか否かを示す情報は、例えばタグ情報の一部として保持することによって、画像データ中の各領域ごとの情報として保持することができる。例えば禁止画像認識部3から画像データ単位で認識結果が出力される場合には、画像データ全体のタグ情報として、認識結果に応じた情報を保持すればよい。また、禁止画像認識部3から禁止画像が存在する位置情報も出力される場合には、その禁止画像が存在する領域に対応するタグ情報について、禁止画像が存在する旨の情報を保持すればよい。
【0019】
さらに画像蓄積部5は、画像データの出力順序の制御や画像回転・合成処理などを行い、付加機能を提供することができる。例えば、ソーティング、両面プリントや、連続する複数の画像データを1つの画像に合成して出力するN−up機能、画像出力部2から排出された記録紙などを折ることによって小冊子が構成されるように、複数の画像データの順序を編集するとともに複数の画像データを合成するシグネチャ機能などの機能を提供することができる。これらの機能を実行する際に、画像蓄積部5がタグ情報を保持している場合には、そのタグ情報についても、もとの画像データの領域と不一致が発生しないように処理を行って出力する。
【0020】
制御部6は、画像入力部1、画像出力部2、禁止画像認識部3、画像処理部4、画像蓄積部5の制御を行う。例えば画像入力部1における画像入力動作と、禁止画像認識部3、画像処理部4、画像蓄積部5との同期を取り、画像データおよびタグ情報などを画像蓄積部5に蓄積させる。また、画像出力部1における画像形成動作と同期するように、画像蓄積部5、画像処理部4における動作を行わせる。もちろん、画像入力部1及び画像出力部2の動作を同期して行うことができるように、禁止画像認識部3や画像処理部4を動作させることもできる。また制御部6は、利用者などから行われる編集指示に従ってタグ情報を生成し、画像処理部4に対して出力する。
【0021】
上述の本発明の画像処理装置の実施の一形態を含むカラー画像複写装置の一例における動作の概要を簡単に説明する。カラー複写対象となる原稿は、画像入力部1で読み取られてR、G、Bの3原色のデジタル信号が生成される。生成されたデジタル画像信号は画像処理部4に入力されるとともに、L* * * 信号に変換されて禁止画像認識部3に入力される。
【0022】
画像処理部4では、RGB色空間からYMCK色空間への色空間の変換処理や色補正処理、階調補正、拡大縮小、空間フィルタリング、スクリーン処理など、各種の画像処理を行う。特に、画像データを画像蓄積部5に一旦格納する場合には、画像入力部1に対応する階調補正処理や、色変換処理、拡大縮小処理などの画像処理を行ってから格納する。この過程において、例えば画像データ中の各領域ごとの特性を判定する処理を行うこともでき、判定結果を含むタグ情報も画像蓄積部5に画像データと対応付けて格納する。
【0023】
一方、禁止画像認識部3では、画像入力部1から渡された画像データ中に含まれる禁止画像を認識する。この処理には時間を要するため、画像処理部4における各種の画像処理と並行して行われる。禁止画像認識部3から認識結果が画像入力部1に返されると、画像入力部1において禁止画像が画像データ中に存在しているか否かを判定する。そして、この例では画像蓄積部5に対して直接、禁止画像が画像データ中に含まれているか否かを示す判定結果を送る。画像蓄積部5では、画像入力部1から送られてきた判定結果を、対応する画像データのタグ情報の一部として格納する。例えば判定結果が画像データ単位で送られてくる場合には、画像データに対応する各領域ごとのタグ情報すべてに対して、判定結果を書き込む。また、例えば判定結果が所定の領域単位で送られてくる場合には、対応する領域のタグ情報に対して判定結果を書き込む。
【0024】
画像蓄積部5に蓄積保持された画像データ及びタグ情報は、画像蓄積部5内で所定の画像処理が行われた後、画像出力部2の画像形成動作に同期して画像処理部4へ出力される。このとき、タグ情報と画像の対応する領域とが分離しないように、タグ情報についても同様の処理を行うことがある。例えば画像の回転を行う場合には、タグ情報についても位置を回転させる必要がある。また、N−upやシグネチャ機能を利用する場合には、複数の画像データを1つに合成する。このとき、タグ情報についても画像データの位置関係と同様になるように合成される。これによって、禁止画像を含む画像データについては、その画像データの部分あるいはその画像データ中の禁止画像が存在する領域部分にのみ、禁止画像を含む旨のタグ情報が対応付けられる。
【0025】
画像処理部4では、画像出力部2に応じた各種の画像処理、例えば階調補正処理やフィルタリング処理、スクリーン処理などを行って、画像出力部2に出力する。この各画像処理においては、例えばタグ情報を用いて画像データに最適な処理を行うことができる。また、禁止画像が存在すると判定されている旨のタグ情報が付加されている場合には、その領域について所定の加工を行う。例えば階調補正処理や色補正処理などにおいて、特定色で塗りつぶしたり、あるいは白く抜くなど、オリジナルの画像データとは大きく異なるように加工する。
【0026】
このようにして画像処理部4で処理された画像データは画像出力部2に渡され、画像出力部2において例えば記録紙などにフルカラーの画像が形成される。
【0027】
以上のような動作により、カラー原稿の複写が実現される。上述のように禁止画像が存在する旨のタグ情報が付加されている画像データあるいは画像データ中の部分領域のみに対して所定の加工が施される。そのため、例えば禁止画像を含む画像データと含まない画像データが合成された場合でも、従来のように全体に所定の加工が行われることはなく、禁止画像を含まない画像データの部分については正常に画像が形成される。また、画像データ中の禁止画像を含む部分領域に禁止画像が存在する旨のタグ情報が付加される場合には、画像データの中でも禁止画像を含む領域に対して所定の加工が行われるのみであり、他の部分については正常に画像が形成される。
【0028】
なお、上述の説明では、画像入力部1から入力された画像データを、一旦、画像蓄積部5に蓄積してから画像出力部2に出力する場合を示したが、これに限らず、画像入力部1で入力された画像データを画像蓄積部5に蓄積せずに画像出力部2に出力することも可能である。この場合、禁止画像認識部3による認識結果に従って画像入力部1から送出される禁止画像の有無を示す情報をもとに、画像蓄積部5がタグ情報を生成して画像処理部4に渡せばよい。禁止画像認識部3における認識処理は時間がかかるため、画像処理部4から画像出力部2への画像データの出力が開始されることがある。しかし画像出力部2で必要とする色の画像データは、各色において時間差がある。この時間差の間に禁止画像の有無を示すタグ情報が画像処理部4に届けばよい。通常、画像出力部2ではY→M→C→Kの順で画像形成が行われるため、CあるいはKの画像データの出力までに禁止画像を含む場合には所定の加工が行えるタイミングであればよい。
【0029】
以下、図1に示した各部について、さらに詳細に説明する。図2は、画像処理部及び画像蓄積部の一例を示すブロック構成図である。図中、11は階調補正部、12は色空間変換部、13は絵/文字分離部、14は画像変倍部、15はタグ変倍部、16は原稿検知部、17は色空間変換部、18は空間補正部、19は階調補正部、20は中間調生成部、21はタグ信号生成部、31は符号化部、32は復号化部、33はデータ蓄積部、34はバッファメモリ、35はバスである。なお、図中の実線は画像信号を、破線はタグ情報を示している。
【0030】
階調補正部11は、画像入力部1から入力されるRGBの3原色の信号に対し、画像入力部1の階調特性を補正する。色空間変換部12は、階調補正部11で階調補正処理を施されたRGB信号からL* * * 信号を生成する。このL* * * 信号は内部における画像処理とともに、原稿検知部16,絵/文字分離部13にも入力される。
【0031】
絵/文字分離部13は、各画素が絵柄を構成する画素であるのか、あるいは文字を構成する画素であるのかを識別し、その識別結果を示す信号(以下、分離タグと呼ぶ)を出力する。この絵/文字分離部13は、抽出手段に対応するものである。また、識別結果を示す分離タグは、属性情報の一つである画素情報に対応するものである。
【0032】
画像変倍部14は、色空間変換部12から出力されるL* * * 信号を受けて、主走査方向に対して1次元の拡大、縮小を行う。この画像変倍部14における主走査方向の拡大、縮小と、画像入力部1における副走査方向の走査速度制御と合わせて、原稿画像の2次元の拡大、縮小が実現される。画像変倍部14における拡大、縮小は、例えば公知の線形補間演算などを用いることができる。なお、ここでは画像変倍部14における変倍処理を示したが、画像の変倍処理以外の処理を行ってもよい。
【0033】
タグ変倍部15は、画像変倍部14にて行われる画像の拡大、縮小処理と同じ変倍率で、タグ情報に対して主走査方向の拡大、縮小処理を行う。拡大、縮小方法としては、例えば公知の単純変倍手法(零次ホールド法)などを用いて実現することができる。ここで、図2に示すエリアタグは、操作者が図示しないユーザインタフェースや編集用デジタイザを使用して原稿及び複写作業に対して行った設定を示すタグ情報である。後述するように、禁止画像認識部3における認識結果に従って画像入力部1から画像蓄積部5に渡される禁止画像の有無を示す情報も、このエリアタグとして含めることができる。
【0034】
図3は、エリアタグの一例の説明図である。ここでは図3に示すように、2ビットの“カラーモード”、2ビットの“原稿タイプ”、4ビットの“マルチプライヤ”で構成されている。カラーモードとしては4色(YMCK)を使用した画像形成、3色(YMC)を使用した画像形成、あるいは白黒画像の形成を指定することができる。また原稿タイプとしては、文字/写真混在原稿、文字原稿、写真原稿、地図原稿などを指定することができる。マルチプライヤは、例えば階調補正部19において各色に対して施す変換のためのテーブルを選択する番号を示している。マルチプライヤが0のときは図3の右下にグラフで示すように変換を行わないことを示す。また、マルチプライヤが所定の値のとき、禁止画像に対する所定の加工が行われるように設定することができる。図3では、マルチプライヤが‘1111’のとき、図3の左下に示すようにどのような入力値に対しても所定の値を出力する例を示している。これにより塗りつぶしや白抜きなどを実現することができる。
【0035】
タグ変倍部15は、絵/文字分離部13から出力される分離タグとともに、このエリアタグに対しても、画像変倍部14と同じ変倍率で拡大、縮小処理を行うことにより、画像データとの対応を図っている。もちろん、画像データに対して他の変換処理を施して各画素の位置が変化する場合には、同様の変換処理をタグ情報に対しても行っておくとよい。
【0036】
このような各種の画像処理がL* * * 信号に対して施された後、色空間変換部17はL* * * 信号をYMCK信号に変換する。このとき、絵/文字分離部13において生成された分離タグに従って色空間変換処理を行うこともできる。YMCK信号は、そのまま空間補正部18に入力されるか、あるいは、画像蓄積部5に一旦蓄積される。また、タグ変倍部15等によって画像データと同様に変換処理などが施されたタグ情報も、そのままタグ信号生成部21に入力されるか、あるいは画像蓄積部5に一旦蓄積される。
【0037】
一方、原稿検知部16は、原稿の大きさや位置を検知したり、白黒原稿かカラー原稿かを判定するなど、コピー動作に必要とされる情報を原稿画像から抽出する。例えば、原稿読み込み走査に先立って行われる予備走査時にそれらの情報を抽出し、制御部6へ必要な情報を送出することができる。制御部6は操作者が図示しない操作部より入力するコピー条件と、原稿検知部16により原稿画像から抽出した情報に基づいて、倍率設定や白黒/カラー判別、用紙選択、トレイ選択などの自動機能を実現する。
【0038】
空間補正部18は、タグ信号生成部21から出力されるタグ信号に従い、各色ごとの画像データに対して空間フィルタリング処理を行う。例えば畳み込み演算などによって各種の画像効果を得ることができる。
【0039】
階調補正部19は、各色ごとの画像データに対して階調補正処理を行う。例えば、1次元のテーブルを参照する公知のLUT(ルックアップテーブル)で実現することができる。LUTは複数登録しておくことができ、タグ信号生成部21から出力されるタグ信号に従ってLUTを選択し、画像データに対して適用することができる。例えば図3に示したエリアタグのうち、マルチプライヤのフィールドの値によってLUTを選択することができる。通常は、原稿タイプやカラーなどによりタグ情報が生成されるので、これらの画質に応じた階調補正処理を行うことができる。また、例えばどのような画像データが入力されても最小値や最大値を出力するようなLUTを用いることによって、禁止画像に対して所定の色による塗りつぶしや白抜きなどを実現することが可能である。
【0040】
中間調生成部20は、タグ信号生成部21から出力されるタグ信号に従い、多値のYMCK信号から、画像出力部2のLD(レーザーダイオード)をON/OFF制御する2値信号を生成するものである。例えばYMCK信号の値をパルス幅などに変換する機構を有していればよい。
【0041】
なお、この例では画像蓄積部5から画像データを読み出した後の画像処理として、空間補正部18による空間フィルタリング処理、階調補正部19による階調補正処理、および中間調生成部20による中間調処理を行う例を示したが、これ以外の各種の画像処理を行うように構成してもよい。
【0042】
タグ信号生成部21は、蓄積部5から読み出されたタグ情報、すなわちエリアタグ及び分離タグから、空間補正部18、階調補正部19、及び中間調生成部20での処理に必要とされる画素単位の各種のタグ信号を生成する。このタグ信号生成部21は、例えば、予め定められたタグ信号生成論理をテーブル参照することにより実現することができる。
【0043】
画像蓄積部5は、符号化部31,復号化部32,データ蓄積部33,バッファメモリ34等を有し、これらがバスで接続されている。画像蓄積部5は、画像処理部4の前半部分の処理が施された画像データ(YMCK信号)、およびエリアタグ、分離タグなどのタグ情報を蓄積保持し、画像出力部2で画像を形成する際にこれらの情報が読み出される。また、図示しない操作部より指定される、例えばスタック、丁合などのソート機能や、例えば回転、N−up、シグネチャ、両面印字などのページ編集機能も、この画像蓄積部5によって実現される。さらに、画像入力部1から送られてくる、禁止画像の有無を示す情報を受け取り、例えば画像データに対応付けて保持する。画像データが読み出された際には、この禁止画像の有無を示す情報に従ってタグ情報を生成して付加あるいは書き換えを行う。また、この禁止画像の有無を示す情報を受け取ったときに、タグ情報に対する付加あるいは書き換え処理を行ってもよい。
【0044】
画像蓄積部5に入力されてくるYMCK信号は、符号化部31へ入力される。符号化部31では、例えばJPEGなどに代表される所定の画像圧縮方式で画像データ単位に、また各画像データにおいてY、M、C、Kの面単位に画像信号を符号化し、バス35を経由してデータ蓄積部33へ出力する。同様に入力されるタグ情報についても、符号化部31で例えばランレングス符号化などの公知の可逆圧縮方式で符号化されて、バス35を経由してデータ蓄積部33に保存される。
【0045】
データ蓄積部33は、符号化部31で符号化された画像データやタグ情報を画像データ(ページ)単位に記憶する。このデータ蓄積部33は、符号化された画像データ及びタグ情報を複数記憶することが可能な大容量の記憶装置、例えばハードディスク装置などにより実現することができる。
【0046】
復号化部32は、データ蓄積部33に蓄積されている画像データを読み出し、画像出力部2の印字動作に同期して所定の伸長方式によりYMCK信号を復号し、画像処理部4へ出力する。同様に復号化部32は、データ蓄積部33に蓄積されているタグ情報を読み出し、画像出力部2の印字動作に同期して所定の伸長方式により復号し、画像処理部4へ出力する。
【0047】
バッファメモリ34は、回転処理やN−up合成、シグネチャなどのページ編集を行う際に使用される編集手段である。
【0048】
以下、画像蓄積部5を用いてページ編集を行う際に、禁止画像が含まれている場合の処理について説明を行う。まずN−up合成処理の基本的な処理を説明する。図4は、N−up機能の一例の説明図である。図中のFS方向及びSS方向とは、主走査方向及び副走査方向をそれぞれ示している。上述のようにN−up機能は、複数の画像データを1つの画像に合成する処理である。図4(A)は画像データを示し、ここでは4つの画像「A」、「B」、「¥」(禁止画像)、「D」を含む画像データを示している。また、図4(B)、(C)は2up編集、図4(D)は4up編集をそれぞれ示している。このN−up処理は、バッファメモリ34を用いて実現することができる。
【0049】
図4(B)に示すような2up編集の場合には、まず1つ目及び2つ目(「A」及び「B」)の画像データが画像入力部1から入力され、画像処理部4で所定の処理が施された後に画像蓄積部5に入力される。そして、それぞれの符号化された画像データ及びタグ情報が画像蓄積部5内のデータ蓄積部33へ蓄積される。次に1つ目の画像データ(「A」)及びタグ情報が読み出され、復号化部32で復号化した後、図4(B)に示すような配置となるようにバッファメモリ34内の所定のアドレスに格納する。続いて2つ目の画像データ(「B」)も同様の処理を経て、1つ目の画像データ(「A」)と並んで配置されるようにバッファメモリ34内の所定のアドレスに格納される。以上の様にバッファメモリ34内に保持された1つ目及び2つ目の画像データ(「A」及び「B」)及びタグ情報は、画像出力部2での画像形成動作に同期して1つの画像及びタグ情報のセットとして読み出され、画像処理部4へ送出される。そして画像処理部4で各種の画像処理が施された後、画像出力部2で「A」と「B」が並んだ1つの画像として形成される。
【0050】
3つ目及び4つ目の画像データ(「¥」及び「D」)に対しても同様の処理が行われる。しかし3つ目の画像データは禁止画像である。3つ目の画像データが画像入力部1に入力されると、この画像データが禁止画像を含むことが禁止画像認識部3で認識される。この禁止画像認識部3での認識結果を画像入力部1が判定して、禁止画像が存在することを示す情報が画像蓄積部5に伝えられる。そして、符号化された3つ目の画像データ(「¥」)とともに、タグ情報及び禁止画像が存在することを示す情報が画像蓄積部5に蓄積される。このとき、禁止画像が存在することを示す情報により、タグ情報を書き換えてから、書き換え後のタグ情報を蓄積してもよい。4つ目の画像データ(「D」)は、上述の1つ目、2つ目の画像データと同様にして、対応するタグ情報とともに画像蓄積部5に蓄積される。
【0051】
次に3つ目の画像データ(「¥」)及びタグ情報が読み出され、復号化部32で復号化した後、図4(C)に示すような配置となるようにバッファメモリ34内の所定のアドレスに格納する。このとき、禁止画像が存在することを示す情報に従って、タグ情報中の斜線で示した領域には、禁止画像に対応する所定の加工が施されるように、タグ情報が書き換えられる。例えば図3に示したようなエリアタグ中のマルチプライヤの値を書き換える。もちろん、他のタグ情報で対応してもよい。
【0052】
続いて4つ目の画像データ(「D」)については、上述の2つ目の画像データの場合と同様の処理により、3つ目の画像データ(「¥」)と並んで配置されるようにバッファメモリ34内の所定のアドレスに格納される。この場合、4つ目の画像データは禁止画像を含んでいないので、4つ目の画像データが配置された領域に対応するタグ情報には、禁止画像に対応する所定の加工が施されるようなタグ情報の書き換えは行わない。
【0053】
このようにしてバッファメモリ34内に保持された3つ目及び4つ目の画像データ(「¥」及び「D」)及びタグ情報は、画像出力部2での画像形成動作に同期して1つの画像及びタグ情報のセットとして読み出され、画像処理部4へ送出される。そして画像処理部4で各種の画像処理が施される。このとき、3つ目の画像データに対応する領域には、禁止画像に対する所定の加工を行う旨を示すタグ情報が付加されているので、所定の加工、例えば所定の色で塗りつぶしたり、あるいは白く抜く等の加工を施す。このような所定の加工を3つ目の画像に対応する領域のみに施した後、画像出力部2で画像を形成する。これによって、3つ目の画像データ(「¥」)が配置された部分は、例えば所定の色により塗りつぶされ、あるいは白く抜け、4つ目の画像データ(「D」)は正常に形成される。このようにして、禁止画像を含む部分領域にのみ所定の加工が施され、禁止画像を含んでいない画像データについては、正常に画像を形成することができる。
【0054】
図4(D)に示すように4up編集の場合にも、上述の2up編集と同様に実現できる。まず1〜4枚目全ての原稿(「A」、「B」、「¥」、「D」)が読み込まれ、それぞれの符号化された画像データ及びタグ情報、および禁止画像の有無を示す情報が画像蓄積部5のデータ蓄積部33へ蓄積される。次に1つ目の画像データ(「A」)及びタグ情報が読み出され、復号化部32で復号化された後、図4(D)に示すような方向及び配置となるように、バッファメモリ34内の所定のアドレスに格納される。2つ目及び4つ目の画像データ(「B」、「D」)も同様の処理を経て、1つ目の画像データ(「A」)と同様に所定の位置に所定の向きで配置されるように、バッファメモリ34内に格納される。3つ目の画像データ(「¥」)についても、画像データは図4(D)に示すような方向及び配置となるようにバッファメモリ34内の所定のアドレスに格納される。しかしタグ情報については、禁止画像が存在することを示す情報が画像入力部1から送られてきているので、3つ目の画像データに対応する領域(図4(D)中のタグ情報の斜線領域)のタグ情報は、所定の加工を行うように書き換えられる。
【0055】
以上のようにしてバッファメモリ34内に合成された4つの画像データ(「A」、「B」、「¥」、「D」)とタグ情報は、画像出力部2での画像形成動作に同期して1つの画像及びタグ情報のセットとして読み出され、画像処理部4へ送出される。画像処理部4では、タグ情報に従って1つに合成された画像データを処理し、3つ目の画像データが配置された領域には所定の加工が施され、例えば所定色での塗りつぶしを行ったり、あるいは白抜きの処理を行う。
【0056】
そして、画像出力部2で画像が形成される。形成された4up処理による画像は、3つ目の画像データ(「¥」)の配置されるべき部分のみが所定の色で塗りつぶされたり、あるいは白く抜けるなど、所定の加工が施された画像として形成される。このようにして、禁止画像を含む部分領域にのみ所定の加工が施され、禁止画像を含んでいない画像データについては、正常に画像を形成することができる。
【0057】
図5は、小冊子などを作成する際に有効な編集機能の一例の説明図である。例えば図5に示すように、複数ページからなる小冊子などを作成する編集機能を実現する場合にも、禁止画像が混在する場合に禁止画像を含む部分領域のみに対して所定の加工を行うことができる。図5(A)は8つの画像データ(画像データの入力は「A」、「B」、「C」、「D」、「E」、「F」、「¥」(禁止画像)、「J」の順に行われる)である。図5(B)、(C)、(D)は、各綴じ方向によって行われるページ編集の出力結果を示している。また、図5(B)、(C)、(D)においてハッチングを施したページは裏面ページであることを示し、黒丸(‘●’)の点列は、製本時に例えばステープラーや糊付けなどにより綴じるための綴じ代部分を表している。なお、両面印刷は、画像出力部2において、表面の画像形成後に用紙を反転し、裏面の画像形成を行う。用紙反転の際には、図5において各表面の右上と裏面の右下の折れのあるコーナーが一致するように反転が行われるものとする。
【0058】
図5(B)は、2ページの画像データを順番に並べる2upコピーモードで、且つ両面印刷が指定された時の各画像データの配置を示し、画像データの1つ目及び2つ目(「A」及び「B」)で構成される1ページ目の上端が綴じ代に設定されている。この場合には、画像蓄積部5は前述の2upと同様の処理を行うことにより、所望の出力を得ることができる。
【0059】
まず、1つ目から8つ目までの全ての画像データ(「A」、「B」、「C」、「D」、「E」、「F」、「¥」、「J」)が画像入力部1に入力されると、それぞれ禁止画像認識部3で禁止画像の有無が認識されるとともに、画像処理部4において各種の処理が行われ、タグ情報とともに画像蓄積部5へ出力される。また、禁止画像認識部3における認識結果に従い、禁止画像の有無を示す情報が画像入力部1から画像蓄積部5へ通知されて蓄積される。
【0060】
画像蓄積部5では、入力されてくる画像データ及びタグ情報を符号化部31でそれぞれ所定の圧縮方式で符号化した後、データ蓄積部33に記憶保持する。次に、1つ目の画像データ(「A」)及びタグ情報が読み出され、復号化部32で復号化した後、図5(B)に示すような配置となるように、バッファメモリ34内の所定のアドレスに格納する。続いて2つ目の画像データ(「B」)も同様の処理を経て、1つ目の画像データ(「A」)と並んで配置されるようにバッファメモリ34内の所定のアドレスに格納する。以上のようにバッファメモリ34内に保持された1つ目及び2つ目の画像データ(「A」及び「B」)とタグ情報は、1つの画像データ及びタグ情報として符号化部31で再び符号化され、データ蓄積部33に格納される。以下同様の処理を3つ目及び4つ目の画像データ(「C」、「D」)、5つ目及び6つ目の画像データ(「E」、「F」)に対して行い、データ蓄積部33中に画像形成用の画像データとタグ情報として保持する。
【0061】
7つ目及び8つ目の画像データ(「¥」、「J」)については、7つ目の画像データ中に禁止画像が含まれていることが禁止画像認識部3で認識され、禁止画像が存在することを示す情報が画像入力部1から画像蓄積部5に通知されている。そのため、2upと同様の処理を行う際に、7つ目の画像データが配置される領域に対応するタグ情報を、その領域に所定の加工が行われるように書き換える。そして、合成された画像形成用の画像データとタグ情報をデータ蓄積部33に格納する。
【0062】
全てのページ配置処理、符号化処理及びデータ蓄積部33への蓄積処理が完了した後、画像出力部2での画像形成動作に同期して、画像データ「A」及び画像データ「B」の画像から構成される1ページ目の画像データ及びタグ情報が読み出され、復号化部32で復号処理が行われた後、画像処理部4へ送出される。そして各種の画像処理を行った後、画像出力部2において画像が形成される。
【0063】
画像データ「A」及び画像データ「B」の画像が形成された後、用紙が反転され、画像データ「C」及び画像データ「D」の画像から構成される2ページ目について同様に画像が形成されて用紙が排出される。
【0064】
1ページ目と同様に、画像データ「E」及び画像データ「F」の画像から構成される3ページ目が画像形成された後、用紙が反転される。そして画像データ「¥」及び画像データ「J」の画像から構成される4ページ目が読み出され、画像処理部4へ送出される。このとき、画像データ「¥」は禁止画像を含んでおり、画像データ「¥」の領域に対応するタグ情報は所定の加工を行う旨の情報が付加されている。そのため、画像処理部4は、タグ情報に従って、画像データ「¥」の部分領域に対して所定の加工を施して画像出力部2に送る。これにより、画像データ「¥」が配置された領域は例えば所定の色で塗りつぶされたり、白く抜けるなど、所定の加工が施された画像として形成される。しかし、画像データ「J」の領域については、禁止画像が含まれていないので、正常に画像が形成される。
【0065】
このようにして、図5(B)に示すようなページ編集が可能となる。この場合でも、禁止画像が含まれている画像データの領域については所定の加工が施され、また禁止画像が含まれていない画像データの領域については正常に画像形成される。
【0066】
図5(C)は、図5(B)と同じく2upコピーモードでの両面印刷であるが、綴じ代が画像データの1つ目及び2つ目(「A」及び「B」)で構成される1ページ目の左端に設定されている。このため、小冊子となった時の天地・左右が正常となるように、裏面印刷用の2up編集時に図5(C)に示すように(表面印刷用の2up編集時と比較して)2つの画像データの左右関係を逆に設定し、且つ両方のページの天地が反転するように180度の回転処理を施せばよい。それ以外の処理は、上述の図5(B)の場合と同様である。
【0067】
この例の場合も、7つ目の画像データ(「¥」)について8つ目の画像データ(「J」)との2up処理を行う際に、7つ目の画像データ(「¥」)が存在する領域に対応するタグ情報を、禁止画像に対する所定の加工が行われるように書き換える。そして画像形成時に画像処理部4において、タグ情報に従って7つ目の画像データ(「¥」)が存在する領域に対して所定の加工を行うことになる。しかし、合成される8つ目の画像データ(「J」)については禁止画像に対する所定の加工は行われず、正常に画像が形成される。
【0068】
図5(D)は、出力画像の中央を綴じる製本の場合を示している。このようなページ編集は「シグネチャ編集」と呼ばれるものであり、画像データを読み込む順番と印字する順番が全く一致しないという点で、上述の図5(B)、(C)に示したページ編集と大きく異なる。シグネチャ編集においても合成する画像データが異なるだけで、2up処理及び回転処理を組み合わせることにより実現できる。この例では、8つ目の画像データ(「J」)と1つ目の画像データ(「A」)を合成処理して1つの画像データ及びタグ情報とし、また7つ目の画像データ(「¥」)と2つ目の画像データ(「B」)はそれぞれ180度回転させて合成して1つの画像データ及びタグ情報とする。このとき、7つ目の画像データ(「¥」)については禁止画像が存在することを示す情報が付加されているので、7つ目の画像データ(「¥」)に対応する領域のタグ情報を、所定の加工を行うように書き換えておく。
【0069】
また、6つ目の画像データ(「F」)と3つ目の画像データ(「C」)についても2up処理により合成し、また5つ目の画像データ(「E」)と4つ目の画像データ(「D」)についてもそれぞれ180度回転して合成処理し、画像形成用の画像データ及びタグ情報をデータ蓄積部33に格納する。
【0070】
そして、8つ目の画像データ(「J」)と1つ目の画像データ(「A」)が合成された画像データ及びタグ情報が読み出され、画像処理部4で各種の処理が施された後、画像出力部2で画像形成される。用紙反転後、7つ目の画像データ(「¥」)と2つ目の画像データ(「B」)が合成された画像データ及びタグ情報が読み出され、画像処理部4で各種の処理が施される。このとき、7つ目の画像データ(「¥」)に対応した領域のタグ情報が、所定の加工を行うように指示しているので、画像処理部は7つ目の画像データ(「¥」)に対応した領域に対して所定の加工を施し、画像出力部2に渡す。画像出力部2で画像形成された画像は、7つ目の画像データ(「¥」)に対応する部分に所定の加工が施され、禁止画像を含まない2つ目の画像データに対応する部分は正常に形成される。両面の画像形成後、用紙が排出される。
【0071】
さらに、6つ目の画像データ(「F」)と3つ目の画像データ(「C」)が合成された画像データ及びタグ情報が読み出され、画像処理部4で各種の処理が施された後、画像出力部2で画像形成される。用紙反転後、5つ目の画像データ(「E」)と4つ目の画像データ(「D」)が合成された画像データ及びタグ情報が読み出され、画像処理部4で各種の処理が施された後、画像出力部2で画像形成される。
【0072】
このようにして画像処理部4から排出された用紙を重ねて中央で折ることによって小冊子状の記録物が出来上がる。このとき、禁止画像を含んでいた7つ目の画像データに対応するページは所定の加工が施されており、例えば所定の色で塗りつぶされていたり、あるいは白く抜けている。しかし並べて画像形成された2ページ目は正常に画像が形成されており、小冊子において禁止画像を含むページ以外は正常な画像を形成することができる。
【0073】
図6は、本発明の画像処理装置の別の実施の一形態を含むカラー画像複写装置の一例を示す概略構成図である。図中の符号は図1と同様である。この例では、禁止画像認識部3は画像処理部4における画像処理の過程において呼び出され、画像データ中の禁止画像を認識する。そして、認識結果として各画素ごとに禁止画像であるか否かを示す情報を画像処理部4に出力する。画像処理部4では、画像データに付加するタグ情報の一種として、禁止画像認識部3から出力される禁止画像であるか否かを示す情報を扱い、処理を行う。
【0074】
このような構成では、画像データ中に禁止画像が存在するとき、その画像データ中の1ないし複数の画素単位で、禁止画像に対する所定の加工を施すことが可能になる。
【0075】
図7は、画像処理部及び画像蓄積部の一例を示すブロック構成図である。図中、図2と同様の部分には同じ符号を付して説明を省略する。22はタグ情報書き換え部である。この例では、図6に示す構成の一実現例として、絵/文字分離部13及び原稿検知部16へ入力する画像データを禁止画像認識部3にも入力し、禁止画像の認識を行わせている。もちろん、禁止画像認識部3へ渡す画像データとして、禁止画像認識用の画像処理を施した画像データを渡してもよい。
【0076】
この例では、禁止画像認識部3から出力される禁止画像か否かを示す情報に従い、タグ情報書き換え部22においてエリアタグを書き換える例を示している。例えばエリアタグの構成が図3に示すようなものであるとき、禁止画像認識部3から禁止画像の画素である旨の情報が出力された場合には禁止画像に対する所定の加工が行われるように、マルチプライヤのフィールドを書き換えることができる。もちろん、禁止画像であるか否かを示す情報を別途付加するなど、禁止画像であるか否かを示す情報の扱いは任意である。
【0077】
このように禁止画像認識部3から画素ごとに出力される禁止画像であるか否かの情報を、タグ情報の一部としておくことにより、例えばこの例では画像データに対して変倍処理が施された場合でも、同様にタグ情報にも同様の変倍処理を施すことによって、画像データとタグ情報の位置の対応が保持される。そのため、禁止画像の位置も、画像データとの対応が保持されることになる。
【0078】
例えば禁止画像が画像データ中に存在する場合、その禁止画像を構成する画素の領域について、禁止画像であることを示す情報が禁止画像認識部3から出力され、タグ情報に含められる。その後、画像データに対する変倍処理や回転処理などの変換処理が行われる場合でも、画像データとタグ情報の位置関係を保持するように、タグ情報に対しても同様の変換処理を施しておけば、画像データとタグ情報との位置的な対応付けは崩れない。
【0079】
そしてタグ情報に従って画像処理を行うことによって、画像データ中の禁止画像が存在する領域あるいはその領域を含む部分領域のみに、禁止画像に対する所定の加工が施されることになる。
【0080】
図8は、1つの画像データ中で部分領域のみに所定の加工を施す場合の一例の説明図である。図8(A)に示すような画像データが画像入力部1で入力されたとする。この画像データの上部に「¥」と示した矩形領域に禁止画像が含まれている。このような画像データが画像入力部1から画像処理部4に渡されると、例えば図7に示す例では色空間変換部12による色空間変換後の画像データが禁止画像認識部3に入力され、禁止画像の認識処理が行われる。そして1ないし複数画素ごとに、禁止画像であるか否かを示す情報が画像処理部4に返される。例えば図8(A)に示す画像データでは、図8(B)にハッチングを施した領域に禁止画像が存在すると認識され、この領域について禁止画像であることを示す情報が禁止画像認識部3から出力され、画像処理部4に渡される。
【0081】
禁止画像であるか否かを示す情報は、画像処理部4のタグ情報書き換え部22においてタグ情報の一部として含められ、以後、タグ情報と同様に処理される。例えば画像処理部4の階調補正部19などにおいて、タグ情報に従って例えば図8(B)にハッチングを施した領域については、禁止画像に対する所定の加工が行われる。そして、図8(C)に示すような画像が画像出力部2において形成される。このようにして形成された画像は、禁止画像の領域以外は正常に画像が形成されており、従来のように禁止画像以外の領域まで所定の加工が施されることはない。
【0082】
【発明の効果】
以上の説明から明らかなように、本発明によれば、禁止画像の領域へは所定の加工を施して禁止画像の出力を阻止することができるとともに、禁止画像を含まない画像データあるいは禁止画像でない画像領域については正常に出力させることができるという効果がある。
【図面の簡単な説明】
【図1】 本発明の画像処理装置の実施の一形態を含むカラー画像複写装置の一例を示す概略構成図である。
【図2】 画像処理部及び画像蓄積部の一例を示すブロック構成図である。
【図3】 エリアタグの一例の説明図である。
【図4】 N−up機能の一例の説明図である。
【図5】 小冊子などを作成する際に有効な編集機能の一例の説明図である。
【図6】 本発明の画像処理装置の別の実施の一形態を含むカラー画像複写装置の一例を示す概略構成図である。
【図7】 画像処理部及び画像蓄積部の一例を示すブロック構成図である。
【図8】 1つの画像データ中で部分領域のみに所定の加工を施す場合の一例の説明図である。
【符号の説明】
1…画像入力部、2…画像出力部、3…禁止画像認識部、4…画像処理部、5…画像蓄積部、6…制御部、11…階調補正部、12…色空間変換部、13…絵/文字分離部、14…画像変倍部、15…タグ変倍部、16…原稿検知部、17…色空間変換部、18…空間補正部、19…階調補正部、20…中間調生成部、21…タグ信号生成部、22…タグ情報書き換え部、31…符号化部、32…復号化部、33…データ蓄積部、34…バッファメモリ、35…バス。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that performs predetermined processing on image data when the image data includes an image that should not be copied.
[0002]
[Prior art]
In recent years, high-performance color image copying apparatuses have become widespread, and it has become possible to copy original images more faithfully with the increase in image quality of image input / output devices. However, such a color image copying apparatus capable of copying with high image quality has been abused, and forgery cases such as banknotes and securities have occurred. Therefore, it has become socially important to prevent forgery in color image copying apparatuses.
[0003]
Thus, when a color original is digitally read and copied, a specific pattern in the read original image is identified, and copying of banknotes, securities, etc. is prohibited (hereinafter referred to as a prohibited image). Various techniques have been proposed for preventing image reproduction when it is determined that. For example, when outputting image data containing prohibited images to recording paper, the entire image output to the recording paper is subjected to predetermined processing and output as an image that is clearly different from the original image. ing. For example, the entire image to be output is painted with a color such as cyan or black, and the original image is not understood.
[0004]
On the other hand, various types of image editing have become possible as the color image copying apparatus becomes more sophisticated. For example, an N-up function that collects and records a plurality of input image data on a single recording sheet, or a plurality of images that can be obtained as a booklet by folding a recording sheet on which an image is formed. Signature function to record on both sides.
[0005]
When using a function for recording a plurality of image data on a single recording sheet in this way, if there is an image data that includes the prohibited image as described above, conventionally only the image data including the prohibited image is included. Instead, the entire image to be recorded on the recording paper is subjected to predetermined processing. Therefore, although it is expected that the image data not including the prohibited image is normally output, the same processing is applied to the portion where the image data not including the prohibited image is recorded. There was a problem.
[0006]
Such a problem is not limited to the case of using a function of recording a plurality of image data on one recording sheet. For example, when a prohibited image and other images are mixed in one image data, it is necessary to perform predetermined processing on the prohibited image, but it is not necessary to perform predetermined processing on the other image portions. Should be reproduced. Conventionally, however, predetermined processing is performed on the entire image to be recorded on the recording paper, so that the predetermined processing is also performed on portions other than the prohibited image. In addition, there has been dissatisfaction on the user side for the output of an image that has been subjected to predetermined processing on the entire recording paper.
[0007]
[Problems to be solved by the invention]
The present invention has been made in view of the above-described circumstances, and an image recorded on one sheet of recording paper or the like is prohibited without performing predetermined processing on the whole even when the prohibited image is included. It is an object of the present invention to provide an image processing apparatus that can reproduce a portion other than an image.
[0008]
[Means for Solving the Problems]
According to the present invention, a predetermined prohibited image is recognized from input image data in an image processing apparatus, and a predetermined area is recognized for each area recognized as including a prohibited image according to the recognition result. It is characterized by performing the following processing. For example, when a predetermined area is a page unit of input image data, even if a plurality of image data including image data including prohibited images is combined into one image, a page portion of image data including prohibited images is combined. Predetermined processing. Therefore, in the synthesized image, the portion other than the page portion of the image data including the prohibited image is reproduced without being subjected to predetermined processing.
[0009]
As described above, in the image processing apparatus of the present invention, even when a prohibited image is included in an image composed of a plurality of image data, a page including the prohibited image is not applied to the entire image. Predetermined processing is performed only on the portion. Therefore, it is possible to reproduce a portion that is not subjected to predetermined processing.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a schematic configuration diagram showing an example of a color image copying apparatus including an embodiment of an image processing apparatus of the present invention. In the figure, 1 is an image input unit, 2 is an image output unit, 3 is a prohibited image recognition unit, 4 is an image processing unit, 5 is an image storage unit, and 6 is a control unit.
[0011]
The image input unit 1 acquires a color image. In this example, an image reading unit including a document table, a light source, a CCD line sensor, an A / D converter for processing an image signal output from the image reading unit, a shading correction unit, and the like are provided. For example, the original image is scanned in red (R), green (G), and blue (B) by scanning the original in a direction (sub-scanning direction) perpendicular to the arrangement of the one-dimensional CCD line sensors (main scanning direction). An electric signal separated into three primary colors is generated. A signal for each color is A / D converted, shading correction processing, and the like are performed, and the processed image data is output to the image processing unit 4. Of course, it may be configured to receive an image sent from another device via a line, a network, a cable, or the like.
[0012]
In addition, the image input unit 1 applies the color space used by the prohibited image recognition unit 3 to the output RGB image data, for example, L * a * b * Color conversion processing to the color space is performed, and the converted image data is sent to the prohibited image recognition unit 3. Then, a recognition result indicating whether or not at least a prohibited image exists is acquired from the prohibited image recognition unit 3, and the recognition result is transmitted to the image storage unit 5. When, for example, information indicating the presence or absence of a prohibited image is passed from the prohibited image recognition unit 3 as a recognition result, the information is transmitted to the image storage unit 5 as it is. For example, when probability information indicating the likelihood of a prohibited image is passed, the presence or absence of a prohibited image is determined by comparison with a predetermined threshold value, and the determination result is transmitted to the image storage unit 5. Of course, in addition to the presence / absence of the prohibited image and the certainty as the recognition result, for example, when information such as the position of the prohibited image is also passed, such information may be transmitted to the image storage unit 5.
[0013]
The image output unit 2 forms a color image on, for example, a recording sheet according to the input image data. Here, the color image is formed according to the image data delivered from the image processing unit 4, but may have a function of forming an image according to the image data given from the outside, for example. In the following description, it is assumed that full-color images are formed using toners of four colors of yellow (Y), magenta (M), cyan (G), and black (K). At this time, an image may be formed by four image forming operations in the order of Y → M → C → K, or image formation of each color may be performed in parallel. In addition, when image formation of each color is performed in parallel, it is necessary to cope with an image processing unit described later.
[0014]
The prohibited image recognition unit 3 recognizes whether or not prohibited images that should not be copied such as banknotes and securities are included in the image data input to the image input unit 1. Then, the recognition result is transmitted to the image input unit 1. The recognition method is arbitrary. As the recognition result, for example, the probability that a prohibited image will be included may be output, or the presence or absence of a prohibited image may be output. Further, when a prohibited image is included, various information such as position information may be output.
[0015]
The image processing unit 4 receives the image data input to the image input unit 1, and generates image data so that the image of the document is reproduced well in the image output unit 2. Here, image data in the RGB color space is received from the image input unit 1, and image data in the YMCK color space is output to the image output unit 2. In the process, various image processes are performed. For example, color space conversion processing from the RGB color space to the YMCK color space is performed. Of course, other color spaces in the middle, for example L * a * b * You may convert into color space etc. In addition, gradation correction processing, enlargement / reduction processing, spatial filtering processing, and the like can be performed as necessary. Furthermore, the characteristics of each region in the image data can be recognized, and processing can be performed for each region according to the recognition result.
[0016]
The image processing unit 4 can store image data in the image storage unit 5 in the process of performing various types of image processing. Then, the image data required in the image output unit 2 can be extracted from the image storage unit 5, subjected to the remaining image processing, and output to the image output unit 2.
[0017]
Further, the image processing unit 4 receives the recognition result in the prohibited image recognition unit 3 from the image input unit 1 or the image storage unit 5, and performs image processing means for performing predetermined processing on the part of the image data including the prohibited image. Also works. For example, when a recognition result is output from the prohibited image recognition unit 3 in units of image data, for example, an image that is determined to include a prohibited image even if it is combined with other image data in the image storage unit 5 described later. Predetermined processing is performed only on the data portion. For example, when information related to a region including a prohibited image is also output from the prohibited image recognition unit 3, predetermined processing can be performed only on a region including the prohibited image in the image data.
[0018]
The image storage unit 5 receives the image data output from the image processing unit 4 and stores and stores it in page units. When the image processing unit 4 recognizes the characteristics of each region in the image data, the recognition result can be held as, for example, attribute information (tag information). Furthermore, it is possible to hold information sent from the image input unit 1 and indicating whether or not a prohibited image is included. Information indicating whether or not the prohibited image is included can be held as information for each region in the image data, for example, by holding it as a part of the tag information. For example, when a recognition result is output in units of image data from the prohibited image recognition unit 3, information corresponding to the recognition result may be held as tag information of the entire image data. In addition, when position information where a prohibited image exists is also output from the prohibited image recognition unit 3, information indicating that a prohibited image exists may be held for tag information corresponding to a region where the prohibited image exists. .
[0019]
Further, the image storage unit 5 can provide an additional function by controlling the output order of image data, image rotation / composition processing, and the like. For example, a booklet can be configured by folding sorting, double-sided printing, an N-up function that combines and outputs a plurality of continuous image data into one image, and recording paper ejected from the image output unit 2. In addition, it is possible to provide a function such as a signature function for editing the order of a plurality of image data and combining the plurality of image data. When the image storage unit 5 holds tag information when executing these functions, the tag information is also processed and output so as not to be inconsistent with the original image data area. To do.
[0020]
The control unit 6 controls the image input unit 1, the image output unit 2, the prohibited image recognition unit 3, the image processing unit 4, and the image storage unit 5. For example, the image input operation in the image input unit 1 is synchronized with the prohibited image recognition unit 3, the image processing unit 4, and the image storage unit 5, and the image data and tag information are stored in the image storage unit 5. In addition, operations in the image storage unit 5 and the image processing unit 4 are performed so as to be synchronized with the image forming operation in the image output unit 1. Of course, the forbidden image recognition unit 3 and the image processing unit 4 can be operated so that the operations of the image input unit 1 and the image output unit 2 can be performed in synchronization. Further, the control unit 6 generates tag information in accordance with an editing instruction given from a user or the like, and outputs the tag information to the image processing unit 4.
[0021]
An outline of the operation in an example of a color image copying apparatus including the above-described embodiment of the image processing apparatus of the present invention will be briefly described. A document to be color-copied is read by the image input unit 1, and digital signals of the three primary colors R, G, and B are generated. The generated digital image signal is input to the image processing unit 4 and L * a * b * It is converted into a signal and input to the prohibited image recognition unit 3.
[0022]
The image processing unit 4 performs various types of image processing such as color space conversion processing from the RGB color space to the YMCK color space, color correction processing, gradation correction, enlargement / reduction, spatial filtering, and screen processing. In particular, when image data is temporarily stored in the image storage unit 5, it is stored after performing image processing such as gradation correction processing, color conversion processing, and enlargement / reduction processing corresponding to the image input unit 1. In this process, for example, it is possible to perform processing for determining the characteristics of each region in the image data, and tag information including the determination result is also stored in the image storage unit 5 in association with the image data.
[0023]
On the other hand, the prohibited image recognition unit 3 recognizes the prohibited image included in the image data passed from the image input unit 1. Since this process takes time, it is performed in parallel with various image processes in the image processing unit 4. When the recognition result is returned from the prohibited image recognition unit 3 to the image input unit 1, the image input unit 1 determines whether or not a prohibited image exists in the image data. In this example, a determination result indicating whether the prohibited image is included in the image data is sent directly to the image storage unit 5. The image storage unit 5 stores the determination result sent from the image input unit 1 as part of the tag information of the corresponding image data. For example, when the determination result is sent in units of image data, the determination result is written in all the tag information for each area corresponding to the image data. For example, when the determination result is sent in a predetermined area unit, the determination result is written in the tag information of the corresponding area.
[0024]
The image data and tag information stored and held in the image storage unit 5 are output to the image processing unit 4 in synchronization with the image forming operation of the image output unit 2 after being subjected to predetermined image processing in the image storage unit 5. Is done. At this time, the same processing may be performed for the tag information so that the tag information and the corresponding region of the image are not separated. For example, when the image is rotated, the tag information needs to be rotated. Further, when N-up or signature function is used, a plurality of image data are combined into one. At this time, the tag information is also synthesized so as to be similar to the positional relationship of the image data. As a result, with respect to image data including a prohibited image, tag information indicating that the prohibited image is included is associated only with the portion of the image data or the region where the prohibited image exists in the image data.
[0025]
The image processing unit 4 performs various types of image processing according to the image output unit 2, for example, gradation correction processing, filtering processing, screen processing, and the like, and outputs the processed image output unit 2. In each image processing, for example, the optimum processing can be performed on the image data using tag information. If tag information indicating that a prohibited image is present is added, predetermined processing is performed on the area. For example, in gradation correction processing, color correction processing, etc., processing is performed so as to be significantly different from the original image data, such as painting with a specific color or extracting white.
[0026]
The image data processed by the image processing unit 4 in this manner is transferred to the image output unit 2, and a full color image is formed on the recording paper or the like in the image output unit 2, for example.
[0027]
By the operation as described above, copying of a color original is realized. As described above, predetermined processing is performed only on image data to which tag information indicating that a prohibited image exists or only a partial region in the image data. Therefore, for example, even when image data including a prohibited image and image data not including a prohibited image are combined, the predetermined processing is not performed on the whole as in the past, and the image data portion not including the prohibited image is normally processed. An image is formed. In addition, when tag information indicating that a prohibited image exists in a partial area including the prohibited image in the image data, only predetermined processing is performed on the area including the prohibited image in the image data. Yes, images are formed normally for other parts.
[0028]
In the above description, the case where the image data input from the image input unit 1 is temporarily stored in the image storage unit 5 and then output to the image output unit 2 is shown. The image data input by the unit 1 can be output to the image output unit 2 without being stored in the image storage unit 5. In this case, if the image storage unit 5 generates tag information and passes it to the image processing unit 4 based on the information indicating the presence or absence of the prohibited image sent from the image input unit 1 according to the recognition result by the prohibited image recognition unit 3. Good. Since the recognition processing in the prohibited image recognition unit 3 takes time, output of image data from the image processing unit 4 to the image output unit 2 may be started. However, the color image data required by the image output unit 2 has a time difference in each color. Tag information indicating the presence or absence of a prohibited image may be delivered to the image processing unit 4 during this time difference. Usually, the image output unit 2 forms an image in the order of Y → M → C → K. Therefore, if a prohibited image is included before the output of the C or K image data, the timing can be a predetermined processing. Good.
[0029]
Hereafter, each part shown in FIG. 1 is demonstrated in detail. FIG. 2 is a block configuration diagram illustrating an example of an image processing unit and an image storage unit. In the figure, 11 is a gradation correction unit, 12 is a color space conversion unit, 13 is a picture / character separation unit, 14 is an image scaling unit, 15 is a tag scaling unit, 16 is a document detection unit, and 17 is a color space conversion. , 18 is a spatial correction unit, 19 is a gradation correction unit, 20 is a halftone generation unit, 21 is a tag signal generation unit, 31 is an encoding unit, 32 is a decoding unit, 33 is a data storage unit, and 34 is a buffer. A memory 35 is a bus. In the figure, a solid line indicates an image signal, and a broken line indicates tag information.
[0030]
The gradation correction unit 11 corrects the gradation characteristics of the image input unit 1 with respect to RGB three primary color signals input from the image input unit 1. The color space conversion unit 12 calculates the L signal from the RGB signal that has been subjected to the gradation correction processing by the gradation correction unit 11. * a * b * Generate a signal. This L * a * b * The signal is input to the document detection unit 16 and the picture / character separation unit 13 together with the internal image processing.
[0031]
The picture / character separating unit 13 identifies whether each pixel is a pixel constituting a picture or a pixel constituting a character, and outputs a signal indicating the identification result (hereinafter referred to as a separation tag). . The picture / character separating unit 13 corresponds to an extracting unit. The separation tag indicating the identification result corresponds to pixel information which is one of the attribute information.
[0032]
The image scaling unit 14 outputs the L output from the color space conversion unit 12. * a * b * In response to the signal, one-dimensional enlargement / reduction is performed in the main scanning direction. In combination with the enlargement / reduction in the main scanning direction in the image scaling unit 14 and the scanning speed control in the sub-scanning direction in the image input unit 1, two-dimensional enlargement / reduction of the document image is realized. For the enlargement / reduction in the image scaling unit 14, for example, a known linear interpolation operation or the like can be used. Here, the scaling process in the image scaling unit 14 is shown, but processes other than the scaling process of the image may be performed.
[0033]
The tag scaling unit 15 performs enlargement / reduction processing in the main scanning direction on the tag information at the same scaling factor as the image enlargement / reduction processing performed by the image scaling unit 14. As an enlargement / reduction method, for example, a known simple scaling method (zero-order hold method) can be used. Here, the area tag shown in FIG. 2 is tag information indicating settings made by the operator for a document and a copying operation using a user interface (not shown) or an editing digitizer. As will be described later, information indicating the presence or absence of a prohibited image passed from the image input unit 1 to the image storage unit 5 according to the recognition result in the prohibited image recognition unit 3 can also be included as this area tag.
[0034]
FIG. 3 is an explanatory diagram of an example of an area tag. Here, as shown in FIG. 3, it is composed of a 2-bit “color mode”, a 2-bit “original type”, and a 4-bit “multiplier”. As the color mode, image formation using four colors (YMCK), image formation using three colors (YMC), or monochrome image formation can be designated. As the document type, a character / photo mixed document, a character document, a photo document, a map document, or the like can be designated. For example, the multiplier indicates a number for selecting a conversion table for each color in the gradation correction unit 19. When the multiplier is 0, it indicates that conversion is not performed as shown in the graph at the lower right of FIG. Further, when the multiplier is a predetermined value, it can be set so that a predetermined process is performed on the prohibited image. FIG. 3 shows an example in which a predetermined value is output for any input value as shown in the lower left of FIG. 3 when the multiplier is “1111”. As a result, it is possible to realize filling or whitening.
[0035]
The tag scaling unit 15 performs the enlargement / reduction processing on the area tag together with the separation tag output from the picture / character separation unit 13 at the same scaling factor as that of the image scaling unit 14, thereby obtaining image data. We are trying to deal with this. Of course, when other conversion processing is performed on the image data to change the position of each pixel, the same conversion processing may be performed on the tag information.
[0036]
Such various image processing is L * a * b * After being applied to the signal, the color space conversion unit 17 performs L * a * b * The signal is converted into a YMCK signal. At this time, color space conversion processing can also be performed in accordance with the separation tag generated in the picture / character separation unit 13. The YMCK signal is input to the space correction unit 18 as it is, or is temporarily stored in the image storage unit 5. Also, tag information that has been subjected to conversion processing and the like by the tag scaling unit 15 in the same manner as the image data is directly input to the tag signal generation unit 21 or temporarily stored in the image storage unit 5.
[0037]
On the other hand, the document detection unit 16 extracts information necessary for the copying operation from the document image, such as detecting the size and position of the document and determining whether the document is a monochrome document or a color document. For example, such information can be extracted during preliminary scanning performed prior to document reading scanning, and necessary information can be sent to the control unit 6. The control unit 6 performs automatic functions such as magnification setting, monochrome / color discrimination, paper selection, and tray selection based on copy conditions input from an operation unit (not shown) by the operator and information extracted from the original image by the original detection unit 16. Is realized.
[0038]
The spatial correction unit 18 performs spatial filtering processing on the image data for each color according to the tag signal output from the tag signal generation unit 21. For example, various image effects can be obtained by a convolution operation or the like.
[0039]
The gradation correction unit 19 performs gradation correction processing on the image data for each color. For example, it can be realized by a known LUT (lookup table) referring to a one-dimensional table. A plurality of LUTs can be registered, and an LUT can be selected according to a tag signal output from the tag signal generation unit 21 and applied to image data. For example, among the area tags shown in FIG. 3, the LUT can be selected according to the value of the multiplier field. Normally, tag information is generated based on the document type, color, etc., so that gradation correction processing according to these image quality can be performed. In addition, for example, by using a LUT that outputs a minimum value or a maximum value regardless of what image data is input, it is possible to realize filling or whitening of a prohibited image with a predetermined color. is there.
[0040]
The halftone generator 20 generates a binary signal for ON / OFF control of the LD (laser diode) of the image output unit 2 from the multi-value YMCK signal in accordance with the tag signal output from the tag signal generator 21. It is. For example, it is only necessary to have a mechanism for converting the value of the YMCK signal into a pulse width or the like.
[0041]
In this example, as image processing after image data is read from the image storage unit 5, spatial filtering processing by the spatial correction unit 18, gradation correction processing by the gradation correction unit 19, and halftone processing by the halftone generation unit 20 are performed. Although an example in which processing is performed has been shown, various other types of image processing may be performed.
[0042]
The tag signal generation unit 21 is required for processing in the space correction unit 18, the gradation correction unit 19, and the halftone generation unit 20 from the tag information read from the storage unit 5, that is, the area tag and the separation tag. Various tag signals for each pixel are generated. This tag signal generation unit 21 can be realized, for example, by referring to a table of predetermined tag signal generation logic.
[0043]
The image storage unit 5 includes an encoding unit 31, a decoding unit 32, a data storage unit 33, a buffer memory 34, and the like, which are connected by a bus. The image storage unit 5 stores and holds image data (YMCK signal) that has been processed in the first half of the image processing unit 4 and tag information such as area tags and separation tags, and forms an image in the image output unit 2. In the meantime, these pieces of information are read out. The image storage unit 5 also realizes a sorting function such as stack and collation, for example, and a page editing function such as rotation, N-up, signature, and double-sided printing, which are designated by an operation unit (not shown). Further, information indicating the presence / absence of a prohibited image sent from the image input unit 1 is received and held in association with, for example, image data. When the image data is read, tag information is generated and added or rewritten according to the information indicating the presence or absence of the prohibited image. Further, when information indicating the presence / absence of the prohibited image is received, the tag information may be added or rewritten.
[0044]
The YMCK signal input to the image storage unit 5 is input to the encoding unit 31. The encoding unit 31 encodes an image signal in units of image data in a predetermined image compression method represented by, for example, JPEG, and in units of Y, M, C, and K planes in each image data, and passes through the bus 35. And output to the data storage unit 33. Similarly, the input tag information is also encoded by the encoding unit 31 by a known lossless compression method such as run-length encoding and stored in the data storage unit 33 via the bus 35.
[0045]
The data storage unit 33 stores the image data and tag information encoded by the encoding unit 31 in units of image data (pages). The data storage unit 33 can be realized by a large-capacity storage device capable of storing a plurality of encoded image data and tag information, such as a hard disk device.
[0046]
The decoding unit 32 reads the image data stored in the data storage unit 33, decodes the YMCK signal by a predetermined expansion method in synchronization with the printing operation of the image output unit 2, and outputs the YMCK signal to the image processing unit 4. Similarly, the decoding unit 32 reads the tag information stored in the data storage unit 33, decodes the tag information in a predetermined expansion method in synchronization with the printing operation of the image output unit 2, and outputs the decoded information to the image processing unit 4.
[0047]
The buffer memory 34 is editing means used when performing page editing such as rotation processing, N-up composition, and signature.
[0048]
Hereinafter, processing when a prohibited image is included when performing page editing using the image storage unit 5 will be described. First, basic processing of N-up synthesis processing will be described. FIG. 4 is an explanatory diagram of an example of the N-up function. The FS direction and SS direction in the figure indicate the main scanning direction and the sub-scanning direction, respectively. As described above, the N-up function is a process of combining a plurality of image data into one image. FIG. 4A shows image data, and here, image data including four images “A”, “B”, “¥” (prohibited image), and “D”. 4B and 4C show 2up editing, and FIG. 4D shows 4up editing. This N-up process can be realized using the buffer memory 34.
[0049]
In the case of 2up editing as shown in FIG. 4B, first and second (“A” and “B”) image data are input from the image input unit 1, and the image processing unit 4 After the predetermined processing is performed, the image is input to the image storage unit 5. The encoded image data and tag information are stored in the data storage unit 33 in the image storage unit 5. Next, the first image data (“A”) and tag information are read out, decoded by the decoding unit 32, and then stored in the buffer memory 34 so as to be arranged as shown in FIG. Store at a predetermined address. Subsequently, the second image data (“B”) is stored in a predetermined address in the buffer memory 34 so as to be arranged alongside the first image data (“A”) through the same processing. The As described above, the first and second image data (“A” and “B”) and the tag information held in the buffer memory 34 are 1 in synchronization with the image forming operation in the image output unit 2. It is read out as a set of two images and tag information and sent to the image processing unit 4. Then, after various image processing is performed by the image processing unit 4, the image output unit 2 forms an image in which “A” and “B” are arranged.
[0050]
The same processing is performed on the third and fourth image data (“¥” and “D”). However, the third image data is a prohibited image. When the third image data is input to the image input unit 1, the prohibited image recognition unit 3 recognizes that this image data includes a prohibited image. The image input unit 1 determines the recognition result in the prohibited image recognition unit 3, and information indicating that a prohibited image exists is transmitted to the image storage unit 5. Then, together with the encoded third image data (“¥”), information indicating that tag information and a prohibited image exist is stored in the image storage unit 5. At this time, the tag information after rewriting may be accumulated after rewriting the tag information based on the information indicating that the prohibited image exists. The fourth image data (“D”) is stored in the image storage unit 5 together with the corresponding tag information in the same manner as the first and second image data described above.
[0051]
Next, the third image data (“¥”) and tag information are read out, decoded by the decoding unit 32, and then stored in the buffer memory 34 so as to be arranged as shown in FIG. Store at a predetermined address. At this time, according to the information indicating that the prohibited image exists, the tag information is rewritten so that a predetermined process corresponding to the prohibited image is performed in the hatched area in the tag information. For example, the multiplier value in the area tag as shown in FIG. 3 is rewritten. Of course, other tag information may be used.
[0052]
Subsequently, the fourth image data (“D”) is arranged side by side with the third image data (“¥”) by the same processing as in the case of the second image data described above. Is stored at a predetermined address in the buffer memory 34. In this case, since the fourth image data does not include the prohibited image, the tag information corresponding to the area where the fourth image data is arranged is subjected to predetermined processing corresponding to the prohibited image. Tag information is not rewritten.
[0053]
The third and fourth image data (“¥” and “D”) and the tag information held in the buffer memory 34 in this way are 1 in synchronization with the image forming operation in the image output unit 2. It is read out as a set of two images and tag information and sent to the image processing unit 4. Various kinds of image processing are performed in the image processing unit 4. At this time, the region corresponding to the third image data is added with tag information indicating that predetermined processing is performed on the prohibited image, so that predetermined processing, for example, painting with a predetermined color, or whitening is performed. Processing such as removing. After performing such predetermined processing only on the area corresponding to the third image, the image output unit 2 forms an image. As a result, the portion where the third image data (“¥”) is arranged is filled with a predetermined color, for example, or is whitened, and the fourth image data (“D”) is normally formed. . In this manner, predetermined processing is performed only on the partial area including the prohibited image, and an image can be normally formed for image data that does not include the prohibited image.
[0054]
As shown in FIG. 4D, the 4up editing can be realized in the same manner as the 2up editing described above. First, all the first to fourth originals (“A”, “B”, “¥”, “D”) are read, and each encoded image data and tag information, and information indicating the presence or absence of a prohibited image Is stored in the data storage unit 33 of the image storage unit 5. Next, after the first image data (“A”) and tag information are read out and decoded by the decoding unit 32, the buffer is arranged so as to have the direction and arrangement as shown in FIG. It is stored at a predetermined address in the memory 34. The second and fourth image data (“B”, “D”) are also subjected to the same processing and arranged at a predetermined position and in a predetermined direction in the same manner as the first image data (“A”). Thus, the data is stored in the buffer memory 34. Also for the third image data (“¥”), the image data is stored at a predetermined address in the buffer memory 34 so as to have the direction and arrangement as shown in FIG. However, as for tag information, since information indicating that a prohibited image exists is sent from the image input unit 1, a hatched line of tag information in the area corresponding to the third image data (FIG. 4D). The tag information of (region) is rewritten so as to perform predetermined processing.
[0055]
The four image data (“A”, “B”, “¥”, “D”) and tag information combined in the buffer memory 34 as described above and the tag information are synchronized with the image forming operation in the image output unit 2. Then, it is read out as a set of one image and tag information and sent to the image processing unit 4. The image processing unit 4 processes the image data combined into one according to the tag information, performs predetermined processing on the area where the third image data is arranged, for example, performs painting with a predetermined color, Or, the outline process is performed.
[0056]
Then, an image is formed by the image output unit 2. The formed image by the 4up process is an image that has been subjected to a predetermined process such that only the portion where the third image data (“¥”) is to be arranged is painted in a predetermined color or is whitened out. It is formed. In this manner, predetermined processing is performed only on the partial area including the prohibited image, and an image can be normally formed for image data that does not include the prohibited image.
[0057]
FIG. 5 is an explanatory diagram showing an example of an editing function effective when creating a booklet or the like. For example, as shown in FIG. 5, even when an editing function for creating a booklet composed of a plurality of pages is realized, when prohibited images are mixed, predetermined processing is performed only on a partial region including the prohibited images. it can. FIG. 5A shows eight image data (input of image data is “A”, “B”, “C”, “D”, “E”, “F”, “¥” (prohibited image), “J”. Are performed in the order of “ FIGS. 5B, 5 </ b> C, and 5 </ b> D show output results of page editing performed according to each binding direction. 5B, 5C, and 5D indicate that the hatched page is a back page, and a black dot ('●') dot sequence is bound by, for example, a stapler or glue at the time of bookbinding. This represents a binding margin portion. In double-sided printing, the image output unit 2 inverts the paper after the front side image is formed and forms the back side image. In the case of paper reversal, it is assumed that the reversal is performed so that the upper right corner of each front surface and the lower right corner of the back surface of FIG.
[0058]
FIG. 5B shows the arrangement of each image data in the 2up copy mode in which the image data of two pages are arranged in order and the duplex printing is designated. The first and second (“ The upper end of the first page composed of “A” and “B”) is set as the binding margin. In this case, the image accumulating unit 5 can obtain a desired output by performing the same processing as 2up described above.
[0059]
First, all the first to eighth image data (“A”, “B”, “C”, “D”, “E”, “F”, “¥”, “J”) are images. When input to the input unit 1, the presence / absence of a prohibited image is recognized by the prohibited image recognition unit 3, and various processes are performed in the image processing unit 4 and output to the image storage unit 5 together with tag information. Further, according to the recognition result in the prohibited image recognition unit 3, information indicating the presence or absence of the prohibited image is notified from the image input unit 1 to the image storage unit 5 and stored.
[0060]
In the image storage unit 5, input image data and tag information are encoded by the encoding unit 31 using a predetermined compression method, and then stored in the data storage unit 33. Next, after the first image data (“A”) and tag information are read out and decoded by the decoding unit 32, the buffer memory 34 is arranged so as to have the arrangement shown in FIG. Is stored at a predetermined address. Subsequently, the second image data (“B”) undergoes similar processing and is stored at a predetermined address in the buffer memory 34 so as to be arranged side by side with the first image data (“A”). . As described above, the first and second image data (“A” and “B”) and the tag information held in the buffer memory 34 are again processed by the encoding unit 31 as one image data and tag information. It is encoded and stored in the data storage unit 33. Thereafter, the same processing is performed on the third and fourth image data (“C”, “D”), the fifth and sixth image data (“E”, “F”), and the data The image data for image formation and tag information are stored in the storage unit 33.
[0061]
For the seventh and eighth image data (“¥”, “J”), the prohibited image recognition unit 3 recognizes that the seventh image data includes the prohibited image, and the prohibited image is recognized. The image input unit 1 notifies the image storage unit 5 of information indicating that the image exists. Therefore, when processing similar to 2up is performed, the tag information corresponding to the area where the seventh image data is arranged is rewritten so that predetermined processing is performed on that area. The combined image forming image data and tag information are stored in the data storage unit 33.
[0062]
After all the page arrangement processing, encoding processing, and storage processing in the data storage unit 33 are completed, the images of the image data “A” and the image data “B” are synchronized with the image forming operation in the image output unit 2. The image data and tag information of the first page configured from the above are read out, decoded by the decoding unit 32, and then sent to the image processing unit 4. Then, after performing various image processing, an image is formed in the image output unit 2.
[0063]
After the images of the image data “A” and the image data “B” are formed, the paper is reversed, and the image is similarly formed on the second page composed of the images of the image data “C” and the image data “D”. And the paper is discharged.
[0064]
Similarly to the first page, after the third page composed of the images of the image data “E” and the image data “F” is formed, the paper is reversed. Then, the fourth page composed of the image data “¥” and the image data “J” is read out and sent to the image processing unit 4. At this time, the image data “¥” includes a prohibited image, and tag information corresponding to the region of the image data “¥” is added with information indicating that predetermined processing is performed. Therefore, the image processing unit 4 performs predetermined processing on the partial region of the image data “¥” according to the tag information and sends the processed partial image to the image output unit 2. As a result, the area where the image data “¥” is arranged is formed as an image that has been subjected to predetermined processing, such as being filled with a predetermined color or being whitened out. However, since the prohibited image is not included in the area of the image data “J”, the image is normally formed.
[0065]
In this way, page editing as shown in FIG. 5B becomes possible. Even in this case, the image data area including the prohibited image is subjected to predetermined processing, and the image data area not including the prohibited image is normally formed.
[0066]
FIG. 5C shows duplex printing in the 2up copy mode as in FIG. 5B, but the binding margin is composed of the first and second image data (“A” and “B”). Is set to the left edge of the first page. For this reason, as shown in FIG. 5C, compared to the 2up editing for the front side printing, the two tops and the left and right sides when the booklet becomes normal are displayed. It is only necessary to perform a 180 degree rotation process so that the left-right relationship of the image data is reversed and the top and bottom of both pages are reversed. Other processes are the same as those in the case of FIG.
[0067]
In this example as well, when the second image data (“¥”) is subjected to the 2up process with the eighth image data (“J”), the seventh image data (“¥”) is changed. The tag information corresponding to the existing area is rewritten so that predetermined processing is performed on the prohibited image. At the time of image formation, the image processing unit 4 performs predetermined processing on the area where the seventh image data (“¥”) exists according to the tag information. However, the eighth image data to be synthesized (“J”) is not subjected to predetermined processing on the prohibited image, and the image is normally formed.
[0068]
FIG. 5D shows a case of bookbinding in which the center of the output image is bound. Such page editing is called “signature editing”, and is different from the page editing shown in FIGS. 5B and 5C described above in that the order of reading image data and the order of printing do not match at all. to differ greatly. Even in signature editing, only the image data to be synthesized is different, and this can be realized by combining 2up processing and rotation processing. In this example, the eighth image data (“J”) and the first image data (“A”) are combined to form one image data and tag information, and the seventh image data (“ ¥ ”) and the second image data (“ B ”) are rotated by 180 degrees and combined to form one image data and tag information. At this time, since information indicating that a prohibited image exists is added to the seventh image data (“¥”), tag information of an area corresponding to the seventh image data (“¥”) is added. Is rewritten so as to perform predetermined processing.
[0069]
Further, the sixth image data (“F”) and the third image data (“C”) are also synthesized by the 2up process, and the fifth image data (“E”) and the fourth image data (“C”) are combined. The image data (“D”) is also rotated by 180 degrees and synthesized, and image forming image data and tag information are stored in the data storage unit 33.
[0070]
Then, the image data and the tag information obtained by combining the eighth image data (“J”) and the first image data (“A”) are read out, and various processes are performed by the image processing unit 4. After that, an image is formed by the image output unit 2. After the paper is reversed, the image data and the tag information obtained by combining the seventh image data (“¥”) and the second image data (“B”) are read out, and the image processing unit 4 performs various processes. Applied. At this time, since the tag information of the area corresponding to the seventh image data (“¥”) instructs to perform predetermined processing, the image processing unit performs the seventh image data (“¥”). ) Is subjected to predetermined processing and passed to the image output unit 2. The image formed by the image output unit 2 is subjected to predetermined processing on the portion corresponding to the seventh image data (“¥”), and the portion corresponding to the second image data not including the prohibited image Is formed normally. After the double-sided image formation, the paper is discharged.
[0071]
Further, image data and tag information obtained by combining the sixth image data (“F”) and the third image data (“C”) are read out, and various processes are performed by the image processing unit 4. After that, an image is formed by the image output unit 2. After the paper is reversed, the image data and the tag information obtained by combining the fifth image data (“E”) and the fourth image data (“D”) are read out, and the image processing unit 4 performs various processes. After the application, the image output unit 2 forms an image.
[0072]
In this way, a booklet-like recorded matter is completed by overlapping the sheets discharged from the image processing unit 4 and folding them at the center. At this time, the page corresponding to the seventh image data including the prohibited image is subjected to predetermined processing, and is, for example, painted in a predetermined color or missing in white. However, images are formed normally on the second page on which images are formed side by side, and normal images can be formed on pages other than pages that contain prohibited images.
[0073]
FIG. 6 is a schematic configuration diagram showing an example of a color image copying apparatus including another embodiment of the image processing apparatus of the present invention. The reference numerals in the figure are the same as those in FIG. In this example, the prohibited image recognition unit 3 is called during the image processing in the image processing unit 4 and recognizes the prohibited image in the image data. Then, information indicating whether or not each pixel is a prohibited image is output to the image processing unit 4 as a recognition result. The image processing unit 4 processes information indicating whether the image is a prohibited image output from the prohibited image recognition unit 3 as a kind of tag information to be added to the image data.
[0074]
In such a configuration, when a prohibited image exists in the image data, it is possible to perform predetermined processing on the prohibited image in units of one or more pixels in the image data.
[0075]
FIG. 7 is a block configuration diagram illustrating an example of an image processing unit and an image storage unit. In the figure, parts similar to those in FIG. Reference numeral 22 denotes a tag information rewriting unit. In this example, as an example of realization of the configuration shown in FIG. 6, image data to be input to the picture / character separation unit 13 and the document detection unit 16 is also input to the prohibited image recognition unit 3 to recognize the prohibited image. Yes. Of course, image data that has been subjected to image processing for prohibited image recognition may be passed as image data to be passed to the prohibited image recognition unit 3.
[0076]
In this example, the tag information rewriting unit 22 rewrites the area tag according to the information indicating whether or not the image is a prohibited image output from the prohibited image recognition unit 3. For example, when the configuration of the area tag is as shown in FIG. 3, when the information indicating that the pixel is a prohibited image is output from the prohibited image recognition unit 3, predetermined processing is performed on the prohibited image. The multiplier field can be rewritten. Of course, handling of information indicating whether or not the image is a prohibited image is optional, such as separately adding information indicating whether or not the image is a prohibited image.
[0077]
In this way, for example, in this example, image data is subjected to a scaling process by setting information indicating whether or not the image is a prohibited image output for each pixel from the prohibited image recognition unit 3 as part of the tag information. Even in such a case, the correspondence between the position of the image data and the tag information is maintained by applying the same scaling process to the tag information. Therefore, the position of the prohibited image is also kept corresponding to the image data.
[0078]
For example, when a prohibited image exists in the image data, information indicating that the prohibited image is a prohibited image is output from the prohibited image recognizing unit 3 and included in the tag information. After that, even if conversion processing such as scaling processing or rotation processing is performed on the image data, the same conversion processing may be applied to the tag information so that the positional relationship between the image data and the tag information is maintained. The positional correspondence between the image data and the tag information remains unchanged.
[0079]
Then, by performing image processing according to the tag information, predetermined processing for the prohibited image is performed only on a region where the prohibited image exists in the image data or only a partial region including the region.
[0080]
FIG. 8 is an explanatory diagram of an example in a case where predetermined processing is performed only on a partial region in one image data. Assume that image data as shown in FIG. 8A is input by the image input unit 1. The prohibition image is included in the rectangular area indicated by “¥” above the image data. When such image data is transferred from the image input unit 1 to the image processing unit 4, for example, in the example shown in FIG. 7, the image data after color space conversion by the color space conversion unit 12 is input to the prohibited image recognition unit 3, Forbidden image recognition processing is performed. Information indicating whether or not the image is a prohibited image is returned to the image processing unit 4 for each of one or a plurality of pixels. For example, in the image data shown in FIG. 8A, it is recognized that a prohibited image exists in the hatched area in FIG. 8B, and information indicating that this area is a prohibited image is received from the prohibited image recognition unit 3. It is output and passed to the image processing unit 4.
[0081]
Information indicating whether or not the image is a prohibited image is included in the tag information rewriting unit 22 of the image processing unit 4 as part of the tag information, and thereafter processed in the same manner as the tag information. For example, in the gradation correction unit 19 of the image processing unit 4 or the like, for example, in the area hatched in FIG. 8B according to the tag information, predetermined processing is performed on the prohibited image. Then, an image as shown in FIG. 8C is formed in the image output unit 2. In the image formed in this way, the image is normally formed except for the prohibited image region, and the predetermined processing is not performed to the region other than the prohibited image as in the prior art.
[0082]
【The invention's effect】
As is apparent from the above description, according to the present invention, the prohibited image area can be subjected to predetermined processing to prevent the output of the prohibited image, and is not image data that does not include the prohibited image or the prohibited image. There is an effect that the image area can be output normally.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram illustrating an example of a color image copying apparatus including an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a block configuration diagram illustrating an example of an image processing unit and an image storage unit.
FIG. 3 is an explanatory diagram of an example of an area tag.
FIG. 4 is an explanatory diagram of an example of an N-up function.
FIG. 5 is an explanatory diagram showing an example of an editing function effective when creating a booklet or the like.
FIG. 6 is a schematic configuration diagram showing an example of a color image copying apparatus including another embodiment of the image processing apparatus of the present invention.
FIG. 7 is a block configuration diagram illustrating an example of an image processing unit and an image storage unit.
FIG. 8 is an explanatory diagram of an example when predetermined processing is performed only on a partial region in one image data.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image input part, 2 ... Image output part, 3 ... Prohibited image recognition part, 4 ... Image processing part, 5 ... Image storage part, 6 ... Control part, 11 ... Tone correction part, 12 ... Color space conversion part, DESCRIPTION OF SYMBOLS 13 ... Picture / character separation part, 14 ... Image scaling part, 15 ... Tag scaling part, 16 ... Document detection part, 17 ... Color space conversion part, 18 ... Space correction part, 19 ... Tone correction part, 20 ... Halftone generation unit, 21 ... tag signal generation unit, 22 ... tag information rewriting unit, 31 ... encoding unit, 32 ... decoding unit, 33 ... data storage unit, 34 ... buffer memory, 35 ... bus.

Claims (4)

入力された画像データから所定の禁止画像を認識する認識手段と、複数の画像データを1つの画像に合成する画像処理手段と、合成された画像のうち禁止画像を含む画像データのページ部分に対して所定の加工を施す画像加工手段を有することを特徴とする画像処理装置。  Recognizing means for recognizing a predetermined prohibited image from input image data, image processing means for combining a plurality of image data into one image, and a page portion of image data including the prohibited image among the combined images And an image processing means for performing predetermined processing. 前記認識手段で認識した結果を前記画像データごとのタグ情報として前記画像データとともに蓄積する画像蓄積手段を有し、前記画像加工手段は、前記タグ情報が対応する画像データの領域に禁止画像が含まれていることを示しているとき該領域に対して前記所定の加工を施すことを特徴とする請求項1に記載の画像処理装置。  Image storage means for storing the result recognized by the recognition means together with the image data as tag information for each image data, and the image processing means includes a prohibited image in an area of the image data corresponding to the tag information; The image processing apparatus according to claim 1, wherein the predetermined processing is performed on the area when it is indicated that the area is displayed. 前記画像蓄積手段は、前記タグ情報をページ単位に記憶することを特徴とする請求項2に記載の画像処理装置。  The image processing apparatus according to claim 2, wherein the image storage unit stores the tag information in units of pages. さらに、前記画像データに対して変倍処理を行う画像変倍手段と、前記タグ情報に対して前記画像変倍手段と同じ変倍率で変倍処理を行うタグ変倍手段を有していることを特徴とする請求項2または請求項3に記載の画像処理装置。  Furthermore, it has an image scaling unit that performs a scaling process on the image data, and a tag scaling unit that performs a scaling process on the tag information at the same scaling factor as the image scaling unit. The image processing apparatus according to claim 2, wherein:
JP23147299A 1999-08-18 1999-08-18 Image processing device Expired - Lifetime JP3767667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23147299A JP3767667B2 (en) 1999-08-18 1999-08-18 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23147299A JP3767667B2 (en) 1999-08-18 1999-08-18 Image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005271933A Division JP2006050666A (en) 2005-09-20 2005-09-20 Image processing unit and method

Publications (2)

Publication Number Publication Date
JP2001057631A JP2001057631A (en) 2001-02-27
JP3767667B2 true JP3767667B2 (en) 2006-04-19

Family

ID=16924041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23147299A Expired - Lifetime JP3767667B2 (en) 1999-08-18 1999-08-18 Image processing device

Country Status (1)

Country Link
JP (1) JP3767667B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023944A (en) 2004-07-07 2006-01-26 Canon Inc Image processing system and image processing method
US20060209348A1 (en) * 2005-03-16 2006-09-21 Kabushiki Kaisha Toshiba Image processing apparatus
JP2006352330A (en) * 2005-06-14 2006-12-28 Konica Minolta Business Technologies Inc Security management system, security management method, and security management program
JP2007158645A (en) * 2005-12-05 2007-06-21 Fuji Xerox Co Ltd Image processor and image processing method
JP4158829B2 (en) 2006-10-31 2008-10-01 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus, image processing method, and image processing program
JP4469885B2 (en) 2007-09-07 2010-06-02 シャープ株式会社 Image collation apparatus, image collation method, image data output processing apparatus, program, and recording medium
JP4362528B2 (en) 2007-09-10 2009-11-11 シャープ株式会社 Image collation apparatus, image collation method, image data output processing apparatus, program, and recording medium
US8260061B2 (en) 2007-09-21 2012-09-04 Sharp Kabushiki Kaisha Image data output processing apparatus and image data output processing method
JP4588771B2 (en) 2008-02-26 2010-12-01 シャープ株式会社 Image processing method, image processing apparatus, image forming apparatus, program, and storage medium
JP4538507B2 (en) * 2008-05-02 2010-09-08 シャープ株式会社 Image collation method, image collation apparatus, image data output processing apparatus, program, and storage medium
JP2009104610A (en) * 2008-10-31 2009-05-14 Konica Minolta Business Technologies Inc Image processing system, image processor, image processing method, image processing program and computer readable recording medium recording it
JP5182054B2 (en) * 2008-12-10 2013-04-10 株式会社ニコン Image processing apparatus and image processing program
JP4762327B2 (en) * 2009-03-24 2011-08-31 シャープ株式会社 Image processing apparatus and image forming apparatus
JP6977886B2 (en) * 2018-06-28 2021-12-08 株式会社島津製作所 Machine learning methods, machine learning devices, and machine learning programs

Also Published As

Publication number Publication date
JP2001057631A (en) 2001-02-27

Similar Documents

Publication Publication Date Title
JP3962635B2 (en) Image processing apparatus and control method thereof
JP3797669B2 (en) Image forming apparatus and image forming method
JP3767667B2 (en) Image processing device
US7379214B2 (en) Image processing apparatus capable of processing image embedded with digital watermark, method for controlling the image processing apparatus, and storage medium storing program to execute the method
JP2000175031A (en) Image processing unit, image processing method and image input device
JP2004228811A (en) Image processor, image processing method and program for computer to perform execution
JP4966248B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
US6041205A (en) Image processing apparatus for laying out plurality of images in conformity with image orientation
US7599081B2 (en) Detecting and protecting a copy guarded document
JP4208369B2 (en) Image processing apparatus, image processing method, storage medium, and image processing system
US5321531A (en) Image processing apparatus capable of document discrimination
JP3772610B2 (en) Image forming apparatus and control method thereof
JP2006050666A (en) Image processing unit and method
JP3738807B2 (en) Image processing apparatus and image processing method
JP2001309183A (en) Image processing unit and method
JP3821422B2 (en) Image data compression method, compression / decompression method, recording medium, compressor, image storage device, image reading device, and image forming device
JP3490069B2 (en) Image processing device
JP2006352922A (en) Image processing apparatus and image processing method
JP4474001B2 (en) Image processing apparatus and method
JP3769998B2 (en) Image processing device
JP3881178B2 (en) Recording system
JP2557479B2 (en) Color image processor
JPH03185970A (en) Color document picture processing unit
JP2007036793A (en) Color image processing system
JPH0937050A (en) Image processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060124

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3767667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 8

EXPY Cancellation because of completion of term