JP2009060431A - Image processor, image processing method, and image processing program - Google Patents
Image processor, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2009060431A JP2009060431A JP2007226586A JP2007226586A JP2009060431A JP 2009060431 A JP2009060431 A JP 2009060431A JP 2007226586 A JP2007226586 A JP 2007226586A JP 2007226586 A JP2007226586 A JP 2007226586A JP 2009060431 A JP2009060431 A JP 2009060431A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- hue
- display
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は、容易な操作で画像補正をすることが可能な印刷装置に関する。 The present invention relates to a printing apparatus capable of correcting an image with an easy operation.
デジタルカメラ等の普及に伴い、個人で撮影した画像を家庭用印刷装置で印刷することが普及している。また、印刷媒体に記憶された画像を家庭用印刷装置で印刷(複写)することも普及している。このような場合、取得した画像が所望の色味や色調でない場合は、印刷前に当該画像の画像補正をすることが望まれている。 With the popularization of digital cameras and the like, it has become popular to print images taken by individuals using a home printing device. In addition, printing (copying) an image stored on a print medium with a home printing apparatus is also widespread. In such a case, if the acquired image does not have a desired color or tone, it is desired to correct the image before printing.
ここで、例えば、下記特許文献1には、画像調整することが可能な印刷装置が開示されている。この印刷装置では、取得した画像の画質を調整するために、調整用データを入力する必要がある。 Here, for example, Patent Document 1 below discloses a printing apparatus capable of image adjustment. In this printing apparatus, it is necessary to input adjustment data in order to adjust the image quality of the acquired image.
上記のような印刷装置においては、画像の調整を行うために、具体的なデータを入力する必要があるため、画像に関する知識が必要となり感覚的な色調整を行うことができない。また、上記文献には、特定の領域のみを画像調整することについて何ら開示されていない。さらに、上記文献においては、調整用データを選択ないし設定する必要があるため、簡易な操作ではない。また、画像補正処理の対象とする色を決定する場合、例えば、画像補正処理の対象(ユーザの着目位置)が濃い色部分であるのか薄い色部分であるのかについても特定することが、高精度の画像補正処理の観点からは望ましい。 In the printing apparatus as described above, it is necessary to input specific data in order to adjust the image, so knowledge about the image is required, and sensory color adjustment cannot be performed. Further, the above document does not disclose anything about image adjustment of only a specific region. Further, in the above document, since it is necessary to select or set adjustment data, it is not a simple operation. Further, when determining a color to be subjected to image correction processing, for example, it is highly accurate to specify whether the target of image correction processing (a user's target position) is a dark color portion or a light color portion. This is desirable from the viewpoint of image correction processing.
そこで本発明は、上記課題を解決するため、容易な操作で所望の画像補正を高精度に行うことが可能な画像処理装置を提供することを目的とする。 In order to solve the above problems, an object of the present invention is to provide an image processing apparatus capable of performing desired image correction with high accuracy by an easy operation.
上記目的を達成するため、請求項1に係る発明は、第1画像入力手段、第2画像入力手段、色相特定手段、指定領域決定手段、特徴量抽出手段、画像補正手段を備える画像処理装置において、前記第1画像入力手段は、第1画像を入力し、前記第2画像入力手段は、第2画像を入力し、前記色相特定手段は、前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定し、前記指定領域決定手段は、前記第1画像を複数の領域に分割し、前記複数の領域ごとに、前記特定色相の領域を抽出し、前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出し、前記複数の領域それぞれに対応した複数の表示用特徴量に関する情報を表示部に表示し、前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させ、前記1つの表示用特徴量に対応する分割領域を指定領域として決定し、前記特徴量抽出手段は、前記第1画像中の指定領域に基いて第1特徴量を、前記第2画像に基いて第2特徴量を抽出し、前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正することを特徴とする。
なお、第1、第2画像入力手段は、同一の入力手段で構成されてもよい。
In order to achieve the above object, an invention according to claim 1 is an image processing apparatus including a first image input unit, a second image input unit, a hue specifying unit, a designated area determining unit, a feature amount extracting unit, and an image correcting unit. The first image input means inputs a first image, the second image input means inputs a second image, and the hue specifying means is the most of the hue components constituting the first image. A hue component having a large component ratio is identified as a specific hue, and the designated area determining unit divides the first image into a plurality of areas, extracts the specific hue area for each of the plurality of areas, For each region, a display feature amount is extracted from the extracted region, information about a plurality of display feature amounts corresponding to each of the plurality of regions is displayed on a display unit, and the display displayed on the display unit One feature The display feature amount is selected by the user, a divided region corresponding to the one display feature amount is determined as the designated region, and the feature amount extraction unit is configured to select the first feature based on the designated region in the first image. A second feature amount is extracted based on the second image, and the image correction unit corrects the second image based on the first feature amount and the second feature amount. And
The first and second image input means may be composed of the same input means.
請求項2に係る発明は、請求項1の画像処理装置において、前記指定領域決定手段によって分割された領域のうち、当該分割領域における前記特定色相の領域が占める割合が所定量以下の分割領域に対応する前記表示用特徴量については、前記表示の対象から除外することを特徴とする。 According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, among the areas divided by the designated area determining means, the ratio of the specific hue area in the divided area is a predetermined area or less. The corresponding display feature amount is excluded from the display target.
請求項3に係る発明は、請求項1または2の画像処理装置において、前記第1特徴量及び前記第2特徴量に基づいて、補正データを作成する補正データ作成手段を備え、前記画像補正手段は、前記補正データに基づいて前記第2画像を画像補正することを特徴とする。 The invention according to claim 3 is the image processing apparatus according to claim 1 or 2, further comprising correction data generation means for generating correction data based on the first feature quantity and the second feature quantity, and the image correction means. Is characterized in that the second image is corrected based on the correction data.
請求項4に係る発明は、請求項1または2の画像処理装置において、前記特徴量抽出手段は、色相に関する特徴量を抽出し、当該色相に関する特徴量に基いて前記第1画像及び前記第2画像それぞれを複数の領域に分割し、分割した領域ごとに色相以外に関する特徴量を抽出し、前記補正データ作成手段は、前記第1画像及び前記第2画像それぞれの分割された領域ごとに、前記色相に関する特徴量の代表値を抽出し、当該代表値に基いて色相補正データを作成し、前記第1画像及び前記第2画像それぞれの分割された領域ごとに、前記色相以外に関する特徴量の代表値を抽出し、前記画像補正手段は、前記第2画像における画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、前記第2画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正することを特徴とする。 According to a fourth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the feature amount extraction unit extracts a feature amount related to a hue, and the first image and the second image are extracted based on the feature amount related to the hue. Each of the images is divided into a plurality of regions, and a feature amount related to a color other than the hue is extracted for each of the divided regions, and the correction data creating unit is configured to perform the above processing for each divided region of the first image and the second image. A representative value of a feature value related to hue is extracted, hue correction data is created based on the representative value, and a representative value of feature value related to other than the hue is determined for each divided area of the first image and the second image. A value is extracted, and the image correction unit corrects a feature amount related to a hue for each pixel in the second image based on the hue correction data, and relates to a feature other than a hue for each pixel of the second image. The feature amount, and correcting on the basis of the representative value of each of said areas.
請求項5に係る発明は、請求項1〜4いずれかの画像処理装置において、前記色相特定手段は、HSV空間におけるH値に基いて色相を特定することを特徴とする。 According to a fifth aspect of the present invention, in the image processing apparatus according to any one of the first to fourth aspects, the hue specifying unit specifies a hue based on an H value in the HSV space.
請求項6に係る発明は、請求項1〜5いずれかの画像処理装置において、前記表示用特徴量は、明度及び/または彩度に関する特徴量であることを特徴とする。 According to a sixth aspect of the present invention, in the image processing device according to any one of the first to fifth aspects, the display feature amount is a feature amount related to brightness and / or saturation.
請求項7に係る発明は、請求項1〜6いずれかの画像処理装置において、前記第1画像入力手段は、所定の読取位置にセットされた印刷媒体から光学的に読み取られる画像を第1画像として入力し、前記第2画像入力手段は、印刷媒体に記憶された画像情報を第2画像として入力することを特徴とする。 According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to sixth aspects, the first image input means is configured to read an image optically read from a print medium set at a predetermined reading position. The second image input means inputs image information stored in the print medium as a second image.
請求項8に係る発明は、請求項1〜7いずれかの画像処理装置において、印刷制御手段をさらに有し、前記印刷制御手段は、前記補正された第2画像情報を印刷するための処理を行うことを特徴とする。 The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7, further comprising print control means, wherein the print control means performs a process for printing the corrected second image information. It is characterized by performing.
請求項9に係る発明は、画像処理方法において、第1画像を入力する第1画像入力ステップ、第2画像を入力する第2画像入力ステップ、前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定する色相特定ステップ、前記第1画像を複数の領域に分割する分割ステップ、前記複数の領域ごとに、前記特定色相の領域を抽出する特定色相抽出ステップ、前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出する表示量特徴量抽出ステップ、前記複数のそれぞれに対応した複数の表示用特徴量に関する情報を表示部に表示する表示ステップ、前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させる特徴量選択ステップ、前記1つの表示用特徴量に対応する分割領域を指定領域として決定する指定領域決定ステップ、前記第1画像中の指定領域に基いて第1特徴量を抽出する第1特徴量抽出ステップ、前記第2に画像に基いて第2特徴量を抽出する第2特徴量抽出ステップ、前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正する画像補正ステップからなることを特徴とする。 The invention according to claim 9 is the image processing method, wherein the first image input step of inputting the first image, the second image input step of inputting the second image, and the hue component constituting the first image are the most. A hue specifying step for specifying a hue component having a large component ratio as a specific hue; a dividing step for dividing the first image into a plurality of regions; a specific hue extracting step for extracting the region of the specific hue for each of the plurality of regions; A display amount feature amount extracting step for extracting a display feature amount from the extracted region for each of the plurality of regions; a display step for displaying information on a plurality of display feature amounts corresponding to each of the plurality of regions on a display unit; A feature amount selection step for allowing a user to select one display feature amount from the display feature amounts displayed on the display unit; an amount corresponding to the one display feature amount A designated area determining step for determining an area as a designated area; a first feature quantity extracting step for extracting a first feature quantity based on the designated area in the first image; and a second feature quantity based on the second image. The method includes a second feature amount extraction step to be extracted, and an image correction step of correcting the second image based on the first feature amount and the second feature amount.
請求項10に係る発明は、画像処理プログラムにおいて、コンピュータに、第1画像を入力する第1画像入力ステップ、第2画像を入力する第2画像入力ステップ、前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定する色相特定ステップ、前記第1画像を複数の領域に分割する分割ステップ、前記複数の領域ごとに、前記特定色相の領域を抽出する特定色相抽出ステップ、前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出する表示量特徴量抽出ステップ、前記複数の領域それぞれに対応した複数の表示用特徴量に関する情報を表示部に表示する表示ステップ、前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させる特徴量選択ステップ、前記1つの表示用特徴量に対応する分割領域を指定領域として決定する指定領域決定ステップ、前記第1画像中の指定領域に基いて第1特徴量を抽出する第1特徴量抽出ステップ、前記第2に画像に基いて第2特徴量を抽出する第2特徴量抽出ステップ、前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正する画像補正ステップを実行させることを特徴とする。 According to a tenth aspect of the present invention, in the image processing program, a first image input step for inputting a first image, a second image input step for inputting a second image, and a hue component constituting the first image in a computer. Among them, a hue specifying step for specifying a hue component having the largest component ratio as a specific hue, a dividing step for dividing the first image into a plurality of regions, and a specific hue for extracting the region of the specific hue for each of the plurality of regions An extraction step, a display amount feature amount extraction step for extracting a display feature amount from the extracted region for each of the plurality of regions, and information on a plurality of display feature amounts corresponding to each of the plurality of regions is displayed on the display unit A display step for performing, a feature amount selecting step for allowing a user to select one display feature amount from the display feature amounts displayed on the display unit, A designated area determining step for determining a divided area corresponding to the display feature quantity as a designated area; a first feature quantity extracting step for extracting a first feature quantity based on the designated area in the first image; A second feature amount extracting step for extracting a second feature amount based on the image; and an image correcting step for correcting the image of the second image based on the first feature amount and the second feature amount. And
請求項1に係る発明によれば、スキャナ等により読み込んだ画像中のお手本とする色領域を決定し、ユーザに対し、所定のパラメータを間接的に選択させることによって、精度の高い画像補正処理を行うことができる。また、色相を特定するために種々のパラメータを用いることができる。 According to the first aspect of the present invention, a color area to be used as a model in an image read by a scanner or the like is determined, and a predetermined parameter is indirectly selected by the user, thereby performing highly accurate image correction processing. It can be carried out. Various parameters can be used to specify the hue.
請求項2に係る発明によれば、さらに、分割された領域における前記決定された色領域の占める割合が所定量より小さい分割領域については、表示の対象としないため、当該分割領域の選択が実質的に不可能となるから、当該分割領域をお手本領域の候補から除外することができる。これにより、ユーザの意図しない補正が行われることを防止できる。 According to the second aspect of the present invention, since the divided area in which the determined color area occupies the divided area is smaller than the predetermined amount, the divided area is not substantially selected because it is not displayed. Therefore, the divided area can be excluded from the candidate model areas. Thereby, it is possible to prevent correction that is not intended by the user.
請求項3に係る発明によれば、上述した効果を奏することができる。 According to the invention which concerns on Claim 3, there can exist the effect mentioned above.
請求項4に係る発明によれば、色相に基いて複数の領域に分割するため、人間の知覚に基いた領域分割をすることができ、精度が高い色補正をすることができる。また、色相に関する特徴量と色相以外に関する特徴量とに分けて異なる画像補正処理を行うため、所望の画像補正処理を容易に行うことができる。 According to the fourth aspect of the invention, since the image is divided into a plurality of regions based on the hue, the region can be divided based on human perception, and color correction with high accuracy can be performed. Further, since different image correction processes are performed separately for the feature quantity related to hue and the feature quantity related to other than the hue, a desired image correction process can be easily performed.
請求項5に係る発明によれば、HSV空間におけるH値に基いて色相を特定することができる。 According to the invention which concerns on Claim 5, a hue can be specified based on H value in HSV space.
請求項6に係る発明によれば、明度及び/または彩度に関する特徴量を表示用特徴量とすることができる。 According to the invention which concerns on Claim 6, the feature-value regarding brightness and / or saturation can be made into the feature-value for a display.
請求項7に係る発明によれば、お手本となる画像をスキャナ等から入力することができ、また、記憶媒体から読み出した画像を画像補正の対象とすることができる。 According to the seventh aspect of the present invention, a model image can be input from a scanner or the like, and an image read from a storage medium can be a target for image correction.
請求項8に係る発明によれば、印刷制御手段を有するので、画像補正した画像を印刷することができる。 According to the eighth aspect of the invention, since the print control unit is provided, an image whose image has been corrected can be printed.
請求項9、10に係る発明についても、上述した効果を奏することができる。 The inventions according to claims 9 and 10 can also achieve the effects described above.
[本発明の第1実施形態]
まず、本発明に係る画像処理装置の外観の一例について図1に示す。また、画像処理装置1の内部構成の一例について図2に示す。
[First embodiment of the present invention]
First, an example of the appearance of the image processing apparatus according to the present invention is shown in FIG. An example of the internal configuration of the image processing apparatus 1 is shown in FIG.
画像処理装置1は、多機能プリンタ等の一例であり、その上部に写真等から画像情報を読み取るためのスキャナ2を有している(なお、図1においては、スキャナはカバーされた状態である。)。スキャナによって読み取られた画像情報は、以下に示すメモリスロットより読み込まれた画像情報の色彩等を補正するための見本の情報として用いられる。なお、画像補正処理の詳細については、後述する。 The image processing apparatus 1 is an example of a multi-function printer or the like, and has a scanner 2 for reading image information from a photograph or the like on the upper part (in FIG. 1, the scanner is in a covered state). .) Image information read by the scanner is used as sample information for correcting the color and the like of image information read from the memory slot shown below. Details of the image correction process will be described later.
画像処理装置1は、SDカード(商標)、CFカード(商標)などの記録媒体である外部メモリに記録された画像情報を読み取るためのICカードリーダとして機能するメモリスロット3を有する。ここで、外部メモリ(記憶媒体)は、公知の媒体及び形式を適宜選択可能である。また、複数の方式の媒体に適用するよう、複数のメモリスロットを有するように構成してもよい。また、画像情報を蓄積したPCが接続されたLAN等のネットワークに接続可能な通信機能(例えばLANカード、図示せず)を図2に示すCPU,ROM、RAMなどが接続された信号線に付加することで、前記外部メモリの代わりに、前記PCが接続されたネットワークから所望の画像情報を読み取るよう構成してもよい。その場合は、画像処理装置1は、通信機能を有することになる。 The image processing apparatus 1 has a memory slot 3 that functions as an IC card reader for reading image information recorded in an external memory that is a recording medium such as an SD card (trademark) or a CF card (trademark). Here, as the external memory (storage medium), a known medium and format can be appropriately selected. Further, it may be configured to have a plurality of memory slots so as to be applied to a plurality of types of media. In addition, a communication function (for example, a LAN card, not shown) that can be connected to a network such as a LAN to which a PC storing image information is connected is added to the signal line to which the CPU, ROM, RAM, etc. shown in FIG. 2 are connected. Thus, instead of the external memory, desired image information may be read from a network to which the PC is connected. In that case, the image processing apparatus 1 has a communication function.
画像処理装置1は、種々の操作を行うための操作パネル4を有している。操作パネル4には種々のボタン等が配置される。 The image processing apparatus 1 has an operation panel 4 for performing various operations. Various buttons and the like are arranged on the operation panel 4.
画像処理装置1は、図2に図示されるプリンタ10を有している。画像補正された画像情報は、プリンタ10によって印刷される。印刷された用紙は、例えば、排出口5より排出される。 The image processing apparatus 1 includes a printer 10 illustrated in FIG. The image information subjected to the image correction is printed by the printer 10. The printed paper is discharged from the discharge port 5, for example.
画像処理装置1は、表示手段6を有している。種々の文字情報及びイメージを表示することができる。また、タッチパネルを表示手段6の前面に設け、操作パネル4の一部または全部の機能を代用してもよい。また、タッチパネルと操作パネル4を併用できるよう構成してもよい。 The image processing apparatus 1 has display means 6. Various character information and images can be displayed. In addition, a touch panel may be provided on the front surface of the display means 6 and a part or all of the functions of the operation panel 4 may be substituted. Moreover, you may comprise so that a touch panel and the operation panel 4 can be used together.
画像処理装置1は、プロセッサ(CPU9)によって全体が制御される。また、内部には、情報を一時的に記憶するためのRAM7、及び、所定の情報が記憶されたROM8を有する。また、必要に応じてHDD等の大容量記憶手段を有してもよい。 The image processing apparatus 1 is entirely controlled by a processor (CPU 9). In addition, there are a RAM 7 for temporarily storing information and a ROM 8 for storing predetermined information. Moreover, you may have mass storage means, such as HDD, as needed.
上述した各要素は、信号線によって互いに接続されている。 Each element mentioned above is mutually connected by the signal wire | line.
また、画像処理装置1に、種々の機能(例えば、FAX)を画像処理装置に付加することもできる。また、パソコン等に接続するためのインタフェース、他の印刷装置と接続するためのインタフェースを備えてもよい。 Further, various functions (for example, FAX) can be added to the image processing apparatus 1. Further, an interface for connecting to a personal computer or the like and an interface for connecting to another printing apparatus may be provided.
なお、上記外観は単なる一例であり、本発明が上記外観に限定されないことはいうまでもない。また、上記外観においては、全ての機能が一体化された装置を図示したが、一部の機能を外付け装置で実現してもよい。さらに、上記内部構成は単なる一例であり、本発明が上記内部構成に限定されないことはいうまでもない。 In addition, the said external appearance is only an example, and it cannot be overemphasized that this invention is not limited to the said external appearance. Moreover, in the above-mentioned external appearance, an apparatus in which all functions are integrated is shown, but some functions may be realized by an external apparatus. Furthermore, the internal configuration is merely an example, and it goes without saying that the present invention is not limited to the internal configuration.
次に、本発明に係る画像処理装置1を用いた基本処理における、ユーザの動作及び装置本体の処理について、その概略を説明する。図3は、当該処理の概略を示したものである。まず、ユーザは、画像補正対象となる画像が記憶されたメモリを、画像処理装置のメモリスロットにセットする。上述したとおり、このメモリとしては、メモリカードをはじめ公知の記憶媒体を適宜採用可能である。 Next, an outline of user operations and processing of the apparatus main body in basic processing using the image processing apparatus 1 according to the present invention will be described. FIG. 3 shows an outline of the processing. First, the user sets a memory in which an image to be corrected is stored in a memory slot of the image processing apparatus. As described above, as this memory, a known storage medium such as a memory card can be appropriately employed.
メモリがメモリスロット3にセットされることにより(1)、画像処理装置は、セットされたメモリを認識し、ユーザに対し、メモリに記憶されている画像のうち画像補正対象となる画像を選択させる(2)。なお、画像を選択させるための処理は、公知の技術(例えば、画像を順次切替表示して選択させる等)を適宜採用可能である。また、表示手段6を利用してもよい。 When the memory is set in the memory slot 3 (1), the image processing apparatus recognizes the set memory and causes the user to select an image to be corrected from the images stored in the memory. (2). In addition, the process for selecting an image can employ | adopt suitably a well-known technique (For example, switching and displaying an image sequentially, etc.). Further, the display means 6 may be used.
画像補正対象の画像が決定されると(3)、画像処理装置は当該画像を読み出して例えばRAMに書き込む(4)。なお、以下において当該画像を「元画像」ということがある。 When an image to be corrected is determined (3), the image processing apparatus reads the image and writes it in, for example, a RAM (4). Hereinafter, the image may be referred to as an “original image”.
次に、ユーザは当該画像の画像補正の見本となる領域を含む画像(以下、「全体画像」ということがある。)をスキャナ上に設置(5)し、所定のボタン等を押下することによって、画像処理装置は全体画像を例えばRAM7に書き込む(6)。 Next, the user places (5) on the scanner an image including an area that serves as a sample for image correction of the image (hereinafter, referred to as “whole image”), and presses a predetermined button or the like. The image processing apparatus writes the entire image in, for example, the RAM 7 (6).
全体画像を処理することにより、元画像を画像補正するための見本となる色相(以下、「特定色相」ということがある。)を決定する(7)。全体画像に対する処理内容については後述する。 By processing the entire image, a hue (hereinafter, also referred to as “specific hue”) as a sample for correcting the original image is determined (7). The processing content for the entire image will be described later.
全体画像を複数の領域に分割し、分割した領域ごとに所定の特徴量を抽出し、抽出した特徴量に関する情報をユーザに提示する(8)。具体的な処理について後述する。 The entire image is divided into a plurality of regions, a predetermined feature amount is extracted for each divided region, and information on the extracted feature amount is presented to the user (8). Specific processing will be described later.
ユーザは、提示された情報から所望の情報を選択する(9)。具体的な処理については後述する。 The user selects desired information from the presented information (9). Specific processing will be described later.
選択された情報に対応する特徴量を利用して、元画像を画像補正する(10)。具体的な処理については後述する。 The original image is corrected using the feature amount corresponding to the selected information (10). Specific processing will be described later.
なお、上述した図3の処理においては、メモリから画像を読み込んだ後にスキャナを利用して画像を読み込むものであるが、先にスキャナを利用して全体画像を読み込み、その後メモリから画像を読み込むよう構成してもよい。また、画像補正された元画像を印刷するよう構成してもよい。 In the process of FIG. 3 described above, an image is read using a scanner after reading an image from the memory. However, the entire image is read using the scanner first, and then the image is read from the memory. It may be configured. Further, an original image that has undergone image correction may be printed.
また、画像補正された元画像を印刷してもよい。 In addition, an original image that has undergone image correction may be printed.
[本発明の基本処理の第1実施形態]
次に、画像処理装置1における基本処理について説明する。図4は、本発明の基本処理の第1実施形態の概要を示すフローチャートである。
[First Embodiment of Basic Processing of the Present Invention]
Next, basic processing in the image processing apparatus 1 will be described. FIG. 4 is a flowchart showing an outline of the first embodiment of the basic processing of the present invention.
S11において、元画像、及び、全体画像が画像処理装置1のRAM7に読み込まれる。ここで、読み込まれた画像の形式は限定されない。 In S <b> 11, the original image and the entire image are read into the RAM 7 of the image processing apparatus 1. Here, the format of the read image is not limited.
S12において、読み込まれた全体画像の画素をそれぞれHSVパラメータに変換する。HSVパラメータへの変換処理については後述する。 In S12, each pixel of the read entire image is converted into an HSV parameter. The conversion process to the HSV parameter will be described later.
S13において、全体画像から特定色相を決定する。特定色相を決定する具体的な処理については後述する。 In S13, a specific hue is determined from the entire image. Specific processing for determining the specific hue will be described later.
S14において、読み込まれた元画像のそれぞれの画素をHSVパラメータに変換する。そして、S15において、当該HSVパラメータに基いて、元画像の特徴量として、第2特徴量を抽出する。 In S14, each pixel of the read original image is converted into an HSV parameter. In S15, the second feature value is extracted as the feature value of the original image based on the HSV parameter.
S16において、第1特徴量及び第2特徴量に基いて元画像を補正する。色補正の具体的な処理については後述する。 In S16, the original image is corrected based on the first feature value and the second feature value. Specific processing for color correction will be described later.
S17において、補正された元画像を印刷する。このとき、必要に応じてHSVパラメータは、他のパラメータ(例えば、RGBパラメータ)に変換される。RGBパラメータへの変換処理については後述する。なお、必要に応じ印刷処理を行わない構成としてもよい。 In S17, the corrected original image is printed. At this time, the HSV parameters are converted into other parameters (for example, RGB parameters) as necessary. The conversion process to RGB parameters will be described later. Note that a configuration may be adopted in which printing processing is not performed as necessary.
なお、上述した処理において、HSVパラメータではなく、L*c*h*パラメータを抽出してもよい。また、RGBパラメータ等の公知のパラメータであっても本発明は実現可能である。なお、以下においては、HSVパラメータを抽出する場合について説明する。 In the above-described processing, L * c * h * parameters may be extracted instead of HSV parameters. Further, the present invention can be realized even with known parameters such as RGB parameters. In the following, a case where HSV parameters are extracted will be described.
次に、図4のS12における全体画像の画素をHSVパラメータに変換する一例について説明する。以下においては、全体画像は、RGB形式であると仮定する。RGB形式からHSV形式への変換は以下のように行うことができる。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。 Next, an example in which the pixels of the entire image in S12 of FIG. 4 are converted into HSV parameters will be described. In the following, it is assumed that the entire image is in RGB format. Conversion from the RGB format to the HSV format can be performed as follows. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.
[RGB⇒HSV変換式]
max(a,b,c)はa,b,cの中で最も大きい値を表す。
min(a,b,c)はa,b,cの中で最も小さい値を表す。
V = max(R÷255,G÷255,B÷255)
Vが0でない時、
S = {V - min(R,G,B)} ÷ V
Vが0の時、
S = 0
{V - min(R,G,B)}が0でない時、
r = (V - R÷255)÷(V-min(R,G,B)
g = (V - G÷255)÷(V-min(R,G,B)
b = (V - B÷255)÷(V-min(R,G,B)
{V - min(R,G,B)}が0の時、
r = 0
g = 0
b = 0
V = R÷255の時
H = 60 × (b-g)
V = G÷255の時
H = 60 × ( 2+r-g)
V = B÷255の時
H = 60 × (4+g-r)
ただしH<0の時
H = H+360
[RGB → HSV conversion formula]
max (a, b, c) represents the largest value among a, b, and c.
min (a, b, c) represents the smallest value among a, b, and c.
V = max (R ÷ 255, G ÷ 255, B ÷ 255)
When V is not 0
S = {V-min (R, G, B)} ÷ V
When V is 0
S = 0
When {V-min (R, G, B)} is not 0,
r = (V-R ÷ 255) ÷ (V-min (R, G, B)
g = (V-G ÷ 255) ÷ (V-min (R, G, B)
b = (V-B ÷ 255) ÷ (V-min (R, G, B)
When {V-min (R, G, B)} is 0,
r = 0
g = 0
b = 0
When V = R ÷ 255
H = 60 × (bg)
When V = G ÷ 255
H = 60 × (2 + rg)
When V = B ÷ 255
H = 60 × (4 + gr)
However, when H <0
H = H + 360
次に、上述したS13の特定色相を決定する処理について説明する。図5は、色相特定処理のフローチャートである。なお、以下の処理においては、H値は、−30〜330未満の値をとるものとする。H値が上記範囲内でない場合は、H値を適宜変換することにより(例えば、“H値+360×n”もしくは“H値−360×n”、nは整数)、上記範囲の値をとるよう調整する。 Next, the process of determining the specific hue in S13 described above will be described. FIG. 5 is a flowchart of the hue specifying process. In the following processing, the H value takes a value of −30 to less than 330. When the H value is not within the above range, by appropriately converting the H value (for example, “H value + 360 × n” or “H value−360 × n”, n is an integer), the value in the above range is taken. adjust.
まず、S21において、全体画像の複数の領域に分割する。ここでは、一般的に用いられる6つの色相に基いて分割する。具体的には、それぞれの画素のH値に基き、
・R領域: −30以上〜30未満
・Y領域: 30以上〜90未満
・G領域: 90以上〜150未満
・C領域: 150以上〜210未満
・B領域: 210以上〜270未満
・M領域: 270以上〜330未満
に分割する。つまり、お手本画像の構成画素をその色相値に応じた上記分類基準に従い、6つの分類項目に分類する処理を行う。ここで、上記領域とH値の対応関係は、一例であり、適宜変更可能なものである。
First, in S21, the entire image is divided into a plurality of regions. Here, the image is divided based on six commonly used hues. Specifically, based on the H value of each pixel,
-R region: -30 or more and less than 30-Y region: 30 or more and less than 90-G region: 90 or more and less than 150-C region: 150 or more and less than 210-B region: 210 or more and less than 270-M region: Divide into 270 or more and less than 330. That is, a process of classifying the constituent pixels of the model image into six classification items according to the classification standard corresponding to the hue value is performed. Here, the correspondence relationship between the region and the H value is an example and can be changed as appropriate.
S22において、分割した領域が全体画像中に占める割合を計算する。ここで、全体画像中に占める割合を、以下のように定義する。
・R領域が全体画像中に占める割合:sRateR
・G領域が全体画像中に占める割合:sRateG
・B領域が全体画像中に占める割合:sRateB
・C領域が全体画像中に占める割合:sRateC
・M領域が全体画像中に占める割合:sRateM
・Y領域が全体画像中に占める割合:sRateY
In S22, the ratio of the divided area in the entire image is calculated. Here, the ratio of the entire image is defined as follows.
-Ratio of the R region in the entire image: sRateR
-Ratio of the G area in the entire image: sRateG
-Ratio of B area in the whole image: sRateB
-Ratio of the C area in the entire image: sRateC
-Ratio of the M area in the entire image: sRateM
The ratio of the Y area in the entire image: sRateY
ここで、上記割合は、例えばB領域については、
sRateB=(全体画像中のB領域の画素数)÷(全体画像の全画素数)として定義することができるが、他の式によって定義してもよい。
Here, the above ratio is, for example, for the B region.
Although it can be defined as sRateB = (number of pixels in the B region in the entire image) / (total number of pixels in the entire image), it may be defined by another formula.
次に、S23において、分割した領域のうち最も大きい領域(以下、「お手本候補領域」ということがある。)を特定し、その領域の色相を特定色相として決定する。 Next, in S23, the largest area among the divided areas (hereinafter, sometimes referred to as “example candidate area”) is specified, and the hue of the area is determined as the specific hue.
S24において、お手本候補領域のどの部分をお手本の特徴量とするかを決定する。例えば、図6に示す画像を全体画像として取得した場合、空の部分(B領域)の面積が大きいため、空の部分がお手本候補領域となる。しかしながら、図6中にAで囲った領域とBで囲った領域では、同じ青色であっても明度、彩度が異なる。そのため、空の部分全体をお手本画像とすると、ユーザが濃い空色部分に注目していたとしても、濃い空色部分と薄い空色部分が平均されてしまうことになる。そのため、お手本とする領域をさらに特定する必要がある。 In S24, it is determined which part of the model candidate area is to be the model feature. For example, when the image shown in FIG. 6 is acquired as the entire image, the area of the empty portion (B region) is large, so the empty portion becomes the model candidate region. However, in the region surrounded by A and the region surrounded by B in FIG. 6, the lightness and saturation are different even for the same blue color. Therefore, if the entire sky portion is used as a model image, even if the user is paying attention to the dark sky blue portion, the dark sky blue portion and the light sky blue portion are averaged. For this reason, it is necessary to further specify a model area.
図7に、お手本特徴量決定処理のフローチャートを示す。 FIG. 7 shows a flowchart of the model feature amount determination process.
まず、S31において、全体画像を分割する(図8参照)。なお、図8に示す例においては、全体画像を6分割したが、4分割、8分割等であってもよい。 First, in S31, the entire image is divided (see FIG. 8). In the example shown in FIG. 8, the entire image is divided into six parts, but it may be divided into four parts, eight parts, or the like.
次に、S32において、分割画像ごとに特定色相領域における特徴量を抽出する。抽出する特徴量としては、特定色相領域におけるS値、V値の代表値を挙げることができるが、他の特徴量であってもよい。S値、V値の代表値を特徴量とする場合は、分割領域ごとに、2つの特徴量を抽出することになる。 Next, in S32, the feature amount in the specific hue region is extracted for each divided image. As the feature quantity to be extracted, representative values of the S value and the V value in the specific hue region can be given, but other feature quantities may be used. When the representative value of the S value and the V value is used as the feature value, two feature values are extracted for each divided region.
S33において、S32で分割領域ごとに抽出した特徴量をソートして表示する。図9(A)、(B)に表示手段6上での表示態様の一例を示す。図9(A)においては、取得したS値の代表値を、彩度として表示している。図9(A)中の目盛30A〜30Fの座標値は、分割領域ごとに抽出したS値の代表値に対応している。したがって、分割領域のS値の代表値が偏っている場合は、図10(A)のように目盛も偏って配置されていてもよい。 In S33, the feature quantities extracted for each divided area in S32 are sorted and displayed. FIGS. 9A and 9B show examples of display modes on the display means 6. In FIG. 9A, the representative value of the acquired S value is displayed as saturation. The coordinate values of the scales 30A to 30F in FIG. 9A correspond to the representative values of the S values extracted for each divided region. Therefore, when the representative values of the S values of the divided areas are biased, the scales may be also biased as shown in FIG.
また、図9(B)においては、取得したV値の代表値を、明度として表示している。図9(B)中の目盛40A〜40Fの座標値は、分割領域ごとに抽出したV値の代表値に対応している。したがって、分割領域のS値の代表値が偏っている場合は、図10(B)のように目盛も偏って配置されていてもよい。 In FIG. 9B, the representative value of the acquired V value is displayed as brightness. The coordinate values of the scales 40A to 40F in FIG. 9B correspond to the representative values of the V values extracted for each divided region. Therefore, when the representative values of the S values of the divided areas are biased, the scales may be also biased as shown in FIG.
ユーザは、表示手段6に表示されているカーソル20を、操作パネル4及び/またはタッチパネルを用いて操作することにより、所望の特徴量を選択することができる。また、目盛に番号を付して表示し、所望の番号を直接入力させるよう構成してもよい。 The user can select a desired feature amount by operating the cursor 20 displayed on the display means 6 using the operation panel 4 and / or the touch panel. Further, the scale may be displayed with a number, and a desired number may be directly input.
S34において、S33で選択された特徴量に対応する分割領域を、お手本画像とする。 In S34, the divided area corresponding to the feature amount selected in S33 is set as a model image.
図5に説明を戻す。S25において、決定されたお手本画像から第1特徴量を抽出する。具体的には、お手本画像から特定色相の領域を抽出し、抽出した領域におけるH値の代表値、S値の代表値、V値の代表値を抽出する。なお、S値の代表値及びV値の代表値は、図7のS32で既に取得したものをRAM7等に記憶している場合は、再度計算する必要はない。 Returning to FIG. In S25, a first feature amount is extracted from the determined model image. Specifically, a region of a specific hue is extracted from the model image, and a representative value of H value, a representative value of S value, and a representative value of V value in the extracted region are extracted. Note that the representative value of the S value and the representative value of the V value do not need to be calculated again when the values already acquired in S32 of FIG. 7 are stored in the RAM 7 or the like.
図4に説明を戻す。S14において、元画像の画素をHSVに変換する。この処理は、S12と同じであるので説明を省略する。 Returning to FIG. In S14, the pixels of the original image are converted to HSV. Since this process is the same as S12, a description thereof will be omitted.
次に、図4中のS15の第2特徴量を抽出するための処理について図11を参照しつつ説明する。図11は、第2特徴量抽出処理のフローチャートである。 Next, the process for extracting the second feature amount in S15 in FIG. 4 will be described with reference to FIG. FIG. 11 is a flowchart of the second feature amount extraction process.
S41において、特定色相の領域を抽出する。 In S41, a region of a specific hue is extracted.
S42において、元画像に対し、上記特定色相の領域を抽出し、当該特定色相における、代表値及び特定色相の領域が元画像中に示す割合を取得する。特定色相がB(青)の場合は、以下のように定義される。また、他の色が特定色相である場合においても、同様に処理される。
・B領域の代表値:iHb,iSb,iVb
In S42, the region of the specific hue is extracted from the original image, and the ratio of the representative value and the region of the specific hue in the original image in the specific hue is acquired. When the specific hue is B (blue), it is defined as follows. The same processing is performed when the other color has a specific hue.
・ Representative value of B area: iHb, iSb, iVb
また、B領域が元画像中に占める割合を、以下のように定義する。
・B領域が元画像中に占める割合:iRateB
Further, the ratio of the area B to the original image is defined as follows.
-Ratio of B area in original image: iRateB
次に、図4のS16において実行される、第1特徴量及び第2特徴量に基いて元画像を補正する処理について詳細を説明する。この処理は、元画像の各画素のH値、S値、V値をそれぞれ変換することによって行われる。 Next, details of the process of correcting the original image based on the first feature value and the second feature value, which are executed in S16 of FIG. 4, will be described. This process is performed by converting the H value, S value, and V value of each pixel of the original image.
B領域の変換後のH’値については、S21で設定したB領域中の最小値をHmin,B領域中の最大値をHmaxとすれば、以下の式で求めることができる。 The H ′ value after the conversion of the B area can be obtained by the following equation, assuming that the minimum value in the B area set in S21 is Hmin and the maximum value in the B area is Hmax.
H<iHのときは、
H’=Hmin+(sHb−Hmin)×(H−Hmin)÷(iHb−Hmin)
When H <iH,
H ′ = Hmin + (sHb−Hmin) × (H−Hmin) ÷ (iHb−Hmin)
H>iHのときは、
H’=sHb+(Hmax−sHb)×(H−iHb)÷(Hmax−iHb)
When H> iH,
H ′ = sHb + (Hmax−sHb) × (H−iHb) ÷ (Hmax−iHb)
この式を用いることにより、変換対象の領域のみを変換することができる。 By using this equation, only the region to be converted can be converted.
ここで、H値の変換においては、図12に示すような色相補正テーブルを用いることができる。図12は、B領域のみを変換対象とした場合の色相補正テーブルである。図12に示す色相補正テーブルにおいては、B領域以外のH値は、H’=Hであるから、画像補正は行われない。 Here, in the conversion of the H value, a hue correction table as shown in FIG. 12 can be used. FIG. 12 is a hue correction table in the case where only the B region is to be converted. In the hue correction table shown in FIG. 12, since the H values other than the B area are H ′ = H, image correction is not performed.
次に、S値及びV値における変換について説明する。S値及びY値は、H値によって分割された領域ごとに値が変換される。例えば、
S ≦ iSbのときは、
S’=S×(sSb÷iSb) ・・・(式1)
S > iSbのときは、
S’=1+(S−1)×{(1−sSb)÷(1−iSb)} ・・・(式2)
V ≦ iVbのときは、
V’=V×(sVb÷iVb) ・・・(式3)
V > iVbのときは、
V’=1+(V−1)×{(1−sVb)÷(1−iVb)} ・・・(式4)
の式で求めることができる。
なお、以下においては、上記S値の変換式で定義される変換テーブルを彩度補正テーブルということがあり、また、上記V値の変換式で定義される変換テーブルを明度補正テーブルということがある。
Next, conversion in the S value and the V value will be described. The S value and the Y value are converted for each area divided by the H value. For example,
When S ≦ iSb,
S ′ = S × (sSb ÷ iSb) (Formula 1)
When S> iSb,
S ′ = 1 + (S−1) × {(1−sSb) ÷ (1−iSb)} (Formula 2)
When V ≦ iVb,
V ′ = V × (sVb ÷ iVb) (Formula 3)
When V> iVb,
V ′ = 1 + (V−1) × {(1−sVb) ÷ (1−iVb)} (Formula 4)
It can be calculated by the following formula.
In the following, the conversion table defined by the S value conversion formula may be referred to as a saturation correction table, and the conversion table defined by the V value conversion formula may be referred to as a brightness correction table. .
次に、図4のS17における、プリンタ10に適するフォーマット(例えば、RGB値)に変換するための変換式について説明する。なお、下記に示す変換式は一例であり、他の変換式で変換してもよいことはいうまでもない。 Next, a conversion formula for converting into a format (for example, RGB value) suitable for the printer 10 in S17 of FIG. 4 will be described. In addition, the conversion formula shown below is an example, and it cannot be overemphasized that you may convert with another conversion formula.
(以下で示すin, fl, m, nは、HSVからRGBを算出する過程で利用する媒介変数である)
in を (H÷60)の整数部分、fl を (H÷60)の小数部分とする。
in が偶数の場合
fl = 1-fl
m = V × (1-S)
n = V × (1-S×fl)
inが0の時
R = V × 255
G = n × 255
B = m × 255
inが1の時
R = n × 255
G = V × 255
B = m × 255
inが2の時
R = m × 255
G = V × 255
B = n × 255
inが3の時
R = m × 255
G = n × 255
B = V × 255
inが4の時
R = n × 255
G = m × 255
B = V × 255
inが5の時
R = V × 255
G = m × 255
B = n × 255
として変換される。
(In, fl, m, and n shown below are parameters used in the process of calculating RGB from HSV)
Let in be the integer part of (H ÷ 60) and fl be the decimal part of (H ÷ 60).
If in is an even number
fl = 1-fl
m = V × (1-S)
n = V × (1-S × fl)
When in is 0
R = V × 255
G = n × 255
B = m × 255
When in is 1
R = n × 255
G = V × 255
B = m × 255
When in is 2
R = m × 255
G = V × 255
B = n × 255
When in is 3
R = m × 255
G = n × 255
B = V × 255
When in is 4
R = n × 255
G = m × 255
B = V × 255
When in is 5
R = V × 255
G = m × 255
B = n × 255
Is converted as
上述したとおり本発明によれば、全体画像からお手本とする色領域を決定し、ユーザによって所望の色合いを決定させるから、ユーザの所望する画像補正処理を高精度に行うことができる。また、上述した画像補正処理を行うことによって、H値に基いて分割された領域ごとに、元画像の色合いをお手本画像の色合いに補正することができる。 As described above, according to the present invention, a color area to be a model is determined from the entire image, and a desired color is determined by the user, so that the image correction process desired by the user can be performed with high accuracy. In addition, by performing the above-described image correction processing, it is possible to correct the hue of the original image to the hue of the model image for each region divided based on the H value.
[画像補正処理(第2実施形態)]
上述したH値の変換処理においては、特定色相のみのH値を変換するため、画像補正した領域と画像補正しなかった領域との間に擬似輪郭(階調とび)が生成するおそれがある。すなわち、色相補正テーブルとして表現した場合は、図12のようになる。図12に示す色相補正テーブルは、元画像のH値の代表値を「H」としてX軸にとり、お手本領域のH値の代表値を「H’」としてY軸にとったものである。階調とびの発生が好ましくない場合は、H値に対し、以下のような画像補正処理を行えばよい。なお、以下の説明においては、B領域を特定色相とした場合について説明するが、他の領域を特定色相とした場合においても、基本的に処理は同じである。
[Image Correction Processing (Second Embodiment)]
In the H value conversion process described above, since the H value of only a specific hue is converted, there is a possibility that a pseudo contour (tone jump) may be generated between the image-corrected region and the image-uncorrected region. That is, when expressed as a hue correction table, it is as shown in FIG. The hue correction table shown in FIG. 12 is obtained by taking the representative value of the H value of the original image as “H” on the X axis and taking the representative value of the H value of the model area as “H ′” on the Y axis. When the occurrence of gradation skip is not preferable, the following image correction process may be performed on the H value. In the following description, the case where the B area is set to the specific hue will be described. However, the process is basically the same when the other area is set to the specific hue.
H’=(y2-y1)÷(x2-x1)×H - (y2-y1)÷(x2-x1)×x2 + y2
・・・(式5)
ここで、x1,x2,y1,y2は、以下のように定義される。
H ′ = (y2−y1) ÷ (x2−x1) × H− (y2−y1) ÷ (x2−x1) × x2 + y2
... (Formula 5)
Here, x1, x2, y1, and y2 are defined as follows.
iHc≦H<iHbのときは、
(x1,y1)= (iHc,sHc)
(x2,y2)= (iHb,sHb)
When iHc ≦ H <iHb,
(X1, y1) = (iHc, sHc)
(X2, y2) = (iHb, sHb)
iHb≦H<iHmのときは、
(x1,y1)= (iHb,sHb)
(x2,y2)= (iHm,sHm)
When iHb ≦ H <iHm,
(X1, y1) = (iHb, sHb)
(X2, y2) = (iHm, sHm)
この場合、HとH’との関係は、図13に示すような色相補正テーブルとしても表現することができる。この色相補正テーブルにおいては、色空間上B領域に隣接するC領域におけるH値の代表値(iHc=180,sHc=180)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれ、また、色空間上B領域に隣接するM領域におけるH値の代表値(iHm=300,sHm=300)とB領域におけるH値の代表値(iHb,sHb)とが直線で結ばれることになる。 In this case, the relationship between H and H 'can also be expressed as a hue correction table as shown in FIG. In this hue correction table, the H value representative value (iHc = 180, sHc = 180) in the C region adjacent to the B region in the color space and the H value representative value (iHb, sHb) in the B region are linear. In addition, the representative value of the H value (iHm = 300, sHm = 300) in the M region adjacent to the B region in the color space and the representative value of the H value in the B region (iHb, sHb) are connected by a straight line. It will be.
このため、H値が180<H≦210のC領域、及びH値が270<H≦300のM領域についても、変換されることになる。この変換量は、B領域に近い値ほど大きくなる。 Therefore, the C region where the H value is 180 <H ≦ 210 and the M region where the H value is 270 <H ≦ 300 are also converted. This conversion amount becomes larger as the value is closer to the B region.
上記のとおり、画像補正処理の第2実施形態においては、変換対象ではない領域であっても、色空間上隣接するH値については一部変換されることになるから、変換対象の領域の変換対象ではない領域との間に擬似輪郭(階調とび)が生成されることを防ぐことができる。 As described above, in the second embodiment of the image correction processing, even if the region is not the conversion target, the H value adjacent in the color space is partially converted. It is possible to prevent the generation of a pseudo contour (gradation skip) between a non-target region.
[画像補正処理(第3実施形態)]
上記画像補正処理の第2実施形態においては、S値及びV値に対し、領域ごとに補正カーブ(変換式)を独立して用いるため、擬似輪郭(階調とび)が生成されるおそれがある。すなわち、図14に示すように、領域ごとに、SとS’との関係を示すテーブルを有しており、隣接する領域におけるテーブルの性質を何ら考慮していない。
[Image Correction Processing (Third Embodiment)]
In the second embodiment of the image correction process, since a correction curve (conversion formula) is independently used for each region with respect to the S value and the V value, a pseudo contour (tone jump) may be generated. . That is, as shown in FIG. 14, each region has a table indicating the relationship between S and S ′, and no consideration is given to the nature of the table in adjacent regions.
本実施形態においては、図15に示すように、各色領域における補正カーブを滑らかにすることで階調とびを防止できる。 In the present embodiment, as shown in FIG. 15, it is possible to prevent gradation skip by smoothing the correction curve in each color region.
本実施形態の具体的な処理について以下に説明する。図16及び図17を参照しつつB領域の一部の画像補正処理について説明を行うが、他の領域についても処理の内容は基本的には同じである。 Specific processing of this embodiment will be described below. The image correction process for a part of the area B will be described with reference to FIGS. 16 and 17, but the contents of the process are basically the same for the other areas.
本実施形態における補正されたS値(Sb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領域)にH値の代表値(Hcmid)、
− 上記式(1)に対応する変換式で変換された(すなわち、B領域の彩度補正テーブルを用いて算出された)変換対象領域のS値(Sb’、Hbmidに対応するもの)、
− 上記式(2)に対応する変換式で変換された(すなわち、C領域の彩度補正テーブルを用いて算出された)隣接する領域のS値(Sc’、Hcidに対応するもの)、
を用いて、以下の式で求めることができる。
The corrected S value (Sb ″) in this embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value in the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted;
-S value (corresponding to Sb ', Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (1) (that is, calculated using the saturation correction table of the B area),
-S value of the adjacent area (that corresponds to Sc ', Hcid) converted by the conversion formula corresponding to the above formula (2) (that is, calculated using the saturation correction table of the C area),
Can be obtained by the following equation.
Sb’’ = {(H−Hcmid)×Sb’+(Hbmid−H)×Sc’}÷
{(Hbmid−Hcmid)} ・・・(式6)
Sb ″ = {(H−Hcmid) × Sb ′ + (Hbmid−H) × Sc ′} ÷
{(Hbmid−Hcmid)} (Formula 6)
また、本実施形態における補正されたV値(Vb’’)は、
− 変換対象領域のH値(H)、
− 変換対象とする領域のH値の代表値(Hbmid)、
− 変換対象となる画素のH値の色相座標位置に近い側の隣接領域(この場合は、C領域)にH値の代表値(Hcmid)、
− 上記式(3)に対応する変換式で変換された(すなわち、B領域の明度補正テーブルを用いて算出された)変換対象領域のV値(Vb’、Hbmidに対応するもの)、
− 上記式(4)に対応する変換式で変換された(すなわち、C領域の明度補正テーブルを用いて算出された)隣接する領域のS値(Vc’、Hcmidに対応するもの)、
を用いて、以下の式で求めることができる。
Further, the corrected V value (Vb ″) in the present embodiment is
-H value (H) of the conversion target area,
-H value representative value (Hbmid) of the area to be converted,
A representative value (Hcmid) of the H value in the adjacent region (in this case, the C region) closer to the hue coordinate position of the H value of the pixel to be converted;
-V value (corresponding to Vb ′, Hbmid) of the conversion target area converted by the conversion formula corresponding to the above formula (3) (that is, calculated using the brightness correction table of the B area),
-S value of the adjacent area (that corresponds to Vc ′, Hcmid) converted by the conversion formula corresponding to the above formula (4) (that is, calculated using the brightness correction table of the C area),
Can be obtained by the following equation.
Vb’’ = {(H−Hcmid)×Vb’+(Hbmid−H)×Vc’}÷
{(Hbmid−Hcmid)} ・・・(式7)
Vb ″ = {(H−Hcmid) × Vb ′ + (Hbmid−H) × Vc ′} ÷
{(Hbmid−Hcmid)} (Expression 7)
上述した処理を、図18に示されるB領域の一部(H値の範囲:210<H≦240)及びC領域の一部(H値の範囲180<H≦210)に対して行う。これにより、入力の色相値(H)に応じた重み付け計算により、出力の彩度値(S’’)及び明度値(V’’)を求めることにより、各色相間の補正効果を滑らかにすることができる。 The above-described processing is performed for a part of the B region (H value range: 210 <H ≦ 240) and a part of the C region (H value range 180 <H ≦ 210) shown in FIG. As a result, the output saturation value (S ″) and lightness value (V ″) are obtained by weighting calculation according to the input hue value (H), thereby smoothing the correction effect between the hues. Can do.
また、上述した画像補正処理を適宜組合せて本発明を実現することも可能である。すなわち、Hにおいては、画像補正を際立たせるようにし、SとVにおいては階調とびを防止する処理するよう構成することもできる。 Further, the present invention can be realized by appropriately combining the above-described image correction processes. That is, it is possible to make the image correction stand out in H, and to prevent gradation skipping in S and V.
本発明の一例として挙げた分割領域数である「6」は、色彩を表現する色域の1つであるRGB空間(頂点数8)から、無彩色である白と黒とを除いた頂点の数「6」と同じである。人が色彩を識別するには、色領域の数として6であれば充分であり、6より少なくすると、利用者がお手本画像のように変換されていないと感じる恐れがある。また6より細かく分割すれば、より変換精度は高くなる。しかしながら、人には識別できなくなる可能性が高くなり、また、分割数の増加に伴い計算量も増える。プリンタを用いる場合、印刷結果として補正対象の画像を得るまでの時間が遅くなり、利用者の不満も増加する可能性も高くなるので、分割される領域の数は6が好ましいと考えられる。 The number of divided areas “6” given as an example of the present invention is the number of vertices excluding white and black, which are achromatic colors, from the RGB space (number of vertices 8) that is one of the color gamuts expressing colors. It is the same as the number “6”. In order for a person to identify a color, six is sufficient as the number of color regions, and if it is less than six, the user may feel that it has not been converted like a model image. If the data is divided more finely than 6, the conversion accuracy becomes higher. However, there is a high possibility that the person cannot be identified, and the amount of calculation increases as the number of divisions increases. In the case of using a printer, the time until obtaining an image to be corrected as a printing result is delayed, and there is a high possibility that user dissatisfaction will increase. Therefore, it is considered that the number of divided areas is preferably 6.
上述したとおり、本発明は、記憶媒体より入力された画像に対し、スキャナより入力された画像の特徴を有するよう画像補正を行うことにより、簡易な操作で、かつ、感覚的に画像補正の操作を行うことができる。 As described above, the present invention performs an image correction operation in a simple and sensuous manner by performing image correction on an image input from a storage medium so as to have the characteristics of the image input from the scanner. It can be performed.
また、本発明の画像補正処理によれば、例えば、元画像として建物と空が写っている元画像に対し、空の青を鮮やかな海の青に補正したい場合は、お手本画像として鮮やかな海の写っている写真をスキャナで読み込むという作業によって、元画像の青色が鮮やかな海の青に補正することができる。 Further, according to the image correction processing of the present invention, for example, when it is desired to correct the sky blue to the bright sea blue with respect to the original image in which the building and the sky are reflected as the original image, You can correct the blue color of the original image to the bright blue of the ocean by reading the photo with the scanner.
また、人の顔が映っている画像において、肌色を明るくしたい場合は、明るい肌色として移っている手のひら等の写真をスキャナで読み込むという作業によって、元画像の肌色を明るい肌色に補正することができる。 Also, if you want to brighten the skin color in an image showing a human face, you can correct the skin color of the original image to a light skin color by reading a picture of the palm that has moved to a bright skin color with a scanner. .
さらに、濃い色、薄い色等の詳細なパラメータを間接的、感覚的な操作で選択することができ、ユーザの希望に沿った画像補正処理が可能となる。 Further, detailed parameters such as dark colors and light colors can be selected by indirect and sensory operations, and image correction processing according to the user's wishes can be performed.
ユーザは、パラメータの入力等の必要がないので、何ら専門的な知識が必要とせず、画像補正のお手本となる画像を読み取らせるだけで、所望の画像補正を行うことができる。 Since the user does not need to input parameters or the like, he / she does not need any specialized knowledge and can perform desired image correction only by reading an image serving as a model for image correction.
なお、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。例えば、スキャナからお手本画像を読み取ることに代えて、記憶媒体よりお手本画像として画像を読み取ることもできる。また、記憶媒体から元画像を読み取ることに代えて、スキャナより元画像を読み込むこともできる。例えば、画像処理装置として、スキャナおよびプリンタが搭載された複合機を実施形態としてあげたが、これに限らず、例えば、パーソナルコンピュータのような情報処理装置にて、画像補正を行い、情報処理装置に接続されたプリンタに印刷処理を行わせる構成であってもよい。 In addition, this invention is not limited to the said embodiment, Of course, various improvement and deformation | transformation are possible within the range which does not deviate from the summary of this invention. For example, instead of reading a model image from a scanner, the image can be read as a model image from a storage medium. Further, instead of reading the original image from the storage medium, the original image can be read from the scanner. For example, a multifunction machine equipped with a scanner and a printer is described as an embodiment as an image processing apparatus. However, the present invention is not limited to this. For example, an information processing apparatus such as a personal computer performs image correction, and the information processing apparatus. The printer may be configured to perform printing processing.
また、上述した処理を実行するための画像処理方法としても本発明は実現可能である。さらに、当該画像処理方法をコンピュータで実行させるためのプログラム、及び、そのプログラムが記録された記録媒体としても本発明は実現可能である。 The present invention can also be realized as an image processing method for executing the above-described processing. Further, the present invention can be realized as a program for causing the computer to execute the image processing method and a recording medium on which the program is recorded.
また、上述したフローチャートは単なる一例であり、上記処理と同等の結果を得ることできる処理であれば、他のフローチャートによって処理を実現してもよい。 Further, the above-described flowchart is merely an example, and the process may be realized by another flowchart as long as it can obtain a result equivalent to the above-described process.
さらに、補正された元画像を印刷するのみならず、記憶媒体に記憶したり、他の装置に送信することも可能である。 Furthermore, not only can the corrected original image be printed, but it can also be stored in a storage medium or transmitted to another device.
1 画像処理装置
2 スキャナ
3 メモリスロット
4 操作パネル
5 排出口
6 表示手段
10 プリンタ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Scanner 3 Memory slot 4 Operation panel 5 Ejection port 6 Display means 10 Printer
Claims (10)
前記第1画像入力手段は、第1画像を入力し、
前記第2画像入力手段は、第2画像を入力し、
前記色相特定手段は、前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定し、
前記指定領域決定手段は、
前記第1画像を複数の領域に分割し、
前記複数の領域ごとに、前記特定色相の領域を抽出し、
前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出し、
前記複数の領域それぞれに対応した複数の表示用特徴量に関する情報を表示部に表示し、
前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させ、
前記1つの表示用特徴量に対応する分割領域を指定領域として決定し、
前記特徴量抽出手段は、前記第1画像中の指定領域に基いて第1特徴量を、前記第2画像に基いて第2特徴量を抽出し、
前記画像補正手段は、前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正する、
ことを特徴とする画像処理装置。 In an image processing apparatus comprising a first image input means, a second image input means, a hue identification means, a designated area determination means, a feature amount extraction means, and an image correction means,
The first image input means inputs a first image,
The second image input means inputs a second image,
The hue specifying means specifies a hue component having the largest component ratio among the hue components constituting the first image as a specific hue,
The designated area determining means includes:
Dividing the first image into a plurality of regions;
For each of the plurality of regions, extract the region of the specific hue,
For each of the plurality of regions, a display feature amount is extracted from the extracted region,
Information on a plurality of display feature amounts corresponding to each of the plurality of regions is displayed on a display unit,
Let the user select one display feature value from the display feature values displayed on the display unit;
Determining a divided region corresponding to the one display feature amount as a designated region;
The feature amount extraction unit extracts a first feature amount based on a designated area in the first image, and extracts a second feature amount based on the second image;
The image correcting means corrects the second image based on the first feature amount and the second feature amount;
An image processing apparatus.
ことを特徴とする請求項1に記載の画像処理装置。 Of the areas divided by the designated area determining means, the display feature amount corresponding to a divided area in which the specific hue area in the divided area occupies a predetermined amount or less is excluded from the display target. ,
The image processing apparatus according to claim 1.
前記画像補正手段は、前記補正データに基づいて前記第2画像を画像補正する、
ことを特徴とする請求項1または2に記載の画像処理装置。 Correction data creating means for creating correction data based on the first feature quantity and the second feature quantity;
The image correcting means corrects the second image based on the correction data;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記第1画像、前記第2画像それぞれから色相に関する特徴量を抽出し、
前記色相に関する特徴量に基いて前記第1画像及び前記第2画像それぞれを複数の領域に分割し、
分割した領域ごとに色相以外に関する特徴量を抽出し、
前記補正データ作成手段は、
前記第1画像及び前記第2画像それぞれの分割された領域ごとに、前記色相に関する特徴量の代表値を抽出し、当該代表値に基いて色相補正データを作成し、
前記第1画像及び前記第2画像それぞれの分割された領域ごとに、前記色相以外に関する特徴量の代表値を抽出し、
前記画像補正手段は、
前記第2画像における画素ごとの色相に関する特徴量を、前記色相補正データに基いて補正し、
前記第2画像の画素ごとの色相以外に関する特徴量を、前記領域ごとの代表値に基いて補正する、
ことを特徴とする請求項3に記載の画像処理装置。 The feature amount extraction means includes:
Extracting a feature quantity related to hue from each of the first image and the second image;
Dividing each of the first image and the second image into a plurality of regions based on the feature amount relating to the hue;
Extract features other than hue for each divided area,
The correction data creating means includes
For each of the divided areas of the first image and the second image, a representative value of the feature value related to the hue is extracted, and hue correction data is created based on the representative value,
For each of the divided areas of the first image and the second image, extract a representative value of the feature amount related to other than the hue,
The image correcting means includes
Correcting a feature amount related to a hue for each pixel in the second image based on the hue correction data;
Correcting a feature amount related to other than the hue for each pixel of the second image based on a representative value for each region;
The image processing apparatus according to claim 3.
ことを特徴とする請求項1〜4のいずれかに記載の画像処理装置。 The hue specifying means specifies the hue based on the H value in the HSV space;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1〜5のいずれかに記載の画像処理装置。 The display feature amount is a feature amount related to lightness and / or saturation.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記第2画像入力手段は、印刷媒体に記憶された画像情報を第2画像として入力する、
ことを特徴とする請求項1〜6のいずれかに記載の画像処理装置。 The first image input means inputs an image optically read from a print medium set at a predetermined reading position as a first image,
The second image input means inputs image information stored in a print medium as a second image;
An image processing apparatus according to any one of claims 1 to 6.
前記印刷制御手段は、前記補正された第2画像情報を印刷するための処理を行う、
ことを特徴とする請求項1〜7のいずれかに記載の画像処理装置。 A printing control unit;
The print control means performs a process for printing the corrected second image information.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
第2画像を入力する第2画像入力ステップ、
前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定する色相特定ステップ、
前記第1画像を複数の領域に分割する分割ステップ、
前記複数の領域ごとに、前記特定色相の領域を抽出する特定色相抽出ステップ、
前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出する表示量特徴量抽出ステップ、
前記複数の領域それぞれに対応した複数の表示用特徴量に関する情報を表示部に表示する表示ステップ、
前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させる特徴量選択ステップ、
前記1つの表示用特徴量に対応する分割領域を指定領域として決定する指定領域決定ステップ、
前記第1画像中の指定領域に基いて第1特徴量を抽出する第1特徴量抽出ステップ、
前記第2に画像に基いて第2特徴量を抽出する第2特徴量抽出ステップ、
前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正する画像補正ステップ、
からなる画像処理方法。 A first image input step for inputting a first image;
A second image input step for inputting a second image;
A hue specifying step for specifying a hue component having the largest component ratio among hue components constituting the first image as a specific hue;
A dividing step of dividing the first image into a plurality of regions;
A specific hue extraction step for extracting the specific hue area for each of the plurality of areas;
A display feature amount extraction step for extracting a display feature amount from the extracted region for each of the plurality of regions;
A display step of displaying information on a plurality of display feature amounts corresponding to each of the plurality of regions on a display unit;
A feature amount selection step for allowing a user to select one display feature amount from the display feature amount displayed on the display unit;
A designated area determining step for determining a divided area corresponding to the one display feature amount as a designated area;
A first feature amount extracting step of extracting a first feature amount based on a designated region in the first image;
A second feature amount extracting step for extracting a second feature amount based on the second image;
An image correction step of correcting the second image based on the first feature amount and the second feature amount;
An image processing method comprising:
第1画像を入力する第1画像入力ステップ、
第2画像を入力する第2画像入力ステップ、
前記第1画像を構成する色相成分のうち、最も構成割合の大きい色相成分を特定色相として特定する色相特定ステップ、
前記第1画像を複数の領域に分割する分割ステップ、
前記複数の領域ごとに、前記特定色相の領域を抽出する特定色相抽出ステップ、
前記複数の領域ごとに、前記抽出した領域から表示用特徴量を抽出する表示量特徴量抽出ステップ、
前記複数の領域それぞれに対応した複数の表示用特徴量に関する情報を表示部に表示する表示ステップ、
前記表示部に表示された前記表示用特徴量から1つの表示用特徴量をユーザに選択させる特徴量選択ステップ、
前記1つの表示用特徴量に対応する分割領域を指定領域として決定する指定領域決定ステップ、
前記第1画像中の指定領域に基いて第1特徴量を抽出する第1特徴量抽出ステップ、
前記第2に画像に基いて第2特徴量を抽出する第2特徴量抽出ステップ、
前記第1特徴量及び前記第2特徴量に基いて、前記第2画像を画像補正する画像補正ステップ、
を実行させるための画像処理プログラム。
On the computer,
A first image input step for inputting a first image;
A second image input step for inputting a second image;
A hue specifying step for specifying a hue component having the largest component ratio among hue components constituting the first image as a specific hue;
A dividing step of dividing the first image into a plurality of regions;
A specific hue extraction step for extracting the specific hue area for each of the plurality of areas;
A display feature amount extraction step for extracting a display feature amount from the extracted region for each of the plurality of regions;
A display step of displaying information on a plurality of display feature amounts corresponding to each of the plurality of regions on a display unit;
A feature amount selection step for allowing a user to select one display feature amount from the display feature amount displayed on the display unit;
A designated area determining step for determining a divided area corresponding to the one display feature amount as a designated area;
A first feature amount extracting step of extracting a first feature amount based on a designated region in the first image;
A second feature amount extracting step for extracting a second feature amount based on the second image;
An image correction step of correcting the second image based on the first feature amount and the second feature amount;
An image processing program for executing
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007226586A JP4826562B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus, image processing method, and image processing program |
US12/202,872 US8174731B2 (en) | 2007-08-31 | 2008-09-02 | Image processing device outputting image for selecting sample image for image correction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007226586A JP4826562B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009060431A true JP2009060431A (en) | 2009-03-19 |
JP4826562B2 JP4826562B2 (en) | 2011-11-30 |
Family
ID=40555743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007226586A Expired - Fee Related JP4826562B2 (en) | 2007-08-31 | 2007-08-31 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4826562B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010128683A1 (en) * | 2009-05-08 | 2010-11-11 | Sharp Kabushiki Kaisha | Blue sky color detection technique |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05119752A (en) * | 1991-10-28 | 1993-05-18 | Fujitsu Ltd | Method and device for adjusting color of color image |
JPH09172553A (en) * | 1995-12-19 | 1997-06-30 | Toppan Printing Co Ltd | Gradation correction device |
JPH09284583A (en) * | 1996-04-17 | 1997-10-31 | Toppan Printing Co Ltd | Color correction device |
JPH10149441A (en) * | 1996-11-20 | 1998-06-02 | Casio Comput Co Ltd | Picture processing method and device therefor |
JP2005202469A (en) * | 2004-01-13 | 2005-07-28 | Fuji Xerox Co Ltd | Image processor, image processing method and program |
-
2007
- 2007-08-31 JP JP2007226586A patent/JP4826562B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05119752A (en) * | 1991-10-28 | 1993-05-18 | Fujitsu Ltd | Method and device for adjusting color of color image |
JPH09172553A (en) * | 1995-12-19 | 1997-06-30 | Toppan Printing Co Ltd | Gradation correction device |
JPH09284583A (en) * | 1996-04-17 | 1997-10-31 | Toppan Printing Co Ltd | Color correction device |
JPH10149441A (en) * | 1996-11-20 | 1998-06-02 | Casio Comput Co Ltd | Picture processing method and device therefor |
JP2005202469A (en) * | 2004-01-13 | 2005-07-28 | Fuji Xerox Co Ltd | Image processor, image processing method and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010128683A1 (en) * | 2009-05-08 | 2010-11-11 | Sharp Kabushiki Kaisha | Blue sky color detection technique |
US8351724B2 (en) | 2009-05-08 | 2013-01-08 | Sharp Laboratories Of America, Inc. | Blue sky color detection technique |
Also Published As
Publication number | Publication date |
---|---|
JP4826562B2 (en) | 2011-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4442664B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US8842349B2 (en) | Color conversion method and profile generation method | |
US20090027732A1 (en) | Image processing apparatus, image processing method, and computer program | |
KR100374019B1 (en) | Image processing method and apparatus, image processing system, and storage medium | |
JP2010273144A (en) | Image processor, control method thereof, and program | |
US8174731B2 (en) | Image processing device outputting image for selecting sample image for image correction | |
WO2015122102A1 (en) | Image processing apparatus, image processing system, image processing method, and recording medium | |
JP2022184133A (en) | Electronic watermark analyzing device and electronic watermark analyzing method | |
US8270029B2 (en) | Methods, apparatus and systems for using black-only on the neutral axis in color management profiles | |
US8633943B2 (en) | Image display apparatus, image display method, and program storage medium for arranging and displaying images of a plurality of tones | |
US20090225379A1 (en) | Printing method, printing apparatus, corresponding table creating method and programs | |
JP4389977B2 (en) | Image printing apparatus, image printing method, and image printing program | |
JP4985243B2 (en) | Image processing apparatus and image processing program | |
JP2008147978A (en) | Image processor and image processing method | |
JP4433017B2 (en) | Image processing apparatus and image processing program | |
JP4826562B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2000182045A (en) | Method and picture for processing picture, picture processing system and recording medium | |
US8094343B2 (en) | Image processor | |
JP4442665B2 (en) | Image processing apparatus and image processing program | |
JP4831020B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4831019B2 (en) | Image processing apparatus, image processing method, and image processing printing program | |
JP4840295B2 (en) | Image processing apparatus and image processing program | |
JP4442663B2 (en) | Image processing apparatus and image processing program | |
JP2008153952A (en) | Image processor, image processing program and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110829 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4826562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |