JP2003248825A - Image processing apparatus, image processing method, image processing program, and storage medium - Google Patents
Image processing apparatus, image processing method, image processing program, and storage mediumInfo
- Publication number
- JP2003248825A JP2003248825A JP2002046541A JP2002046541A JP2003248825A JP 2003248825 A JP2003248825 A JP 2003248825A JP 2002046541 A JP2002046541 A JP 2002046541A JP 2002046541 A JP2002046541 A JP 2002046541A JP 2003248825 A JP2003248825 A JP 2003248825A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- sub
- objects
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 29
- 238000012937 correction Methods 0.000 claims abstract description 194
- 238000000034 method Methods 0.000 claims abstract description 123
- 238000004364 calculation method Methods 0.000 abstract description 30
- 238000003702 image correction Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 26
- 238000007796 conventional method Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、デジタルカメラ等
で撮影されたデジタル画像、ネガフィルムなどをフィル
ムスキャナ等で入力したデジタル画像、写真等を反射型
スキャナで入力したデジタル画像、PDL(Page
Description Language:ページ記
述言語)で記述された画像などを好ましく再現するため
に行うべき補正方法を決定する技術に関するものであ
る。また、同様の技術を用いて画像を分類するための分
類情報を決定する技術に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital image taken by a digital camera or the like, a digital image obtained by inputting a negative film or the like with a film scanner or the like, a digital image obtained by inputting a photograph or the like with a reflection type scanner, a PDL (Page).
The present invention relates to a technique for determining a correction method to be performed in order to preferably reproduce an image described in Description Language (page description language). The present invention also relates to a technique for determining classification information for classifying images using the same technique.
【0002】[0002]
【従来の技術】一般のデジタルカメラ等を利用して撮影
を行う場合には、撮影の際にデジタルカメラに備えられ
ている測光システムによって露光条件などの撮影条件が
自動的に設定され、その撮影条件に従って撮影する場合
が多い。自動的に設定された撮影条件は、被写体がごく
平均的な条件であることを前提として決められるため、
撮影時の照明条件や、被写体への光の当たり具合、逆光
条件など、平均的な条件とは異なる条件下では、所望の
画像を得ることができない場合がある。例えば、逆光条
件においては、シーン全体としては明るいため、主要被
写体(例えば人物の顔など)が暗く写ってしまうことが
ある。また、被写体を照らす光源の違い(太陽光、蛍光
灯など)や、屋外での太陽の条件(夕焼け、曇りなど)
により、著しくカラーバランスがシフトして写りこんで
しまう不具合が生じる場合があった。もちろん、フィル
ムカメラなどにおいても同様であり、自動的に設定され
た撮影条件に従って撮影された場合には、フィルム上の
画像において同様の問題が発生しており、フィルムスキ
ャナなどで読み取ったデジタル画像においても同様であ
る。2. Description of the Related Art When a general digital camera or the like is used for shooting, the photometric system provided in the digital camera automatically sets shooting conditions such as exposure conditions when shooting. In many cases, shooting is done according to the conditions. The automatically set shooting conditions are based on the assumption that the subject is a very average condition.
A desired image may not be obtained under a condition different from the average condition such as the illumination condition at the time of shooting, the degree of light hitting the subject, and the backlight condition. For example, under the backlight condition, the main scene (for example, the face of a person) may appear dark because the entire scene is bright. Also, the difference in the light source that illuminates the subject (sunlight, fluorescent light, etc.) and the conditions of the sun outdoors (sunset, cloudy, etc.)
As a result, there may be a problem that the color balance is remarkably shifted and reflected. Of course, the same applies to film cameras, etc., and when shooting under the automatically set shooting conditions, similar problems occur in images on film, and in digital images read by film scanners etc. Is also the same.
【0003】このような不具合に対して、デジタル画像
を補正処理することによって所望の画像を得ることが考
えられる。しかし、一般の不慣れなユーザが各種の補正
処理を選択しながら、パラメータを調整して補正処理を
行ってゆくことは非常に困難である。そのため、自動的
に最適な画像へ補正することが考えられている。For such a problem, it is possible to obtain a desired image by correcting the digital image. However, it is very difficult for a general unfamiliar user to adjust the parameters and perform the correction process while selecting various correction processes. Therefore, it is considered to automatically correct the image.
【0004】自動的に画像の補正処理を行うためには、
当該画像がどのようなシーンを撮影したものかを認識
し、その撮影シーンに応じた補正処理を行う必要があ
る。このような撮影シーンに応じた画像に対する補正処
理を実現するために、従来よりいくつかの方法が提案さ
れている。その一つとして、例えば特開平5−4183
0号公報に記載されている装置では、被写体が人物か否
かに応じて露出設定を切り替えて、画像取得時に補正を
行っている。また例えば特開平5−336535号公報
に記載されている装置では、画像中の人物とそれ以外の
部分において輪郭補正のパラメータを切り替えている。
さらに、例えば特開2000−123164号公報に記
載されている装置では、画像をブロックに分割し、ブロ
ック毎に属性を判別して、その属性に応じた彩度変換を
行っている。In order to automatically perform image correction processing,
It is necessary to recognize what kind of scene the image was taken and perform a correction process according to the taken scene. In order to realize the correction processing for the image according to such a shooting scene, some methods have been conventionally proposed. As one of them, for example, JP-A-5-4183
In the device described in Japanese Patent No. 0, the exposure setting is switched depending on whether the subject is a person or not, and correction is performed at the time of image acquisition. Further, for example, in the device disclosed in Japanese Patent Laid-Open No. 5-336535, the contour correction parameters are switched between the person in the image and the other portions.
Further, for example, in the device disclosed in Japanese Patent Laid-Open No. 2000-123164, an image is divided into blocks, an attribute is discriminated for each block, and saturation conversion is performed according to the attribute.
【0005】図14は、従来の画像処理装置の一例を示
すブロック図である。図中、11は入力画像、12は主
要オブジェクト/領域認識部、13は補正量算出部、1
4は補正実行部、15は出力画像である。上述のような
従来の各技術は、集約すると図14に示すような構成を
取っている。すなわち、主要オブジェクト/領域認識部
12において、入力画像11中の人物などの主要なオブ
ジェクトの有無や主要なオブジェクトの領域を検出し、
補正量算出部13において、主要なオブジェクトとそれ
以外を区別した補正方法や補正パラメータなどを決定
し、その補正方法、補正パラメータを用いて補正実行部
14において補正処理を実行し、出力画像15を得てい
る。FIG. 14 is a block diagram showing an example of a conventional image processing apparatus. In the figure, 11 is an input image, 12 is a main object / region recognition unit, 13 is a correction amount calculation unit, 1
Reference numeral 4 is a correction execution unit, and 15 is an output image. The above-mentioned conventional techniques have the configuration shown in FIG. That is, the main object / area recognition unit 12 detects the presence or absence of a main object such as a person in the input image 11 and the area of the main object,
The correction amount calculation unit 13 determines a correction method and a correction parameter for distinguishing the main object from other objects, and the correction execution unit 14 executes the correction process using the correction method and the correction parameter to output the output image 15. It has gained.
【0006】このような従来技術によって、主要なオブ
ジェクトに注目した補正処理が可能になり、確かに主要
なオブジェクトについては良好な画像が得られる。しか
し、主要オブジェクトの有無や各オブジェクトごとに補
正が一意に定められてしまうという問題がある。人間が
もっとも注視する主要なオブジェクトを中心に補正する
ことは効果的であるが、主要なオブジェクトだけに注目
して補正してしまうと主要なオブジェクトだけが強調さ
れ、全体のバランスが崩れて違和感のある画像となって
しまう場合がある。With such a conventional technique, a correction process focusing on a main object can be performed, and a good image can be obtained for the main object. However, there is a problem that the presence or absence of the main object and the correction are uniquely determined for each object. It is effective to make corrections centering on the main objects that humans pay most attention to, but if you focus on and correct only the main objects, only the main objects will be emphasized, and the overall balance will be lost and you will feel uncomfortable. It may become a certain image.
【0007】例えば逆光条件で「人物」を撮影した場
合、「人物」は暗く写ってしまう。これを補正するため
「人物」が明るくなるように画像全体を補正すると、空
などの背景の色が飛んでしまう。例えばオブジェクト単
位で補正方法を決定する場合でも、例えば「人物」は明
るく、「空」は彩度を強調する、というように一律的な
補正方法では、「人物+空」というシーンに対して適し
た補正にはならない場合があった。For example, when a "person" is photographed under a backlit condition, the "person" appears dark. To correct this, if the entire image is corrected so that the "person" becomes bright, the background color such as the sky will be lost. For example, even when determining a correction method for each object, a uniform correction method such as "person" is bright and "sky" is emphasized in saturation is suitable for a scene "person + sky". In some cases, it was not a correction.
【0008】上述の例では画像を補正する場合について
従来の技術を説明したが、例えば画像を保存する場合
に、自動的に画像の内容を示す分類情報を付加して蓄積
することが行われている。このような場合にも、従来よ
り、画像中から主要なオブジェクトを抽出し、そのオブ
ジェクトを示す分類情報を付加している。しかし、例え
ば中央に人物が写っている画像に対して「人物」という
分類情報を付加しても、その画像の内容を的確に把握す
ることは困難である。例えば、海で撮ったのか、山で撮
ったのかということすら分からなかった。また、例えば
オブジェクトを示す属性情報を単に羅列しただけでは、
例えば風景写真などでは「空」は必ず存在するなど、分
類情報が役に立たないといった問題があった。In the above-mentioned example, the conventional technique has been explained for the case of correcting an image. For example, when an image is saved, classification information indicating the contents of the image is automatically added and accumulated. There is. Even in such a case, conventionally, a main object is extracted from the image and the classification information indicating the object is added. However, for example, even if the classification information “person” is added to an image in which a person is shown in the center, it is difficult to accurately grasp the content of the image. For example, I didn't even know if it was taken at the sea or in the mountains. In addition, for example, by simply listing the attribute information indicating an object,
For example, there is a problem that the classification information is not useful, such as "Sky" is always present in landscape photographs.
【0009】[0009]
【発明が解決しようとする課題】本発明は、上述した事
情に鑑みてなされたもので、シーンに応じてより好まし
い補正を画像に対して施すことが可能な画像処理装置及
び画像処理方法と、画像に対してより好ましい分類情報
の付加が可能な画像処理装置及び画像処理方法を提供す
ることを目的とするものである。さらに、そのような画
像処理方法をコンピュータに実行させる画像処理プログ
ラム、及び、そのような画像処理プログラムを格納した
記憶媒体を提供することを目的とするものである。SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an image processing apparatus and an image processing method capable of performing more preferable correction on an image depending on a scene. An object of the present invention is to provide an image processing device and an image processing method capable of adding more preferable classification information to an image. Another object of the present invention is to provide an image processing program that causes a computer to execute such an image processing method, and a storage medium storing such an image processing program.
【0010】[0010]
【課題を解決するための手段】本発明は、画像を補正す
る画像処理装置及び画像処理方法において、画像から複
数のオブジェクトを認識し、それらのオブジェクトに対
して画像のシーンの認識結果に基づいて補正方法を決定
することを特徴するものである。特に、画像から複数の
オブジェクトを認識した後、認識した複数のオブジェク
トから主要オブジェクトと副オブジェクトを決定し、決
定した主要オブジェクトと副オブジェクトとの関係か
ら、画像の補正方法を決定するように構成したことを特
徴とするものである。このように、画像のシーンの認識
結果、特に、画像中の主要オブジェクトとともに副オブ
ジェクトを用いてその関係から補正方法を決定するの
で、主要オブジェクトのみの認識結果に基づいて補正す
る場合に比べて、周囲の状況などに応じて補正処理を行
うことができる。従って、画像に対してバランスの取れ
た補正処理を行うことが可能となり、より好ましい補正
処理を実現することができる。SUMMARY OF THE INVENTION The present invention provides an image processing apparatus and an image processing method for correcting an image, in which a plurality of objects are recognized from the image and the objects are recognized based on the recognition result of the scene of the image. It is characterized in that a correction method is determined. Particularly, after recognizing a plurality of objects from the image, a main object and a sub-object are determined from the recognized plurality of objects, and an image correction method is determined based on the determined relationship between the main object and the sub-object. It is characterized by that. In this way, the recognition result of the scene of the image, in particular, the correction method is determined from the relationship using the sub-object together with the main object in the image, so compared to the case of correcting based on the recognition result of only the main object, The correction process can be performed according to the surrounding conditions. Therefore, it is possible to perform well-balanced correction processing on the image, and it is possible to realize more preferable correction processing.
【0011】主要オブジェクトと副オブジェクトとの関
係としては、主要オブジェクトの種類と副オブジェクト
の種類の組み合わせや、2つのオブジェクトの位置、大
きさ、重みの少なくともひとつの関係を用いることがで
きる。また補正方法を決定する際には、画像全体あるい
はオブジェクトごとに行うことができる。あるいは、主
要オブジェクト、副オブジェクト、認識対象外領域、画
像全体の特徴量のうち少なくとも一つの特徴量をもとに
したり、主要オブジェクトの属性情報と副オブジェクト
の属性情報との関係から補正方法を決定することができ
る。また、補正方法には、色調および精細度の補正を含
むことができる。As the relationship between the main object and the sub-object, it is possible to use a combination of the types of the main object and the type of the sub-object, or at least one of the position, size and weight of the two objects. The correction method can be determined for the entire image or for each object. Alternatively, the correction method is determined based on at least one of the feature amount of the main object, the sub object, the non-recognition target area, and the feature amount of the entire image, or the relationship between the attribute information of the main object and the attribute information of the sub object. can do. Further, the correction method may include correction of color tone and definition.
【0012】認識するオブジェクトとしては、領域ある
いは物あるいはそれらの集合体とすることができ、その
中から主要オブジェクトを決定する際には、オブジェク
トの大きさ、位置、向き、個数などの特徴や、オブジェ
クトごとに定められた重み係数を用いたり、ユーザの指
示により決定することができる。なお、処理対象の画像
は、ビットマップの画像以外にも例えばPDLによって
記述された画像であってもよい。The object to be recognized can be a region, an object, or an aggregate thereof, and when determining a main object from among them, characteristics such as size, position, orientation, and number of objects, It is possible to use a weighting factor determined for each object or to determine it by a user's instruction. The image to be processed may be an image described in PDL, for example, other than the bitmap image.
【0013】また本発明は、画像を分類する画像処理装
置及び画像処理方法において、画像から複数のオブジェ
クトを認識し、認識した複数のオブジェクトから主要オ
ブジェクトと副オブジェクトを決定し、決定した主要オ
ブジェクトの属性情報と副オブジェクトの属性情報との
関係から前記画像の分類情報を決定することを特徴とす
るものである。このように主要オブジェクトの属性情報
だけでなく副オブジェクトの属性情報も考慮して、それ
らの関係から分類情報を決定するので、例えば「人物」
が写っている画像であっても、「山」で撮ったのか、
「海」で撮ったのかなどが分類情報として抽出すること
ができ、的確に画像の内容を示す分類情報を画像に付加
して格納することが可能になる。なおこの発明について
も、上述のようなオブジェクトの認識及び主要オブジェ
クトの決定方法を利用することができる。また処理対象
の画像についても、ビットマップのほか、PDLで記述
された画像などであってもよい。Further, according to the present invention, in an image processing apparatus and an image processing method for classifying images, a plurality of objects are recognized from the image, a main object and a sub-object are determined from the recognized plurality of objects, and the determined main object It is characterized in that the classification information of the image is determined from the relationship between the attribute information and the attribute information of the sub-object. In this way, not only the attribute information of the main object but also the attribute information of the sub-object is considered, and the classification information is determined from the relationship between them.
Even if it is an image showing, was it taken in the "mountain"?
Whether or not the image was taken in the "sea" can be extracted as the classification information, and the classification information indicating the content of the image can be accurately added and stored in the image. Note that the method of recognizing an object and determining the main object as described above can also be used in the present invention. The image to be processed may be an image described in PDL as well as a bitmap.
【0014】さらに本発明は、これらの画像処理方法を
コンピュータに実行させる画像処理プログラム、およ
び、そのような画像処理プログラムを記憶している記憶
媒体を提供するものであり、例えばパソコンやワークス
テーション、さらにはこのような画像処理を提供するサ
ーバなどにおいて実現することができる。Further, the present invention provides an image processing program for causing a computer to execute these image processing methods, and a storage medium storing such an image processing program. For example, a personal computer or a workstation, Furthermore, it can be realized in a server or the like that provides such image processing.
【0015】[0015]
【発明の実施の形態】図1は、本発明の実施の一形態を
示すブロック図である。図中、1は物体/領域認識部、
2は主副オブジェクト決定部、3は補正方法決定部、4
は補正量算出部、5は補正実行部、6は関係情報データ
ベースである。物体/領域認識部1は、入力された画像
から複数のオブジェクトを認識する。認識するオブジェ
クトは、領域、あるいは物、あるいは、それらの集合体
とすることができる。オブジェクトの認識は、例えば
「空領域」というオブジェクトの認識例では、周波数構
造が低周波よりの特徴をもち、位置は画像上部にあり、
色情報としては、青色相に含まれる閉じた領域を捕らえ
て認識することができる。また、人物や人物の顔などの
オブジェクトの認識は、肌色領域や顔構造の検出など、
既知の手法を用いて行うことができる。なお、オブジェ
クトの認識手法は任意であり、種々の公知の手法を用い
ることができる。FIG. 1 is a block diagram showing an embodiment of the present invention. In the figure, 1 is an object / region recognition unit,
2 is a main / sub object determination unit, 3 is a correction method determination unit, 4
Is a correction amount calculation unit, 5 is a correction execution unit, and 6 is a relational information database. The object / region recognition unit 1 recognizes a plurality of objects from the input image. The recognized object can be a region, an object, or an aggregate of them. In the object recognition, for example, in the object recognition example of "sky region", the frequency structure has a characteristic that is lower than the low frequency, and the position is at the top of the image.
As the color information, a closed area included in the blue hue can be captured and recognized. In addition, recognition of objects such as humans and human faces can be performed by detecting skin color areas and face structures.
It can be performed using a known method. The object recognition method is arbitrary, and various known methods can be used.
【0016】主副オブジェクト決定部2は、物体/領域
認識部1で認識された複数のオブジェクトから、主要オ
ブジェクトと副オブジェクトを決定する。主要オブジェ
クトの決定方法としては、例えば認識されたオブジェク
トが画像中に占める大きさや位置、あらかじめ定められ
ているオブジェクトの重みなどから決定することができ
る。あるいは、画像を表示してユーザが指示するように
構成してもよい。主要オブジェクト以外の認識されたオ
ブジェクトは、副オブジェクトとみなされる。但し、副
オブジェクトの数が多い場合など、すべてを副オブジェ
クトにしなくてもよい。The main / sub object determining unit 2 determines a main object and a sub object from the plurality of objects recognized by the object / region recognizing unit 1. As a method of determining the main object, for example, the size and position of the recognized object in the image, the weight of the predetermined object, and the like can be determined. Alternatively, the image may be displayed and the user may instruct. Recognized objects other than the primary object are considered secondary objects. However, when the number of sub-objects is large, it is not necessary to make all the sub-objects.
【0017】補正方法決定部3は、基本的には画像のシ
ーンを認識し、その認識結果に基づいてそれぞれのオブ
ジェクトに対する補正方法を決定する。その一例とし
て、ここでは主副オブジェクト家底部2において決定さ
れた主要オブジェクト及び副オブジェクトを利用する。
まず主要オブジェクトとそれ以外の副オブジェクトの関
係を解析する。解析の際には、例えば関係情報データベ
ース6を参照して、主要オブジェクトと副オブジェクト
の関係から補正個所、特徴量算出方法、補正処理方法等
の情報を取得することができる。主要オブジェクトと副
オブジェクトとの関係としては、主要オブジェクトの種
類と副オブジェクトの種類の組み合わせを用いたり、2
つのオブジェクトの位置、大きさ、重み等の関係、それ
ぞれの属性情報の関係などを用いることができる。ま
た、決定する補正箇所としては、画像全体、あるいは主
要オブジェクト、副オブジェクトことなどとすることが
でき、各補正箇所毎に補正処理方法を決定することがで
きる。なお、補正処理方法は、上述の主要オブジェクト
と副オブジェクトの関係から取得した特徴量算出方法に
従って、主要オブジェクト、副オブジェクト認識対象外
領域、画像全体などの特徴量を得て、それらの特徴量か
ら決定することができる。The correction method determination unit 3 basically recognizes a scene of an image and determines a correction method for each object based on the recognition result. As an example thereof, here, the main object and the sub object determined in the main / sub object bottom part 2 are used.
First, the relationship between the main object and other sub-objects is analyzed. At the time of analysis, for example, by referring to the relationship information database 6, information such as a correction point, a feature amount calculation method, a correction processing method, and the like can be acquired from the relationship between the main object and the sub object. As the relationship between the main object and the sub-object, a combination of the type of the main object and the type of the sub-object is used.
The relationship of the position, size, weight, etc. of one object, the relationship of each attribute information, etc. can be used. Further, the correction location to be determined can be the entire image or a main object, sub-object, etc., and the correction processing method can be determined for each correction location. Note that the correction processing method is to obtain the feature amounts of the main object, the sub-object non-recognition target area, the entire image, etc. according to the feature amount calculating method acquired from the relationship between the main object and the sub object described above, You can decide.
【0018】補正量算出部4は、補正方法決定部3にお
いて決定した補正方法に従い、どの程度の補正を行うか
を算出する。例えば補正方法決定部3で取得した特徴量
算出方法を基に特徴量を算出し(あるいは補正方法決定
部3で算出した特徴量を用い)、各補正方法に対応する
補正量の算出を行うことができる。特徴量算出方法に
は、従来のような一律な算出方法とは異なり、主要オブ
ジェクトと副オブジェクトの組み合わせのパターンか
ら、どのオブジェクトの特徴量を利用して補正量を算出
するかといった定義がなされており、この定義を基に、
それぞれの組み合わせのパターンにあった特徴量を得
て、補正量の算出を行う。The correction amount calculation unit 4 calculates how much correction is to be performed according to the correction method determined by the correction method determination unit 3. For example, the feature amount is calculated based on the feature amount calculation method acquired by the correction method determination unit 3 (or the feature amount calculated by the correction method determination unit 3 is used), and the correction amount corresponding to each correction method is calculated. You can Unlike the conventional uniform calculation method, the characteristic amount calculation method is defined by which object characteristic amount is used to calculate the correction amount from the pattern of the combination of the main object and the sub-object. And, based on this definition,
The characteristic amount that matches the pattern of each combination is obtained, and the correction amount is calculated.
【0019】補正実行部5は、入力された画像に対し
て、補正方法決定部3で決定された補正処理について、
補正量算出部4で算出した補正量だけ、実際に補正処理
を行う。補正処理としては、例えば色調補正や精細度補
正などを行うことができる。The correction execution unit 5 performs the correction processing determined by the correction method determination unit 3 on the input image,
The correction process is actually performed by the correction amount calculated by the correction amount calculation unit 4. As the correction processing, for example, color tone correction or definition correction can be performed.
【0020】このような構成によって、従来のようにそ
れぞれのオブジェクト毎に画一的な補正処理を行う技術
に比べ、主要オブジェクトを決定することによって、画
像を鑑賞するユーザーがもっとも関心を持つ、注視する
オブジェクトを考慮した補正を行うことができる。さら
に、主要オブジェクトだけでなく副オブジェクトを決定
することによって、主要オブジェクトと副オブジェクト
の関係において最適な補正処理をそれぞれのオブジェク
トあるいは認識対象外領域または画像全体に施すことが
できる。従って、従来のように主要オブジェクトだけに
補正を施すことによる周囲との不整合を回避し、全体と
してシーンの特性を考慮した最良の補正処理を行うこと
が可能になる。一例として人物の肌色を補正することを
考えると、従来は人物の肌色に対してある目標色への補
正しか行えないが、主要オブジェクトと副オブジェクト
の関係から補正方法を決定することによって、「海」の
副オブジェクトを持つ人物画の場合は健康的な小麦色に
補正目標色を変更するなど、認識された副オブジェクト
によって補正を変化させることができる。With such a configuration, the user who views the image is most interested in the image by deciding the main object, as compared with the conventional technique for performing uniform correction processing for each object. It is possible to make a correction in consideration of the object to be processed. Furthermore, by determining not only the main object but also the sub-object, it is possible to perform an optimum correction process on the relationship between the main object and the sub-object for each object, the non-recognition target area, or the entire image. Therefore, it becomes possible to avoid the inconsistency with the surroundings due to the correction of only the main object as in the conventional case, and to perform the best correction process considering the characteristics of the scene as a whole. Considering the correction of the skin color of a person as an example, conventionally, only the target color can be corrected for the skin color of the person, but by determining the correction method from the relationship between the main object and the sub-object, In the case of a portrait having a sub-object of “”, the correction can be changed depending on the recognized sub-object, such as changing the correction target color to a healthy wheat color.
【0021】以下、各部の動作の詳細について、具体例
を用いながら説明してゆく。なお、以下に示す画像の具
体例においては、色彩などを表現するためにハッチング
を用いており、実際の色彩の補正(例えば鮮やかさの補
正)を行った場合には例えばハッチングの間隔などを異
ならせて示している。The details of the operation of each unit will be described below with reference to specific examples. In the following specific examples of images, hatching is used to express colors, and when the actual color correction (for example, vividness correction) is performed, for example, the hatching intervals are different. I have shown.
【0022】図2は、物体/領域認識部1で認識される
オブジェクトの一例の説明図である。上述のように物体
/領域認識部1においては、オブジェクトとして、例え
ば人物の顔や、ある対象物品などを認識して定義した
り、ある閉領域などを認識して定義することができる。
一例として、図2に示すような人物を含めた風景画像に
おいては、「人物」、「空領域」、「山領域」などのオ
ブジェクトを認識することができる。例えば「空領域」
オブジェクトは、周波数構造としては、低周波であり、
位置情報は上部にあるもので、色情報は、青色相に含ま
れる閉じた領域を捕らえることができる。また、人物や
人物の顔などのオブジェクトとしての認識は、既知の手
法を用いて識別を行えばよい。なお、認識したオブジェ
クト以外は、この例では認識対象外領域としている。FIG. 2 is an explanatory diagram of an example of an object recognized by the object / region recognition unit 1. As described above, in the object / region recognition unit 1, for example, a face of a person, a certain target article, or the like can be recognized and defined as an object, or a certain closed region or the like can be recognized and defined.
As an example, in a landscape image including a person as shown in FIG. 2, objects such as “person”, “sky area”, “mountain area” can be recognized. For example, "empty area"
The object has a low frequency as a frequency structure,
The position information is at the top, and the color information can capture the closed areas contained in the blue hue. In addition, recognition as an object such as a person or a face of a person may be performed by using a known method. It should be noted that, in this example, areas other than the recognized object are non-recognition target areas.
【0023】次に主副オブジェクト決定部2では、物体
/領域認識部1で認識したオブジェクトの中から、主要
オブジェクト及び副オブジェクトを決定する。図3は、
主要オブジェクトの決定方法の一例の説明図である。図
3には山と空の風景画の例を示しており、領域の大きさ
により主要オブジェクトが決定される過程を示してい
る。例えば主要オブジェクトの決定方法として、大きい
ほうのオブジェクトを主要オブジェクト、他を副オブジ
ェクトとすることができる。この場合、図3(A)に示
した例では、山のオブジェクトの占める割合が大きく、
「山領域」のオブジェクトが主要オブジェクトとなり、
「空領域」などの他のオブジェクトが副オブジェクトと
なる。また、図3(B)に示した例では、逆に広い空が
広がっているので、「空領域」オブジェクトを主要オブ
ジェクトとし、「山領域」などの他のオブジェクトが副
オブジェクトとなる。Next, the main / sub object determining unit 2 determines a main object and a sub object from the objects recognized by the object / region recognizing unit 1. Figure 3
It is explanatory drawing of an example of the determination method of a main object. FIG. 3 shows an example of a landscape image of mountains and the sky, and shows a process in which a main object is determined by the size of the area. For example, as a method of determining the main object, the larger object can be the main object and the others can be the sub-objects. In this case, in the example shown in FIG. 3A, the proportion of the mountain objects is large,
The "mountain area" object becomes the main object,
Other objects such as "empty areas" are sub-objects. On the other hand, in the example shown in FIG. 3B, a wide sky is conversely widened, so that the “sky region” object is the main object and other objects such as “mountain region” are the sub-objects.
【0024】図4は、主要オブジェクトの決定方法の別
の例の説明図である。ここでは、各オブジェクトの大き
さ、位置、向き、重み係数などをもとに主要オブジェク
トを決定する例を示している。図4(A)に入力された
画像を示しており、認識された各オブジェクトにa〜e
の符号を付してある。すなわち、aオブジェクトは「空
領域」、bオブジェクトは「山領域」、c〜eオブジェ
クトは「人物」であり、右側の人物ほど大きい人物が存
在している。これらのオブジェクトについて、それぞ
れ、大きさ、位置、向きを調べ、重み付けをする。その
結果を図4(B)に示している。位置スコアとしては、
中央に近く、前景ほど重みを大きくしている。従って中
央の人物であるdオブジェクトの重みが最も大きくなっ
ている。また大きさスコアとしては、大きいほど重み付
けを大きくしている。この例では「山領域」を示すbオ
ブジェクトが最も大きな面積を占めているので、最も大
きな重み付けがなされている。向きスコアは、特に人物
などにおいて正面を向いているのか、それとも他の方向
を向いているのかによって重み付けするものである。こ
の例では、右側の「人物」を示すcオブジェクトが正面
を向いているものとして大きな重み付けが行われてい
る。なお、「空領域」や「山領域」については向きはな
いので0とされている。FIG. 4 is an explanatory diagram of another example of the method of determining the main object. Here, an example is shown in which the main object is determined based on the size, position, orientation, weighting factor, etc. of each object. The input image is shown in FIG. 4A, and a to e are added to the recognized objects.
The symbol is attached. That is, the a object is the “sky region”, the b object is the “mountain region”, and the c to e objects are the “person”, and the larger the person on the right side, the larger the person. The size, position, and orientation of each of these objects is checked and weighted. The result is shown in FIG. As a position score,
It is closer to the center and the foreground is more heavily weighted. Therefore, the weight of the d object, which is the central person, is the largest. Further, as the size score, the larger the weight, the larger the weighting. In this example, the b object indicating the “mountain region” occupies the largest area, and thus the largest weight is given. The orientation score is weighted depending on whether a person or the like is facing the front or facing another direction. In this example, a large weighting is performed on the assumption that the c object indicating the “person” on the right side is facing the front. The “sky region” and the “mountain region” have no orientation and are set to 0.
【0025】さらにこの例では、オブジェクトごとに定
められた重み係数を設定している。例えば人物が存在す
る場合、一般的には山や空のオブジェクトよりも主であ
る場合が多い。そのため、ここでも「空領域」のaオブ
ジェクトや「山領域」のbオブジェクトよりも、「人
物」のc〜eオブジェクトに対して大きな重み係数を割
り当てている。Further, in this example, a weighting coefficient determined for each object is set. For example, when a person exists, it is generally more dominant than a mountain or sky object. Therefore, also in this case, a larger weighting coefficient is assigned to the c-e objects of the “person” than the a object of the “sky region” and the b object of the “mountain region”.
【0026】そして、このようにしてそれぞれ設定した
位置スコア、大きさスコア、向きスコア、重み係数を総
合して総合スコアを算出している。この例では、
(位置スコア+大きさスコア+向きスコア)×重み係数
によって総合スコアを算出している。この総合スコアが
最も大きい値となったオブジェクトを主要オブジェクト
とすればよい。この例では、右側の「人物」であるcオ
ブジェクトが主要オブジェクトと決定される。また、そ
の他のオブジェクトが副オブジェクトとなる。なお、副
オブジェクトはいくつかに限定することができる。例え
ば総合スコアの大きい順に選択したり、あるいはオブジ
ェクトの種別の異なるものを選択するなど、任意に選択
することができる。Then, the total score is calculated by integrating the position score, the size score, the orientation score, and the weighting coefficient respectively set in this way. In this example, the total score is calculated by (position score + size score + direction score) × weighting coefficient. The object having the largest total score may be the main object. In this example, the c-object, which is the “person” on the right side, is determined to be the main object. In addition, other objects become sub-objects. The number of sub-objects can be limited to some. For example, selection can be made arbitrarily, such as selection in descending order of total score, or selection of different types of objects.
【0027】図4(B)に示した例では、オブジェクト
の大きさ、位置、向きを数値化して使用したが、他の種
々の特徴を使用することが可能である。もちろん、総合
スコアの算出方法についても任意である。In the example shown in FIG. 4B, the size, position, and orientation of the object are digitized and used, but various other features can be used. Of course, the method of calculating the total score is also arbitrary.
【0028】ここでは主要オブジェクトの決定方法とし
て2つの方法を示したが、これ以外にもいろいろな手法
を適用することができる。例えば、ユーザが利用するパ
ソコンなどのモニタ画面に画像を表示させながら、手動
で主要オブジェクトを選択することも可能である。Here, two methods are shown as the method of determining the main object, but various methods other than this can be applied. For example, it is possible to manually select a main object while displaying an image on a monitor screen of a personal computer or the like used by the user.
【0029】次に補正方法決定部3では、上述のように
して主副オブジェクト決定部2で決定された主要オブジ
ェクトと副オブジェクトとの関係から、入力された画像
に対して行う補正方法を決定する。このとき用いる主要
オブジェクトと副オブジェクトとの関係として、主要オ
ブジェクトの種類と前記副オブジェクトの種類の組み合
わせを用いることができる。図5は、主要オブジェクト
と副オブジェクトのオブジェクトの種類の関係による補
正方法の決定の一例の説明図である。図3においても説
明したように、図5(A)では「山領域」が主要オブジ
ェクト、「空領域」が副オブジェクトである「山」のシ
ーンである。このような主要オブジェクトと副オブジェ
クトの種類の組み合わせを用い、この組み合わせの場合
には例えば「空領域」に対して多少明るめにして「山領
域」を鮮やかにする等といった補正方法を対応づけてお
くことができる。これによって、「空」と「山」のコン
トラストを大きくして、「山」をより強調した画像に補
正することができる。また図5(B)では逆に、「空領
域」が主要オブジェクト、「山領域」が副オブジェクト
である「空」のシーンである。このような場合には、
「空領域」を鮮やかにする等といった補正方法を対応づ
けておくことができる。これによって、主要オブジェク
トである「空領域」の色を、「山」の存在を考慮して、
より鮮やかになるように補正することができる。Next, the correction method determination unit 3 determines the correction method to be applied to the input image based on the relationship between the main object and the sub object determined by the main / sub object determination unit 2 as described above. . As the relationship between the main object and the sub-object used at this time, a combination of the type of the main object and the type of the sub-object can be used. FIG. 5 is an explanatory diagram of an example of determination of a correction method based on the relationship between the object types of the main object and the sub-object. As described with reference to FIG. 3, in FIG. 5A, the “mountain region” is the main object and the “sky region” is the sub-object “mountain” scene. Such a combination of the types of the main object and the sub-object is used, and in the case of this combination, a correction method such as making the "sky region" slightly brighter and making the "mountain region" brighter is associated. be able to. This makes it possible to increase the contrast between "sky" and "mountain" and correct the image in which "mountain" is emphasized. On the contrary, in FIG. 5B, the “sky region” is the main object and the “mountain region” is the sub object, that is, the “sky” scene. In such cases,
It is possible to associate a correction method such as making the "sky region" vivid. As a result, the color of the "sky region", which is the main object, is changed to the "mountain" existence,
It can be corrected to be more vivid.
【0030】このように、主要オブジェクトと副オブジ
ェクトの種類の組み合わせは画像のシーンを表してお
り、主要オブジェクトと副オブジェクトの種類の組み合
わせによって補正方法を決定することによって、より好
ましい補正方法を適用することが可能である。例えば上
述の例のように同じ「空領域」と「山領域」のオブジェ
クトが存在する場合でも、その主副の組み合わせの関係
からそれぞれの画像に対して、より好ましい補正方法を
適用することができる。As described above, the combination of the types of the main object and the sub-object represents the scene of the image, and the more preferable correction method is applied by determining the correction method according to the combination of the types of the main object and the sub-object. It is possible. For example, even when the same "sky region" and "mountain region" objects exist as in the above example, a more preferable correction method can be applied to each image due to the relationship of the main / sub combination. .
【0031】このように補正方法を決定する際に、主要
オブジェクトと副オブジェクトの種類の組み合わせか
ら、どこを補正するのか、及び、どのような特徴を利用
してどのように補正するのかを、各組み合わせ毎に決定
する必要がある。どこを補正するのかとは、主要オブジ
ェクト、副オブジェクトのいずれかあるいはどのオブジ
ェクトを補正対象とするのか、それとも画像全体を補正
するのかということである。また、どのような特徴と
は、主要オブジェクト、副オブジェクト、認識対象外領
域、画像全体のうちのどの部分について、例えば色相や
濃淡、特定色などのどのような特徴量を利用するかとい
うことである。さらにそのような特徴を利用して、例え
ば色調補正や精細度補正、強調補正など、どのような補
正処理を行えばよいかを決定する必要がある。When deciding the correction method in this way, which of the main objects and the sub-objects is to be combined, which part is to be corrected, and what kind of characteristics are to be used and how to make corrections are determined. It is necessary to decide for each combination. Which is to be corrected means which one of the main object and the sub-object, or which object is to be corrected, or whether to correct the entire image. In addition, what kind of characteristics means what kind of characteristic quantity such as hue, shade, and specific color is used for which part of the main object, sub-object, non-recognition target area, and entire image. is there. Further, it is necessary to determine what kind of correction processing should be performed, such as color tone correction, definition correction, and emphasis correction, using such characteristics.
【0032】このような、どこをどのような特徴を利用
してどのように補正するのかを決定するために、この例
では関係情報データベース6を利用している。図6は、
関係情報データベースの内容の一例の説明図である。図
6に示す関係情報データベースの例では、図6(A)に
示すオブジェクト組み合わせテーブルと、図6(B)に
示す主要オブジェクトテーブルと、図6(C)に示す副
オブジェクト順位テーブルと、図6(D)に示す特徴量
算出データと、図6(E)に示す補正データにより構成
されている。In this example, the relational information database 6 is used to determine what kind of characteristics are used and how to correct them. Figure 6
It is explanatory drawing of an example of the content of a related information database. In the example of the relationship information database shown in FIG. 6, the object combination table shown in FIG. 6A, the main object table shown in FIG. 6B, the sub-object order table shown in FIG. It is composed of the feature amount calculation data shown in (D) and the correction data shown in FIG. 6 (E).
【0033】図6(A)に示すオブジェクト組み合わせ
テーブルは、画像中に存在するオブジェクトの組み合わ
せから主要オブジェクトテーブルを参照するためのテー
ブルであり、この例では、「人物」、「空」、「海」、
「山」のオブジェクトが定義されている例を示してい
る。ここでは図2に示したように「人物」、「空」、
「山」が存在する画像が入力されたものとして、主要オ
ブジェクトテーブルへのポインタを示す矢線を図示して
いる。The object combination table shown in FIG. 6A is a table for referring to the main object table from the combination of objects existing in the image, and in this example, "person", "sky", "sea". ",
An example in which an object "mountain" is defined is shown. Here, as shown in FIG. 2, "person", "sky",
An arrow indicating a pointer to the main object table is shown as if an image with "mountains" was input.
【0034】図6(B)に示す主要オブジェクトテーブ
ルは、入力された画像中のオブジェクトのうち、いずれ
のオブジェクトが主要オブジェクトであるかにより副オ
ブジェクト順位テーブルを参照するためのテーブルであ
る。この例では「人物」オブジェクトが主要オブジェク
トであった例を示し、副オブジェクト順位テーブルへの
ポインタを示す矢線を図示している。The main object table shown in FIG. 6B is a table for referring to the sub-object rank table depending on which of the objects in the input image is the main object. In this example, the "person" object is the main object, and an arrow line indicating the pointer to the sub-object ranking table is shown.
【0035】図6(C)に示す副オブジェクト順位テー
ブルでは、副オブジェクト間の優先順位に応じて特徴量
算出データ及び補正データを選択するためのテーブルで
ある。ここまでの参照によって、画像中にどのようなオ
ブジェクトが存在し、それらのオブジェクトのうち主要
オブジェクトが何であり、副オブジェクトの優先順位が
どのようになっているかによって、特徴量算出データ及
び補正データが選択されることになる。図6(C)に示
す例では、「空」を「山」よりも優先する場合を示して
いる。The sub-object order table shown in FIG. 6C is a table for selecting the feature amount calculation data and the correction data according to the priority order between the sub-objects. By the reference so far, depending on what objects exist in the image, what the main object is among those objects, and the priority order of the sub-objects, the feature amount calculation data and the correction data are Will be selected. In the example shown in FIG. 6C, the case where "sky" is prioritized over "mountain" is shown.
【0036】図6(D)に示す特徴量算出データは、上
述の各テーブルによって決定された画像中に存在するオ
ブジェクト、主要オブジェクト、副オブジェクトの優先
順位において、どのオブジェクトからどのような特徴量
を抽出するかを定義している。この例では、「人物」オ
ブジェクトから濃淡情報を、「空」オブジェクトから平
均色相情報と濃淡情報を、「山」オブジェクトから平均
色相情報を、それぞれ取得する旨を示している。The feature amount calculation data shown in FIG. 6D indicates which feature amount from which object in the priority order of the object, the main object and the sub object existing in the image determined by the above-mentioned tables. It defines whether to extract. In this example, it is indicated that the shade information is obtained from the "person" object, the average hue information and the shade information are obtained from the "sky" object, and the average hue information is obtained from the "mountain" object.
【0037】また図6(E)に示す補正データは、上述
の各テーブルによって決定された画像中に存在するオブ
ジェクト、主要オブジェクト、副オブジェクトの優先順
位において、どのオブジェクトに対してどのような特徴
量を用いてどのような補正処理を行うかを定義してい
る。用いる特徴量は図6(D)に示す特徴量算出データ
に定義されているが、特徴量を抽出するオブジェクト
と、その特徴量を用いて補正処理を施すオブジェクト
は、必ずしも一致しない。逆に、他のオブジェクトの特
徴から補正処理を行うことが可能である。例えば図6
(E)に示す例では、主オブジェクトが「人物」、副オ
ブジェクトが優先順位の順に「空」、「山」であると
き、「人物」には「空」の濃淡情報を基にして人肌を明
るくする補正を行うことが定義されている。また「空」
には、「山」の平均色相情報を基に、「空」の平均色相
を補正することが定義されている。さらに、「山」及び
画像全体に対しては補正処理を行わないことが定義され
ている。このように他のオブジェクトの特徴を利用して
補正処理を定義することによって、周囲の状況に応じた
補正処理が可能となり、より好ましい補正を行うことが
できる。Further, the correction data shown in FIG. 6 (E) is based on what kind of feature amount is given to which object in the priority order of the object, the main object and the sub object existing in the image determined by the above-mentioned tables. Is used to define what kind of correction processing is to be performed. The feature amount to be used is defined in the feature amount calculation data shown in FIG. 6D, but the object for extracting the feature amount and the object for which the correction process is performed using the feature amount do not necessarily match. On the contrary, it is possible to perform the correction processing from the characteristics of other objects. For example, in FIG.
In the example shown in (E), when the main object is “person” and the sub-objects are “sky” and “mountain” in the order of priority, the “person” has a human skin based on the gray-scale information of “sky”. It is defined to make a correction to brighten. Also "empty"
Defines that the average hue of "sky" is corrected based on the average hue information of "mountain". Further, it is defined that the correction process is not performed on the "mountain" and the entire image. By defining the correction processing by using the characteristics of other objects in this way, the correction processing according to the surrounding situation becomes possible, and more preferable correction can be performed.
【0038】図7は、決定した補正方法の画像への適用
の一例の説明図である。例えば図2に示したような画像
の一例が入力され、図6に示したような関係情報データ
ベース6を検索することによって図6(D)に示す特徴
量算出データ及び図6(E)に示す補正データが得られ
た場合、定義に従って図7(A)に矢印で示すように
「空」の濃淡情報が「人物」、特に顔などの人肌部分に
反映され、また「山」の平均色相情報が「空」の色相に
反映される。これによって、例えば図7(B)に示すよ
うに補正されることになる。このようにして画像のシー
ンに応じてオブジェクト毎に補正を行うので、オブジェ
クトに単独で補正処理を行う場合に比べて、全体として
調和の取れた補正処理を行うことができる。FIG. 7 is an explanatory diagram of an example of applying the determined correction method to an image. For example, an example of the image shown in FIG. 2 is input, and the feature amount calculation data shown in FIG. 6D and the feature amount calculation data shown in FIG. 6E are obtained by searching the relational information database 6 shown in FIG. When the correction data is obtained, the light and shade information of “sky” is reflected on the “person”, especially the human skin part such as the face as shown by the arrow in FIG. 7A according to the definition, and the average hue of the “mountain” is also obtained. The information is reflected in the "sky" hue. As a result, for example, the correction is performed as shown in FIG. In this way, since the correction is performed for each object according to the scene of the image, it is possible to perform a more harmonious correction process as compared with the case where the correction process is performed for each object alone.
【0039】どのオブジェクトのどのような特徴量を用
いてどのオブジェクトをどのように補正するかは、補正
データの定義によって変更することが可能である。図8
は、補正対象を異ならせた補正例の説明図である。図8
(A),(B)とも入力された画像は同じであり、
「空」が主要オブジェクト、「山」が副オブジェクトで
ある。このような場合に、主要オブジェクトに補正を行
ってもよいし、あるいは副オブジェクトに補正を行って
もよい。例えば図8(A)に示すように主要オブジェク
トである「空」の色を調整することによって、空を好ま
しく見せることができる。また図8(B)に示すよう
に、「空」を調整せず、副オブジェクトである「山」の
色を調整して、逆に主要オブジェクトである「空」を好
ましく見せるといった補正方法もある。もちろん、画像
全体を補正するといった場合もある。いずれの補正方法
を適用するかは補正データの定義に従うことになる。あ
るいは、後述するオブジェクトの種類や大きさ、属性な
どの他の様々な情報を利用したり、あるいは、特徴量算
出データに従って抽出した各オブジェクトの特徴量によ
って補正データ自体を切り替えるような構成を用いるこ
とも可能である。How to correct which object and how to use which characteristic amount of which object can be changed by the definition of the correction data. Figure 8
FIG. 6 is an explanatory diagram of a correction example in which the correction target is different. Figure 8
The input images in both (A) and (B) are the same,
"Sky" is the main object, and "mountain" is the sub-object. In such a case, the main object may be corrected, or the sub-object may be corrected. For example, as shown in FIG. 8A, the sky can be made to look preferable by adjusting the color of the main object, "sky". In addition, as shown in FIG. 8B, there is also a correction method in which the color of the sub object “mountain” is adjusted without adjusting the “sky” to make the main object “sky” look preferable. . Of course, the entire image may be corrected. Which correction method is applied depends on the definition of the correction data. Alternatively, it is possible to use various other information such as the type, size, and attribute of an object described later, or to use a configuration in which the correction data itself is switched according to the feature amount of each object extracted according to the feature amount calculation data. Is also possible.
【0040】このように関係情報データベース4を利用
して、物体/領域認識部1で認識したオブジェクト、主
副オブジェクト決定部2で決定した主要オブジェクト及
び副オブジェクト(このとき副オブジェクトの順位も決
定しておく)から、算出すべき特徴量と、その特徴量を
利用した補正方法を決定することができる。As described above, by using the relational information database 4, the objects recognized by the object / area recognition unit 1, the main object and the sub-objects determined by the main / sub-object determination unit 2 (at this time, the order of the sub-objects is also determined. From the above), it is possible to determine the feature amount to be calculated and the correction method using the feature amount.
【0041】上述の例では主要オブジェクトと副オブジ
ェクトの組み合わせのみから補正方法を決定する例を示
したが、このほかにも種々の情報を加味して補正方法を
決定することができる。図9は、主要オブジェクトと副
オブジェクトのオブジェクトの種類及び大きさの関係に
よる補正方法の決定の一例の説明図である。図9では、
主要オブジェクトと副オブジェクトとの組み合わせとと
もに、大きさの要素を加味する場合の例を示している。
図9に示す2つの例において画像中に存在するオブジェ
クトはともに「空」と「山」と複数の「雲」である。こ
こでは「空」が大きな面積を有しているため、「空」オ
ブジェクトが主要オブジェクトであり、「山」と「雲」
オブジェクトが副オブジェクトである。しかし、図9
(A)においては「雲」の存在が大きい。このような場
合には、主要オブジェクトの「空」をやや鮮やかにする
だけにとどめおく。また図9(B)に示したように
「雲」が小さく存在するのみであれば、それらの「雲」
は無視できると判断して、「空」をより鮮やかに調整す
るといったことができる。In the above example, the correction method is determined only from the combination of the main object and the sub-object, but the correction method can be determined in consideration of other various information. FIG. 9 is an explanatory diagram of an example of determining a correction method based on the relationship between the types and sizes of the main object and the sub-object. In Figure 9,
An example in which a size element is added together with a combination of a main object and a sub-object is shown.
In the two examples shown in FIG. 9, the objects existing in the image are “sky”, “mountain”, and a plurality of “clouds”. Since the "sky" has a large area here, the "sky" object is the main object, and the "mountain" and "cloud" are the main objects.
The object is a sub-object. However, FIG.
In (A), the presence of "clouds" is large. In such a case, the "sky" of the main object should be kept slightly bright. Also, as shown in FIG. 9 (B), if only "clouds" are small, those "clouds"
Can be ignored and the "sky" can be adjusted more vividly.
【0042】このように、存在するオブジェクトの大き
さなどを加味して補正方法を決定することによって、小
さなオブジェクトの存在に左右されることなく、画像の
シーンを的確に把握することができ、画像全体として好
ましい補正を行うことができる。As described above, by determining the correction method in consideration of the size of the existing object, the scene of the image can be accurately grasped without being influenced by the existence of the small object. A preferable correction can be made as a whole.
【0043】図10は、主要オブジェクトと副オブジェ
クトのオブジェクトの属性の関係による補正方法の決定
の一例の説明図である。この例では、オブジェクトの属
性を利用することによって、さらに細かい調整を可能と
した例を示している。例えば「空」、「山」というオブ
ジェクトの組み合わせでも「空」が快晴の空であるか、
夕焼けの空であるかの違いで、その再現方法を変更する
ことが可能である。図10(A)に示した例では、主要
オブジェクトである「空」オブジェクトに属性値として
「快晴」が付加されている場合を示している。このよう
な快晴のシーンの場合、例えば空を鮮やかに再現するた
め、「山」オブジェクトの特徴量を利用して「空」を鮮
やかに再現することができる。FIG. 10 is an explanatory diagram of an example of determining a correction method based on the relationship between the attributes of the main object and the sub-object. In this example, the finer adjustment is possible by using the attribute of the object. For example, if the combination of objects such as "sky" and "mountain" is "sky" is a clear sky,
It is possible to change the reproduction method depending on whether the sky is the sunset sky or not. In the example shown in FIG. 10A, a case is shown in which "clear" is added as an attribute value to the "sky" object which is the main object. In such a clear scene, for example, the sky is vividly reproduced, so that the “sky” can be vividly reproduced by using the feature amount of the “mountain” object.
【0044】また図10(B)に示した例では、主要オ
ブジェクトである「空」オブジェクトに属性値として
「夕焼け」が付加されている場合を示している。このよ
うな夕焼けのシーンの場合には、夕焼けの色を強調する
ため、山のディテールを犠牲にしてシルエット効果が出
るように「空」オブジェクトの特徴量を利用して「山」
を暗く再現するように補正することができる。Further, the example shown in FIG. 10B shows a case where "sky" is added as an attribute value to the "sky" object which is the main object. In the case of such a sunset scene, in order to emphasize the color of the sunset, the features of the “sky” object are used to emphasize the silhouette of the mountain at the expense of detail in the mountain, and “mountain” is used.
Can be corrected to reproduce darkly.
【0045】このように、オブジェクトの属性を利用す
ることによって、それぞれの属性に応じた補正処理が可
能になり、より細かい補正処理が可能となる。なお、こ
のような属性値による補正方法の切り換えは、例えば関
係情報データベース6に属性値テーブルなどを設け、属
性値による特徴量算出データ及び補正データを切り換え
可能に構成しておけばよい。As described above, by utilizing the attributes of the object, it becomes possible to perform the correction processing according to each attribute, and the finer correction processing can be performed. In addition, for the switching of the correction method based on such an attribute value, for example, an attribute value table or the like may be provided in the relationship information database 6 so that the feature amount calculation data and the correction data based on the attribute value can be switched.
【0046】上述のようにして補正方法決定部3におい
て補正方法を決定したら、その補正方法に関する情報を
補正量算出部4に渡し、補正量算出部4で補正量を決定
する。例えば上述の各例においても「明るく」、「暗
く」、「鮮やかに」、などといった抽象的な表現を用い
ているが、どの程度「明るく」、「暗く」、「鮮やか
に」するかを補正量算出部4で算出する。このとき、補
正方法決定部3で関係情報データベース6を検索して得
られた特徴量算出データ及び補正データを基に、補正デ
ータにおける定義に従って、指定されたオブジェクトの
特徴量から補正対象のオブジェクトの補正量を算出す
る。特徴量は、補正方法決定部3で抽出して補正量算出
部4に渡してもよいし、特徴量算出データを補正方法決
定部3から補正量算出部4に渡して補正量算出部4で特
徴量の抽出を行ってもよい。When the correction method determination unit 3 determines the correction method as described above, information about the correction method is passed to the correction amount calculation unit 4, and the correction amount calculation unit 4 determines the correction amount. For example, abstract expressions such as “bright”, “dark”, “bright”, etc. are also used in each of the above examples, but it is corrected how much “bright”, “dark”, and “bright” The amount is calculated by the amount calculation unit 4. At this time, based on the feature amount calculation data and the correction data obtained by searching the relational information database 6 by the correction method determination unit 3, according to the definition in the correction data, the feature amount of the designated object Calculate the correction amount. The characteristic amount may be extracted by the correction method determination unit 3 and passed to the correction amount calculation unit 4, or the characteristic amount calculation data may be passed from the correction method determination unit 3 to the correction amount calculation unit 4 and then corrected by the correction amount calculation unit 4. The feature amount may be extracted.
【0047】補正方法決定部3と補正量算出部4によっ
て、どのオブジェクト(あるいは画像全体)に対してど
のような補正処理をどの程度行うかが決定される。補正
実行部5では、これらに基づいて、入力された画像に対
して補正処理を行い、出力することになる。補正実行部
5で行う補正処理としては、明るさ、彩度、コントラス
ト、記憶色、シャープネスといった画像要素の補正処理
を行うことができる。もちろん、他の種々の補正処理を
行ってもよい。The correction method determination unit 3 and the correction amount calculation unit 4 determine what kind of correction process is performed for which object (or the entire image) and to what extent. Based on these, the correction execution unit 5 performs a correction process on the input image and outputs it. As the correction processing performed by the correction execution unit 5, it is possible to perform correction processing of image elements such as brightness, saturation, contrast, memory color, and sharpness. Of course, various other correction processes may be performed.
【0048】上述の説明では入力される画像として特に
限定はしていないが、例えばデジタルカメラで撮影した
り、反射型スキャナで入力したり、あるいはフィルムカ
メラで撮影したフィルムをフィルムスキャナなどでスキ
ャン入力した、いわゆるビットマップ画像を想定してい
る。しかし本発明はこれに限らず、例えばPDL等で記
述された画像データであってもよい。この場合は、物体
/領域認識部1で認識されるオブジェクトとしては、1
ページ内に存在している、より広い意味でのオブジェク
トとして、例えば文字オブジェクト、写真(イメージ)
オブジェクトなどが認識される。そして、1ページの画
像のシーンを認識して各オブジェクトの補正方法を決定
することができる。例えば、主副オブジェクト決定部2
において主要オブジェクト及び副オブジェクトを決定
し、これらの主要オブジェクト及び副オブジェクトの関
係等から補正方法を決定することができる。Although the input image is not particularly limited in the above description, for example, it is photographed by a digital camera, input by a reflection type scanner, or a film photographed by a film camera is scanned and input by a film scanner or the like. A so-called bitmap image is assumed. However, the present invention is not limited to this, and may be image data described in PDL, for example. In this case, the object recognized by the object / region recognition unit 1 is 1
Objects in a broader sense that exist on the page, such as character objects and photographs (images)
Objects etc. are recognized. Then, the correction method for each object can be determined by recognizing the scene of the image of one page. For example, the main / sub object determination unit 2
In, the main object and the sub-object are determined, and the correction method can be determined from the relationship between the main object and the sub-object.
【0049】図11は、PDLにより記述された画像デ
ータへの適用例の説明図である。図11(A)に示す例
では、見出し文字とともに大きな写真が配置されてい
る。この画像では、主要オブジェクトは「写真」であ
り、副オブジェクトは「文字」となる。このような画像
は、例えばパンフレットなどに見られる画像であり、多
くの場合、写真を好ましく再現することが望まれる。そ
のため、「文字」の特徴量を利用して「写真」を鮮やか
に好ましく補正すればよい。FIG. 11 is an explanatory diagram of an application example to image data described in PDL. In the example shown in FIG. 11 (A), a large photograph is arranged together with the caption characters. In this image, the main object is “photograph” and the sub-object is “character”. Such an image is, for example, an image found in a pamphlet or the like, and in many cases, it is desired to reproduce the photograph preferably. Therefore, the "photograph" may be vividly and preferably corrected by utilizing the characteristic amount of the "character".
【0050】また図11(B)に示す例では、「写真」
とその写真を説明する「文字」が並べられている。この
ような文書は例えば商品説明資料などに多く見られ、写
真中の主要物を特にはっきりさせることが望まれる場合
が多い。そのため、「文字」の特徴量を利用して「写
真」中の背景をぼかして主要物を際立たせる補正処理を
行うとよい。In the example shown in FIG. 11B, "photograph"
And the "letter" that describes the photo are displayed. Such documents are often found in, for example, product description materials, and it is often desired to make the main objects in a photograph particularly clear. Therefore, it is preferable to perform a correction process in which the characteristic amount of the “character” is used to blur the background in the “photograph” to highlight the main object.
【0051】このようにPDLで記述された画像データ
の場合でも、1ページ内の画像のシーン、例えば、主要
オブジェクトである「写真」のレイアウトや、「文字」
という副オブジェクトのレイアウトによって補正方法を
切り替えることで、より好ましいい補正方法を1ページ
の文書(文書中の各オブジェクト)に適用することが可
能である。Even in the case of image data described in PDL in this way, the scene of an image in one page, for example, the layout of "photograph" which is the main object, or "characters".
By switching the correction method according to the layout of the sub-object, it is possible to apply a more preferable correction method to the one-page document (each object in the document).
【0052】図12は、本発明の別の実施の形態を示す
ブロック図である。図中、図1と同様の部分には同じ符
号を付して説明を省略する。7は分類情報決定部、8は
画像データベースである。上述の実施の形態では、オブ
ジェクトの認識と、主要オブジェクト及び副オブジェク
トの決定及びそれらの関係を、画像の補正に利用した例
を示した。しかし、主要オブジェクト及び副オブジェク
トの関係は、他の用途にも利用することが可能である。
図12に示した例では、入力された画像を分類して格納
する画像データベースシステムに本発明を適用した例を
示している。FIG. 12 is a block diagram showing another embodiment of the present invention. In the figure, the same parts as those in FIG. Reference numeral 7 is a classification information determination unit, and 8 is an image database. In the above-described embodiment, an example is shown in which the object recognition, the determination of the main object and the sub-object, and their relation are used for image correction. However, the relationship between the main object and the sub-object can be used for other purposes.
The example shown in FIG. 12 shows an example in which the present invention is applied to an image database system that classifies and stores input images.
【0053】分類情報決定部7は、主副オブジェクト決
定部2で決定された主要オブジェクト及び副オブジェク
トの関係に基づいて、入力された画像の分類情報を生成
する。そして、分類情報を入力された画像とともに画像
データベース8に登録、格納させる。これによって、画
像の題材を考慮した分類が可能となり、例えば主要オブ
ジェクトと副オブジェクトの関係に基づいて画像データ
ベース8から画像を検索することが可能になる。The classification information determining unit 7 generates the classification information of the input image based on the relationship between the main object and the sub object determined by the main / sub object determining unit 2. Then, the classification information is registered and stored in the image database 8 together with the input image. As a result, it is possible to classify the image in consideration of the material, and it is possible to retrieve the image from the image database 8 based on the relationship between the main object and the sub object, for example.
【0054】図13は、画像と分類情報の関係の一例の
説明図である。例えば、入力された画像が図13(A)
に示すように、山中で人物を写したものである場合、主
要オブジェクトは「人物」であり、副オブジェクトは
「山」や「空」である。図13(B)は、同じ人物を写
した写真ではあるが、海で写したものである。この場合
には、主要オブジェクトは「人物」、副オブジェクトは
「海」や「空」となる。このような主要オブジェクト及
び副オブジェクトの関係を分類情報として画像データベ
ース8に格納しておくことができる。従って、図13
(A)では山の中で人物を撮った写真、図13(B)で
は海で人物を撮った写真、といったように、画像のシー
ンを的確に示す分類を行うことが可能となる。FIG. 13 is an explanatory diagram of an example of the relationship between the image and the classification information. For example, the input image is shown in FIG.
As shown in, when a person is photographed in the mountains, the main object is “person” and the sub-objects are “mountain” or “sky”. FIG. 13B shows a photograph of the same person, but it is photographed at the sea. In this case, the main object is "person" and the sub-objects are "sea" and "sky". The relationship between such a main object and a sub-object can be stored in the image database 8 as classification information. Therefore, FIG.
It is possible to classify the scenes of the image accurately, such as a photograph of a person taken in the mountain in (A) and a photograph of a person taken in the sea in FIG. 13 (B).
【0055】従来は、主要オブジェクトのみで画像の分
類が行われていたため、図13に示すいずれの画像も分
類情報として「人物」となっており、これらを区別して
検索することができなかった。しかし本発明では、主要
オブジェクト及び副オブジェクトの関係が分類情報とし
て画像データベース8に格納されているので、「人物」
の写真ではあるが、「海」で写したもの、といった検索
を行うことができる。Conventionally, since the images are classified only by the main object, all the images shown in FIG. 13 are "persons" as the classification information, and it is impossible to search them separately. However, in the present invention, the relationship between the main object and the sub-object is stored in the image database 8 as the classification information.
Although it is a photograph of, it is possible to search for a photograph taken in the "sea".
【0056】[0056]
【発明の効果】以上の説明から明らかなように、本発明
によれば、画像中のオブジェクトによって一律的に補正
方法を決めずに、画像のシーンの認識結果、例えば主要
オブジェクトと周辺の副オブジェクトの関係等から補正
方法を決定することができるため、画像のシーンに応じ
て、より好ましい補正処理を実現することが出来るとい
う効果がある。As is apparent from the above description, according to the present invention, the recognition result of the scene of the image, for example, the main object and the peripheral sub-objects is determined without uniformly determining the correction method depending on the object in the image. Since the correction method can be determined from the relationship of 1), there is an effect that more preferable correction processing can be realized according to the scene of the image.
【0057】また、このような主要オブジェクト及び副
オブジェクトの関係を分類情報として利用することによ
って、画像に対してより好ましい分類情報を付加するこ
とができ、画像全体を的確に示す分類付けと画像内容に
よる的確な検索を実現することができる。Further, by using such a relationship between the main object and the sub-object as the classification information, more preferable classification information can be added to the image, and the classification and the image content that accurately indicate the entire image can be added. An accurate search by can be realized.
【図1】 本発明の実施の一形態を示すブロック図であ
る。FIG. 1 is a block diagram showing an embodiment of the present invention.
【図2】 物体/領域認識部1で認識されるオブジェク
トの一例の説明図である。FIG. 2 is an explanatory diagram of an example of an object recognized by an object / region recognition unit 1.
【図3】 主要オブジェクトの決定方法の一例の説明図
である。FIG. 3 is an explanatory diagram of an example of a method of determining a main object.
【図4】 主要オブジェクトの決定方法の別の例の説明
図である。FIG. 4 is an explanatory diagram of another example of a method of determining a main object.
【図5】 主要オブジェクトと副オブジェクトのオブジ
ェクトの種類の関係による補正方法の決定の一例の説明
図である。FIG. 5 is an explanatory diagram of an example of determination of a correction method based on a relationship between object types of a main object and a sub-object.
【図6】 関係情報データベースの内容の一例の説明図
である。FIG. 6 is an explanatory diagram of an example of contents of a relation information database.
【図7】 決定した補正方法の画像への適用の一例の説
明図である。FIG. 7 is an explanatory diagram of an example of applying the determined correction method to an image.
【図8】 補正対象を異ならせた補正例の説明図であ
る。FIG. 8 is an explanatory diagram of a correction example in which the correction target is changed.
【図9】 主要オブジェクトと副オブジェクトのオブジ
ェクトの種類及び大きさの関係による補正方法の決定の
一例の説明図である。FIG. 9 is an explanatory diagram of an example of determining a correction method based on the relationship between the types and sizes of the main object and the sub-object.
【図10】 主要オブジェクトと副オブジェクトのオブ
ジェクトの属性の関係による補正方法の決定の一例の説
明図である。FIG. 10 is an explanatory diagram of an example of determination of a correction method based on a relationship between attributes of main objects and sub-objects.
【図11】 PDLにより記述された画像データへの適
用例の説明図である。FIG. 11 is an explanatory diagram of an application example to image data described in PDL.
【図12】 本発明の別の実施の形態を示すブロック図
である。FIG. 12 is a block diagram showing another embodiment of the present invention.
【図13】 画像と分類情報の関係の一例の説明図であ
る。FIG. 13 is an explanatory diagram of an example of a relationship between an image and classification information.
【図14】 従来の画像処理装置の一例を示すブロック
図である。FIG. 14 is a block diagram showing an example of a conventional image processing apparatus.
1…物体/領域認識部、2…主副オブジェクト決定部、
3…補正方法決定部、4…補正量算出部、5…補正実行
部、6…関係情報データベース、7…分類情報決定部、
8…画像データベース、11…入力画像、12…主要オ
ブジェクト/領域認識部、13…補正量算出部、14…
補正実行部、15…出力画像。1 ... Object / region recognition unit, 2 ... Main / Sub object determination unit,
3 ... Correction method determination unit, 4 ... Correction amount calculation unit, 5 ... Correction execution unit, 6 ... Relationship information database, 7 ... Classification information determination unit,
8 ... Image database, 11 ... Input image, 12 ... Main object / area recognition unit, 13 ... Correction amount calculation unit, 14 ...
Correction execution unit, 15 ... Output image.
Claims (30)
前記画像から複数のオブジェクトを認識する認識手段
と、前記画像のシーンを認識して該認識結果に基づいて
それぞれの前記オブジェクトに対する補正方法を決定す
る補正方法決定手段を有することを特徴とする画像処理
装置。1. An image processing apparatus for correcting an image,
Image processing comprising: a recognition unit that recognizes a plurality of objects from the image; and a correction method determination unit that recognizes a scene of the image and determines a correction method for each of the objects based on the recognition result. apparatus.
前記画像から複数のオブジェクトを認識する認識手段
と、前記複数のオブジェクトから主要オブジェクトと副
オブジェクトを決定するオブジェクト決定手段と、前記
主要オブジェクトと前記副オブジェクトとの関係から前
記画像の補正方法を決定する補正方法決定手段を有する
ことを特徴とする画像処理装置。2. An image processing apparatus for correcting an image,
A recognition unit that recognizes a plurality of objects from the image, an object determination unit that determines a main object and a sub-object from the plurality of objects, and a correction method for the image based on the relationship between the main object and the sub-object. An image processing apparatus comprising a correction method determining unit.
ジェクトと前記副オブジェクトとの関係として、前記主
要オブジェクトの種類と前記副オブジェクトの種類の組
み合わせを用いることを特徴とする請求項2に記載の画
像処理装置。3. The correction method determining means uses a combination of a type of the main object and a type of the sub object as a relationship between the main object and the sub object. Image processing device.
ジェクトと前記副オブジェクトとの関係として、当該2
つのオブジェクトの位置、大きさ、重みの少なくともひ
とつの関係を用いることを特徴とする請求項2に記載の
画像処理装置。4. The correction method determining means determines the relationship between the main object and the sub-object,
The image processing apparatus according to claim 2, wherein at least one of the relationship between the position, size, and weight of one object is used.
いはオブジェクトごとに行う補正方法を決定することを
特徴とする請求項2ないし請求項4のいずれか1項に記
載の画像処理装置。5. The image processing apparatus according to claim 2, wherein the correction method determination unit determines a correction method to be performed for the entire image or for each object.
ジェクト、副オブジェクト、認識対象外領域、画像全体
の特徴量のうち少なくとも一つの特徴量をもとに補正方
法を決定することを特徴とする請求項2ないし請求項4
のいずれか1項に記載の画像処理装置。6. The correction method determining means determines the correction method based on at least one feature amount of the main object, the sub-object, the non-recognition target region, and the feature amount of the entire image. Claims 2 to 4
The image processing device according to any one of 1.
ジェクトの属性情報と副オブジェクトの属性情報との関
係から補正方法を決定することを特徴とする請求項2な
いし請求項4のいずれか1項に記載の画像処理装置。7. The correction method determining means determines the correction method from the relationship between the attribute information of the main object and the attribute information of the sub-object. The image processing device according to item 1.
細度を含んだ補正方法を決定することを特徴とする請求
項2ないし請求項7のいずれか1項に記載の画像処理装
置。8. The image processing apparatus according to claim 2, wherein the correction method determination unit determines a correction method including a color tone and a definition.
前記画像から複数のオブジェクトを認識する認識手段
と、前記複数のオブジェクトから主要オブジェクトと副
オブジェクトを決定するオブジェクト決定手段と、前記
主要オブジェクトの属性情報と前記副オブジェクトの属
性情報との関係から前記画像の分類情報を決定する分類
情報決定手段を有することを特徴とする画像処理装置。9. An image processing apparatus for classifying images,
The image based on the relationship between a recognition unit that recognizes a plurality of objects from the image, an object determination unit that determines a main object and a sub-object from the plurality of objects, and a relationship between the attribute information of the main object and the attribute information of the sub-object. An image processing apparatus having a classification information determining means for determining the classification information of.
あるいはそれらの集合体であることを特徴とする請求項
2ないし請求項9に記載の画像処理装置。10. The image processing apparatus according to claim 2, wherein the object is a region, an object, or an aggregate thereof.
ブジェクトの大きさ、位置、向き、個数のうち少なくと
もひとつの特徴を用いて前記主要オブジェクトを決定す
ることを特徴とする請求項2ないし請求項10のいずれ
か1項に記載の画像処理装置。11. The method according to claim 2, wherein the object determining means determines the main object by using at least one characteristic among the size, position, orientation, and number of the objects. The image processing apparatus according to any one of items.
ブジェクトごとに定められた重み係数を用いて前記主要
オブジェクトを決定することを特徴とする請求項2ない
し請求項11のいずれか1項に記載の画像処理装置。12. The image according to claim 2, wherein the object determining means determines the main object by using a weighting coefficient determined for each object. Processing equipment.
の指示により前記主要オブジェクトを決定することを特
徴とする請求項2ないし請求項10のいずれか1項に記
載の画像処理装置。13. The image processing apparatus according to claim 2, wherein the object determining unit determines the main object according to a user's instruction.
であり、前記認識手段は、PDLから複数のオブジェク
トを認識することを特徴とする請求項1ないし請求項1
3のいずれか1項に記載の画像処理装置。14. The image according to claim 1, wherein the image is data described in PDL, and the recognizing means recognizes a plurality of objects from the PDL.
The image processing device according to any one of 3 above.
て、前記画像から複数のオブジェクトを認識し、また前
記画像のシーンを認識し、シーンの認識結果に基づいて
それぞれの前記オブジェクトに対する補正方法を決定す
ることを特徴とする画像処理方法。15. An image processing method for correcting an image, recognizing a plurality of objects from the image, recognizing a scene of the image, and determining a correction method for each of the objects based on a recognition result of the scene. An image processing method characterized by the above.
て、前記画像から複数のオブジェクトを認識し、前記複
数のオブジェクトから主要オブジェクトと副オブジェク
トを決定し、前記主要オブジェクトと前記副オブジェク
トとの関係から前記画像の補正方法を決定することを特
徴とする画像処理方法。16. An image processing method for correcting an image, recognizing a plurality of objects from the image, determining a main object and a sub-object from the plurality of objects, and determining the main object and the sub-object from the relationship between the main object and the sub-object. An image processing method characterized by determining a method for correcting an image.
ェクトとの関係として、前記主要オブジェクトの種類と
前記副オブジェクトの種類の組み合わせを用いることを
特徴とする請求項16に記載の画像処理方法。17. The image processing method according to claim 16, wherein a combination of the type of the main object and the type of the sub object is used as a relationship between the main object and the sub object.
ェクトとの関係として、当該2つのオブジェクトの位
置、大きさ、重みの少なくともひとつの関係を用いるこ
とを特徴とする請求項16に記載の画像処理方法。18. The image processing method according to claim 16, wherein at least one of a position, a size, and a weight of the two objects is used as a relationship between the main object and the sub object.
全体あるいはオブジェクトごとに行うことを特徴とする
請求項16ないし請求項18のいずれか1項に記載の画
像処理方法。19. The image processing method according to claim 16, wherein the correction method is determined for the entire image or for each object.
主要オブジェクト、副オブジェクト、認識対象外領域、
画像全体の特徴量のうち少なくとも一つの特徴量をもと
に補正方法を決定することを特徴とする請求項16ない
し請求項18のいずれか1項に記載の画像処理方法。20. When determining the correction method, the main object, the sub-object, the non-recognition target area,
19. The image processing method according to claim 16, wherein the correction method is determined based on at least one of the feature amounts of the entire image.
主要オブジェクトの属性情報と副オブジェクトの属性情
報との関係から補正方法を決定することを特徴とする請
求項16ないし請求項18のいずれか1項に記載の画像
処理方法。21. When determining the correction method, the correction method is determined based on the relationship between the attribute information of the main object and the attribute information of the sub-object. The image processing method according to item 1.
補正を含むことを特徴とする請求項16ないし請求項2
1のいずれか1項に記載の画像処理方法。22. The correction method according to claim 16, further comprising correction of color tone and definition.
2. The image processing method according to any one of 1.
て、前記画像から複数のオブジェクトを認識し、前記複
数のオブジェクトから主要オブジェクトと副オブジェク
トを決定し、前記主要オブジェクトの属性情報と前記副
オブジェクトの属性情報との関係から前記画像の分類情
報を決定することを特徴とする画像処理方法。23. An image processing method for classifying images, recognizing a plurality of objects from the image, determining a main object and a sub-object from the plurality of objects, attribute information of the main object and attributes of the sub-object. An image processing method, characterized in that the classification information of the image is determined from the relationship with the information.
あるいはそれらの集合体であることを特徴とする請求項
16ないし請求項23に記載の画像処理方法。24. The image processing method according to claim 16, wherein the object is a region, an object, or an aggregate thereof.
オブジェクトの大きさ、位置、向き、個数のうち少なく
ともひとつの特徴を用いて決定することを特徴とする請
求項16ないし請求項24のいずれか1項に記載の画像
処理方法。25. The main object is determined by using at least one characteristic among the size, position, orientation, and number of the objects. The image processing method described in the item.
オブジェクトごとに定められた重み係数を用いて決定す
ることを特徴とする請求項16ないし請求項25のいず
れか1項に記載の画像処理方法。26. The image processing method according to claim 16, wherein the main object is determined by using a weighting coefficient determined for each object.
ザの指示により決定することを特徴とする請求項16な
いし請求項24のいずれか1項に記載の画像処理方法。27. The image processing method according to claim 16, wherein the main object is determined according to a user's instruction.
であり、PDLから複数のオブジェクトを認識すること
を特徴とする請求項15ないし請求項27のいずれか1
項に記載の画像処理方法。28. The image according to claim 15, wherein the image is data described in PDL, and a plurality of objects are recognized from the PDL.
The image processing method described in the item.
か1項に記載の画像処理方法をコンピュータに実行させ
ることを特徴とする画像処理プログラム。29. An image processing program that causes a computer to execute the image processing method according to claim 15. Description:
か1項に記載の画像処理方法をコンピュータに実行させ
るためのプログラムを記憶していることを特徴とする前
記コンピュータが読み取り可能な記憶媒体。30. A computer-readable storage medium storing a program for causing a computer to execute the image processing method according to any one of claims 15 to 28.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002046541A JP2003248825A (en) | 2002-02-22 | 2002-02-22 | Image processing apparatus, image processing method, image processing program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002046541A JP2003248825A (en) | 2002-02-22 | 2002-02-22 | Image processing apparatus, image processing method, image processing program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003248825A true JP2003248825A (en) | 2003-09-05 |
Family
ID=28659915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002046541A Pending JP2003248825A (en) | 2002-02-22 | 2002-02-22 | Image processing apparatus, image processing method, image processing program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003248825A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293554A (en) * | 2004-03-08 | 2005-10-20 | Seiko Epson Corp | Determination of main subject in image |
JP2009535683A (en) * | 2006-04-28 | 2009-10-01 | トムソン ライセンシング | Saliency estimation of object-based visual attention model |
JP2010256536A (en) * | 2009-04-23 | 2010-11-11 | Sharp Corp | Image processing device and image display device |
JP2012151856A (en) * | 2012-02-16 | 2012-08-09 | Konica Minolta Holdings Inc | Imaging apparatus and imaging method |
US8355574B2 (en) | 2004-03-08 | 2013-01-15 | Seiko Epson Corporation | Determination of main object on image and improvement of image quality according to main object |
WO2013089041A1 (en) * | 2011-12-15 | 2013-06-20 | 日本電気株式会社 | Video processing system, video processing method, video processing device for portable terminal or for server, and method for controlling and program for controlling same |
US9678991B2 (en) | 2014-02-24 | 2017-06-13 | Samsung Electronics Co., Ltd. | Apparatus and method for processing image |
-
2002
- 2002-02-22 JP JP2002046541A patent/JP2003248825A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293554A (en) * | 2004-03-08 | 2005-10-20 | Seiko Epson Corp | Determination of main subject in image |
US8355574B2 (en) | 2004-03-08 | 2013-01-15 | Seiko Epson Corporation | Determination of main object on image and improvement of image quality according to main object |
JP2009535683A (en) * | 2006-04-28 | 2009-10-01 | トムソン ライセンシング | Saliency estimation of object-based visual attention model |
JP2010256536A (en) * | 2009-04-23 | 2010-11-11 | Sharp Corp | Image processing device and image display device |
WO2013089041A1 (en) * | 2011-12-15 | 2013-06-20 | 日本電気株式会社 | Video processing system, video processing method, video processing device for portable terminal or for server, and method for controlling and program for controlling same |
JP2012151856A (en) * | 2012-02-16 | 2012-08-09 | Konica Minolta Holdings Inc | Imaging apparatus and imaging method |
US9678991B2 (en) | 2014-02-24 | 2017-06-13 | Samsung Electronics Co., Ltd. | Apparatus and method for processing image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4335476B2 (en) | Method for changing the number, size, and magnification of photographic prints based on image saliency and appeal | |
CN110163810B (en) | Image processing method, device and terminal | |
US8280188B2 (en) | System and method for making a correction to a plurality of images | |
US9299177B2 (en) | Apparatus, method and non-transitory computer-readable medium using layout similarity | |
JP4611069B2 (en) | Device for selecting an image of a specific scene, program, and recording medium recording the program | |
RU2693303C2 (en) | Method and device for changing background colour of tool panel according to dominant colour of image | |
US6738494B1 (en) | Method for varying an image processing path based on image emphasis and appeal | |
US20190347841A1 (en) | Image processing apparatus and image processing method | |
US6671405B1 (en) | Method for automatic assessment of emphasis and appeal in consumer images | |
US9846681B2 (en) | Apparatus and method for outputting layout image | |
KR100667663B1 (en) | Computer-readable recording medium recording image processing apparatus, image processing method and program thereof | |
US9436706B2 (en) | Image processing apparatus, image processing method, and storage medium for laying out images | |
JP4606828B2 (en) | Device for selecting an image of a specific scene, program, and recording medium recording the program | |
JP5288961B2 (en) | Image processing apparatus and image processing method | |
JP2003153007A (en) | Image compression control system and method based on image importance | |
JP2005086516A (en) | Imaging device, printer, image processor and program | |
CN101959018A (en) | Image processing device, image processing method and program | |
US9904879B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US8861849B2 (en) | Image processing | |
JP5104282B2 (en) | Image correction method and an image correction device | |
US8203772B2 (en) | Image output method, apparatus, and program using one or more attention levels | |
JP7027101B2 (en) | Information processing equipment, control methods, and programs | |
US20150062653A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2007207055A (en) | Image processing apparatus, program, information storage medium, and image processing method | |
JP2003248825A (en) | Image processing apparatus, image processing method, image processing program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070423 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070530 |