JP5136705B2 - Printing device - Google Patents
Printing device Download PDFInfo
- Publication number
- JP5136705B2 JP5136705B2 JP2012008464A JP2012008464A JP5136705B2 JP 5136705 B2 JP5136705 B2 JP 5136705B2 JP 2012008464 A JP2012008464 A JP 2012008464A JP 2012008464 A JP2012008464 A JP 2012008464A JP 5136705 B2 JP5136705 B2 JP 5136705B2
- Authority
- JP
- Japan
- Prior art keywords
- detection window
- image data
- image
- counter
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、印刷装置に関し、特に画像に含まれるオブジェクトを検出する印刷装置に関する。 The present invention relates to a printing apparatus, a printing apparatus that detect an object, particularly included in the image.
画像データに含まれる顔画像を検出し、その検出結果を利用して、印刷処理や補正処理や画像入力機器の動作制御が行われている。検出窓を画像データのあらゆる位置に移動させながら、検出窓において顔画像が存在するか否かを判定していくことにより、画像データにおける不特定の位置に存在する顔画像を検出することができる(特許文献1、参照。)かかる文献(図6、参照。)においては、画像データの隅から順に検出窓を移動させている。 A face image included in the image data is detected, and using the detection result, printing processing, correction processing, and operation control of the image input device are performed. By moving the detection window to any position in the image data and determining whether a face image exists in the detection window, a face image existing at an unspecified position in the image data can be detected. (See Patent Document 1) In this document (see FIG. 6), the detection window is moved in order from the corner of the image data.
検出窓において顔画像が存在するか否かを判定するための処理負担は小さいものでないため、検出窓を画像データのあらゆる位置に移動させることにより、全体の検出処理の処理負担は大きくなるという問題があった。画像データのすべての位置(画素)について検出窓を設定すれば、検出漏れを防止することができるが、処理負担が著しく増大してしまう。逆に、画像データの一部の位置(画素)のみについて検出窓を設定すれば、処理負担を軽減することができるが、検出漏れが発生してしまう。 Since the processing load for determining whether or not a face image exists in the detection window is not small, moving the detection window to any position in the image data increases the processing load for the entire detection process. was there. If detection windows are set for all positions (pixels) of image data, omission of detection can be prevented, but the processing load increases remarkably. On the contrary, if the detection window is set only for a part of the position (pixels) of the image data, the processing load can be reduced, but a detection failure occurs.
本発明は、前記課題にかんがみてなされたもので、効率よく、かつ、漏れのないオブジェクトを検出する印刷装置の提供を目的とする。 The present invention has been made in view of the above problems, efficiently, and aims to provide a printing apparatus that detect the object without leaking.
上記課題を解決するために、本発明は、少なくとも第1座標軸と第2座標軸についての位置情報を有する画像データが示す画像からオブジェクトを検出するにあたり、以下の手順を行う。まず、前記第1座標軸方向に関して第1移動間隔ずつ周期的に検出窓を順次移動させ、前記第2座標軸方向に関して前記第1移動間隔と異なる第2移動間隔ずつ周期的に検出窓を順次移動させる。また、前記検出窓が各位置に移動するごとに当該検出窓内の画像について前記オブジェクトの存在の有無を判定する。すなわち、前記第1座標軸方向と前記第2座標軸方向のそれぞれに関して前記検出窓を移動させながら、当該検出窓についてオブジェクトが存在するか否かを判定していく。 In order to solve the above problem, the present invention performs the following procedure when detecting an object from an image indicated by image data having position information about at least the first coordinate axis and the second coordinate axis. First, the detection window is sequentially moved sequentially by a first movement interval with respect to the first coordinate axis direction, and the detection window is sequentially moved by a second movement interval different from the first movement interval with respect to the second coordinate axis direction. . Further, each time the detection window moves to each position, the presence or absence of the object is determined for the image in the detection window. That is, while moving the detection window with respect to each of the first coordinate axis direction and the second coordinate axis direction, it is determined whether or not an object exists for the detection window.
ここで、前記第1座標軸方向と前記第2座標軸方向のそれぞれに関して前記検出窓を移動させるにあたり、前記第1座標軸方向に関する移動間隔と、前記第2座標軸方向に関する移動間隔を異なる大きさとする。このようにすることにより、一方の座標軸方向については漏れのないオブジェクト検出を行うことができ、他方の座標軸方向については処理負担の少ないオブジェクト検出を行うことができる。すなわち、各方向に応じて最適な前記移動間隔を設定することにより、漏れがなく、かつ、効率のよいオブジェクト検出を行うことができる。なお、前記オブジェクトは、特定の画像的特徴を有するものであればよく、例えば人物・動物の顔や顔器官等を検出することができる。 Here, when the detection window is moved in each of the first coordinate axis direction and the second coordinate axis direction, the movement interval in the first coordinate axis direction and the movement interval in the second coordinate axis direction are set to different sizes. By doing so, it is possible to detect an object with no omission in one coordinate axis direction, and it is possible to detect an object with less processing load in the other coordinate axis direction. That is, by setting the optimal movement interval according to each direction, it is possible to perform object detection without leakage and efficient. The object only needs to have a specific image characteristic. For example, a face of a person / animal or a facial organ can be detected.
さらに、前記第2座標軸方向において互いに隣接する前記検出窓の移動位置同士は、前記第1座標軸方向において所定量だけずれるようにしてもよい。これにより、前記第2座標軸方向において互いに隣接する複数の前記検出窓の移動位置が、前記第1座標軸方向における同一位置に並ぶことが防止でき、漏れのないオブジェクト検出を行わせることができる。前記第1座標軸方向においてずれる量は、例えば前記第1移動間隔の半分の大きさとしてもよい。 Furthermore, the movement positions of the detection windows adjacent to each other in the second coordinate axis direction may be shifted by a predetermined amount in the first coordinate axis direction. Accordingly, it is possible to prevent the movement positions of the plurality of detection windows adjacent to each other in the second coordinate axis direction from being arranged at the same position in the first coordinate axis direction, and to perform object detection without leakage. The amount of deviation in the first coordinate axis direction may be, for example, half the first movement interval.
また、前記第1座標軸と前記第2座標軸として種々の座標軸系を適用することができる。例えば、前記第1座標軸方向と前記第2座標軸方向を、それぞれ前記画像データが示す画像の縦方向と横方向とするようにしてもよい。このようにすることにより、縦方向と横方向に異なる移動間隔を設定することができる。さらに、前記第1座標軸方向と前記第2座標軸方向を、前記画像データが示す画像の所定位置を中心とした円の径方向と周方向とするようにしてもよい。 Further, various coordinate axis systems can be applied as the first coordinate axis and the second coordinate axis. For example, the first coordinate axis direction and the second coordinate axis direction may be the vertical direction and the horizontal direction of the image indicated by the image data, respectively. In this way, different movement intervals can be set in the vertical direction and the horizontal direction. Furthermore, the first coordinate axis direction and the second coordinate axis direction may be set to a radial direction and a circumferential direction of a circle centered on a predetermined position of the image indicated by the image data.
さらに、本発明の技術的思想は、具体的なオブジェクト検出方法にて具現化されるのみならず、当該方法をオブジェクト検出装置において具現化することもできる。すなわち、上述したオブジェクト検出方法が行う各工程に対応する手段を有するオブジェクト検出装置としても本発明を特定することができる。むろん、上述したオブジェクト検出装置がプログラムを読み込んで上述した各手段を実現する場合には、当該各手段に対応する機能を実行させるプログラムや当該プログラムを記録した各種記録媒体においても本発明の技術的思想が具現化できることは言うまでもない。なお、本発明のオブジェクト検出装置は、単一の装置のみならず、複数の装置によって分散して存在可能であることはいうまでもない。また、プリンタ等の印刷装置やデジタルスチルカメラ等の画像入力装置において本発明のオブジェクト検出方法を実現するようにしてもよい。 Furthermore, the technical idea of the present invention can be implemented not only by a specific object detection method but also by an object detection apparatus. That is, the present invention can also be specified as an object detection apparatus having means corresponding to each step performed by the object detection method described above. Of course, when the above-described object detection apparatus reads a program to realize each of the above-described means, the technical features of the present invention can be applied to a program for executing a function corresponding to each of the means and various recording media on which the program is recorded. It goes without saying that the idea can be embodied. Needless to say, the object detection device of the present invention can be distributed not only by a single device but also by a plurality of devices. Further, the object detection method of the present invention may be realized in a printing apparatus such as a printer or an image input apparatus such as a digital still camera.
以下、下記の順序に従って本発明の実施形態を説明する。
1.画像処理装置の構成:
2.画像処理:
2−1.顔検出処理:
2−2.顔判定処理:
2−3.肌色調整および印刷処理:
3.変形例:
3−1.変形例1:
Hereinafter, embodiments of the present invention will be described in the following order.
1. Configuration of image processing device:
2. Image processing:
2-1. Face detection process:
2-2. Face judgment processing:
2-3. Skin tone adjustment and printing process:
3. Variations:
3-1. Modification 1:
1.画像処理装置の構成
図1は、本発明の一実施形態にかかる画像処理装置を具体的に実現するコンピュータの構成を示している。同図において、コンピュータ10はCPU11とRAM12とROM13とハードディスクドライブ(HDD)14と汎用インターフェイス(GIF)15とビデオインターフェイス(VIF)16と入力インターフェイス(IIF)17とバス18とから構成されている。バス18は、コンピュータ10を構成する各要素11〜17の間でのデータ通信を実現するものであり、図示しないチップセット等によって通信が制御されている。HDD14には、オペレーティングシステム(OS)を含む各種プログラムを実行するためのプログラムデータ14aが記憶されており、当該プログラムデータ14aをRAM12に展開しながらCPU11が当該プログラムデータ14aに準じた演算を実行する。
1. Configuration of Image Processing Device FIG. 1 shows the configuration of a computer that specifically implements an image processing device according to an embodiment of the present invention. In FIG. 1, a
また、HDD14には、デジタルスチルカメラやスキャナによって画像入力された画像データ14bが記憶されている。GIF15は、例えばUSB規格に準じたインターフェイスを提供するものであり、外部のプリンタ20をコンピュータ10に接続させている。VIF16はコンピュータ10を外部のディスプレイ40に接続し、ディスプレイ40に画像を表示するためのインターフェイスを提供する。IIF17はコンピュータ10を外部のキーボード50aとマウス50bに接続し、キーボード50aとマウス50bからの入力信号をコンピュータ10が取得するためのインターフェイスを提供する。
Further, the
図2は、コンピュータ10において実行されるプログラムのソフトウェア構成を示している。同図において、オペレーティングシステム(OS)PG1と画像処理アプリケーションPG2とプリンタドライバPG3が実行されている。OS PG1は各プログラム間のインターフェイスを提供し、プリンタドライバPG3はプリンタ20を制御するための処理を実行する。画像処理アプリケーションPG2は、作業画像取得部PG2aと検出窓設定部PG2bと窓画像取得部PG2cと特徴量算出部PG2dと顔判定部PG2eと画質調整部PG2fとから構成されている。画像処理アプリケーションPG2を構成する各モジュールPG2a〜PG2fが実行する処理の詳細については後述する画像処理の流れとともに説明する。
FIG. 2 shows a software configuration of a program executed in the
2.画像処理
図3は、画像処理の全体の流れを示している。ステップS100では、作業画像取得部PG2aが所定のUI画面をディスプレイ40に表示させるとともに、キーボード50aとマウス50bから操作を受け付ける。それにより、HDD14等に記憶された複数の画像データ14bのなかからユーザーが印刷したい画像データ14bを取得する。作業画像取得部PG2aが画像データ14bの解像度を変換することにより、320画素×240画素(QVGA)の作業画像データWDを生成する。そして、ステップS200においては、検出窓設定部PG2bが顔検出処理を実行させ、作業画像データWDにおいて、順次、検出窓SWを設定する。検出窓SWが設定されるごとに、ステップS400において特徴量算出部PG2dと顔判定部PG2eが検出窓SWについての顔判定処理を実行させ、その判定結果を出力する。その判定結果に応じて、画質調整部PG2eが肌色調整処理をステップS500にて実行し、画質調整後の画像データ14bをプリンタドライバPG3に出力する。するとプリンタドライバPG3が印刷制御処理を実行し、プリンタ20にて画質調整後の画像データ14bを印刷させる。
2. Image Processing FIG. 3 shows the overall flow of image processing. In step S100, the work image acquisition unit PG2a displays a predetermined UI screen on the
2−1.顔検出処理
図4は、顔検出処理の流れを示し、図5は作業画像データWDを示している。図5において、作業画像データWDに正方形状領域の検出窓(検出領域)SWが設定されており、顔検出処理によって検出窓設定部PG2bが検出窓SWを作業画像データWDにおいて隈無く移動させる。なお、作業画像データWDの長手方向をx軸(第1座標軸)とし、短手方向をy軸(第2座標軸)と表すものとし、x軸とy軸の原点は作業画像データWDの左上隅位置とする。検出窓SWを移動させる際に、検出窓SWのサイズと、検出窓SWの画像面内における回転角度を順次シフトさせる。以上のように検出窓SWをシフトさせるために、以下のパラメータを順次シフトさせる必要がある。
・検出窓SWのサイズのパラメータ:S
・検出窓SWの中心位置のパラメータ:P
・検出窓SWの回転角度のパラメータ:T
ステップS210においては、検出窓設定部PG2bが各カウンタns,nx,ny,ntをリセットする。各カウンタns,nx,ny,ntは、上述したパラメータS,P,Tを順にシフトさせるための整数値であり、リセットによって0とされる。ステップS220においては、サイズカウンタnsに1を加算する。
2-1. Face Detection Processing FIG. 4 shows the flow of face detection processing, and FIG. 5 shows work image data WD. In FIG. 5, a detection window (detection area) SW of a square area is set in the work image data WD, and the detection window setting unit PG2b moves the detection window SW in the work image data WD without fail by face detection processing. Note that the longitudinal direction of the work image data WD is represented as the x-axis (first coordinate axis), and the short direction is represented as the y-axis (second coordinate axis). The origin of the x-axis and y-axis is the upper left corner of the work image data WD. Position. When moving the detection window SW, the size of the detection window SW and the rotation angle of the detection window SW in the image plane are sequentially shifted. In order to shift the detection window SW as described above, it is necessary to sequentially shift the following parameters.
-Detection window SW size parameter: S
-Parameter for the center position of the detection window SW: P
-Parameter of rotation angle of detection window SW: T
In step S210, the detection window setting section PG2b each counter n s, n x, n y , and resets the n t. Each counter ns , nx , ny , nt is an integer value for sequentially shifting the above-described parameters S, P, T, and is set to 0 by reset. In step S220, 1 is added to the size counter n s.
図6は、サイズカウンタnsと検出窓SWのサイズSとの関係を示している。同図において、サイズカウンタnsの増加とともに、検出窓SWのサイズS(縦と横の長さ)が徐々に減少することが示されている。本実施例では、サイズカウンタnsとサイズSとが線形的な関係を有し、サイズカウンタnsが1〜15の間で1増加するごとに、検出窓SWのサイズS(縦および横の長さ)が12画素ずつ小さくなるようにしている。また、サイズカウンタnsが1のときの最大のサイズSが検出窓SWの短手の長さよりわずかに短い200画素となり、サイズカウンタnsが15のときの最小の検出窓SWのサイズSが20画素となる。なお、ここで示したサイズカウンタnsと検出窓SWのサイズSの関係は一例であり、これらが非線形の関係を有していたり、傾きや切片などを変更してもよい。次のステップS230,S240においては、検出窓SWの中心位置のパラメータPを設定するために、y方向カウンタnyとx方向カウンタnxにそれぞれ1を加算する。 Figure 6 shows the relationship between the size S of the size counter n s and the detection window SW. In the figure, it is shown that the size S (vertical and horizontal lengths) of the detection window SW gradually decreases as the size counter ns increases. In this embodiment, the size counter n s and the size S have a linear relationship, and each time the size counter n s increases by 1 between 1 to 15, the size S of the detection window SW (vertical and horizontal) The length is reduced by 12 pixels. The maximum size S when the size counter ns is 1 is 200 pixels, which is slightly shorter than the short length of the detection window SW, and the minimum size S of the detection window SW when the size counter ns is 15 is obtained. 20 pixels. The relationship between the size counter n s and the size S of the detection window SW shown here is an example, and these may have a non-linear relationship, or the inclination, intercept, etc. may be changed. In the next step S230, S240, in order to set the parameters P of the center position of the detection window SW, adds 1 to the y direction counter n y and x direction counter n x.
ステップS245では、y方向カウンタnyが奇数であるか偶数であるかを判定する。ここで、y方向カウンタnyが奇数である場合には、検出窓SWの中心位置Pのx,y座標を下記の(1)式によって算出する(ステップS250a)。
上記の(1)式において、dx,dyは検出窓SWの中心位置Pの各方向への単位移動距離(画素数)を示す一定の移動間隔を表しており、移動間隔dx,dyと方向カウンタnx,nyをそれぞれ乗算することにより、検出窓SWの中心位置Pのx,y座標を算出する。移動間隔dx,dyは検出窓SWの縦および横の長さを示すサイズSに基づいて下記の(2)式によって算出される。
上記の(2)式が示すように、移動間隔dx,dyは互いに異なる値となっており、px>pyとなっている。上記の(2)式によって移動間隔dy<1となる場合は、dy=1とする。なお、x方向カウンタnxが取り得る範囲は1〜320/dx(整数部分)とし、y方向カウンタnyは1〜240/dy(整数部分)とする。y方向カウンタnyが偶数である場合には、検出窓SWの中心位置Pのx,y座標を下記の(3)式によって算出する(ステップS250b)。
In step S245, y direction counter n y determines whether is odd or even. Here, when the y-direction counter n y is an odd number, the x and y coordinates of the center position P of the detection window SW are calculated by the following equation (1) (step S250a).
In the above (1), d x, d y represents a certain movement distance showing a unit moving distance (number of pixels) in each direction of the center position P of the detection window SW, the movement distance d x, d by multiplying y and direction counter n x, n y, respectively, x of the center position P of the detection window SW, calculates the y-coordinate. Movement distance d x, d y is calculated by the following equation (2) based on the size S that indicates the length of sides of the detection window SW.
As indicated by the equation (2), the movement distance d x, d y is a different value, and has a p x> p y. When the movement interval d y <1 by the above equation (2), d y = 1. The range that can take the x direction counter n x is a 1 to 320 / d x (integer part), the y direction counter n y and to 240th / d y (integer part). If y direction counter n y is even, x of the center position P of the detection window SW, the y coordinate is calculated by the following equation (3) (step S250b).
上記の(3)式によれば、y方向カウンタnyが偶数である場合は、y方向カウンタnyが奇数である場合よりも、検出窓SWの中心位置Pのx座標がx方向の移動間隔pxの半分だけ進んだ位置となる。ステップS250a,250bにおいては、それぞれ以上のようにして算出した中心位置Pを中心として、サイズSの検出窓SWを生成する。ステップS260においては、検出窓SWの一部が作業画像データWDの外側にはみ出ていないか否かを判定する。
According to the above equation (3), when the y-direction counter ny is an even number, the x coordinate of the center position P of the detection window SW moves in the x direction more than when the y-direction counter ny is an odd number. the advanced position just half of the interval p x. In steps S250a and 250b, a detection window SW of size S is generated around the center position P calculated as described above. In step S260, it is determined whether a part of the detection window SW does not protrude outside the work image data WD.
図7は、ステップS260における判定の様子を模式的に示している。同図に示すように、各カウンタns,nx,nyの変動によって検出窓SWの位置と大きさがシフトするため、あるカウンタns,nx,nyの組み合わせにおいては検出窓SWの一部が作業画像データWDの外側にはみ出ることとなる。このような場合に正常な顔検出を行うことができないとして、当該カウンタns,nx,nyで特定される検出窓SWについての顔検出処理をスキップさせる。一方、検出窓SWの全部が作業画像データWDの内側に入る場合には、ステップS270において検出窓設定部PG2bが検出窓SWの回転角度Tを設定するための回転角カウンタntに1を加算する。 FIG. 7 schematically shows the state of determination in step S260. As shown in the drawing, each counter n s, n x, the position and size of the detection window SW by variations in n y shifts, there counter n s, n x, detected at the combination of n y window SW A part of the image data protrudes outside the work image data WD. As it is impossible to perform a normal face detection in such a case, the counter n s, n x, to skip the face detection processing for the detection window SW specified by n y. On the other hand, if all of the detection window SW enters the inside of the working image data WD is, it adds 1 to the rotation angle counter n t for the detection window setting section PG2b in step S270 to set the rotation angle T of the detection window SW To do.
図8は、回転角カウンタntと検出窓SWの回転角Tとの関係を示している。同図に示すように回転角カウンタntが1のとき作業画像データWDの上方向を検出窓SWの上とし、回転角カウンタntが2のとき作業画像データWDの右方向を検出窓SWの上とし、回転角カウンタntが3のとき作業画像データWDの下方向を検出窓SWの上とし、回転角カウンタntが4のとき作業画像データWDの左方向を検出窓SWの上とする。すなわち、本実施形態では、回転角カウンタntが1増加するごとに検出窓SWを時計回りに90度ずつ回転させることとしている。なお、検出窓SWの回転角度は90度刻みであるものに限られず、例えば30度刻み等としてもよい。
FIG. 8 shows the relationship between the rotation angle counter n t and the rotation angle T of the detection window SW. As shown in the figure, when the rotation angle counter nt is 1, the upward direction of the work image data WD is on the detection window SW, and when the rotation angle counter nt is 2, the right direction of the work image data WD is the detection window SW. When the rotation angle counter nt is 3, the downward direction of the work image data WD is above the detection window SW. When the rotation angle counter nt is 4, the left direction of the work image data WD is above the detection window SW. And That is, in this embodiment, the rotation angle counter n t is the be rotated by 90 degrees detection window SW clockwise every
以上のようにして、ステップS260にてスキップされた場合を除いて、すべてのカウンタns,nx,ny,ntが設定できると検出窓SWの大きさと位置と回転角が検出窓設定部PG2bによって一意に特定されたこととなる。ステップS280においては、窓画像取得部PG2cが現在決定されている検出窓SWの内側の画像データを抽出し、窓画像データXDとして取得する。取得した窓画像データXDは、特徴量算出部PG2dに出力され、窓画像データXDについての顔判定処理をステップS400にて実行する。顔判定処理の詳細については後述する。 As described above, with the exception of the case where skipped at step S260, all the counters n s, n x, n y , n t can be the size and location and rotation angle detection window setting of the detection window SW setting This is uniquely specified by the part PG2b. In step S280, the window image acquisition unit PG2c extracts the image data inside the currently determined detection window SW and acquires it as window image data XD. The acquired window image data XD is output to the feature amount calculation unit PG2d, and the face determination process for the window image data XD is executed in step S400. Details of the face determination process will be described later.
窓画像データXDを特徴量算出部PG2dに出力すると、検出窓設定部PG2bがステップS290において、回転角カウンタnt=4であるか否かを判定する。すなわち、現在の検出窓SWのサイズSおよび中心位置Pにおいて4方向の回転角の設定が完了したか否かを判定する。回転角カウンタnt<4である場合には、ステップS270に戻り、回転角カウンタntに1を加算する。これにより、次回は90度時計回りに回転した検出窓SWを設定することができる。一方、回転角カウンタnt=4である場合にはステップS295において回転角カウンタntを0にリセットし、ステップS300においてx方向カウンタnx=320/dx(整数部分)であるか否かを判定する。すなわち、現在の検出窓SWのサイズSおよびy方向の位置におけるすべてのx方向の位置について検出窓SWの設定が完了したか否かを判定する。x方向カウンタnx<320/dx(整数部分)である場合には、ステップS240に戻り、x方向カウンタnxに1を加算する。これにより、次回はx方向の移動間隔px(6画素)だけ右側に進んだ中心位置Pに検出窓SWを設定することができる。 When the window image data XD is output to the feature amount calculation unit PG2d, the detection window setting unit PG2b determines whether or not the rotation angle counter n t = 4 in step S290. That is, it is determined whether or not the setting of the rotation angles in the four directions is completed at the current size S and center position P of the detection window SW. If the rotation angle counter n t <4, the process returns to step S270, and 1 is added to the rotation angle counter n t . As a result, the detection window SW rotated 90 degrees clockwise can be set next time. On the other hand, if the rotation angle counter n t = 4, the rotation angle counter n t is reset to 0 in step S295, and whether or not the x -direction counter n x = 320 / d x (integer part) is determined in step S300. Determine. That is, it is determined whether or not the setting of the detection window SW is completed for all the positions in the x direction in the current size S of the detection window SW and the position in the y direction. when x direction counter n x <320 / d x (integer part), the process returns to step S240, 1 is added to the x direction counter n x. As a result, next time, the detection window SW can be set at the center position P advanced to the right by the movement interval p x (6 pixels) in the x direction.
一方、x方向カウンタnx=320/dx(整数部分)である場合にはステップS305においてx方向カウンタnxを0にリセットし、ステップS310においてy方向カウンタny=240/dy(整数部分)であるか否かを判定する。すなわち、現在の検出窓SWのサイズSにおいて、すべての中心位置Pについて検出窓SWの設定が完了したか否かを判定する。y方向カウンタny<240/dy(整数部分)である場合には、ステップS230に戻り、y方向カウンタnyに1を加算する。これにより、次回はy方向に1画素(移動間隔py)だけ進んだ中心位置Pに検出窓SWを設定することができる。一方、y方向カウンタny=240/dy(整数部分)である場合にはステップS315においてy方向カウンタnyを0にリセットし、ステップS320においてサイズカウンタns=15であるか否かを判定する。すなわち、すべてのサイズSについて検出窓SWの設定が完了したか否かを判定する。サイズカウンタns<15である場合には、ステップS220に戻り、サイズカウンタnsに1を加算する。これにより、次回は一回り小さいサイズSの検出窓SWを設定することができる。一方、サイズカウンタns=15である場合には、すべてのパラメータ(サイズSおよび位置Pおよび回転角T)の組み合わせについて検出窓SWの設定が完了したとして、処理を終了させる。 On the other hand, if x direction counter n x = 320 / d x (integer part), x direction counter n x is reset to 0 in step S305, and y direction counter n y = 240 / d y (integer) in step S310. Part) is determined. That is, it is determined whether or not the setting of the detection window SW has been completed for all the center positions P in the current size S of the detection window SW. If the y-direction counter n y <240 / d y (integer part), the process returns to step S230, and 1 is added to the y-direction counter n y . Thereby, the detection window SW can be set at the center position P advanced by one pixel (movement interval p y ) in the y direction next time. On the other hand, if the y-direction counter n y = 240 / d y (integer part), the y-direction counter n y is reset to 0 in step S315, and whether or not the size counter n s = 15 is determined in step S320. judge. That is, it is determined whether or not the detection window SW has been set for all the sizes S. If the size counter n s <15, the process returns to step S220, and 1 is added to the size counter n s . As a result, the detection window SW having a size S that is slightly smaller the next time can be set. On the other hand, if the size counter n s = 15, it is determined that the setting of the detection window SW has been completed for all combinations of parameters (size S, position P, and rotation angle T), and the process ends.
以上説明した顔検出処理においては、ステップS260にてスキップされた場合を除いて、検出窓SWのサイズSと位置Pと回転角Tのいずれかが更新されるごとに、窓画像データXDが特徴量算出部PG2dに出力され、当該窓画像データXDについての顔判定処理がステップS400にて実行される。この顔判定処理においては、窓画像データXDに顔画像が存在するか否かが判定されるため、検出窓SWを設定したサイズSと位置Pと回転角Tにおいて顔画像の有無を判定していくことができる。 In the face detection process described above, the window image data XD is characterized every time one of the size S, position P, and rotation angle T of the detection window SW is updated, except when skipped in step S260. The face determination process for the window image data XD is output to the amount calculation unit PG2d and executed in step S400. In this face determination process, since it is determined whether or not a face image exists in the window image data XD, the presence or absence of a face image is determined based on the size S, position P, and rotation angle T at which the detection window SW is set. I can go.
図9は、本実施形態において検出窓SWの位置が移動する様子を示している。同図に示すように、作業画像データWDの左上隅から開始し、x方向カウンタnxの増加とともに検出窓SWの中心位置Pを右側に移動させて行くことができる。x方向カウンタnx=320/dx(整数部分)となるとき、検出窓SWの中心位置Pが作業画像データWDの右端に到達することとなる。右側に到達すると、x方向カウンタnxが0にリセットされるとともにy方向カウンタnyに1が加算されるため、検出窓SWの中心位置Pが左端の一段下の位置に移動することとなる。以上の移動を繰り返して実行する際に、y方向カウンタnyが奇数であるか偶数であるかによって、検出窓SWの中心位置Pがx方向にdx/2だけずれることとなる。このようにすることにより、後述する顔判定処理の回数を増加させることなく、検出窓SWの中心位置Pが移動させられる位置の疎密の差を緩和することができ、効率よく、かつ、漏れのない顔検出が可能となる。また、上記の(2)式によって、検出窓SWの中心位置Pのy方向に関する密度は、x方向に関する密度の5倍となる。このように、x方向とy方向とで検出窓SWの中心位置Pの密度を不均一とすることにより、x方向とy方向に関して判定特性(ロバスト性)が不均一な顔判定処理(ステップS400)に適した顔検出を実現することができる。 FIG. 9 shows how the position of the detection window SW moves in the present embodiment. As shown in the figure, it is possible to work starting from the upper left corner of the image data WD, gradually moves the center position P of the detection window SW to the right with increasing x direction counter n x. When the x-direction counter n x = 320 / d x (integer part), the center position P of the detection window SW reaches the right end of the work image data WD. When reaching the right side, the x-direction counter nx is reset to 0 and 1 is added to the y-direction counter ny , so that the center position P of the detection window SW moves to a position one step below the left end. . When the above movement is repeatedly executed, the center position P of the detection window SW is shifted by d x / 2 in the x direction depending on whether the y direction counter ny is an odd number or an even number. By doing so, it is possible to alleviate the difference in density of the position to which the center position P of the detection window SW is moved without increasing the number of face determination processes to be described later. No face detection is possible. Further, according to the above equation (2), the density in the y direction of the center position P of the detection window SW is five times the density in the x direction. In this way, by making the density of the center position P of the detection window SW nonuniform in the x direction and the y direction, face determination processing in which the determination characteristics (robustness) are nonuniform in the x direction and the y direction (step S400). ) Can be realized.
2−2.顔判定処理
図10は、顔判定処理の流れを示している。ステップS410にて窓画像データXDを取得すると、次のステップS420において特徴量算出部PG2dが窓画像データXDから複数の特徴量を算出する。特徴量は、窓画像データXDに対して各種のフィルタを適用し、当該フィルタ内の輝度平均やエッジ量やコントラスト等の状態を示す特徴量(平均値や最大値や最小値や標準偏差等)を算出することにより得られる。なお、窓画像データXDは、検出窓SWのサイズSによって異なる大きさとなるが、ステップS410において予め一定の大きさに解像度変換される。
2-2. Face Determination Processing FIG. 10 shows the flow of face determination processing. When the window image data XD is acquired in step S410, the feature amount calculator PG2d calculates a plurality of feature amounts from the window image data XD in the next step S420. As for the feature amount, various types of filters are applied to the window image data XD, and the feature amount (average value, maximum value, minimum value, standard deviation, etc.) indicating the state of brightness average, edge amount, contrast and the like in the filter is included. It is obtained by calculating. Note that the window image data XD has different sizes depending on the size S of the detection window SW, but the resolution is converted into a predetermined size in advance in step S410.
図11は、窓画像データXDから特徴量を算出する様子を示している。同図において、窓画像データXDに対して多数のフィルタFTが用意されており、各フィルタFTを順次窓画像データXDに適用し、各フィルタFT内の画像について例えば12個の特徴量CA1〜CA12を順次算出する。特徴量CA1〜CA12が算出できると、ステップS430において、顔判定部PG2eが特徴量CA1〜CA12を予め用意されたニューラルネットワークNNに入力し、その出力として顔画像が存在する/しないの判定結果を算出する。なお、特徴量CAは、窓画像データXDが示す画像的特徴を指標化したものであればよく、必ずしもフィルタFTを使用する必要はない。 FIG. 11 shows how the feature amount is calculated from the window image data XD. In the figure, a large number of filters FT are prepared for the window image data XD, and each filter FT is sequentially applied to the window image data XD. For example, twelve feature values CA1 to CA12 for images in each filter FT. Are calculated sequentially. When the feature amounts CA1 to CA12 can be calculated, in step S430, the face determination unit PG2e inputs the feature amounts CA1 to CA12 to the neural network NN prepared in advance, and a determination result indicating whether or not a face image exists as the output is obtained. calculate. Note that the feature amount CA is not limited as long as the image feature indicated by the window image data XD is indexed, and the filter FT is not necessarily used.
図12は、ニューラルネットワークNNの構造の一例を示している。ニューラルネットワークNNは、前段層のユニットUの値の線形結合(添え字iは前段層のユニットUの識別番号。)によって後段層のユニットUの値が決定される基本構造を有している。さらに、線形結合によって得られた値をそのまま次の層のユニットUの値としてもよいが、線形結合によって得られた値を例えばハイパボリックタンジェント関数のような非線形関数によって変換して次の層のユニットUの値を決定することにより、非線形特性を与えてもよい。本実施例のニューラルネットワークNNは3層構造であり、ニューラルネットワークNNは、1層の中間層と、入力層と出力層とから構成されている。各特徴量CA1〜CA12がニューラルネットワークNNの入力層に入力可能となっており、出力層では出力値K(0〜1に正規化された値)を出力することが可能となっている。そして、出力値Kが0.5以上であれば窓画像データXDに顔画像が存在すると判定し、出力値Kが0.5未満であれば窓画像データXDに顔画像が存在しないと判定する(ステップS440)。このようなニューラルネットワークNNをHDD14に予め用意しておけば、顔画像が窓画像データXDに存在するか否かを特徴量CA1〜CA12に基づいて判定することができる。
FIG. 12 shows an example of the structure of the neural network NN. The neural network NN has a basic structure in which the value of the unit U in the subsequent layer is determined by a linear combination of the values of the unit U in the previous layer (the suffix i is the identification number of the unit U in the previous layer). Further, the value obtained by the linear combination may be used as the value of the unit U of the next layer as it is, but the value obtained by the linear combination is converted by a non-linear function such as a hyperbolic tangent function, for example. By determining the value of U, non-linear characteristics may be provided. The neural network NN of this embodiment has a three-layer structure, and the neural network NN is composed of one intermediate layer, an input layer, and an output layer. Each feature amount CA1 to CA12 can be input to the input layer of the neural network NN, and the output value K (value normalized to 0 to 1) can be output from the output layer. If the output value K is 0.5 or more, it is determined that a face image exists in the window image data XD, and if the output value K is less than 0.5, it is determined that no face image exists in the window image data XD. (Step S440). If such a neural network NN is prepared in the
図13は、ニューラルネットワークNNを学習する様子を模式的に示している。本実施形態では、誤差逆伝搬(error back propagation)法によって学習を行うことにより、各ユニットUの数や、各ユニットU間における線形結合の際の重みwの大きさやバイアスbの値が最適化される。誤差逆伝搬法による学習においては、まず各ユニットU間における線形結合の際の重みwの大きさやバイアスbの値を適当な値に初期設定する。 FIG. 13 schematically shows how the neural network NN is learned. In the present embodiment, learning is performed by the error back propagation method, so that the number of units U, the size of weight w and the value of bias b at the time of linear combination between units U are optimized. Is done. In learning by the back propagation method, first, the magnitude of the weight w and the value of the bias b at the time of linear combination between the units U are initially set to appropriate values.
そして、顔画像が存在しているか否かが既知の学習用画像データについてステップS420と同様の手順で特徴量CA1〜CA12を算出し、当該特徴量CA1〜CA12を初期設定されたニューラルネットワークNNに入力し、その出力値Kを取得する。学習用画像データはできるだけ多く用意するべきであり、様々な状態の顔画像が検出できるように、種々の人種や性別や年齢等をカバーするように用意する必要がある。さらに、デジタルスチルカメラ等によって撮影された画像データ14bに含まれる顔画像は種々の方向に向いている可能性がある。そのため、種々の方向に向いた顔画像を含む学習用画像データを用意する。また、上下に顔を向けるより左右に顔を向けて撮影される可能性が高いため、左右に顔を向けて撮影された学習用画像データの方が多数用意される。
The feature amounts CA1 to CA12 are calculated for learning image data for which it is known whether or not a face image exists, in the same procedure as in step S420, and the feature amounts CA1 to CA12 are set in the initially set neural network NN. An input value K is obtained. It is necessary to prepare as much learning image data as possible, and it is necessary to prepare various races, genders, ages, and the like so that face images in various states can be detected. Furthermore, the face image included in the
本実施例において、顔画像が存在している学習用画像データについて出力値Kとして1が出力されるのが望ましく、顔画像が存在していない学習用画像データについて出力値Kとして0が出力されるのが望ましい。しかしながら、各ユニットU間における線形結合の際の重みwの大きさやバイアスbの値を適当な値に初期設定したに過ぎないため、実際の出力値Kと理想的な値との間には誤差が生じることとなる。このような誤差を極小化させる各ユニットUについての重みwやバイアスbを、勾配法等の数値最適化手法を用いて算出する。この誤差は、後段の層から前段の層に伝搬され、後段のユニットUについて重みwやバイアスbから順に最適化されていく。以上のようにして学習したニューラルネットワークNNによれば、窓画像データXDに顔画像が存在している場合の特徴量CA1〜CA12に対して1に近い出力値Kを得ることができ、窓画像データXDに顔画像が存在していない場合の特徴量CA1〜CA12に対して0に近い出力値Kを得ることができる。従って、適当な閾値0.5によって閾値判定を行うことにより、窓画像データXDに顔画像が存在しているか否かを判定することができる(ステップS440)。 In this embodiment, it is desirable that 1 is output as the output value K for learning image data in which a face image exists, and 0 is output as the output value K for learning image data in which no face image exists. Is desirable. However, since the weight w and the value of the bias b at the time of linear combination between the units U are merely set to appropriate values, there is an error between the actual output value K and the ideal value. Will occur. The weight w and the bias b for each unit U that minimizes such an error are calculated using a numerical optimization method such as a gradient method. This error is propagated from the subsequent layer to the previous layer, and is optimized in order from the weight w and the bias b for the subsequent unit U. According to the neural network NN learned as described above, an output value K close to 1 can be obtained for the feature amounts CA1 to CA12 when a face image is present in the window image data XD. An output value K close to 0 can be obtained for the feature amounts CA1 to CA12 when no face image exists in the data XD. Therefore, it is possible to determine whether or not a face image exists in the window image data XD by performing threshold determination with an appropriate threshold 0.5 (step S440).
ステップS440において窓画像データXDについて顔画像が存在すると判定された場合、そのときの窓画像データXDが得られた検出窓SWのサイズSおよび位置Pおよび回転角TをRAM12に記憶させ(ステップS450)、リターンする。一方、ステップS430において窓画像データXDについて顔画像が存在しないと判定された場合、そのままリターンする。上述した顔検出処理によって窓画像データXDが特徴量算出部PG2dに順次出力されるため、その度にステップS410〜S440の処理を実行させる。これにより、図9に示すように順次移動される検出窓SWのそれぞれについて顔画像の存在の有無を判定していくことができる。 If it is determined in step S440 that a face image exists for the window image data XD, the size S, position P, and rotation angle T of the detection window SW from which the window image data XD was obtained are stored in the RAM 12 (step S450). ), Return. On the other hand, if it is determined in step S430 that no face image exists for the window image data XD, the process directly returns. Since the window image data XD is sequentially output to the feature amount calculation unit PG2d by the face detection process described above, the processes of steps S410 to S440 are executed each time. As a result, as shown in FIG. 9, the presence or absence of a face image can be determined for each of the detection windows SW that are sequentially moved.
2−3.肌色調整および印刷処理
図14は、画質調整部PG2eが実行する肌色調整処理の流れを示している。上述した顔検出処理のステップS320において、すべてのサイズSについて検出窓SWの設定が完了したか否かを判定されると、顔検出処理が終了するとともに、顔検出処理と同期して実行される顔判定処理も終了する。ステップS510においては、顔検出処理と顔判定処理の終了を検出し、調整対象の画像データ14bを取得する。ここで取得される画像データ14は、顔検出処理と顔判定処理の対象となった画像データ14bである。ステップS520においては、顔画像が存在すると判定された検出窓SWのサイズSおよび位置Pおよび回転角TをRAM12から読み出す。ステップS530においては、顔画像が存在すると判定された検出窓SWに対応する領域を画像データ14bにおいて特定する。検出窓SWのサイズSおよび位置PがRAM12から取得されているため、これを画像データ14bの画像サイズに換算することにより、検出窓SWに対応する領域を特定することができる。
2-3. Skin Color Adjustment and Printing Process FIG. 14 shows the flow of the skin color adjustment process executed by the image quality adjustment unit PG2e. In step S320 of the face detection process described above, when it is determined whether or not the detection window SW has been set for all the sizes S, the face detection process ends and is executed in synchronization with the face detection process. The face determination process is also terminated. In step S510, the end of face detection processing and face determination processing is detected, and
ステップS540においては、ステップS530にて特定した領域に含まれる肌色画素の色をサンプリングし、当該色に基づいて画像データ14bに対する色調調整のためのパラメータを設定する。ここでは、まずステップS540にて特定した領域に含まれる肌色画素を、各画素の色彩値(例えばRGB値やHSV値)に基づいて特定し、当該色彩値を肌色として好ましいものに補正するための調整パラメータを算出する。調整パラメータは、例えばカラーバランスやホワイトバランスや明るさを調整するためのパラメータが該当する。予め肌色として好ましい色彩値がHDD14に記憶されており、各肌色画素の色彩値が好ましい色彩値に近づくような調整パラメータが算出される。検出窓SWによって顔画像が存在する領域が予め特定されているため、顔画像の肌色画素に基づいて調整パラメータを得ることができる。なお、顔画像が存在すると判定された検出窓SWが複数検出された場合には、平均的な調整パラメータの算出を実行する。調整パラメータが算出できると、ステップS545において、当該調整パラメータに基づく各画素の色彩値の調整が実行される。以上のようにして、肌色調整が完了すると、ステップS550にて調整後の画像データ14bをプリンタドライバPG3に出力する。すると、プリンタドライバPG3は、画像データ14bに対して解像度変換処理と色変換処理とハーフトーン処理とラスタライズ処理を順次実行させ、プリンタ20に画質調整後の画像データ14bに対応する画像の印刷を実行させる。
In step S540, the color of the flesh color pixel included in the region specified in step S530 is sampled, and parameters for color tone adjustment for the
3−1.変形例1
図15は、本変形例にかかる顔検出処理の流れを示している。本変形例のステップS230,S240においては、前実施形態で使用したx方向カウンタnxとy方向カウンタnyの代わりに、径方向カウンタnrと周方向カウンタnaを検出窓SWの中心位置のパラメータPを設定するために使用する。
3-1.
FIG. 15 shows the flow of face detection processing according to this modification. In step S230, S240 of this modification, instead, the center position of the detection window SW in the radial direction counter n r and the circumferential counter n a prior embodiment x direction counter was used in the form n x and y direction counter n y Is used to set the parameter P.
図16は、検出窓SWの中心位置のパラメータPと、径方向カウンタnrと周方向カウンタnaの関係を示している。径方向カウンタnrは作業画像データWDの中心座標を原点とした径方向に関する検出窓SWの中心位置Pに対応付けられている。径方向カウンタnrは1〜6までの整数値をとる。中心位置Pの径方向に関する位置をrで表すと、位置rは径方向カウンタnrが1のとき0となり、径方向カウンタnrが6のとき最大値となる2次曲線(nr=1を頂点とし、下に凸の2次曲線。)で表されている。なお、位置rの最大値は、原点から検出窓SWの四隅までの距離よりもわずかに小さい大きさとされている。一方、周方向カウンタnaは1〜12までの整数値をとる。原点を水平方向に通過する直線(右側)と、原点と検出窓SWの中心位置Pを結ぶ直線がなす角をθで表すと、角θは周方向カウンタnaが1のとき0度となり、周方向カウンタnaが1増加するごとに反時計回りに30度回転(θ=30*na)する。なお、周方向カウンタnaは1〜12までの整数値をとるため、一周分(360度)だけ角θをシフトさせることができる。なお、径方向カウンタnr=1のときに限り、周方向カウンタnaの上限値を1とする。ステップS250では、以上の定義に基づいて、検出窓設定部PG2bが径方向カウンタnrと周方向カウンタnaから検出窓SWの中心の径方向に関する位置rと角度θを特定するとともに、径方向カウンタnrが奇数である場合(ステップS245)には、検出窓SWの中心位置Pのx,y座標を下記の(4)式によって算出する。
一方、径方向カウンタnrが偶数である場合(ステップS245)には、検出窓SWの中心位置Pのx,y座標を下記の(5)式によって算出する。
このようにすることにより、径方向カウンタnrが偶数である場合には、径方向カウンタnrが奇数である場合よりも周方向に15度進んだ位置に検出窓SWの中心位置Pを設定することができる。
Figure 16 shows the parameters P of the center position of the detection window SW, the relationship between the radial counter n r and the circumferential counter n a. The radial direction counter n r is associated with the center position P of the detection window SW in the radial direction with the center coordinate of the work image data WD as the origin. The radial counter n r takes an integer value from 1 to 6. When the position of the central position P in the radial direction is represented by r, the position r is 0 when the radial counter n r is 1, and is a quadratic curve (n r = 1) having a maximum value when the radial counter n r is 6. Is a quadratic curve that is convex downward. Note that the maximum value of the position r is slightly smaller than the distance from the origin to the four corners of the detection window SW. On the other hand, the circumferential direction counter n a take integer values up to 12. When an angle formed by a straight line (right side) passing through the origin in the horizontal direction and a straight line connecting the origin and the center position P of the detection window SW is represented by θ, the angle θ is 0 degrees when the circumferential counter n a is 1. Each time the circumferential counter n a increases by 1, it rotates 30 degrees counterclockwise (θ = 30 * n a ). Incidentally, the circumferential direction counter n a for taking the integer value of up to 12, can be shifted only angle θ one turn (360 degrees). Note that the upper limit value of the circumferential counter n a is 1 only when the radial counter n r = 1. In step S250, based on the above definition, with the detection window setting section PG2b to specify positions r and the angle θ with respect to the radial direction of the center of the detection window SW from the radial direction counter n r and the circumferential counter n a, radially When the counter n r is an odd number (step S245), the x and y coordinates of the center position P of the detection window SW are calculated by the following equation (4).
On the other hand, when the radial direction counter n r is an even number (step S245), the x and y coordinates of the center position P of the detection window SW are calculated by the following equation (5).
In this way, when the radial counter n r is an even number, the center position P of the detection window SW is set at a position advanced 15 degrees in the circumferential direction as compared with the case where the radial counter n r is an odd number. can do.
図17は、本変形例において検出窓SWの位置が移動する様子を示している。同図に示すように、作業画像データWDの中心から開始し、径方向カウンタnrの増加とともに検出窓SWの中心位置Pを外側に移動させて行くことができる。デジタルスチルカメラ等で撮影された多くの画像データ14b(作業画像データWD)においては、主たる被写体人物を全体画像の中央に構図されるため、処理の初期において顔画像を検出させることができる。例えば、後述する顔判定処理において所定人数までの顔画像が検出された時点で顔検出処理を終了させるようにした場合、より早期に処理を終了させることができ、処理負担を軽減させることができる。さらに、径方向カウンタnrに対応する径方向の位置rは、nr=1を頂点とし、下に凸の2次曲線で表されるため、作業画像データWDの中心付近においては検出窓SWの中心位置Pを高密度とし、作業画像データWDの中心から離れるほど中心位置Pを低密度とすることができる。このようにすることにより、顔画像が含まれる可能性の高い位置では細かく検出窓SWを移動させることができるとともに、顔画像が含まれる可能性の低い位置での顔判定処理の実行回数を軽減させることができる。さらに、検出窓SWの中心位置Pが外側に一段階移動するごとに、検出窓SWの中心位置Pの周方向に関する位置を15度ずつずらすことができるため、漏れのない顔検出を実現することができる。
FIG. 17 shows how the position of the detection window SW moves in this modification. As shown in the figure, starting from the center of the work image data WD, the center position P of the detection window SW can be moved outward as the radial counter nr increases. In
なお、以上においては、本発明の画像処理方法が、コンピュータ上で実行されるものを例示したが、例えばプリンタやデジタルスチルカメラやスキャナ等の画像機器にて実行されてもよい。プリンタにて本発明の画像処理方法を行えば、印刷の際に理想的な顔画像に近づく画像処理を実行することができる。むろん、プリンタは家庭用のものに限られず、業務用の写真プリントシステムにおいても適用することができる。さらに、プリンタのように印刷用紙上に画像処理結果を出力するものに限らず、フォトビューワのようにディスプレイ上に画像処理結果を出力する装置においても本発明を実現することができる。また、デジタルスチルカメラにて本発明の画像処理方法を行えば、理想的な肌色の顔画像となった撮影結果を得ることができる。さらに、人物認証を行うATM(Automated Teller
Machine)等においても本発明を適用することができる。ニューラルネットワークNNを使用して顔判定を行うものに限られず、上述した特徴量の特徴量空間における種々の判別手法を用いることも可能である。例えば、サポートベクタマシンを利用してもよいし、判別境界面を異ならせた複数段の判定器をカスケード接続するようにしてもよい。
In the above description, the image processing method of the present invention is exemplified as being executed on a computer. However, the image processing method may be executed by an image device such as a printer, a digital still camera, or a scanner. If the image processing method of the present invention is performed by a printer, it is possible to execute image processing that approximates an ideal face image during printing. Of course, the printer is not limited to a home printer, and can be applied to a business photo print system. Further, the present invention can be realized not only in a printer that outputs image processing results on a printing sheet but also in an apparatus that outputs image processing results on a display such as a photo viewer. Further, if the image processing method of the present invention is performed with a digital still camera, it is possible to obtain a photographing result that is an ideal skin-colored face image. Furthermore, ATM (Automated Teller) that performs person authentication
The present invention can also be applied to a machine). The method is not limited to performing face determination using the neural network NN, and various determination methods in the feature amount space of the feature amount described above can also be used. For example, a support vector machine may be used, or a plurality of stages of determination devices with different determination boundary surfaces may be cascade-connected.
10…コンピュータ、11…CPU、12…RAM、13…ROM、14…HDD、14a…プログラムデータ、14b…画像データ、15…GIF、16…VIF、17…IIF、18…バス、20…プリンタ、40…ディスプレイ、50a…キーボード、50b…マウス、PG1…OS、PG2…画像処理アプリケーション、PG2a…作業画像取得部、PG2b…検出窓設定部、PG2c…窓画像取得部、PG2d…特徴量算出部、PG2e…顔判定部、PG2f…画質調整部、PG3…プリンタドライバ。
DESCRIPTION OF
Claims (3)
前記第1座標軸方向に関して第1移動間隔ずつ周期的に検出窓を順次移動させ、前記第2座標軸方向に関して前記第1移動間隔と異なる第2移動間隔ずつ周期的に検出窓を順次移動させ、かつ、前記第2座標軸方向において互いに隣接する前記検出窓の移動位置同士を、前記第1座標軸方向において所定量だけずれさせる検出窓設定手段と、 The detection window is sequentially moved periodically by a first movement interval with respect to the first coordinate axis direction, the detection window is sequentially moved by a second movement interval different from the first movement interval with respect to the second coordinate axis direction, and Detecting window setting means for shifting the movement positions of the detection windows adjacent to each other in the second coordinate axis direction by a predetermined amount in the first coordinate axis direction;
前記検出窓が各位置に移動するごとに当該検出窓内の画像についてオブジェクトの存在の有無を判定する判定手段と、 Determination means for determining the presence or absence of an object for an image in the detection window each time the detection window moves to each position;
前記判定に応じた画像処理を実行した前記画像データを印刷する印刷手段とを具備することを特徴とする印刷装置。 And a printing unit that prints the image data that has been subjected to image processing according to the determination.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012008464A JP5136705B2 (en) | 2012-01-18 | 2012-01-18 | Printing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012008464A JP5136705B2 (en) | 2012-01-18 | 2012-01-18 | Printing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008079363A Division JP4983683B2 (en) | 2008-03-25 | 2008-03-25 | Object detection method, object detection apparatus, and object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012084177A JP2012084177A (en) | 2012-04-26 |
JP5136705B2 true JP5136705B2 (en) | 2013-02-06 |
Family
ID=46242895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012008464A Active JP5136705B2 (en) | 2012-01-18 | 2012-01-18 | Printing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5136705B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2722469B2 (en) * | 1987-12-28 | 1998-03-04 | 松下電器産業株式会社 | Recognition position correction method |
JP3537727B2 (en) * | 2000-03-01 | 2004-06-14 | 日本電信電話株式会社 | Signal detection method, signal search method and recognition method, and recording medium |
JP2003031601A (en) * | 2001-07-19 | 2003-01-31 | Sony Corp | Electronic component mounting device |
JP4628882B2 (en) * | 2005-06-16 | 2011-02-09 | 富士フイルム株式会社 | Classifier learning method, face discrimination method and apparatus, and program |
JP2007219815A (en) * | 2006-02-16 | 2007-08-30 | Seiko Epson Corp | Printer, image processor, printing method and image processing method |
JP2007265149A (en) * | 2006-03-29 | 2007-10-11 | Sony Corp | Image processor, image processing method and imaging device |
-
2012
- 2012-01-18 JP JP2012008464A patent/JP5136705B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012084177A (en) | 2012-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9179035B2 (en) | Method of editing static digital combined images comprising images of multiple objects | |
JP2010160640A (en) | Image processor, printer, image processing method and image processing program | |
JPWO2019188573A1 (en) | Arithmetic logic unit, arithmetic method and program | |
JP5018587B2 (en) | Object detection method, object detection apparatus, object detection program, and computer-readable recording medium recording object detection program | |
JP2006098217A (en) | Image inspection apparatus, image inspection method, and image inspection program | |
JP7020240B2 (en) | Recognition device, recognition system, program and position coordinate detection method | |
JP4020093B2 (en) | Edge detection method and apparatus, program, storage medium, and frame detection method, apparatus, program, and storage medium | |
JP4983682B2 (en) | Object detection method, object detection apparatus, object detection program, and printing apparatus | |
JP5136705B2 (en) | Printing device | |
JP5067224B2 (en) | Object detection apparatus, object detection method, object detection program, and printing apparatus | |
JP4983683B2 (en) | Object detection method, object detection apparatus, and object detection program | |
JP7192854B2 (en) | Arithmetic device, arithmetic method, program and discrimination system | |
JP2009146150A (en) | Method and device for detecting feature position | |
JP5664811B1 (en) | Image adjustment apparatus, image forming apparatus, management apparatus, image adjustment system, and program | |
US10033901B1 (en) | System and method for using a mobile camera as a copier | |
JP2009237634A (en) | Object detection method, object detection device, object detection program and printer | |
JP7305509B2 (en) | Information processing device, its control method, program, and storage medium | |
JP2013257643A (en) | Image processing system, and program | |
JP2010160639A (en) | Method, device and program for detecting object, and printer | |
US10681228B2 (en) | Display device, control method of display device, and program | |
US8391647B1 (en) | Pixel replacement | |
JP2009230557A (en) | Object detection device, object detection method, object detection program, and printer | |
JP7163947B2 (en) | Projection area setting support method, setting support system, and program | |
JP5609573B2 (en) | Driver program and printing system | |
JP6979653B2 (en) | Product identification system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121016 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121029 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5136705 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151122 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |