JP4812743B2 - Face recognition device, face recognition method, face recognition program, and recording medium recording the program - Google Patents
Face recognition device, face recognition method, face recognition program, and recording medium recording the program Download PDFInfo
- Publication number
- JP4812743B2 JP4812743B2 JP2007336930A JP2007336930A JP4812743B2 JP 4812743 B2 JP4812743 B2 JP 4812743B2 JP 2007336930 A JP2007336930 A JP 2007336930A JP 2007336930 A JP2007336930 A JP 2007336930A JP 4812743 B2 JP4812743 B2 JP 4812743B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- similarity
- dictionary
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、入力画像中の顔領域を検出し、あらかじめその撮影方向が一定であることがわかっている場合における顔認識手法に係り、顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体に関するものである。 The present invention relates to a face recognition method in a case where a face area in an input image is detected and the shooting direction is known to be constant in advance, and a face recognition device, a face recognition method, a face recognition program, and a program thereof are provided. The present invention relates to a recorded recording medium.
従来、顔を撮影した入力画像からその顔の人物を識別する手法には以下のものがある。 Conventionally, there are the following methods for identifying a person of a face from an input image obtained by photographing the face.
手法:画像から検出された顔パターンから顔の向きを推定する過程を設け、その推定結果を元に正面顔とマッチングをしやすいようにパラメータ補正する(非特許文献1参照)。 Method: A process of estimating the face direction from a face pattern detected from an image is provided, and parameters are corrected based on the estimation result so that matching with the front face is easy (see Non-Patent Document 1).
尚、本発明に関連する技術として、非特許文献2〜6に記載のものがある。
上記手法は、顔領域の検出、顔の向き推定、推定結果からのパラメータ補正、認識、という処理手法であり、認識をする前に予め向きが分かっているが、向き情報は正面向きへのパラメータ補正を行うことにのみ利用している。しかし、顔を対象とした場合などは、正面を向いた画像ではy方向のエッジが多く、斜め方向を向いた画像では斜め方向のエッジが多く含まれるなど、顔の向きに応じた特徴量を選択したほうが効果的に認識をおこなうことができる。 The above method is a processing method of face area detection, face direction estimation, parameter correction from the estimation result, and recognition. The direction is known in advance before recognition, but the direction information is a parameter for the front direction. It is only used for correction. However, when the face is the target, the feature amount corresponding to the face direction is selected such that the image facing the front has many edges in the y direction and the image facing the diagonal direction includes many edges in the diagonal direction. The selection can be recognized more effectively.
本発明は上記の課題を解決するものであり、その目的は、顔の向き変動があっても精度良く認識を行うことができる顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体を提供することにある。 SUMMARY OF THE INVENTION The present invention solves the above-described problems, and its purpose is to record a face recognition device, a face recognition method, a face recognition program, and a program capable of accurately recognizing even if there is a change in face orientation. It is to provide a recording medium.
本発明は、顔領域の位置、顔の撮影方向の情報があらかじめわかっている場合に、その後に顔の向き(撮影方向)に応じた特徴量の抽出、その特徴量を用いた類似度算出をおこない、算出された類似度に基づいて認識をおこなうことを特徴としている。顔の向き(撮影方向)に応じた特徴を用いることにより、顔の向き変動があっても精度よく認識をおこなうことを可能とする。 In the present invention, when information on the position of the face region and the shooting direction of the face is known in advance, feature amount extraction according to the face direction (shooting direction) is performed thereafter, and similarity calculation using the feature amount is performed. And performing recognition based on the calculated similarity. By using features according to the face direction (shooting direction), it is possible to accurately recognize even if the face direction varies.
すなわち、請求項1に記載の顔認識装置は、ある一定の撮影方向における辞書用の顔画像を撮影方向情報とともに入力する辞書顔画像入力手段と、前記辞書顔画像入力手段により入力された撮影方向情報に基づいて、対象とする撮影方向の、複数枚の辞書用の顔画像に対して、それらの各画素におけるx方向とy方向の微分値を算出し、それらを説明変量とする分散共分散行列の第一主成分を算出し、前記微分値および第一主成分を用いて(x方向の微分値)×(第一主成分ベクトルのx成分)+(y方向の微分値)×(第一主成分ベクトルのy成分)なる特徴量を算出し、それを撮影方向に基づいた特徴量として抽出する顔方向特徴量抽出手段と、認識対象となる画像を入力する画像入力手段と、前記入力された画像から撮影方向に基づいた顔領域を検出する顔領域検出手段と、前記撮影方向に基づいて検出された顔領域から特徴量を抽出する特徴量抽出手段と、前記顔方向特徴量抽出手段により辞書用の顔画像から抽出された特徴量と前記特徴量抽出手段により入力画像中の顔領域から抽出された特徴量との類似度を算出し、該類似度に基づいて顔を認識する類似度算出手段と、前記類似度に基づいた認識結果を出力する出力手段とを備えたことを特徴としている。 That is, the face recognition device according to claim 1 includes a dictionary face image input unit that inputs a face image for a dictionary in a certain shooting direction together with shooting direction information, and a shooting direction input by the dictionary face image input unit. Based on the information, the variance covariance using the x-direction and y-direction differential values of each pixel for a plurality of dictionary face images in the target shooting direction and using them as explanatory variables The first principal component of the matrix is calculated, and using the differential value and the first principal component, (differential value in x direction) × (x component of first principal component vector) + (differential value in y direction) × (first A face direction feature amount extraction unit that calculates a feature amount of y component of one principal component vector and extracts it as a feature amount based on a shooting direction, an image input unit that inputs an image to be recognized, and the input From the captured image based on the shooting direction Face area detection means for detecting a face area, feature quantity extraction means for extracting a feature quantity from the face area detected based on the shooting direction, and face direction feature quantity extraction means extracted from the face image for dictionary. A similarity degree between the feature quantity extracted from the face area in the input image by the feature quantity extraction means, and a similarity calculation means for recognizing a face based on the similarity, and the similarity And an output means for outputting a recognition result based thereon.
また請求項3に記載の顔認識方法は、顔の撮影方向が一定な環境における顔認識方法において、辞書顔画像入力手段が、ある一定の撮影方向における辞書用の顔画像を撮影方向情報とともに入力する辞書顔画像入力ステップと、顔方向特徴量抽出手段が、前記辞書顔画像入力ステップにより入力された撮影方向情報に基づいて、対象とする撮影方向の、複数枚の辞書用の顔画像に対して、それらの各画素におけるx方向とy方向の微分値を算出し、それらを説明変量とする分散共分散行列の第一主成分を算出し、前記微分値および第一主成分を用いて(x方向の微分値)×(第一主成分ベクトルのx成分)+(y方向の微分値)×(第一主成分ベクトルのy成分)なる特徴量を算出し、それを撮影方向に基づいた特徴量として抽出する顔方向特徴量抽出ステップと、画像入力手段が認識対象となる画像を入力する画像入力ステップと、顔領域検出手段が、前記入力された画像から撮影方向に基づいた顔領域を検出する顔領域検出ステップと、特徴量抽出手段が、前記撮影方向に基づいて検出された顔領域から特徴量を抽出する特徴量抽出ステップと、類似度算出手段が、前記顔方向特徴量抽出ステップにより辞書用の顔画像から抽出された特徴量と前記特徴量抽出ステップにより入力画像中の顔領域から抽出された特徴量との類似度を算出し、該類似度に基づいて顔を認識する類似度算出ステップと、出力手段が、前記類似度に基づいた認識結果を出力する出力ステップとを備えたことを特徴としている。 The face recognition method according to claim 3 is a face recognition method in an environment where the shooting direction of a face is constant, and the dictionary face image input means inputs a face image for a dictionary in a certain shooting direction together with shooting direction information. A dictionary face image input step and a face direction feature quantity extraction unit for a plurality of dictionary face images in the target shooting direction based on the shooting direction information input in the dictionary face image input step. Then, the differential value in the x direction and the y direction in each pixel is calculated, the first principal component of the variance-covariance matrix using these as explanatory variables is calculated, and the differential value and the first principal component are used ( A feature value of (differential value in x direction) × (x component of the first principal component vector) + (differential value in y direction) × (y component of the first principal component vector) is calculated and is based on the shooting direction. Face direction features to be extracted as feature quantities An amount extraction step; an image input step in which the image input means inputs an image to be recognized; and a face area detection step in which the face area detection means detects a face area based on the shooting direction from the input image; The feature amount extraction means extracts a feature amount from the face area detected based on the shooting direction, and the similarity calculation means uses the face direction feature amount extraction step to extract the feature amount from the dictionary face image. A similarity calculating step of calculating a similarity between the extracted feature quantity and the feature quantity extracted from the face region in the input image by the feature quantity extraction step, and recognizing a face based on the similarity; and output means Is provided with an output step for outputting a recognition result based on the similarity.
上記構成によれば、顔の向き(撮影方向)に応じた特徴量を抽出し、それに基づいて顔認識を行うことができるため、認識精度が向上する。
また、顔の向き(撮影方向)に適した特徴量を選択することができる。
According to the above configuration, since the feature amount corresponding to the face direction (shooting direction) can be extracted and face recognition can be performed based on the feature amount, the recognition accuracy is improved.
Further, it is possible to select a feature amount suitable for the face direction (shooting direction).
また請求項2に記載の顔認識装置は、前記顔領域検出手段は、所定の方向から撮影された顔画像から作成されたテンプレートを、前記入力画像上で走査させて、入力画像とテンプレートの類似度を算出し、該類似度が閾値以上の領域を顔領域として検出することを特徴としている。 The face recognition device according to claim 2 , wherein the face area detecting unit scans a template created from a face image photographed from a predetermined direction on the input image, and the similarity between the input image and the template is detected. A degree is calculated, and an area having the similarity equal to or higher than a threshold is detected as a face area.
また請求項4に記載の顔認識方法は、前記顔領域検出ステップは、所定の方向から撮影された顔画像から作成されたテンプレートを、前記入力画像上で走査させて、入力画像とテンプレートの類似度を算出し、該類似度が閾値以上の領域を顔領域として検出することを特徴としている。 Further, in the face recognition method according to claim 4 , in the face area detection step, a template created from a face image photographed from a predetermined direction is scanned on the input image, and the similarity between the input image and the template is determined. A degree is calculated, and an area having the similarity equal to or higher than a threshold is detected as a face area.
上記構成によれば、顔の向き(撮影方向)に適した特徴量を選択することができる。 According to the above configuration, it is possible to select a feature amount suitable for the face direction (shooting direction).
また請求項5に記載の顔認識プログラムは、コンピュータを請求項1に記載の各手段として機能させるための顔認識プログラムであることを特徴としている。 A face recognition program according to claim 5 is a face recognition program for causing a computer to function as each means according to claim 1 .
また請求項6に記載の記録媒体は、コンピュータを請求項1に記載の各手段として機能させるための顔認識プログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴としている。 A recording medium according to claim 6 is a computer-readable recording medium on which a face recognition program for causing a computer to function as each means according to claim 1 is recorded.
(1)請求項1〜6に記載の発明によれば、顔の向き(撮影方向)に基づいてそれに適した特徴量を用いることにより顔認識精度が向上する。たとえば正面顔の場合は影が鼻の横に縦長にできてしまうことが多いが、正面顔に特化したy方向微分の特徴量を用いることにより、そのような正面変動の影響を受けずに認識を行うことができるなど、誤認識を減らすことが可能となる。
(2)また、顔の向き(撮影方向)に適した特徴量を選択することができる。
(1) According to the inventions described in claims 1 to 6 , the face recognition accuracy is improved by using a feature amount suitable for the face direction (shooting direction). For example, in the case of the front face, the shadow often becomes vertically long beside the nose, but by using the feature amount of the y-direction derivative specialized for the front face, it is not affected by such frontal fluctuation. It is possible to reduce recognition errors such as recognition.
(2) It is also possible to select a feature quantity suitable for the face direction (shooting direction).
以下、図面を参照しながら本発明の実施の形態を説明するが、本発明は下記の実施形態例に限定されるものではない。図1は、本発明の顔認識装置の一実施形態例のブロック図である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings, but the present invention is not limited to the following embodiments. FIG. 1 is a block diagram of an embodiment of the face recognition apparatus of the present invention.
本実施形態例は、辞書特徴量抽出装置101と入力画像特徴量抽出装置104と認識装置108とを備え、入力画像特徴量抽出装置104により算出された特徴量と、辞書特徴量抽出装置101で算出され各々登録された人物の辞書画像の特徴量とを認識装置108で照合するように構成している。本発明の手法は、算出する特徴量が顔の撮影方向情報に基づいて決定されることが特徴である。 The present embodiment includes a dictionary feature quantity extraction device 101, an input image feature quantity extraction device 104, and a recognition device 108, and the feature quantity calculated by the input image feature quantity extraction device 104 and the dictionary feature quantity extraction device 101. The recognition device 108 is configured to collate the calculated feature values of the dictionary images of the registered persons. The technique of the present invention is characterized in that the feature quantity to be calculated is determined based on the face shooting direction information.
図1において、辞書特徴量抽出装置101内の102は、本発明の辞書顔画像入力手段としての辞書顔画像入力装置であり、103は本発明の顔方向特徴量抽出手段としての顔方向特徴量抽出装置である。 In FIG. 1, reference numeral 102 in the dictionary feature quantity extraction apparatus 101 is a dictionary face image input apparatus as the dictionary face image input means of the present invention, and 103 is a face direction feature quantity as the face direction feature quantity extraction means of the present invention. It is an extraction device.
入力画像特徴量抽出装置104内の105は、本発明の画像入力手段としての画像入力装置であり、106は本発明の顔領域検出手段としての顔領域検出装置であり、107は本発明の特徴量抽出手段としての特徴量抽出装置である。 Reference numeral 105 in the input image feature quantity extraction device 104 is an image input device as image input means of the present invention, 106 is a face area detection device as face area detection means of the present invention, and 107 is a feature of the present invention. It is a feature quantity extraction device as quantity extraction means.
認識装置108内の109は本発明の類似度算出手段としての類似度算出装置であり、110は本発明の出力手段としての出力装置である。 109 in the recognition device 108 is a similarity calculation device as the similarity calculation means of the present invention, and 110 is an output device as the output means of the present invention.
前記辞書顔画像入力装置102、顔方向特徴量抽出装置103、画像入力装置105、顔領域検出装置106、特徴量抽出装置107、類似度算出装置109、および出力装置110は、例えばコンピュータにより構成される。 The dictionary face image input device 102, face direction feature amount extraction device 103, image input device 105, face area detection device 106, feature amount extraction device 107, similarity calculation device 109, and output device 110 are configured by, for example, a computer. The
ここで、図2を用いて撮影方向情報が一定の場合の顔画像取得シーンを説明する。図2において、撮影用のカメラ201が、家庭用のドアやオフィスの入口202の上部に設置されている場合は、ほとんどの場合、上から撮影された顔画像が入力される。このように、あらかじめ入力される顔の向きがわかっている場合の認識手法について説明する。 Here, a face image acquisition scene when the shooting direction information is constant will be described with reference to FIG. In FIG. 2, in the case where a camera 201 for photographing is installed on the upper part of a home door or an office entrance 202, in most cases, a face image photographed from above is input. A recognition method in the case where the orientation of a face input in advance is known will be described.
まず図1の辞書特徴量抽出装置101について説明する。 First, the dictionary feature quantity extraction apparatus 101 of FIG. 1 will be described.
辞書顔画像入力装置102では、利用シーンに応じて入力される顔の向きを設定し、その向きからカメラなどで撮影した顔画像を、撮影方向情報とともに辞書顔画像として取得する。 The dictionary face image input device 102 sets the direction of the face to be input according to the usage scene, and acquires the face image taken by the camera or the like from that direction as the dictionary face image together with the shooting direction information.
顔方向特徴量抽出装置103では、前記取得した辞書顔画像の特徴量を抽出する。すなわち、辞書顔画像に対数フィルタをかけ、平滑化処理を行い、さらに撮影方向情報に基づいた微分特徴を抽出する。 The face direction feature quantity extraction device 103 extracts the feature quantity of the acquired dictionary face image. That is, a logarithmic filter is applied to the dictionary face image, smoothing processing is performed, and differential features based on the shooting direction information are extracted.
図3に辞書顔画像および特徴抽出の例を示す。図3において、301は登録されている人物を正面から撮影した画像の一例である。図2におけるカメラ201が入口202の真ん中に設置されている場合を想定している。 FIG. 3 shows an example of dictionary face image and feature extraction. In FIG. 3, reference numeral 301 denotes an example of an image obtained by photographing a registered person from the front. It is assumed that the camera 201 in FIG. 2 is installed in the middle of the entrance 202.
まず、前記対数フィルタについて説明する。次の式(1)で表される対数テーブルを作成する。 First, the logarithmic filter will be described. A logarithmic table represented by the following formula (1) is created.
式(1)において、Iは0から255の画素値を表す。作成した対数テーブルを参照して、入力画像中の各画素値に対応する値を決定する。 In Expression (1), I represents a pixel value from 0 to 255. A value corresponding to each pixel value in the input image is determined with reference to the created logarithmic table.
次に、前記平滑化フィルタについて説明する。非特許文献2にあるような3*3画素の平滑化フィルタやガウシアンフィルタをかけることにより、平滑化をおこなう。図3の画像302に、画像301に対数フィルタをかけ平滑化処理をおこなった画像例を示す。対数フィルタをかけることにより、照明変動に強くなっていることがわかる。 Next, the smoothing filter will be described. Smoothing is performed by applying a 3 * 3 pixel smoothing filter or Gaussian filter as described in Non-Patent Document 2. FIG. 3 shows an example of an image 302 obtained by performing a smoothing process by applying a logarithmic filter to the image 301. It can be seen that by applying a logarithmic filter, it is strong against illumination fluctuation.
次に、前記撮影方向情報に応じた方向の微分特徴の抽出手法について説明する。 Next, a method for extracting a differential feature in a direction corresponding to the shooting direction information will be described.
まず撮影方向によってどの方向の微分特徴を抽出すべきか算出する手法について説明する。各画素での、非特許文献3に記載のPrewittのエッジ検出オペレータやSobelのエッジ検出オペレータ等によりxおよびy方向の微分値を算出する。 First, a method for calculating in which direction the differential features should be extracted according to the shooting direction will be described. For each pixel, the differential values in the x and y directions are calculated by the Prewitt edge detection operator or the Sobel edge detection operator described in Non-Patent Document 3.
図3の303、304に、画像302のx方向及びy方向の微分値を表した画像例を示す。x方向およびy方向の微分値を説明変量とし、(同じ撮影方向情報をもつ辞書顔画像枚数)×(1枚の画素数)の個数のデータを観測することにより、分散共分散行列を求め、その第一主成分を算出する。この場合、x方向とy方向の微分値を説明変量としているので、分散共分散行列は2×2となる。 Reference numerals 303 and 304 in FIG. 3 show examples of images representing differential values of the image 302 in the x and y directions. The differential covariance values in the x direction and y direction are used as explanatory variables, and the variance covariance matrix is obtained by observing the number of data (number of dictionary face images having the same shooting direction information) × (number of pixels per sheet), The first principal component is calculated. In this case, since the differential values in the x direction and the y direction are used as explanatory variables, the variance-covariance matrix is 2 × 2.
観測データには、上記のように登録されている人すべての辞書顔画像全体を用いてもよいし、特徴的な辞書顔画像および領域を選択してもよい。算出された第一主成分のベクトル方向の微分値を撮影方向情報に応じた特徴量とする。つまり分散の大きい方向微分を選択する。 As the observation data, the entire dictionary face images of all persons registered as described above may be used, or characteristic dictionary face images and regions may be selected. The calculated differential value in the vector direction of the first principal component is used as a feature amount corresponding to the shooting direction information. That is, a directional derivative having a large variance is selected.
たとえば、正面顔画像が入力される場合の多い利用シーンにおいては、登録された複数枚の正面顔画像のx方向およびy方向の微分値から分散共分散行列を算出し、その第一主成分を算出する。第一主成分のベクトルが(0,1)と算出された場合、y方向の微分値を正面顔の特徴量とする。つまり図3の304に示された特徴を正面顔画像に適した特徴量とする。また、右斜め上方向から撮影された顔画像に関して第一主成分が(1/√2,1/√2)と算出された場合、x方向の微分値×1/√2+y方向微分値×1/√2を特徴量とすればよい。主成分分析による手法について述べたが、各画素におけるエッジ方向を算出し、そのヒストグラムを作成し、一番多い角度を選択しても良い。 For example, in a usage scene in which front face images are often input, a variance covariance matrix is calculated from differential values in the x and y directions of a plurality of registered front face images, and the first principal component is calculated. calculate. When the vector of the first principal component is calculated as (0, 1), the differential value in the y direction is used as the feature value of the front face. That is, the feature indicated by 304 in FIG. 3 is a feature amount suitable for the front face image. Further, when the first principal component is calculated as (1 / √2, 1 / √2) with respect to the face image taken from the upper right direction, x-direction differential value × 1 / √2 + y-direction differential value × 1. / √2 may be used as a feature amount. Although the method based on principal component analysis has been described, the edge direction in each pixel may be calculated, a histogram thereof may be created, and the largest number of angles may be selected.
次に入力画像特徴量抽出装置104を構成する各装置について説明する。画像入力装置105では、図2で説明したような利用シーンにおいてデジタルビデオ等で撮影した画像を入力する。 Next, each device constituting the input image feature quantity extraction device 104 will be described. The image input device 105 inputs an image shot with a digital video or the like in the usage scene described with reference to FIG.
次に顔領域検出装置106について説明する。 Next, the face area detection device 106 will be described.
どのような方法を用いて顔の領域を検出してもよいが、ここではアピアランスベースの照合を行い、顔領域を検出する場合について述べる。 Any method may be used to detect the face area. Here, a case will be described in which appearance-based matching is performed to detect the face area.
まず利用シーンに応じて一番入力されるのが多いと思われる方向から撮影された複数人数の顔画像を用いて平均顔画像を作成して、例えば図4に示すテンプレート401とする。そして図4の入力画像402上にそのテンプレート401を走査させ、類似度を算出し、類似度が閾値以上の領域を顔領域403として検出する。 First, an average face image is created using face images of a plurality of persons photographed from a direction that seems to be input most according to the usage scene, and is set as a template 401 shown in FIG. 4, for example. Then, the template 401 is scanned on the input image 402 shown in FIG. 4, the similarity is calculated, and an area where the similarity is greater than or equal to a threshold is detected as the face area 403.
図4の401に示すテンプレートは一例であり、利用シーンに応じて、上方向から撮影したもの、下方向から撮影したもの、右斜め上から撮影したもの等、さまざまな方向から撮影したテンプレートを用意すればよい。テンプレートとして用いる顔画像は複数人の顔の平均顔画像としたが、代表的な顔を選んでテンプレートとして用いてもよく、検出したい対象に適したものを用いることとする。また、画素値そのままをテンプレートとして用いてもよいし、非特許文献3にあるように微分フィルタ等をかけるなど、対象に適した特徴を抽出したものをテンプレートとして用いてもよい。この際、入力画像にも同じ演算を施し、同様の特徴を抽出した後、テンプレートを走査させ、類似度を算出することとする。 The template shown in 401 of FIG. 4 is an example. Depending on the usage scene, templates taken from various directions such as those taken from the upper direction, those taken from the lower direction, those taken from the upper right are prepared. do it. Although the face image used as a template is an average face image of a plurality of faces, a representative face may be selected and used as a template, and an image suitable for a target to be detected is used. In addition, the pixel value as it is may be used as a template, or a characteristic extracted for a target such as a differential filter may be used as a template as described in Non-Patent Document 3. At this time, the same calculation is performed on the input image to extract similar features, and then the template is scanned to calculate the similarity.
類似度算出の方法には非特許文献4にあるように差分や、正規化相関値等あり、どれを用いても良いが、入力画像の特徴にあわせて選択することとする。類似度が閾値以上の領域を抽出する場合、対象物の大きさが任意で入力画像の大きさを変えながらテンプレートマッチングをする際には、同じ箇所を複数回抽出してしまう場合があるので、複数個として抽出してもよいが、領域の中心座標等をもとにクラスタリングをおこない、抽出された領域をまとめてもよい。テンプレートとして用いられている撮影方向の顔領域しか検出しないため、入力される顔領域の撮影方向はあらかじめわかっていることになる。 As described in Non-Patent Document 4, the similarity calculation method includes a difference, a normalized correlation value, and the like. Any of these may be used, but the selection is made according to the characteristics of the input image. When extracting a region whose similarity is greater than or equal to the threshold, when performing template matching while arbitrarily changing the size of the input image, the same part may be extracted multiple times. Although a plurality of regions may be extracted, clustering may be performed based on the center coordinates of the regions and the extracted regions may be combined. Since only the face area in the shooting direction used as a template is detected, the shooting direction of the input face area is known in advance.
次に特徴量抽出装置107では、顔領域検出装置106で算出された入力画像中の顔領域に、顔方向特徴量抽出装置103における特徴量抽出と同様に対数フィルタ処理、平滑化処理をおこない、撮影方向に基づく方向微分を特徴量として算出する。 Next, the feature amount extraction device 107 performs logarithmic filter processing and smoothing processing on the face area in the input image calculated by the face region detection device 106 in the same manner as the feature amount extraction in the face direction feature amount extraction device 103. Direction differentiation based on the shooting direction is calculated as a feature amount.
次に認識装置108を構成する各装置について説明する。 Next, each device constituting the recognition device 108 will be described.
類似度算出装置109では、入力画像中における顔領域および辞書顔画像を矩形領域に分割し、対応する矩形領域の顔方向特徴量抽出装置103で抽出された特徴量と特徴量抽出装置107で抽出された特徴量との類似度をそれぞれ算出する。 The similarity calculation device 109 divides the face area and the dictionary face image in the input image into rectangular regions, and extracts the feature amount extracted by the face direction feature amount extraction device 103 of the corresponding rectangular area and the feature amount extraction device 107. Similarities with the calculated feature amounts are calculated.
たとえば、顔領域検出装置106により検出された顔の向きに応じた特徴量が図5における501の場合、つまり正面顔画像が検出され、正面に対応する特徴量がy方向の微分値であった場合、図5の502のように矩形領域ごとに分割し、それぞれの矩形領域ごとに類似度を算出する。非特許文献4にあるように差分や、正規化相関値等あり、どれを用いても良いが、ここでは下記の式(2)の相関値Cを算出するものとする。 For example, when the feature quantity corresponding to the face orientation detected by the face area detection device 106 is 501 in FIG. 5, that is, a front face image is detected, and the feature quantity corresponding to the front is a differential value in the y direction. In this case, each rectangular area is divided as indicated by 502 in FIG. 5, and the similarity is calculated for each rectangular area. As described in Non-Patent Document 4, there are a difference, a normalized correlation value, and the like, and any of them may be used, but here, a correlation value C of the following equation (2) is calculated.
式(2)において、辞書顔画像の矩形領域の特徴量値をjisho(i,j)、入力画像中の顔領域における矩形領域の特徴量をinput(i,j)とする。矩形領域に分割をおこなった例を説明したが、分割される形状はどのようなものでもよい。 In Expression (2), the feature value of the rectangular area of the dictionary face image is jisho (i, j), and the feature value of the rectangular area in the face area in the input image is input (i, j). Although an example of dividing into rectangular areas has been described, any shape may be used.
各矩形領域における相関値Cの総和が一番大きい値を示す辞書顔画像の人物を識別結果とする。前記のように単純に相関値Cの総和をとってもよいし、矩形領域の相関値Cのソートをおこない、中央値を、辞書顔画像との類似度とし比較してもよい。類似度が閾値以下の場合は、登録された人物ではないと判定し、該当なしという識別結果としてもよい。 The person of the dictionary face image showing the largest sum of correlation values C in each rectangular area is taken as the identification result. As described above, the sum of the correlation values C may be simply taken, or the correlation values C of the rectangular areas may be sorted, and the median value may be compared as the similarity with the dictionary face image. When the similarity is equal to or less than the threshold value, it is determined that the person is not a registered person, and the identification result may be “not applicable”.
矩形領域ごとの類似度を算出する際、表情の変化による顔の部位の位置ずれや若干の向きの変動等に対応するため、矩形領域ごとに平均移動やアフィン変換等をおこない、一番類似度の高くなるように変形してもよい。 When calculating the similarity for each rectangular area, average movement or affine transformation is performed for each rectangular area in order to deal with the positional shift of the facial part due to changes in facial expression and slight variations in the orientation, etc. You may deform | transform so that it may become high.
出力装置110では、類似度算出装置109での識別結果を出力する。 The output device 110 outputs the identification result from the similarity calculation device 109.
本発明の顔認識方法は、顔の撮影方向が一定な環境における顔認識方法において、ある一定の撮影方向における辞書用の顔画像を撮影方向情報とともに入力する辞書顔画像入力ステップと、前記辞書顔画像入力ステップにより入力された撮影方向情報に基づいて辞書用の顔画像から特徴量を抽出する顔方向特徴量抽出ステップと、認識対象となる画像を入力する画像入力ステップと、前記入力された画像から撮影方向に基づいた顔領域を検出する顔領域検出ステップと、前記撮影方向に基づいて検出された顔領域から特徴量を抽出する特徴量抽出ステップと、前記顔方向特徴量抽出ステップにより辞書用の顔画像から抽出された特徴量と前記特徴量抽出ステップにより入力画像中の顔領域から抽出された特徴量との類似度を算出し、該類似度に基づいて顔を認識する類似度算出ステップと、前記類似度に基づいた認識結果を出力する出力ステップとを備えている。 The face recognition method of the present invention is a face recognition method in an environment in which the shooting direction of a face is constant, a dictionary face image input step of inputting a face image for a dictionary in a certain shooting direction together with shooting direction information, and the dictionary face A face direction feature amount extraction step for extracting a feature amount from a dictionary face image based on the shooting direction information input in the image input step, an image input step for inputting an image to be recognized, and the input image A face area detecting step for detecting a face area based on a shooting direction from the camera, a feature amount extracting step for extracting a feature quantity from the face area detected based on the shooting direction, and a face direction feature quantity extracting step. The similarity between the feature amount extracted from the face image and the feature amount extracted from the face region in the input image by the feature amount extraction step is calculated, and the similarity Recognizing similarity calculation step face based, and an output step of outputting a recognition result based on the similarity.
具体的には、例えば前記図1の各装置の処理を次のような手順で実行するものである。 Specifically, for example, the processing of each device in FIG. 1 is executed in the following procedure.
すなわち、
(ステップS1)
辞書顔画像入力装置102が、利用シーンに応じて入力される顔の向きを設定し、その向きからカメラなどで撮影した顔画像を、撮影方向情報とともに辞書顔画像として取得する。
(ステップS2)
顔方向特徴量抽出装置103が、前記取得した辞書顔画像に対数フィルタをかけ、平滑化処理を行い、さらに撮影方向情報に基づいた微分特徴を抽出する。その際、対象とする撮影方向の、複数枚の辞書用の顔画像に対して、それらの各画素におけるx方向とy方向の微分値を算出し、それらを説明変量とする分散共分散行列の第一主成分の方向に基づくエッジ特徴を算出し、それを撮影方向に基づいた特徴量とする。
(ステップS3)
画像入力装置105が、図2で説明したような利用シーンにおいてデジタルビデオ等で撮影した画像を入力する。
(ステップS4)
顔領域検出装置106が、入力画像から、撮影方向に基づいた顔領域を検出する。例えば、所定の方向から撮影された顔画像から作成されたテンプレートを、前記入力画像上で走査させて、入力画像とテンプレートの類似度を算出し、該類似度が閾値以上の領域を顔領域として検出する。
(ステップS5)
特徴量抽出装置107が、前記ステップS4で検出された、入力画像中の顔領域に対して、前記ステップS2(顔方向特徴量抽出装置103が行う処理)における特徴量抽出と同様に対数フィルタ処理、平滑化処理をおこない、撮影方向に基づく方向微分を特徴量として算出する。
(ステップS6)
類似度算出装置109が、入力画像中における顔領域および辞書顔画像を矩形領域に分割し、対応する矩形領域の顔方向特徴量抽出装置103(ステップS2)で抽出された特徴量と特徴量抽出装置107(ステップS5)で抽出された特徴量との類似度をそれぞれ算出し、該類似度に基づいて顔を識別する。
(ステップS7)
出力装置110が、類似度算出装置109(ステップS6)での識別結果を出力する。
That is,
(Step S1)
The dictionary face image input device 102 sets the direction of the face to be input according to the usage scene, and acquires a face image photographed with a camera or the like from that direction as a dictionary face image together with photographing direction information.
(Step S2)
The face direction feature quantity extraction device 103 applies a logarithmic filter to the acquired dictionary face image, performs a smoothing process, and further extracts differential features based on the shooting direction information. At that time, with respect to a plurality of dictionary face images in the target shooting direction, the differential values of the x direction and the y direction at each pixel are calculated, and the variance-covariance matrix of which these are used as explanatory variables An edge feature based on the direction of the first principal component is calculated and used as a feature amount based on the shooting direction.
(Step S3)
The image input device 105 inputs an image taken with a digital video or the like in the usage scene described with reference to FIG.
(Step S4)
The face area detection device 106 detects a face area based on the shooting direction from the input image. For example, a template created from a face image taken from a predetermined direction is scanned on the input image to calculate the similarity between the input image and the template, and an area where the similarity is equal to or greater than a threshold is set as a face area. To detect.
(Step S5)
The feature amount extraction device 107 performs logarithmic filter processing on the face area in the input image detected in step S4, as in the feature amount extraction in step S2 (processing performed by the face direction feature amount extraction device 103). Then, smoothing processing is performed, and a directional differential based on the shooting direction is calculated as a feature amount.
(Step S6)
The similarity calculation device 109 divides the face area and the dictionary face image in the input image into rectangular regions, and the feature amount and feature amount extracted by the face direction feature amount extraction device 103 (step S2) of the corresponding rectangular region. Similarities with the feature quantities extracted by the device 107 (step S5) are calculated, and faces are identified based on the similarities.
(Step S7)
The output device 110 outputs the identification result obtained by the similarity calculation device 109 (step S6).
以上の実施形態例により、撮影方向に基づいて特徴量抽出を行うことにより、各利用シーンに適した特徴量を用いて照合を行うことができ、精度よく認識することが可能になる。 By performing the feature amount extraction based on the shooting direction according to the above embodiment example, the matching can be performed using the feature amount suitable for each use scene, and the recognition can be performed with high accuracy.
また、本実施形態の顔認識装置における各手段の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、本実施形態の顔認識方法における手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもない。 Further, a part or all of the functions of each means in the face recognition apparatus of the present embodiment can be configured by a computer program, and the program can be executed using the computer to realize the present invention. It goes without saying that the procedure in the face recognition method can be constituted by a computer program, and the program can be executed by the computer.
前述した実施形態の機能を実現するソフトウェアのプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のCPU(MPU)が記録媒体に格納されたプログラムを読み出し実行することによっても、実現できる。この場合、記録媒体から読み出されたプログラム自体が上記実施形態の機能を実現することになり、このプログラムを記録した記録媒体、例えば、CD−ROM,DVD−ROM,CD−R,CD−RW,MO及びHDD等は本発明を構成する。 It is also possible to supply a recording medium recording a software program for realizing the functions of the above-described embodiments to a system or apparatus, and read and execute the program stored in the recording medium by the CPU (MPU) of the system or apparatus. ,realizable. In this case, the program itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program is recorded, for example, a CD-ROM, a DVD-ROM, a CD-R, a CD-RW. , MO and HDD constitute the present invention.
101…辞書特徴量抽出装置、102…辞書顔画像入力装置、103…顔方向特徴量抽出装置、104…入力画像特徴量抽出装置、105…画像入力装置、106…顔領域検出装置、107…特徴量抽出装置、108…認識装置、109…類似度算出装置、110…出力装置。 DESCRIPTION OF SYMBOLS 101 ... Dictionary feature amount extraction apparatus, 102 ... Dictionary face image input device, 103 ... Face direction feature amount extraction device, 104 ... Input image feature amount extraction device, 105 ... Image input device, 106 ... Face area detection device, 107 ... Feature Quantity extraction device, 108 ... recognition device, 109 ... similarity calculation device, 110 ... output device.
Claims (6)
ある一定の撮影方向における辞書用の顔画像を撮影方向情報とともに入力する辞書顔画像入力手段と、
前記辞書顔画像入力手段により入力された撮影方向情報に基づいて、対象とする撮影方向の、複数枚の辞書用の顔画像に対して、それらの各画素におけるx方向とy方向の微分値を算出し、それらを説明変量とする分散共分散行列の第一主成分を算出し、前記微分値および第一主成分を用いて(x方向の微分値)×(第一主成分ベクトルのx成分)+(y方向の微分値)×(第一主成分ベクトルのy成分)なる特徴量を算出し、それを撮影方向に基づいた特徴量として抽出する顔方向特徴量抽出手段と、
認識対象となる画像を入力する画像入力手段と、
前記入力された画像から撮影方向に基づいた顔領域を検出する顔領域検出手段と、
前記撮影方向に基づいて検出された顔領域から特徴量を抽出する特徴量抽出手段と、
前記顔方向特徴量抽出手段により辞書用の顔画像から抽出された特徴量と前記特徴量抽出手段により入力画像中の顔領域から抽出された特徴量との類似度を算出し、該類似度に基づいて顔を認識する類似度算出手段と、
前記類似度に基づいた認識結果を出力する出力手段と
を備えたことを特徴とする顔認識装置。 In a face recognition device in an environment where the shooting direction of the face is constant,
A dictionary face image input means for inputting a face image for a dictionary in a certain shooting direction together with shooting direction information;
Based on the photographing direction information input by the dictionary face image input means , the differential values in the x direction and y direction at each pixel are obtained for a plurality of dictionary face images in the target photographing direction. And calculating a first principal component of a variance-covariance matrix using them as explanatory variables, and using the differential value and the first principal component (differential value in the x direction) × (x component of the first principal component vector) ) + (Differential value in the y direction) × (y component of the first principal component vector) is calculated, and a facial direction feature amount extraction means for extracting the feature amount as a feature amount based on the shooting direction ;
An image input means for inputting an image to be recognized;
Face area detecting means for detecting a face area based on a shooting direction from the input image;
Feature amount extraction means for extracting a feature amount from the face area detected based on the shooting direction;
The similarity between the feature quantity extracted from the face image for dictionary by the face direction feature quantity extraction means and the feature quantity extracted from the face area in the input image by the feature quantity extraction means is calculated, and the similarity is Similarity calculating means for recognizing a face based on
An output means for outputting a recognition result based on the degree of similarity.
所定の方向から撮影された顔画像から作成されたテンプレートを、前記入力画像上で走査させて、入力画像とテンプレートの類似度を算出し、該類似度が閾値以上の領域を顔領域として検出することを特徴とする請求項1に記載の顔認識装置。 The face area detecting means includes
A template created from a face image photographed from a predetermined direction is scanned on the input image to calculate the similarity between the input image and the template, and an area having the similarity equal to or greater than a threshold is detected as a face area. The face recognition apparatus according to claim 1 .
辞書顔画像入力手段が、ある一定の撮影方向における辞書用の顔画像を撮影方向情報とともに入力する辞書顔画像入力ステップと、
顔方向特徴量抽出手段が、前記辞書顔画像入力ステップにより入力された撮影方向情報に基づいて、対象とする撮影方向の、複数枚の辞書用の顔画像に対して、それらの各画素におけるx方向とy方向の微分値を算出し、それらを説明変量とする分散共分散行列の第一主成分を算出し、前記微分値および第一主成分を用いて(x方向の微分値)×(第一主成分ベクトルのx成分)+(y方向の微分値)×(第一主成分ベクトルのy成分)なる特徴量を算出し、それを撮影方向に基づいた特徴量として抽出する顔方向特徴量抽出ステップと、
画像入力手段が認識対象となる画像を入力する画像入力ステップと、
顔領域検出手段が、前記入力された画像から撮影方向に基づいた顔領域を検出する顔領域検出ステップと、
特徴量抽出手段が、前記撮影方向に基づいて検出された顔領域から特徴量を抽出する特徴量抽出ステップと、
類似度算出手段が、前記顔方向特徴量抽出ステップにより辞書用の顔画像から抽出された特徴量と前記特徴量抽出ステップにより入力画像中の顔領域から抽出された特徴量との類似度を算出し、該類似度に基づいて顔を認識する類似度算出ステップと、
出力手段が、前記類似度に基づいた認識結果を出力する出力ステップと
を備えたことを特徴とする顔認識方法。 In the face recognition method in an environment where the shooting direction of the face is constant,
A dictionary face image input means for inputting a dictionary face image in a certain shooting direction together with shooting direction information;
The face direction feature quantity extraction unit performs x in each pixel on a plurality of dictionary face images in the target shooting direction based on the shooting direction information input in the dictionary face image input step. The first principal component of the variance-covariance matrix with the direction and y-direction differential values as the explanatory variables is calculated, and the differential value and the first principal component are used to calculate (differential value in the x direction) × ( A facial direction feature that calculates a feature quantity of x component of the first principal component vector) + (differential value in y direction) × (y component of the first principal component vector) and extracts it as a feature quantity based on the shooting direction A quantity extraction step;
An image input step in which the image input means inputs an image to be recognized;
A face area detecting unit for detecting a face area based on a shooting direction from the input image;
A feature amount extracting means for extracting a feature amount from the face area detected based on the shooting direction;
The similarity calculation means calculates the similarity between the feature quantity extracted from the face image for dictionary by the face direction feature quantity extraction step and the feature quantity extracted from the face area in the input image by the feature quantity extraction step. A similarity calculating step for recognizing a face based on the similarity,
An output means, comprising: an output step for outputting a recognition result based on the similarity.
所定の方向から撮影された顔画像から作成されたテンプレートを、前記入力画像上で走査させて、入力画像とテンプレートの類似度を算出し、該類似度が閾値以上の領域を顔領域として検出することを特徴とする請求項3に記載の顔認識方法。 The face area detecting step includes
A template created from a face image photographed from a predetermined direction is scanned on the input image to calculate the similarity between the input image and the template, and an area having the similarity equal to or greater than a threshold is detected as a face area. The face recognition method according to claim 3 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007336930A JP4812743B2 (en) | 2007-12-27 | 2007-12-27 | Face recognition device, face recognition method, face recognition program, and recording medium recording the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007336930A JP4812743B2 (en) | 2007-12-27 | 2007-12-27 | Face recognition device, face recognition method, face recognition program, and recording medium recording the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009157766A JP2009157766A (en) | 2009-07-16 |
JP4812743B2 true JP4812743B2 (en) | 2011-11-09 |
Family
ID=40961702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007336930A Expired - Fee Related JP4812743B2 (en) | 2007-12-27 | 2007-12-27 | Face recognition device, face recognition method, face recognition program, and recording medium recording the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4812743B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101491461B1 (en) | 2013-08-02 | 2015-02-23 | 포항공과대학교 산학협력단 | Method for recognizing object using covariance descriptor and apparatus thereof |
US11087440B2 (en) | 2017-07-19 | 2021-08-10 | Panasonic Intellectual Property Management Co., Ltd. | Collation device and collation method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240909A (en) * | 2003-02-10 | 2004-08-26 | Hitachi High-Technologies Corp | Image processor and image processing method |
JP2005210369A (en) * | 2004-01-22 | 2005-08-04 | Konica Minolta Photo Imaging Inc | Image processing apparatus and image processing method |
JP2005210366A (en) * | 2004-01-22 | 2005-08-04 | Konica Minolta Photo Imaging Inc | Photographing support system and photographing support method |
JP2004265431A (en) * | 2004-04-05 | 2004-09-24 | Konica Minolta Holdings Inc | Face extraction method |
JP2007025767A (en) * | 2005-07-12 | 2007-02-01 | Nikon Corp | Image recognition system, image recognition method, and image recognition program |
JP4731303B2 (en) * | 2005-12-09 | 2011-07-20 | 株式会社ソニー・コンピュータエンタテインメント | Image display device, image display method, program, and information storage medium |
JP2007164301A (en) * | 2005-12-09 | 2007-06-28 | Sony Computer Entertainment Inc | Information processor, data analyzing method, program, and information storage medium |
JP4666638B2 (en) * | 2006-03-08 | 2011-04-06 | 株式会社安川電機 | 3D object recognition method and 3D image processing apparatus |
-
2007
- 2007-12-27 JP JP2007336930A patent/JP4812743B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009157766A (en) | 2009-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101333871B1 (en) | Method and arrangement for multi-camera calibration | |
US9053388B2 (en) | Image processing apparatus and method, and computer-readable storage medium | |
US11087169B2 (en) | Image processing apparatus that identifies object and method therefor | |
KR101971866B1 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
JP6125188B2 (en) | Video processing method and apparatus | |
KR101758684B1 (en) | Apparatus and method for tracking object | |
US9619708B2 (en) | Method of detecting a main subject in an image | |
US8395676B2 (en) | Information processing device and method estimating a posture of a subject in an image | |
JP6482195B2 (en) | Image recognition apparatus, image recognition method, and program | |
CN108229475B (en) | Vehicle tracking method, system, computer device and readable storage medium | |
JP6351240B2 (en) | Image processing apparatus, image processing method, and program | |
KR101747216B1 (en) | Apparatus and method for extracting target, and the recording media storing the program for performing the said method | |
US9767383B2 (en) | Method and apparatus for detecting incorrect associations between keypoints of a first image and keypoints of a second image | |
CN111199197B (en) | Image extraction method and processing equipment for face recognition | |
US11380010B2 (en) | Image processing device, image processing method, and image processing program | |
JP5656768B2 (en) | Image feature extraction device and program thereof | |
Kanter | Color Crack: Identifying Cracks in Glass | |
CN107944395B (en) | Method and system for verifying and authenticating integration based on neural network | |
JP2018088049A (en) | Device, method and program for image processing | |
JP2008035301A (en) | Mobile body tracing apparatus | |
JP4812743B2 (en) | Face recognition device, face recognition method, face recognition program, and recording medium recording the program | |
KR101741761B1 (en) | A classification method of feature points required for multi-frame based building recognition | |
KR101904480B1 (en) | Object recognition system and method considering camera distortion | |
JP2015187769A (en) | Object detection device, object detection method, and program | |
JP6555940B2 (en) | Subject tracking device, imaging device, and method for controlling subject tracking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090619 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100127 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110809 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110823 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140902 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |