CN1924897A - 图像处理装置和方法以及程序 - Google Patents
图像处理装置和方法以及程序 Download PDFInfo
- Publication number
- CN1924897A CN1924897A CNA2006101322898A CN200610132289A CN1924897A CN 1924897 A CN1924897 A CN 1924897A CN A2006101322898 A CNA2006101322898 A CN A2006101322898A CN 200610132289 A CN200610132289 A CN 200610132289A CN 1924897 A CN1924897 A CN 1924897A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- mapping
- facial
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Collating Specific Patterns (AREA)
Abstract
一种图像处理装置,包括:面部图像检测器,配置用于从提供到其中的图像中检测面部图像的区域;面部方向检测器,配置用于检测在所检测的面部图像中面部面对的方向;特征位置检测器,配置用于检测对应于来自检测面部图像的面部的特征和检测面部方向的特征位置;特征值计算器,配置用于计算在检测特征位置的特征值;映射器,配置用于使用预定映射函数映射计算的特征值;以及识别器,配置用于使用映射的特征值和提前登记的特征值来识别被所检测的面部是否是登记的面部。
Description
相关申请的交叉引用
本发明包含涉及于2005年8月29日在日本专利局提交的日本专利申请JP2005-247936的主题,在此引入其全文以供参考。
技术领域
本发明涉及图像处理装置和方法以及程序。更具体地说,涉及用于更准确地识别对象的图像处理装置和方法以及程序。
背景技术
近年来,已经开发并使用用于识别人的设备(技术)。例如,已经提出使用通过检查进入某地的人是否允许(有许可)进入来识别人以提高安全性的技术。同样,也提出了根据使用识别技术识别的人偏好来提供信息。
在用于识别人的技术中,抓取人的面部图像,并检查在面部图像和提前登记的面部图像之间的匹配(计算相似性程度),由此执行识别以确定该人是否是登记的人。当以上述形式识别人时,检查在提前登记的面部图像和获取的面部图像之间的匹配。此时,提前登记的面部图像中的面部方向和没有获取的面部图像中的面部方向不一定相同。
在一些情况中,检测从不同方向抓取的面部图像之间的匹配,例如,当提前登记的面部图像是从前面抓取的面部图像,而获取的面部图像是在45度的倾斜角度下抓取的面部图像。已经提出当要检查从不同方向抓取的面部图像之间的匹配时(也就是,当要识别从不同于登记的面部的方向的方向抓取的面部时),使用人的面部的标准三维模型,例如,如在日本未审专利申请公开第2000-322577号中所述。
根据日本未审专利申请公开第2000-322577号,提出为了比较来自不同方向的两幅面部图像,而将一幅面部图像附加(映射)到三维面部模型,以合成从对应于其他面部图像的方向的方向抓取的面部图像,由此从具有不同方向的面部图像产生具有相同方向的面部图像,以允许面部(人)识别。
同样,根据Volker Blanz等,“Face Recognition Based on Fitting a 3DMorphable Model”(IEEE Transactions on Pattern Analysis and MachineIntelligence,2003年第9期第25卷),已经提出使用不同参数转化标准三维面部模型以合成面部图像,并使用与最接近输入面部图像的面部图像相关的参数执行面部识别。
发明内容
根据在日本未审专利申请公开第2000-322577号和“Face RecognitionBased on Fitting a 3D Morphable Model”中提出的相关技术的面部识别方法,是根据用于合成具有不同于使用计算机图像(CG)的标准三维面部模型的方向的技术。
为了产生三维模型,使用具有高准确度的三维检测设备。因此,三维模型的产生引起高成本。而且,使用大量样本以产生三维模型。因为这些原因,例如,当在家里使用的产品中提供基于三维模型的面部识别功能时,不是从在家里的用户产生三维模型,而是提前从多个人获取的数据产生三维模型。
而且,根据不匹配三维模型的人的面部更新三维模型、或转换专用于识别诸如家庭成员的有限数量的人的三维模型是困难的。因此,即使顺利地识别匹配三维模型的人是可能的,顺利地识别不匹配三维模型的人也是不可能的,并且难于更新三维模型。因此,提高识别的精度是有难度的。
一般而言,当识别面部时,从脸上的特征位置和图形(诸如眼睛、眉毛、鼻子、嘴巴和轮廓)获取特征值作为用于识别的特征值做贡献,而与(诸如面颊)其他部分相关的值不显著地作为特征值做贡献。然而,因为根据相关技术的面部识别方法合成整个面部图像,所以合成的面部图像包括对识别部作贡献的部分。面部识别执行涉及对识别部作贡献的部分是冗余并且效率低下的。
而且,当三维模型明显不同于实际面部时,通过应用如上所述的标准三维模型并旋转三维模型是不可能正确合成面部图像的,因此,降低了识别的精度。而且,通过使用参数转换三维模型来获取近似图像花费计算时间并增加处理负担。
虽然已经在面部识别的范畴给出上述描述作为示例,但是可以应用面部识别技术,例如,到诸如汽车之类的对象的识别。同样,在该示例中,可以出现增加处理时间和处理负担的问题。
所希望的是,能改进识别面部或预定对象的正确性,并减少处理时间和关于识别的负担。
根据本发明一个实施例的图像处理装置包括:面部图像检测装置,用于从提供到其中的图像中检测面部图像的区域;面部方向检测装置,用于检测在由面部图像检测装置所检测的面部图像中的面部所面对的方向;特征位置检测装置,用于检测对应于来自由面部图像检测装置所检测的面部图像和由面部方向检测装置检测的面部的方向的面部特征的特征位置;特征值计算装置,用于计算由特征位置检测装置检测的特征位置的特征值;映射装置,用于使用预定映射函数,映射由特征值计算装置计算的特征值;以及识别装置,用于使用由映射装置映射的特征值和提前登记的特征值,来识别由面部图像检测装置所检测的面部是否是登记的面部。
特征值计算装置使用Gabor滤波器或Gaussian导出滤波器计算特征值。
映射装置将支持向量回归函数用作映射函数。
映射装置使用映射函数映射在由特征值计算装置计算的特征值的分量中的至少一个分量。
图像处理装置进一步包括更新装置,其用于当由识别装置的识别结果不正确时更新映射函数。
根据本发明第一实施例的图像处理方法或程序包括:从提供的图像检测面部图像区域;检测在检测所检测的面部图像中面部面对的方向;检测对应于来自所检测的面部图像和检测的面部方向的面部特征的特征位置;计算在检测特征位置的特征值;使用预定映射函数映射计算的特征值;以及使用映射的特征值和提前登记的特征值识别所检测的面部是否是登记的面部。
根据本发明第二实施例的图像处理装置包括:检测装置,用于从提供到其中的图像中检测预定对象;方向检测装置,用于检测由检测装置所检测的对象面对的方向;特征位置检测装置,用于检测对应于由检测装置所检测的对象的对象特征和由方向检测装置所检测的对象方向的特征位置;特征值计算装置,用于计算由特征位置检测装置检测的特征位置的特征值;映射装置,用于使用预定映射函数映射由特征值计算装置计算的特征值;以及识别装置,用于使用由映射装置映射的特征值和提前登记的特征值,来识别由检测装置所检测的对象是否是登记的对象。
特征值计算装置可以使用Gabor滤波器或Gaussian导出滤波器计算特征值。
映射装置将支持向量回归函数用作映射函数。
映射装置使用映射函数映射在由特征值计算装置计算的特征值的分量中的至少一个分量。
图像处理装置进一步包括更新装置,其用于当由识别装置的识别结果不正确时,更新映射函数。
根据本发明第二实施例的图像处理方法或程序包括:从提供的图像检测预定对象;检测已检测对象面对的方向;检测对应于由检测对象的对象特征和检测对象方向的特征位置;计算在检测特征位置的特征值;使用预定映射函数映射计算的特征值;以及使用映射的特征值和提前登记的特征值,来识别所检测的对象是否是已登记对象。
根据本发明第一实施例,当获取的面部图像中的面部方向不同于用于识别的面部图像中的面部方向时,使用映射函数映射从获取的面部图像中提取的特征值,并使用映射的特征值和用于识别的面部图像中提取的特征值检查与用于识别的面部图像的匹配。
根据本发明第二实施例,当获取的图像中的对象方向不用于用于识别的图像中的对象方向时,使用映射函数映射从获取的对象图像中提取的特征值,并使用映射的特征值和从用于识别的对象图像中提取的特征值检查与用于识别的对象图像的匹配。
如上所述,根据本发明第一实施例,可识别人的面部。
而且,根据本发明第一实施例,当获取的面部图像中的面部方向不同于用于识别的面部图像中的面部方向时,使用映射函数映射从获取的面部图像中提取的特征值,并使用映射的特征值和从用于识别的面部图像中提取的特征值检查与用于识别的面部图像的匹配。
根据本发明第二实施例,可识别预定对象。
而且,根据本发明第二实施例,当获取的图像中的对象方向不同于用于识别的图像中的对象方向时,使用映射函数映射从获取的对象图像中提取的特征值,并使用映射的特征值和从用于识别的对象图像中提取的特征值检查与用于识别的对象图像的匹配。因而可以降低计算量。
附图说明
图1是表示根据本发明的实施例的图像处理装置的配置的示例的示意图,;
图2是表示图像处理装置的配置的另一示例的示意图;
图3是图像处理装置的操作流程图;
图4是用于解释特征位置的示意图;
图5是表示图像处理装置的配置的再一示例的示意图;
图6是由图像处理装置执行的学习过程的流程图;以及
图7是用于解释记录介质的示意图。
具体实施方式
在描述本发明实施例之前,下面将描述本发明的特征和说明书中描述的实施例之间的对应关系的示例。这个描述打算确保在本说明书中描述支持本发明的实施例。因此,即使这里描述的特定实施例不是对应于本发明的特定特征,这也不是必然意味着实施例不对应那些特征。相反,即使这里描述的实施例对应于特定特征,这也不必然意味着实施例不对应于其他特征。
根据本发明的图像处理装置包括:面部图像检测装置(例如,图1所示的图像输入单元11和任意方向面部检测器12),用于从提供到其中的图像中检测面部图像的区域;面部方向检测装置(例如,图1所示的任意方向面部检测器12),用于检测由面部图像检测装置所检测的面部图像中的面部面对的方向;特征位置检测装置(例如,图1所示的面部特征位置检测器13),用于检测对应于从由面部图像检测装置所检测的面部图像和由面部方向检测装置检测的面部的方向的面部特征的特征位置;特征值计算装置(例如,图1所示的局部特征值计算器14),用于计算由特征位置检测装置检测的特征位置的特征值;映射装置(例如,图1所示的映射单元15),用于使用预定映射函数,映射由特征值计算装置计算的特征值;以及识别装置(例如,图1所示的面部识别器17),用于使用由映射装置映射的特征值和提前登记的特征值,识别由面部图像检测装置所检测的面部是否是登记的面部。
图像处理装置可以进一步包括更新装置(例如,图5所示的函数更新器109),用于当由识别装置的识别结果不正确时更新映射函数。
根据本发明第二实施例的图像处理装置包括:检测装置(例如,图1所示的图像输入单元11和任意方向面部检测器12),用于从提供到其中的图像中检测预定对象;方向检测装置(例如,图1中所示的任意方向检测装置12),用于检测由检测装置所检测的对象面对的方向;特征位置检测装置(例如,图1中所示的面部特征位置检测器13),用于检测对应于由检测装置所检测的对象的对象特征和方向检测装置所检测的对象方向的特征位置;特征值计算装置(例如,图1中所示的局部特征值计算器14),用于计算由特征位置检测装置检测的特征位置的特征值;映射装置(例如,图1中所示的映射单元15),用于使用预定映射函数映射由特征值计算装置计算的特征值;以及识别装置(例如,图1中所示的面部识别器17),用于使用由映射装置映射的特征值和提前登记的特征值,来识别由检测装置所检测的对象是否是登记的对象。
现在,将参考附图描述本发明的实施例。
图像处理装置的配置
图1是表示根据本发明实施例的图像处理装置的配置的示意图。将图1中所示的图像处理装置10描述为用于识别人面部的设备。虽然这里以识别人的面部的示例的范畴给出描述,但是本发明可以应用于,例如,诸如汽车之类的对象的识别,而且本发明的应用不局限于面部识别。本说明书将在假设图1中所示的图像处理装置10是处理人面部的图像以便识别人的面部的情况下继续。
图像处理装置10包括:图像输入单元11、任意方向面部检测器12、面部特征位置检测器13、局部特征值计算器14、映射单元15、数据库16和面部识别器17。
虽然本说明书在这里将在假设图像处理装置10包括数据库16的情况下继续,但是可替换地,数据库16可以通过网络等连接到图像处理装置10。当通过网络等连接数据库16时,通过多个图像处理装置10共享单个数据库16。
图像输入单元11包括,例如摄像机,并具有抓取人的图像的功能(接收抓取的人的图像的输入的功能)。输入到图像输入单元11的图像至少包括对应于人面部的部分。将输入(获取)到图像输入单元11的图像提供给任意方向面部检测器12。
任意方向面部检测器12分析由图像输入单元11提供的图像以提取对应于人面部的部分(位置和大小)并检测面部的方向。从图像输入单元11提供的图像包括用户的面部,但可能是包括不对应于面部的部分的图像。例如,图像可以是人的全身图片。任意方向面部检测器12检测在该图像中的面部的位置和大小。也就是,任意方向面部检测器12识别从图像输入单元11提供的图像中的人面部的区域,并提取人的面部图像。
任意方向面部检测器12也检测所提取的面部所面对的方向。检测面部的方向以便于可以使用表示人面部方向的信息在以后的处理中用于人识别。
将由任意方向面部检测器12检测的面部的图像(面部图像)和面部的方向(面部方向信息)提供给面部特征位置检测器13。面部特征位置检测器13从提供到其中的面部图像中检测用作人面部中特征的部分(也就是,面部特征位置)。例如,面部特征位置对应于眼睛、鼻子和嘴巴。
将由面部特征位置检测器13检测的面部特征位置提供给局部特征值计算器14。局部特征值计算器14从提供到其中的面部特征位置的邻近中的图像计算特征值。将由局部特征值计算器14计算的特征值提供给映射单元15。
映射单元15同样接收存储在数据库16中的数据。数据库16存储映射函数(下文将详细描述),以及与识别相关的人面部图像的数据(下文将称作登记的面部图像数据)。映射单元15使用在数据库16中管理的映射函数执行处理,以便于可以将由数据库16获取的已登记面部图像数据表示的面部图像和输入到输入单元11的面部图像当作从相同方向抓取的图像。
也就是,映射单元15处理输入到图像输入单元11的面部图像,以便在面部图像中的面部方向(来自抓取图像的方向)与在数据库16中登记的面部方向一致,或处理在数据库16中登记的面部图像,以便在面部图像中的面部方向与输入到图像输入单元11的面部图像中的面部方向一致。
本说明书将在假设映射单元15处理输入到图像输入单元11的面部图像的情况下继续,以便面部图像中面部的方向(来自抓取图像的方向)与在数据库16中登记的面部图像中面部方向一致。
参考图1所示的图像处理装置10的配置,映射单元15接收由局部特征值计算器14计算的特征值的输入。由局部特征值计算器14从输入到图像输入单元11的面部图像中计算(提取)的特征值。
映射单元15将提供到其中的特征值转换(映射)为从在数据库16中登记的已登记面部图像数据表示的面部图像中的面部方向获取的图像的情况下的特征值。将映射的特征值提供给面部识别器17。
面部识别器17也从数据库16接收登记的面部图像数据。面部识别器17比较从映射单元15提供的特征值和从数据库16提供的已登记面部图像数据用于检查与登记的人的匹配。因为,如上所述,从映射单元15提供的特征值与登记的面部图像数据比较,登记的面部图像数据特别的表示从与识别相关的已登记面部图像获取的特征值。
如上所述,在本实施例中的图像处理装置10通过比较特征值识别人的面部。映射特征值用于获取从相同方向抓取的面部图像提取的数据。因此,与至今为止已经使用的将面部图像映射(附加)到三维模型并以预定方向旋转三维模型的方法相比,计算量减少了。而且,由于减少了计算量,计算浪费的时间也减少了。
如上所述,在本实施例中,执行映射以便用于比较的特征值可以被处理为从相同方向抓取的面部图像中提取的特征值。在映射时,使用表示在抓取(输入)的图像中人面部面对的方向和角度的信息。在图1所示的配置中,任意方向面部检测器12检测人面部的方向并输出关于面部方向的信息。例如,当任意方向面部检测器12的面部方向检测的精度比适用于随后阶段执行的处理的精度更高(例如,由面部特征位置检测器13执行的处理)时,或当由除了任意方向面部检测器12的部分检测面部方向时,图像处理装置10的配置如图2所示。
图2是表示图像处理装置的配置的另一示例的示意图。与图1中所示的图像处理装置10相比,图2所示的图像处理装置30另外包括面部方向检测器31。在图像处理装置30中的任意方向面部检测器12′可以与图1所示任意方向面部检测器12相同,或比图1中所示的任意方向面部检测器12的面部方向检测具有较低的精度。因此,图2中所示的任意方向面部检测器12′具有附加到参考标记的撇(′),用于区别于图1中所示的任意方向面部检测器12。
使用增加的面部方向检测器31,将面部图像和面部方向信息从任意方向面部检测器12′提供到面部方向检测器31。同样,将面部图像提供到面部特征位置检测器13。
面部方向检测器31从提供到其中的面部图像和面部方向信息中检测面部方向。将检测的面部方向(面部方向信息)提供给面部特征位置检测器13。
当由面部方向检测器31检测面部方向如此配置时,可以省略在任意方向面部检测器12′中的面部方向的检测。或者,可以由任意方向面部检测器12′粗略地并由面部方向检测器31具体地检测面部方向。选择由面部方向检测器31的面部方向的检测精度,以便足以满足在随后阶段执行的处理。
本说明书将在以作为示例图示在图1中的图像处理装置10的范畴内继续。
图像处理装置的操作
将参考图3中所示的流程图描述图像处理装置10(图1)的操作(面部识别)。
在步骤S11中,图像输入单元11接收面部图像的输入(获取)。虽然在本示例中输入的是面部图像,但输入到图像输入单元11的图像可以是包括面部的任何图像。将输入到图像输入单元11的面部图像提供给任意方向面部检测器12。在步骤S12中,任意方向面部检测器12在提供到其中的图像中检测面部的位置、面部的大小和面部的方向。通过检测面部的位置和大小,提取面部图像的区域,并将所提取的面部图像的区域提供到面部特征位置检测器13和局部特征值计算器14。将由任意方向面部检测器12检测的、关于面部方向的信息(面部方向信息)提供给面部特征位置检测器13。
面部特征位置检测器13使用提供到其中的面部图像和面部方向信息检测诸如眼睛、鼻子和嘴巴之类的面部特征部分(面部特征位置)。面部特征位置检测器13可以例如通过称为AAM(活动外貌模型)的方法检测特征位置。在T.F.Cootes,G.J.Edwards和C.J.Tayor于1998年撰写的“Active AppearanceModels”(Proc.Fifth European Conf.Computer Vision,由H.Burkhardt和B.Neumann编辑,第2卷第484-498页)中描述了AAM。
AAM的方法特征在于,它可精确地检测在预定有限范围中的方向内面部图像的面部特征位置。因此,当使用AAM方法检测面部特征位置时,提供配置以便对于在可以精确地检测面部特征位置的每个方向范围,基于特定方向检测面部特征位置。例如,为各个方向提供用于检测面部特征位置的多个检测器(未示出),并且根据面部方向信息表示的方向切换检测器。
也就是说,当由AAM的方法执行由面部特征位置检测器13检测面部特征位置时,面部特征位置检测器13根据提供到其中的面部方向信息选择合适的检测器,并将面部图像提供到选定的检测器,以便将在其中检测面部特征位置。
当配置面部特征位置检测器13以便以上述形式检测面部特征位置时,使用面部方向信息。当适合于面部特征位置检测器13的面部方向信息的精度不匹配从任意方向面部检测器12输出的面部方向信息的精度时,在任意方向面部检测器12′和面部特征位置检测器13中间提供用于调整精度的面部方向检测器31,如图2所示。
返回参考图3中所示的流程图,在步骤S12中,将具有适合于由面部特征位置检测器13执行的处理的精度的面部方向信息输出到面部特征位置检测器13。然后,在步骤S13中,面部特征位置检测器13检测面部特征位置。
在步骤S13中,面部特征位置检测器13例如通过如上所述的AAM方法检测面部的特征位置(面部特征位置)。例如,由面部特征检测器13检测的面部特征位置是图4的部分A和B所示的位置。
图4的部分A表示从前面抓取的面部图像中所检测的面部特征位置。图4的部分B表示在45度斜角抓取的面部图像中所检测的面部特征位置。在图4的部分A和B中,检测为面部特征位置的位置用×号表示。
参考图4的部分A,作为面部特征位置检测的位置是眉毛的末端(对右眉毛和左眉毛每个两点,也就是总共4个点),眼角和眼睛中间(突起)(对右眼睛和左眼睛每个3个点,也就是总共6个点),鼻子的末端和中间(总共3个点),以及嘴角和嘴巴中间(任一端的两个点,一个点在上唇的中央,而一个点在下唇的中央,也就是总共4个点)。如上所述,检测总共17个点为面部图像的面部特征位置。
参考图4的部分B,类似于在图4的部分A中所示的情况,检测对应于从前面抓取的面部图像中检测的位置的总共17个位置。本说明书将在假设在如上所述的这个实施例中从面部图像提取17个特征位置的情况下继续。
在图4的部分A和B中,用虚线连接特征位置(用×符号表示)之间的对应点用于表示对应关系(表示对应关系的虚线仅仅对眉毛和眼睛的特征位置表示)。
面部特征位置检测器13从输入面部图像中检测特征位置,诸如图4的部分A或B所示的那些位置。将关于由面部特征位置检测器13检测的特征位置的信息(特征位置信息)提供给局部特征值计算器14。局部特征值计算器14也从任意方向面部检测器12接收面部图像(当面部图像与提供到面部特征位置检测器13的面部图像相同时,由面部特征位置检测器13与特征位置信息一起提供面部图像)。
局部特征值计算器14计算局部特征值。局部特征值计算器14可以直接使用特征位置附近的图像,或使用根据Gabor过滤器或Gaussian导出过滤器(derivative filter)的卷积操作计算局部特征值。本说明书将在假设使用Gabor过滤器提取局部特征值的情况下继续。
现在,将描述由Gabor过滤器执行的处理(Gabor过滤)。众所周知,存在具有选择性的用于特定方向的单元。该单元包括响应垂直线的单元和响应水平线的单元。类似地,Gabor过滤是可以由具有方向选择性的多个过滤器实现的空间过滤类型。
Gabor滤波器可以由Gabor函数空间地表示。Gabor函数g(x,y)由表示余弦分量的载波s(x,y)和具有具有二维Gaussian分布的包络面Wr(x,y)定义,表示为如下表达式:
g(x,y)=s(x,y)Wr(x,y) ....(1)
载波s(x,y)可以使用复函数表示为下面的表达式(2),其中坐标值(u0,v0)表示空间频率,而P表示余弦分量的相位:
s(x,y)=exp(j(2π(u0x+v0y)+P)) ...(2)
表达式(2)中的载波可以分离为实部Re(s(x,y))和虚部Im(s(x,y)),如下面的表达式(3)所示:
Re(s(x,y))=cos(2π(u0x+v0y)+P)
Im(s(x,y))=sin(2π(u0x+v0y)+P) ...(3)
具有二维Gaussian分布的包络面可以表示为如下表达式:
Wr(x,y)=Kexp(-π(a2(x-x0)r 2+b2(y-y0)r 2) ...(4)
坐标值(x0,y0)表示这个函数的峰值,而常数a和b是Gaussian分布的尺度参数。下标r表示旋转操作,如下表示:
(x-x0)r=(x-x0)cosθ+(y-y0)sinθ
(y-y0)r=-(x-x0)sinθ+(y-y0)cosθ ...(5)
因此,从上面给出的表达式(2)和(4),Gabor过滤器可以表示空间函数,表示如下:
g(x,y)=Kexp(-π(a2(x-x0)r 2+b2(y-y0)r 2))
exp(j(2π(u0x+v0y)+P)) ...(6)
在本实施方式中,局部特征值计算器14使用总共17个Gabor过滤器,对诸如面部的眼睛、嘴巴和鼻子的各个特征位置计算局部特征值。
Gabor过滤器的响应可以表示为如下表达式,其中Gi表示第i个Gabor过滤器,Ji表示第i个Gabor过滤器的过滤结果(Gabor流),以及I表示输入图像:
Ji(x,y)=Gi(x,y)I(x,y) ...(7)
实际上,使用快速傅立叶变换可以执行根据表达式(7)的计算。
在下面的说明中,将根据表达式(7)计算的预定特征位置的局部特征值定义为局部特征值向量,如下面的表达式(8)所示:
在表达式(8)中,在左边字母J的指标中,上标是表示抓取的图像的角度(也就是,由任意方向面部检测器12检测的面部方向),而下标是表示17个特征位置之一的数字。例如,当从前面抓取图像时,J的上标是“0”,而当在45度角抓取图像时J的上标是“45”。表达式(8)表示关于从前面抓取的面部图像的局部特征值向量。
而且,参见图4的部分A,例如,当将数字按“0”表示如图所示左眉毛的左特征位置,“1”表示如图所示左眉毛的右特征位置等等的顺序分配给特征位置时,J的下标范围从0至16。例如,在如图所示关于左眉毛的左特征位置的局部特征值向量的情况下,J的下标是“0”。
表达式(8)的右侧表示局部特征值向量的分量。关于表示每个分量的指标j,类似于左侧的J的指标,上标是表示抓取图像的角度的数字,而下标是标识每个分量的数字。
如上所述,在这种情况下,对17个点分别计算局部特征值向量。将由局部特征值计算器14计算的局部特征值向量提供给映射单元15。在应该关于输入局部特征值向量执行映射的情况中,在步骤S15中映射单元15执行映射。
返回参考图4的部分A和B,将描述“应该执行映射的情况”。然而,在描述前,将描述已经登记在数据库16中的数据。在数据库16中,存储映射函数和关于与识别相关的人的面部图像的数据(登记的面部图像数据)。登记的面部图像数据是至少包括从与识别相关的人的面部图像提取的局部特征值向量的数据。
例如,对每个人(也就是,对于每个面部图像)登记根据表达式(8)计算的17个局部特征值向量的集合,如下面表达式(9)中的表示:
......
如上所述,登记在数据库16中的已登记面部图像数据(局部特征值向量)包括从以预定方向抓取的面部图像提取的局部特征值向量集合。例如,在数据库16中登记从前面抓取的面部(下文称为登记的面部)的面部图像中提取的局部特征值向量集合(用表达式(9)表示),如图4的部分A所示。
然而,输入到图像输入单元11的面部的面部图像(这里称为输入面部)可以是,例如,不是从前面抓取的面部而是从斜角抓取的面部的面部图像(与已登记面部相反),如图4的部分B所示。基本上,从关于如图4的部分B所示的以斜角抓取的输入面部的面部图像的17个特征位置计算的局部特征值向量。
使用登记在数据库16中的面部(已登记面部)的局部特征值向量和从输入到图像输入单元11(输入面部)的面部的面部图像提取的局部特征值向量执行关于面部图像是否对应于在数据库16中登记的人的确定(识别)。当已登记面部和输入面部的方向不同时,例如,如图4的部分A和B所示,不允许仅仅使用从已登记面部提取的局部特征值向量和从输入面部提取的局部特征值向量执行识别(这种尝试不能获得识别的正确结果而且减少识别的正确性)。
也就是,如果不使用从已登记面部提取的局部特征值向量和与已登记面部相同方向抓取的输入面部中提取的局部特征值向量,识别的正确性可以降低。
当输入面部和已登记面部的方向不同时,输入面部和已登记面部在图像上看上去显著不同,因此即使从相同人的面部图像提取局部特征值向量,其中的值也显著改变了。因此,当为了识别计算已登记面部和输入面部之间的相似性程度时,如果输入面部和已登记面部的方向不同,就很难通过简单的直接比较局部特征值向量获得正确的识别。
为了克服该问题并即使当输入面部和已登记面部的方向不同时也实现正确识别,根据至今使用的技术,使用三维面部模型合成与已登记面部相同方向的输入面部。然而,根据该技术,计算量增加了,而且当三维模型不适于与识别相关的人时(也就是数据库16中登记的人),识别的正确性降低了。
在本实施例中,因为不使用三维模型,因此与其中使用三维模型的情况相比,计算量减少了。而且,因为不使用三维模型,可以避免由识别相关的人和三维模型之间不匹配引起的识别的正确性降低的问题。
在本实施例中,使用映射函数映射局部特征值向量,以便为了识别减少输入面部和已登记面部的方向之间的差异。
返回参见图3所示的流程图,在步骤S15中,映射单元15执行映射。当输入面部具有不同于在数据库16中登记的已登记面部的方向的方向的输入时,映射单元15确定“应该执行映射”。当应该执行映射时,根据在数据库16中登记的映射函数执行映射。当不需要执行映射时,可以跳过由映射单元15的映射,以便将来自局部特征值计算器14的局部特征值向量直接提供给面部识别器17。或者,在将来自局部特征值计算器14的局部特征值向量提供给面部识别器17之前,使用不大量执行映射(也就是,不改变数据值)的映射函数执行映射。
将在如图4的部分A所示的在数据库16中登记的已登记面部是从前面抓取的面部的示例范围中,描述由映射单元15执行的映射,在数据库16中登记从已登记面部提取的局部特征值向量集合,输入面部是如图4的部分B所示的45度的斜角抓取的面部,以及将从输入面部提取的局部特征值向量提供给映射单元15。
在这种情况下,由局部特征值计算器14计算并提供给映射单元15的局部特征值向量可以表达为下面的表达式(10),其中i用于表示范围从0到16的面部特征位置:
表达式(10)表示从以45度斜角抓取的面部图像提取的局部特征值向量,并映射局部特征值向量,以便局部特征值向量可以被认为是从0度的角度(从前面)抓取的面部图像提取的局部特征值向量。映射将表达式(10)转化为下面的表达式(11):
在表达式(11)中,J或j上的“~”表示该值是近似值。可以理解的是,表示从已登记面部提取的局部特征值向量的表达式(8)和通过表示从输入面部提取的局部特征值向量的表达式(10)的映射获得的表达式(11)是近似的关系。
根据下面的表达式(12)计算表达式(11)的分量(表达式(11)右侧{}中的分量):
......
也就是,根据使用在表达式(10)中的所有分量(从i-1至i-n的n个分量j)的预定映射函数f,计算表达式(11)中的每个分量j。在数据库16中登记映射函数f,并读取和使用与输入面部的方向相关的映射函数f。也就是,在这种情况下,读取并使用45度的情况的映射函数f。对面部特征位置分别准备映射函数f。也就是,因为在这种情况下存在17个面部特征位置,因此为每个方向准备(登记)17个映射函数f。
由映射单元15执行的映射可以概括的如下表示:
表达式(13)表示在输入面部的特征位置i的局部特征值向量。表达式(14)表示在已登记面部的特征位置i的局部特征值向量。在这种情况下特征值的映射可以表示为表达式(15)。
在表达式(15)中,左侧表示在特征位置i的局部特征值向量的第k个分量的估计。在表达式(15)的右侧中,下面表达的项表示使用具有角度θI的输入面部的面部图像的特征位置i的局部特征值向量的所有分量,映射具有角度θR的已登记面部的面部图像的特征位置i的局部特征值向量的第k个分量的映射函数。
虽然在本示例中使用所有分量执行映射,但不是必须使用所有分量。例如,可以确定估计要使用的最少分量,以便只使用(指定到映射函数)哪些分量。也就是,当在输入特征值向量和通过映射获取的局部特征值向量之间存在明显因果关系时,只使用认为是具有因果关系的分量执行映射,而不是使用输入局部特征值向量的所有分量执行映射。
返回参见图3中的流程图,在步骤S15中,当已由映射单元15执行映射时,将映射的结果提供给面部识别器17。在步骤S16中,面部识别器17从数据库16读取登记的面部图像数据(从与识别相关的已登记面部提取的局部特征值向量集)。当已登记多片经过登记的面部图像数据时(也就是,当已登记多个人的面部图像数据以便可以识别多个人时),读取已登记的多片面部图像数据。
在步骤S17中,面部识别器17计算相似性向量。由输入面部和已登记面部之间的相关各个特征位置和使用相关特征位置的局部特征值向量计算相似性向量。例如通过计算标准化关系计算相似性向量。
本说明书将在假设面部识别器17通过计算标准化关系计算相似性向量的情况下继续。面部识别器17通过按照下面的表达式(17)和(18)计算标准化关系来计算相似性向量:
将表达式(8)和(11)中的分量指定到表达式(17)用于计算在表达式(18)中表示的相似性向量的分量。也就是,根据使用在表达式(11)中表示的输入面部的局部特征值向量(通过映射获得的局部特征值向量)以及在表达式(8)中表示的已登记面部的局部特征值向量(数据库16中登记的局部特征值向量)的表达式(17)计算在相同特征位置的输入面部和已登记面部之间的相似性。
从根据表达式(17)计算的相似性Ci 0,计算由相似性Ci 0集合组成的相似性向量Cd 0。下标“d”的范围是从1到与识别相关并登记在数据库16中的面部数目(登记的面部图像数据片的数目)。以上述方式对于每片登记的面部图像数据计算与输入面部的相似性向量。
当在步骤S17中已经计算了相似性向量时,在步骤S18中,面部识别器17检查输入面部是否对应于在数据库16中登记并与识别有关的面部(也就是,输入面部和已登记面部是否表示相同的人),并将检查结果输出到终端设备等(未示出)。可以使用分类器(例如支持向量机(support vector machine,SVM)、神经网络或Adaboost)执行检查。
将在使用支持向量机(SVM)情况下的示例范畴中给出说明。现在,将简短的给出SVM的概括描述。例如,1999年MIT出版社的《(B.Sholkopf,C.Burges,A.Smola,Advance in Kernel Support Vector Learning》中描述的支持向量机。
支持向量机是线性分类器(感知器)用作判别函数的学习机,而支持向量机可以通过使用核心函数扩展非线性空间。而且,因为在学习判别函数时为类别分割提供最大空间,并通过求解二次数学规划问题获得解,因此理论上确保了存在整体解。
一般而言,图形识别问题等同于对测试样本x=(x1,x2, ,xn)计算判别函数f(x),以如下表达式表达:
现在,假设支持向量机学习的教师标签表示如下:
y=(y1,y2,....,yn) ....(20)
然后,可以将通过支持向量机面部图形识别看作在如下表达式表示的限制下,最小化权重因子w平方的问题:
y1=(Wrx1+b)z1 ....(21)
可以使用待定常数的拉格朗日方法求解在约束条件下的问题。更确切地说,首先引入表示在表达式(22)中的拉格朗日公式,并关于每个b和w求偏导数,表示为表达式(23):
因此,可以将通过支持向量机的面部图形识别看作为表达如下的二次规划问题:
约束:ai≥0,∑aiyi=0 ....(24)
当特征空间的维数小于训练样本的数目时,引入松驰变量ξ≥用于修改如下表达式中的约束:
y1(WrX1+b)≥1-ξ1 ....(25)
通过最小化以下目标函数的值实现优化:
在表达式(26)中,c是表示约束松弛程度的系数,并用实验方法确定其中的值。关于拉格朗日常数a的问题可以改写成如下表达式:
约束:0≤ai≤0,∑aiyi=0 ....(27)
然而,不可能使用现在的表达式(27)求解非线性问题。因此,例如,为了临时映射到更高纬度的空间,引入核心函数K(x,x3)(也就是,执行核心技巧),并在该空间中执行线性分离。这等同于在初始空间中的非线性分离。
核心函数可以使用特定映射表示为如下表达式:
K(x,y)=(x)r(xi) ....(28)
在表达式(19)中表示的判别函数可以表示为如下的表达式(29):
f(Φ(x))=WrΦ(x)+b=∑aiyiK(x,xi)+b ....(29)
面部识别器17通过上述的支持向量机(也就是,根据表达式(29)检查)执行面部识别。支持向量机通过计算从边界区域(值为0)的距离检查与已登记面部的匹配,以确定对应于相似性向量(表达式(29))的平面的f(x)的值,例如,+1或-1。也就是,当不存在匹配已登记面部的相似性向量时,确定已经输入了未登记的人的面部。另一方面,当存在匹配已登记面部的相似性向量时,确定已经输入了已登记的人的面部。
面部识别器17根据下面的表达式(30)执行上述的检查。表达式(30)以sgn函数的形式表示表达式(29)以及诸如表达式(17)和(18)的其他表达式。Sgn函数采用sgn(<value>)的形式,并用于检查该值的符号。当括号内的值是正数时,Sgn函数返回“1”,当括号内的值是负数时返回“-1”,以及当括号内的数是0时返回“0”。
返回参考图3中的流程图,在步骤S18中,面部识别器17检查数据库16中是否存在匹配输入面部的已登记面部,并向例如显示器的设备输出检查结果,在其中检查结果被显示为信息等。
当数据库16中存在匹配输入面部的已登记面部时,从数据库16读取诸如名字之类的关于与匹配已登记面部相关的人的信息,并将信息作为检查结果输出。在目的显示器或其他的设备上使用该信息。
当数据库16中不存在匹配输入面部的已登记面部时,指示缺乏匹配已登记面部的信息作为检查结果输出,以及例如目的显示器显示诸如“未登记人”的信息或发出警报。
如上所述,在本实施例中,当输入面部和已登记面部的方向不同时,执行处理以便输入面部的方向匹配已登记面部的方向。通过映射根据映射函数从输入面部(输入面部的图像)提取的局部特征值向量执行处理,以便可以将该局部特征值向量看作从具有匹配已登记面部的方向的方向的输入面部中提取的局部特征值向量。
如上所述,通过在执行识别前映射局部特征值向量,以吸收输入面部和已登记面部的方向之间的差别。也就是,与迄今已经使用的技术相反,根据本实施例,代替合成从不同方向抓取的完整面部图像,估计在面部图像中的许多特征点上的特征值。因此,可以预期以下优点。
首先,因为抑制了识别不有使用的部分的计算,因此避免了冗余处理并可以有效地执行识别。识别不使用的部分指前额、面颊等。因为识别不使用这些部分,因此可以减少计算所使用的数据量,以便可以减少计算量。因此,可以有效地执行识别。
如前所述,在数据库16中,登记与识别相关的面部(人)。登记的内容包括从已登记面部提取的局部特征值向量(例如,在表达式(8)中表示的数据集合)。而且,为了允许与已登记的局部特征值向量有关的人身份的识别,例如,与局部特征值向量的数据相关地登记名字(昵称)。
通过由图像输入单元11至局部特征值计算器14(图1)执行的处理获得并登记数据(登记面部图像数据)。例如,在图像处理装置10的使用的初期,执行登记处理以便于在数据库16中登记已登记的面部图像数据。在登记时,将来自局部特征值计算器14的局部特征值向量可以提供给数据库16。因为已登记面部不是必须是从前面抓取的面部图像,因此可以在数据库16中登记由映射单元15通过映射获得的局部特征值向量。
如上所述,在本实施例中,映射单元15执行局部特征值向量的映射。映射使用的映射函数提前登记在数据库16中用于执行识别。例如,从用作样本的多个面部图像获得已登记的映射函数。也就是,例如,即使当图像处理装置10是装载在家庭使用的设备上,而由图像处理装置10识别的相关面部是使用该设备的家庭成员的面部,在数据库16中也登记不同于从家庭成员(实际用户)的面部图像获得的映射函数的映射函数。
因此,当在数据库16中登记的映射函数不适于关于识别相关人(已登记面部)的映射时,识别的正确性降低了。因此,允许学习,以便可以更新映射函数以适合于识别相关的人。
具有学习函数的图像处理装置
图5表示图像处理装置的配置的示例,其中可以通过学习更新映射函数。图5中所示的图像处理装置100包括:图像输入单元101、任意方向面部检测器102、面部特征位置检测器103、局部特征值计算器104、映射单元105、数据库106、面部识别器107、正确性检查器108和函数更新器109。
与图1所示的图像处理装置10相比,图1中所示的图像处理装置100另外包括正确性检查器108和函数更新器109。也就是,图像处理装置100的图像输入单元101、任意方向面部检测器102、面部特征位置检测器103、局部特征值计算器104、映射单元105、数据库106和面部识别器107的配置分别与图像处理装置100的图像输入单元11、任意方向面部检测器12、面部特征位置检测器13、局部特征值计算器14、映射单元15、数据库16和面部识别器17相同。在下面的描述中,当合适时将省略与图像处理装置10对应部分相同配置的部分描述。
同样,图5中所示的图像处理装置100包括图2中所示的面部方向检测器31。
配置正确性检查器108用于从用户接收指令。更确切地说,当用户已确定从面部识别器107输出的识别结果是否正确时,正确性检查器108接收用户的确定结果。而且,正确性检查器108向函数更新器109提供表示识别结果是否已被确定为正确或不正确的信息。
当由正确性检查器108提供的信息表示识别结果不正确时,函数更新器109更新在函数更新器109中登记的映射函数。
现在,将参考图6中所示的流程图描述图5中所示的图像处理装置100的操作。步骤S111至S118与图3中所示的步骤S11至S18相同,因此将省略详细描述。也就是,图像输入单元101至面部识别器107执行步骤S111至S118,借此将识别结果提供给图像处理装置100的用户。
如前所述,例如通过在显示器上显示信息将识别结果提供给用户。用户确定识别结果是否正确,并向正确性检查器108输入确定结果。正确性检查器108包括允许用户输入确定结果的操作单元,例如,具有当识别结果正确时操作的按钮以及当识别结果不正确时操作的按钮的操作单元。
因为当如后面所述识别结果不正确时更新映射函数,因此它对正确性检查器108满足至少具有当识别结果不正确时表示不正确的配置(例如,当识别结果不正确时只有一个按钮可操作)。
在步骤S119中,正确性检查器108从用户获得正确信息,表示识别结果是正确或不正确。在正确信息的基础上,正确性检查器108检查用户是否已确定识别结果正确,并将检查结果提供给函数更新器109。
在步骤S120中,函数更新器109确定由正确性检查器108提供的检查结果是否表示正确结果。当在步骤S120中确定检查结果表示正确结果时,退出图6中所示的学习过程。在这种情况下,因为识别结果正确,所以假定映射函数是适合的并能在没有更新的情况下使用。因此,在没有更新映射函数的情况下退出该过程。
另一方面,当在步骤S120中确定从正确性检查器108提供的检查结果不表示正确结果时(也就是,表示不正确的结果),处理进行到步骤S121。在步骤S121中,函数更新器109更新存储在数据库106中的映射函数。
如上所述,将在数据库106中登记的映射函数更新为当识别结果不正确时用于实现正确识别的映射函数。也就是,通过学习过程,将映射函数更新为适合于图像处理装置100的用户(要识别相关的人)的映射函数。
因为如上所述更新映射函数,因此将可以选择通过学习过程更新并用于实现合适的映射的函数为映射函数。映射函数可以是例如基于支持向量回归(SVR)的函数。
上文给出的在表达式(12)中的映射函数f可以是基于SVR的函数。在SVR中,使用允许非线性函数的近似性的多维输入/一维输出函数估计方法,提前学习从多个方向抓取的若干人的面部图像的特征点的局部特征值向量,以获得在表达式(12)中的映射函数。而且,当局部特征值具有和面部角度相关的线性时,可以通过线性回归分析估计函数f。
可以使用从不同方向抓取的相同人的面部图像数据学习映射函数f。也就是,如上所述,当要识别诸如家庭成员的有限数目的人时,可以容易地获得从不同方向抓取的同一人的面部图像数据,以便顺利地执行学习过程。特别是,当通过支持向量回归(SVR)的方式学习函数时,可以在需要时使用称为精确在线SVR(AOSVR)的方法学习函数。因此,在交付包括图像处理装置100的产品之后,执行其他用于适应特定人(例如,家庭成员)或环境的学习或再学习是可能的。
如上所述,根据本实施例,当执行任意视角面部识别(不取决于输入面部的方向的面部识别)时,不使用三维数据(三维模型),并可以当需要时执行学习。因此,当已在数据库106中登记映射函数之后(例如,在交付包括图像处理装置100的设备之后),可能执行用于适应特定人或环境(使用该设备的环境)的其他学习或再学习。因为允许其他的学习或再学习(映射函数的更新),因此可能构造具有高精度的识别设备(图像处理装置)。
而且,当执行任意视角面部识别时,因为不是合成从不同方向抓取的整个面部图像,而是估计在面部图像的若干特征点的特征值,因此可以避免与识别不相关的部分的计算。因此,可能构造具有高计算精度的识别设备。
虽然已在面部识别的示例范围中描述该实施例,但是本发明可以应用于识别除了面部的对象,例如汽车。当要识别诸如汽车的对象时,定义对应于要识别的对象特征的特征位置以便可以类似于上述实施例地识别该对象。
记录介质
图7是表示根据程序执行上述过程的人计算机配置的示例框图。中央处理单元(CPU)201根据存储在只读存储器(ROM)202或存储单元208上的程序执行各种过程。当需要时,随机存取存储器(RAM)203存储由CPU 201执行的程序、相关数据等。CPU 201、ROM 202和RAM 203通过总线204互相连接。
CPU 201也通过总线204连接到输入/输出接口205。输入/输出接口205连接到包括键盘、鼠标、麦克风等的输入单元206和包括显示器、扬声器等的输出单元207。CPU 201根据从输入单元206输入的指令执行各种过程。然后,CPU 201向输出单元207输出进程结果。
连接到输入/输出接口205的存储单元208由例如硬盘构成,并且它存储由CPU 201执行的程序和各种相关数据。通信单元209通过诸如因特网或局域网络的网络执行与外部设备的通信。
同样,通过通信单元209获得程序并在存储单元208存储该程序是可能的。
而且,驱动210连接到输入/输出接口205。当在驱动210上装载诸如磁盘、光盘、磁性光盘或半导体存储器的可移除介质211,驱动210驱动可拆卸介质211以获得其中记录的程序、数据等。当需要时,将已经获得的程序、数据等转移并存储在存储单元208中。
上述一系列过程可以由硬件或软件执行。当由软件执行该系列过程时,从程序存储介质将构成软件的程序安装在内嵌特殊硬件的计算机上或通用个人计算机等上,所述计算机能使用其中安装的各种程序执行各种功能。
如图7所示,能存储安装在计算机上由计算机执行的程序的程序存储介质可以是可拆卸介质211或ROM 202或者临时或永久存储程序的存储单元208的硬盘,所述可拆卸介质是诸如磁盘(例如软盘)、光盘(例如,CD盘(压缩盘只读存储器)、或DVD(数字万能盘))、磁性光盘(例如,MD(迷你盘))或半导体存储器的组件介质。程序可以在需要时使用诸如局域网络、因特网、或数字卫星广播的有线或无线通信介质通过诸如路由器或调制器的作为接口的通信单元209存储在程序存储介质上。
应该理解,定义存储在程序存储介质上的程序的步骤可以包括并行或单独执行的过程、以及按说明书中描述的顺序执行的过程。
本领域技术人员应该理解,根据设计需要和其他因素可以产生各种修改、组合、子组合和改变,只要它们在附加的权利要求书或其对等物的范围内。
Claims (16)
1、一种图像处理装置,包括:
面部图像检测装置,用于从提供到其中的图像中检测面部图像的区域;
面部方向检测装置,用于检测在由面部图像检测装置所检测的面部图像中面部面对的方向;
特征位置检测装置,用于检测对应于从由面部图像检测装置所检测的面部图像和由面部方向检测装置检测的面部的方向的面部特征的特征位置;
特征值计算装置,用于计算由特征位置检测装置检测的特征位置的特征值;
映射装置,用于使用预定映射函数映射由特征值计算装置计算的特征值;以及
识别装置,用于使用由映射装置映射的特征值和提前登记的特征值,来识别由面部图像检测装置所检测的面部是否是已登记的面部。
2、如权利要求1所述的信息处理装置,其中特征值计算装置使用Gabor滤波器或Gaussian导出滤波器计算特征值。
3、如权利要求1所述的信息处理装置,其中映射装置将支持向量回归函数用作映射函数。
4、如权利要求1所述的信息处理装置,其中映射装置使用映射函数映射由特征值计算装置计算的特征值的分量中的至少一个分量。
5、如权利要求1所述的信息处理装置,进一步包括:
更新装置,用于当来自识别装置的识别结果不正确时更新映射函数。
6、一种图像处理方法,包括以下步骤:
从提供的图像中检测面部图像区域;
检测在所检测的面部图像中面部面对的方向;
检测对应于来自检测面部图像和检测面部方向的面部特征的特征位置;
计算检测特征位置的特征值;
使用预定映射函数映射计算的特征值;以及
使用映射的特征值和提前登记的特征值识别所检测的面部是否是登记的面部。
7、一种允许计算机执行包括如下步骤的处理的程序:
从提供的图像检测面部图像区域;
检测在所检测的面部图像中面部面对的方向;
检测对应于来自检测面部图像和检测面部方向的面部特征的特征位置;
计算检测特征位置的特征值;
使用预定映射函数映射计算的特征值;以及
使用映射的特征值和提前登记的特征值识别所检测的面部是否是登记的面部。
8、一种图像处理装置,包括:
检测装置,用于从提供到其中的图像中检测预定对象;
方向检测装置,用于检测由检测装置所检测的对象面对的方向;
特征位置检测装置,用于检测对应于由检测装置所检测的对象的对象特征和方向检测装置所检测的对象方向的特征位置;
特征值计算装置,用于计算由特征位置检测装置检测的特征位置的特征值;
映射装置,用于使用预定映射函数映射由特征值计算装置计算的特征值;以及
识别装置,用于使用由映射装置映射的特征值和提前登记的特征值,来识别由检测装置所检测的对象是否是登记的对象。
9、如权利要求8所述的图像处理装置,
其中特征值计算装置使用Gabor滤波器或Gaussian导出滤波器计算特征值。
10、如权利要求8所述的图像处理装置,其中映射装置将支持向量回归函数用作映射函数。
11、如权利要求8所述的图像处理装置,其中映射装置使用映射函数映射由特征值计算装置计算的特征值的分量中的至少一个分量。
12、如权利要求8所述的图像处理装置,进一步包括:
更新装置,用于当由识别装置识别的结果不正确时更新映射函数。
13、一种图像处理方法,包括以下步骤:
从提供的图像中检测预定对象;
检测所检测的对象面对的方向;
检测对应于来自检测对象的对象特征和对象的检测方向的特征位置;
计算在检测特征位置的特征值;
使用预定映射函数映射计算的特征值;以及
使用映射的特征值和提前登记的特征值识别所检测的对象是否是登记的对象。
14、一种允许计算机执行包括以下步骤的处理的计算机程序;
从提供的图像检测预定对象;
检测所检测的对象面对的方向;
检测对应于由检测对象的对象特征和对象的检测方向的特征位置;
计算在检测特征位置的特征值;
使用预定映射函数映射计算的特征值;以及
使用映射的特征值和提前登记的特征值识别所检测的对象是否是登记的对象。
15、一种图像处理装置,包括:
面部图像检测器,配置用于从提供到其中的图像中检测面部图像的区域;
面部方向检测器,配置用于检测由面部图像检测器所检测的面部图像中的面部面对的方向;
特征位置检测器,配置用于检测对应于由面部图像检测器所检测的面部图像的面部特征和由面部方向检测器检测的面部方向的特征位置;
特征值计算器,配置用于计算在由特征值检测器检测的特征位置的特征值;
映射器,使用预定映射函数映射由特征值计算器计算的特征值;以及
识别器,配置用于使用由映射器映射的特征值和提前登记的特征值,来识别由面部图像检测器所检测的面部是否是登记的面部。
16、一种图像处理装置,包括:
检测器,配置用于从提供到其中的图像中检测预定对象;
方向检测器,配置用于检测由检测器所检测的对象面对的方向;
特征位置检测器,配置用于检测对应于由检测器所检测的对象的对象特征和由方向检测器所检测的对象方向的特征位置;
特征值计算器,配置用于计算在由特征位置检测器检测的特征位置的特征值;
映射器,配置用于使用预定映射函数映射由特征值计算器计算的特征值;以及
识别器,配置用于使用由映射器映射的特征值和提前登记的特征值,来识别由检测器所检测的对象是否是登记对象。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005247936A JP4595750B2 (ja) | 2005-08-29 | 2005-08-29 | 画像処理装置および方法、並びにプログラム |
JP247936/05 | 2005-08-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1924897A true CN1924897A (zh) | 2007-03-07 |
CN1924897B CN1924897B (zh) | 2011-07-13 |
Family
ID=37189041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2006101322898A Expired - Fee Related CN1924897B (zh) | 2005-08-29 | 2006-08-29 | 图像处理装置和方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8249310B2 (zh) |
EP (1) | EP1760635B1 (zh) |
JP (1) | JP4595750B2 (zh) |
KR (1) | KR101217349B1 (zh) |
CN (1) | CN1924897B (zh) |
DE (1) | DE602006011990D1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101504719B (zh) * | 2008-02-05 | 2011-12-14 | 索尼株式会社 | 图像处理装置和方法 |
CN103179344A (zh) * | 2011-12-21 | 2013-06-26 | 佳能株式会社 | 摄像设备、信息处理设备和控制方法 |
CN103313018A (zh) * | 2012-03-15 | 2013-09-18 | 欧姆龙株式会社 | 登记确定装置及其控制方法、以及电子装置 |
CN103534725A (zh) * | 2011-05-23 | 2014-01-22 | 索尼公司 | 信息处理设备、信息处理方法和计算机程序 |
TWI484423B (zh) * | 2009-09-25 | 2015-05-11 | Hewlett Packard Development Co | 臉部識別裝置及方法 |
CN104769540A (zh) * | 2012-11-06 | 2015-07-08 | 诺基亚技术有限公司 | 用于滑动变换照片浏览的方法和装置 |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101043832A (zh) * | 2004-10-22 | 2007-09-26 | 株式会社资生堂 | 嘴唇的分类方法,化妆方法,分类图谱及化妆用器具 |
JP2008227309A (ja) | 2007-03-14 | 2008-09-25 | Shinko Electric Ind Co Ltd | 配線基板およびその製造方法 |
JP4337064B2 (ja) * | 2007-04-04 | 2009-09-30 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP4891144B2 (ja) * | 2007-05-08 | 2012-03-07 | キヤノン株式会社 | 画像検索装置及び画像検索方法 |
US8315441B2 (en) * | 2007-06-29 | 2012-11-20 | Nec Corporation | Masquerade detection system, masquerade detection method and masquerade detection program |
JP4479756B2 (ja) | 2007-07-05 | 2010-06-09 | ソニー株式会社 | 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム |
US20120169732A1 (en) * | 2008-01-09 | 2012-07-05 | Allergan, Inc. | Method for analysis of facial appearance to assist medical procedure |
JP5553022B2 (ja) | 2008-08-22 | 2014-07-16 | ソニー株式会社 | 画像表示装置、制御方法およびコンピュータプログラム |
JP4697279B2 (ja) | 2008-09-12 | 2011-06-08 | ソニー株式会社 | 画像表示装置および検出方法 |
JP2010186216A (ja) | 2009-02-10 | 2010-08-26 | Seiko Epson Corp | 顔画像における特徴部位の位置の特定 |
JP2010244381A (ja) * | 2009-04-08 | 2010-10-28 | Sony Corp | ガボアフィルタ、画像認識装置および方法、プログラム、並びに記録媒体 |
JP5263092B2 (ja) | 2009-09-07 | 2013-08-14 | ソニー株式会社 | 表示装置および制御方法 |
JP5418093B2 (ja) | 2009-09-11 | 2014-02-19 | ソニー株式会社 | 表示装置および制御方法 |
JP5556098B2 (ja) | 2009-09-11 | 2014-07-23 | ソニー株式会社 | 表示方法及び表示装置 |
JP5568929B2 (ja) | 2009-09-15 | 2014-08-13 | ソニー株式会社 | 表示装置および制御方法 |
JP5554984B2 (ja) * | 2009-12-24 | 2014-07-23 | キヤノン株式会社 | パターン認識方法およびパターン認識装置 |
WO2011086803A1 (ja) * | 2010-01-12 | 2011-07-21 | 日本電気株式会社 | 画像照合システム、画像照合方法、コンピュータプログラム |
JP5567853B2 (ja) * | 2010-02-10 | 2014-08-06 | キヤノン株式会社 | 画像認識装置および方法 |
JP5740972B2 (ja) | 2010-09-30 | 2015-07-01 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US8988512B2 (en) * | 2011-04-14 | 2015-03-24 | Mediatek Inc. | Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof |
US9323980B2 (en) * | 2011-05-13 | 2016-04-26 | Microsoft Technology Licensing, Llc | Pose-robust recognition |
US9251402B2 (en) | 2011-05-13 | 2016-02-02 | Microsoft Technology Licensing, Llc | Association and prediction in facial recognition |
JP5857450B2 (ja) | 2011-05-30 | 2016-02-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US9020207B2 (en) | 2011-06-07 | 2015-04-28 | Accenture Global Services Limited | Biometric authentication technology |
JP5143262B1 (ja) * | 2011-08-30 | 2013-02-13 | 株式会社東芝 | 立体映像処理装置、立体映像処理方法 |
KR101818005B1 (ko) * | 2011-09-06 | 2018-01-16 | 한국전자통신연구원 | 얼굴 데이터 관리 시스템 및 그 방법 |
US20150035746A1 (en) * | 2011-12-27 | 2015-02-05 | Andy Cockburn | User Interface Device |
AU2013200450B2 (en) * | 2012-01-30 | 2014-10-02 | Accenture Global Services Limited | System and method for face capture and matching |
US9361412B1 (en) * | 2012-03-26 | 2016-06-07 | The United Sates Of America As Represented By The Secretary Of The Navy | Method for the simulation of LADAR sensor range data |
US9435888B1 (en) * | 2012-03-26 | 2016-09-06 | The United States Of America As Represented By The Secretary Of The Navy | Shape matching automatic recognition methods, systems and articles of manufacturing |
US8948465B2 (en) | 2012-04-09 | 2015-02-03 | Accenture Global Services Limited | Biometric matching technology |
US9128188B1 (en) * | 2012-07-13 | 2015-09-08 | The United States Of America As Represented By The Secretary Of The Navy | Object instance identification using template textured 3-D model matching |
JP2014071610A (ja) * | 2012-09-28 | 2014-04-21 | Keyware Solutions Inc | データ処理装置、名寄せ処理方法及びコンピュータプログラム |
JP6036335B2 (ja) * | 2013-01-24 | 2016-11-30 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
EP3188129A4 (en) * | 2014-07-24 | 2018-03-07 | Japan Science and Technology Agency | Image registration device, image registration method, and image registration program |
WO2016026135A1 (en) * | 2014-08-22 | 2016-02-25 | Microsoft Technology Licensing, Llc | Face alignment with shape regression |
KR101647803B1 (ko) * | 2014-09-18 | 2016-08-11 | 한국과학기술연구원 | 3차원 얼굴모델 투영을 통한 얼굴 인식 방법 및 시스템 |
US10146797B2 (en) | 2015-05-29 | 2018-12-04 | Accenture Global Services Limited | Face recognition image data cache |
US20180129868A1 (en) * | 2016-11-08 | 2018-05-10 | Qualcomm Incorporated | System and method associated with object verification |
US11468592B2 (en) | 2017-03-30 | 2022-10-11 | Sony Corporation | Information processing apparatus and information processing method |
JP2019109709A (ja) * | 2017-12-18 | 2019-07-04 | 株式会社東芝 | 画像処理装置、画像処理方法およびプログラム |
WO2019181144A1 (ja) * | 2018-03-20 | 2019-09-26 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにロボット装置 |
JP6951753B2 (ja) * | 2018-03-27 | 2021-10-20 | エバ・ジャパン 株式会社 | 情報探索システム及びプログラム |
CN113536268A (zh) * | 2021-07-13 | 2021-10-22 | 云南财经大学 | 基于深度学习的计算机人脸识别方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5016282A (en) * | 1988-07-14 | 1991-05-14 | Atr Communication Systems Research Laboratories | Eye tracking image pickup apparatus for separating noise from feature portions |
JP2690132B2 (ja) * | 1989-01-17 | 1997-12-10 | セコム株式会社 | 個人照合方法および装置 |
JP3926059B2 (ja) | 1999-05-12 | 2007-06-06 | 日本電気株式会社 | 画像照合装置及びその画像照合方法並びにその制御プログラムを記録した記録媒体 |
JP4332649B2 (ja) * | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
US6944319B1 (en) * | 1999-09-13 | 2005-09-13 | Microsoft Corporation | Pose-invariant face recognition system and process |
SG91841A1 (en) * | 1999-11-03 | 2002-10-15 | Kent Ridge Digital Labs | Face direction estimation using a single gray-level image |
JP4526639B2 (ja) * | 2000-03-02 | 2010-08-18 | 本田技研工業株式会社 | 顔認識装置およびその方法 |
JP4092059B2 (ja) * | 2000-03-03 | 2008-05-28 | 日本放送協会 | 画像認識装置 |
US7127087B2 (en) * | 2000-03-27 | 2006-10-24 | Microsoft Corporation | Pose-invariant face recognition system and process |
US7127081B1 (en) * | 2000-10-12 | 2006-10-24 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. | Method for tracking motion of a face |
US7155036B2 (en) * | 2000-12-04 | 2006-12-26 | Sony Corporation | Face detection under varying rotation |
JP3979007B2 (ja) * | 2000-12-22 | 2007-09-19 | 富士ゼロックス株式会社 | パターン識別方法および装置 |
US7027620B2 (en) * | 2001-06-07 | 2006-04-11 | Sony Corporation | Method of recognizing partially occluded and/or imprecisely localized faces |
WO2003019475A1 (fr) * | 2001-08-23 | 2003-03-06 | Sony Corporation | Appareil robotique, procede de reconnaissance faciale, et appareil de reconnaissance faciale |
US7221809B2 (en) * | 2001-12-17 | 2007-05-22 | Genex Technologies, Inc. | Face recognition system and method |
JP2003281539A (ja) * | 2002-03-25 | 2003-10-03 | Oki Electric Ind Co Ltd | 顔部品探索装置および顔部品探索方法 |
KR100438841B1 (ko) * | 2002-04-23 | 2004-07-05 | 삼성전자주식회사 | 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템 |
JP4314016B2 (ja) * | 2002-11-01 | 2009-08-12 | 株式会社東芝 | 人物認識装置および通行制御装置 |
US7526123B2 (en) * | 2004-02-12 | 2009-04-28 | Nec Laboratories America, Inc. | Estimating facial pose from a sparse representation |
JP4946730B2 (ja) * | 2007-08-27 | 2012-06-06 | ソニー株式会社 | 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム |
-
2005
- 2005-08-29 JP JP2005247936A patent/JP4595750B2/ja not_active Expired - Fee Related
-
2006
- 2006-08-23 EP EP06254422A patent/EP1760635B1/en not_active Not-in-force
- 2006-08-23 DE DE602006011990T patent/DE602006011990D1/de active Active
- 2006-08-28 US US11/511,151 patent/US8249310B2/en not_active Expired - Fee Related
- 2006-08-29 KR KR1020060082095A patent/KR101217349B1/ko not_active IP Right Cessation
- 2006-08-29 CN CN2006101322898A patent/CN1924897B/zh not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101504719B (zh) * | 2008-02-05 | 2011-12-14 | 索尼株式会社 | 图像处理装置和方法 |
TWI484423B (zh) * | 2009-09-25 | 2015-05-11 | Hewlett Packard Development Co | 臉部識別裝置及方法 |
CN103534725A (zh) * | 2011-05-23 | 2014-01-22 | 索尼公司 | 信息处理设备、信息处理方法和计算机程序 |
CN103179344A (zh) * | 2011-12-21 | 2013-06-26 | 佳能株式会社 | 摄像设备、信息处理设备和控制方法 |
CN103179344B (zh) * | 2011-12-21 | 2016-06-22 | 佳能株式会社 | 摄像设备、信息处理设备和控制方法 |
CN103313018A (zh) * | 2012-03-15 | 2013-09-18 | 欧姆龙株式会社 | 登记确定装置及其控制方法、以及电子装置 |
CN103313018B (zh) * | 2012-03-15 | 2016-12-28 | 欧姆龙株式会社 | 登记确定装置及其控制方法、以及电子装置 |
CN104769540A (zh) * | 2012-11-06 | 2015-07-08 | 诺基亚技术有限公司 | 用于滑动变换照片浏览的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US8249310B2 (en) | 2012-08-21 |
DE602006011990D1 (de) | 2010-03-18 |
JP2007065766A (ja) | 2007-03-15 |
CN1924897B (zh) | 2011-07-13 |
KR101217349B1 (ko) | 2012-12-31 |
EP1760635B1 (en) | 2010-01-27 |
US20070047775A1 (en) | 2007-03-01 |
EP1760635A1 (en) | 2007-03-07 |
JP4595750B2 (ja) | 2010-12-08 |
KR20070026080A (ko) | 2007-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1924897A (zh) | 图像处理装置和方法以及程序 | |
Fidler et al. | Combining reconstructive and discriminative subspace methods for robust classification and regression by subsampling | |
US8818034B2 (en) | Face recognition apparatus and methods | |
CN1273912C (zh) | 机器人装置、面容识别方法和面容识别装置 | |
CN100336070C (zh) | 复杂背景图像中的鲁棒人脸检测方法 | |
CN1196103C (zh) | 语音识别设备和方法以及记录了语音识别程序的记录媒体 | |
CN1275201C (zh) | 参数估计装置和数据匹配装置 | |
CN1794266A (zh) | 生物特征融合的身份识别和认证方法 | |
CN1818927A (zh) | 指纹识别方法与系统 | |
CN1912891A (zh) | 人脸元数据生成设备和生成方法、人脸识别系统和方法 | |
CN1811793A (zh) | 一种人脸特征点自动定位方法 | |
CN101057257A (zh) | 人脸特征点检测装置、特征点检测装置 | |
CN101038623A (zh) | 特征点检测装置、特征点检测方法及特征点检测程序 | |
CN1894703A (zh) | 模式识别方法、设备以及程序 | |
CN101055620A (zh) | 形状比较装置和方法 | |
US20090196467A1 (en) | Image processing apparatus and method, and program | |
CN1151465C (zh) | 利用候选表进行分类的模式识别设备及其方法 | |
CN1177407A (zh) | 基于速度的手写体识别方法和系统 | |
CN108898181B (zh) | 一种图像分类模型的处理方法、装置及存储介质 | |
CN1599913A (zh) | 虹膜识别系统和方法以及具有其程序的存储介质 | |
JP2008165731A (ja) | 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム | |
CN1452156A (zh) | 语音识别设备和方法以及记录了语音识别程序的记录媒体 | |
Gong et al. | Overcoming dataset bias: An unsupervised domain adaptation approach | |
CN1251130C (zh) | 多字体多字号印刷体藏文字符识别方法 | |
CN1200387C (zh) | 基于单个字符的统计笔迹鉴别和验证方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110713 Termination date: 20150829 |
|
EXPY | Termination of patent right or utility model |