JP4341135B2 - 物体認識装置 - Google Patents
物体認識装置 Download PDFInfo
- Publication number
- JP4341135B2 JP4341135B2 JP2000067248A JP2000067248A JP4341135B2 JP 4341135 B2 JP4341135 B2 JP 4341135B2 JP 2000067248 A JP2000067248 A JP 2000067248A JP 2000067248 A JP2000067248 A JP 2000067248A JP 4341135 B2 JP4341135 B2 JP 4341135B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- texture
- parameter
- dimensional
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/754—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Collating Specific Patterns (AREA)
Description
【発明の属する技術分野】
この発明は物体認識装置に関し、特に2次元の画像に含まれる物体を認識するための物体認識装置に関する。
【0002】
【従来の技術】
従来、2次元画像に含まれる物体、特に人の顔からその人が誰であるかを認識する研究がなされている。任意に得られる2次元画像に含まれる顔は、通常、正面を向いているとは限らず、上下左右の様々な方向を向いている。このように、2次元画像ごとに顔のポーズが異なると、2次元画像に含まれる顔の見え方が異なる。また、2次元画像を撮像した光源の状況の違いなどにより、顔から反射する光の量が顔の各部分で異なる場合にも、2次元画像に含まれる顔の見え方が異なる。このように、顔のポーズが変化することにより、または、撮影する際の光源の状況が変化することにより、人の顔の見え方が大きく変化する。したがって、2次元画像に含まれる人を認識する場合、単純なパターンマッチング手法では、正確に人を認識することができない。
【0003】
この課題を解決する手段として、顔画像をモデルとして表現し、入力画像からそのモデルパラメータを推定するモデルベース手法が提案されている。第1の例では顔画像の記述方法として、顔の3次元形状と顔の位置ごとの色情報(テクスチャ)とのそれぞれに対して主成分分析して得られる基底となる形状とテクスチャとの線形和で記述する方法が、崔昌石,岡崎透,原島博,式部幹、「主成分分析による顔画像の基底生成と記述」、『情報処理グラフィックスとCAD研報』、1990年8月号、vol.46,no.7、pp.43-50に記載されている。第1の記述方法によれば、顔の頭部回転の影響をなくすことができ、リアルな顔画像を合成することができる。
【0004】
第2の例では、顔画像の記述方法として、円筒座標系でのレンジデータとRGB画像データとの線形和モデルを用いて、1枚の2次元画像から3次元形状を復元する手法が、Volker Blanz et al.,“A Morphable Model For Synthesis Of 3D Faves", "SIGGRAPH 99"に記載されている。
【0005】
第3の例では、顔画像の記述方法として、顔の2次元形状と顔のテクスチャとのそれぞれに対して主成分分析して得られる基底とモデルパラメータとを用いて顔のモデル表現を行い、2次元の入力画像からモデルパラメータを推定する手法が、T.F.Coot et al., "Active Appearance Models", "In Burkhardt and Neumann, editors, Computer Vision-ECCV'98", Vol.II, Frieburg, Germany,1999 に記載されている。入力画像と推定モデルとの残差と、モデルパラメータの修正ベクトルとの関連を予め学習しておくことにより、高速な最適化を実現している。
【0006】
【発明が解決しようとする課題】
しかしながら、第1の例では、入力された顔画像から本記述方法によるパラメータを生成する方法については記述されておらず、2次元画像を入力しただけでは、それに含まれる顔画像を認識することができない。
【0007】
第2の例では、入力された2次元画像と線形和モデルとを入力画像面で残差を求めることで比較するため、顔の形状の違いが反映されにくい。従って、線形和モデルと2次元画像中の人物の形状が異なる場合であっても線形和モデルを2次元画像に投影した画像と2次元画像との残差が小さくなる場合があり、誤認識しやすいという欠点がある。また、入力された2次元画像は顔という立体の一面の情報しかないため、パラメータの初期値の推定が困難であるという欠点がある。また、最適化手法に最急勾配法を用いているため、収束するまでに時間が掛かってしまう。
【0008】
第3の例では、表現されるモデルが2次元であるため、入力される2次元画像に含まれる顔の3次元形状が考慮されない。このため、2次元画像に含まれる顔とモデルの顔の違いが、ポーズの違いによるものか否かを判別することが困難であるといった問題があった。
【0009】
この発明は上述の問題点を解決するためになされたもので、この発明の目的の1つは、2次元画像に表された物体の方向を考慮して物体を認識することが可能な物体認識装置を提供することである。
【0010】
この発明の他の目的は、2次元画像に表された物体に光源の違いによるシェーディングが表れていたとしても、物体を認識することが可能な物体認識装置を提供することである。
【0011】
【課題を解決するための手段】
上述の目的を達成するためにこの発明のある局面によれば、物体認識装置は、モデルパラメータが与えられると3次元の形状と形状の位置ごとのテクスチャとを一意に定める3次元モデル表現手段と、物体の2次元画像を入力するための入力手段と、3次元モデル表現手段により所定のモデルパラメータで定められるモデル形状に入力された2次元画像を射影して射影テクスチャを生成するための射影手段と、3次元モデル表現手段により所定のモデルパラメータで定められるモデルテクスチャと射影テクスチャとを比較するための比較手段と、比較手段による比較に応じて、所定のモデルパラメータを変更する変更手段とを備える。
【0012】
この発明に従えば、3次元モデル表現手段により所定のモデルパラメータで定められるモデル形状に2次元画像が射影されて射影テクスチャが生成される。3次元モデル表現手段により所定のモデルパラメータで定められるモデルテクスチャと射影テクスチャとが比較され、比較に応じて所定のモデルパラメータが変更される。このため、2次元画像に含まれる物体の3次元形状が考慮されるので、2次元画像に含まれる物体を正確に認識することが可能な物体認識装置を提供することができる。
【0013】
好ましくは、物体認識装置の比較手段は、射影テクスチャとモデル形状とに基づき任意の方向からの光で表されるシェーディングテクスチャを生成する生成手段と、射影テクスチャとシェーディングテクスチャとに基づき、射影テクスチャからシェーディングの影響を取除いた除去テクスチャに射影テクスチャを変換するための変換手段とを含み、変換された除去テクスチャをモデルテクスチャと比較することを特徴とする。
【0014】
この発明に従えば、射影テクスチャとモデル形状とに基づき任意の方向からの光で表されるシェーディングテクスチャが生成され、射影テクスチャとシェーディングテクスチャとに基づき、射影テクスチャからシェーディングの影響を取除いた除去テクスチャに射影テクスチャが変換される。そして、変換された除去テクスチャがモデルテクスチャと比較される。このため、2次元画像に任意の方向からの光によるシェーディングが表れていたとしても、2次元画像に含まれる物体を正確に認識することができる。
【0015】
好ましくは、物体認識装置の比較手段は、射影テクスチャとモデルテクスチャとの差分を求め、変更手段は、差分が所定の値よりも小さくなるまで所定のパラメータを変更することを特徴とする。
【0016】
この発明に従えば、射影テクスチャとモデルテクスチャとの差分が求められ、変更手段により差分が所定の値よりも小さくなるまで所定のパラメータが変更される。入力された2次元画像に含まれる物体が最適なパラメータで特定されるので、2次元画像中の物体を正確に認識することができる。
【0017】
さらに好ましくは、物体認識装置は、求められた差分と所定のパラメータの変更量との関係を学習するための学習手段をさらに備える。
【0018】
この発明に従えば、求められた差分と所定のパラメータの変更量との関係が学習されるので、所定のパラメータの変更量を容易に求めることができ、物体をさらに速く認識することができる。
【0019】
さらに好ましくは、物体認識装置の比較手段は、モデルテクスチャと射影テクスチャとを同一平面に投影して比較することを特徴とする。
【0020】
この発明に従えば、モデルテクスチャと射影テクスチャとが同一平面に投影されて比較されるので、2次元画像とモデル形状とのピッチ方向の回転姿勢のズレが容易に推定される。この結果、物体をさらに速く認識することができる。
【0021】
さらに好ましくは、射影テクスチャとモデルテクスチャとは、ベクトルで表され、比較手段は、射影テクスチャのベクトルとモデルテクスチャのベクトルとの差分ベクトルの成分のうち、所定の値を超える成分を0にすることを特徴とする。
【0022】
この発明に従えば、射影テクスチャのベクトルとモデルテクスチャのベクトルとの差分ベクトルの成分のうち、所定の値を超える成分が0にされる。このため、2次元画像中に物体の全部が含まれていない場合であっても、物体を認識することができる。
【0023】
さらに好ましくは、モデル形状は、ポリゴンモデルであることを特徴とする。
ポリゴンモデルは、複数のポリゴンで構成される。
【0024】
この発明に従えば、モデル形状がポリゴンモデルなので、取り扱うデータ数が少なくなる。このため、物体をさらに速く認識することができる。
【0025】
さらに好ましくは、モデル形状は、複数の物体の3次元形状を主成分分析して得られる基底となる複数の3次元形状の線形和で表されることを特徴とする。
【0026】
この発明に従えば、モデル形状が、複数の物体の3次元形状を主成分分析して得られる基底となる複数の3次元形状の線形和で表されるので、物体の3次元形状が統計的な性質を利用して良好に表現される。このため、物体をさらに正確に認識することができる。
【0027】
さらに好ましくは、モデルテクスチャは、複数の物体のテクスチャを主成分分析して得られる基底となる複数のテクスチャの線形和で表されることを特徴とする。
【0028】
この発明に従えば、モデルテクスチャが、複数の物体のテクスチャを主成分分析して得られる基底となる複数のテクスチャの線形和で表されるので、物体のテクスチャが統計的な性質を利用して良好に表現される。このため、物体を正確に認識することができる。
【0029】
さらに好ましくは、物体認識装置の射影手段は、モデル形状に2次元画像を正射影することを特徴とする。
【0030】
この発明に従えば、モデル形状に2次元画像が正射影されるので、2次元画像を撮影した際の撮影倍率や露出などのカメラパラメータを考慮する必要がない。このため、物体を容易に認識することができる。
【0031】
さらに好ましくは、物体認識装置の入力手段は、同一物体を含む複数の2次元画像を入力し、射影手段は、複数の2次元画像ごとにモデル形状に射影して複数の射影テクスチャを生成し、比較手段は、複数の射影テクスチャごとにモデルテクスチャと比較することを特徴とする。
【0032】
この発明に従えば、同一物を含む複数の2次元画像ごとにモデル形状に射影された複数の射影テクスチャが生成され、複数の射影テクスチャごとにモデルテクスチャと比較される。このため、モデルテクスチャと比較される2次元画像が複数なので、より正確に物体を認識することができる。
【0033】
さらに好ましくは、物体認識装置の生成手段は、異なる3つの方向からの光で表される3つのシェーディングテクスチャを生成することを特徴とする。
【0034】
この発明に従えば、異なる3つの方向からの光で表される3つのシェーディングテクスチャが生成される。このため、入力される画像の光源状況を再現することができるので、光源状況を考慮した物体を認識することができる。
【0035】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。なお、図中同一符号は同一または相当する部材を示す。
【0036】
図1は、本発明の実施の形態の1つにおける物体認識装置の概略構成を示すブロック図である。本実施の形態における物体認識装置100は、人物の顔を認識するための装置である。なお、物体は人物の顔に限られず、有体物であればどのような物体であってもよい。
【0037】
図1を参照して、本実施の形態における物体認識装置は、人物の顔の3次元の形状と濃淡情報(テクスチャ)とを入力するための3次元データ入力部12と、3次元データ入力部12が出力する3次元の形状データと濃淡情報とを記憶するための記憶部14と、記憶部14に記憶されたデータに統計処理を施すことにより3次元の形状と濃淡情報とを統合した統合モデルを生成するための統合モデル生成部16と、生成された統合モデルを記憶するための統合モデル記憶部10と、人物の顔を含む2次元画像を入力するための2次元画像入力部18と、2次元画像に含まれる顔に対応する統合モデルのパラメータをサーチするためのパラメータサーチ部30と、パラメータサーチ部30でパラメータの変換に用いる修正マトリックスを求めるための学習部20とを含む。
【0038】
3次元データ入力部12は、人物の顔の3次元形状とその人物の顔のテクスチャとを入力する。人物の顔の3次元形状とテクスチャとは、次の手順で入力される。
【0039】
(1) 標準的な顔を頂点と線で近似した顔の3次元形状モデル(ワイヤフレームモデル)を作成する。
【0040】
(2) 作成された3次元形状モデルを入力の対象となる人物の正面顔に整合させ、その人物の顔の3次元形状モデルを作成する。3次元形状モデル(ワイヤフレームモデル)は、三角形等のポリゴンで構成される。
【0041】
(3) 人物の顔の3次元形状モデルのポリゴンのパッチそれぞれに対して顔の表面を定義し、正面顔の濃淡情報を投影する。
【0042】
このようにして、投影された濃淡情報がテクスチャである。したがって、テクスチャは、3次元形状モデルにおいてそれぞれのポリゴンのパッチに対応した濃淡情報である。
【0043】
3次元データ入力部12は、3次元形状モデルとテクスチャとを1人の人物に対してそれぞれ入力し、記憶部14に記憶する。3次元データ入力部12で複数人の顔の3次元形状モデルとテクスチャとが入力され、記憶部14に記憶される。
【0044】
統合モデル生成部は、記憶部14に記憶された3次元形状モデルに主成分分析を行って次元圧縮された統計3次元形状モデルを生成する。また、記憶部14に記憶されたテクスチャに主成分分析を行なって次元圧縮された統計テクスチャモデルを生成する。そして、それぞれ次元圧縮された統計3次元形状モデルと統計テクスチャモデルとを統合して主成分分析を行い、次元圧縮された統合モデルを生成する。統合モデル生成部16で生成された統合モデルは、統合モデル記憶部10に記憶される。統合モデルの生成について後で詳細に説明する。
【0045】
2次元画像入力部18は、人物の顔を撮像して2次元の画像を入力可能である。たとえば、人物の顔を直接撮影することができるデジタルスチルカメラやデジタルビデオカメラ等が含まれる。また、人物の顔が写された写真を読取るためのイメージスキャナ等も含まれる。2次元画像入力部18が出力する2次元画像は、パラメータサーチ部30に送信される。
【0046】
パラメータサーチ部30は、2次元画像入力部18が出力する2次元画像に含まれる顔に最も近い3次元形状モデルとテクスチャとを統合モデルで作成し、統合モデルパラメータを出力する。
【0047】
学習部20は、統合モデル記憶部10に記憶されている統合モデルを用いて、パラメータサーチ部30で用いる修正マトリックスを求める。学習部20については後述する。
【0048】
次に、本実施の形態における物体認識装置100の統合モデル生成部16で行なわれる処理について説明する。統合モデル生成部16は、統計3次元モデル生成処理と統計テクスチャモデル生成処理と統合モデル生成処理とを行う。
【0049】
[統計3次元形状モデル生成処理]
顔の3次元形状モデルのポリゴンの頂点をn個とすると、3次元形状モデルは3n次元のベクトルxで表わすことができる。3次元形状モデルの座標系は、原点を頂点座標の線形計算で求められる適当な位置、たとえば重心に設定し、X軸が顔の左右方向、Y軸が顔の上下方向、Z軸が顔の正面方向となるように定めることができる。図2は、3次元形状モデルの座標系の一例を示す図である。図2に示す3次元形状モデルの座標系では、3次元形状モデルxを(1)式で表わすことができる。
【0050】
記憶部14に記憶されている3次元形状モデルのすべてを用いて主成分分析することにより、3次元形状モデルxを(2)式で近似することができる。ここで、xバーは3次元形状モデルの平均の形状を示し、以下「平均形状」という。Psは変化の正規モード(固有ベクトル)のセットを示し、bsは3次元形状パラメータのセットを示す。(2)式で表される3次元形状モデルを統計3次元形状モデルと呼ぶ。
【0051】
【数1】
【0052】
[統計テクスチャモデル生成処理]
上述したように、テクスチャは3次元形状モデルのそれぞれのポリゴンに対応した濃淡情報で定義されることを説明した。ここで、あるモデルが3次元形状モデルXとテクスチャAとで構成されているとする。テクスチャAをu−v平面にマップしたものをテクスチャ画像という。
【0053】
ここでのu−v平面はどのように定義してもよいが、本実施の形態においては、3次元形状モデルを生成することにより得られる平均形状を囲む円筒の表面で表される円柱座標とする。
【0054】
図3は、u−v平面の一例を示す図である。平均形状における各ポリゴンのu−v平面への射影は、平均形状における各ポリゴンの頂点を(3)式を用いて変換することで行なわれる。このため、平均形状の各ポリゴンは、テクスチャ画像の所定の位置に対応付けられる。
【0055】
3次元形状モデルXのポリゴンと平均形状のポリゴンとは1対1に対応している。テクスチャAに対応するテクスチャ画像は、テクスチャAを平均形状の各ポリゴンに対応付け、対応付けられたテクスチャAをu−v平面に射影することにより得られる。
【0056】
また、テクスチャ画像を3次元形状モデルXへマップすることにより、3次元形状モデルXの各ポリゴンの濃淡情報をテクスチャ画像と対応付けたモデルが作成される。テクスチャ画像の3次元形状モデルXへのマップは、テクスチャ画像を平均形状に射影し、射影された平均形状の各ポリゴンの濃淡情報を3次元形状モデルXの各ポリゴンの濃淡情報としたモデルを作成することをいう。
【0057】
ポリゴンを三角形とした場合、3つの頂点に囲まれたパッチの濃淡情報は、(4)式で示すように、3×3の変換行列によってu−v平面にワープされる。ここで、xとyは、1つのパッチ上でのテクスチャの座標を表わしている。Hの3行目のベクトルを(0,0,1)としたものは、アフィン変換と言われ、三角形のパッチの頂点座標を与えることで、Hの他の係数を求めることができる。実際のワープは、H-1を求めて、個々のu−v座標に対するx−y座標の濃淡情報を線形補間するにより求められる。
【0058】
このようにして、記憶部14に記憶されたテクスチャから求まるテクスチャ画像に対して、グレースケールのゲインとオフセットに関して(5)式を用いて正規化を行なう。ここで、αはテクスチャ画像の分散値を示し、βはテクスチャ画像の平均値を示す。また、α,βは、テクスチャ画像の平均(gバー)(以下「平均画像」という)から(6)式を用いて求めるようにしてもよい。ここで、正規化は、平均が0で分散が1になるように正規化されているものとする。
【0059】
(6)式では、nはベクトルのエレメント数を表わす。ただし、平均画像は、補正された画像の平均なので、α,βは再帰的に求められることになる。正規化されたテクスチャ画像のセットに対して、主成分分析を行なうことにより、テクスチャ画像gは(7)式で近似することができる。
【0060】
(7)式では、gバーはテクスチャ画像の平均画像のベクトルを示し、Pgは変化の正規モード(固有ベクトル)のセットを示し、bgはテクスチャパラメータのセットを示す。(7)式で表されるテクスチャ画像を統計テクスチャモデルと呼ぶ。
【0061】
【数2】
【0062】
[統合モデル生成処理]
統計3次元形状モデルと統計テクスチャモデルとの間に相関がある可能性があるので、さらに、主成分分析を適用して次元の低い統計モデルを作成する。統計3次元形状モデルと統計テクスチャモデルとを統合したベクトルを、(8)式を用いて生成する。
【0063】
(8)式において、Wsは統計3次元形状モデルと統計テクスチャモデルとの単位の違いを許容するために、それぞれのパラメータに重み付けをするための対角行列である。これらのベクトルに主成分分析を適用し、(9)式に示す統合モデルを得ることができる。
【0064】
(9)式において、Qは固有ベクトルであり、cは統計3次元形状モデルと統計テクスチャモデルとの双方をコントロールする統合モデルパラメータのベクトルとなる。統計3次元形状モデルと統計テクスチャモデルとは、統合モデルパラメータcによって(10)式を用いて復元可能である。但し、(9)式のQと(10)式のQsおよびQgとは(11)式に示す関係である。
【0065】
【数3】
【0066】
次に、本実施の形態における物体認識装置100のパラメータサーチ部30で行われるパラメータサーチ処理について説明する。
【0067】
[パラメータサーチ処理]
図4は、パラメータサーチ部30の詳細な構成を示すブロック図である。図4を参照して、パラメータサーチ部30は、統合モデルパラメータc、ポーズパラメータt、および光源パラメータuを発生または変換するためのパラメータ変換部301と、パラメータ変換部301が出力する統合モデルパラメータcに基づき統合モデルからテクスチャ画像を生成するためのテクスチャ画像生成部303と、統合モデルパラメータcに基づき統合モデルから3次元形状モデルを生成するための3次元形状モデル生成部305と、2次元画像入力部18から出力される2次元画像を3次元形状モデル生成部305で生成された3次元形状モデルに射影するための射影部307と、射影部307で射影された2次元画像の濃淡情報をu−v平面にマップすることによりテクスチャ画像を生成するためのマップ部309と、生成されたテクスチャ画像からシェーディングの影響を除去するための正規化部311と、テクスチャ画像生成部303で生成されたテクスチャ画像と正規化部311でシェーディングが除去されたテクスチャ画像とを比較するテクスチャ比較部313とを含む。
【0068】
図5は、パラメータサーチ部30で行なわれるパラメータサーチ処理の流れを示すフローチャートである。図6は、パラメータサーチ処理の流れを説明するための模式図である。図6は、右側の列にテクスチャ画像を、左側の列に3次元形状モデルをそれぞれ模式的に示している。また、図6中の符号は、図5の符号と合わせて記載されている。
【0069】
図5を参照して、パラメータサーチ処理では、まず、パラメータ変換部301でそれぞれのパラメータに初期値が入力される(ステップS01)。パラメータには、統合モデルパラメータcとポーズパラメータtと光源パラメータuとがある。
【0070】
ポーズパラメータtは、3次元形状モデルの回転変換および並進移動変換(これらをまとめてポーズ変換と言う)を行なうためのパラメータである。光源パラメータuは、テクスチャ画像からシェーディングの影響を除去するための正規化変換またはテクスチャ画像にシェーディングの影響を加える逆正規化変換を行なうためのパラメータである。ポーズ変換と正規化・逆正規化変換については後述する。
【0071】
それぞれのパラメータの初期値は、予め所定の値が設定されることが好ましいが、初期値が求まっていない場合には「0」を用いればよい。ここでは、3次元形状統計パラメータcの初期値をc0で示し、ポーズパラメータtの初期値をt0で示し、光源パラメータuの初期値をu0で示してしている。
【0072】
初期値が設定されると、ステップS02において推定モデルが作成される。推定モデルの作成は、3次元形状モデル生成部305とテクスチャ画像生成部303とで行なわれる。3次元形状モデル生成部305は、パラメータcに基づき(12)式を用いて3次元形状モデルxmを生成する。テクスチャ画像生成部303は、統合モデルパラメータcに基づき(13)式を用いてテクスチャ画像gmを生成する。生成された3次元形状モデルxmとテクスチャ画像gmとで推定モデルが構成される。
【0073】
次に、求められた3次元形状モデルに対してポーズ変換が行なわれる(ステップS03)。ポーズ変換は、3次元形状モデル生成部305で(14)式を用いて行われる。(14)式は、ポーズパラメータtを用いた3次元形状モデルxmの3次元形状モデルxへのポーズ変換を示す式である。
【0074】
ポーズ変換は、回転変換および並進変換等からなる。ポーズパラメータtは(15)式で表わされる。ここで、sはスケールを、φ,θ,Ψは回転を、tX,tY,tZは3次元形状モデルの位置の変化を表わす。
【0075】
回転変換を、ロール角φ、ピッチ角θ、ヨー角Ψの3自由度で表現すると、回転変換Dは(16)式で表わすことができる。従って、ポーズ変換Ttを斉次座標を用いて(17)式で表わすことができる。ただし、2次元画像から3次元形状モデルへの投影をz=∞の位置のカメラを想定した正射影で行なう場合には、tx=0としてよい。なお、ポーズ変換は、大きな偏差に対応するために多重解像度戦略を用いることもできる。
【0076】
そして、ポーズ変換された3次元形状モデルxに2次元画像入力部18から出力された2次元画像g1が正射影される。正射影は、射影部307において行なわれる。これにより、ポーズ変換された3次元形状モデルxのそれぞれのポリゴンに濃淡情報が付加される。この3次元形状モデルに濃淡情報が付加されたモデルを、ここでは3次元物体モデルと呼ぶことにする。
【0077】
次のステップS05では、ステップS04で求められた3次元物体モデルからテクスチャ画像gimを生成する。テクスチャ画像gimの生成は、マップ部309で行なわれる。マップ部309は、3次元物体モデルの濃淡情報をu−v平面にマップすることにより、テクスチャ画像gimを生成する。
【0078】
そして、次のステップS06では、マップ部309で生成されたテクスチャ画像gimを正規化する。テクスチャ画像の正規化は、正規化部311で(18)式を用いて行なわれる。(18)式は、光源パラメータuを用いたテクスチャ画像gimのテクスチャ画像gsへの正規化変換を示す式である。
【0079】
次のステップS07においては、テクスチャ画像生成部303で生成されたテクスチャ画像gmと正規化部311で正規化されたテクスチャ画像gsとの差分が誤差ベクトルδgとして求められる。
【0080】
ステップS04で正射影された濃淡情報からは、テクスチャ画像の一部しか得られない場合がある。また、実際に入力される2次元画像には、人物が眼鏡を掛けた状態で撮影された画像である場合もある。このような場合には、眼鏡の部分で隠れた顔画像の濃淡情報が得られない場合がある。このような場合に対応するため、ステップS07において誤差ベクトルδgの要素で一定値以上のものは「0」とする。これにより、オクリュージョンの発生に関係なく正確に最適な3次元形状線形パラメータを求めることができる。
【0081】
次に、求められた誤差ベクトルのノルムの二乗がしきい値thよりも小さいか否かが判断される(ステップS08)。しきい値thより小さくない場合にはステップS09に進む。しきい値よりも小さい場合には、ステップS02で用いた統合モデルパラメータcを、最適なパラメータとして処理を終了する。
【0082】
ステップS07とステップS08との処理は、テクスチャ比較部313で行なわれる。テクスチャ比較部313は、誤差ベクトルδgのノルムの二乗がしきい値thよりも小さくない場合には、誤差ベクトルδgをパラメータ変換部301に送信する。
【0083】
次のステップS09では、パラメータの補正量が計算される。パラメータの補正量は、誤差ベクトルδgを用いて(19)式により求められる。(19)式において、Rc、RtおよびRuは、それぞれ統合モデルパラメータcとポーズパラメータtと光源パラメータuに対応する修正マトリックスである。修正マトリックスRc、RtおよびRuについては後で説明する。
【0084】
ステップS09で求められたパラメータ補正量δc、δt、δuに基づき、各パラメータが補正される(ステップS10)。パラメータの補正は、(20)式により行なわれる。(20)式において、kは標準的には1であるが、固定の値に設定する必要はなく、繰返しサイクルの中で適切な値を選ぶことができる。
【0085】
ステップS09およびステップS10の処理は、パラメータ変換部301で行なわれる。パラメータ変換部301は、補正された各パラメータc、t、uを新たなパラメータとして出力する。
【0086】
そして、ステップS02に進み、補正された新たなパラメータを用いて、上述の処理が繰り返し行われる。
【0087】
なお、本実施の形態においては、ステップS08において、繰返しの終了判定を、誤差ベクトルδgのノルムの二乗をしきい値と比較するようにしたが、誤差が改善されなくなり、収束が確認された時点で繰返し処理を終了して処理を終了するようにしてもよい。
【0088】
【数4】
【0089】
[正規化変換]
3次元形状モデルを用いた2次元画像からのパラメータサーチ処理においては、2次元画像が光源の位置の違いによりシェーディングの影響を受けているため、シェーディングの影響を考慮したパラメータサーチを行なう必要がある。
【0090】
統合モデルを作成するために入力される濃淡情報は、無影のサンプルが入力される。このため、入力される2次元画像がシェーディングの影響を受けている場合には、シェーディングの影響を除去した無影のテクスチャ画像に変換する必要がある。3次元形状モデルとテクスチャ画像とから光源の位置と強度とを推定することができる。
【0091】
物体の表面が完全拡散面(Lambertian Surface)であると仮定すると、場所pにおける物体表面画像濃度I(p)は、(21)式で表わされる。ここで、npは、物体の表面pの反射率ベクトルを表わしている。反射率ベクトルnpの方向は場所pの法線方向であり、その長さは物体の反射率を表わす。sは、光源ベクトルを表わしている。光源ベクトルsの方向は光源の射出方向を表し、その長さは光源の強さを表す。
【0092】
光源ベクトルsは、3次元ベクトルなので、3つの基底ベクトルの和で表現することができる。(21)式を変形して(22)式を導くことができ、任意の光源位置で得られた2次元画像は、3個の位置の光源下で得られた画像の線形和で表現できる。
【0093】
完全拡散面は視線方向に無関係なので、円筒面に射影した3次元形状モデルのテクスチャ画像に対しても適用することができる。また、実際に入力される2次元画像は、主光源と環境光との2つで照らされているモデルを設定する方が実状に合っていると考えられる。そこで、ここでは場所pにおける物体表面画像濃度I(p)が、(23)式で与えられると仮定する。(23)式においてI0(p)は、拡散光のみによる画像を表わす。
【0094】
さらに、光源ベクトルsを3成分に分解すると(24)式で表わすことができる。(24)式は、入力される任意の2次元画像を、統合モデルの有する無影のテクスチャ画像およびその無影のテクスチャ画像に対して3方向の光源でシェーディングを施した3枚のシェーディング画像との合計4枚の画像の線形和で再現できることを表わしている。光源の位置を統合モデルの座標系で設定すると、3枚のシェーディング画像はモデルパラメータによって一意的に計算することができる。
【0095】
光源パラメータuを(25)式で表わす。(25)式において、光源パラメータuは、ゲインパラメータu1とオフセットパラメータu2およびシェーディング補正パラメータv1,v2,v3で表わされる。
【0096】
統合モデルのテクスチャ画像は(26)式で正規化されていると仮定する。ここで新たに、光源パラメータuを(27)式で定義すれば、逆正規化変換を(28)式で表現することができる。ここで、gd1,gd2,gd3はそれぞれ、与えられたテクスチャ画像gと3次元形状モデルxに対して3方向の光源によるシェーディングで得られた画像である。
【0097】
(29)式を満足する光源パラメータu′は(30)式で与えられる。
このように、テクスチャ画像の正規化変換または逆正規化変換においては、テクスチャ画像gと3次元形状モデルxとから求まる3つのシェーディング画像gd1,gd2,gd3を用いて、シェーディングの影響が考慮される。すなわち、テクスチャ画像gを正規化変換する場合には、シェーディングの影響が除去され、テクスチャ画像を逆正規化変換する場合にはシェーディングの影響が加えられることになる。
【0098】
また、3つのシェーディング画像gd1,gd2,gd3は、3方向からの光源でシェーディングを施した画像なので、テクスチャ画像gに対して3つのシェーディング画像の線形和を用いることにより、すべてのシェーディングの影響を考慮することができる。
【0099】
【数5】
【0100】
このように、本実施の形態における物体認識装置100においては、入力された2次元画像と3次元形状モデルおよびテクスチャとからなる3次元統計モデルとの比較を行なう場合に、テクスチャ画像を3次元形状モデルに射影して比較するので、入力された2次元画像中の物体の形状を考慮して物体を認識することができる。このため、より正確に2次元画像中の物体を認識することができる。
【0101】
入力された2次元画像と3次元形状モデルおよびテクスチャとで表わされる3次元統計モデルとを比較する場合に、一般には、入力された2次元画像面で比較が行なわれることが多い。この場合、3次元統計モデルの形状を有効に利用できないこと、また、入力された2次元画像は顔という立体の一面の情報しかないため、統合モデルにおけるパラメータサーチにおいて、パラメータの初期値の推定が困難であるという欠点がある。そこで、統合モデルの全周データを持つことができる円筒座標系のテクスチャ画像で比較することにより、入力された2次元画像中の物体を効率よく認識することができる。
【0102】
[修正マトリックス生成処理]
上述したパラメータサーチ処理で決定すべきパラメータには、統合モデルパラメータcのほかに、ポーズパラメータtおよび光源パラメータuがある。
【0103】
修正マトリックス生成処理は、モデル形状とモデルテクスチャとからなるサンプルモデルを定める統合パラメータc、姿勢変動を定めるポーズパラメータt、および、光源変動を定める光源パラメータuそれぞれの摂動ベクトルδc,δt,δuと、そのときのテクスチャ画像の誤差ベクトルδgとの関係を線形回帰して(31)式を満たす修正マトリックスRc,Rt,Ruを求める処理である。修正マトリックス生成処理は、学習部20において行われる。
【0104】
図7は、本実施の形態における物体認識装置100の学習部20の詳細な構成を示すブロック図である。図7を参照して、学習部20は、パラメータc,u,tとそれぞれの摂動ベクトルδc,δu,δtとを生成するためのパラメータ生成部201と、誤差ベクトルδgを求めるための誤差ベクトル演算部202と、パラメータ生成部201が生成したパラメータと誤差ベクトル演算部202で求められた誤差ベクトルδgとを対応付けて記憶するためのサンプルデータ記憶部213と、サンプルデータ記憶部213に記憶されたパラメータと誤差ベクトルとを用いて修正マトリックスRc,Rt,Ruを求めるための修正マトリックス演算部215とを含む。
【0105】
誤差ベクトル演算部202は、パラメータ生成部201が生成した統合パラメータcと摂動ベクトルδcとに基づき、統合モデル記憶部10に記憶されている統合モデルからモデル形状または想定モデル形状を生成するための3次元形状モデル生成部203と、統合モデル記憶部10に記憶されている統合モデルからモデルテクスチャ画像または想定モデルテクスチャ画像を生成するためのテクスチャ画像生成部204と、3次元形状モデルにマップされたテクスチャ画像を円筒面で表わされるu−v平面に射影するための射影部205と、テクスチャ画像にシェーディングの影響を付加する逆正規化変換を行うための逆正規化部207と、テクスチャ画像からシェーディングの影響を除去する正規化変換を行なうための正規化部209と、2つのテクスチャ画像を比較するためのテクスチャ比較部211とを含む。
【0106】
図8は、学習部20で行なわれる残差算出処理の流れを示すフローチャートである。図9は、残差算出処理の流れを模式的に示した図である。図9の右列はテクスチャ画像を示し、左列は3次元形状モデルおよびそれにテクスチャ画像がマップまたは射影された3次元形状モデルを示す。
【0107】
図8および図9を参照して、残差算出処理は、まず、パラメータの入力が行なわれる(ステップS21)。ここで入力されるパラメータは、統合モデルパラメータcとその摂動ベクトルδc、ポーズパラメータtとその摂動ベクトルδt、および、光源パラメータuとその摂動ベクトルδuである。これらのパラメータは、物体認識装置100に設けられたキーボード等の入力部から操作者が任意に入力するようにしてもよいし、学習部20のパラメータ生成部201で自動的に生成させるようにしてもよい。
【0108】
そして、統合パラメータcを用いてモデル形状とモデルテクスチャ画像とが作成される(ステップS22)。3次元形状モデル生成部203は、パラメータ生成部201が生成する統合モデルパラメータcとその摂動ベクトルδcとを用いて、統合モデル記憶部10に記憶されている統合モデルに基づいて3次元形状モデルを生成する。統合モデルパラメータ(c+δc)に基づき生成された3次元形状モデルがモデル形状xmである。
【0109】
テクスチャ画像生成部204は、パラメータ生成部201が生成する統合モデルパラメータcとその摂動ベクトルδcとを用いて、統合モデル記憶部10に記憶されている統合モデルに基づいてテクスチャ画像を生成する。統合モデルパラメータ(c+δc)に基づき生成されたテクスチャ画像がモデルテクスチャ画像gmである。モデル形状xmは(32)式で、モデルテクスチャ画像gmは(33)式で定められる。
【0110】
次に、モデル形状xmのポーズ変換が行なわれる(ステップS23)。3次元形状モデル生成部203は、パラメータ生成部201が生成するポーズパラメータtとその摂動ベクトルδtとを用いて、先に生成したモデル形状xmに対して、(34)式によりポーズ変換を行う。(34)式は、ポーズパラメータ(t+δt)を用いた3次元形状モデルxmの3次元形状モデルxへのポーズ変換を示す式である。
【0111】
次に、想定モデル形状と想定モデルテクスチャとが作成される(ステップS24)。3次元形状モデル生成部203は、パラメータ生成部201が生成する統合モデルパラメータcを用いて、統合モデル記憶部10に記憶されている統合モデルに基づいて3次元形状モデルを生成する。統合モデルパラメータcを用いて生成された3次元形状モデルが想定モデル形状x0である。
【0112】
テクスチャ画像生成部204はパラメータ生成部201が生成する統合パラメータcを用いて統合モデル記憶部10に記憶されている統合モデルに基づいてテクスチャ画像を生成する。統合モデルパラメータcを用いて生成されたテクスチャ画像が想定モデルテクスチャ画像g0である。
【0113】
想定モデル形状x0と想定モデルテクスチャg0とは、本来のモデルに該当する。想定モデル形状x0は(35)式で、想定モデルテクスチャ画像g0は(36)式で定められる。
【0114】
次に、想定モデル形状x0に対してポーズパラメータtを用いたポーズ変換が行なわれる(ステップS25)。3次元形状モデル生成部203は、パラメータ生成部201が生成するポーズパラメータtを用いて、(37)式に基づき先に求めた想定モデル形状x0にポーズ変換を行なう。ポーズ変換後の想定モデル形状をx1とすると、ポーズパラメータtを用いたポーズ変換は、(37)式で表わすことができる。
【0115】
次に、ステップS24で求められた想定モデルテクスチャ画像g0をステップS25で求められたポーズ変換後の想定モデル形状x1にマップする(ステップS26)。これにより、想定モデル形状x1の各ポリゴンに濃淡情報が付加される。付加された濃淡情報は、テクスチャである。
【0116】
そして、ステップS26でマップされたテクスチャを円筒座標系に射影する(ステップS27)。射影部205は、3次元形状モデル生成部203で生成およびポーズ変換された想定モデル形状x1にマップされた想定モデルテクスチャg0を、円筒座標系に射影する。これにより、円筒座標系に濃淡情報が射影され、u−v平面にテクスチャ画像g0′が形成される。
【0117】
なお、ステップS26とステップS27との処理は、ステップS24で作成された想定モデルテクスチャ画像g0をワーピングする処理に置換えることができる。
【0118】
次のステップS28では、ステップS27で求められたテクスチャ画像g0′に対して、光源パラメータuを用いて逆正規化変換が行なわれる。逆正規化部207は、テクスチャ画像g0′に対して、パラメータ生成部201が生成する光源パラメータuを用いて、シェーディングの影響を付加する逆正規化変換を行なう。逆正規化変換Tuは、逆正規化変換されたテクスチャ画像をg1とすると、(38)式で表わされる。
【0119】
次のステップS29では、ステップS23でポーズ変換されたモデル形状xに、ステップS28で逆正規化変換されたテクスチャ画像g1を射影する。射影は、射影部205により行なわれる。射影部205は、3次元形状モデルxにテクスチャ画像g1を射影する。したがって、3次元形状とテクスチャ画像とがずれて射影されることになる。
【0120】
ステップS30では、ステップS29で射影された想定モデルテクスチャg1をu−v平面にマップする。これにより、テクスチャ画像gimが生成される。そして、生成されたテクスチャ画像gimからシェーディングを除去するための正規化変換が行なわれる(ステップS31)。
【0121】
正規化部209では、テクスチャ画像gimに対して、パラメータ生成部201が生成する光源パラメータuとその摂動ベクトルδuとを用いて、テクスチャ画像gimからシェーディングの影響を除去する正規化変換を行なう。正規化されたテクスチャ画像をgsとすると、光源パラメータをu+δuとした正規化変換は、(39)式で表わされる。
【0122】
次のステップS32では、ステップS22で求められたモデルテクスチャ画像gmとステップS31で正規化変換されたテクスチャ画像gsとのグレーレベルの残差が求められる。テクスチャ比較部211は、モデルテクスチャ画像gmとテクスチャ画像gsとのグレーレベルの残差δgを求める。残差δgは(40)式で表わされる。
【0123】
このようにして、パラメータ生成部201が生成するパラメータに応じて、グレーレベルの残差δgが求められる。パラメータ生成部201で複数のパラメータを生成し、それぞれのパラメータに対して残差δgが求められる。そして、求められた残差δgがパラメータに対応付けられてサンプルデータ記憶部213に記憶される。
【0124】
修正マトリックス演算部215では、サンプルデータ記憶部213に記憶された、各パラメータに対する摂動ベクトルδc,δt,δuとそれぞれに対応して求められた残差δgとの多数の組を、多重回帰を用いて修正マトリックスを求める。修正マトリックスをRc,Rt,Ruとすると、(41)式を用いて修正マトリックスを求めることができる。ここで、Cはδci(i=1,…,s)を列方向に並べたマトリックスである。Xはδgi(i=1,…,s)を列方向に並べたマトリックスである。ただし、sはサンプル数である。
【0125】
このようにして、修正マトリックス演算部215で、修正マトリックスRc,Rt,Ruを求めることで、これらの修正マトリックスがパラメータサーチ部30のパラメータ変換部301に送られる。このため、パラメータサーチ部30では、パラメータ変換部で変換すべきパラメータが、テクスチャ比較部313で求められた誤差ベクトルδgに応じて変換されるので、より速く統合モデルパラメータで定まる統合モデルを入力された2次元画像中の物体に近付けることができる。これにより、物体を速く認識することができる。
【0126】
次に、2次元画像入力部18で、同一人物を異なる角度で撮影されたN枚の2次元画像が入力された場合について説明する。図4に示したパラメータサーチ処理において、ステップS04で正射影される2次元画像がN枚となる。これらの画像をgi(i=1,…,N)で表わすと、ステップS04〜ステップS07までの処理が、入力された2次元画像gi毎に行なわれることになる。
【0127】
この結果、ステップS07で求められる誤差ベクトルが、入力される2次元画像gi毎に求められることになる。ここで、入力された2次元画像giに対応する誤差ベクトルをδgiとすると、ステップS08においては、求められた誤差ベクトルδgiのノルムの二乗和を所定のしきい値と比較するようにすればよい。誤差ベクトルδgiのノルムの二乗和Eは、(42)式で表される。
【0128】
そして、次のステップS09では、統合モデルパラメータcの摂動ベクトルδcとポーズパラメータtの摂動ベクトルδtと光源パラメータuの摂動ベクトルδuとが、入力された2次元画像gi毎にN個求められる。
【0129】
そして、ステップS10において、それぞれのパラメータc,t,uとが、N個の摂動ベクトルδci,δti,δui(i=1,…,N)とに基づき修正される。このとき用いられるパラメータの補正式は、(43)式で表わされる。これにより、補正されたパラメータは、統合モデルパラメータcが1つであり、ポーズパラメータがt1〜tNのN個であり、光源パラメータがu1〜uNのN個である。
【0130】
【数6】
【0131】
このように、N枚の2次元画像を入力するようにすれば、入力される2次元画像が増えるので、より正確に統合モデルパラメータcを求めることができ、物体を正確に認識することができる。
【0132】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【図面の簡単な説明】
【図1】 本発明の実施の形態における物体認識装置の概略構成を示すブロック図である。
【図2】 3次元形状モデルの座標系を示す図である。
【図3】 テクスチャ画像が表わされるu−v平面を示す図である。
【図4】 本実施の形態における物体認識装置100のパラメータサーチ部30の詳細な構成を示すブロック図である。
【図5】 本実施の形態における物体認識装置100のパラメータサーチ部30で行われるパラメータサーチ処理の流れを示すフローチャートである。
【図6】 パラメータサーチ処理を説明するための模式図である。
【図7】 本実施の形態における物体認識装置100の学習部20の詳細な構成を示すブロック図である。
【図8】 本実施の形態における物体認識装置100の学習部20で行なわれる残差算出処理の流れを示すフローチャートである。
【図9】 残差算出処理の流れを説明するための模式図である。
【符号の説明】
10 統合モデル記憶部、12 3次元データ入力部、14 記憶部、16 統合モデル生成部、18 2次元画像入力部、20 学習部、30 パラメータサーチ部、201 パラメータ生成部、202 誤差ベクトル演算部、203 3次元形状生成部、204 テクスチャ画像生成部、205 射影部、207 逆正規化部、209 正規化部、211 テクスチャ比較部、213 サンプルデータ記憶部、215 修正マトリックス演算部、301 パラメータ変換部、303 テクスチャ画像生成部、305 3次元形状モデル生成部、307 射影部、309 マップ部、311 正規化部、313 テクスチャ比較部。
Claims (12)
- モデルパラメータが与えられると3次元の形状と前記形状の位置ごとのテクスチャとを一意に定める3次元モデル表現手段と、
物体の2次元画像を入力するための入力手段と、
前記3次元モデル表現手段により所定のモデルパラメータで定められるモデル形状に前記入力された2次元画像を射影して射影テクスチャを生成するための射影手段と、
前記3次元モデル表現手段により前記所定のモデルパラメータで定められるモデルテクスチャと前記射影テクスチャとを比較するための比較手段と、
前記比較手段による比較に応じて、前記所定のモデルパラメータを変更する変更手段とを備えた、物体認識装置。 - 前記比較手段は、前記射影テクスチャと前記モデル形状とに基づき任意の方向からの光で表されるシェーディングテクスチャを生成する生成手段と、
前記射影テクスチャと前記シェーディングテクスチャとに基づき、前記射影テクスチャからシェーディングの影響を取除いた除去テクスチャに前記射影テクスチャを変換するための変換手段とを含み、
前記変換された除去テクスチャを前記モデルテクスチャと比較することを特徴とする、請求項1に記載の物体認識装置。 - 前記比較手段は、前記射影テクスチャと前記モデルテクスチャとの差分を求め、
前記変更手段は、前記差分が所定の値よりも小さくなるまで前記所定のパラメータを変更することを特徴とする、請求項1に記載の物体認識装置。 - 前記求められた差分と前記所定のパラメータの変更量との関係を学習するための学習手段をさらに備えた、請求項3に記載の物体認識装置。
- 前記比較手段は、前記モデルテクスチャと前記射影テクスチャとを同一平面に投影して比較することを特徴とする、請求項1に記載の物体認識装置。
- 前記射影テクスチャと前記モデルテクスチャとは、ベクトルで表され、
前記比較手段は、前記射影テクスチャのベクトルと前記モデルテクスチャのベクトルとの差分ベクトルの成分のうち、所定の値を超える成分を0にすることを特徴とする、請求項3に記載の物体認識装置。 - 前記モデル形状は、ポリゴンモデルであることを特徴とする、請求項1に記載の物体認識装置。
- 前記モデル形状は、複数の物体の3次元形状を主成分分析して得られる基底となる複数の3次元形状の線形和で表されることを特徴とする、請求項1に記載の物体認識装置。
- 前記モデルテクスチャは、複数の物体のテクスチャを主成分分析して得られる基底となる複数のテクスチャの線形和で表されることを特徴とする、請求項1に記載の物体認識装置。
- 前記射影手段は、前記モデル形状に前記2次元画像を正射影することを特徴とする、請求項1に記載の物体認識装置。
- 前記入力手段は、同一物体を含む複数の2次元画像を入力し、
前記射影手段は、前記複数の2次元画像ごとに前記モデル形状に射影して複数の射影テクスチャを生成し、
前記比較手段は、前記複数の射影テクスチャごとに前記モデルテクスチャと比較することを特徴とする、請求項1に記載の物体認識装置。 - 前記生成手段は、異なる3つの方向からの光で表される3つのシェーディングテクスチャを生成することを特徴とする、請求項2に記載の物体認識装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000067248A JP4341135B2 (ja) | 2000-03-10 | 2000-03-10 | 物体認識装置 |
US09/798,968 US7583271B2 (en) | 2000-03-10 | 2001-03-06 | Method and apparatus for data processing recognizing an object represented as two-dimensional image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000067248A JP4341135B2 (ja) | 2000-03-10 | 2000-03-10 | 物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001256483A JP2001256483A (ja) | 2001-09-21 |
JP4341135B2 true JP4341135B2 (ja) | 2009-10-07 |
Family
ID=18586477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000067248A Expired - Fee Related JP4341135B2 (ja) | 2000-03-10 | 2000-03-10 | 物体認識装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7583271B2 (ja) |
JP (1) | JP4341135B2 (ja) |
Families Citing this family (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7657083B2 (en) * | 2000-03-08 | 2010-02-02 | Cyberextruder.Com, Inc. | System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images |
GB0114271D0 (en) * | 2001-06-12 | 2001-08-01 | Univ Manchester | Parameterisation |
JP2003324055A (ja) * | 2002-04-30 | 2003-11-14 | Canon Inc | 管理システム及び装置及び方法並びに露光装置及びその制御方法 |
US7069104B2 (en) * | 2002-04-30 | 2006-06-27 | Canon Kabushiki Kaisha | Management system, management apparatus, management method, and device manufacturing method |
JP4018438B2 (ja) | 2002-04-30 | 2007-12-05 | キヤノン株式会社 | 半導体露光装置を管理する管理システム |
CN1669052B (zh) * | 2002-07-10 | 2010-05-26 | 日本电气株式会社 | 使用三维物体模型的图像匹配系统以及图像匹配方法 |
JP2004151979A (ja) * | 2002-10-30 | 2004-05-27 | Olympus Corp | 電子カタログ用索引自動作成システム |
JP2004164503A (ja) * | 2002-11-15 | 2004-06-10 | Olympus Corp | 三次元モデル検索方法、三次元モデル検索装置、三次元モデル検索プログラム、及び三次元モデル検索システム |
EP1599830A1 (en) * | 2003-03-06 | 2005-11-30 | Animetrics, Inc. | Generation of image databases for multifeatured objects |
US20050111705A1 (en) * | 2003-08-26 | 2005-05-26 | Roman Waupotitsch | Passive stereo sensing for 3D facial shape biometrics |
JP2005100367A (ja) * | 2003-09-02 | 2005-04-14 | Fuji Photo Film Co Ltd | 画像生成装置、画像生成方法、及び画像生成プログラム |
KR100816607B1 (ko) * | 2003-10-21 | 2008-03-24 | 닛본 덴끼 가부시끼가이샤 | 화상 대조 시스템, 화상 대조 방법 및 컴퓨터로 판독가능한 기록 매체 |
WO2006078265A2 (en) * | 2004-03-30 | 2006-07-27 | Geometrix | Efficient classification of three dimensional face models for human identification and other applications |
US7969447B2 (en) * | 2004-05-06 | 2011-06-28 | Pixar | Dynamic wrinkle mapping |
SE528068C2 (sv) * | 2004-08-19 | 2006-08-22 | Jan Erik Solem Med Jsolutions | Igenkänning av 3D föremål |
EP1810216B1 (en) * | 2004-08-19 | 2012-03-28 | Apple Inc. | 3d object recognition |
WO2006058292A2 (en) * | 2004-11-29 | 2006-06-01 | Purdue Research Foundation | Methods for retrieving shapes and drawings |
US20060227140A1 (en) * | 2005-03-21 | 2006-10-12 | Karthik Ramani | Sketch beautification |
US7660468B2 (en) * | 2005-05-09 | 2010-02-09 | Like.Com | System and method for enabling image searching using manual enrichment, classification, and/or segmentation |
US8732025B2 (en) | 2005-05-09 | 2014-05-20 | Google Inc. | System and method for enabling image recognition and searching of remote content on display |
US7945099B2 (en) | 2005-05-09 | 2011-05-17 | Like.Com | System and method for use of images with recognition analysis |
US7657126B2 (en) | 2005-05-09 | 2010-02-02 | Like.Com | System and method for search portions of objects in images and features thereof |
US7783135B2 (en) * | 2005-05-09 | 2010-08-24 | Like.Com | System and method for providing objectified image renderings using recognition information from images |
US7760917B2 (en) | 2005-05-09 | 2010-07-20 | Like.Com | Computer-implemented method for performing similarity searches |
US20080177640A1 (en) | 2005-05-09 | 2008-07-24 | Salih Burak Gokturk | System and method for using image analysis and search in e-commerce |
US7519200B2 (en) * | 2005-05-09 | 2009-04-14 | Like.Com | System and method for enabling the use of captured images through recognition |
KR100913173B1 (ko) * | 2005-07-05 | 2009-08-19 | 삼성모바일디스플레이주식회사 | 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치 |
KR100932977B1 (ko) * | 2005-07-05 | 2009-12-21 | 삼성모바일디스플레이주식회사 | 입체 영상 표시 장치 |
EP1750460A1 (en) * | 2005-08-05 | 2007-02-07 | Samsung SDI Co., Ltd. | 3D graphics processor and autostereoscopic display device using the same |
JP4956983B2 (ja) * | 2005-12-14 | 2012-06-20 | コニカミノルタホールディングス株式会社 | 認証システム、認証方法およびプログラム |
US7856125B2 (en) * | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
US7646894B2 (en) * | 2006-02-14 | 2010-01-12 | Microsoft Corporation | Bayesian competitive model integrated with a generative classifier for unspecific person verification |
US9690979B2 (en) | 2006-03-12 | 2017-06-27 | Google Inc. | Techniques for enabling or establishing the use of face recognition algorithms |
US8571272B2 (en) * | 2006-03-12 | 2013-10-29 | Google Inc. | Techniques for enabling or establishing the use of face recognition algorithms |
JP4362489B2 (ja) * | 2006-03-29 | 2009-11-11 | 日本電気株式会社 | 3次元顔データ登録システム、3次元顔データ登録方法、及び登録処理プログラム |
US8233702B2 (en) * | 2006-08-18 | 2012-07-31 | Google Inc. | Computer implemented technique for analyzing images |
US7844105B2 (en) | 2007-04-23 | 2010-11-30 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining objects poses from range images |
US8416981B2 (en) | 2007-07-29 | 2013-04-09 | Google Inc. | System and method for displaying contextual supplemental content based on image content |
JP4946730B2 (ja) * | 2007-08-27 | 2012-06-06 | ソニー株式会社 | 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム |
ATE452379T1 (de) * | 2007-10-11 | 2010-01-15 | Mvtec Software Gmbh | System und verfahren zur 3d-objekterkennung |
US20090153552A1 (en) * | 2007-11-20 | 2009-06-18 | Big Stage Entertainment, Inc. | Systems and methods for generating individualized 3d head models |
GB0811942D0 (en) * | 2008-07-01 | 2008-07-30 | Airbus Uk Ltd | Method of designing a structure |
AU2009270946A1 (en) * | 2008-07-14 | 2010-01-21 | Google Inc. | System and method for using supplemental content items for search criteria for identifying other content items of interest |
US8194097B2 (en) * | 2008-12-12 | 2012-06-05 | Seiko Epson Corporation | Virtual masking using rigid parametric modeling |
US20100313141A1 (en) * | 2009-06-03 | 2010-12-09 | Tianli Yu | System and Method for Learning User Genres and Styles and for Matching Products to User Preferences |
US8355541B2 (en) * | 2009-07-14 | 2013-01-15 | Empire Technology Development Llc | Texture sensing |
EP2385483B1 (en) | 2010-05-07 | 2012-11-21 | MVTec Software GmbH | Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform |
CN102609550B (zh) * | 2011-01-19 | 2015-11-25 | 鸿富锦精密工业(深圳)有限公司 | 产品三维模型自动摆正系统及方法 |
DE102011004787A1 (de) * | 2011-02-25 | 2012-08-30 | Bundesdruckerei Gmbh | Identifikationsvorrichtung und Identifikationsausweis |
JP2013048717A (ja) * | 2011-08-31 | 2013-03-14 | Sony Corp | 画像処理装置及び方法、記録媒体、並びにプログラム |
US10368010B2 (en) | 2012-07-31 | 2019-07-30 | Nec Corporation | Image processing system, image processing method, and program |
EP2851868A1 (en) * | 2013-09-20 | 2015-03-25 | ETH Zurich | 3D Reconstruction |
US9460520B2 (en) | 2014-02-24 | 2016-10-04 | Vricon Systems Ab | Method and arrangement for identifying a difference between a first 3D model of an environment and a second 3D model of the environment |
KR101997500B1 (ko) | 2014-11-25 | 2019-07-08 | 삼성전자주식회사 | 개인화된 3d 얼굴 모델 생성 방법 및 장치 |
JP6040215B2 (ja) * | 2014-12-25 | 2016-12-07 | 株式会社日立製作所 | 検査方法 |
CN107408290A (zh) * | 2015-07-09 | 2017-11-28 | 瑞穗情报综研株式会社 | 增龄化预测系统、增龄化预测方法以及增龄化预测程序 |
US9868212B1 (en) * | 2016-02-18 | 2018-01-16 | X Development Llc | Methods and apparatus for determining the pose of an object based on point cloud data |
US10586379B2 (en) | 2017-03-08 | 2020-03-10 | Ebay Inc. | Integration of 3D models |
US10628997B2 (en) | 2017-08-24 | 2020-04-21 | Emilio Santos | Method for generating three-dimensional models from constrained sketches and an instruction set |
US10289899B2 (en) * | 2017-08-31 | 2019-05-14 | Banuba Limited | Computer-implemented methods and computer systems for real-time detection of human's emotions from visual recordings |
US11727656B2 (en) | 2018-06-12 | 2023-08-15 | Ebay Inc. | Reconstruction of 3D model with immersive experience |
CN111046704B (zh) * | 2018-10-12 | 2023-05-09 | 杭州海康威视数字技术股份有限公司 | 存储身份识别信息的方法和装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5345490A (en) * | 1991-06-28 | 1994-09-06 | General Electric Company | Method and apparatus for converting computed tomography (CT) data into finite element models |
JPH0814860A (ja) | 1994-06-30 | 1996-01-19 | Toshiba Corp | モデル作成装置 |
JP3347508B2 (ja) * | 1995-02-24 | 2002-11-20 | キヤノン株式会社 | 撮像画像処理装置および撮像画像処理方法 |
GB9515311D0 (en) * | 1995-07-26 | 1995-09-20 | 3D Scanners Ltd | Stripe scanners and methods of scanning |
US6064393A (en) * | 1995-08-04 | 2000-05-16 | Microsoft Corporation | Method for measuring the fidelity of warped image layer approximations in a real-time graphics rendering pipeline |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
JP3807796B2 (ja) * | 1996-10-04 | 2006-08-09 | 本田技研工業株式会社 | 3次元cadシステム及び画像データ変換方法 |
US5990900A (en) * | 1997-12-24 | 1999-11-23 | Be There Now, Inc. | Two-dimensional to three-dimensional image converting system |
EP1039417B1 (en) * | 1999-03-19 | 2006-12-20 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | Method and device for the processing of images based on morphable models |
US6768928B1 (en) * | 1999-05-20 | 2004-07-27 | Olympus Optical Co., Ltd. | Mechanism component design support system |
-
2000
- 2000-03-10 JP JP2000067248A patent/JP4341135B2/ja not_active Expired - Fee Related
-
2001
- 2001-03-06 US US09/798,968 patent/US7583271B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001256483A (ja) | 2001-09-21 |
US7583271B2 (en) | 2009-09-01 |
US20010020946A1 (en) | 2001-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4341135B2 (ja) | 物体認識装置 | |
Guenter et al. | Making faces | |
Jones et al. | Multidimensional morphable models: A framework for representing and matching object classes | |
JP4553141B2 (ja) | 重み情報を用いた物体姿勢推定・照合システム | |
US6167151A (en) | Apparatus and method for 3-dimensional surface geometry reconstruction | |
JP6074272B2 (ja) | 画像処理装置および画像処理方法 | |
JP5554260B2 (ja) | 物体クラスからの物体の新たな画像を合成するための方法 | |
CN111951384B (zh) | 一种基于单张人脸图片的三维人脸重建方法和系统 | |
CN113012293A (zh) | 石刻模型构建方法、装置、设备及存储介质 | |
JP2006520055A (ja) | 2次元画像からの3次元オブジェクトの不変視点検出および識別 | |
US8817037B2 (en) | Reconstructing three dimensional oil paintings | |
JP4284664B2 (ja) | 三次元形状推定システム及び画像生成システム | |
KR20090092473A (ko) | 3차원 변형 가능 형상 모델에 기반한 3차원 얼굴 모델링방법 | |
CN114842136A (zh) | 一种基于可微分渲染器的单图三维人脸重建方法 | |
Hong et al. | A 3D model-based approach for fitting masks to faces in the wild | |
Fua | Face models from uncalibrated video sequences | |
Jeong et al. | Automatic generation of subdivision surface head models from point cloud data | |
JP4141090B2 (ja) | 画像認識装置、陰影除去装置、陰影除去方法及び記録媒体 | |
JP2001273495A (ja) | 物体認識装置 | |
Taheri et al. | Joint albedo estimation and pose tracking from video | |
KR102559691B1 (ko) | 뉴럴 렌더링 기반 형상 색상 통합 3d 메시 복원 방법 및 장치 | |
GB2342026A (en) | Graphics and image processing system | |
CN111611997B (zh) | 一种基于人体动作迁移的卡通定制形象运动视频生成方法 | |
JP2004021373A (ja) | 物体及び光源情報推定方法並びに物体及び光源情報推定装置 | |
JP4816874B2 (ja) | パラメータ学習装置、パラメータ学習方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050613 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090616 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090629 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120717 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130717 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |