JP7386888B2 - 画面上の話者のフューショット合成 - Google Patents
画面上の話者のフューショット合成 Download PDFInfo
- Publication number
- JP7386888B2 JP7386888B2 JP2021558681A JP2021558681A JP7386888B2 JP 7386888 B2 JP7386888 B2 JP 7386888B2 JP 2021558681 A JP2021558681 A JP 2021558681A JP 2021558681 A JP2021558681 A JP 2021558681A JP 7386888 B2 JP7386888 B2 JP 7386888B2
- Authority
- JP
- Japan
- Prior art keywords
- texture
- neural
- user
- image
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000203 mixture Substances 0.000 title description 2
- 230000001537 neural effect Effects 0.000 claims description 196
- 238000000034 method Methods 0.000 claims description 95
- 230000015654 memory Effects 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 37
- 239000013598 vector Substances 0.000 claims description 35
- 239000002131 composite material Substances 0.000 claims description 27
- 210000004209 hair Anatomy 0.000 claims description 20
- 238000005070 sampling Methods 0.000 claims description 11
- 230000004931 aggregating effect Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 description 33
- 210000003128 head Anatomy 0.000 description 29
- 210000005010 torso Anatomy 0.000 description 28
- 238000013528 artificial neural network Methods 0.000 description 27
- 238000009877 rendering Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 240000007320 Pinus strobus Species 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000010408 film Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Description
本出願は、2020年10月8日に出願された、「画面上の話者のフューショット合成(FEW-SHOT SYNTHESIS OF TALKING HEADS」という名称を有する米国仮出願番号第63/198,287号の利益を主張しており、その開示は、その全文が参照により本明細書において援用される。
本記載は一般に、提示のためのコンテンツを合成する際に使用される方法、デバイス、およびアルゴリズムに関する。
ディープインバースレンダリング(deep inverse rendering)は一般に、空間的に変動する外観を有する潜在埋込空間における外観パラメータの最適化を含む。ディープインバースレンダリングは、対象の外観をモデリングするためのニューラルネットワークの使用を含み得る。このようなニューラルネットワークを用いて、潜在埋込空間が学習され得る。潜在空間は、低次元対象表現が得られる空間を表し得る。このような空間を埋め込むことは、低次元データがオリジナルのより高次元の画像空間にマッピングされる態様を表す。
1つ以上のコンピュータのシステムは、動作において、システムにアクションを行わせるソフトウェア、ファームウェア、ハードウェア、または、それらの組み合わせがシステムにインストールされていることによって、特定の動作またはアクションを実行するように構成され得る。1つ以上のコンピュータプログラムは、データ処理装置によって実行されると、当該装置にアクションを実行させる命令を含むことによって、特定の動作またはアクションを実行するように構成され得る。
詳細な説明
一般に、本文書は、画像コンテンツの新規な(たとえば、見られていない)ビューをモデリングすることに関係する例を記載する。たとえば、本文書は、相対的に少ない入力画像を使用して画面上の話者(talking heads)(たとえば、ユーザの頭および/または胴体)の新規なビューをモデリングすることに関する例を含む。画面上の話者は一般に、頭、首および/または胴体の1つ以上の部分を有するビューを含み得る。本明細書において使用されるように、新規な(たとえば、見られていない)ビューは、カメラでキャプチャされた画像コンテンツおよび/またはビデオコンテンツの1つ以上のフレームに基づいて解釈(たとえば、合成、補間、モデリングなど)された画像コンテンツおよび/またはビデオコンテンツを含んでもよい。カメラでキャプチャされた画像コンテンツおよび/またはビデオコンテンツの解釈は、たとえば、キャプチャされた画像コンテンツおよび/またはビデオコンテンツの見られていないバージョンおよびビュー(たとえば、ポーズ、表情、角度など)を作成するよう、本明細書において記載される技術と組み合わせて使用されてもよい。
特徴抽出器ネットワーク226は、k個のショット入力の各々を入力画像x1...kと同じ解像度のジオメトリを意識した(geometry-aware)特徴空間に投射し得る。
Claims (20)
- 動作を実行するよう、少なくとも1つの処理デバイスを有する画像処理システムを利用する、コンピュータによって実現される方法であって、
前記動作は、
ユーザの複数の入力画像を受信することと、
前記複数の入力画像から抽出された特徴の第1のセットと、前記複数の入力画像から抽出された特徴の第2のセットとに基づいて、3次元メッシュプロキシを生成することとを含み、前記3次元メッシュプロキシは、顔メッシュプロキシおよび平面プロキシを含み、
前記動作はさらに、
前記3次元メッシュプロキシおよび前記複数の入力画像に基づいて、ニューラルテクスチャを生成することと、
前記3次元メッシュプロキシおよび前記ニューラルテクスチャに少なくとも部分的に基づいて、前記ユーザの表現を生成することと、
前記ユーザの前記表現を使用して、前記3次元メッシュプロキシから、前記ニューラルテクスチャの少なくとも1つの部分をサンプリングすることと、
サンプリングされた前記少なくとも1つの部分をニューラルレンダラに提供することに応答して、前記画像処理システムによって以前に見られていない前記ユーザの合成画像を前記ニューラルレンダラから受信することとを含む、方法。 - 抽出された特徴の前記第1のセットは、前記ユーザの顔を表す特徴を含み、
抽出された特徴の前記第2のセットは、前記ユーザの髪および胴体の部分を表す特徴を含む、請求項1に記載の方法。 - 前記ニューラルテクスチャは、前記複数の入力画像を使用して生成される学習済ニューラルテクスチャであり、前記複数の入力画像は、前記ユーザの4つ未満のキャプチャされた画像フレームを含む、請求項1または2に記載の方法。
- 前記ニューラルテクスチャを生成することは、
各入力画像について潜在表現を生成することと、
各入力画像について生成された前記表現をベクトルに集約することと、
テクスチャジェネレータネットワークに前記ベクトルを提供することと、
前記テクスチャジェネレータネットワークから、前記ユーザを表す前記ニューラルテクスチャを受信することとを含む、請求項1~3のいずれか1項に記載の方法。 - 前記ニューラルテクスチャを生成することは、
前記入力画像に関連付けられる深度画像およびUVマップに基づいて、抽出された特徴の前記第1のセットおよび特徴の前記第2のセットを、ジオメトリを意識した特徴空間に投射することを含み、前記投射することは、前記複数の入力画像のマッチされた解像度を有する画像のセットを生成することを含み、
前記ニューラルテクスチャを生成することは、
各入力画像についてテクスチャを生成するよう、画像の前記セットをUV空間にワーピングすることと、
各テクスチャについて、対応する入力画像における可視性メトリックを示すテクスチャ空間における各点についてのスコアマップを生成することと、
各入力画像についてアテンションウエイトを生成するよう、各スコアマップにソフトマックス演算を適用することと、
前記アテンションウエイトに従って決定される加重平均に従って前記テクスチャを集約することとを含む、請求項1~4のいずれか1項に記載の方法。 - 前記ユーザの生成された前記表現は、前記ニューラルテクスチャにおいて表される各表面点ごとの外観を表し、
前記方法は、前記ユーザの外観に関する高周波のディテールを表すよう、表面点ごとに外観記述子を格納することをさらに含む、請求項1~5のいずれか1項に記載の方法。 - 前記合成画像は、ビデオ会議のための修正された視線方向により前記ユーザを示すように生成され、前記修正された視線方向は、前記ビデオ会議を提供するシステムに関連付けられるカメラデバイスを見つめるユーザのビューをシミュレートする、請求項1~6のいずれか1項に記載の方法。
- 画像処理システムであって、
少なくとも1つの処理デバイスと、
実行されると、前記システムに動作を実行させる命令を格納するメモリとを含み、
前記動作は、
ユーザの複数の入力画像を受信することと、
前記複数の入力画像から抽出された特徴の第1のセットと、前記複数の入力画像から抽出された特徴の第2のセットとに基づいて、3次元メッシュプロキシを生成することとを含み、前記3次元メッシュプロキシは、顔メッシュプロキシおよび平面プロキシを含み、
前記動作はさらに、
前記3次元メッシュプロキシおよび前記複数の入力画像に基づいて、ニューラルテクスチャを生成することと、
前記3次元メッシュプロキシおよび前記ニューラルテクスチャに少なくとも部分的に基づいて、前記ユーザの表現を生成することと、
前記ユーザの前記表現を使用して、前記3次元メッシュプロキシから、前記ニューラルテクスチャの少なくとも1つの部分をサンプリングすることと、
サンプリングされた前記少なくとも1つの部分をニューラルレンダラに提供することに応答して、前記画像処理システムによって以前に見られていない前記ユーザの合成画像を前記ニューラルレンダラから受信することとを含む、画像処理システム。 - 抽出された特徴の前記第1のセットは、前記ユーザの顔を表す特徴を含み、
抽出された特徴の前記第2のセットは、前記ユーザの髪および胴体の部分を表す特徴を含む、請求項8に記載のシステム。 - 前記ニューラルテクスチャは、前記複数の入力画像を使用して生成される学習済ニューラルテクスチャであり、前記複数の入力画像は、前記ユーザの4つ未満のキャプチャされた画像フレームを含む、請求項8または9に記載のシステム。
- 前記ニューラルテクスチャを生成することは、
各入力画像について潜在表現を生成することと、
各入力画像について生成された前記表現をベクトルに集約することと、
テクスチャジェネレータネットワークに前記ベクトルを提供することと、
前記テクスチャジェネレータネットワークから、前記ユーザを表す前記ニューラルテクスチャを受信することとを含む、請求項8~10のいずれか1項に記載のシステム。 - 前記ニューラルテクスチャを生成することは、
前記入力画像に関連付けられる深度画像およびUVマップに基づいて、抽出された特徴の前記第1のセットおよび特徴の前記第2のセットを、ジオメトリを意識した特徴空間に投射することを含み、前記投射することは、前記複数の入力画像のマッチされた解像度を有する画像のセットを生成することを含み、
前記ニューラルテクスチャを生成することは、
各入力画像についてテクスチャを生成するよう、画像の前記セットをUV空間にワーピングすることと、
各テクスチャについて、対応する入力画像における可視性メトリックを示すテクスチャ空間における各点についてのスコアマップを生成することと、
各入力画像についてアテンションウエイトを生成するよう、各スコアマップにソフトマックス演算を適用することと、
前記アテンションウエイトに従って決定される加重平均に従って前記テクスチャを集約することとを含む、請求項8~11のいずれか1項に記載のシステム。 - 前記合成画像は、ビデオ会議のための修正された視線方向により前記ユーザを示すように生成され、前記修正された視線方向は、前記ビデオ会議を提供するシステムに関連付けられるカメラデバイスを見つめるユーザのビューをシミュレートする、請求項8~12のいずれか1項に記載のシステム。
- 命令を有するプログラムであって、前記命令は、プロセッサによって実行されると、コンピューティングデバイスに、
ユーザの複数の入力画像を受信することと、
前記複数の入力画像から抽出された特徴の第1のセットと、前記複数の入力画像から抽出された特徴の第2のセットとに基づいて、3次元メッシュプロキシを生成することとを行わせ、前記3次元メッシュプロキシは、顔メッシュプロキシおよび平面プロキシを含み、
前記命令はさらに、
前記3次元メッシュプロキシおよび前記複数の入力画像に基づいて、ニューラルテクスチャを生成することと、
前記3次元メッシュプロキシおよび前記ニューラルテクスチャに少なくとも部分的に基づいて、前記ユーザの表現を生成することと、
前記ユーザの前記表現を使用して、前記3次元メッシュプロキシから、前記ニューラルテクスチャの少なくとも1つの部分をサンプリングすることと、
サンプリングされた前記少なくとも1つの部分をニューラルレンダラに提供することと、
前記ユーザの合成画像を前記ニューラルレンダラから受信することとを行わせ、前記ユーザの前記合成画像は、前記ユーザの以前に見られていないビューを表す、プログラム。 - 抽出された特徴の前記第1のセットは、前記ユーザの顔を表す特徴を含み、
抽出された特徴の前記第2のセットは、前記ユーザの髪および胴体の部分を表す特徴を含む、請求項14に記載のプログラム。 - 前記ニューラルテクスチャは、前記複数の入力画像を使用して生成される学習済ニューラルテクスチャであり、前記複数の入力画像は、前記ユーザの4つ未満のキャプチャされた画像フレームを含む、請求項14または15に記載のプログラム。
- 前記ニューラルテクスチャを生成することは、
各入力画像について潜在表現を生成することと、
各入力画像について生成された前記表現をベクトルに集約することと、
テクスチャジェネレータネットワークに前記ベクトルを提供することと、
前記テクスチャジェネレータネットワークから、前記ユーザを表す前記ニューラルテクスチャを受信することとを含む、請求項14~16のいずれか1項に記載のプログラム。 - 前記ニューラルテクスチャを生成することは、
前記入力画像に関連付けられる深度画像およびUVマップに基づいて、抽出された特徴の前記第1のセットおよび特徴の前記第2のセットを、ジオメトリを意識した特徴空間に投射することを含み、前記投射することは、前記複数の入力画像のマッチされた解像度を有する画像のセットを生成することを含み、
前記ニューラルテクスチャを生成することは、
各入力画像についてテクスチャを生成するよう、画像の前記セットをUV空間にワーピングすることと、
各テクスチャについて、対応する入力画像における可視性メトリックを示すテクスチャ空間における各点についてのスコアマップを生成することと、
各入力画像についてアテンションウエイトを生成するよう、各スコアマップにソフトマックス演算を適用することと、
前記アテンションウエイトに従って決定される加重平均に従って前記テクスチャを集約することとを含む、請求項14~17のいずれか1項に記載のプログラム。 - 前記ユーザの生成された前記表現は、前記ニューラルテクスチャにおいて表される各表面点ごとの外観を表し、
前記命令は、前記ユーザの外観に関する高周波のディテールを表すよう、表面点ごとに外観記述子を格納することをさらに含む、請求項14~18のいずれか1項に記載のプログラム。 - 前記合成画像は、ビデオ会議のための修正された視線方向により前記ユーザを示すように生成され、前記修正された視線方向は、前記ビデオ会議を提供するシステムに関連付けられるカメラデバイスを見つめるユーザのビューをシミュレートする、請求項14~19のいずれか1項に記載のプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063198287P | 2020-10-08 | 2020-10-08 | |
US63/198,287 | 2020-10-08 | ||
PCT/US2020/070713 WO2022076020A1 (en) | 2020-10-08 | 2020-10-28 | Few-shot synthesis of talking heads |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023513980A JP2023513980A (ja) | 2023-04-05 |
JP7386888B2 true JP7386888B2 (ja) | 2023-11-27 |
Family
ID=73554536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021558681A Active JP7386888B2 (ja) | 2020-10-08 | 2020-10-28 | 画面上の話者のフューショット合成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US12026833B2 (ja) |
EP (1) | EP4007992A1 (ja) |
JP (1) | JP7386888B2 (ja) |
KR (1) | KR20220047719A (ja) |
CN (1) | CN114631127A (ja) |
WO (1) | WO2022076020A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11582519B1 (en) | 2021-03-29 | 2023-02-14 | Amazon Technologies, Inc. | Person replacement utilizing deferred neural rendering |
US11581020B1 (en) * | 2021-03-30 | 2023-02-14 | Amazon Technologies, Inc. | Facial synchronization utilizing deferred neural rendering |
US12073501B1 (en) * | 2021-05-14 | 2024-08-27 | Apple Inc. | Generating facial expressions using a neural network having layers of constrained outputs |
US12131447B2 (en) * | 2021-09-27 | 2024-10-29 | Baidu Usa Llc | System and process for repainting of planar objects in video |
US20230154090A1 (en) * | 2021-11-15 | 2023-05-18 | Disney Enterprises, Inc. | Synthesizing sequences of images for movement-based performance |
US12008716B2 (en) * | 2021-11-19 | 2024-06-11 | Electronic Arts Inc. | Systems and methods for generating a simplified polygonal mesh |
US20230326137A1 (en) * | 2022-04-07 | 2023-10-12 | Adobe Inc. | Garment rendering techniques |
US20240127529A1 (en) * | 2022-10-13 | 2024-04-18 | Sony Group Corporation | Generation of reflectance maps for relightable 3d models |
WO2024097701A1 (en) * | 2022-10-31 | 2024-05-10 | Drexel University | System to defend against puppeteering attacks in ai-based low bandwidth video |
WO2024107872A1 (en) * | 2022-11-15 | 2024-05-23 | Google Llc | Real-time view synthesis |
WO2024129727A1 (en) * | 2022-12-12 | 2024-06-20 | Google Llc | Real-time view synthesis |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019079895A1 (en) | 2017-10-24 | 2019-05-02 | Modiface Inc. | SYSTEM AND METHOD FOR IMAGE PROCESSING THROUGH DEEP NEURAL NETWORKS |
US20190147642A1 (en) | 2017-11-15 | 2019-05-16 | Google Llc | Learning to reconstruct 3d shapes by rendering many 3d views |
JP2019533324A (ja) | 2016-09-09 | 2019-11-14 | グーグル エルエルシー | 3dテレプレゼンスシステム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9030486B2 (en) * | 2008-08-22 | 2015-05-12 | University Of Virginia Patent Foundation | System and method for low bandwidth image transmission |
KR101671185B1 (ko) * | 2010-03-22 | 2016-11-01 | 삼성전자주식회사 | 렌더링을 위한 빛 및 질감 추출 장치 및 방법, 그리고, 빛 및 질감을 이용한 렌더링 장치 |
US9846960B2 (en) * | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
KR101979669B1 (ko) * | 2012-07-13 | 2019-05-17 | 삼성전자주식회사 | 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 |
US9094576B1 (en) * | 2013-03-12 | 2015-07-28 | Amazon Technologies, Inc. | Rendered audiovisual communication |
US10484697B2 (en) * | 2014-09-09 | 2019-11-19 | Qualcomm Incorporated | Simultaneous localization and mapping for video coding |
EP3219098B1 (en) * | 2014-11-14 | 2021-10-06 | PCMS Holdings, Inc. | System and method for 3d telepresence |
WO2017165538A1 (en) * | 2016-03-22 | 2017-09-28 | Uru, Inc. | Apparatus, systems, and methods for integrating digital media content into other digital media content |
US10430922B2 (en) * | 2016-09-08 | 2019-10-01 | Carnegie Mellon University | Methods and software for generating a derived 3D object model from a single 2D image |
US10460511B2 (en) * | 2016-09-23 | 2019-10-29 | Blue Vision Labs UK Limited | Method and system for creating a virtual 3D model |
US10846836B2 (en) | 2016-11-14 | 2020-11-24 | Ricoh Company, Ltd. | View synthesis using deep convolutional neural networks |
WO2018102700A1 (en) * | 2016-12-01 | 2018-06-07 | Pinscreen, Inc. | Photorealistic facial texture inference using deep neural networks |
US10565747B2 (en) * | 2017-09-06 | 2020-02-18 | Nvidia Corporation | Differentiable rendering pipeline for inverse graphics |
US11295514B2 (en) * | 2018-11-16 | 2022-04-05 | Nvidia Corporation | Inverse rendering of a scene from a single image |
GB2581374B (en) | 2019-02-14 | 2022-05-11 | Huawei Tech Co Ltd | 3D face reconstruction system and method |
US11200689B1 (en) * | 2019-06-21 | 2021-12-14 | Amazon Technologies, Inc. | Detailed 3D estimation from a single image |
US11308669B1 (en) * | 2019-09-27 | 2022-04-19 | Apple Inc. | Shader for graphical objects |
US11354847B2 (en) * | 2020-07-31 | 2022-06-07 | Nvidia Corporation | Three-dimensional object reconstruction from a video |
-
2020
- 2020-10-28 JP JP2021558681A patent/JP7386888B2/ja active Active
- 2020-10-28 CN CN202080025523.5A patent/CN114631127A/zh active Pending
- 2020-10-28 US US17/310,678 patent/US12026833B2/en active Active
- 2020-10-28 EP EP20812208.5A patent/EP4007992A1/en active Pending
- 2020-10-28 WO PCT/US2020/070713 patent/WO2022076020A1/en unknown
- 2020-10-28 KR KR1020217030914A patent/KR20220047719A/ko not_active Application Discontinuation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019533324A (ja) | 2016-09-09 | 2019-11-14 | グーグル エルエルシー | 3dテレプレゼンスシステム |
WO2019079895A1 (en) | 2017-10-24 | 2019-05-02 | Modiface Inc. | SYSTEM AND METHOD FOR IMAGE PROCESSING THROUGH DEEP NEURAL NETWORKS |
US20190147642A1 (en) | 2017-11-15 | 2019-05-16 | Google Llc | Learning to reconstruct 3d shapes by rendering many 3d views |
Also Published As
Publication number | Publication date |
---|---|
EP4007992A1 (en) | 2022-06-08 |
US20220130111A1 (en) | 2022-04-28 |
WO2022076020A1 (en) | 2022-04-14 |
US12026833B2 (en) | 2024-07-02 |
JP2023513980A (ja) | 2023-04-05 |
CN114631127A (zh) | 2022-06-14 |
KR20220047719A (ko) | 2022-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7386888B2 (ja) | 画面上の話者のフューショット合成 | |
EP3959688B1 (en) | Generative latent textured proxies for object category modeling | |
US10096157B2 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
TWI813098B (zh) | 用於新穎視圖合成之神經混合 | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
WO2017124870A1 (zh) | 一种处理多媒体信息的方法及装置 | |
JP2023551864A (ja) | 自動立体テレプレゼンスシステムのための3次元(3d)顔特徴追跡 | |
Li et al. | Immersive neural graphics primitives | |
Thatte et al. | Real-World Virtual Reality With Head-Motion Parallax | |
JP2024156677A (ja) | 新規ビュー合成のためのニューラルブレンド | |
US20220232201A1 (en) | Image generation system and method | |
US20240153201A1 (en) | Image Generation System with Controllable Scene Lighting | |
US20230396751A1 (en) | Sender-side geometric fusion of depth data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220817 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7386888 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |