JP4610411B2 - 物体を含むシーンの様式化された画像を生成する方法 - Google Patents
物体を含むシーンの様式化された画像を生成する方法 Download PDFInfo
- Publication number
- JP4610411B2 JP4610411B2 JP2005143803A JP2005143803A JP4610411B2 JP 4610411 B2 JP4610411 B2 JP 4610411B2 JP 2005143803 A JP2005143803 A JP 2005143803A JP 2005143803 A JP2005143803 A JP 2005143803A JP 4610411 B2 JP4610411 B2 JP 4610411B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- depth
- scene
- edges
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Description
図1Aは、本発明によるノンフォトリアリスティック(NPR)画像を生成するためのデジタルカメラ100を示す。カメラ100は複数の光源、たとえば、フラッシュユニット101〜104と、単一のレンズ105とを備える。フラッシュユニット101〜104は、レンズ105の投影中心(COP)106の周囲に分散して配置される。最も良好な結果を得るために、フラッシュユニットはできる限りCOPの近くに配置される。それゆえ、フラッシュユニットをカメラ体の前面107に取り付けることは理に適っている。
図2は、或るシーンの様式化された画像201を生成するための本発明の方法200を示す。様式化とは、本明細書に記載されるように、エッジのような特定の細部を有するあらゆるノンフォトリアリスティック画像が強調され、テクスチャおよび単調な背景のような他の細部が削減、抽象化あるいは他の方法で簡略化されることを意味している。
1組の画像110〜114が、レンズ105の投影中心(COP)106の極めて近くに配置されるフラッシュユニット101〜104を用いて、或るシーンから収集される210。図1を参照されたい。COPとフラッシュユニットとの間の基線150が短いことに起因して、そのシーン内の深度不連続点(エッジ)を表す長細い(a narrow sliver of)影がその画像内の各シルエットエッジ付近に現れる。
図3は、本手法の根底をなすシルエットエッジ画素を検出するための手順300を示す。その概念は驚くほど簡単である。本発明の画像収集過程は照度差ステレオに密接に関連するが、本発明者らが知る限りでは、或るシーン内の影によって反映されるような深度不連続点を検出するためのコンピュータビジョンシステムにおいて照度差ステレオが用いられたことはない。照度差ステレオにより、本発明は、消去の過程によって他のエッジを分類できるようになる。
Ik(x)=μkρkLk(x)・N(x)、そうでない場合には、
Ik(x)=0
ここで、μkという値は光の大きさであり、ρk(x)はシーン内の点Xにおける反射率であり、Lk(x)は正規化された光ベクトルLk(x)=Pk−Xであり、N(x)は面法線であり、それらは全てカメラ座標系内にある。
また、本発明は、テクスチャおよび照明の変動のような、或るシーンのシルエットに関連しない、画像の領域内の細部あるいは複雑な部分を削減するための手順も提供する。シルエットエッジ画素306が与えられるとき、テクスチャエッジに属する画素を特定することができる230。したがって、テクスチャ領域を特定することができる。これらの画素は照明の方向とは無関係である。テクスチャエッジは、最大画像Imax内の輝度エッジから、検出されたシルエットエッジを引いたものである。
シルエットエッジ画素を検出するための本発明による手順は、画像を強調するために用いることができるさらに別の有用な情報も生成する。
より良好なライティングを用いて、コントラストを改善し、背景に対して物体を強調することができる。この手法の成功は一般的に撮影者の技量によるが、本発明は、明らかな幾何に基づく一般的な解決手段を提供する。さらに、光源がカメラのCOPに近いので、本発明による単体で十分な機能を有するカメラ100では、外部光源は不要であり、操作が簡略化される。
シーンの様式化された画像を生成するための本発明の方法は、以下のステップを含む。最初に、カメラのレンズの周囲に位置付けられた複数のフラッシュユニットによって生じるずらした光、および周囲からの光の下でシーンから1組の画像を取得する。これらの画像を処理して、深度エッジ、輝度エッジ、およびテクスチャエッジのような特徴を自動的に検出し、特徴間の定性的な深度の関係を求める。出力画像は、取得した画像の組み合わせであり、検出された特徴を、この検出された特徴および定性的な関係に従って強調し、様式化された画像を提供する。
図5Aおよび図5Bに示すように、深度エッジを検出するための本発明の方法は、本手法の基礎であり、除去過程によって他のエッジを分類することを可能にする。本発明の方法は、影のエピポーラ幾何に関する2つの観測値に基づく。
周囲光で画像I0を取得する。
Pkにある光源で画像Ik.0(k=1,...,n)を取得する。
画像Ik=Ik,0−I0を求める。
全ての画素xについて、Imax(x)=maxk(Ik(x))(k=1,...n)である。
各画像kについて、
比画像Rkを生成する。ここで、Rk(x)=Ik(x)/Imax(x)である。
各画像Rkについて、
エピポールekから各エピポーラ光線を横断する。
負の遷移を有するステップエッジを有する画素yを見つける。
画素yを深度エッジとして指示する。
影のある領域の値が0に近い比画像を生成する。
各比画像上でエピポーラ光線に沿って輝度エッジの検出を実行し、負のステップエッジを深度エッジとして指示する。
n個すべての画像からのエッジマップを合成して、最終的な深度エッジマップを得る。
深度エッジに加えて、本発明では、画像内の照明エッジおよび物質エッジも考慮する。照明エッジは、本発明のカメラに取り付けられたフラッシュユニットではなく周囲光に起因するライティングされた領域と影のある領域との間の境界である。個々の画像Ikは周囲からの照明がなく、周囲照明エッジがない。一般に物質エッジは、照明方向と無関係であるため、除去過程によって分類することができる。物質エッジは、Imaxの輝度エッジから深度エッジを引いたものである。このエッジ分類方式は良好に動作し、調整に最少数のパラメータを伴う。本発明において必要となるパラメータは、深度エッジおよび物質エッジをそれぞれ検出するための比画像およびImax画像の輝度エッジ検出用パラメータのみである。
比Rk(x)は、視点に依存するエッジを有する湾曲した物体の非常に小さく深度の短いエッジである。これは、ドット積((^)Lk(x)・N(x))であり、「反対」側にある光源のドット積の方がより大きいためである。これは次のように表される。
カメラとフラッシュの間の基線距離は長いほど良い。基線が長いほど、画像内に投じられる検出可能な影の幅は広くなるが、影が関連する深度エッジから分離することを回避するには、より短い基線が必要とされる。
図6に示すように、カメラの解像度が限られている場合は、階層的な基線を用いることができる。ここでは、第1のフラッシュユニットの組610がCOP106から第1の距離611のところに配置されて画像FSを取得し、第2のフラッシュユニットの組620が第1の距離よりも大きな第2の距離622に配置されて画像FLを取得する。
画像FSは検出不可能な幅の狭い影を有し、画像FLは検出可能な影を有する。
画像FSは検出可能な幅の狭い影を有し、画像FLは幅の広い影を有する。
画像FSは検出可能な影を有するが、画像FLは、画像FSの影と重なる孤立した影を有する。
画像FSは検出可能な影を有し、画像FLは孤立した影を有するが、画像FSと画像FLの影は重ならない。
一方の画像の画素には現れ、他方の画像には現れない鏡面反射ハイライトは、比画像内に誤った遷移を生じる可能性がある。単一画像内の鏡面反射を検出するための方法はあるが、テクスチャ領域において鏡面反射を確実に検出することは困難である。
輝度勾配Gk(x,y)=∇Ik(x,y)を求める。
勾配の中央値G(x,y)=mediank(Gk(x,y))を見つける。
|∇I’−G|を最小化する画像I’を構成する。
これまで、本発明では、背景に影を投じる深度エッジは有限距離内にあるものと仮定してきた。しかしながら、これは常にそうであるとは限らない。この場合、本発明では、最も外側の深度エッジ、すなわち、前景と遠方の背景とによって共有されるエッジのみが見逃される可能性がある。これは、前景−背景推定技法を用いて容易に検出することができる。画像I0/Imaxの比は背景において1に近く、前景の内部において0に近い。
3Dモデルに基づくNPRは既知であるが、写真については既知ではない。シーンの完全な3D表現がない場合、本発明では、以下の2Dキューを利用して新規のレンダリングアルゴリズムを開発する。すなわち、深度エッジの符号すなわちエッジにおける前景対背景、影の幅に基づく相対的な深度差、符号付きエッジ付近の色、および遮蔽輪郭における滑らかな表面の法線である。
深度エッジピクセルを輪郭につなげ、次に輪郭を平滑化する。T字型接合部において、向きの類似性に基づいて次のエッジ画素を選択する従来の方法とは異なり、本発明では、影からの情報を用いて、接続成分を分解する。
比画像Rk内のエピポーラ光線に沿った負の遷移において、エッジに対して輝度の高い側が前景であり、影のある領域に対応する輝度の低い側が背景である。
図8に示すように、本発明では、ライティング方向に対する深度エッジの向きに応じて深度エッジの幅811〜812を変更することによって、任意の光方向801を解剖部位の出力画像800において伝えることができる。3Dにおけるエッジの向きは、像平面におけるその投影の向きと略同じであるため、幅は、画像空間の法線と所望の光方向とのドット積に比例することができる。
図9に示すように、本発明では、選択された色で深度エッジをレンダリングすることによって元の物体の色を示すことができる。符号付き深度エッジから、固定された画素距離における法線に沿って、別の深度または輝度エッジと交差することなく前景の色を選択する。前景の色を付けられた深度エッジは、分割された入力画像、たとえば周囲からの光で取得された入力画像に重ねてもよい。
シーンの3Dモデルはないため、エッジでない画素をレンダリングするには、取り込んだ2D画像の別々な処理方法が必要である。
滑らかな物体について図10Aおよび図10Bに示すように、深度エッジは、面法線が視野方向に垂直である遮蔽輪郭に対応する。したがって、深度エッジにおける法線は像平面に位置し、他の画素における法線を予測することができる。本発明では、2Dポアソン微分方程式を解くことによって、この疎な補間問題を解くことができる。本発明の方法は、Johnston著「Lumo: illumination for cel animation」(Proceedings of the second international symposium on Non-photorealistic animation and rendering, ACM Press, PP. 45-ff, 2002)によって記載されるようなオーバー−アンダーマットを生成するための手動の方法を自動化する。本発明の場合、符号付き深度エッジにより法線の補間が可能になり、その一方で、深度エッジにおける法線の不連続点を維持して、ライティング方向から離れた向きにある表面1001を強調する。
プロの写真家は、局部光を用いて、形状の境界におけるコントラストを強調することがある。本発明では、これを画像減衰マップにより以下のように模倣する。深度エッジは黒色の背景上に白色で存在する。本発明は、エッジ強調フィルタの勾配であるフィルタを用いてたたみ込みを行う。本発明のフィルタは、ガウス関数からインパルス関数を引いたものである。たたみ込んだ画像に対して2D積分を実行すると、深度エッジにおいて急激な遷移が得られる。
いくつかの静止した図は、前景の動きのある部分を明るくすることによって、活動、たとえば車内の変化する油を示す。しかしながら、色が類似しておりテクスチャがない場合、輝度を基にした方式による前景の検出、たとえば図11に示すような、他の皮膚の色をした部分の前面にある手の動作の検出は困難である。
画像内のビジュアルクラッタを低減し、物体の形状を明確にする1つの方法は、シーンの形状の境界すなわち深度エッジに関係ない細部、たとえばテクスチャおよび照明の変化を簡略化することである。従来の画像分割手法は、閉じた輪郭に厳しい制約を課し、各領域に固定した色を割り当てる。また、分割は、深度エッジを見逃し、前景と背景が単色の物体に統合されてしまう場合がある。
(x,y)はテクスチャエッジ画素であり、
d(x,y)は特徴のない画素であり、
(x,y)は1に設定された深度エッジ画素である。
マスク画像γ(x,y)を生成する
輝度勾配∇I(x,y)を求める
マスクをかけた勾配G(x,y)=∇I(x,y)γ(x,y)を変更する
|I’−G|を最小化するように画像I’を再構成する
出力画像I’(x,y)内の色を、入力画像I(x,y)の色に実質的に一致するように正規化する
これまでのところ、本発明の方法は、静止シーンの複数の画像を取得して幾何特徴を求める。本発明は、移動物体または移動カメラを有するシーンの取り込みの同時性の欠如を調べる。ここでもまた、画像シーケンス中の動きを推定するための多くの著作物が存在し、賢明な手法は、静的アルゴリズムからの結果を用いて、導入されるアーチファクトを補正するために動き補償技法を適用することである。
取得の同時性の欠如は、元の画像、たとえば最大合成Imaxの信頼性が低く、特徴が位置合わせされていないことを意味する。このことが、影領域を確実に見付けることを妨げる。本発明は、シーンの動きが中程度である、特に画像空間において物体の特徴の動きが物体の幅よりも小さいという簡略化の仮定を行う。高速カメラにより、フレーム間の動き量を低減することができるが、同時性の欠如を仮定することはできない。本発明の新規の照明方法により、このことは、移動する影のある領域を観測することによって比較的簡単に解決されることが分かった。この説明を簡単にするために、本発明では、レンズの左側および右側にあるフラッシュユニットのみを考えて、垂直方向の深度エッジを求める。
深度エッジに起因する、隣接する影エッジを有する勾配、
静止部分のテクスチャエッジに起因する勾配、および
移動部分のテクスチャエッジに起因する勾配。
画像Iabを保存する影を求める。ここでIab=min(a,b,c)である。
影のない画像Iacを求める。ここでIac=min(a,c)である。
比画像Rmを求める。ここでRm.Iab/Iacである。
emからのエピポーラ光線に沿って横断し、負の遷移を指示する。
所与のフレームmにおける深度エッジは、限られた向きのみに渡るため、不完全である。動的なシーンにおいて、4つの連続フレームの深度エッジの結合は、不連続な輪郭を識別するほど整列していない場合がある。本発明は、同じフラッシュユニットに対応する符号付き深度エッジ、すなわちmとm+nを照合し、中間フレームの変位を補間する。色を割り当てるために、本発明では、3つの連続フレーム、たとえば前フレーム、現フレーム、および次フレームの最大値をとる。
深度の不連続点を検出することは、画像を理解するための基本であり、多くの用途において用いることができる。本方法は、主に物体の最外部のシルエットに基づくが、本発明者らは、完全な深度エッジマップは、ビジュアルハル(visual hull)、分割、深度層およびアスペクトグラフの分解の問題に役立つことができると考える。航空写真技法は、日光の既知の方向から投じられた影の複数の時間差画像を見ることによって建物の検出を改善することができる。さらに、後処理中の被写界深度効果、カメラアレイを用いた合成口径および任意の背景を用いた仮想セットのためのスクリーンマッティング等の効果は、高品質の符号付き深度エッジを必要とする。
Claims (44)
- 物体を含むシーンの様式化された画像を生成する方法であって、
n枚の入力画像のそれぞれが、カメラのレンズの投影中心から異なる位置の前記カメラの本体に取り付けられたn個の光源の組のうちの1つの光源によって照明され、カメラを用いて前記シーンからn枚の入力画像の組を取得することと、
前記n枚の入力画像の組内の、深度エッジ、輝度エッジ、及びテクスチャエッジを含む特徴を検出して、前記深度エッジ、前記輝度エッジ、及び前記テクスチャエッジ間の定性的な深度の関係を求めることと、
前記n枚の入力画像の組を1つの出力画像に合成して、前記検出された特徴を前記定性的な関係に従って強調することと
を含む、物体を含むシーンの様式化された画像を生成する方法。 - 前記深度エッジは、前記n枚の入力画像内の深度の不連続点に対応する
請求項1記載の方法。 - 前記深度エッジは、符号付きであり、前記n枚の入力画像内の前景画素が正の値を有し、背景画素が負の値を有するようになっており、
前記テクスチャエッジは、前記シーン内の反射率及び物質の不連続点の輪郭を描き、
前記輝度エッジは、実質的に一定の反射率を有する前記シーン内の領域の輪郭を描く
請求項1記載の方法。 - 前記深度エッジは、画像空間の座標に対して前記シーン内の影領域に対応する
請求項1記載の方法。 - 前記シーン内の前記物体及び前記影領域は、前記画像空間において連続している
請求項4記載の方法。 - 前記n枚の入力画像のそれぞれについて、実質的に0に近い前記影領域内の画素輝度から比画像を生成することと、
前記深度エッジにおいて負のステップエッジを指示するエピポーラ光線に沿って各比画像に対して輝度エッジ検出を実行して、各比画像の深度エッジマップを生成することと、
n枚すべての入力画像からの前記エッジマップを合成して、最終的な深度エッジマップを得ることとをさらに含む
請求項4記載の方法。 - 前記n個の光源の組は、前記カメラのレンズの投影中心から別々の距離の前記カメラの本体に取り付けられて、複数の基線を提供する
請求項1記載の方法。 - 前記n枚の入力画像は、鏡面反射ハイライトを含み、
前記n枚の入力画像から前記鏡面反射ハイライトを除去することをさらに含む
請求項1記載の方法。 - 前記n枚の入力画像内の各画素においてn個の勾配変動を求めることと、
前記n個の勾配の中央値を求めて、外れ値を除去することとをさらに含む
請求項8記載の方法。 - 特定の入力画像Ik内の各画素(x,y)における輝度勾配は、Gk(x,y)=∇Ik(x,y)であり、
前記勾配の中央値は、G(x,y)=mediank(Gk(x,y))であり、
再構成される画像I’は、|∇I’−G|を最小化する
請求項9記載の方法。 - 比Ik(x,y)/I’(x,y)は、1.0に設定されて、前記鏡面反射ハイライトが除去される
請求項10記載の方法。 - 前記深度エッジ画素を輪郭につなぐことと、
前記輪郭を平滑化することとをさらに含む
請求項1記載の方法。 - 前記深度エッジの前景側は、前記正の値を有し、前記深度エッジの背景側は、前記負の値を有し、
前記前景側を白色としてレンダリングすることと、
前記背景側を黒色としてレンダリングすることとをさらに含む
請求項3記載の方法。 - 前記輪郭を面法線に沿って変位させることによって前記深度エッジの前記前景側及び前記背景側をレンダリングすることをさらに含む
請求項13記載の方法。 - 前記深度エッジの幅を変更して、前記出力画像において任意の光方向を伝えることをさらに含む
請求項14記載の方法。 - 前記幅は、画像空間の法線と前記任意の光方向のドット積に比例する
請求項15記載の方法。 - 選択された色で前記深度エッジをレンダリングすることをさらに含む
請求項1記載の方法。 - 1つの入力画像は、周囲からの光によって照明され、
周囲からの光によって照明される前記1つの入力画像を分割することと、
分割された入力画像に色を付けた深度エッジを重ねることとをさらに含む
請求項17記載の方法。 - 前記深度エッジを前記出力画像において黒色の背景上に白色でレンダリングすることと、
エッジ強調フィルタの勾配であるフィルタを用いて前記エッジをたたみ込み、たたみ込まれた画像を得ることと、
前記たたみ込まれた画像を積分して、前記深度エッジにおける急激な遷移を得ることとをさらに含む
請求項1記載の方法。 - 前記フィルタは、ガウス関数からインパルス関数を引いたものである
請求項19記載の方法。 - 前記シーンは、背景物体及び前景物体を含み、
前記背景物体のみを有する前記シーンから第1のn+1枚の入力画像の組を取得することと、
前記背景物体及び前記前景物体を有する前記シーンから第2のn+1枚の入力画像の組を取得することと、
前記第2のn+1枚の入力画像の組の前記前景物体に対応する部分にマスクを適用して、前記出力画像における前記前景物体の外観を強調することとをさらに含む
請求項1記載の方法。 - 前記マスク内の画素輝度値は、1に設定される
請求項21記載の方法。 - 前記テクスチャエッジは、前記n+1枚の画像内のテクスチャ領域を定義し、
マスク画像に従って前記テクスチャ領域にマスクをかけて、前記出力画像においてクラッタを低減することをさらに含む
請求項1記載の方法。 - 前記マスク画像内の画素は、γ(x,y)=aであり、
前記深度エッジの画素(x,y)の輝度値を1に設定することと、
前記テクスチャエッジの画素(x,y)の輝度値を0に設定することと、
画素d(x,y)の輝度エッジの輝度値を、深度エッジ画素の距離フィールドに対するテクスチャエッジ画素の距離フィールドの比に設定することとをさらに含む
請求項23記載の方法。 - 初期マスク画像γ(x,y)を生成することと、
輝度勾配∇I(x,y)を求めることと、
マスクをかけられた勾配G(x,y)=∇I(x,y)γ(x,y)を変更することと、
前記出力画像I’を再構成して、|I’−G|を最小化することと、
前記出力画像I’(x,y)内の色を正規化して、前記入力画像I(x,y)内の色と実質的に一致させることとをさらに含む
請求項24記載の方法。 - 前記カメラはビデオカメラであり、前記物体は前記シーン内で動き、
前記ビデオカメラを用いて前記シーンからn+1枚の入力画像の組のシーケンスを取得することと、
前記n枚の入力画像の組のシーケンス内の前記特徴を検出することと、
前記n+1枚の入力画像の組のシーケンスを出力画像のシーケンスに合成して、前記定性的な関係に従って前記検出された特徴を強調することとをさらに含む
請求項1記載の方法。 - 輝度勾配が、前記深度エッジに起因する勾配、静止部分の前記テクスチャエッジに起因する勾配、及び移動部分の前記テクスチャエッジに起因する勾配を含み、
前記画像の組のシーケンス内の輝度勾配を特定することと、
前記静止部分を有するテクスチャエッジを除去することとをさらに含む
請求項26記載の方法。 - 前記出力画像のシーケンス内で移動する深度エッジの変位を補間することをさらに含む
請求項27記載の方法。 - 前記出力画像のシーケンスの特定の画像内の画素の色を3つの連続する画像の最大値に従って割り当てることをさらに含む
請求項26記載の方法。 - 前記3つの連続する画像は、前記シーケンス内の特定の画像、前の画像及び次の画像である
請求項29記載の方法。 - 前記光源は、可視光を放射する
請求項1記載の方法。 - 前記光源は、赤外光を放射する
請求項1記載の方法。 - 前記光源は、ソナー信号を放射する
請求項1記載の方法。 - 前記光源は、x線を放射する
請求項1記載の方法。 - 前記光源は、レーダー信号を放射する
請求項1記載の方法。 - 前記光源は、複数の波長の光を同時に放射し、
前記カメラ内のセンサにおいて複数のフィルタを用いて複数の周波数を復号化することをさらに含む
請求項1記載の方法。 - 前記フィルタは、ベイヤーモザイクパターンを有する
請求項36記載の方法。 - 前記エッジは、前記n枚の入力画像内の全てのエッジを含む
請求項1記載の方法。 - 前記エッジからビジュアルハルを求めることをさらに含む
請求項38記載の方法。 - 前記エッジに従って前記出力画像を分割することをさらに含む
請求項38記載の方法。 - 前記エッジに従って前記出力画像内の深度層を分解することをさらに含む
請求項38記載の方法。 - 前記エッジに従って前記出力画像のアスペクトグラフを分解することをさらに含む
請求項38記載の方法。 - 前記入力画像は、航空写真撮影術によって取得される
請求項1記載の方法。 - 前記光源は、フラッシュユニットである
請求項1記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/847,068 US7738725B2 (en) | 2003-03-19 | 2004-05-17 | Stylized rendering using a multi-flash camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005341569A JP2005341569A (ja) | 2005-12-08 |
JP4610411B2 true JP4610411B2 (ja) | 2011-01-12 |
Family
ID=35494557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005143803A Expired - Fee Related JP4610411B2 (ja) | 2004-05-17 | 2005-05-17 | 物体を含むシーンの様式化された画像を生成する方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4610411B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101812664B1 (ko) | 2016-10-28 | 2017-12-27 | 한국과학기술원 | 가분적 외곽선을 가지는 다시점 객체 추출 방법 및 장치 |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7711182B2 (en) * | 2006-08-01 | 2010-05-04 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for sensing 3D shapes of objects with specular and hybrid specular-diffuse surfaces |
US7983487B2 (en) | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
US8325268B2 (en) | 2007-12-28 | 2012-12-04 | Sanyo Electric Co., Ltd. | Image processing apparatus and photographing apparatus |
JP4606486B2 (ja) * | 2007-12-28 | 2011-01-05 | 三洋電機株式会社 | 画像処理装置および撮影装置 |
JP5121510B2 (ja) * | 2008-03-04 | 2013-01-16 | キヤノン株式会社 | 撮像システム、撮影方法、プログラム、コンピュータ読み取り可能な記憶媒体及び画像処理装置 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
JP5423542B2 (ja) * | 2010-04-02 | 2014-02-19 | セイコーエプソン株式会社 | 光学式位置検出装置 |
JP5423544B2 (ja) * | 2010-04-02 | 2014-02-19 | セイコーエプソン株式会社 | 光学式位置検出装置 |
JP5423543B2 (ja) * | 2010-04-02 | 2014-02-19 | セイコーエプソン株式会社 | 光学式位置検出装置 |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
US8542933B2 (en) | 2011-09-28 | 2013-09-24 | Pelican Imaging Corporation | Systems and methods for decoding light field image files |
EP2817955B1 (en) | 2012-02-21 | 2018-04-11 | FotoNation Cayman Limited | Systems and methods for the manipulation of captured light field image data |
WO2014005123A1 (en) | 2012-06-28 | 2014-01-03 | Pelican Imaging Corporation | Systems and methods for detecting defective camera arrays, optic arrays, and sensors |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
US8619082B1 (en) | 2012-08-21 | 2013-12-31 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation |
EP2888698A4 (en) | 2012-08-23 | 2016-06-29 | Pelican Imaging Corp | PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE |
WO2014052974A2 (en) | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating images from light fields utilizing virtual viewpoints |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9438888B2 (en) | 2013-03-15 | 2016-09-06 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
WO2016035181A1 (ja) | 2014-09-03 | 2016-03-10 | 株式会社ニコン | 撮像装置、情報処理装置、及び撮像システム |
EP3467776A1 (en) | 2014-09-29 | 2019-04-10 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
JP6512979B2 (ja) | 2015-07-23 | 2019-05-15 | キヤノン株式会社 | 撮像装置 |
JP2017102637A (ja) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体 |
EP3211599A1 (en) | 2016-02-29 | 2017-08-30 | Thomson Licensing | Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device |
WO2017154706A1 (ja) | 2016-03-09 | 2017-09-14 | 株式会社ニコン | 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム |
JP7179472B2 (ja) * | 2018-03-22 | 2022-11-29 | キヤノン株式会社 | 処理装置、処理システム、撮像装置、処理方法、プログラム、および、記録媒体 |
CN110070482B (zh) * | 2019-03-14 | 2023-05-02 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和计算机可读存储介质 |
JP7289703B2 (ja) * | 2019-04-03 | 2023-06-12 | 株式会社キーエンス | 手持ち式光学情報読取装置 |
JP6732995B2 (ja) * | 2019-04-05 | 2020-07-29 | キヤノン株式会社 | 撮像装置 |
KR102646521B1 (ko) | 2019-09-17 | 2024-03-21 | 인트린식 이노베이션 엘엘씨 | 편광 큐를 이용한 표면 모델링 시스템 및 방법 |
US11525906B2 (en) | 2019-10-07 | 2022-12-13 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
EP4081933A4 (en) | 2020-01-29 | 2024-03-20 | Intrinsic Innovation LLC | SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS |
EP4085424A4 (en) | 2020-01-30 | 2024-03-27 | Intrinsic Innovation LLC | SYSTEMS AND METHODS OF DATA SYNTHESIS FOR TRAINING STATISTICAL MODELS ON DIFFERENT IMAGING MODALITIES INCLUDING POLARIZED IMAGES |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
CN113221619B (zh) * | 2021-01-28 | 2024-02-20 | 深圳市雄帝科技股份有限公司 | 基于泊松重建的人脸图像去高光方法、系统及其存储介质 |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
CN116385469A (zh) * | 2022-09-08 | 2023-07-04 | 北京字跳网络技术有限公司 | 特效图像生成方法、装置、电子设备及存储介质 |
GB2623119A (en) | 2022-10-07 | 2024-04-10 | Toshiba Kk | A computer vision method and system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003008988A (ja) * | 2001-04-11 | 2003-01-10 | Hewlett Packard Co <Hp> | フラッシュアーチファクトを除去する方法および装置 |
JP2003219264A (ja) * | 2002-01-22 | 2003-07-31 | Fuji Photo Film Co Ltd | 撮像装置、撮像方法、及びプログラム |
JP2004289829A (ja) * | 2003-03-19 | 2004-10-14 | Mitsubishi Electric Research Laboratories Inc | 様式化された画像を生成するための方法 |
-
2005
- 2005-05-17 JP JP2005143803A patent/JP4610411B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003008988A (ja) * | 2001-04-11 | 2003-01-10 | Hewlett Packard Co <Hp> | フラッシュアーチファクトを除去する方法および装置 |
JP2003219264A (ja) * | 2002-01-22 | 2003-07-31 | Fuji Photo Film Co Ltd | 撮像装置、撮像方法、及びプログラム |
JP2004289829A (ja) * | 2003-03-19 | 2004-10-14 | Mitsubishi Electric Research Laboratories Inc | 様式化された画像を生成するための方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101812664B1 (ko) | 2016-10-28 | 2017-12-27 | 한국과학기술원 | 가분적 외곽선을 가지는 다시점 객체 추출 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP2005341569A (ja) | 2005-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4610411B2 (ja) | 物体を含むシーンの様式化された画像を生成する方法 | |
US7738725B2 (en) | Stylized rendering using a multi-flash camera | |
Raskar et al. | Non-photorealistic camera: depth edge detection and stylized rendering using multi-flash imaging | |
JP4440681B2 (ja) | 様式化された画像を生成するための方法 | |
JP4364687B2 (ja) | 低画質の映像の画質を高めるための方法 | |
JP4364686B2 (ja) | 自然に照明されたシーンの画像の画質を高めるための方法 | |
US7206449B2 (en) | Detecting silhouette edges in images | |
US7295720B2 (en) | Non-photorealistic camera | |
US7102638B2 (en) | Reducing texture details in images | |
US10867430B2 (en) | Method and system of 3D reconstruction with volume-based filtering for image processing | |
Goesele et al. | Multi-view stereo revisited | |
Gvili et al. | Depth keying | |
US8320666B2 (en) | Real-time image and video matting | |
US8451322B2 (en) | Imaging system and method | |
Zollmann et al. | Image-based ghostings for single layer occlusions in augmented reality | |
US20040095484A1 (en) | Object segmentation from images acquired by handheld cameras | |
Vogt et al. | Highlight substitution in light fields | |
Amri et al. | A robust framework for joint background/foreground segmentation of complex video scenes filmed with freely moving camera | |
Prakash et al. | Hybrid image-based rendering for free-view synthesis | |
Yagi et al. | Diminished reality for privacy protection by hiding pedestrians in motion image sequences using structure from motion | |
Jang et al. | 3D human modeling from a single depth image dealing with self-occlusion | |
Gelautz et al. | Recognition of object contours from stereo images: an edge combination approach | |
Kanamori et al. | Boosting | |
Feris et al. | Dealing with multi-scale depth changes and motion in depth edge detection | |
Cheng et al. | Contrast enhancement from multiple panoramic images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101012 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101012 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131022 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4610411 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |