JP2020515931A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2020515931A5 JP2020515931A5 JP2019533614A JP2019533614A JP2020515931A5 JP 2020515931 A5 JP2020515931 A5 JP 2020515931A5 JP 2019533614 A JP2019533614 A JP 2019533614A JP 2019533614 A JP2019533614 A JP 2019533614A JP 2020515931 A5 JP2020515931 A5 JP 2020515931A5
- Authority
- JP
- Japan
- Prior art keywords
- initial
- reconstruction
- enhanced
- segmentation
- geometric features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000011218 segmentation Effects 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 34
- 238000012804 iterative process Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 2
Description
説明していない場合でも、このような装置又は機器は、少なくとも1つのカメラ、少なくとも1つのディスプレイ、又は他の従来の装置も含むこともできる。
なお、上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
シーンの少なくとも1つの画像のセットから、前記シーンのセグメンテーションと3D再構築を組み合わせる方法であって、前記シーンの前記セグメンテーションが、前記シーンの前記3D再構築の各セグメントへの分割に対応し、前記方法が、
前記シーンの初期3D再構築を取得すること(11)と、
前記初期3D再構築に関連付けられた初期3D特徴を取得すること(12)と、
前記初期3D再構築の初期セグメンテーションを取得すること(13)と、
前記シーンの前記初期3D再構築に関連付けられた前記初期3D特徴に対応するように、前記初期3D特徴から、かつ前記セットの少なくとも1つの画像において決定される初期2D特徴から、強化された3D特徴を決定すること(14)であって、前記強化された3D特徴が前記初期セグメンテーションに少なくとも部分的に対応することと、
前記初期セグメンテーションと前記強化された3D特徴の両方から、強化されたセグメンテーションと改良された3D再構築の両方を決定すること(15)と、
を含む、方法。
(付記2)
前記3D特徴が3D特徴線であり、前記2D特徴が2D特徴線である、付記1に記載の方法。
(付記3)
前記シーンの前記初期3D再構築を取得すること(11)が、奥行きデータから前記初期3D再構築を構築することを含む、付記1又は2に記載の方法。
(付記4)
前記初期3D特徴を取得すること(12)が、幾何学的特性及び/又は局所的特徴記述子を使用して、前記シーンの前記初期3D再構築において3D特徴を識別することを含む、付記1乃至3の何れかに記載の方法。
(付記5)
前記シーンの前記少なくとも1つの画像の前記セットが、少なくとも2つの画像を含み、前記方法が、
可視画像として知られている、前記初期3D特徴を含む前記セットの画像を選択することと、
前記可視画像において、前記初期3D特徴にマッチする前記初期2D特徴を識別することと、
から、前記初期2D特徴を決定することを含み、
前記強化された3D特徴を決定することが、
少なくとも2つの可視画像にわたって前記初期2D特徴をマッチさせることによって、幾何学的な手がかりを生成することと、
前記幾何学的な手がかりを用いて前記初期3D特徴を強化して、前記強化された3D特徴を決定することと、
を含む、付記1乃至4の何れかに記載の方法。
(付記6)
前記強化された3D特徴から、また前記セットの前記少なくとも1つの画像において決定される強化された2D特徴から、前記シーンの前記改良された前記3D再構築に関連付けられた、前記強化された3D特徴に対応するように、さらに強化された3D特徴を決定することと、
前記強化されたセグメンテーション、及び前記さらに強化された3D特徴から、さらに強化されたセグメンテーション及びさらに改良された3D再構築を決定することと
を、少なくとも1度は繰返し処理することを含む、付記1乃至5の何れかに記載の方法。
(付記7)
少なくとも前記さらに強化された3D特徴と前記強化された2D特徴との間のマッチングでの所定の精度閾値に達すると、前記繰返し処理が停止される、付記6に記載の方法。
(付記8)
前記所定の精度閾値が、前記シーンの前記3D再構築を前記セグメントに分割する程度によって与えられるセグメンテーション・レベル、前記さらに改良された3D再構築で測定された、隣接する同様の各3D要素間のラベルの一貫性、及び前記セットの前記少なくとも1つの画像と、前記さらに改良された3D再構築との間の位置合せ、のうち少なくとも1つに一緒に適用される、付記7に記載の方法。
(付記9)
所定の数の繰返し処理に達すると前記繰返し処理が停止される、付記6乃至8の何れかに記載の方法。
(付記10)
前記強化されたセグメンテーションがセグメンテーション制約条件に依存する、付記1乃至9の何れかに記載の方法。
(付記11)
前記セグメンテーション制約条件が、少なくとも1つのセグメント形状に関係する、付記10に記載の方法。
(付記12)
前記初期3D再構築及び少なくとも1つの画像の前記セットを、少なくとも1つの入力として受け取ることと、少なくとも1つのプロセッサを用いて、前記強化された3D特徴、強化されたセグメンテーション、及び改良された3D再構築を決定することと、少なくとも1つの出力から、前記強化されたセグメンテーション及び前記改良された3D再構築を出力して、前記改良された3D再構築をユーザに表示し、また前記強化されたセグメンテーションによって、前記改良された3D再構築を処理することとを含む、付記1乃至11の何れかに記載の方法。
(付記13)
通信ネットワークからダウンロード可能であり、及び/又はコンピュータによる読取り可能な媒体上に記録され、及び/又はプロセッサによって実行可能なコンピュータ・プログラム製品であって、プロセッサで実行されるときには、付記1乃至12の何れかに記載の方法を実行するように構成されたソフトウェア・コードを含む、コンピュータ・プログラム製品。
(付記14)
シーンの少なくとも1つの画像のセットから、前記シーンのセグメンテーションと3D再構築を組み合わせるための装置であって、前記シーンの前記セグメンテーションが、前記シーンの前記3D再構築の各セグメントへの分割に対応し、前記装置が、
前記シーンの初期3D再構築を取得し、
前記初期3D再構築に関連付けられた初期3D特徴を取得し、
前記初期3D再構築の初期セグメンテーションを取得し、
前記シーンの前記初期3D再構築に関連付けられた前記初期3D特徴に対応するように、前記初期3D特徴から、かつ前記セットの少なくとも1つの画像において決定される初期2D特徴から、強化された3D特徴を決定し、前記強化された3D特徴が前記初期セグメンテーションに少なくとも部分的に対応し、
前記初期セグメンテーションと前記強化された3D特徴の両方から、強化されたセグメンテーションと改良された3D再構築の両方を決定する、
ように適合され、構成された少なくとも1つのプロセッサを備える、装置。
(付記15)
付記14に記載の装置を備え、好ましくは、携帯電話、タブレット、若しくはヘッドマウント・ディスプレイから選択される携帯機器、又は好ましくはロボット、自律運転機器、若しくはスマート・ホーム機器から選択される自律機器であることを特徴とする、機器。
なお、上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
シーンの少なくとも1つの画像のセットから、前記シーンのセグメンテーションと3D再構築を組み合わせる方法であって、前記シーンの前記セグメンテーションが、前記シーンの前記3D再構築の各セグメントへの分割に対応し、前記方法が、
前記シーンの初期3D再構築を取得すること(11)と、
前記初期3D再構築に関連付けられた初期3D特徴を取得すること(12)と、
前記初期3D再構築の初期セグメンテーションを取得すること(13)と、
前記シーンの前記初期3D再構築に関連付けられた前記初期3D特徴に対応するように、前記初期3D特徴から、かつ前記セットの少なくとも1つの画像において決定される初期2D特徴から、強化された3D特徴を決定すること(14)であって、前記強化された3D特徴が前記初期セグメンテーションに少なくとも部分的に対応することと、
前記初期セグメンテーションと前記強化された3D特徴の両方から、強化されたセグメンテーションと改良された3D再構築の両方を決定すること(15)と、
を含む、方法。
(付記2)
前記3D特徴が3D特徴線であり、前記2D特徴が2D特徴線である、付記1に記載の方法。
(付記3)
前記シーンの前記初期3D再構築を取得すること(11)が、奥行きデータから前記初期3D再構築を構築することを含む、付記1又は2に記載の方法。
(付記4)
前記初期3D特徴を取得すること(12)が、幾何学的特性及び/又は局所的特徴記述子を使用して、前記シーンの前記初期3D再構築において3D特徴を識別することを含む、付記1乃至3の何れかに記載の方法。
(付記5)
前記シーンの前記少なくとも1つの画像の前記セットが、少なくとも2つの画像を含み、前記方法が、
可視画像として知られている、前記初期3D特徴を含む前記セットの画像を選択することと、
前記可視画像において、前記初期3D特徴にマッチする前記初期2D特徴を識別することと、
から、前記初期2D特徴を決定することを含み、
前記強化された3D特徴を決定することが、
少なくとも2つの可視画像にわたって前記初期2D特徴をマッチさせることによって、幾何学的な手がかりを生成することと、
前記幾何学的な手がかりを用いて前記初期3D特徴を強化して、前記強化された3D特徴を決定することと、
を含む、付記1乃至4の何れかに記載の方法。
(付記6)
前記強化された3D特徴から、また前記セットの前記少なくとも1つの画像において決定される強化された2D特徴から、前記シーンの前記改良された前記3D再構築に関連付けられた、前記強化された3D特徴に対応するように、さらに強化された3D特徴を決定することと、
前記強化されたセグメンテーション、及び前記さらに強化された3D特徴から、さらに強化されたセグメンテーション及びさらに改良された3D再構築を決定することと
を、少なくとも1度は繰返し処理することを含む、付記1乃至5の何れかに記載の方法。
(付記7)
少なくとも前記さらに強化された3D特徴と前記強化された2D特徴との間のマッチングでの所定の精度閾値に達すると、前記繰返し処理が停止される、付記6に記載の方法。
(付記8)
前記所定の精度閾値が、前記シーンの前記3D再構築を前記セグメントに分割する程度によって与えられるセグメンテーション・レベル、前記さらに改良された3D再構築で測定された、隣接する同様の各3D要素間のラベルの一貫性、及び前記セットの前記少なくとも1つの画像と、前記さらに改良された3D再構築との間の位置合せ、のうち少なくとも1つに一緒に適用される、付記7に記載の方法。
(付記9)
所定の数の繰返し処理に達すると前記繰返し処理が停止される、付記6乃至8の何れかに記載の方法。
(付記10)
前記強化されたセグメンテーションがセグメンテーション制約条件に依存する、付記1乃至9の何れかに記載の方法。
(付記11)
前記セグメンテーション制約条件が、少なくとも1つのセグメント形状に関係する、付記10に記載の方法。
(付記12)
前記初期3D再構築及び少なくとも1つの画像の前記セットを、少なくとも1つの入力として受け取ることと、少なくとも1つのプロセッサを用いて、前記強化された3D特徴、強化されたセグメンテーション、及び改良された3D再構築を決定することと、少なくとも1つの出力から、前記強化されたセグメンテーション及び前記改良された3D再構築を出力して、前記改良された3D再構築をユーザに表示し、また前記強化されたセグメンテーションによって、前記改良された3D再構築を処理することとを含む、付記1乃至11の何れかに記載の方法。
(付記13)
通信ネットワークからダウンロード可能であり、及び/又はコンピュータによる読取り可能な媒体上に記録され、及び/又はプロセッサによって実行可能なコンピュータ・プログラム製品であって、プロセッサで実行されるときには、付記1乃至12の何れかに記載の方法を実行するように構成されたソフトウェア・コードを含む、コンピュータ・プログラム製品。
(付記14)
シーンの少なくとも1つの画像のセットから、前記シーンのセグメンテーションと3D再構築を組み合わせるための装置であって、前記シーンの前記セグメンテーションが、前記シーンの前記3D再構築の各セグメントへの分割に対応し、前記装置が、
前記シーンの初期3D再構築を取得し、
前記初期3D再構築に関連付けられた初期3D特徴を取得し、
前記初期3D再構築の初期セグメンテーションを取得し、
前記シーンの前記初期3D再構築に関連付けられた前記初期3D特徴に対応するように、前記初期3D特徴から、かつ前記セットの少なくとも1つの画像において決定される初期2D特徴から、強化された3D特徴を決定し、前記強化された3D特徴が前記初期セグメンテーションに少なくとも部分的に対応し、
前記初期セグメンテーションと前記強化された3D特徴の両方から、強化されたセグメンテーションと改良された3D再構築の両方を決定する、
ように適合され、構成された少なくとも1つのプロセッサを備える、装置。
(付記15)
付記14に記載の装置を備え、好ましくは、携帯電話、タブレット、若しくはヘッドマウント・ディスプレイから選択される携帯機器、又は好ましくはロボット、自律運転機器、若しくはスマート・ホーム機器から選択される自律機器であることを特徴とする、機器。
Claims (15)
- シーンの少なくとも1つの画像のセットから、前記シーンのセグメンテーションと3D再構築を組み合わせる方法であって、前記シーンの前記セグメンテーションが、前記シーンの前記3D再構築の各セグメントへの分割に対応し、前記方法が、
前記シーンの初期3D再構築を取得することと、
前記初期3D再構築に関連付けられた初期3D幾何学的特徴を取得することと、
前記初期3D再構築の初期セグメンテーションを取得することと、
前記初期3D幾何学的特徴から、かつ前記セットの少なくとも1つの画像において決定される初期2D幾何学的特徴から、強化された3D幾何学的特徴を決定することであって、前記少なくとも1つの画像が、前記シーンの前記初期3D再構築に関連付けられた前記初期3D幾何学的特徴に基づいて選択され、前記強化された3D幾何学的特徴が前記初期セグメンテーションに少なくとも部分的に対応することと、
前記初期セグメンテーションと前記強化された3D幾何学的特徴の両方から、強化されたセグメンテーションと改良された3D再構築の両方を決定することと、
を含む、方法。 - 前記3D幾何学的特徴が3D特徴線であり、前記2D幾何学的特徴が2D特徴線である、請求項1に記載の方法。
- 前記シーンの前記初期3D再構築を取得することが、奥行きデータから前記初期3D再構築を構築することを含む、請求項1又は2に記載の方法。
- 前記初期3D幾何学的特徴を取得することが、幾何学的特性及び/又は局所的特徴記述子を使用して、前記シーンの前記初期3D再構築において3D特徴を識別することを含む、請求項1乃至3の何れか1項に記載の方法。
- 前記シーンの前記少なくとも1つの画像の前記セットが、少なくとも2つの画像を含み、前記方法が、
可視画像として知られている、前記初期3D幾何学的特徴を含む前記セットの画像を選択することと、
前記可視画像において、前記初期3D特徴にマッチする前記初期2D幾何学的特徴を識別することと、
から、前記初期2D幾何学的特徴を決定することを含み、
前記強化された3D幾何学的特徴を決定することが、
少なくとも2つの可視画像にわたって前記初期2D幾何学的特徴をマッチさせることによって、幾何学的な手がかりを生成することと、
前記幾何学的な手がかりを用いて前記初期3D幾何学的特徴を強化して、前記強化された3D幾何学的特徴を決定することと、
を含む、請求項1乃至4の何れか1項に記載の方法。 - 前記強化された3D幾何学的特徴から、また前記セットの前記少なくとも1つの画像において決定される強化された2D幾何学的特徴から、前記シーンの前記改良された前記3D再構築に関連付けられた、前記強化された3D幾何学的特徴に対応するように、さらに強化された3D幾何学的特徴を決定することと、
前記強化されたセグメンテーション、及び前記さらに強化された3D幾何学的特徴から、さらに強化されたセグメンテーション及びさらに改良された3D再構築を決定することと
を、少なくとも1度は繰返し処理することを含む、請求項1乃至5の何れか1項に記載の方法。 - 少なくとも前記さらに強化された3D幾何学的特徴と前記強化された2D幾何学的特徴との間のマッチングでの所定の精度閾値に達すると、前記繰返し処理が停止される、請求項6に記載の方法。
- 前記所定の精度閾値が、前記シーンの前記3D再構築を前記セグメントに分割する程度によって与えられるセグメンテーション・レベル、前記さらに改良された3D再構築で測定された、隣接する同様の各3D要素間のラベルの一貫性、及び前記セットの前記少なくとも1つの画像と、前記さらに改良された3D再構築との間の位置合せ、のうち少なくとも1つに一緒に適用される、請求項7に記載の方法。
- 所定の数の繰返し処理に達すると前記繰返し処理が停止される、請求項6乃至8の何れか1項に記載の方法。
- 前記強化されたセグメンテーションがセグメンテーション制約条件に依存する、請求項1乃至9の何れか1項に記載の方法。
- 前記セグメンテーション制約条件が、少なくとも1つのセグメント形状に関係する、請求項10に記載の方法。
- 前記初期3D再構築及び少なくとも1つの画像の前記セットを、少なくとも1つの入力として受け取ることと、少なくとも1つのプロセッサを用いて、前記強化された3D幾何学的特徴、強化されたセグメンテーション、及び改良された3D再構築を決定することと、少なくとも1つの出力から、前記強化されたセグメンテーション及び前記改良された3D再構築を出力して、前記改良された3D再構築をユーザに表示し、また前記強化されたセグメンテーションによって、前記改良された3D再構築を処理することとを含む、請求項1乃至11の何れか1項に記載の方法。
- 通信ネットワークからダウンロード可能であり、及び/又はコンピュータによる読取り可能な媒体上に記録され、及び/又はプロセッサによって実行可能なコンピュータ・プログラム製品であって、プロセッサで実行されるときには、請求項1乃至12の何れか1項に記載の方法を実行するように構成されたソフトウェア・コードを含む、コンピュータ・プログラム製品。
- シーンの少なくとも1つの画像のセットから、前記シーンのセグメンテーションと3D再構築を組み合わせるための装置であって、前記シーンの前記セグメンテーションが、前記シーンの前記3D再構築の各セグメントへの分割に対応し、前記装置が、
前記シーンの初期3D再構築を取得し、
前記初期3D再構築に関連付けられた初期3D幾何学的特徴を取得し、
前記初期3D再構築の初期セグメンテーションを取得し、
前記初期3D幾何学的特徴から、かつ前記セットの少なくとも1つの画像において決定される初期2D幾何学的特徴から、強化された3D幾何学的特徴を決定し、前記少なくとも1つの画像が、前記シーンの前記初期3D再構築に関連付けられた前記初期3D幾何学的特徴に基づいて選択され、前記強化された3D幾何学的特徴が前記初期セグメンテーションに少なくとも部分的に対応し、
前記初期セグメンテーションと前記強化された3D幾何学的特徴の両方から、強化されたセグメンテーションと改良された3D再構築の両方を決定する、
ように適合され、構成された少なくとも1つのプロセッサを備える、装置。 - 請求項14に記載の装置を備え、好ましくは、携帯電話、タブレット、若しくはヘッドマウント・ディスプレイから選択される携帯機器、又は好ましくはロボット、自律運転機器、若しくはスマート・ホーム機器から選択される自律機器であることを特徴とする、機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16306836.4A EP3343506A1 (en) | 2016-12-28 | 2016-12-28 | Method and device for joint segmentation and 3d reconstruction of a scene |
EP16306836.4 | 2016-12-28 | ||
PCT/EP2017/084008 WO2018122087A1 (en) | 2016-12-28 | 2017-12-21 | Method and device for joint segmentation and 3d reconstruction of a scene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020515931A JP2020515931A (ja) | 2020-05-28 |
JP2020515931A5 true JP2020515931A5 (ja) | 2021-02-04 |
Family
ID=57755156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019533614A Withdrawn JP2020515931A (ja) | 2016-12-28 | 2017-12-21 | シーンのセグメンテーションと3d再構築を組み合わせるための方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20200380711A1 (ja) |
EP (2) | EP3343506A1 (ja) |
JP (1) | JP2020515931A (ja) |
KR (1) | KR20190101382A (ja) |
CN (1) | CN110121733A (ja) |
WO (1) | WO2018122087A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10495476B1 (en) * | 2018-09-27 | 2019-12-03 | Phiar Technologies, Inc. | Augmented reality navigation systems and methods |
US11448518B2 (en) | 2018-09-27 | 2022-09-20 | Phiar Technologies, Inc. | Augmented reality navigational overlay |
US10846817B2 (en) * | 2018-11-15 | 2020-11-24 | Toyota Research Institute, Inc. | Systems and methods for registering 3D data with 2D image data |
US11127162B2 (en) | 2018-11-26 | 2021-09-21 | Ford Global Technologies, Llc | Method and apparatus for improved location decisions based on surroundings |
US10704918B2 (en) | 2018-11-26 | 2020-07-07 | Ford Global Technologies, Llc | Method and apparatus for improved location decisions based on surroundings |
US11175156B2 (en) * | 2018-12-12 | 2021-11-16 | Ford Global Technologies, Llc | Method and apparatus for improved location decisions based on surroundings |
WO2020195877A1 (ja) * | 2019-03-25 | 2020-10-01 | ソニー株式会社 | 医療システム、信号処理装置、及び、信号処理方法 |
US11176374B2 (en) * | 2019-05-01 | 2021-11-16 | Microsoft Technology Licensing, Llc | Deriving information from images |
JP7331524B2 (ja) * | 2019-07-24 | 2023-08-23 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
CN111179394A (zh) * | 2019-11-25 | 2020-05-19 | 苏州智加科技有限公司 | 点云场景渲染方法、装置和设备 |
US11417063B2 (en) * | 2020-09-01 | 2022-08-16 | Nvidia Corporation | Determining a three-dimensional representation of a scene |
CN113159151B (zh) * | 2021-04-12 | 2022-09-06 | 中国科学技术大学 | 面向自动驾驶的多传感器深度融合3d目标检测方法 |
CN113256698B (zh) * | 2021-06-09 | 2021-11-05 | 中国人民解放军国防科技大学 | 一种具有深度预测的单目3d重建方法 |
CN114494668B (zh) * | 2022-04-13 | 2022-07-15 | 腾讯科技(深圳)有限公司 | 三维模型的展开方法、装置、设备及存储介质 |
WO2023242983A1 (ja) * | 2022-06-15 | 2023-12-21 | 株式会社ニコン | 加工制御情報生成方法、加工方法及びモデル生成方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2001250802A1 (en) * | 2000-03-07 | 2001-09-17 | Sarnoff Corporation | Camera pose estimation |
US6847728B2 (en) * | 2002-12-09 | 2005-01-25 | Sarnoff Corporation | Dynamic depth recovery from multiple synchronized video streams |
US7324687B2 (en) * | 2004-06-28 | 2008-01-29 | Microsoft Corporation | Color segmentation-based stereo 3D reconstruction system and process |
KR101055411B1 (ko) * | 2010-03-12 | 2011-08-09 | 이상원 | 입체 영상 생성 방법 및 그 장치 |
US10734116B2 (en) * | 2011-10-04 | 2020-08-04 | Quantant Technology, Inc. | Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data |
US9102055B1 (en) * | 2013-03-15 | 2015-08-11 | Industrial Perception, Inc. | Detection and reconstruction of an environment to facilitate robotic interaction with the environment |
US9659408B2 (en) * | 2013-11-27 | 2017-05-23 | Autodesk, Inc. | Mesh reconstruction from heterogeneous sources of data |
GB2526838B (en) * | 2014-06-04 | 2016-06-01 | Imagination Tech Ltd | Relightable texture for use in rendering an image |
US10311606B2 (en) * | 2014-08-16 | 2019-06-04 | Fei Company | Correction of beam hardening artifacts in microtomography for samples imaged in containers |
CN106228507B (zh) * | 2016-07-11 | 2019-06-25 | 天津中科智能识别产业技术研究院有限公司 | 一种基于光场的深度图像处理方法 |
-
2016
- 2016-12-28 EP EP16306836.4A patent/EP3343506A1/en not_active Withdrawn
-
2017
- 2017-12-21 US US16/474,860 patent/US20200380711A1/en not_active Abandoned
- 2017-12-21 EP EP17818151.7A patent/EP3563346A1/en not_active Withdrawn
- 2017-12-21 WO PCT/EP2017/084008 patent/WO2018122087A1/en unknown
- 2017-12-21 KR KR1020197018567A patent/KR20190101382A/ko not_active Application Discontinuation
- 2017-12-21 CN CN201780081492.3A patent/CN110121733A/zh active Pending
- 2017-12-21 JP JP2019533614A patent/JP2020515931A/ja not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020515931A5 (ja) | ||
KR102476294B1 (ko) | Ar/vr 디지털 콘텐츠를 생성하기 위한 디지털 이미지 적합성 결정 | |
US10564628B2 (en) | Generating of 3D-printed custom wearables | |
JP6154075B2 (ja) | オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品 | |
CN108875523B (zh) | 人体关节点检测方法、装置、系统和存储介质 | |
CN111787242B (zh) | 用于虚拟试衣的方法和装置 | |
US20150356770A1 (en) | Street view map display method and system | |
US9607394B2 (en) | Information processing method and electronic device | |
WO2015102854A1 (en) | Assigning virtual user interface to physical object | |
JP2016521882A5 (ja) | ||
CN108986197B (zh) | 3d骨架线构建方法及装置 | |
CN110866977A (zh) | 增强现实处理方法及装置、系统、存储介质和电子设备 | |
EP4167194A1 (en) | Key point detection method and apparatus, model training method and apparatus, device and storage medium | |
JP2016509889A5 (ja) | ||
CN106887018A (zh) | 立体匹配方法、控制器和系统 | |
US10147240B2 (en) | Product image processing method, and apparatus and system thereof | |
KR20160035290A (ko) | 2차원 코드 인식률 향상 방법, 서버 및 컴퓨터 프로그램 | |
CN111640184A (zh) | 古建筑物重现方法、装置、电子设备及存储介质 | |
KR20210120599A (ko) | 아바타 서비스 제공 방법 및 시스템 | |
KR20230107093A (ko) | 사용자에게 적합한 라스트 수치 정보를 제공하는 장치, 방법 및 프로그램 | |
US20140198177A1 (en) | Realtime photo retouching of live video | |
CN110765926B (zh) | 图画书识别方法、装置、电子设备和存储介质 | |
US20130050190A1 (en) | Dressing simulation system and method | |
JP2017535835A5 (ja) | ||
CN106470337A (zh) | 用于个性化全方向视频景深的方法、装置和计算机程序产品 |