JP2020506487A - シーンから深度情報を取得するための装置および方法 - Google Patents
シーンから深度情報を取得するための装置および方法 Download PDFInfo
- Publication number
- JP2020506487A JP2020506487A JP2019542566A JP2019542566A JP2020506487A JP 2020506487 A JP2020506487 A JP 2020506487A JP 2019542566 A JP2019542566 A JP 2019542566A JP 2019542566 A JP2019542566 A JP 2019542566A JP 2020506487 A JP2020506487 A JP 2020506487A
- Authority
- JP
- Japan
- Prior art keywords
- images
- camera
- image
- depth
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 113
- 230000008569 process Effects 0.000 claims description 38
- 238000003384 imaging method Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 7
- 238000012417 linear regression Methods 0.000 claims description 5
- 238000003708 edge detection Methods 0.000 claims description 4
- 230000008447 perception Effects 0.000 claims description 4
- 206010044565 Tremor Diseases 0.000 description 18
- 238000012545 processing Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000003702 image correction Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 241000251730 Chondrichthyes Species 0.000 description 2
- 208000018737 Parkinson disease Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
プレノプティックカメラ:空間位置だけでなく、入射光線の到来方向も取得することができる装置。
a)(2)撮影時に少なくとも1台のカメラによってシーンの複数の画像を取得するステップであって、前記複数の画像は、前記シーンの少なくとも2つの異なったビューを提供するステップ;
b)ステップa)の画像の各々について、6軸基準系を基準とする画像の位置に関するデータを同時に取得するステップ;
c)ステップb)の画像から少なくとも2つの画像を選択するステップ;
d)ステップc)で選択された画像を修正し、それによって修正された画像のセットを生成し、e)修正された画像から深度マップを生成する。
[0065]
必要なタイミングと、我々の目的を達成するために技術的に実現可能なものとを比較しよう。手の振戦は毎秒8〜13サイクルの低周波数の動きを示し、その間、最新のカメラシステムおよび光センサによって120回のショットを撮影することができ、その間、最新の加速度計およびジャイロスコープによって500回の読み取り値をサンプリングすることができる。図14は既製のスマートフォンの加速度計によって検出されたxおよびy方向の空間移動の2秒間の記録であり(z方向および典型的なヨー、ロール、およびピッチもまた記録され、計算に使用され得る)、図14というこの特定の場合において、スマートフォンはアマチュアのライフルユーザによって保持されている(通常の人の場合、動作はわずかに大きく、パーキンソン病に罹患している人の場合、動作はるかに高い)、図はx軸(図14では垂直)ではほぼ4ミリメートル、y軸(図14では水平)ではほぼ2ミリメートルの移動範囲を示す。これらの変位は典型的なプレノプティックカメラと同等のカメラ間の間隔の典型的な「狭いベースライン」dよりも大きい(2mmで、一マイクロレンズ当たり10画素の入射瞳は最小ベースライン(図5Aの「狭いベースライン」dは0.2mm)をもたらす)すなわち0.1〜0.3mmのプレノプティックカメラの典型的なベースラインdと比較する場合、図14は手の震えによってベースラインが生成される場合、同じベースラインが100〜200ミリ秒ごとに起こる可能性が高いことを示す。そのため、提案された発明は、シーンの深度マップを作成するのに十分な画像およびデータを取得するのに約200msを必要とする。200msの時間隔内に120fpsの典型的なフレームレートで画像を撮影する一実施形態においては、本発明は24フレームを取得する。これらのフレームは、モバイル機器が手の震えまたは任意の他の振動に基づいて動いている間に取得される。これらの24個のフレームから、それらの間に最も長いベースラインを有する2つのフレームを選択することができ、このベースラインは、より長い距離について得られる精度に関してマルチビューカメラの深度マップの品質を改善するのに十分な長さである。
Claims (40)
- シーンから深度情報を取得する方法であって、
a)撮影時に少なくとも1台のカメラによって前記シーンの複数の画像を取得するステップであって、前記複数の画像は、前記シーンの少なくとも2つの異なったビューを提供するステップと;
b)ステップa)の前記画像の各々について、6軸基準系を基準とする前記画像の位置に関するデータを同時に取得するステップと;
c)ステップb)の前記画像から少なくとも2つの画像を選択するステップと;
d)ステップc)で選択された前記画像を修正し、それによって修正された画像のセットを生成するステップと、
e)前記修正された画像から深度マップを生成するステップと、を含むことを特徴とする方法。 - 前記撮影中の前記画像の位置は、加速度計、IMU、AHRS、GPS、スピードメータおよびジャイロスコープの群から選択される少なくとも1つの測位装置によって取得される測位データのセットから測定される、請求項1に記載の方法。
- 前記測位装置は、少なくとも1台のカメラに強固に取り付けられる、請求項2に記載の方法。
- 少なくとも1台のカメラがモバイル機器に関連する、請求項1から3のいずれかに記載の方法。
- 前記モバイル機器が、スマートフォン、タブレット、ノートパソコン、またはコンパクトカメラである請求項4に記載の方法。
- ステップc)において、前記画像は、前記6軸基準系におけるそれらの位置に基づいて選択される、請求項1から5のいずれかに記載の方法。
- 前記画像は、隣接する画像に対するそれらの相対距離(d)が、大きくとも1画素の隣接する画像間の視差を引き起こすように選択される、請求項6に記載の方法。
- ステップe)は前記修正された画像を用いて仮想合成開口インテグラルイメージングシステム(16200)を生成し、それによってエピポーラ画像のセットを生成するステップを含む、請求項7に記載の方法。
- 前記画像は、少なくとも1つの画像がその隣接する画像との相対距離が1画素よりも大きい画素間の視差を引き起こすように選択される、請求項6に記載の方法。
- ステップe)は前記修正された画像を用いて仮想立体プレノプティックシステムを生成し、それによってエピポーラ画像のセットを生成するステップを含む、請求項9に記載の方法。
- ステップe)は、エピポーラ画像の前記セットから少なくとも1つのエピポーラ線の少なくとも1つの勾配を計算するステップをさらに含む、請求項8または10に記載の方法。
- 前記エピポーラ線は、エッジ検出アルゴリズムを使用して、好ましくはサブ画素レベルで計算される、請求項11に記載の方法。
- 前記エピポーラ線の勾配は、線形回帰アルゴリズムを使用して、好ましくはサブ画素レベルで計算される、請求項11に記載の方法。
- ステップe)は、前記エピポーラ線の前記勾配を深度に変換することによって、前記シーンの深度マップを取得するステップをさらに含む、請求項11に記載の方法。
- ステップe)は、前記深度マップを生成するために、マルチビューマッチングアルゴリズム、好ましくはステレオマッチングアルゴリズムを使用するステップを含む、請求項1から14のいずれかに記載の方法。
- 前記方法が、前記深度マップから前記シーンの3次元画像を生成するステップをさらに含む、請求項1から15のいずれかに記載の方法。
- ステップa)において、少なくとも1台のカメラが、前記撮影中に移動される、請求項1から16のいずれかに記載の方法。
- 少なくとも1台のカメラの前記動きが、人間の手の振動によって生じる不確実なランダムな運動である、請求項17に記載の方法。
- 少なくとも1台のカメラが、前記シーンに対して移動する構造物、好ましくは自動車に取り付けられる、請求項17に記載の方法。
- ステップa)の前記複数の画像は、少なくとも2台のカメラによって取得される、請求項1から19のいずれかに記載の方法。
- 前記少なくとも2台のカメラが整列され、それらの相対位置が既知である請求項20に記載の方法。
- 前記カメラの少なくとも1つがプレノプティックカメラである請求項20または21に記載の方法。
- ビデオシーケンスは、オブジェクト世界の異なる深度に位置する少なくとも2つの深度レベルの前景、任意の中景、および背景の2D画像とともに構成され、連続するフレームにおける異なるレベルの2D画像の前記組み合わせ、背景により近い2D画像における遮蔽の変化、および前景により近い2D画像における視点およびサイズの変化のうち少なくとも一つは、ユーザに3D知覚を生成する、請求項1から22のいずれかに記載の方法。
- 統計的ノイズを低減するために、垂直または水平次元に沿って分布する前記エピポーラ画像の一部のみまたは全部が考慮される、請求項1から23のいずれかに記載の方法。
- 前記水平および垂直エピポーラ線を分析することによって得られる前記勾配は、多次元マトリックスに組み合わされる、請求項1から24のいずれかに記載の方法。
- 前記水平および垂直エピポーラ線のうち少なくとも一方において計算された深度/勾配が、2次元疎深度/勾配マップに直接組み合わされる、請求項1から25のいずれかに記載の方法。
- 前記疎深度/勾配マップは、画像充填技術を適用して充填され、各画素について深度/勾配値を得ることができる、請求項1から26のいずれかに記載の方法。
- 深度推定のために、計算は、オブジェクト世界のエッジが検出されたはずのセンサのそれらの画素に対してのみ実行される、請求項1から27のいずれかに記載の方法。
- シーンから深度情報を取得するための装置であって、少なくとも1台のカメラと、少なくとも1つの測位装置と、請求項1から28のいずれかに記載の方法を実行するように構成されたプロセス手段とを備える装置。
- 前記装置は、少なくとも2台のカメラを備える、請求項29に記載の装置。
- 前記カメラの少なくとも1台がプレノプティックカメラである、請求項30に記載の装置。
- 前記カメラが整列され、それらの相対位置が既知である請求項29に記載の装置。
- 前記装置は少なくとも第3のカメラを含み、前記カメラの1台は前記プレノプティックカメラと水平に位置合わせされ、前記カメラの少なくとも1台は前記プレノプティックカメラと垂直に位置合わせされる、請求項29〜32のいずれかに記載の装置。
- 前記深度情報を取得するための方法は、:
a)撮影中に前記シーンの複数の画像を取得するステップであって、前記複数の画像は少なくとも2台のカメラから前記シーンの少なくとも2つの異なるビューを提供するステップと;
b)ステップa)からの前記画像を修正し、それによって、修正された画像のセットを生成するステップと;
c)前記修正された画像から深度マップを生成するステップと、を含む、請求項29〜33のいずれかに記載の装置。 - ビデオシーケンスは、オブジェクト世界の異なる深度に位置する少なくとも2つの深度レベルの前景、任意の中景、および背景の2D画像とともに構成され、連続するフレームにおける異なるレベルの2D画像の前記組み合わせ、背景により近い2D画像における遮蔽の変化、および前景により近い2D画像における視点およびサイズの変化のうち少なくとも一つは、ユーザに3D知覚を生成する、請求項29〜34のいずれかに記載の装置。
- 統計的ノイズを低減するために、垂直または水平次元に沿って分布されたエピポーラ画像の一部のみまたは全部が考慮される、請求項29〜35のいずれかに記載の装置。
- 前記水平および垂直エピポーラ線を分析することによって得られた前記勾配が、多次元マトリックスに組み合わされる、請求項29〜36のいずれかに記載の装置。
- 前記水平および垂直エピポーラ線のうち少なくとも一方において計算された深度/勾配が、2次元疎深度/勾配マップと直接組み合わされる、請求項29〜37のいずれかに記載の装置。
- 前記疎深度/勾配マップは、すべての画素について深度/勾配値を得るために、画像充填技術を適用することによって充填される、請求項29〜38のいずれかに記載の装置。
- 深度推定のために、前記計算が、オブジェクト世界のエッジが検出されたはずのセンサの画素に対してのみ実行される、請求項29〜39のいずれかに記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2017/052542 WO2018141414A1 (en) | 2017-02-06 | 2017-02-06 | Device and method for obtaining depth information from a scene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020506487A true JP2020506487A (ja) | 2020-02-27 |
JP6974873B2 JP6974873B2 (ja) | 2021-12-01 |
Family
ID=57984939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019542566A Active JP6974873B2 (ja) | 2017-02-06 | 2017-02-06 | シーンから深度情報を取得するための装置および方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11145077B2 (ja) |
JP (1) | JP6974873B2 (ja) |
CN (1) | CN110462686B (ja) |
ES (1) | ES2747387B1 (ja) |
WO (1) | WO2018141414A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3416381A1 (en) | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method and apparatus for providing information to a user observing a multi view content |
EP3416371A1 (en) * | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method for displaying, on a 2d display device, a content derived from light field data |
JP2019015553A (ja) * | 2017-07-05 | 2019-01-31 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法および個体撮像装置 |
US20200137380A1 (en) * | 2018-10-31 | 2020-04-30 | Intel Corporation | Multi-plane display image synthesis mechanism |
CN111353934B (zh) * | 2018-12-24 | 2023-05-16 | 杭州海康威视数字技术股份有限公司 | 一种视频合成的方法及装置 |
US11313696B2 (en) * | 2019-03-01 | 2022-04-26 | GM Global Technology Operations LLC | Method and apparatus for a context-aware crowd-sourced sparse high definition map |
WO2020255399A1 (ja) | 2019-06-21 | 2020-12-24 | 株式会社ソニー・インタラクティブエンタテインメント | 位置検出システム、画像処理装置、位置検出方法および位置検出プログラム |
US10935783B1 (en) * | 2019-09-17 | 2021-03-02 | Aquabyte, Inc. | Optical system for capturing digital images in an aquaculture environment in situ |
CN112750156B (zh) * | 2020-03-16 | 2022-09-09 | 奕目(上海)科技有限公司 | 光场成像系统、处理方法和装置 |
US11568526B2 (en) | 2020-09-04 | 2023-01-31 | Altek Semiconductor Corp. | Dual sensor imaging system and imaging method thereof |
US11418719B2 (en) | 2020-09-04 | 2022-08-16 | Altek Semiconductor Corp. | Dual sensor imaging system and calibration method which includes a color sensor and an infrared ray sensor to perform image alignment and brightness matching |
US11689822B2 (en) | 2020-09-04 | 2023-06-27 | Altek Semiconductor Corp. | Dual sensor imaging system and privacy protection imaging method thereof |
US11496660B2 (en) | 2020-09-04 | 2022-11-08 | Altek Semiconductor Corp. | Dual sensor imaging system and depth map calculation method thereof |
US11496694B2 (en) | 2020-09-04 | 2022-11-08 | Altek Semiconductor Corp. | Dual sensor imaging system and imaging method thereof |
CN114143418B (zh) * | 2020-09-04 | 2023-12-01 | 聚晶半导体股份有限公司 | 双传感器摄像系统及其摄像方法 |
KR20220170090A (ko) * | 2021-06-22 | 2022-12-29 | 에스케이하이닉스 주식회사 | 멀티-뷰 이미지에서 노이즈 감소를 위한 장치 및 방법 |
US11887248B2 (en) | 2021-06-24 | 2024-01-30 | Toyota Research Institute, Inc. | Systems and methods for reconstructing a scene in three dimensions from a two-dimensional image |
CN117491355B (zh) * | 2023-11-06 | 2024-07-02 | 广州航海学院 | 一种耙齿类大构件立体曲面磨损量视觉检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03119482A (ja) * | 1989-10-03 | 1991-05-21 | Nippon Telegr & Teleph Corp <Ntt> | 画像情報生成方法 |
JPH08147497A (ja) * | 1994-11-25 | 1996-06-07 | Canon Inc | 画像処理方法及びその装置 |
JP2013077307A (ja) * | 2007-10-30 | 2013-04-25 | Canon Inc | 画像処理装置、画像処理方法 |
JP2013537728A (ja) * | 2010-06-09 | 2013-10-03 | アップル インコーポレイテッド | 知覚深度を有するビデオを提供するビデオカメラ |
US20140375788A1 (en) * | 2013-06-19 | 2014-12-25 | Thaddeus Gabara | Method and Apparatus for a Self-Focusing Camera and Eyeglass System |
EP2887642A2 (en) * | 2013-12-23 | 2015-06-24 | Nokia Corporation | Method, apparatus and computer program product for image refocusing for light-field images |
JP2015524202A (ja) * | 2012-06-01 | 2015-08-20 | オステンド・テクノロジーズ・インコーポレーテッド | 時空間ライトフィールドカメラ |
WO2016007261A1 (en) * | 2014-07-08 | 2016-01-14 | Qualcomm Incorporated | Systems and methods for stereo depth estimation using global minimization and depth interpolation |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130127988A1 (en) * | 2011-11-17 | 2013-05-23 | Sen Wang | Modifying the viewpoint of a digital image |
US9025859B2 (en) * | 2012-07-30 | 2015-05-05 | Qualcomm Incorporated | Inertial sensor aided instant autofocus |
US9384551B2 (en) * | 2013-04-08 | 2016-07-05 | Amazon Technologies, Inc. | Automatic rectification of stereo imaging cameras |
EP2854104A1 (en) * | 2013-09-25 | 2015-04-01 | Technische Universität München | Semi-dense simultaneous localization and mapping |
CN103793911A (zh) * | 2014-01-24 | 2014-05-14 | 北京科技大学 | 一种基于集成图像技术的场景深度获取方法 |
CA2848794C (en) * | 2014-04-11 | 2016-05-24 | Blackberry Limited | Building a depth map using movement of one camera |
US10008027B1 (en) * | 2014-10-20 | 2018-06-26 | Henry Harlyn Baker | Techniques for determining a three-dimensional representation of a surface of an object from a set of images |
US9292926B1 (en) * | 2014-11-24 | 2016-03-22 | Adobe Systems Incorporated | Depth map generation |
US9813621B2 (en) * | 2015-05-26 | 2017-11-07 | Google Llc | Omnistereo capture for mobile devices |
EP3395066B1 (en) * | 2015-12-25 | 2022-08-03 | BOE Technology Group Co., Ltd. | Depth map generation apparatus, method and non-transitory computer-readable medium therefor |
US10728529B2 (en) * | 2018-09-06 | 2020-07-28 | Qualcomm Incorporated | Synchronization of frame captures from multiple cameras with different fields of capture |
US11830163B2 (en) * | 2019-07-01 | 2023-11-28 | Geomagical Labs, Inc. | Method and system for image generation |
-
2017
- 2017-02-06 JP JP2019542566A patent/JP6974873B2/ja active Active
- 2017-02-06 ES ES201990066A patent/ES2747387B1/es active Active
- 2017-02-06 CN CN201780089095.0A patent/CN110462686B/zh active Active
- 2017-02-06 US US16/483,552 patent/US11145077B2/en active Active
- 2017-02-06 WO PCT/EP2017/052542 patent/WO2018141414A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03119482A (ja) * | 1989-10-03 | 1991-05-21 | Nippon Telegr & Teleph Corp <Ntt> | 画像情報生成方法 |
JPH08147497A (ja) * | 1994-11-25 | 1996-06-07 | Canon Inc | 画像処理方法及びその装置 |
JP2013077307A (ja) * | 2007-10-30 | 2013-04-25 | Canon Inc | 画像処理装置、画像処理方法 |
JP2013537728A (ja) * | 2010-06-09 | 2013-10-03 | アップル インコーポレイテッド | 知覚深度を有するビデオを提供するビデオカメラ |
JP2015524202A (ja) * | 2012-06-01 | 2015-08-20 | オステンド・テクノロジーズ・インコーポレーテッド | 時空間ライトフィールドカメラ |
US20140375788A1 (en) * | 2013-06-19 | 2014-12-25 | Thaddeus Gabara | Method and Apparatus for a Self-Focusing Camera and Eyeglass System |
EP2887642A2 (en) * | 2013-12-23 | 2015-06-24 | Nokia Corporation | Method, apparatus and computer program product for image refocusing for light-field images |
WO2016007261A1 (en) * | 2014-07-08 | 2016-01-14 | Qualcomm Incorporated | Systems and methods for stereo depth estimation using global minimization and depth interpolation |
Non-Patent Citations (2)
Title |
---|
ZESHAN ALAM, M. ET AL., HYBRID LIGHT FIELD IMAGING FOR IMPROVED SPATIAL RESOLUTION AND DEPTH RANGE [ONLINE], JPN5020002730, 15 November 2016 (2016-11-15), pages 1 - 9, ISSN: 0004419734 * |
日浦慎作: "コンピュテーショナルフォトグラフィ理解のための光学系入門", 情報処理学会研究報告 [CD-ROM], vol. Vol. 2010-CVIM-171, No.13, JPN6020050900, 15 April 2010 (2010-04-15), pages 1 - 12, ISSN: 0004419733 * |
Also Published As
Publication number | Publication date |
---|---|
ES2747387B1 (es) | 2021-07-27 |
ES2747387A2 (es) | 2020-03-10 |
WO2018141414A1 (en) | 2018-08-09 |
ES2747387R1 (es) | 2020-03-25 |
CN110462686A (zh) | 2019-11-15 |
JP6974873B2 (ja) | 2021-12-01 |
CN110462686B (zh) | 2023-08-11 |
US11145077B2 (en) | 2021-10-12 |
US20200134849A1 (en) | 2020-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6974873B2 (ja) | シーンから深度情報を取得するための装置および方法 | |
CN108765498B (zh) | 单目视觉跟踪方法、装置及存储介质 | |
US7126630B1 (en) | Method and apparatus for omni-directional image and 3-dimensional data acquisition with data annotation and dynamic range extension method | |
TWI555379B (zh) | 一種全景魚眼相機影像校正、合成與景深重建方法與其系統 | |
US8848035B2 (en) | Device for generating three dimensional surface models of moving objects | |
CN109813251A (zh) | 用于三维测量的方法、装置以及系统 | |
JP2017022694A (ja) | ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品 | |
CN106643699A (zh) | 一种虚拟现实系统中的空间定位装置和定位方法 | |
WO2002065786A1 (en) | Method and apparatus for omni-directional image and 3-dimensional data acquisition with data annotation and dynamic range extension method | |
US10545215B2 (en) | 4D camera tracking and optical stabilization | |
EP2990757B1 (en) | Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program | |
CN110544278B (zh) | 刚体运动捕捉方法及装置、agv位姿捕捉系统 | |
CN111854636A (zh) | 一种多相机阵列三维检测系统和方法 | |
CN110969706B (zh) | 增强现实设备及其图像处理方法、系统以及存储介质 | |
US20160044295A1 (en) | Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program | |
KR20220121533A (ko) | 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치 | |
JP3221384B2 (ja) | 三次元座標計測装置 | |
JPH1023465A (ja) | 撮像方法及び装置 | |
JP6595878B2 (ja) | 要素画像群生成装置及びそのプログラム | |
KR102298047B1 (ko) | 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치 | |
JP5409451B2 (ja) | 3次元変化検出装置 | |
CN106846469B (zh) | 基于特征点追踪由聚焦堆栈重构三维场景的方法和装置 | |
CN116887058B (zh) | 图像采集方法、装置、采集设备和存储介质 | |
WO2022019128A1 (ja) | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 | |
JP4136652B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191008 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210106 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6974873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |