JP2017535884A - ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置 - Google Patents
ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置 Download PDFInfo
- Publication number
- JP2017535884A JP2017535884A JP2017527249A JP2017527249A JP2017535884A JP 2017535884 A JP2017535884 A JP 2017535884A JP 2017527249 A JP2017527249 A JP 2017527249A JP 2017527249 A JP2017527249 A JP 2017527249A JP 2017535884 A JP2017535884 A JP 2017535884A
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- points
- geometric entity
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000001914 filtration Methods 0.000 title claims abstract description 50
- 230000003044 adaptive effect Effects 0.000 title abstract description 5
- 238000004458 analytical method Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 abstract description 10
- 230000004075 alteration Effects 0.000 abstract description 6
- 230000009466 transformation Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000011218 segmentation Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 210000000677 aggregate cell Anatomy 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
Description
−3Dスキャナまたは飛行時間型(TOF)カメラ等の機器。この種の3Dセンサは、各ピクセルが、シーン内の点と特定の点との距離に対応する奥行き画像を提供する。得られた奥行き画像は一般に極めて高精度であるものの、収差(例えばTOFカメラの場合は「斑点」)を含んでいる。これらの機器は、一千〜数千ユーロと高価であるため、コストが主な障壁ではないアプリケーションでの利用に限定される。更に、これらの3Dセンサの多くは画像が低解像度であるためリアルタイムアプリケーションでは使用できない。
−特定の処理動作(例:視差計算)と組み合わせた、一般にカメラおよび/またはプロジェクタのアセンブリからなる立体視システム。これらは、コストが低い標準的なカメラまたは他のアプリケーション向けの既存のカメラ(例:反転カメラ機能)の恩恵を受ける。しかし、これらの画像はノイズが多く(照明条件に対する感度、僅かにテクスチャ化された表面での問題等)、視差マップから推論される奥行き画像は密でない。非線形変換{視差マップ→奥行きマップ}は、奥行きマップにおける情報密度の不均一性を示す。典型的には、カメラ付近でデータが密になり、物体境界上のデータは不明瞭になる恐れがある。
−データの空間コヒーレンス(整合性)および原信号(光波)に対して実行された動作の幾何学的実体を考慮した3Dデータの適応的フィルタリング、
−立体視センサの使用を介して制御されたシステムコスト、
−最小限の計算リソースを要し、標準的且つ安価なコンピューティングアーキテクチャ上でのリアルタイム実行を可能にする方式。
−初期画像の各ピクセルに関連付けられた各3D点の局所解析領域を画定するステップと、
−局所解析領域内の各3D点に対して測定された空間コヒーレンス値に基づいて、初期3D画像のピクセルの組に関連付けられた3D点の組に対して空間コヒーレンス画像を生成するステップと、
−局所解析領域内の各3D点に対して測定された幾何学的実体値に基づいて、初期3D画像のピクセルの組に関連付けられた3D点の組に対して幾何学的実体画像を生成するステップと、
−空間コヒーレンスおよび幾何学的実体画像に基づいて二値画像を生成し、当該二値画像の各点を、当該点に対して得られた空間コヒーレンスおよび幾何学的実体値に応じてシーン点またはノイズ点として分類するステップと、
−ノイズ除去画像を得るべく二値画像と初期3D画像を組み合わせるステップ。
z×d=B×f [式1]
z=B×f/d [式2]
x=(u−u0)×z/f [式3]
y=(v−v0)×z/f [式4]
ここに、(u0,v0)は画像内の光学中心の射影の座標に対応する。
−奥行き画像に対して、R(u,v)は奥行き画像内の座標uおよびvを有するピクセルを表し、P(u,v)は座標(x,y,z)を有する関連3D点を表し、
−視差画像に対して、D(u,v)は視差画像内の座標uおよびvを有するピクセルを表し、P(u,v)は式(2,3,4)に従い計算される座標(x,y,z)を有する関連3D点を表す。
−基本球、立方体、箱形または円筒表現、
−3Dメッシュ表現、
−ボクセル表現、あるいは、
−f(x,y,z)=0型の陰表面等の代数表現。
CS(u,v)=ф(E)、ここに
−奥行き画像の場合:E={R(u’,v’)、但しP(u,v’)∈S(P(u,v))}、
−視差画像の場合:E={D(u’,v’)、但しD(u,v’)∈S(P(u,v))}。
CS(u,v) =ф(E)=Card(E) [式5]、ここに
「カード」関数が基数関数、すなわちEのサイズを表す。
−全ての奥行きまたは全ての視差のいずれかに対して完全な事前計算が実行されて結果を保存する。この実行方式は、処理連鎖の計算時間が短くなる点で好ましいが、メモリ空間を要する。
−あるいは、射影毎に計算を実行する。この実行方式は、メモリが少なくて済む点が好ましいが、より長い計算時間を要する。
F(u,v)=F(CS(u,v),Rg(u,v))
F(u,v)=CS(u,v)/(Rg(u,v))α [式6]
ここに、パラメータαを用いて空間コヒーレンスおよび幾何学的実体の二つの基準間のトレードオフを管理する。従って、αの値が大きいほど、基準内で幾何学的実体がより好ましい。αの値はユーザーによりパラメータ指定可能であり、アプリケーションの目的に適合させることができる。
初期視差画像の場合:Df(u,v)=D(u,v)×Fδ(u,v)+(1−Fδ(u,v))×ED(u,v)、
初期奥行き画像の場合:Rf(u,v)=R(u,v)×Fδ(u,v)+(1−Fδ(u,v))×ER(u,v)、ここに
ED(u,v)およびER(u,v)は各々、視差(D)または奥行き(R)データの局所的推定を表す。
EDorR(u,v)=K(固定値)
初期視差画像の場合:Df(u,v)=D(u,v)×Fδ(u,v)、
初期奥行画像の場合:Rf(u,v)=R(u,v)×Fδ(u,v)。
Claims (11)
- 初期3D画像をフィルタリングする方法であって、
−前記初期画像の各ピクセルに関連付けられた各3D点の局所解析領域を画定するステップと、
−前記局所解析領域内の各3D点に対して測定された空間コヒーレンス値(前記空間コヒーレンス値は前記点の前記局所解析領域に含まれる3D点の個数に関連付けられている)に基づいて、前記初期3D画像のピクセルの組に関連付けられた3D点の組に対して空間コヒーレンス画像を生成するステップと、
−前記局所解析領域内のピクセルに関連付けられた各3D点に対して測定された幾何学的実体値であって、前記幾何学的実体値は前記局所解析領域の空白シーンに射影された画像内で視認可能な3D点の個数に関連付けられている幾何学的実体値に基づいて、前記初期3D画像のピクセルの組に関連付けられた3D点の組に対して幾何学的実体画像を生成するステップと、
−前記空間コヒーレンスおよび前記幾何学的実体画像に基づいて二値画像を生成し、前記二値画像の各点を、前記点に対して得られた前記空間コヒーレンスおよび前記幾何学的実体値に応じてシーン点またはノイズ点として分類するステップと、
−ノイズ除去画像を得るべく前記二値画像と前記初期3D画像を組み合わせるステップとを含む方法。 - 前記局所解析領域S(P(u,v))を画定するステップが、ピクセルに関連付けられた3D点の座標P(u,v)を中心とする固定サイズの3D空間領域を画定するステップを含む、請求項1に記載の方法。
- 3D点の空間コヒーレンス値CS(u,v)を測定するステップが、
−前記初期画像のピクセルの組を、前記ピクセルに関連付けられた3D点が前記3D点の前記局所解析領域に含まれるように決定するステップと、
−前記決定の結果に応じて前記3Dの空間コヒーレンス値を定義するステップとを含んでいる、請求項1または2に記載の方法。 - 3D点に関連付けられたピクセルの幾何学的実体値Rg(u,v)を測定するステップが、
−前記局所的解析領域を空白シーンに射影するステップと、
−前記局所解析領域を前記空白シーンに射影した画像における前記局所解析領域内で視認可能な3D点の組を決定するステップと、
−前記決定の結果に応じて前記ピクセルの幾何学的実体値を定義するステップとを含んでいる、請求項1〜3のいずれか1項に記載の方法。 - 二値画像を生成するステップが、
−各3D点に対して、前記空間コヒーレンスおよび幾何学的実体値に基づいてフィルタリング値を生成するステップと、
−得られたフィルタリング値と閾値を比較するステップと、
−前記比較の結果に応じて前記3D点をシーン点またはノイズ点として分類するステップと、
−前記シーンおよびノイズ点の組の画像を生成するステップとを含んでいる、請求項1〜4のいずれか1項に記載の方法。 - 前記初期画像が視差画像である、請求項1〜5のいずれか1項に記載の方法。
- 前記初期画像が奥行き画像である、請求項1〜5のいずれか1項に記載の方法。
- 前記局所解析領域が、球、立方体、箱形または円筒表現、あるいは3Dメッシュ面表現、ボクセル表現または代数表現を含むグループから選択される、請求項1〜7のいずれか1項に記載の方法。
- 前記幾何学的実体値が予め計算されている、請求項1〜8のいずれか1項に記載の方法。
- 初期画像をフィルタリングする装置であって、請求項1〜9のいずれか1項に記載の方法のステップを実行する手段を含んでいる装置。
- コンピュータプログラム製品であって、前記プログラムがコンピュータ上で実行された場合に請求項1〜9のいずれか1項に記載の方法のステップを実行可能にするコード命令を含んでいるコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1461260A FR3028988B1 (fr) | 2014-11-20 | 2014-11-20 | Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees |
FR1461260 | 2014-11-20 | ||
PCT/EP2015/076964 WO2016079179A1 (fr) | 2014-11-20 | 2015-11-18 | Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017535884A true JP2017535884A (ja) | 2017-11-30 |
JP6646667B2 JP6646667B2 (ja) | 2020-02-14 |
Family
ID=53008578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017527249A Active JP6646667B2 (ja) | 2014-11-20 | 2015-11-18 | ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10395343B2 (ja) |
EP (1) | EP3221841B1 (ja) |
JP (1) | JP6646667B2 (ja) |
CN (1) | CN107004256B (ja) |
FR (1) | FR3028988B1 (ja) |
WO (1) | WO2016079179A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10304256B2 (en) * | 2016-12-13 | 2019-05-28 | Indoor Reality Inc. | Point cloud cleaning method |
CN109872280B (zh) * | 2018-12-26 | 2023-03-14 | 江苏名通信息科技有限公司 | 一种三维植物叶片点云的去噪与简化方法、装置及系统 |
CN109886900B (zh) * | 2019-03-15 | 2023-04-28 | 西北大学 | 一种基于字典训练和稀疏表示的合成雨图除雨方法 |
CN110400272B (zh) * | 2019-07-11 | 2021-06-18 | Oppo广东移动通信有限公司 | 深度数据的滤波方法、装置、电子设备和可读存储介质 |
CN110415287B (zh) * | 2019-07-11 | 2021-08-13 | Oppo广东移动通信有限公司 | 深度图的滤波方法、装置、电子设备和可读存储介质 |
CN110378946B (zh) * | 2019-07-11 | 2021-10-01 | Oppo广东移动通信有限公司 | 深度图处理方法、装置以及电子设备 |
CN110782416B (zh) * | 2019-11-05 | 2022-05-17 | 北京深测科技有限公司 | 三维点云数据的去噪方法 |
CN112116623B (zh) * | 2020-09-21 | 2021-04-23 | 推想医疗科技股份有限公司 | 图像分割方法及装置 |
CN112053434B (zh) * | 2020-09-28 | 2022-12-27 | 广州极飞科技股份有限公司 | 视差图的生成方法、三维重建方法及相关装置 |
CN112712476B (zh) * | 2020-12-17 | 2023-06-02 | 豪威科技(武汉)有限公司 | 用于tof测距的去噪方法及装置、tof相机 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010171949A (ja) * | 2009-01-21 | 2010-08-05 | Samsung Electronics Co Ltd | 深さ情報を用いた深さノイズフィルタリング方法および装置 |
WO2011078264A1 (ja) * | 2009-12-25 | 2011-06-30 | 本田技研工業株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム及び移動体 |
JP2012120647A (ja) * | 2010-12-07 | 2012-06-28 | Alpha Co | 姿勢検出装置 |
JP2014035702A (ja) * | 2012-08-09 | 2014-02-24 | Topcon Corp | 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10317367B4 (de) * | 2003-04-15 | 2007-01-11 | Siemens Ag | Verfahren zur Durchführung der digitalen Subtraktionsangiographie unter Verwendung nativer Volumendatensätze |
JP5041458B2 (ja) * | 2006-02-09 | 2012-10-03 | 本田技研工業株式会社 | 三次元物体を検出する装置 |
US8139142B2 (en) * | 2006-06-01 | 2012-03-20 | Microsoft Corporation | Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques |
WO2008014826A1 (en) * | 2006-08-03 | 2008-02-07 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
WO2008041167A2 (en) * | 2006-10-02 | 2008-04-10 | Koninklijke Philips Electronics N.V. | Method and filter for recovery of disparities in a video stream |
CN101640809B (zh) * | 2009-08-17 | 2010-11-03 | 浙江大学 | 一种融合运动信息与几何信息的深度提取方法 |
US10095953B2 (en) * | 2009-11-11 | 2018-10-09 | Disney Enterprises, Inc. | Depth modification for display applications |
US9858475B2 (en) * | 2010-05-14 | 2018-01-02 | Intuitive Surgical Operations, Inc. | Method and system of hand segmentation and overlay using depth data |
US8982117B2 (en) * | 2011-06-22 | 2015-03-17 | Samsung Display Co., Ltd. | Display apparatus and method of displaying three-dimensional image using same |
EP2786580B1 (en) | 2011-11-30 | 2015-12-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Spatio-temporal disparity-map smoothing by joint multilateral filtering |
US9779546B2 (en) * | 2012-05-04 | 2017-10-03 | Intermec Ip Corp. | Volume dimensioning systems and methods |
EP2846631A4 (en) * | 2012-05-10 | 2017-02-15 | President and Fellows of Harvard College | A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals |
US9811880B2 (en) * | 2012-11-09 | 2017-11-07 | The Boeing Company | Backfilling points in a point cloud |
US9292927B2 (en) * | 2012-12-27 | 2016-03-22 | Intel Corporation | Adaptive support windows for stereoscopic image correlation |
CA2820305A1 (en) * | 2013-07-04 | 2015-01-04 | University Of New Brunswick | Systems and methods for generating and displaying stereoscopic image pairs of geographical areas |
US9530218B2 (en) * | 2014-04-04 | 2016-12-27 | Hrl Laboratories, Llc | Method for classification and segmentation and forming 3D models from images |
US9383548B2 (en) * | 2014-06-11 | 2016-07-05 | Olympus Corporation | Image sensor for depth estimation |
CN107077719B (zh) * | 2014-09-05 | 2020-11-13 | 波莱特股份有限公司 | 数码照片中基于深度图的透视校正 |
JP2016091457A (ja) * | 2014-11-10 | 2016-05-23 | 富士通株式会社 | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム |
CN105812649B (zh) * | 2014-12-31 | 2019-03-29 | 联想(北京)有限公司 | 一种摄像方法和装置 |
EP3257020A1 (en) * | 2015-02-11 | 2017-12-20 | Analogic Corporation | Three-dimensional object image generation |
CN105184780B (zh) * | 2015-08-26 | 2018-06-05 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
-
2014
- 2014-11-20 FR FR1461260A patent/FR3028988B1/fr not_active Expired - Fee Related
-
2015
- 2015-11-18 WO PCT/EP2015/076964 patent/WO2016079179A1/fr active Application Filing
- 2015-11-18 EP EP15798392.5A patent/EP3221841B1/fr active Active
- 2015-11-18 JP JP2017527249A patent/JP6646667B2/ja active Active
- 2015-11-18 US US15/524,217 patent/US10395343B2/en active Active
- 2015-11-18 CN CN201580063436.8A patent/CN107004256B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010171949A (ja) * | 2009-01-21 | 2010-08-05 | Samsung Electronics Co Ltd | 深さ情報を用いた深さノイズフィルタリング方法および装置 |
WO2011078264A1 (ja) * | 2009-12-25 | 2011-06-30 | 本田技研工業株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム及び移動体 |
JP2012120647A (ja) * | 2010-12-07 | 2012-06-28 | Alpha Co | 姿勢検出装置 |
JP2014035702A (ja) * | 2012-08-09 | 2014-02-24 | Topcon Corp | 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN107004256B (zh) | 2020-10-27 |
FR3028988B1 (fr) | 2018-01-19 |
EP3221841B1 (fr) | 2018-08-29 |
EP3221841A1 (fr) | 2017-09-27 |
US20170337665A1 (en) | 2017-11-23 |
US10395343B2 (en) | 2019-08-27 |
JP6646667B2 (ja) | 2020-02-14 |
WO2016079179A1 (fr) | 2016-05-26 |
FR3028988A1 (fr) | 2016-05-27 |
CN107004256A (zh) | 2017-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6646667B2 (ja) | ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置 | |
CN111066065B (zh) | 用于混合深度正则化的系统和方法 | |
US9514522B2 (en) | Depth data processing and compression | |
RU2504010C2 (ru) | Способ и устройство заполнения зон затенения карты глубин или несоответствий, оцениваемой на основании по меньшей мере двух изображений | |
KR20100085675A (ko) | 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치 | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
US9338437B2 (en) | Apparatus and method for reconstructing high density three-dimensional image | |
JP6239594B2 (ja) | 3d情報処理装置及び方法 | |
TW201308252A (zh) | 深度測量之品質提升 | |
KR20190030456A (ko) | 스테레오 매칭 방법 및 장치 | |
Essmaeel et al. | Comparative evaluation of methods for filtering kinect depth data | |
Kuhn et al. | A TV prior for high-quality local multi-view stereo reconstruction | |
JP2019091122A (ja) | デプスマップフィルタ処理装置、デプスマップフィルタ処理方法及びプログラム | |
JP2020098421A (ja) | 三次元形状モデル生成装置、三次元形状モデル生成方法、及びプログラム | |
KR101526465B1 (ko) | 그래픽 프로세서 기반 깊이 영상 화질 개선 방법 | |
Karbasi et al. | Analysis and enhancement of the denoising depth data using Kinect through iterative technique | |
Le et al. | A new depth image quality metric using a pair of color and depth images | |
JP2017199285A (ja) | 情報処理装置、情報処理方法、プログラム | |
US20220004802A1 (en) | Image processing device and image processing method | |
Chowdhury et al. | Fast window based stereo matching for 3D scene reconstruction. | |
CN112884817B (zh) | 稠密光流计算方法、装置、电子设备以及存储介质 | |
Zeller et al. | Filtering probabilistic depth maps received from a focused plenoptic camera | |
Kim et al. | A high quality depth map upsampling method robust to misalignment of depth and color boundaries | |
Kadmin et al. | Improvement of Disparity Measurement of Stereo Vision Algorithm Using Modified Dynamic Cost Volume | |
Wang et al. | Depth estimation from a single defocused image using multi-scale kernels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6646667 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |