JP2020535509A - イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム - Google Patents
イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム Download PDFInfo
- Publication number
- JP2020535509A JP2020535509A JP2020516393A JP2020516393A JP2020535509A JP 2020535509 A JP2020535509 A JP 2020535509A JP 2020516393 A JP2020516393 A JP 2020516393A JP 2020516393 A JP2020516393 A JP 2020516393A JP 2020535509 A JP2020535509 A JP 2020535509A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target object
- coordinate system
- reference coordinate
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 101
- 238000012549 training Methods 0.000 claims abstract description 68
- 238000013507 mapping Methods 0.000 claims abstract description 22
- 239000003550 marker Substances 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 17
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- 239000002131 composite material Substances 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 claims description 2
- 239000007787 solid Substances 0.000 claims 1
- 238000011960 computer-aided design Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、2017年9月29日出願の中国特許出願第201710912283.0号に基づく優先権を主張した2018年9月19日出願の国際特許出願第PCT/CN2018/106493号の国内移行段階にあるものであり、両出願は、本明細書に参照によりその全体が援用される。
[関連技術の記載]
Claims (23)
- イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法であって、
複数のイメージを含むイメージ訓練サンプルを取得する段階であって、各イメージは同一ターゲットオブジェクトを撮影することで取得され、同一の環境の特徴点が隣接するイメージ間に存在する、段階と、
前記イメージのうちの1つを基準イメージとして使用し、3次元基準座標系を判定し、前記3次元基準座標系に基づく3次元空間モデルを作成する段階と、
前記3次元空間モデルが、前記基準イメージ内の前記ターゲットオブジェクトの位置に移動されるとき、前記3次元基準座標系における前記ターゲットオブジェクトの位置情報を判定する段階と、
前記3次元基準座標系における前記ターゲットオブジェクトの前記位置情報と、各イメージ内の前記環境の特徴点により判定された対応するカメラ姿勢情報とに従い、前記3次元空間モデルを、各イメージのイメージ平面に個別にマッピングする段階と、を備える、方法。 - 前記イメージ訓練サンプルを前処理する段階をさらに備え、前記前処理する段階は、前記3次元基準座標系を判定する段階と、前記3次元基準座標系と前記環境の特徴点とに従い、前記イメージにそれぞれ対応する前記カメラ姿勢情報を判定する段階と、を含む、請求項1に記載の方法。
- 前記3次元基準座標系に従い、前記イメージにそれぞれ対応する前記カメラ姿勢情報を判定する段階は、
ビジョンベースの同時マッピングおよび位置特定SLAM技術を用いて、各イメージフレームの環境の特徴点情報を解析し、解析結果に従い、前記イメージにそれぞれ対応する前記カメラ姿勢情報を判定する段階を含む、請求項2に記載の方法。 - 前記3次元空間モデルが前記基準イメージ内の前記ターゲットオブジェクトの前記位置に移動されたとき、前記ターゲットオブジェクトは前記3次元空間モデル内に配置される、請求項1から3のいずれか一項に記載の方法。
- イメージ訓練サンプルを取得する前記段階は、
ターゲットビデオファイルを取得し、前記ターゲットビデオファイル内の複数のイメージを、前記イメージ訓練サンプルとして使用する段階であって、前記ターゲットビデオファイルは、前記ターゲットオブジェクトをターゲット環境内で撮影することで取得される、段階を含む、請求項1から4のいずれか一項に記載の方法。 - 3次元基準座標系を前記判定することは、前記ターゲットビデオファイル内の第1のイメージのカメラ座標系を、前記3次元基準座標系として用いることを含む、請求項5に記載の方法。
- 前記ターゲットビデオファイルは、前記ターゲットオブジェクトと、平面構造を有するマーカとを前記ターゲット環境に配置する段階であって、前記マーカの平面が水平線に対し平行である、段階と、まずレンズを前記マーカに向ける段階と、その後に前記レンズを撮影のために前記ターゲットオブジェクトの前記位置に移動させる段階と、により撮像され、
3次元基準座標系を前記判定することは、前記ターゲットビデオファイルの第1の複数のフレームにおいて、前記マーカが配置される前記平面に従い、前記3次元基準座標系を確立することを含む、請求項5に記載の方法。 - 前記マーカが配置される前記平面に従い、前記3次元基準座標系を前記確立することは、
右手の法則に従い、前記マーカが配置される前記平面の中心点を原点として、前記平面をx‐y平面として用いることで、前記3次元基準座標系を確立することを含む、請求項7に記載の方法。 - 前記平面構造を有する前記マーカは、予め設定されたパターンが表示された紙を含む、請求項7に記載の方法。
- 前記ターゲットビデオファイルは、前記ターゲットオブジェクトの前記位置を固定したまま維持し、ビデオ撮像デバイスを用いて、前記ターゲットオブジェクトの周囲を一回撮影する態様で撮影を実行することで取得される、請求項5に記載の方法。
- 前記3次元基準座標系における前記ターゲットオブジェクトの位置情報を判定する前記段階は、
前記3次元基準座標系の3次元における前記ターゲットオブジェクトの変位自由度および回転自由度、並びに、前記3次元における前記3次元空間モデルのサイズ情報を判定する段階を含む、請求項1から10のいずれか一項に記載の方法。 - 前記3次元空間モデルは、直方体モデルを含む、請求項1から11のいずれか一項に記載の方法。
- 前記3次元空間モデルを、各イメージのイメージ平面に個別にマッピングする前記段階の後に、前記方法は、
前記3次元空間モデルの前記マッピングの後に得られた四角形を長方形化する段階をさらに備える、請求項12に記載の方法。 - 前記3次元空間モデルは、複数の直方体モデルを組み合わせて形成される複合ソリッドモデルを含む、請求項1から13のいずれか一項に記載の方法。
- ターゲットオブジェクト認識モデルを確立するための方法であって、前記方法は、
複数のイメージを含むイメージ訓練サンプルを取得する段階であって、各イメージは同一のターゲットオブジェクトを撮影することで取得され、同一の環境の特徴点が隣接するイメージ間に存在し、各イメージはさらに前記ターゲットオブジェクトの位置のアノテーション情報を含み、前記アノテーション情報は、前記イメージのうちの1つを基準イメージとして用いることと、3次元基準座標系に基づく3次元空間モデルを作成することと、前記3次元空間モデルの移動先の位置に従い、前記3次元基準座標系における前記ターゲットオブジェクトの位置情報を判定することと、各イメージ内の前記環境の特徴点に従い判定された対応するカメラ姿勢情報に従い、前記3次元空間モデルを各イメージのイメージ平面に個別にマッピングすることとによって取得される、段階と、
前記イメージ訓練サンプル内の前記ターゲットオブジェクトの前記位置の前記アノテーション情報に従い、前記ターゲットオブジェクトの認識モデルを生成する段階と、を備える、方法。 - 前記ターゲットオブジェクトの前記認識モデルが拡張現実(AR)相互作用プロセスに適用されて、撮影によって取得されたリアルシーンイメージからの前記ターゲットオブジェクトを認識し、且つ、前記リアルシーンイメージ内の前記ターゲットオブジェクトの前記位置を判定し、その結果、前記リアルシーンイメージ内の前記ターゲットオブジェクトの位置情報に従い、前記ターゲットオブジェクトに関連付けられた仮想イメージを表示する、請求項15に記載の方法。
- 拡張現実(AR)情報を提供するための方法であって、
リアルシーンイメージを取得し、且つ、事前確立されたターゲットオブジェクト認識モデルを用いて、前記リアルシーンイメージからのターゲットオブジェクトの位置情報を認識する段階であって、前記ターゲットオブジェクト認識モデルは、請求項15に記載の方法を用いて確立される、段階と、
前記リアルシーンイメージ内の前記ターゲットオブジェクトの前記位置情報に従い、関連付けられた仮想イメージの表示位置を判定し、且つ、前記仮想イメージを表示する段階と、を備える、方法。 - 前記リアルシーンイメージ内の前記ターゲットオブジェクトの前記位置が変更されると、前記仮想イメージの前記位置を、前記リアルシーンイメージの前記位置と共に変更させる段階をさらに備える、請求項17に記載の方法。
- 第1のスレッドによって取得されたリアルシーンイメージの情報を受信し、前記第1のスレッドのリアルシーンイメージ取得動作を中断する段階と、
第2のスレッドが前記ターゲットオブジェクト認識モデルを用いて、前記リアルシーンイメージからの前記ターゲットオブジェクトの位置情報を認識し、且つ、前記リアルシーンイメージ内の前記ターゲットオブジェクトの前記位置情報に従い、関連付けられた仮想イメージの表示位置を判定するように、前記リアルシーンイメージの前記情報を前記第2のスレッドに提供する段階と、
第3のスレッドに対し、前記第1のスレッドによって取得された前記リアルシーンイメージと、前記第2のスレッドによって生成された前記仮想イメージとを結合して、レンダリングするよう命令し、且つ、前記第1のスレッドに対し、次のイメージの前記リアルシーンイメージ取得動作を実行するように命令する段階と、
によって、前記仮想イメージの前記位置は、前記リアルシーンイメージの前記位置と共に変更する、請求項18に記載の方法。 - イメージ内のターゲットオブジェクトに自動的にアノテーションするための装置であって、
複数のイメージを含むイメージ訓練サンプルを取得するよう構成された訓練サンプル取得ユニットであって、各イメージは同一ターゲットオブジェクトを撮影することで取得され、同一の環境の特徴点が隣接するイメージ間に存在する、訓練サンプル取得ユニットと、
前記イメージのうちの1つを基準イメージとして用いる、3次元基準座標系を判定する、および前記3次元基準座標系に基づく3次元空間モデルを作成する、よう構成された3次元空間モデル作成ユニットと、
前記3次元空間モデルが、前記基準イメージ内の前記ターゲットオブジェクトの位置に移動されるとき、前記3次元基準座標系における前記ターゲットオブジェクトの位置情報を判定するよう構成された位置情報判定ユニットと、
前記3次元基準座標系における前記ターゲットオブジェクトの前記位置情報と、各イメージ内の前記環境の特徴点により判定された対応するカメラ姿勢情報とに従い、前記3次元空間モデルを、各イメージのイメージ平面に個別にマッピングするよう構成されたマッピングユニットと、を備える、装置。 - ターゲットオブジェクト認識モデルを確立するための装置であって、
複数のイメージを含むイメージ訓練サンプルを取得するよう構成されたイメージ訓練サンプル取得ユニットであって、各イメージは同一のターゲットオブジェクトを撮影することで取得され、同一の環境の特徴点が隣接するイメージ間に存在し、各イメージはさらに前記ターゲットオブジェクトの位置のアノテーション情報を含み、前記アノテーション情報は、前記イメージのうちの1つを基準イメージとして用いることと、3次元基準座標系に基づく3次元空間モデルを作成することと、前記3次元空間モデルの移動先の位置に従い、前記3次元基準座標系における前記ターゲットオブジェクトの位置情報を判定することと、各イメージ内の前記環境の特徴点に従い判定された対応するカメラ姿勢情報に従い、前記3次元空間モデルを各イメージのイメージ平面に個別にマッピングすることとによって取得される、イメージ訓練サンプル取得ユニットと、
前記イメージ訓練サンプル内の前記ターゲットオブジェクトの前記位置の前記アノテーション情報に従い、前記ターゲットオブジェクトの認識モデルを生成するよう構成された認識モデル生成ユニットと、を備える、装置。 - 拡張現実(AR)情報を提供するための装置であって、
リアルシーンイメージを取得し、且つ、事前確立されたターゲットオブジェクト認識モデルを用いて、前記リアルシーンイメージからのターゲットオブジェクトの位置情報を認識するよう構成されたリアルシーンイメージ取得ユニットであって、前記ターゲットオブジェクト認識モデルは、請求項15に記載の方法を用いて確立される、リアルシーンイメージ取得ユニットと、
前記リアルシーンイメージ内の前記ターゲットオブジェクトの前記位置情報に従い、関連付けられた仮想イメージの表示位置を判定し、且つ、前記仮想イメージを表示する、よう構成された仮想イメージ表示ユニットと、を備える、装置。 - 1または複数のプロセッサと、
前記1または複数のプロセッサに関連付けられたメモリと、を備え、前記メモリは、プログラム命令を格納するよう構成されており、前記プログラム命令が前記1または複数のプロセッサによって読み取られおよび実行されると、前記プログラム命令は、
複数のイメージを含むイメージ訓練サンプルを取得する手順であって、各イメージは同一のターゲットオブジェクトを撮影することで取得され、同一の環境の特徴点が隣接するイメージ間に存在する、手順と、
前記イメージのうちの1つを基準イメージとして用い、3次元基準座標系を判定し、且つ、前記3次元基準座標系に基づく3次元空間モデルを作成する手順と、
前記3次元空間モデルが、前記基準イメージ内の前記ターゲットオブジェクトの位置に移動されるとき、前記3次元基準座標系における前記ターゲットオブジェクトの位置情報を判定する手順と、
前記3次元基準座標系における前記ターゲットオブジェクトの前記位置情報と、各イメージの前記環境の特徴点に従い判定された対応するカメラ姿勢情報と、に従い、前記3次元空間モデルを、各イメージのイメージ平面に個別にマッピングする手順と、を実行させる、コンピュータシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710912283.0 | 2017-09-29 | ||
CN201710912283.0A CN109584295B (zh) | 2017-09-29 | 2017-09-29 | 对图像内目标物体进行自动标注的方法、装置及系统 |
PCT/CN2018/106493 WO2019062619A1 (zh) | 2017-09-29 | 2018-09-19 | 对图像内目标物体进行自动标注的方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020535509A true JP2020535509A (ja) | 2020-12-03 |
JP7231306B2 JP7231306B2 (ja) | 2023-03-01 |
Family
ID=65900635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020516393A Active JP7231306B2 (ja) | 2017-09-29 | 2018-09-19 | イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11164001B2 (ja) |
EP (1) | EP3690815B1 (ja) |
JP (1) | JP7231306B2 (ja) |
CN (1) | CN109584295B (ja) |
TW (1) | TW201915943A (ja) |
WO (1) | WO2019062619A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087440A (ja) * | 2018-11-15 | 2020-06-04 | パロ アルト リサーチ センター インコーポレイテッド | 位置合わせされたcadモデルを使用するar対応ラベル付け |
US20220277472A1 (en) * | 2021-02-19 | 2022-09-01 | Nvidia Corporation | Single-stage category-level object pose estimation |
WO2023068527A1 (ko) * | 2021-10-18 | 2023-04-27 | 삼성전자 주식회사 | 콘텐트를 식별하기 위한 전자 장치 및 방법 |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10628957B2 (en) * | 2018-06-18 | 2020-04-21 | Google Llc | Vision-enhanced pose estimation |
CN110210328B (zh) * | 2019-05-13 | 2020-08-07 | 北京三快在线科技有限公司 | 在图像序列中标注物体的方法、装置及电子设备 |
CN110390258A (zh) * | 2019-06-05 | 2019-10-29 | 东南大学 | 图像目标三维信息标注方法 |
US11335021B1 (en) * | 2019-06-11 | 2022-05-17 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
CN114365195A (zh) * | 2019-07-19 | 2022-04-15 | 法弗人工智能有限公司 | 结构注释 |
CN112434548B (zh) * | 2019-08-26 | 2024-06-04 | 杭州海康威视数字技术股份有限公司 | 一种视频标注方法及装置 |
WO2021064849A1 (ja) * | 2019-10-01 | 2021-04-08 | 日本電信電話株式会社 | 通信端末及び通信品質予測方法 |
TWI715252B (zh) | 2019-10-18 | 2021-01-01 | 宏碁股份有限公司 | 電子裝置及其利用觸控資料的物件資訊辨識方法 |
CN110807431A (zh) * | 2019-11-06 | 2020-02-18 | 上海眼控科技股份有限公司 | 对象定位方法、装置、电子设备及存储介质 |
CN110866979A (zh) * | 2019-11-14 | 2020-03-06 | 联想(北京)有限公司 | 数据处理方法、装置、计算设备以及介质 |
CN111179271B (zh) * | 2019-11-22 | 2021-05-11 | 浙江众合科技股份有限公司 | 一种基于检索匹配的物体角度信息标注方法及电子设备 |
CN111158463A (zh) * | 2019-11-29 | 2020-05-15 | 淮北幻境智能科技有限公司 | 一种基于slam的计算机视觉大空间定位方法及系统 |
CN111009038B (zh) * | 2019-12-03 | 2023-12-29 | 上海世长信息科技有限公司 | 一种基于slam的空间标注方法 |
CN111127422B (zh) * | 2019-12-19 | 2024-06-04 | 北京旷视科技有限公司 | 图像标注方法、装置、系统及主机 |
CN113378606A (zh) * | 2020-03-10 | 2021-09-10 | 杭州海康威视数字技术股份有限公司 | 一种标注信息确定方法、装置及系统 |
CN111401423B (zh) * | 2020-03-10 | 2023-05-26 | 北京百度网讯科技有限公司 | 用于自动驾驶车辆的数据处理方法和装置 |
CN113468350B (zh) * | 2020-03-31 | 2024-09-17 | 京东方科技集团股份有限公司 | 一种图像标注方法、装置及系统 |
CN111340878B (zh) * | 2020-05-15 | 2021-03-05 | 支付宝(杭州)信息技术有限公司 | 图像处理方法以及装置 |
CN111815759B (zh) * | 2020-06-18 | 2021-04-02 | 广州建通测绘地理信息技术股份有限公司 | 一种可量测实景图片的生成方法、装置、计算机设备 |
TWI793579B (zh) * | 2020-07-08 | 2023-02-21 | 財團法人工業技術研究院 | 同時追蹤可移動物體與可移動相機的六自由度方位之方法與系統 |
CN113920189A (zh) | 2020-07-08 | 2022-01-11 | 财团法人工业技术研究院 | 同时追踪可移动物体与可移动相机的六自由度方位的方法与系统 |
CN111898489B (zh) * | 2020-07-15 | 2023-08-08 | 北京百度网讯科技有限公司 | 用于标注手掌位姿的方法、装置、电子设备及存储介质 |
CN111611438B (zh) * | 2020-07-24 | 2020-10-27 | 支付宝(杭州)信息技术有限公司 | 图片标注方法、装置、处理设备及系统 |
US11531829B2 (en) * | 2020-07-24 | 2022-12-20 | Accenture Global Solutions Limited | Automatic image annotation |
CN114092632A (zh) | 2020-08-06 | 2022-02-25 | 财团法人工业技术研究院 | 标注方法、应用其的装置、系统、方法及计算机程序产品 |
CN112270242B (zh) * | 2020-10-22 | 2024-05-17 | 北京字跳网络技术有限公司 | 轨迹的显示方法、装置、可读介质和电子设备 |
CN112348944B (zh) * | 2020-10-29 | 2022-06-28 | 久瓴(江苏)数字智能科技有限公司 | 三维模型数据更新方法、装置、计算机设备和存储介质 |
CN112418335B (zh) * | 2020-11-27 | 2024-04-05 | 北京云聚智慧科技有限公司 | 基于连续图像帧跟踪标注的模型训练方法及电子设备 |
US11869319B2 (en) * | 2020-12-31 | 2024-01-09 | Datalogic Usa, Inc. | Fixed retail scanner with annotated video and related methods |
EP4036856A1 (en) * | 2021-02-02 | 2022-08-03 | Axis AB | Updating of annotated points in a digital image |
CN113033426B (zh) * | 2021-03-30 | 2024-03-01 | 北京车和家信息技术有限公司 | 动态对象标注方法、装置、设备和存储介质 |
CN113191388B (zh) * | 2021-03-31 | 2023-08-25 | 中国船舶重工集团公司第七一九研究所 | 用于目标检测模型训练的图像采集系统及样本生成方法 |
CN113128382A (zh) * | 2021-04-06 | 2021-07-16 | 青岛以萨数据技术有限公司 | 交通路口车道线检测方法及系统 |
CN113205144B (zh) * | 2021-05-13 | 2022-09-30 | 北京三快在线科技有限公司 | 一种模型训练的方法及装置 |
CN113256802A (zh) * | 2021-06-17 | 2021-08-13 | 中山大学 | 一种建筑物的虚拟三维重建及场景创建方法 |
TWI773476B (zh) * | 2021-08-05 | 2022-08-01 | 財團法人車輛研究測試中心 | 特徵點整合定位系統及特徵點整合定位方法 |
CN114299269A (zh) * | 2021-12-30 | 2022-04-08 | 深圳市商汤科技有限公司 | 显示方法、显示设备、显示系统、电子设备及存储介质 |
US20230394821A1 (en) * | 2022-06-07 | 2023-12-07 | Ironyun Inc. | Automatically labeling method of training data and electronic device thereof |
CN115359192B (zh) * | 2022-10-14 | 2023-03-28 | 阿里巴巴(中国)有限公司 | 三维重建与商品信息处理方法、装置、设备及存储介质 |
TWI826189B (zh) * | 2022-12-16 | 2023-12-11 | 仁寶電腦工業股份有限公司 | 具六自由度之控制器追蹤系統及方法 |
TWI830549B (zh) * | 2022-12-22 | 2024-01-21 | 財團法人工業技術研究院 | 物件自動化標記方法及其系統 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013027628A1 (ja) * | 2011-08-24 | 2013-02-28 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7098435B2 (en) | 1996-10-25 | 2006-08-29 | Frederick E. Mueller | Method and apparatus for scanning three-dimensional objects |
US6858826B2 (en) | 1996-10-25 | 2005-02-22 | Waveworx Inc. | Method and apparatus for scanning three-dimensional objects |
US8432414B2 (en) * | 1997-09-05 | 2013-04-30 | Ecole Polytechnique Federale De Lausanne | Automated annotation of a view |
US7386799B1 (en) | 2002-11-21 | 2008-06-10 | Forterra Systems, Inc. | Cinematic techniques in avatar-centric communication during a multi-user online simulation |
US7619626B2 (en) | 2003-03-01 | 2009-11-17 | The Boeing Company | Mapping images from one or more sources into an image for display |
CN100377168C (zh) * | 2004-06-29 | 2008-03-26 | 索尼株式会社 | 用光学信息进行情形识别的方法及装置 |
US8823775B2 (en) | 2009-04-30 | 2014-09-02 | Board Of Regents, The University Of Texas System | Body surface imaging |
US20100302233A1 (en) | 2009-05-26 | 2010-12-02 | Holland David Ames | Virtual Diving System and Method |
WO2011123669A1 (en) | 2010-03-31 | 2011-10-06 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intuitive user interface control for remote catheter navigation and 3d mapping and visualization systems |
GB201016251D0 (en) | 2010-09-28 | 2010-11-10 | Omnisense Ltd | Positioning system |
EP2560145A3 (en) * | 2011-08-18 | 2017-03-15 | Layar B.V. | Methods and systems for enabling the creation of augmented reality content |
CN103959308B (zh) | 2011-08-31 | 2017-09-19 | Metaio有限公司 | 以参考特征匹配图像特征的方法 |
MX2014005478A (es) * | 2011-11-08 | 2014-08-21 | Koninkl Philips Nv | Sistema y metodo para anotaciones interactivas de imagen. |
US9928652B2 (en) * | 2013-03-01 | 2018-03-27 | Apple Inc. | Registration between actual mobile device position and environmental model |
CN103218854B (zh) * | 2013-04-01 | 2016-04-20 | 成都理想境界科技有限公司 | 在增强现实过程中实现部件标注的方法及增强现实系统 |
WO2015086575A1 (en) | 2013-12-09 | 2015-06-18 | Vincent Laulagnet | An apparatus, a system and a method for monitoring a usage of an item |
WO2016029939A1 (en) | 2014-08-27 | 2016-03-03 | Metaio Gmbh | Method and system for determining at least one image feature in at least one image |
US9916002B2 (en) | 2014-11-16 | 2018-03-13 | Eonite Perception Inc. | Social applications for augmented reality technologies |
US10043319B2 (en) | 2014-11-16 | 2018-08-07 | Eonite Perception Inc. | Optimizing head mounted displays for augmented reality |
CN107004275B (zh) | 2014-11-21 | 2020-09-29 | 苹果公司 | 确定实物至少一部分的3d重构件空间坐标的方法和系统 |
US10412373B2 (en) | 2015-04-15 | 2019-09-10 | Google Llc | Image capture for virtual reality displays |
WO2016199605A1 (ja) * | 2015-06-12 | 2016-12-15 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US9767565B2 (en) * | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
DE102016211805A1 (de) | 2015-10-09 | 2017-04-13 | Volkswagen Aktiengesellschaft | Fusion von Positionsdaten mittels Posen-Graph |
US10143526B2 (en) | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
CN105739704A (zh) * | 2016-02-02 | 2016-07-06 | 上海尚镜信息科技有限公司 | 基于增强现实的远程引导方法和系统 |
US9965870B2 (en) | 2016-03-29 | 2018-05-08 | Institut National D'optique | Camera calibration method using a calibration target |
US10739142B2 (en) | 2016-09-02 | 2020-08-11 | Apple Inc. | System for determining position both indoor and outdoor |
US11080534B2 (en) | 2016-11-14 | 2021-08-03 | Lyft, Inc. | Identifying objects for display in a situational-awareness view of an autonomous-vehicle environment |
CN106599051B (zh) * | 2016-11-15 | 2020-02-07 | 北京航空航天大学 | 一种基于生成图像标注库的图像自动标注的方法 |
US10417781B1 (en) * | 2016-12-30 | 2019-09-17 | X Development Llc | Automated data capture |
CN106650705B (zh) * | 2017-01-17 | 2020-04-24 | 深圳地平线机器人科技有限公司 | 区域标注方法、装置和电子设备 |
US10186049B1 (en) | 2017-03-06 | 2019-01-22 | URC Ventures, Inc. | Determining changes in object structure over time using mobile device images |
US10467454B2 (en) | 2017-04-26 | 2019-11-05 | Mashgin Inc. | Synchronization of image data from multiple three-dimensional cameras for image recognition |
US10699481B2 (en) | 2017-05-17 | 2020-06-30 | DotProduct LLC | Augmentation of captured 3D scenes with contextual information |
US10977818B2 (en) | 2017-05-19 | 2021-04-13 | Manor Financial, Inc. | Machine learning based model localization system |
US20180350055A1 (en) | 2017-06-01 | 2018-12-06 | Tesla, Inc. | Augmented reality feature detection |
WO2019213220A1 (en) | 2018-05-03 | 2019-11-07 | Magic Leap, Inc. | Using 3d scans of a physical subject to determine positions and orientations of joints for a virtual character |
US20200004225A1 (en) | 2018-06-29 | 2020-01-02 | Velo3D, Inc. | Manipulating one or more formation variables to form three-dimensional objects |
CN112753007A (zh) | 2018-07-27 | 2021-05-04 | 奇跃公司 | 虚拟角色的姿势空间变形的姿势空间维度减小 |
-
2017
- 2017-09-29 CN CN201710912283.0A patent/CN109584295B/zh active Active
-
2018
- 2018-06-14 TW TW107120453A patent/TW201915943A/zh unknown
- 2018-09-19 EP EP18861929.0A patent/EP3690815B1/en active Active
- 2018-09-19 WO PCT/CN2018/106493 patent/WO2019062619A1/zh unknown
- 2018-09-19 JP JP2020516393A patent/JP7231306B2/ja active Active
- 2018-09-19 US US16/648,285 patent/US11164001B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013027628A1 (ja) * | 2011-08-24 | 2013-02-28 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087440A (ja) * | 2018-11-15 | 2020-06-04 | パロ アルト リサーチ センター インコーポレイテッド | 位置合わせされたcadモデルを使用するar対応ラベル付け |
JP7488435B2 (ja) | 2018-11-15 | 2024-05-22 | パロ アルト リサーチ センター,エルエルシー | 位置合わせされたcadモデルを使用するar対応ラベル付け |
US20220277472A1 (en) * | 2021-02-19 | 2022-09-01 | Nvidia Corporation | Single-stage category-level object pose estimation |
WO2023068527A1 (ko) * | 2021-10-18 | 2023-04-27 | 삼성전자 주식회사 | 콘텐트를 식별하기 위한 전자 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
EP3690815A4 (en) | 2021-05-19 |
CN109584295A (zh) | 2019-04-05 |
JP7231306B2 (ja) | 2023-03-01 |
WO2019062619A1 (zh) | 2019-04-04 |
US11164001B2 (en) | 2021-11-02 |
TW201915943A (zh) | 2019-04-16 |
EP3690815B1 (en) | 2023-10-25 |
CN109584295B (zh) | 2022-08-26 |
EP3690815A1 (en) | 2020-08-05 |
US20200265231A1 (en) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7231306B2 (ja) | イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム | |
US20220103709A1 (en) | Method and apparatus for scanning and printing a 3d object | |
US10964108B2 (en) | Augmentation of captured 3D scenes with contextual information | |
US7440691B2 (en) | 360-° image photographing apparatus | |
US9495802B2 (en) | Position identification method and system | |
JP5991423B2 (ja) | 表示装置、表示方法、表示プログラムおよび位置設定システム | |
CN112258574B (zh) | 标注位姿信息的方法、装置及计算机可读存储介质 | |
US20150062123A1 (en) | Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model | |
US7031495B2 (en) | Data authoring device | |
WO2006019970A2 (en) | Method and apparatus for machine-vision | |
JP2008275341A (ja) | 情報処理装置、情報処理方法 | |
KR102000960B1 (ko) | 벡터를 이용한 증강 현실 영상 구현 방법 | |
WO2015072091A1 (ja) | 画像処理装置、画像処理方法及びプログラム記憶媒体 | |
JP6632298B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2021039563A (ja) | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 | |
JP6357412B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム | |
CN114596363A (zh) | 一种三维点云标注方法、装置及终端 | |
WO2020067204A1 (ja) | 学習用データ作成方法、機械学習モデルの生成方法、学習用データ作成装置及びプログラム | |
JP2015184838A (ja) | 画像処理装置、方法、および、プログラム | |
JP2015121892A (ja) | 画像処理装置、画像処理方法 | |
JP2004252815A (ja) | 画像表示装置、画像表示方法およびプログラム | |
JP2018037766A (ja) | 映像編集装置、映像編集方法及び映像編集用コンピュータプログラム | |
CN114708405A (zh) | 图像处理方法、装置、系统以及存储介质 | |
Beniyama et al. | 360-Image photographing apparatus | |
JP2015184391A (ja) | 画像表示方法、装置、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7231306 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |