JP7334141B2 - マルチモーダル密対応関係画像処理システム、レーダー撮像システム、方法およびブログラム - Google Patents
マルチモーダル密対応関係画像処理システム、レーダー撮像システム、方法およびブログラム Download PDFInfo
- Publication number
- JP7334141B2 JP7334141B2 JP2020161111A JP2020161111A JP7334141B2 JP 7334141 B2 JP7334141 B2 JP 7334141B2 JP 2020161111 A JP2020161111 A JP 2020161111A JP 2020161111 A JP2020161111 A JP 2020161111A JP 7334141 B2 JP7334141 B2 JP 7334141B2
- Authority
- JP
- Japan
- Prior art keywords
- multimodal
- images
- image
- modality
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000012545 processing Methods 0.000 title claims description 40
- 238000003384 imaging method Methods 0.000 title claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 72
- 230000003287 optical effect Effects 0.000 claims description 46
- 238000012549 training Methods 0.000 claims description 36
- 230000033001 locomotion Effects 0.000 claims description 32
- 230000015654 memory Effects 0.000 claims description 16
- 238000005481 NMR spectroscopy Methods 0.000 claims description 2
- 238000002591 computed tomography Methods 0.000 claims description 2
- 238000002604 ultrasonography Methods 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims 1
- 239000013598 vector Substances 0.000 description 23
- 238000010586 diagram Methods 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003936 working memory Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
画像間の対応関係を明らかにすることは、その範囲がモーション解析、トラッキングおよびステレオのような従来のタスクから、3次元再構成、オブジェクト検出および検索を経て、画像向上および編集に及ぶ、コンピュータビジョンおよびグラフィックスにおける多数のアプリケーションの、長年にわたる課題である。対応関係のほとんどの方法は、多種多様なシナリオの扱いという点において限界がある。たとえば、あるシナリオでは、時間および視点が画像間で相互に近い。別のシナリオでは、画像間の視点の差は大きいかもしれないがそのシーンは大部分が固定対象物で構成されている。さらにもう1つのシナリオでは、入力画像は、何らかの共通する内容を共有しているが、シーンの非固定的変化、照明および/またはトーンマッピングの変化、ならびにカメラおよびレンズの違いのような、さまざまな要因のために、大きく異なる。最後のシナリオは、典型的には異なる条件で撮影された同じ被写体を含む個人の写真アルバムではよくあることである。現在の方法は、これらのタイプのシナリオのうちの1つ以上の扱いに苦心している。
いくつかの実施形態の目的は、学習に基づく密対応関係技術を、同一シーンのマルチモーダル画像に拡張することである。たとえば、ある実施形態の目的は、運動シーケンスの連続するデジタル画像における密対応関係を定めるマルチモーダル撮像システムを提供することである。このような運動シーケンスの例は、深度(depth)画像のシーケンスと対応するカラー画像のシーケンスとを含むデジタルマルチモーダル画像を含む。いくつかの実施形態は、マルチモーダル画像は異なるモーダル固有情報を相互に補完することによって密対応関係の精度を高めることができる、という理解に基づいている。
図1は、いくつかの実施形態に係る、マルチモーダル密対応関係を計算するための画像処理システム100のブロック図を示す。画像処理システム100は、いくつかの実施形態に従い、人間の歩行シーケンスのマルチモーダル画像間の密対応関係を求めるために、マルチモーダル画像の特徴ベクトル、略して特徴を生成するように構成されている。画像処理システム100は、格納されている命令を実行するように構成されたプロセッサ102と、プロセッサが実行可能な命令を格納するメモリ104とを含む。プロセッサ102は、シングルコアプロセッサ、マルチコアプロセッサ、コンピューティングクラスタ、または任意の数のその他の構成であってもよい。メモリ104は、ランダムアクセスメモリ(RAM)、読出専用メモリ(ROM)、フラッシュメモリ、または任意の他の適切なメモリシステムであってもよい。プロセッサ102は、バス106を通して入力および出力デバイスのうちの1つ以上に接続される。
図7は、いくつかの実施形態に係る、ニューラルネットワークのサブネットワークの共同訓練の概略図を示す。ニューラルネットワーク780のサブネットワークをともに訓練することにより、マルチモダリティ入力画像のマルチモーダル特徴423および/または443を生成する。ニューラルネットワーク780は、ニューラルネットワーク重み132を形成するいくつかのニューラルサブネットワークを含む。ニューラルネットワーク780の訓練は、マルチモーダル入力画像の異なるペアを使用する。たとえば、マルチモーダル入力画像のペアは、入力モダリティ画像701および入力モダリティ画像702からなる第1のマルチモーダル入力画像と、入力モダリティ画像711および入力モダリティ画像712からなる第2のマルチモーダル入力画像とを含む。
Claims (18)
- マルチモーダル密対応関係画像処理システムであって、
マルチモーダル画像の運動シーケンスを受けるように構成された入力インターフェイスを備え、各前記マルチモーダル画像は、第1のモダリティの画像と、対応する、第1のモダリティと異なる第2のモダリティの画像とを含み、モダリティが異なる、対応する画像は、同一シーンの画像であり、前記マルチモーダル密対応関係画像処理システムはさらに、
前記第1のモダリティの画素から第1の特徴を抽出するように訓練された第1のサブネットワークと、前記第2のモダリティの画素から第2の特徴を抽出するように訓練された第2のサブネットワークと、前記第1の特徴と前記第2の特徴とを組み合わせて前記マルチモーダル画像のマルチモーダル特徴を生成するように構成されたコンバイナとを含むニューラルネットワークを格納するように構成されたメモリと、
前記マルチモーダル画像を前記ニューラルネットワークに与えて前記マルチモーダル画像各々の画素ごとに前記マルチモーダル特徴を生成するように構成されたプロセッサとを備え、前記マルチモーダル画像の各々が、前記ニューラルネットワークに別々に与えられてそのマルチモーダル特徴が生成され、それにより、前記ニューラルネットワークは、複数回実行され、前記マルチモーダル画像の各々について一回実行され、前記プロセッサはさらに、前記マルチモーダル画像のペアのマルチモーダル特徴間の距離を計算することによって前記マルチモーダル画像の画素間の密対応関係を推定するように構成され、前記マルチモーダル密対応関係画像処理システムはさらに、
前記ペアにおける前記マルチモーダル画像の画素間の前記密対応関係を出力するように構成された出力インターフェイスを備える、マルチモーダル密対応関係画像処理システム。 - 前記第1のサブネットワークは前記第2のサブネットワークとともに訓練されて、前記マルチモーダル画像の前記マルチモーダル特徴とグラウンドトゥルースデータとの間の誤差を減じる、請求項1に記載のマルチモーダル密対応関係画像処理システム。
- 前記誤差は、埋め込み損失とオプティカルフロー損失とを含み、前記埋め込み損失は、異なるマルチモーダル画像からなるペアにおける同一ポイントの対応する画素について前記ニューラルネットワークが生成したマルチモーダル特徴間の距離であり、オプティカルフロー損失は、前記異なるマルチモーダル画像からなるペアにおける前記同一ポイントの対応する画素について前記ニューラルネットワークが生成した前記マルチモーダル特徴から再構成されたオプティカルフローの誤差である、請求項2に記載のマルチモーダル密対応関係画像処理システム。
- 前記ニューラルネットワークは、埋め込み損失サブネットワークとともに訓練され、かつ、オプティカルフローサブネットワークとともに訓練され、前記埋め込み損失サブネットワークは、異なるマルチモーダル画像からなる訓練ペアにおける同一ポイントの対応する画素について前記ニューラルネットワークが生成したマルチモーダル特徴間の距離を低減するように訓練され、前記オプティカルフローサブネットワークは、前記異なるマルチモーダル画像からなる訓練ペアにおける画素の前記マルチモーダル特徴から前記オプティカルフローサブネットワークが再構成したオプティカルフローの誤差を低減するように訓練される、請求項1に記載のマルチモーダル密対応関係画像処理システム。
- 前記プロセッサは、前記マルチモーダル画像のペアにおける異なる画素の前記マルチモーダル特徴間の計算された距離を比較することによって前記密対応関係を推定し、マルチモーダル特徴間の距離が最小である画素間の対応関係を発見するように構成されている、請求項1に記載のマルチモーダル密対応関係画像処理システム。
- 前記プロセッサは、入れ子型反復を用いて異なる画素のマルチモーダル特徴を比較するように構成されており、前記入れ子型反復は、前記ペアにおける第1のマルチモーダル画像のマルチモーダル特徴全体にわたって第1の反復を実行し、前記第1の反復における前記第1のマルチモーダル画像の現在の画素ごとに、前記ペアにおける第2のマルチモーダル画像のマルチモーダル特徴全体にわたって第2の反復を実行することにより、前記第1のマルチモーダル画像の前記現在の画素と、前記現在の画素のマルチモーダル特徴に最も近いマルチモーダル特徴を有する前記第2のマルチモーダル画像の画素との対応関係を定める、請求項5に記載のマルチモーダル密対応関係画像処理システム。
- 前記プロセッサは、前記ペアにおける第1のマルチモーダル画像のすべての画素のマルチモーダル特徴と、前記ペアにおける第2のマルチモーダル画像のすべての画素のマルチモーダル特徴の置換との差を最小にする最適化問題を解き、それにより、前記置換が、前記ペアのマルチモーダル画像の対応する画素を定める、請求項5に記載のマルチモーダル密対応関係画像処理システム。
- 前記第1のモダリティは、前記第1のモダリティの画像が光の飛行時間に基づいて形成されるように、深度モダリティから選択され、前記第2のモダリティは、前記第2のモダリティの画像が光の屈折または反射で形成されるように、光学モダリティから選択される、請求項1に記載のマルチモーダル密対応関係画像処理システム。
- 前記光学モダリティの画像は、X線撮影画像、超音波画像、核画像、コンピュータ断層撮影画像、核磁気共鳴画像、赤外線画像、熱画像、および可視光画像のうちの1つまたはこれらの組み合わせである、請求項8に記載のマルチモーダル密対応関係画像処理システム。
- 画像のモダリティは、画像を取得するセンサのタイプによって定められ、前記第1のモダリティの画像は、前記第2のモダリティの画像を取得したセンサのタイプと異なるタイプのセンサによって取得される、請求項1に記載のマルチモーダル密対応関係画像処理システム。
- 前記第1のモダリティの画像は深度画像であり、前記第2のモダリティの画像はカラー画像である、請求項1に記載のマルチモーダル密対応関係画像処理システム。
- 前記運動シーケンスは、連続するデジタルマルチモーダル画像のシーケンスを含む、請求項1に記載のマルチモーダル密対応関係画像処理システム。
- 前記運動シーケンスは、連続するデジタルマルチモーダル画像のシーケンスにおける時間のしきい値以内の画像である前記マルチモーダル画像のシーケンスを含む、請求項1に記載のマルチモーダル密対応関係画像処理システム。
- 請求項1に記載のマルチモーダル密対応関係画像処理システムが求めた前記密対応関係を用いて、前記マルチモーダル画像の前記運動シーケンスから、動いている対象物のレーダー反射画像を再構成するように構成された、レーダー撮像システム。
- マルチモーダル密対応関係再構成のための方法であって、前記方法は、前記方法を実現する格納された命令と結合されたプロセッサを使用し、前記命令は前記プロセッサによって実行されると前記方法のステップを実行させ、前記方法は、
マルチモーダル画像の運動シーケンスを受けるステップを含み、各前記マルチモーダル画像は、第1のモダリティの画像と、対応する、第1のモダリティと異なる第2のモダリティの画像とを含み、モダリティが異なる、対応する画像は、同一シーンの画像であり、前記方法はさらに、
前記マルチモーダル画像をニューラルネットワークに与えて前記マルチモーダル画像各々の画素ごとにマルチモーダル特徴を生成するステップを含み、前記ニューラルネットワークは、前記第1のモダリティの画素から第1の特徴を抽出するように訓練された第1のサブネットワークと、前記第2のモダリティの画素から第2の特徴を抽出するように訓練された第2のサブネットワークと、前記第1の特徴と前記第2の特徴とを組み合わせて前記マルチモーダル画像のマルチモーダル特徴を生成するように構成されたコンバイナとを含み、前記マルチモーダル画像の各々が、前記ニューラルネットワークに別々に与えられてそのマルチモーダル特徴が生成され、それにより、前記ニューラルネットワークは、複数回実行され、前記マルチモーダル画像の各々について一回実行され、前記方法はさらに、
前記マルチモーダル画像のペアの前記マルチモーダル特徴を比較することにより、前記ペアの前記マルチモーダル画像の画素間の密対応関係を推定するステップと、
前記ペアにおける前記マルチモーダル画像の画素間の前記密対応関係を出力するステップとを含む、方法。 - 前記第1のサブネットワークは前記第2のサブネットワークとともに訓練されて、前記マルチモーダル画像の前記マルチモーダル特徴とグラウンドトゥルースデータとの間の誤差を減じ、前記誤差は、埋め込み損失とオプティカルフロー損失とを含み、前記埋め込み損失は、異なるマルチモーダル画像からなるペアにおける同一ポイントの対応する画素について前記ニューラルネットワークが生成したマルチモーダル特徴間の距離であり、オプティカルフロー損失は、前記異なるマルチモーダル画像からなるペアにおける前記同一ポイントの対応する画素について前記ニューラルネットワークが生成した前記マルチモーダル特徴から再構成されたオプティカルフローの誤差である、請求項15に記載の方法。
- 前記第1のモダリティは、前記第1のモダリティの画像が光の飛行時間に基づいて形成されるように、深度モダリティから選択され、前記第2のモダリティは、前記第2のモダリティの画像が光の屈折または反射で形成されるように、光学モダリティから選択される、請求項15に記載の方法。
- 方法を実行するためにプロセッサが実行可能なプログラムであって、前記方法は、
マルチモーダル画像の運動シーケンスを受けるステップを含み、各前記マルチモーダル画像は、第1のモダリティの画像と、対応する、第1のモダリティと異なる第2のモダリティの画像とを含み、前記方法はさらに、
前記マルチモーダル画像をニューラルネットワークに与えて前記マルチモーダル画像各々の画素ごとにマルチモーダル特徴を生成するステップを含み、前記ニューラルネットワークは、前記第1のモダリティの画素から第1の特徴を抽出するように訓練された第1のサブネットワークと、前記第2のモダリティの画素から第2の特徴を抽出するように訓練された第2のサブネットワークと、前記第1の特徴と前記第2の特徴とを組み合わせて前記マルチモーダル画像のマルチモーダル特徴を生成するように構成されたコンバイナとを含み、前記マルチモーダル画像の各々が、前記ニューラルネットワークに別々に与えられてそのマルチモーダル特徴が生成され、それにより、前記ニューラルネットワークは、複数回実行され、前記マルチモーダル画像の各々について一回実行され、前記方法はさらに、
前記マルチモーダル画像のペアの前記マルチモーダル特徴を比較することにより、前記ペアの前記マルチモーダル画像の画素間の密対応関係を推定するステップと、
前記ペアにおける前記マルチモーダル画像の画素間の前記密対応関係を出力するステップとを含む、プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/591,381 US11210560B2 (en) | 2019-10-02 | 2019-10-02 | Multi-modal dense correspondence imaging system |
US16/591,381 | 2019-10-02 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021060989A JP2021060989A (ja) | 2021-04-15 |
JP2021060989A5 JP2021060989A5 (ja) | 2023-03-15 |
JP7334141B2 true JP7334141B2 (ja) | 2023-08-28 |
Family
ID=75273646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020161111A Active JP7334141B2 (ja) | 2019-10-02 | 2020-09-25 | マルチモーダル密対応関係画像処理システム、レーダー撮像システム、方法およびブログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11210560B2 (ja) |
JP (1) | JP7334141B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11405547B2 (en) * | 2019-02-01 | 2022-08-02 | Electronics And Telecommunications Research Institute | Method and apparatus for generating all-in-focus image using multi-focus image |
US11593973B2 (en) * | 2020-10-29 | 2023-02-28 | Wipro Limited | Method and system for augmented reality (AR) content creation |
CN113686528B (zh) * | 2021-07-28 | 2022-10-25 | 华南理工大学 | 一种结构-tld系统的子系统动力特性检测方法 |
US12079995B2 (en) * | 2021-09-28 | 2024-09-03 | Robert Bosch Gmbh | System and method for a hybrid unsupervised semantic segmentation |
CN114548367B (zh) * | 2022-01-17 | 2024-02-20 | 中国人民解放军国防科技大学 | 基于对抗网络的多模态数据的重构方法及装置 |
CN115147679B (zh) * | 2022-06-30 | 2023-11-14 | 北京百度网讯科技有限公司 | 多模态图像识别方法和装置、模型训练方法和装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140313362A1 (en) * | 2012-02-22 | 2014-10-23 | Sony Mobile Communications Ab | Method and device relating to image content |
EP2910187B1 (en) * | 2014-02-24 | 2018-04-11 | Université de Strasbourg (Etablissement Public National à Caractère Scientifique, Culturel et Professionnel) | Automatic multimodal real-time tracking of a moving marker for image plane alignment inside a MRI scanner |
KR102294734B1 (ko) * | 2014-09-30 | 2021-08-30 | 삼성전자주식회사 | 영상 정합 장치, 영상 정합 방법 및 영상 정합 장치가 마련된 초음파 진단 장치 |
US9633282B2 (en) * | 2015-07-30 | 2017-04-25 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
CN106558088B (zh) * | 2015-09-24 | 2020-04-24 | 腾讯科技(深圳)有限公司 | 生成gif文件的方法及装置 |
US10339421B2 (en) * | 2017-03-30 | 2019-07-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | RGB-D scene labeling with multimodal recurrent neural networks |
US10846818B2 (en) * | 2018-11-15 | 2020-11-24 | Toyota Research Institute, Inc. | Systems and methods for registering 3D data with 2D image data |
-
2019
- 2019-10-02 US US16/591,381 patent/US11210560B2/en active Active
-
2020
- 2020-09-25 JP JP2020161111A patent/JP7334141B2/ja active Active
Non-Patent Citations (1)
Title |
---|
Yi-Ling Qiao et al.,SF-Net: Learning Scene Flow from RGB-D Images with CNNs,BMVC2018,2018年,http://bmvc2018.org/contents/papers/1095.pdf |
Also Published As
Publication number | Publication date |
---|---|
JP2021060989A (ja) | 2021-04-15 |
US20210103770A1 (en) | 2021-04-08 |
US11210560B2 (en) | 2021-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7334141B2 (ja) | マルチモーダル密対応関係画像処理システム、レーダー撮像システム、方法およびブログラム | |
US11644898B2 (en) | Eye tracking method and system | |
KR102574141B1 (ko) | 이미지 디스플레이 방법 및 디바이스 | |
JP7177062B2 (ja) | 統計モデルを用いた画像データからの深度予測 | |
US11494915B2 (en) | Image processing system, image processing method, and program | |
JP7200247B2 (ja) | 物体検出器及び物体検出方法 | |
EP3284011B1 (en) | Two-dimensional infrared depth sensing | |
US9626766B2 (en) | Depth sensing using an RGB camera | |
Fanello et al. | Learning to be a depth camera for close-range human capture and interaction | |
WO2016123913A1 (zh) | 数据处理的方法和装置 | |
JP6685827B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US9317127B2 (en) | Method and apparatus for motion recognition | |
JP6862584B2 (ja) | 画像処理システム及び画像処理方法 | |
Kong et al. | Intrinsic depth: Improving depth transfer with intrinsic images | |
JP2011513868A (ja) | 画像処理方法及び画像処理装置 | |
WO2019181043A1 (en) | Radar imaging system and method for reconstructing radar reflectivity image of scene | |
CN114556268A (zh) | 一种姿势识别方法及装置、存储介质 | |
WO2021098576A1 (zh) | 手部姿态估计方法、装置及计算机存储介质 | |
CN114641799A (zh) | 对象检测设备、方法和系统 | |
JP2018120283A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019096222A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
KR20120026956A (ko) | 동작 인식 장치 및 그 방법 | |
WO2022143390A1 (en) | System and method for 3d try-on based on human pose and body shape estimation | |
WO2007112295A1 (en) | Method and apparatus for predicting the accuracy of a virtual scene based on incomplete information in video | |
JP6555940B2 (ja) | 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230307 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230307 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7334141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |