JP6826296B2 - 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム - Google Patents
関節位置推定装置、関節位置推定方法及び関節位置推定プログラム Download PDFInfo
- Publication number
- JP6826296B2 JP6826296B2 JP2019506573A JP2019506573A JP6826296B2 JP 6826296 B2 JP6826296 B2 JP 6826296B2 JP 2019506573 A JP2019506573 A JP 2019506573A JP 2019506573 A JP2019506573 A JP 2019506573A JP 6826296 B2 JP6826296 B2 JP 6826296B2
- Authority
- JP
- Japan
- Prior art keywords
- dnn
- region
- joint position
- teacher data
- site
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 45
- 241001465754 Metazoa Species 0.000 claims description 34
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000005520 cutting process Methods 0.000 claims description 2
- 230000000873 masking effect Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 16
- 210000000746 body region Anatomy 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 238000011478 gradient descent method Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 210000001364 upper extremity Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Description
第1の教師データの入力を入力画像、前記第1の教師データの正解データを前記入力画像内の動物の部位領域として、第1のディープニューラルネットワーク(以下DNNと称する)の学習を実行し、
第2の教師データの入力を、第2の教師データの入力画像内の部位領域及び前記部位領域を複数結合した複数部位領域の画像とし、前記第2の教師データの正解データを、前記部位領域及び複数部位領域内の関節位置として、第2のDNNの学習を実行し、
前記第1のDNNの学習で求めた第1のパラメータを設定した第1のDNNにより、処理対象の入力画像データに対する前記動物の部位領域を推定し、
前記第2のDNNの学習で求めた第2のパラメータを設定した第2のDNNにより、前記第1のDNNにより推定した部位領域及び前記部位領域を複数結合した複数部位領域それぞれの第1の関節位置及び第2の関節位置とを推定する、関節位置推定装置である。
図1は、本実施の形態における関節位置推定装置の構成を示す図である。関節位置推定装置1は、コンピュータやサーバのような情報処理装置である。関節位置推定装置1は、プロセッサ10と、メインメモリ12と、ネットワークインタフェース14と、大容量の補助記憶装置16とを有する。補助記憶装置16には、DNNプログラム20と、DNNに設定されるDNNのパラメータ22と、DNN学習プログラム24と、DNNの学習に使用する教師データ26とが記憶される。教師データ26は、DNNに入力する入力と、正しい出力である正解値とを有する。そして、DNNプログラム20と、DNNに設定されるDNNのパラメータ22と、DNN学習プログラム24と、DNNの学習に使用する教師データ26とが、メインメモリ12内に展開され、プロセッサが各プログラムを実行する。
(1)入力される入力画像IMG_INから、入力画像内の人体が存在する人体領域HB_Rを演算または推定する第1のDNN(DNN_1)と、
(2)入力画像IMG_INまたはDNN_1の中間層が生成する特徴画像(図示せず)を、人体領域HB_Rで切り取った人体領域の画像を入力し、部位が存在する領域である部位領域BDP_Rを演算または推定する第2のDNN(DNN_2)と、
(3)入力画像IMG_INまたは特徴画像を、単体の部位領域BFP_Rで及び複数の部位領域を結合した複数部位領域PBDP_Rでそれぞれ切り取った部位領域の画像及び複数部位領域の画像を入力し、両画像内の関節位置候補(関節座標候補)C_JT_CRDを演算または推定する第3のDNN(DNN_3)と、
(4)関節座標候補C_JT_CRDを入力し、関節座標JT_CRDを演算または推定する第4のDNN(DNN_4)。
次に、DNNの推定処理について説明する。DNNの演算または推定処理は、前述のプロセッサがDNNのパラメータ22を設定されたDNNプログラム20を実行することで行われる。
次に、本実施の形態におけるDNNの学習について説明する。ディープラーニングでは、DNNの構成と学習方法の改善により、より望ましいDNNを生成する。そして、本実施の形態のDNNは複数のDNN_1 - DNN_4を有するので、それぞれのDNN_1-DNN_4が所望の動作を行うことができるように、各DNN_1-DNN_4の学習を実行する。
図11は、各DNN_1 - DNN_4それぞれの学習に利用する教師データを生成する処理S31を示す図である。プロセッサ10は、DNN学習プログラムを実行して、教師データ26の正解データである関節位置の正解値Z4_CVにおける関節を中心とする正方形を定め、それらの正方形から単体部位が存在する領域の座標の正解値Z2_CVを検出する(S11)。領域の座標とは、例えば矩形領域の左上と右下の座標である。また、矩形領域の左上の座標と幅及び高さであってもよい。
図12は、DNN_1の学習を説明する図である。プロセッサは、第1の集合の教師データの入力を入力画像IMG_IN、正解値を人体領域の座標の正解値Z1_CVとして、DNN_1の学習を実行する(S14)。プロセッサは、この学習を、例えば確率的勾配降下法またはミニバッチ法と呼ばれる方法によって行う。この学習工程により、プロセッサは、DNN_1のパラメータ(重み値等)W1を最適化する。
図14は、DNN_2に入力する人体の画像または人体の特徴量の画像を生成するマスキング層MSK_L1及びスケーリング層SC_L1の処理を示すフローチャート図である。プロセッサは、次に使用する第2の集合の教師データの入力画像IMG_INを入力し、工程S14で求めた最適化パラメータW1が設定されたDNN_1の演算を実行して、人体が存在する領域の座標Z1=HB_Rを推定する(S16_1)。
図16は、マスキング層MSK_L2及びスケーリング層SC_L2の処理を示すフローチャート図である。プロセッサは、第3の集合の教師データの入力画像IMG_INまたは特徴画像FIMGを入力し、最適化パラメータW1が設定されたDNN_1と最適化パラメータW2が設定されたDNN_2の演算を実行して、単体部位が存在する領域の座標Z2=BDP_Rを推定する(S18_1)。
次に、プロセッサは、最適化されたパラメータW1,W2,W3を設定されたDNN_1,DNN_2, DNN_3の連結ネットワークのDNN_1に、第4の集合の教師データの入力画像IMG_INまたは特徴画像FIMGを入力し、DNN_1, DNN_2, DNN_3の演算を実行し、単数部位領域内及び複数部位領域内の関節座標の候補Z3=C_JT_CRDの集合を推定する(S20)。この関節座標の候補Z3=C_JT_CRDの集合は、DNN_4の学習の教師データの入力値として利用される。
以上で、図10の工程S33まで終了する。次に、プロセッサは、全DNN_nであるDNN_1、DNN_2、DNN_3-1 - DNN_3-N、DNN_4を繋げた全DNNの学習を実行する(S34)。全DNNの学習は、例えばマルチタスク学習が好ましい。
Wnew = Wold - d * Σi=1 10 * ∂/∂W{|Z1-Z1_CV|2 + |Z2-Z2_CV|2 + |Z4-Z4_CV|2}
ここで、dは学習率、iは教師データの番号である。∂/∂W{|Z1-Z1_CV|2 + |Z2-Z2_CV|2+ |Z4-Z4_CV|2 }は勾配である。Σi=1 10は偏微分∂/∂Wの括弧外にあるが括弧内にあるのと等価である。
Wnew = Wold - d * Σi=1 10 * ∂/∂W |Z4-Z4_CV|2
この方法では、DNN_1, DNN_2, DNN_3, DNN_4を繋げたDNNの出力Z4が正解値Z4_CVに近づくように重みパラメータが最適化されるので、最適化の精度が余りあがらないまたは最適化に多くの教師データと全DNNの演算を必要とする。
FIMG:特徴画像
Z1=HB_R:人体領域
Z2=BDP_R:部位領域
Z2*=PBDP_R:複数部位領域
C_JT_CRD_1:第1の関節座標候補
C_JT_CRD_2:第2の関節座標候補
Z3=C_JT_CRD:関節座標候補
Z4=JT_CRD:関節座標
DNN_1:第1のディープニューラルネットワーク、第1のDNN
DNN_2:第2のディープニューラルネットワーク、第2のDNN
DNN_3_1, DNN_3_2:第3のディープニューラルネットワーク、第3のDNN
DNN_4:第4のディープニューラルネットワーク、第4のDNN
W1:第1の重みパラメータ
W2:第2の重みパラメータ
W3:第3の重みパラメータ
W4:第4の重みパラメータ
Z1_CV:第1の正解値
Z2_CV:第2の正解値
Z3_CV:第3の正解値
Z4_CV:第4の正解値
Claims (10)
- メモリと、
前記メモリと接続されるプロセッサとを有し、
前記プロセッサは、
第1の教師データの入力を入力画像、前記第1の教師データの正解データを前記入力画像内の動物の部位領域として、第1のディープニューラルネットワーク(以下DNNと称する)の学習を実行し、
第2の教師データの入力を、第2の教師データの入力画像内の部位領域及び前記部位領域を複数結合した複数部位領域の画像とし、前記第2の教師データの正解データを、前記部位領域及び複数部位領域内の関節位置として、第2のDNNの学習を実行し、
前記第1のDNNの学習で求めた第1のパラメータを設定した第1のDNNにより、処理対象の入力画像データに対する前記動物の部位領域を推定し、
前記第2のDNNの学習で求めた第2のパラメータを設定した第2のDNNにより、前記第1のDNNにより推定した部位領域及び前記部位領域を複数結合した複数部位領域それぞれの第1の関節位置及び第2の関節位置とを推定する、関節位置推定装置。 - 前記プロセッサは、更に、
前記第1のパラメータを設定した第1のDNNにより、前記第2の教師データの入力画像に対する前記動物の部位領域を推定する、請求項1に記載の関節位置推定装置。 - 前記プロセッサは、前記第2の教師データの入力である、前記部位領域及び複数部位領域の画像を、前記第2の教師データの入力画像内の部位領域及び複数部位領域で前記第2の教師データの入力画像を切り取って生成する、請求項1に記載の関節位置推定装置。
- 前記第1のDNNは、第3のDNNと第4のDNNとを有し、
前記第1のDNNの学習を実行することは、
第3の教師データの入力を前記第1の教師データの入力画像、前記第3の教師データの正解データを前記入力画像内の動物が存在する動物領域として、第3のDNNの学習を実行することと、
第4の教師データの入力を、前記第4の教師データの入力画像内の動物が存在する動物領域の画像とし、前記第4の教師データの正解データを、前記動物の部位領域として、第4のDNNの学習を実行することとを有し、
前記第1のDNNにより前記処理対象の入力画像に対する前記動物の部位領域を推定することは、
前記第3のDNNの学習で求めた第3のパラメータを設定した第3のDNNにより、前記処理対象の入力画像に対する前記動物領域を推定することと、
前記第4のDNNの学習で求めた第4のパラメータを設定した第4のDNNにより、前記推定した動物領域で前記処理対象の入力画像データを切り取った動物領域の画像に対する前記動物の部位領域を推定することを有する、請求項1に記載の関節位置推定装置。 - 前記第4の教師データの入力である前記第4の教師データの入力画像内の動物領域の画像は、前記第3のパラメータを設定した前記第3のDNNにより推定した動物領域で前記入力画像を切り取って求められる、請求項4に記載の関節位置推定装置。
- 前記プロセッサは、更に、
第5の教師データの入力を前記第1の関節位置と第2の関節位置とし、前記第5の教師データの正解データを前記第1の関節位置と第2の関節位置が含まれる第3の関節位置として、第5のDNNの学習を実行し、
前記第5のDNNの学習で求めた第5のパラメータを設定した第5のDNNにより、前記第2のDNNにより推定した前記第1の関節位置と第2の関節位置に対する前記第3の関節位置を推定する、請求項1に記載の関節位置推定装置。 - 前記学習の実行は、
所定数の教師データの入力に対して前記DNNが推定した出力と前記正解データとの差分の二乗和の総和を算出し、前記総和の勾配に基づいて前記パラメータを更新することを、前記総和が基準値未満になるまで繰り返すことを含む、請求項1に記載の関節位置推定装置。 - 前記プロセッサは、更に、
第6の教師データの入力である入力画像に対して前記第1のパラメータを設定した第1のDNNにより前記部位領域を推定し、前記推定した部位領域及び前記複数部位領域に対して前記第2のパラメータを設定した第2のDNNにより前記第1の関節位置及び第2の関節位置を推定し、
前記第1のDNNにより推定した部位領域と前記第1のDNNの正解データとの差分の第1の二乗和と、前記第2のDNNにより推定した第1の関節位置及び第2の関節位置と前記第2のDNNの正解データとの差分の第2の二乗和との総和を算出し、前記総和の勾配に基づいて前記第1のパラメータ及び第2のパラメータを更新することを、前記総和が基準値未満になるまで繰り返す、請求項1に記載の関節位置推定装置。 - 第1の教師データの入力を入力画像、前記第1の教師データの正解データを前記入力画像内の動物の部位領域として、第1のディープニューラルネットワーク(以下DNNと称する)の学習を実行し、
第2の教師データの入力を、第2の教師データの入力画像内の部位領域及び前記部位領域を複数結合した複数部位領域の画像とし、前記第2の教師データの正解データを、前記部位領域及び複数部位領域内の関節位置として、第2のDNNの学習を実行し、
前記第1のDNNの学習で求めた第1のパラメータを設定した第1のDNNにより、処理対象の入力画像データに対する前記動物の部位領域を推定し、
前記第2のDNNの学習で求めた第2のパラメータを設定した第2のDNNにより、前記第1のDNNにより推定した部位領域及び前記部位領域を複数結合した複数部位領域それぞれの第1の関節位置及び第2の関節位置とを推定する、処理を有する関節位置推定方法。 - 第1の教師データの入力を入力画像、前記第1の教師データの正解データを前記入力画像内の動物の部位領域として、第1のディープニューラルネットワーク(以下DNNと称する)の学習を実行し、
第2の教師データの入力を、第2の教師データの入力画像内の部位領域及び前記部位領域を複数結合した複数部位領域の画像とし、前記第2の教師データの正解データを、前記部位領域及び複数部位領域内の関節位置として、第2のDNNの学習を実行し、
前記第1のDNNの学習で求めた第1のパラメータを設定した第1のDNNにより、処理対象の入力画像データに対する前記動物の部位領域を推定し、
前記第2のDNNの学習で求めた第2のパラメータを設定した第2のDNNにより、前記第1のDNNにより推定した部位領域及び前記部位領域を複数結合した複数部位領域それぞれの第1の関節位置及び第2の関節位置とを推定する、処理をコンピュータに実行させる関節位置推定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/011141 WO2018173108A1 (ja) | 2017-03-21 | 2017-03-21 | 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018173108A1 JPWO2018173108A1 (ja) | 2020-01-23 |
JP6826296B2 true JP6826296B2 (ja) | 2021-02-03 |
Family
ID=63586333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019506573A Expired - Fee Related JP6826296B2 (ja) | 2017-03-21 | 2017-03-21 | 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11157796B2 (ja) |
JP (1) | JP6826296B2 (ja) |
WO (1) | WO2018173108A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871845B (zh) | 2019-01-10 | 2023-10-31 | 平安科技(深圳)有限公司 | 证件图像提取方法及终端设备 |
JP2020151270A (ja) * | 2019-03-20 | 2020-09-24 | 学校法人慶應義塾 | 関節状態値取得装置、関節状態学習装置、関節位置特定装置、関節位置学習装置、関節状態値取得方法、関節状態学習方法、関節位置特定方法、関節位置学習方法及びプログラム |
JP7349288B2 (ja) * | 2019-08-08 | 2023-09-22 | セコム株式会社 | 対象物認識装置、対象物認識方法、及び対象物認識プログラム |
JP7349290B2 (ja) * | 2019-08-15 | 2023-09-22 | セコム株式会社 | 対象物認識装置、対象物認識方法、及び対象物認識プログラム |
JP7304235B2 (ja) * | 2019-08-16 | 2023-07-06 | セコム株式会社 | 学習済みモデル、学習装置、学習方法、及び学習プログラム |
JP7118934B2 (ja) * | 2019-09-04 | 2022-08-16 | 株式会社東芝 | 物体数推定装置、物体数推定方法、および物体数推定プログラム |
JP7320260B2 (ja) * | 2019-11-15 | 2023-08-03 | オーアイ・イノベーション株式会社 | 髄位置推定装置および製材システム |
CN111340030B (zh) * | 2020-02-14 | 2021-12-21 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备、计算机可读存储介质 |
US20230210451A1 (en) * | 2020-06-11 | 2023-07-06 | Pst Inc. | Information processing device, information processing method, information processing system and information processing program |
US20230282031A1 (en) * | 2022-03-04 | 2023-09-07 | Microsoft Technology Licensing, Llc | Pose prediction for articulated object |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000251078A (ja) * | 1998-12-22 | 2000-09-14 | Atr Media Integration & Communications Res Lab | 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置 |
JP4855141B2 (ja) | 2006-05-19 | 2012-01-18 | 富士フイルム株式会社 | 医用画像部位認識装置、及び、医用画像部位認識プログラム |
WO2012046392A1 (ja) | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
JP6433149B2 (ja) | 2013-07-30 | 2018-12-05 | キヤノン株式会社 | 姿勢推定装置、姿勢推定方法およびプログラム |
US9730643B2 (en) * | 2013-10-17 | 2017-08-15 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
JP2016212688A (ja) * | 2015-05-11 | 2016-12-15 | 日本電信電話株式会社 | 関節位置推定装置、方法、及びプログラム |
US9773196B2 (en) * | 2016-01-25 | 2017-09-26 | Adobe Systems Incorporated | Utilizing deep learning for automatic digital image segmentation and stylization |
US10679046B1 (en) * | 2016-11-29 | 2020-06-09 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Machine learning systems and methods of estimating body shape from images |
-
2017
- 2017-03-21 JP JP2019506573A patent/JP6826296B2/ja not_active Expired - Fee Related
- 2017-03-21 WO PCT/JP2017/011141 patent/WO2018173108A1/ja active Application Filing
-
2019
- 2019-09-20 US US16/576,848 patent/US11157796B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2018173108A1 (ja) | 2020-01-23 |
US11157796B2 (en) | 2021-10-26 |
WO2018173108A1 (ja) | 2018-09-27 |
US20200012922A1 (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6826296B2 (ja) | 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム | |
JP6522060B2 (ja) | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 | |
US20110142354A1 (en) | Apparatus and method for detecting pose in motion capture data | |
CN109657631A (zh) | 人体姿态识别方法及装置 | |
CN109410261A (zh) | 基于金字塔池化模块的单目图像深度估计方法 | |
CN109360232A (zh) | 基于条件生成对抗网络的室内场景布局估计方法和装置 | |
WO2007102537A1 (ja) | 姿勢推定装置および方法 | |
CN110487274B (zh) | 用于弱纹理场景的slam方法、系统、导航车及存储介质 | |
WO2020186385A1 (zh) | 图像处理方法、电子设备及计算机可读存储介质 | |
CN107978017A (zh) | 基于框线提取的室内结构快速建模方法 | |
CN111882531A (zh) | 髋关节超声图像自动分析方法 | |
CN114586078A (zh) | 手部姿态估计方法、装置、设备以及计算机存储介质 | |
JP2019046334A (ja) | 分類モデル生成装置、画像データ分類装置およびそれらのプログラム | |
KR101586007B1 (ko) | 데이터 처리 장치 및 방법 | |
JP6921526B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN114359892A (zh) | 三维目标检测方法、装置及计算机可读存储介质 | |
CN111339969B (zh) | 人体姿势估计方法、装置、设备及存储介质 | |
JP2018180894A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN109648573B (zh) | 一种机器人会话切换方法、装置及计算设备 | |
CN112648997A (zh) | 一种基于多任务网络模型定位的方法及系统 | |
JP6692271B2 (ja) | マルチタスク処理装置、マルチタスクモデル学習装置、及びプログラム | |
JP2020035290A (ja) | 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム | |
CN110728168B (zh) | 部位识别方法、装置、设备及存储介质 | |
JP7439832B2 (ja) | 3次元姿勢推定方法、プログラム、記録媒体および3次元姿勢推定装置 | |
CN111906781A (zh) | 基于图神经网络的机器人自主工具构建方法、系统及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191004 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6826296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |