JP2021529407A - 対象物の種類および状態を判定する方法 - Google Patents
対象物の種類および状態を判定する方法 Download PDFInfo
- Publication number
- JP2021529407A JP2021529407A JP2021517902A JP2021517902A JP2021529407A JP 2021529407 A JP2021529407 A JP 2021529407A JP 2021517902 A JP2021517902 A JP 2021517902A JP 2021517902 A JP2021517902 A JP 2021517902A JP 2021529407 A JP2021529407 A JP 2021529407A
- Authority
- JP
- Japan
- Prior art keywords
- view
- layers
- class
- shielding
- boundary box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 41
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 37
- 238000011176 pooling Methods 0.000 claims description 19
- 239000013256 coordination polymer Substances 0.000 claims description 18
- 238000012935 Averaging Methods 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 101150064138 MAP1 gene Proteins 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 7
- 241000282412 Homo Species 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000031295 Animal disease Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000013067 intermediate product Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
Description
前部と同様、上記中部も、複数の層の3つの中部グループを有し、視野方向毎に1つのグループがある。これは、それぞれの視野方向から得られた情報を別々にしておく役割を果たす。これは、実際に、計算されたクラスおよび境界ボックスの効率的で正確な結果をもたらすことを示している。
Claims (16)
- 対象物(3)の種類(TY)および状態(ST)を判定する方法であって、
奥行センサ(2)を用いて場面(SC)の奥行マップ(1)を生成する工程であって、上記場面(SC)では、上記対象物(3)および、上記奥行センサ(2)と上記対象物(3)とのあいだにある遮蔽物(4)が、上記奥行センサ(2)から見た場合に、上記対象物(3)の第1部分(9)が隠れ、上記対象物(3)の第2部分(10)が隠れていないように位置している、工程と、
それぞれ異なる視野方向を有する3つの2D占有ビュー(161、162、163)と、当該視野方向のそれぞれ異なる1つと対応する方向をそれぞれ向いた3つの2D遮蔽ビュー(171、172、173)を、上記奥行マップ(1)から計算する工程であって、上記遮蔽ビュー(171、172、173)はそれぞれ上記遮蔽物(4)を表わし、上記占有ビュー(161、162、163)はそれぞれ上記対象物(3)の上記第2部分(10)を上記遮蔽物(4)なしで表す、工程と、
上記占有ビュー(161、162、163)および遮蔽ビュー(171、172、173)のそれぞれを、トレーニング済み畳み込みニューラルネットワーク(6)の異なる入力(231、232、233、234、235、236)に供給する工程と、
上記対象物(3)のクラス(CL)および境界ボックス(BB)を上記畳み込みニューラルネットワーク(6)から受け取る工程と、
上記対象物(3)の種類(TY)を上記受け取ったクラス(CL)から判定し、上記対象物(3)の状態(ST)を上記境界ボックス(BB)から判定する工程と、を含む方法。 - 上記畳み込みニューラルネットワーク(6)は、上記遮蔽ビュー(171、172、173)および占有ビュー(161、162、163)から特徴マップ(30)を生成する前部(24)と、上記特徴マップ(30)からクラス予測(CP1、CP2、CP3)および境界ボックス予測([x1,y1]、[x2,z2]、[y3,z3])を生成する中部(25)と、上記クラス予測(CP1、CP2、CP3)および上記境界ボックス予測([x1,y1]、[x2,z2]、[y3,z3])を平均して上記クラス(CL)および上記境界ボックス(BB)をそれぞれ生成する平均化部(26)と、を有する、請求項1に記載の方法。
- 上記前部(24)は、複数の層(28、29)の3つの前部グループ(27)を有し、視野方向毎に1つのグループがあり、各グループ(27)は特徴マップ(30)を生成する、請求項2に記載の方法。
- 各前部グループ(27)は、上記占有ビュー(161、162、163)の第1の所定数の層(28、29)と、上記遮蔽ビュー(171、172、173)の第2の所定数の層(29)と、から成り、上記占有ビュー(161、162、163)の層(28、29)の数は、上記遮蔽ビュー(171、172、173)の層(29)の数よりも多い、請求項3に記載の方法。
- 上記占有ビュー(161、162、163)の上記層(28、29)は畳み込み層とマックスプーリング層から成り、上記遮蔽ビュー(171、172、173)の上記層(29)はマックスプーリング層のみから成る、請求項4に記載の方法。
- 上記中部(25)は、複数の層(32、33、34)の3つの中部グループ(31)を有し、視野方向毎に1つの視野方向がある、請求項2から5のいずれか一項に記載の方法。
- 各中部グループ(31)は3つの緻密層(32、33、34)を有し、そのうちの第1ステージ緻密層(32)は上記前部(24)から上記特徴マップ(30)を受け取り、そのうちの2つのパラレルな第2ステージ緻密層(33、34)は上記第1ステージ緻密層(32)の出力を受け取り、上記第2ステージ緻密層の一方(33)は上記クラス予測(CP1、CP2、CP3)を出力し、上記第2ステージ緻密層の他方(34)は境界ボックス予測([x1,y1]、[x2,z2]、[y3,z3])を出力する、請求項6に記載の方法。
- 上記対象物(3)の種類(TY)が人間に該当し、上記対象物(3)の状態(ST)が転倒に該当するとき、人間の転倒が検知される、請求項1から7のいずれか一項に記載の方法。
- 対象物の種類(TY)および状態(ST)を判定するシステムであって、
場面(SC)の奥行マップ(1)を生成するよう構成された奥行センサ(2)であって、上記場面(SC)では、上記対象物(3)および、上記奥行センサ(2)と上記対象物(3)とのあいだにある遮蔽物(4)が、上記奥行センサ(2)から見た場合に、上記対象物(3)の第1部分(9)が隠れ、上記対象物(3)の第2部分(10)が隠れていないように位置している、奥行センサ(2)と、
それぞれ異なる視野方向を有する3つの2D占有ビュー(161、162、163)と、当該視野方向のそれぞれ異なる1つと対応する方向をそれぞれ向いた3つの2D遮蔽ビュー(171、172、173)を、上記奥行マップ(1)から計算するよう構成されたプロセッサ(5)であって、上記遮蔽ビュー(171、172、173)はそれぞれ上記遮蔽物(4)を表わし、上記占有ビュー(161、162、163)はそれぞれ上記対象物(3)の上記第2部分(10)を上記遮蔽物(4)なしで表す、プロセッサ(5)と、
6つの入力(231、232、233、234、235、236)を有するトレーニング済み畳み込みニューラルネットワーク(6)であって、上記占有ビュー(161、162、163)および遮蔽ビュー(171、172、173)のそれぞれを異なる入力(231、232、233、234、235、236)で受け取るよう構成された畳み込みニューラルネットワーク(6)と、
上記対象物(3)のクラス(CL)および境界ボックス(BB)を上記畳み込みニューラルネットワーク(6)から受け取り、上記対象物(3)の種類(TY)を上記受け取ったクラス(CL)から判定し、上記対象物(3)の状態(ST)を上記境界ボックス(BB)から判定するよう構成された評価デバイス(7)と、を有するシステム。 - 上記畳み込みニューラルネットワーク(6)は、上記遮蔽ビュー(171、172、173)および占有ビュー(161、162、163)から特徴マップ(30)を生成するよう構成された前部(24)と、上記特徴マップ(30)からクラス予測(CP1、CP2、CP3)および境界ボックス予測([x1,y1]、[x2,z2]、[y3,z3])を生成するよう構成された中部(25)と、上記クラス予測(CP1、CP2、CP3)および上記境界ボックス予測([x1,y1]、[x2,z2]、[y3,z3])を平均して上記クラス(CL)および上記境界ボックス(BB)をそれぞれ生成するよう構成された平均化部(26)と、を有する、請求項9に記載のシステム。
- 上記前部(24)は、複数の層(28、29)の3つの前部グループ(27)を有し、視野方向毎に1つのグループがある、請求項10に記載のシステム。
- 各前部グループ(27)は、上記占有ビュー(161、162、163)の第1の所定数の層(28、29)と、上記遮蔽ビュー(171、172、173)の第2の所定数の層(29)と、から成り、上記占有ビュー(161、162、163)の層(28、29)の数は、上記遮蔽ビュー(171、172、173)の層(29)の数よりも多い、請求項11に記載のシステム。
- 上記占有ビュー(161、162、163)の上記層は畳み込み層(28)とマックスプーリング層(29)から成り、上記遮蔽ビュー(171、172、173)の上記層(29)はマックスプーリング層(29)のみから成る、請求項12に記載のシステム。
- 上記中部(25)は、複数の層(32、33、34)の3つの同一の中部グループ(31)を有し、視野方向毎に1つのグループがある、請求項10から13のいずれか一項に記載のシステム。
- 各中部グループ(31)は3つの緻密層(32、33、34)を有し、そのうちの第1ステージ緻密層(32)は上記前部(24)から上記特徴マップ(30)を受け取るよう構成され、そのうちの2つのパラレルな第2ステージ緻密層(33、34)は上記第1ステージ緻密層(32)の出力を受け取るよう構成され、上記第2ステージ緻密層の一方(33)は上記クラス予測(CP1、CP2、CP3)を出力するよう構成され、上記第2ステージ緻密層の他方(34)は境界ボックス予測([x1,y1]、[x2,z2]、[y3,z3])を出力するよう構成されている、請求項14に記載のシステム。
- 上記対象物(3)の種類(TY)が人間に該当し、上記対象物(3)の状態(ST)が転倒に該当するとき、人間の転倒を検知するよう構成されたシステム(8)である、請求項9から15のいずれか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18175783.2 | 2018-06-04 | ||
EP18175783.2A EP3579138B1 (en) | 2018-06-04 | 2018-06-04 | Method for determining a type and a state of an object of interest |
PCT/EP2019/058660 WO2019233654A1 (en) | 2018-06-04 | 2019-04-05 | Method for determining a type and a state of an object of interest |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021529407A true JP2021529407A (ja) | 2021-10-28 |
JPWO2019233654A5 JPWO2019233654A5 (ja) | 2022-03-24 |
JP7241366B2 JP7241366B2 (ja) | 2023-03-17 |
Family
ID=62635998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021517902A Active JP7241366B2 (ja) | 2018-06-04 | 2019-04-05 | 対象物の種類および状態を判定する方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11790642B2 (ja) |
EP (1) | EP3579138B1 (ja) |
JP (1) | JP7241366B2 (ja) |
WO (1) | WO2019233654A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021064320A (ja) * | 2019-10-17 | 2021-04-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN111062396B (zh) * | 2019-11-29 | 2022-03-25 | 深圳云天励飞技术有限公司 | 车牌号码识别方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06162173A (ja) * | 1992-11-20 | 1994-06-10 | Mitsubishi Electric Corp | 3次元物体認識装置 |
JP2012023658A (ja) * | 2010-07-16 | 2012-02-02 | Toshiba Alpine Automotive Technology Corp | 車両用画像表示装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9355334B1 (en) * | 2013-09-06 | 2016-05-31 | Toyota Jidosha Kabushiki Kaisha | Efficient layer-based object recognition |
US10185877B2 (en) * | 2016-07-08 | 2019-01-22 | Huawei Technologies Co., Ltd. | Systems, processes and devices for occlusion detection for video-based object tracking |
US10523918B2 (en) * | 2017-03-24 | 2019-12-31 | Samsung Electronics Co., Ltd. | System and method for depth map |
WO2018207351A1 (ja) * | 2017-05-12 | 2018-11-15 | 富士通株式会社 | 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム |
US10755426B2 (en) * | 2018-05-23 | 2020-08-25 | Apple Inc. | Efficient scene depth map enhancement for low power devices |
-
2018
- 2018-06-04 EP EP18175783.2A patent/EP3579138B1/en active Active
-
2019
- 2019-04-05 US US17/057,459 patent/US11790642B2/en active Active
- 2019-04-05 WO PCT/EP2019/058660 patent/WO2019233654A1/en active Application Filing
- 2019-04-05 JP JP2021517902A patent/JP7241366B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06162173A (ja) * | 1992-11-20 | 1994-06-10 | Mitsubishi Electric Corp | 3次元物体認識装置 |
JP2012023658A (ja) * | 2010-07-16 | 2012-02-02 | Toshiba Alpine Automotive Technology Corp | 車両用画像表示装置 |
Non-Patent Citations (1)
Title |
---|
ASAKO KANEZAKI, YASUYUKI MATSUSHITA, YOSHIFUMI NISHIDA: "RotationNet: Joint Object Categorization and Pose Estimation Using Multiviews from Unsupervised View", ARXIV, JPN6023005160, 23 March 2018 (2018-03-23), US, pages 1 - 24, ISSN: 0004989460 * |
Also Published As
Publication number | Publication date |
---|---|
US20210142091A1 (en) | 2021-05-13 |
EP3579138A1 (en) | 2019-12-11 |
WO2019233654A1 (en) | 2019-12-12 |
EP3579138B1 (en) | 2020-11-11 |
JP7241366B2 (ja) | 2023-03-17 |
US11790642B2 (en) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
KR102267553B1 (ko) | 큐보이드 검출을 위한 딥 러닝 시스템 | |
AU2022202588B2 (en) | Item identification and tracking system | |
US10891741B2 (en) | Human analytics using fusion of image and depth modalities | |
US8457355B2 (en) | Incorporating video meta-data in 3D models | |
JP2020061146A (ja) | 畳み込みニューラルネットワークを利用してpoi変化を検出するためのシステムおよび方法 | |
CN112132213A (zh) | 样本图像的处理方法及装置、电子设备、存储介质 | |
WO2020225562A1 (en) | Processing captured images | |
KR20180055070A (ko) | 재질 인식 및 재질 트레이닝을 수행하는 방법 및 장치 | |
Nghiem et al. | Background subtraction in people detection framework for RGB-D cameras | |
JP7241366B2 (ja) | 対象物の種類および状態を判定する方法 | |
US12033372B2 (en) | Attributing generated visual content to training examples | |
Ponto et al. | Opportunities for utilizing consumer grade 3D capture tools for insurance documentation | |
CN113160414B (zh) | 货物余量自动识别方法、装置、电子设备以及计算机可读介质 | |
CN115937991A (zh) | 人体摔倒识别方法、装置、计算机设备及存储介质 | |
US20240285100A1 (en) | Methods and systems for detecting and tracking objects | |
US12142029B2 (en) | Attributing generated visual content to training examples | |
WO2023084512A1 (en) | Facilitating generation and usage of visual content | |
CN114898408A (zh) | 基于支持向量描述的人腿检测方法、装置及可读介质 | |
Mitra | Factoring Scene Layout From Monocular Images in Presence of Occlusion | |
Berntsson et al. | Pedestrian detection and tracking in D point cloud data on limited systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220314 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230207 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7241366 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |