JP7460633B2 - コンピュータビジョンを使用する複合視覚検査タスクの連携学習のためのシステムと方法 - Google Patents
コンピュータビジョンを使用する複合視覚検査タスクの連携学習のためのシステムと方法 Download PDFInfo
- Publication number
- JP7460633B2 JP7460633B2 JP2021535943A JP2021535943A JP7460633B2 JP 7460633 B2 JP7460633 B2 JP 7460633B2 JP 2021535943 A JP2021535943 A JP 2021535943A JP 2021535943 A JP2021535943 A JP 2021535943A JP 7460633 B2 JP7460633 B2 JP 7460633B2
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- classifiers
- camera
- cameras
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 108
- 238000011179 visual inspection Methods 0.000 title claims description 28
- 230000004438 eyesight Effects 0.000 title claims description 21
- 238000007689 inspection Methods 0.000 claims description 72
- 230000000007 visual effect Effects 0.000 claims description 50
- 239000002131 composite material Substances 0.000 claims description 45
- 238000012549 training Methods 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000013527 convolutional neural network Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 17
- 238000012706 support-vector machine Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 9
- 230000033001 locomotion Effects 0.000 claims description 8
- 238000010200 validation analysis Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims 1
- 238000004458 analytical method Methods 0.000 description 38
- 230000003287 optical effect Effects 0.000 description 19
- 238000003066 decision tree Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 238000004519 manufacturing process Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 10
- 150000001875 compounds Chemical class 0.000 description 10
- 230000007547 defect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 238000005286 illumination Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000003909 pattern recognition Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000000383 hazardous chemical Substances 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000002950 deficient Effects 0.000 description 3
- 230000004313 glare Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 229910044991 metal oxide Inorganic materials 0.000 description 3
- 150000004706 metal oxides Chemical class 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000012614 Monte-Carlo sampling Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 235000013361 beverage Nutrition 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000010432 diamond Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 101100118004 Arabidopsis thaliana EBP1 gene Proteins 0.000 description 1
- NLZUEZXRPGMBCV-UHFFFAOYSA-N Butylhydroxytoluene Chemical compound CC1=CC(C(C)(C)C)=C(O)C(C(C)(C)C)=C1 NLZUEZXRPGMBCV-UHFFFAOYSA-N 0.000 description 1
- 101150052583 CALM1 gene Proteins 0.000 description 1
- 102100025580 Calmodulin-1 Human genes 0.000 description 1
- 102100025579 Calmodulin-2 Human genes 0.000 description 1
- 108010078791 Carrier Proteins Proteins 0.000 description 1
- 101100459256 Cyprinus carpio myca gene Proteins 0.000 description 1
- 101001077352 Homo sapiens Calcium/calmodulin-dependent protein kinase type II subunit beta Proteins 0.000 description 1
- 101000863856 Homo sapiens Shiftless antiviral inhibitor of ribosomal frameshifting protein Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 101150091339 cam-1 gene Proteins 0.000 description 1
- 230000000711 cancerogenic effect Effects 0.000 description 1
- 231100000315 carcinogenic Toxicity 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000005865 ionizing radiation Effects 0.000 description 1
- -1 ionizing radiation Substances 0.000 description 1
- 230000008407 joint function Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000002574 poison Substances 0.000 description 1
- 231100000614 poison Toxicity 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本出願は、2018年12月19日に米国特許商標庁において出願された米国仮特許出願第62/782,163号の利益を主張し、その開示全体は、ここにおいて参照により組み込まれる。
x0→y0=(x0-min(x0,x1))/(x0 2+x1 2)
x1→y1=(x1-min(x0,x1))/(x0 2+x1 2)
のように、出力が非負であり、それらの絶対値の合計が1となるようにマッピングを実行することである。そのようなアプローチでは、2つのスコアの1つのみが考慮され、閾値が適用される(例えば、x0>th)。閾値の異なる値を選択することにより、ROC曲線を形成する異なる(TPr,FPr)対を得ることができる。
[態様1]
自動視覚検査を実行するための方法であって、
複数のカメラを備えている走査システムを使用して、対象物の視覚情報を取り込むことと、
プロセッサとメモリを備えているコンピューティングシステムにより、1つ又は複数の特徴抽出器を使用して、前記視覚情報から1つ又は複数の特徴マップを抽出することと、
前記コンピューティングシステムにより、前記対象物の分類を計算するために、前記1つ又は複数の特徴マップを、それぞれが、前記対象物の特性を表現する出力を計算するように構成されている複数の単純分類子と、前記対象物の前記分類を計算するために、前記単純分類子の前記出力を組み合わせるように構成されている1つ又は複数の論理演算子を備えている複合分類子に供給することにより、前記対象物を分類することと
前記コンピューティングシステムにより、前記対象物の前記分類を、前記自動視覚検査の結果として出力することを備える方法。
[態様2]
前記1つ又は複数の特徴抽出器は、1つ又は複数の畳み込みニューラルネットワークを備える態様1に記載の方法。
[態様3]
前記複数の単純分類子は、1つ又は複数のニューラルネットワークを備える態様1に記載の方法。
[態様4]
前記複数の単純分類子は、1つ又は複数のサポートベクトルマシンを備えており、
少なくとも1つの論理演算は、前記ニューラルネットワークの出力と前記サポートベクトルマシンの出力を組み合わせるように構成されている態様3に記載の方法。
[態様5]
前記複数の単純分類子は、1つ又は複数の回帰モデルを備える態様1に記載の方法。
[態様6]
前記複数の単純分類子は、テキスト検出を実行するように構成されている、1つ又は複数のラベルに基づく分類子を備える態様1に記載の方法。
[態様7]
前記複数の単純分類子のそれぞれの単純分類子は、連携して訓練されている複数の閾値パラメータの対応する閾値パラメータにより構成されている態様1に記載の方法。
[態様8]
前記閾値パラメータは、
前記単純分類子を構成するために、複数の閾値パラメータのセットを選択するためにパラメータ空間をサンプリングすることと、
前記複数の閾値パラメータのセットのそれぞれの閾値パラメータのセットに対して、真陽性率(TPr)と偽陽性率(FPr)を、
前記閾値パラメータのセットに基づいて前記単純分類子を構成することにより、前記複合分類子を構成し、
前記構成された複合分類子にデータの検証セットを供給することにより、前記構成に対する前記TPrと前記FPrを計算することにより計算することと、
前記構成パラメータのセットのそれぞれのセットに対して、前記TPrとFPrに従って、構成パラメータの最も良好な実行セットを備えているパレートフロントを識別することと、
ドメインに従うルールセットに従って、前記パレートフロントから構成パラメータのセットを選択することにより連携して訓練される態様7の方法。
[態様9]
前記視覚情報は、カラー画像、グレースケール画像、または深度マップを備える態様1の方法。
[態様10]
前記視覚情報は、少なくとも1つの深度マップを備えており、
前記少なくとも1つの深度マップは、前記複数のカメラの深度カメラシステムにより撮像される態様9の方法。
[態様11]
前記深度カメラシステムは、
飛行時間型深度カメラと、
構造化光深度カメラと、
少なくとも2台のカラーカメラを備えているステレオ深度カメラ、
少なくとも2台のカラーカメラとカラープロジェクタを備えているステレオ深度カメラ、
少なくとも2台の赤外線カメラを備えているステレオ深度カメラ、または
少なくとも2台の赤外線カメラ、赤外線プロジェクタ、およびカラーカメラを備えているステレオ深度カメラを備える態様10の方法。
[態様12]
前記複数の単純分類子は、前記深度マップの数学的モデル化に基づく分類子を備える態様10の方法。
[態様13]
前記1つ又は複数の特徴マップの特徴マップは、前記複数の単純分類子の少なくとも2つへの入力として提供される態様1の方法。
[態様14]
前記対象物の前記分類は、複数の対象物のカテゴリの中の1つのカテゴリの識別を備える態様1の方法。
[態様15]
前記対象物の前記分類は、前記視覚情報に基づく、前記対象物の1つ又は複数の特質の識別を備える態様1の方法。
[態様16]
視覚検査システムであって、
複数のカメラを備えているスキャナシステムと、
コンピュータネットワーク上で前記スキャナシステムに接続されているコンピューティングシステムを備えており、前記コンピューティングシステムは、プロセッサと、命令を格納しているメモリを備えており、前記命令は、前記プロセッサにより実行されると、前記プロセッサに、
対象物の視覚情報を取り込むように前記スキャナシステムを制御させ、
1つ又は複数の特徴抽出器を使用して、前記視覚情報から1つ又は複数の特徴マップを抽出させ、
前記コンピューティングシステムにより、前記対象物の分類を計算するために、前記1つ又は複数の特徴マップを、それぞれが、前記対象物の特性を表現する出力を計算するように構成されている複数の単純分類子と、前記対象物の前記分類を計算するために、前記単純分類子の前記出力を組み合わせるように構成されている1つ又は複数の論理演算子を備えている複合分類子に供給することにより、前記対象物を分類させ、
前記コンピューティングシステムにより、前記対象物の前記分類を、前記対象物の自動視覚検査の結果として出力させる視覚検査システム。
[態様17]
前記プロセッサは更に、態様2から15の何れかの前記方法の前記ステップを実行するように構成されている態様16に記載の視覚検査システム。
[態様18]
前記スキャナシステムは、少なくとも1台のカラーカメラを備える態様16または17に記載の視覚検査システム。
[態様19]
前記スキャナシステムは、少なくとも1台の深度カメラを備える態様16または17に記載の視覚検査システム。
[態様20]
表示装置を備えているユーザ装置を更に備え、前記ユーザ装置は、
前記対象物の前記分類と、
前記複数の単純分類子の少なくとも1つの単純分類子により計算された、前記対象物の少なくとも1つの特性を表示するように構成されている態様16から19の何れか一項に記載の視覚検査システム。
[態様21]
前記コンピューティングシステムは、前記分類に従って、前記対象物の動きの方向を変えるために搬送器システムを制御するように構成されている態様16から20の何れか一項に記載の視覚検査システム。
[態様22]
プロセッサとメモリを備えている視覚検査システムであって、
前記プロセッサは、態様1から15の何れか一項に記載の前記方法の前記ステップを実行するように構成されている視覚検査システム。
[態様23]
命令を備えているコンピュータプログラムであって、前記プログラムは、コンピュータにより実行されると、前記コンピュータに、態様1から15の何れか一項に記載の前記方法の前記ステップを実行させるコンピュータプログラム。
Claims (22)
- 自動視覚検査を実行するための方法であって、
複数のカメラを備えている走査システムを使用して、対象物の視覚情報を取り込むことと、
プロセッサとメモリを備えているコンピューティングシステムにより、1つ又は複数の特徴抽出器を使用して、前記視覚情報から1つ又は複数の特徴マップを抽出することと、
前記コンピューティングシステムにより、前記対象物の分類を計算するために、前記1つ又は複数の特徴マップを、それぞれが、前記対象物の特性を表現する出力を計算するように構成されている複数の単純分類子と、前記対象物の前記分類を計算するために、前記単純分類子の前記出力を組み合わせるように構成されている1つ又は複数の論理演算子を備えている複合分類子に供給することにより、前記対象物を分類することと
前記コンピューティングシステムにより、前記対象物の前記分類を、前記自動視覚検査の結果として出力することを備え、
前記複数の単純分類子のそれぞれの単純分類子は、連携して訓練されている複数の閾値パラメータの対応する閾値パラメータにより構成されている方法。 - 前記1つ又は複数の特徴抽出器は、1つ又は複数の畳み込みニューラルネットワークを備える請求項1に記載の方法。
- 前記複数の単純分類子は、1つ又は複数のニューラルネットワークを備える請求項1に記載の方法。
- 前記複数の単純分類子は、1つ又は複数のサポートベクトルマシンを備えており、
少なくとも1つの論理演算は、前記ニューラルネットワークの出力と前記サポートベクトルマシンの出力を組み合わせるように構成されている請求項3に記載の方法。 - 前記複数の単純分類子は、1つ又は複数の回帰モデルを備える請求項1に記載の方法。
- 前記複数の単純分類子は、テキスト検出を実行するように構成されている、1つ又は複数のラベルに基づく分類子を備える請求項1に記載の方法。
- 前記閾値パラメータは、
前記単純分類子を構成するために、複数の閾値パラメータのセットを選択するためにパラメータ空間をサンプリングすることと、
前記複数の閾値パラメータのセットのそれぞれの閾値パラメータのセットに対して、真陽性率(TPr)と偽陽性率(FPr)を、
前記閾値パラメータのセットに基づいて前記単純分類子を構成することにより、前記複合分類子を構成し、
前記構成された複合分類子にデータの検証セットを供給することにより、前記構成に対する前記TPrと前記FPrを計算することにより計算することと、
構成パラメータのセットのそれぞれのセットに対して、前記TPrとFPrに従って、構成パラメータの最も良好な実行セットを備えているパレートフロントを識別することと、
ドメインに従うルールセットに従って、前記パレートフロントから構成パラメータのセットを選択することにより連携して訓練される請求項1の方法。 - 前記視覚情報は、カラー画像、グレースケール画像、または深度マップを備える請求項1の方法。
- 前記視覚情報は、少なくとも1つの深度マップを備えており、
前記少なくとも1つの深度マップは、前記複数のカメラの深度カメラシステムにより撮像される請求項8の方法。 - 前記深度カメラシステムは、
飛行時間型深度カメラと、
構造化光深度カメラと、
少なくとも2台のカラーカメラを備えているステレオ深度カメラ、
少なくとも2台のカラーカメラとカラープロジェクタを備えているステレオ深度カメラ、
少なくとも2台の赤外線カメラを備えているステレオ深度カメラ、または
少なくとも2台の赤外線カメラ、赤外線プロジェクタ、およびカラーカメラを備えているステレオ深度カメラを備える請求項9の方法。 - 前記複数の単純分類子は、前記深度マップの数学的モデル化に基づく分類子を備える請求項9の方法。
- 前記1つ又は複数の特徴マップの特徴マップは、前記複数の単純分類子の少なくとも2つへの入力として提供される請求項1の方法。
- 前記対象物の前記分類は、複数の対象物のカテゴリの中の1つのカテゴリの識別を備える請求項1の方法。
- 前記対象物の前記分類は、前記視覚情報に基づく、前記対象物の1つ又は複数の特質の識別を備える請求項1の方法。
- 視覚検査システムであって、
複数のカメラを備えているスキャナシステムと、
コンピュータネットワーク上で前記スキャナシステムに接続されているコンピューティングシステムを備えており、前記コンピューティングシステムは、プロセッサと、命令を格納しているメモリを備えており、前記命令は、前記プロセッサにより実行されると、前記プロセッサに、
対象物の視覚情報を取り込むように前記スキャナシステムを制御させ、
1つ又は複数の特徴抽出器を使用して、前記視覚情報から1つ又は複数の特徴マップを抽出させ、
前記コンピューティングシステムにより、前記対象物の分類を計算するために、前記1つ又は複数の特徴マップを、それぞれが、前記対象物の特性を表現する出力を計算するように構成されている複数の単純分類子と、前記対象物の前記分類を計算するために、前記単純分類子の前記出力を組み合わせるように構成されている1つ又は複数の論理演算子を備えている複合分類子に供給することにより、前記対象物を分類させ、
前記コンピューティングシステムにより、前記対象物の前記分類を、前記対象物の自動視覚検査の結果として出力させ、
前記複数の単純分類子のそれぞれの単純分類子は、連携して訓練されている複数の閾値パラメータの対応する閾値パラメータにより構成されている視覚検査システム。 - 前記プロセッサは更に、請求項2から14の何れかの前記方法の前記ステップを実行するように構成されている請求項15に記載の視覚検査システム。
- 前記スキャナシステムは、少なくとも1台のカラーカメラを備える請求項15または16に記載の視覚検査システム。
- 前記スキャナシステムは、少なくとも1台の深度カメラを備える請求項15または16に記載の視覚検査システム。
- 表示装置を備えているユーザ装置を更に備え、前記ユーザ装置は、
前記対象物の前記分類と、
前記複数の単純分類子の少なくとも1つの単純分類子により計算された、前記対象物の少なくとも1つの特性を表示するように構成されている請求項15から18の何れか一項に記載の視覚検査システム。 - 前記コンピューティングシステムは、前記分類に従って、前記対象物の動きの方向を変えるために搬送器システムを制御するように構成されている請求項15から19の何れか一項に記載の視覚検査システム。
- プロセッサとメモリを備えている視覚検査システムであって、
前記プロセッサは、請求項1から14の何れか一項に記載の前記方法の前記ステップを実行するように構成されている視覚検査システム。 - 命令を備えているコンピュータプログラムであって、前記プログラムは、コンピュータにより実行されると、前記コンピュータに、請求項1から14の何れか一項に記載の前記方法の前記ステップを実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862782163P | 2018-12-19 | 2018-12-19 | |
US62/782,163 | 2018-12-19 | ||
PCT/US2019/067606 WO2020132322A1 (en) | 2018-12-19 | 2019-12-19 | Systems and methods for joint learning of complex visual inspection tasks using computer vision |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022515768A JP2022515768A (ja) | 2022-02-22 |
JP7460633B2 true JP7460633B2 (ja) | 2024-04-02 |
Family
ID=71102913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021535943A Active JP7460633B2 (ja) | 2018-12-19 | 2019-12-19 | コンピュータビジョンを使用する複合視覚検査タスクの連携学習のためのシステムと方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11508050B2 (ja) |
EP (1) | EP3899784A4 (ja) |
JP (1) | JP7460633B2 (ja) |
CN (1) | CN113454638A (ja) |
WO (1) | WO2020132322A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10051344B2 (en) * | 2016-09-27 | 2018-08-14 | Clarifai, Inc. | Prediction model training via live stream concept association |
CN113454638A (zh) | 2018-12-19 | 2021-09-28 | 艾奎菲股份有限公司 | 用于使用计算机视觉进行复杂视觉检查任务的联合学习的系统和方法 |
WO2021033191A1 (en) * | 2019-08-20 | 2021-02-25 | Technology Innovation Momentum Fund (Israel) Limited Partnership | Method and apparatus for authentication of a three-dimensional object |
EP3886428A1 (en) * | 2020-03-24 | 2021-09-29 | Canon Kabushiki Kaisha | System and edge device |
CN111582152A (zh) * | 2020-05-07 | 2020-08-25 | 微特技术有限公司 | 一种识别图像中复杂事件的方法及系统 |
FR3113729B3 (fr) | 2020-09-02 | 2022-08-12 | Alysee Services | Unité de contrôle polyvalente et déplaçable |
CN112381898B (zh) * | 2020-12-07 | 2024-03-01 | 苏州律点信息科技有限公司 | 一种影像特征的提取方法、装置、存储介质及电子设备 |
US12131416B2 (en) * | 2020-12-23 | 2024-10-29 | Meta Platforms Technologies, Llc | Pixel-aligned volumetric avatars |
US12095975B2 (en) | 2020-12-23 | 2024-09-17 | Meta Platforms Technologies, Llc | Reverse pass-through glasses for augmented reality and virtual reality devices |
US20230159197A1 (en) * | 2021-01-11 | 2023-05-25 | Rehrig Pacific Company | Turntable system |
DE102021200568A1 (de) * | 2021-01-22 | 2022-07-28 | Robert Bosch Gesellschaft mit beschränkter Haftung | Computerimplementiertes verfahren zur analyse der relevanz visueller parameter zum trainieren eines computer-vision -modells |
TWI806004B (zh) * | 2021-02-09 | 2023-06-21 | 麗臺科技股份有限公司 | 自動化視覺檢測的ai流程管理系統及方法 |
US12118762B2 (en) * | 2021-03-30 | 2024-10-15 | Hcl Technologies Limited | Method and system for providing visual explanations for image analytics decisions |
KR102669483B1 (ko) * | 2021-04-28 | 2024-05-27 | 부산대학교 산학협력단 | 단안 이미지를 이용한 뎁스 맵 생성 장치 및 방법 |
CN113706621B (zh) * | 2021-10-29 | 2022-02-22 | 上海景吾智能科技有限公司 | 基于带标记图像的标志点定位及姿态获取方法和系统 |
CN115424207B (zh) * | 2022-09-05 | 2023-04-14 | 南京星云软件科技有限公司 | 自适应监控系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080247609A1 (en) | 2007-04-06 | 2008-10-09 | Rogerio Feris | Rule-based combination of a hierarchy of classifiers for occlusion detection |
JP2016530592A (ja) | 2013-06-07 | 2016-09-29 | ゼットティーイー コーポレイション | 視覚識別を実現する方法、装置及びシステム |
JP2016221264A (ja) | 2015-05-27 | 2016-12-28 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. | 知識ベース超音波画像強調 |
US20170323376A1 (en) | 2016-05-09 | 2017-11-09 | Grabango Co. | System and method for computer vision driven applications within an environment |
WO2018129201A1 (en) | 2017-01-04 | 2018-07-12 | Aquifi, Inc. | Systems and methods for shape-based object retrieval |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001519070A (ja) * | 1997-03-24 | 2001-10-16 | クイーンズ ユニバーシティー アット キングストン | 一致検出の方法、製品および装置 |
US7047169B2 (en) * | 2001-01-18 | 2006-05-16 | The Board Of Trustees Of The University Of Illinois | Method for optimizing a solution set |
JP3431075B2 (ja) * | 2001-08-27 | 2003-07-28 | 科学技術振興事業団 | 液晶ディスプレイパネルムラの分類処理方法、その装置及びプログラム |
US7499588B2 (en) * | 2004-05-20 | 2009-03-03 | Microsoft Corporation | Low resolution OCR for camera acquired documents |
US7570816B2 (en) * | 2005-03-31 | 2009-08-04 | Microsoft Corporation | Systems and methods for detecting text |
US7809192B2 (en) * | 2005-05-09 | 2010-10-05 | Like.Com | System and method for recognizing objects from images and identifying relevancy amongst images and information |
US7529403B2 (en) * | 2005-12-06 | 2009-05-05 | Mitsubishi Electric Research Laboratories, Inc. | Weighted ensemble boosting method for classifier combination and feature selection |
US7836000B2 (en) * | 2007-12-10 | 2010-11-16 | Yahoo! Inc. | System and method for training a multi-class support vector machine to select a common subset of features for classifying objects |
US8331666B2 (en) * | 2008-03-03 | 2012-12-11 | Csr Technology Inc. | Automatic red eye artifact reduction for images |
WO2010007590A2 (en) * | 2008-07-17 | 2010-01-21 | Amimon Ltd. | Methods circuits and systems for transmission and reconstruction of a video block |
EP2182451A1 (en) * | 2008-10-29 | 2010-05-05 | Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO | Electronic document classification apparatus |
JP5301310B2 (ja) * | 2009-02-17 | 2013-09-25 | 株式会社日立製作所 | 異常検知方法及び異常検知システム |
US8213700B2 (en) * | 2009-03-31 | 2012-07-03 | Icad, Inc. | Systems and methods for identifying suspicious anomalies using information from a plurality of images of an anatomical colon under study |
US8582871B2 (en) * | 2009-10-06 | 2013-11-12 | Wright State University | Methods and logic for autonomous generation of ensemble classifiers, and systems incorporating ensemble classifiers |
US9037523B2 (en) * | 2011-04-07 | 2015-05-19 | Honeywell International Inc. | Multiple two-state classifier output fusion system and method |
US9092692B2 (en) * | 2012-09-13 | 2015-07-28 | Los Alamos National Security, Llc | Object detection approach using generative sparse, hierarchical networks with top-down and lateral connections for combining texture/color detection and shape/contour detection |
US10101786B2 (en) * | 2014-12-22 | 2018-10-16 | Intel Corporation | Holistic global performance and power management |
CN104657748A (zh) * | 2015-02-06 | 2015-05-27 | 中国石油大学(华东) | 一种基于卷积神经网络的车型识别方法 |
US10193696B2 (en) * | 2015-06-02 | 2019-01-29 | ALTR Solutions, Inc. | Using a tree structure to segment and distribute records across one or more decentralized, acylic graphs of cryptographic hash pointers |
WO2017027709A1 (en) * | 2015-08-11 | 2017-02-16 | Cognoa, Inc. | Methods and apparatus to determine developmental progress with artificial intelligence and user input |
US10037456B2 (en) * | 2015-09-04 | 2018-07-31 | The Friedland Group, Inc. | Automated methods and systems for identifying and assigning attributes to human-face-containing subimages of input images |
US11263545B2 (en) * | 2016-06-30 | 2022-03-01 | Microsoft Technology Licensing, Llc | Control of cyber-physical systems under uncertainty |
CN109791554B (zh) * | 2016-08-12 | 2023-05-09 | 派克赛斯有限责任公司 | 用于自动地生成用于媒体文档的元数据的系统和方法 |
US10055882B2 (en) * | 2016-08-15 | 2018-08-21 | Aquifi, Inc. | System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function |
WO2018085797A1 (en) * | 2016-11-04 | 2018-05-11 | Aquifi, Inc. | System and method for portable active 3d scanning |
CN106650725B (zh) * | 2016-11-29 | 2020-06-26 | 华南理工大学 | 基于全卷积神经网络的候选文本框生成和文本检测方法 |
US10726244B2 (en) * | 2016-12-07 | 2020-07-28 | Samsung Electronics Co., Ltd. | Method and apparatus detecting a target |
US20180211373A1 (en) * | 2017-01-20 | 2018-07-26 | Aquifi, Inc. | Systems and methods for defect detection |
US10392689B2 (en) | 2017-02-23 | 2019-08-27 | Guardian Glass, LLC | Heat treatable coated article having zirconium nitride and ITO based IR reflecting layers |
US20180322623A1 (en) * | 2017-05-08 | 2018-11-08 | Aquifi, Inc. | Systems and methods for inspection and defect detection using 3-d scanning |
CN107392129A (zh) * | 2017-07-13 | 2017-11-24 | 浙江捷尚视觉科技股份有限公司 | 基于Softmax的人脸检索方法和系统 |
CN107704886A (zh) * | 2017-10-20 | 2018-02-16 | 北京工业大学 | 一种基于深度卷积神经网络的医疗图像分级系统和方法 |
WO2019151015A1 (ja) * | 2018-01-31 | 2019-08-08 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
US11176490B2 (en) * | 2018-03-09 | 2021-11-16 | Qualcomm Incorporated | Accumulate across stages in machine learning object detection |
WO2019183868A1 (en) * | 2018-03-29 | 2019-10-03 | Intel Corporation | Methods, systems, articles of manufacture and apparatus to improve resource utilization for binary tree structures |
US11373063B2 (en) * | 2018-12-10 | 2022-06-28 | International Business Machines Corporation | System and method for staged ensemble classification |
CN113454638A (zh) | 2018-12-19 | 2021-09-28 | 艾奎菲股份有限公司 | 用于使用计算机视觉进行复杂视觉检查任务的联合学习的系统和方法 |
-
2019
- 2019-12-19 CN CN201980092493.7A patent/CN113454638A/zh active Pending
- 2019-12-19 US US16/721,501 patent/US11508050B2/en active Active
- 2019-12-19 JP JP2021535943A patent/JP7460633B2/ja active Active
- 2019-12-19 WO PCT/US2019/067606 patent/WO2020132322A1/en unknown
- 2019-12-19 EP EP19898608.5A patent/EP3899784A4/en active Pending
-
2022
- 2022-10-13 US US17/965,428 patent/US11868863B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080247609A1 (en) | 2007-04-06 | 2008-10-09 | Rogerio Feris | Rule-based combination of a hierarchy of classifiers for occlusion detection |
JP2016530592A (ja) | 2013-06-07 | 2016-09-29 | ゼットティーイー コーポレイション | 視覚識別を実現する方法、装置及びシステム |
JP2016221264A (ja) | 2015-05-27 | 2016-12-28 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. | 知識ベース超音波画像強調 |
US20170323376A1 (en) | 2016-05-09 | 2017-11-09 | Grabango Co. | System and method for computer vision driven applications within an environment |
WO2018129201A1 (en) | 2017-01-04 | 2018-07-12 | Aquifi, Inc. | Systems and methods for shape-based object retrieval |
Non-Patent Citations (1)
Title |
---|
Rodrigo Santa Cruz, 外3名,"Neural Algebra of Classifiers",2018 IEEE Winter Conference on Applications of Computer Vision (WACV),IEEE,2018年03月12日 |
Also Published As
Publication number | Publication date |
---|---|
EP3899784A4 (en) | 2022-10-19 |
WO2020132322A1 (en) | 2020-06-25 |
US11868863B2 (en) | 2024-01-09 |
US20230177400A1 (en) | 2023-06-08 |
CN113454638A (zh) | 2021-09-28 |
JP2022515768A (ja) | 2022-02-22 |
EP3899784A1 (en) | 2021-10-27 |
US11508050B2 (en) | 2022-11-22 |
US20200372625A1 (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7460633B2 (ja) | コンピュータビジョンを使用する複合視覚検査タスクの連携学習のためのシステムと方法 | |
EP3566193B1 (en) | Systems and methods for shape-based object retrieval | |
JP7458405B2 (ja) | 部分的視覚情報に基づく対象物寸法付けのためのシステムと方法 | |
US20190096135A1 (en) | Systems and methods for visual inspection based on augmented reality | |
JP7329143B2 (ja) | 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法 | |
CA3115898C (en) | Systems and methods for object identification | |
US11720766B2 (en) | Systems and methods for text and barcode reading under perspective distortion | |
US20180211373A1 (en) | Systems and methods for defect detection | |
US20220410381A1 (en) | Systems and methods for picking objects using 3-d geometry and segmentation | |
US10558844B2 (en) | Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification | |
US12067746B2 (en) | Systems and methods for using computer vision to pick up small objects | |
Zeng et al. | Enabling efficient deep convolutional neural network-based sensor fusion for autonomous driving | |
Zhang et al. | Stud pose detection based on photometric stereo and lightweight YOLOv4 | |
US20220414928A1 (en) | Systems and methods for generating and using visual datasets for training computer vision models | |
CN116168387A (zh) | 用于物体检测的系统和方法 | |
Yimyam et al. | 3D reconstruction and feature extraction for agricultural produce grading | |
Gheta et al. | Fusion of combined stereo and spectral series for obtaining 3D information | |
Belhaoua et al. | Illumination control in view of dynamic (re) planning of 3D reconstruction tasks | |
Grundmann | Scene analysis for service robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20220826 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220826 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240321 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7460633 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |