JP2020516897A - 検査方法及び検査設備 - Google Patents
検査方法及び検査設備 Download PDFInfo
- Publication number
- JP2020516897A JP2020516897A JP2019555877A JP2019555877A JP2020516897A JP 2020516897 A JP2020516897 A JP 2020516897A JP 2019555877 A JP2019555877 A JP 2019555877A JP 2019555877 A JP2019555877 A JP 2019555877A JP 2020516897 A JP2020516897 A JP 2020516897A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- category
- transparent image
- container
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000007689 inspection Methods 0.000 title claims abstract description 41
- 239000013598 vector Substances 0.000 claims abstract description 117
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 230000005540 biological transmission Effects 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 15
- 230000005577 local transmission Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 9
- 238000011176 pooling Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000013480 data collection Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010017 direct printing Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N23/00—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
- G01N23/02—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
- G01N23/04—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/05—Recognition of patterns representing particular kinds of hidden objects, e.g. weapons, explosives, drugs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Image Analysis (AREA)
Abstract
検査設備及び検査方法を提供する。被検査コンテナーに対してX線走査を行って透過画像を得た後、畳み込みニューラルネットワークを利用して透過画像から局所的な透過画像を表現する第1のベクトルを生成するとともに、循環ニューラルネットワークを利用してコンテナーにおける荷物の文字的な記述から単語ベクトルを生成して第2のベクトルとする。第1のベクトルと第2のベクトルとを統合して、透過画像及び文字的な記述を表現する第3のベクトルを得る。第3のベクトルに基づいて、コンテナーにおける荷物が属するカテゴリを判別する。本発明の実施例によれば、目標荷物の大体のカテゴリを初歩的に判断でき、画像検査者のさらなる判断を容易にすることができる。
Description
本発明の実施例は保安検査に関し、具体的には、画像情報及びテキスト情報によりコンテナーのような荷物を検査する方法及び設備に関する。
現在、放射保安検査システムは、主に荷物のX線画像に対する分析に集中している。例えば、イメージ理解に関する知識を活用して荷物の分類や認識を行う。しかし、現在、区別の難しい荷物に対しては、やはり主に人為的な認識により区別や判断を行っており、「人機協力」は、未だに実際の「協力」の程度には達していない。
本発明は、従来技術の上記の問題点に鑑みて提案されたものであり、その目的は、例えばコンテナーのような荷物を検査する方法及び設備を提供することにある。
本発明のある局面においては、被検査コンテナーに対してX線走査を行って透過画像を得るステップと、畳み込みニューラルネットワークを利用して透過画像から局所的な透過画像を表現する第1のベクトルを生成するステップと、循環ニューラルネットワークを利用してコンテナーにおける荷物の文字的な記述から単語ベクトルを生成して第2のベクトルとするステップと、前記第1のベクトルと前記第2のベクトルとを統合して、前記透過画像と前記文字的な記述とを表現する第3のベクトルを得るステップと、前記第3のベクトルに基づいて、前記コンテナーにおける荷物が属するカテゴリを判別するステップと、を含む、コンテナーを検査する方法を提供する。
本発明の実施例によれば、前記第3のベクトルに基づいて、前記コンテナーにおける荷物が属するカテゴリを判別するステップは、確率関数に基づいて、前記第3のベクトルからコンテナーにおける荷物があるカテゴリに属することを表す確率値を生成することと、最大確率値を持つカテゴリを前記荷物が属するカテゴリとすることと、をさらに含む。
本発明の実施例によれば、前記の方法は、判別されたカテゴリに応じて、ユーザーに前記カテゴリに関連する典型的な透過画像を表示することをさらに含む。
本発明の実施例によれば、前記の方法は、判別されたカテゴリに応じて、ユーザーに前記カテゴリに関連する典型的な透過画像を表示することをさらに含む。
本発明の実施例によれば、単語ベクトルを生成するステップは、前記コンテナーにおける荷物の文字的な記述に対して単語分類操作を行うことと、単語分類操作を行った後の文字的な記述をベクトル化して、単語ベクトルを得ることと、を含む。
本発明の実施例によれば、前記の方法は、前記単語ベクトルに基づいて、典型的な透過画像データーベースから対応する典型的な透過画像を検索するステップと、ユーザーに検索された典型的な透過画像を表示するステップと、をさらに含む。
本発明の実施例によれば、前記の方法は、前記第1のベクトルに基づいて、典型的な透過画像データーベースから対応する典型的な透過画像を検索するステップと、ユーザーに検索された典型的な透過画像を表示するステップと、をさらに含む。
本発明の他の局面においては、被検査コンテナーに対してX線走査を行って透過画像を得るX線検査システムと、前記透過画像を記憶するメモリと、畳み込みニューラルネットワークを利用して透過画像から局所的な透過画像を表現する第1のベクトルを生成し、循環ニューラルネットワークを利用してコンテナーにおける荷物の文字的な記述から単語ベクトルを生成して第2のベクトルとし、前記第1のベクトルと前記第2のベクトルとを統合して、前記透過画像と前記文字的な記述とを表現する第3のベクトルを得て、前記第3のベクトルに基づいて、前記コンテナーにおける荷物が属するカテゴリを判別する、ように配置されたプロセッサーと、を含む検査設備を提供する。
本発明の実施例によれば、前記プロセッサーは、確率関数に基づいて、前記第3のベクトルからコンテナーにおける荷物があるカテゴリに属することを表す確率値を生成し、最大確率値を持つカテゴリを前記荷物が属するカテゴリとする、ように配置される。
本発明の実施例によれば、前記プロセッサーは、さらに、判別されたカテゴリに応じて、ユーザーに前記カテゴリに関連する典型的な透過画像を表示する、ように配置される。
本発明の実施例によれば、前記プロセッサーは、前記コンテナーにおける荷物の文字的な記述に対して単語分類操作を行い、単語分類操作を行った後の文字的な記述をベクトル化して、単語ベクトルを得る、ように配置される。
本発明の実施例によれば、前記プロセッサーは、前記コンテナーにおける荷物の文字的な記述に対して単語分類操作を行い、単語分類操作を行った後の文字的な記述をベクトル化して、単語ベクトルを得る、ように配置される。
本発明の実施例によれば、前記プロセッサーは、さらに、前記単語ベクトルに基づいて、典型的な透過画像データーベースから対応する典型的な透過画像を検索し、ユーザーに検索された典型的な透過画像を表示する、ように配置される。
上記の実施例の技術案によると、目標荷物の大体のカテゴリを初歩的に判断でき、画像検査者のさらなる判断を容易にすることができる。
上記の実施例の技術案によると、目標荷物の大体のカテゴリを初歩的に判断でき、画像検査者のさらなる判断を容易にすることができる。
本発明を分かりやすくするために、以下の図面に基づいて本発明を詳細に記述する。
図1は、本発明の実施例による検査設備の構成模式図である。
図2は、図1に示すような検査設備に含まれる計算手段の構成を示す模式図である。
図3は、本発明の実施例による検査設備の模式的なブロック構成図である。
図4は、本発明の実施例による検査方法の模式的なフローチャートである。
図5は、本発明の実施例による荷物画像とカテゴリ情報とをマッチングさせる模式図である。
図6は、本発明の実施例において、畳み込みニューラルネットワークを利用して荷物のカテゴリを判断する模式図である。
図7は、本発明の他の実施例において、カテゴリ情報により典型的な透視画像を検索する模式図である。
図8は、本発明の実施例による方法において用いられる単語ベクトル空間関係図である。
図9は、本発明の実施例による方法において用いられる循環ニューラルネットワークの単位構成図である。
図10は、本発明の実施例において画像ベクトルと単語ベクトルとによりカテゴリ情報を生成する模式図である。
以下、本発明の具体的な実施例について詳細に説明する。なお、ここで説明する実施例は、例示的なものであり、本発明を限定するものではないことを指摘しておく。以下の説明において、本発明を分かりやすくするために、多数の特定の詳細について記述している。しかしながら、当業者にとって、必ずしもこれらの特定の詳細な構成を採用して本発明を実現しなくてもよいことは、言うまでもない。他の実施例においては、本発明を不要に不明瞭にしないように、周知の構成、材料又は方法に対する具体的な説明を省略する。
本明細書において、「一実施例」、「実施例」、「一例示」又は「例示」と記載される場合、当該実施例又は例示を用いて説明した特定の特徴、構造又は特性が、本発明の少なくとも一つの実施例に含まれることを意味する。したがって、本明細書全般にかけて記載されている「一実施例において」、「実施例において」、「一例示」又は「例示」とは、必ずしも同一の実施例又は例示を指すことではない。また、いずれの適宜な組み合わせ及び/又はサブ組み合わせによって、特定の特徴、構成又は特性を一つ又は複数の実施例又は例示に組み合わせることができる。また、当業者なら、ここで用いられる「及び/又は」という用語は、挙げられた一つ又は複数の関連するアイテムの任意の組み合わせ及び全ての組み合わせを含むことを理解できるはずである。
従来技術の問題点に鑑みて、本発明の実施例は、X線画像とテキストの記述に基づく「人機協力」検査技術を提案して、特定の領域(注目領域)の荷物に対する分類及び検査を行う知能的な分析ツールを完成する。実際の荷物検査過程において、より多くの場合、検査者は、画像の局所的な領域に対して判断を行っており、これは、「人機協力」にとって最も緊密で必要な部分でもある。この技術では、コンピューターのデーター分析と画像理解能力を利用して、目標荷物の大体のカテゴリを初歩的に判断する。また、人類検知情報、特に、局所的な突出領域の総合認知を導入して、より正確な分類結果を提供することで、検査アドバイスの有効性を向上させる。
図1は、本発明の実施例による検査設備の構成模式図である。図1に示されるように、本発明の実施例による検査設備100は、X線ソース110、検出器130、データー採集装置150、コントローラー140、及び計算手段160を含み、コンテナー付きトラックのような被検査物120に対して保安検査を行い、例えば、中に銃/麻薬のような危険品及び/又は怪しいものが含まれていないのかを判断する。この実施例においては、検出器130とデーター採集装置150とを分けて説明しているが、当業者なら、これらを集積してX線検出・データー採集手段にしてもよいことを理解できるはずである。
一部の実施例によると、上記のX線ソース110は同位体であってもよく、X線機又は加速器等であってもよい。X線ソース110は、シングルエネルギー型であってもよく、ダブルエネルギー型であってもよい。こうして、X線ソース110と検出器150及びコントローラー140と計算手段160により被検査物120に対して透過走査を行い、検出データーを得る。例えば、被検査物120の行進中に、操作者は、計算手段160のHMI(Human−Machine Interaction)インターフェースを利用して、コントローラー140から指令を出し、X線ソース110にX線を発するように命令し、被検査物120を透過したX線は検出器130及びデーター採集設備150により受けられるとともに、計算手段160によりデーターを処理して、透過画像を取得することができ、且つ、さらにトレーニングされた畳み込みニューラルネットワークを利用して、透過画像から局所的な透過画像を表現する画像ベクトル(第1のベクトル)を生成し、トレーニングされた循環ニューラルネットワークを利用してコンテナーにおける荷物の文字的な記述から単語ベクトル(第2のベクトル)を生成する。しかる後、計算手段160は、画像ベクトル及び単語ベクトルに基づいて、コンテナーにおける荷物が属するカテゴリを判断する。例えば、計算手段160は、第1のベクトルと第2のベクトルとを統合して、透過画像と文字的な記述とを表現する第3のベクトルを得て、第3のベクトルに基づいて前記コンテナーにおける荷物が属するカテゴリを判別する。
図2は、図1に示すような計算手段の構成模式図を示している。図2に示されるように、検出器130が検出した信号は、データー採集器により採集され、データーはインターフェースユニット167とバス163を通じてメモリ161に記憶される。ROM(Read Only Memory)162には、コンピューターデータープロセッサーの配置情報及びプログラムが記憶されている。RAM(Random Access Memory)163は、プロセッサー165の動作中において一時的に各種のデーターを記憶するためのものである。なお、メモリ161には、例えば、データー処理のための物質識別プログラムや画像処理プログラム等のようなコンピュータープログラムがさらに記憶されている。内部バス163は上記のメモリ161、ROM162、RAM163、入力装置164、プロセッサー165、表示装置166及びインターフェースユニット167を接続する。
ユーザーがキーボードやマウス等のような入力装置164により操作命令を入力した後、コンピュータープログラムの指令コードは、プロセッサー165に予定されたデーター処理アルゴリズムを実行するように命令し、データー処理結果を取得した後、それをLCD(Liquid Crystal Display)ディスプレイのような表示装置167に表示したり、又は、直接プリントのようなハードコピーの方式で処理結果を出力したりする。
図3は、本発明の実施例による検査設備の模式的なブロック構成図である。図3に示されるように、本発明の実施例によれば、検査設備の計算手段160には、ソフトウェアプログラムがインストールされており、コンテナーにおける荷物の透過画像及び当該荷物を説明する文字的な情報に基づいて、荷物のカテゴリ、例えば、HSCODEを特定する。例えば、畳み込みニューラルネットワークに基づく画像理解モジュール310は入力された透過画像を処理して、画像ベクトルを得る。循環ニューラルネットワークに基づくテキスト理解モジュール320は入力されたテキスト情報を処理して、単語ベクトルを得る。分析・ラーニングモジュール330は、画像ベクトル及び単語ベクトルに基づいて荷物が属するカテゴリを特定する。
図4は、本発明の実施例による検査方法の模式的なフローチャートである。図4に示されるように、ステップS410において、例えば図1に示すような検査設備により被検査コンテナーに対してX線走査を行って、透過画像を得る。
ステップS420において、畳み込みニューラルネットワークを利用して透過画像から局所的な透過画像を表現する第1のベクトルを生成する。例えば、コンテナー透過画像の局所的な領域を入力として畳み込みカーネルプーリング(Pooling)操作を行った後、フル畳み込み操作を行い、当該透過画像のベクトル的表現を出力して、第1のベクトルとする。より具体的には、コンテナー透過画像の局所的な領域を入力として、5段の畳み込み、プーリング操作(各段のそれぞれは、一組の畳み込みカーネル及び一つのプーリングレイヤー(Pooling Layer)に対応しており、畳み込みカーネルの数とサイズはそれぞれ独立なものである)を行った後、さらに3レイヤーのフル畳み込み操作を行うと、ネットワークは一つの当該透過画像のベクトル的表現を出力することができる。上記の実施例においては、5段の畳み込みと3レイヤーのフル畳み込み操作を挙げて説明したが、当業者なら、他の畳み込みニューラルネットワークを用いることを想到できるはずである。
本発明の実施例によれば、畳み込みニューラルネットワークに基づく画像理解モジュール310はX線画像の荷物判別及び分析を担当する。実際の応用においては、当該モジュール310は、主に畳み込みネットワークを利用する荷物カテゴリ判断と典型的なテンプレートマッチングの2つの部分を含む。
X線荷物検査の目的に合わせて、局所的な敏感な領域の画像は、当該カテゴリの荷物の豊富なテクスチャー情報を含めている。主にテクスチャー分析に依頼するカテゴリ識別においては、当該領域の理解に注目するとよい。畳み込みニューラルネットワークの荷物カテゴリ判断においては、特定の局所的な領域画像を入力として、多段のマトリックス操作を行うことで、局所的な領域画像のベクトル的表現を生成することができ、また、このベクトルを利用して属するカテゴリの情報を推定することができる。図5に示されるように、当該情報は荷物種類のHSCODEと、それに対応する信頼確率との形で表現される。
図6は、本発明の実施例において、畳み込みニューラルネットワークを用いて荷物のカテゴリを判断する模式図である。本発明の実施例によれば、畳み込みニューラルネットワークが採用するネットワーク構成は、VGG(VisualGeometryGroup)−Netであることが好ましいが、当業者なら、異なる実施例において、この構成に限られないことを理解できるはずである。畳み込みニューラルネットワークの入力は荷物のX線画像の局所的な領域であり、多段畳み込み、プーリング、フルコネクション(Full Connection)等の操作を行うことで、最終的に当該画像の情報を表すための一つのベクトルを得ることができる。
図6は、本発明の実施例において、畳み込みニューラルネットワークを用いて荷物のカテゴリを判断する模式図である。本発明の実施例によれば、畳み込みニューラルネットワークが採用するネットワーク構成は、VGG(VisualGeometryGroup)−Netであることが好ましいが、当業者なら、異なる実施例において、この構成に限られないことを理解できるはずである。畳み込みニューラルネットワークの入力は荷物のX線画像の局所的な領域であり、多段畳み込み、プーリング、フルコネクション(Full Connection)等の操作を行うことで、最終的に当該画像の情報を表すための一つのベクトルを得ることができる。
畳み込み操作は、アナログフィルターが画像の情報を十分に抽出するために画像の特徴をラーニングする過程である。画像の畳み込み操作を行う際には、複数の互いに独立で異なる畳み込みカーネルを利用し、各畳み込みカーネルはそれぞれ入力に対して畳み込み操作を行い、全ての畳み込み結果を次の操作に伝送する。
プーリング操作は、マルチスケール問題に対するアルゴリズムの適応能力を効率的に向上させることができる。ここでは、最大プールサンプリング方法を採用することが望ましい。具体的には、畳み込みを行った後の出力マトリックスのそれぞれをn*m個のグリッドに区分してから、各グリッドについて、そのうちの最大値を当該グリッドの出力値とすることで、最終的には一つのサイズn*mのマトリックスを得ることができる。このマトリックスは、プーリング操作の出力である。ここで、n及びmは、それぞれグリッドの行及び列の数を意味する。
フルコネクション過程は、マルチレイヤー畳み込み、プーリング操作を行った後の出力マトリックスに対してベクトル化を行うとともに、フルコネクションマトリックスを利用してデーターに対して一つのマッピング操作を追加する。これは、ラーニング性を向上させるとともに、出力マトリックスを一つのカテゴリ数に等しい長さを持つベクトルに変化して表現することができ、後の分類操作を便利にする。最後に、このベクトルに対して確率化処理を行うが、ここでは、Softmax関数を用いる。つまり、ベクトルの要素のそれぞれが一つの確率値を表すようにして、被測定目標があるカテゴリに属する確率の大きさにそれぞれ対応するようにする。Softmax関数の確率化公式は、以下のように表される。
ただし、vはフルコネクションを行った後の出力ベクトルを意味し、viはvのi番目の要素を意味し、kは当該ベクトルの長さを意味し、ciはi番目のカテゴリを意味し、p(ci|v)は入力からi番目のカテゴリに属すると予測される確率値である。対応的に、最大の確率値を持つカテゴリを第1の段階の予測結果とすることができる。
なお、検査者の経験の違いにより、あるカテゴリの荷物画像を覚える程度にも違いがあり得る。この場合、図7に示されるように、典型的なテンプレートマッチング機能は、畳み込みニューラルネットワークにより提供されたHSCODEを利用して、視認できる当該カテゴリの荷物の典型的なテクスチャー画像ブロックデーターを提供することで、上記の推定情報を信頼できるかについてさらに確認することができる。
本発明の他の実施例によると、畳み込みニューラルネットワークにより提供された予測結果に応じて、対応するHSCODEを持つ典型的な荷物画像を読み出して、碁盤の形で表示することができる。対応的に、検査者は被検査荷物の画像と典型的なデーターを比較することで、より正確に判断することができる。
ステップS430においては、循環ニューラルネットワークを利用してコンテナーにおける荷物の文字的な記述から単語ベクトルを生成して、第2のベクトルとする。例えば、コンテナーにおける荷物の文字的な記述をネットワークの入力として、単語分類操作を行って文字的な記述をリストに変換する。しかる後、辞書を調べることで、リストにおける各単語のベクトル的表現を得て、第2のベクトルとする。より具体的には、検査者の文字的な記述をネットワークの入力とする。基本的な単語分類操作を行って、一つのセンテンスの文字的な記述語句を対応する単語により構成されたリスト(ある実例においては、重複する単語を除去したり、又は単語に重みつけをしたりすることができる)に変換する。その後、予め用意した辞書を調べて、それを単語符号に変換し、リストにおける各単語のベクトル的表現を抽出する。そして、単語リストにおける単語を前後順序に応じて一つずつLSTM(Long−Short Term Memory)ネットワークに入力して予測を行う。リストにおける全ての単語について循環ニューラルネットワーク処理を実行した後、テキスト理解の最終ベクトル表現を生成できる。
本発明の実施例によれば、循環ニューラルネットワークに基づくテキスト理解モジュール320は、文字的な記述を入力として、システム処理を行い、最後に文字的な記述に一致する典型的な画像を出力して、検査者のためにより人中心的な形で有効な情報を提供して、判断するようにする。当該モジュールは、単語分類操作部分、単語ベクトル生成部分、典型的な画像表示部分等を含む。
図8は、本発明の実施例による方法において用いられる単語ベクトル空間関係図である。文字理解モジュールの典型的な画像表示部分は、主に、従来の検査システムが基本的に画像を入力として、画像に対するコンピューターの理解能力のみに頼ることしかできなく、人類検知機能が十分に利用されていない事情に鑑みて導入されたものである。ある特定の条件において、検査者は、画像がどのカテゴリに属するか判断し難い場合があり、関連するテクスチャー、形状などの説明により荷物の特徴を表現することで、典型的な歴史画像を読み出して比較することしかできない。従来の検査システムを使用すると、キーワード情報を提供する必要があり、これは、間接的に検査者の負担となる。循環ニューラルネットワークにより記述に対応する単語ベクトルを生成すると、自然的に似ている単語に対してディスタンスラーニング(図8参照)を行う能力を持つことになり、その結果、実際の操作の際に、完全に正確な荷物の固定キーワードを入力しなくても、便利に、且つ正確に所望の画像を検索できる。
単語分類操作は、センテンス(中国語の場合、特に顕著になる)をデーターとして入力するシステムの前処理操作である。従来の属性又はキーワードを入力としてテンプレートデーター検索を行うことと違って、当該モジュールを利用することで、ユーザーは、センテンス全体の形でもっと柔軟に、且つ、もっと完全に所望の情報を入力することが可能になるが、センテンスを基本的な情報単位とする動作方式は複雑で効率が低いため、センテンスを適切に単位単語に分解する必要がある。単語分類操作は、言葉に対する人間の理解方式を模擬して、辞書に基づいて、センテンスを単語(語彙又はフレーズ)を要素とするアレイ(又はベクトル)に分解して表現し、コンピューターが理解し易くようにする。
テキスト理解は、自然言語処理の分野に属しており、単語分類技術はテキスト発掘の基礎である。特に、中国語の入力については、言語構造の特殊性により、中国語の表現においては、センテンス、段落等に対する明らかな標識のみがあり、個別の単語に対する明らかな標識は少ないため、文字的な記述に対する明らかな区分がテキスト理解の前提条件となる。ここでは、統計及びマシンラーニングに基づく方式で単語分類操作を行うことが好ましい。実際の応用の際には、従来の知識に基づいて一つの辞書を構築し、単語分類を行う時にも、先にあるルールに応じて文字列のマッチングを行い、意味の不明瞭な単語や辞書に収録されていない単語についてはCRF(conditionalrandomfields)の方式で行う。具体的には、センテンスについて、単語位置(単語のヘット、ミドル、エンド及びサブワード)によりコメントを付けた後、CRFにより単語分類操作を行うとともに、辞書に収録されていない新規な単語を追加して、後のマッチングを便利にする。
単語ベクトルは、言語的な表現をコンピューターが理解及び操作しやすい特徴に変換する過程であり、この過程は全的に循環ニューラルネットワークにより実現される。循環ニューラルネットワークは、先天的に序列化された関連データーに対する処理及び分析能力を持っており、長い段落の情報を幾つかのコア要素にまとめることができ、互いに別に関連のない単語を人間が理解易い完全な情報に広がることができる。このシステムにおいて、単語分類を行った後のデーターはベクトルの形でネットワークの入力とされ、最後の単語の処理を完了するまで、毎回一つの単語について分析及びラーニングを行うことで、単語ベクトルと呼ばれる一つのベクトル的表現を生成することができる。このベクトルはセンテンス全体の情報を含んでおり、このベクトルを利用することで、それのニュアンスに合う典型的な画像を検索することができ、又は、後のカテゴリ判定を行うことができる。
単語ベクトルは、単語分類操作を行った文字的な記述をベクトル化する過程である。ここでは、LSTM(Long−ShortTermMemory)循環ニューラルネットワークにより行うことが好ましい。具体的な動作としては、まず、文字的な記述における各単語を一つのベクトルに変換し、このとき、one−hotを利用してコーディングしてもよく、又は、行の数が辞書の単語の数であり、列の数が指定された大きさであるマッピングマトリックスを利用して変換してもよいが、ここでは、後者を利用するほうが好ましい。
単語ベクトルは、単語分類操作を行った文字的な記述をベクトル化する過程である。ここでは、LSTM(Long−ShortTermMemory)循環ニューラルネットワークにより行うことが好ましい。具体的な動作としては、まず、文字的な記述における各単語を一つのベクトルに変換し、このとき、one−hotを利用してコーディングしてもよく、又は、行の数が辞書の単語の数であり、列の数が指定された大きさであるマッピングマトリックスを利用して変換してもよいが、ここでは、後者を利用するほうが好ましい。
図9は、本発明の実施例による方法において用いられる循環ニューラルネットワークの単位構成図である。全ての単語をベクトル化した後、これらを文字的な記述の前後順序に従って逆順操作を行い、その後、順序に毎回一つの単語の初期ベクトルを選び、順にLSTMのネットワークユニットに入力する。LSTMユニットの計算過程は、以下のように表される。
ただし、xtはt番目の単語の初期ベクトルを意味し、ht−1は前回のLSTMユニットの出力であり、Wは重みマトリックスであって、前のサンプルにより予めトレーニングされたパラメーターマトリックスであり、it、ct、ft及びotはt番目の単語のネットワーク中間状態であり、mt−1は前の単語の中間状態の転送値であり、sigmoid()及びtanh()は活性化関数であり、mtはt番目の単語の状態転送値であり、htは前のt個の単語から生成した単語ベクトルであり、入力された文字的な記述が合計k個の単語を含むと仮定すると、k回のLSTMユニットの処理を行って、最終的には、当該説明情報を含む一つの最終単語ベクトルhkを生成することになる。
文字的な記述の典型的な画像表示部分は、従来システムにおいて画像理解を検査システムが結果を与えることと、類似する表示を行うこととの唯一の標準とすることを変更して、文字を利用して検査者の検知を具現化する。まず、典型的な画像テンプレートデーターに対して人為的にコメントを付けて情報を表現し、その後、BOW(Bag of Words)方法を利用してコメント付きの情報を分類することで、各カテゴリの画像の一つのBOW特徴を得ることができる。使用する際には、検査者により入力された文字的な記述をベクトル化して表現した後、このベクトルと典型的な画像のBOW特徴との関連性計算を行う。そして、関連性の一番高い3つのBOW特徴に対応するカテゴリを選び、当該カテゴリにおける典型的な画像を抽出して視認可能に表示する。
ステップS440においては、第1のベクトルと第2のベクトルとを統合して、透過画像及び文字的な記述を表現する第3のベクトルを得る。ステップS450においては、第3のベクトルに基づいて、コンテナーにおける荷物が属するカテゴリを判別する。例えば、確率関数(例えば、Softmax関数)に基づいて第3のベクトルからコンテナーにおける荷物があるカテゴリに属することを表す確率値を生成し、最大の確率値を持つカテゴリを荷物が属するカテゴリとする。
図10は、本発明の実施例において画像ベクトルと単語ベクトルとによりカテゴリ情報を生成する模式図である。図10に示されるように、分析・トレーニングモジュール330は、コンピューターの画像理解能力と人類検知能力とを組み合わせることにより、より正確に検査任務を完成する新規な手段である。畳み込みニューラルネットワークに基づく画像理解モジュール及び畳み込みニューラルネットワークに基づく文字理解モジュールは、個別に画像又は文字的な記述に対する分析を行って、対応する結果を与えることができ、総合分析・トレーニングモジュールは、両者の能力を組み合わせて、画像理解部分の画像ベクトルと文字理解部分の単語ベクトルを合併し、さらに、共同分析の過程を経ることで、互いにラーニングする過程を完成でき、出力はより正確な予測結果となる。
本発明の実施例によれば、畳み込みニューラルネットワークに基づく画像理解モジュール及び循環畳み込みネットワークに基づく文字理解モジュールは、ここまで、やはり個別に画像及び文字的な記述に対して荷物検査の機能を果たしているが、このシステムの総合分析・トレーニングモジュールは両者を効果的に組み合わせて、検査者を補助してより効率的に検査の目的を達成する。
例えば、画像理解のための畳み込みネットワーク及び文字理解のための循環ネットワークに対して個別にトレーニングをして、それらの損失をそれぞれ計算することで、2つのネットワークの初期のラーニングを行うことができ、その後は、畳み込みネットワークの画像で表現されるベクトルと循環ネットワークが出力した単語ベクトルを統合し、さらに、一つの投影マッピングを行った後、同様に、Softmax関数を利用して2つのネットワークを組み合わせて得られる予測カテゴリを得る。こうすると、2種類の情報を効果的に組み合わせることができ、且つ、トレーニング段階において、2つのネットワークは共同トレーニングの過程を経ることになるため、フィードバックして調整を行う際に、いずれのネットワークの調整にも他方のネットワークの干渉及び調整が存在することになり、システム全体のラーニング性を向上させる。
より具体的には、画像理解向きの畳み込みニューラルネットワークは、コンテナー透過画像の局所的な領域をVGGネットワークの入力として、5段の畳み込み、プーリング操作(各段のそれぞれは、一組の畳み込みカーネル及び一つのプーリングレイヤー(Pooling Layer)に対応しており、畳み込みカーネルの数とサイズはそれぞれ独立なものである)を行った後、さらに3レイヤーフル畳み込み操作を行い、最後の畳み込みレイヤーの出力は、当該透過画像のベクトル的表現Iになる。テキスト理解向きの循環ニューラルネットワークは、検査者の文字的な記述をネットワークの入力として、基本的な単語分類操作を行って一つのセンテンスの文字的な記述語句を対応する単語により構成されたリスト(ここでは、重複する単語を除去したり、又は単語に重みつけをしたりすることができる)に変換し、その後、予め用意した辞書を調べる操作により、それを単語符号に変換し、リストにおける各単語のベクトル的表現を抽出した後、単語リストにおける単語を前後順序に応じて一つずつLSTMネットワークに入力し、リストにおける全ての単語について循環ニューラルネットワーク処理を実行した後、一つの最終的なテキスト理解のベクトル的表現Tを生成できる。続いて、画像のベクトル的表現Iとテキストのベクトル的表現Tとを一つのベクトルに合成し、さらに、2レイヤーフル畳み込みネットワークにより、Softmaxレイヤーを利用してカテゴリ予測を行い、こうすると、画像とテキスト情報を組み合わせたコンテナーにおける荷物のカテゴリ予測提示機能を実現できる。ネットワークトレーニング・ラーニング過程は、SGD(Stochastic Gradient Descent)、BGD(Stochastic Gradient Descent)等の方法を採用してラーニングネットワークのパラメーターを最適化することができる。ネットワーク構造全体は、それぞれ(画像、テキスト)の処理ネットワークを含み、2種類の情報を組み合わせた共同ラーニング過程も有し、各ネットワークの調整の際には、ある程度で他方のネットワークの干渉と調整を受けることになり、これはこのシステムの情報利用及びラーニング性を向上させる。
上記の実施例によると、コンピューターのデーター分析能力及び画像理解能力を利用して、目標荷物の大体のカテゴリを初歩的に判断する。また、人類検知情報、特に、局所的な突出領域の総合認知を導入して、より正確な分類結果を提供することで、検査アドバイスの有効性を向上させる。
以上の詳細な説明においては、模式図、フローチャット及び/又は例示によって、検査設備及び方法に係る多数の実施例を説明した。このような模式図、フローチャット及び/又は例示が、一つ又は複数の機能及び/又は操作を含む場合に、当業者なら、このような模式図、フローチャット又は例示における各機能及び/又は操作が、色々な構成、ハードウェア、ソフトウェア、ファームウェア又はこれらの実質的な任意の組み合わせによって、個別に及び/又は共同で実現可能であることを理解できるはずである。一実施例において、本発明の実施例に記載された主題の幾つかの部分は、ASIC(ApplicationSpecificIntegratedCircuit)、FPGA(Field−ProgrammableGateArray)、DSP(DigitalSignalProcessing)、又はその他の集積フォーマットで実現できる。しかしながら、当業者なら、ここで開示された実施例の一部の局面が、全体的に又は部分的に集積回路で等価的に実現されてもよいことを理解できるはずである。例えば、一つ又は複数のコンピューターで実行される一つ又は複数のコンピュータープログラム(例えば、一つ又は複数のコンピューターシステムで実行される一つ又は複数のプログラム)として実現されてもよく、一つ又は複数のプロセッサで実行される一つ又は複数のプログラム(例えば、一つ又は複数のマイクロプロセッサで実行される一つ又は複数のプログラム)として実現されてもよく、ファームウェアとして実現されてもよく、又は、実質的に上記形態の任意の組み合わせとして実現されてもよい。また、当業者は、本開示を元に、回路の設計及び/又はソフトウェア及び/又はファームウェアコードを書き込む能力を持つことになる。また、当業者は、本開示に記載されたメカニズムが、複数の形のプログラム製品として配布されてもよく、且つ、配布を実行する信号担体媒体の具体的な類型によらず、本開示の例示的な実施例は依然として適用可能であることを理解できるはずである。信号担体媒体の例示としては、例えば、FD(FloppyDisk)、HDD、CD(CompactDisc)、DVD(DigitalVersatileDisc)、デジタルテープ、コンピューターメモリ等のような記録可能な記録媒体と、デジタル及び/又はアナログ通信媒体(例えば、ファイバーケーブル、ウェーブガイド、有線通信リンク、無線通信リンク等)のような搬送媒体とが含まれるが、これらに限定されない。
以上、本発明の幾つかの典型的な実施例を参照して本発明を説明したが、使用された用語は、説明および例示のためのものであり、本発明を限定するものではないことと理解すべきである。また、本発明は、発明の精神及び主旨を逸脱しない範囲で、いろんな形態で具体的に実施できるので、上記した実施例は、前述の詳細に限らず、特許請求の範囲により限定された精神及び範囲において広く解釈すべきである。特許請求の範囲又は均等の範囲内での全ての変更や改進は、特許請求の範囲に含まれる。
Claims (11)
- 被検査コンテナーに対してX線走査を行って透過画像を得るステップと、
畳み込みニューラルネットワークを利用して透過画像から局所的な透過画像を表現する第1のベクトルを生成するステップと、
循環ニューラルネットワークを利用してコンテナーにおける荷物の文字的な記述から単語ベクトルを生成して第2のベクトルとするステップと、
前記第1のベクトルと前記第2のベクトルとを統合して、前記透過画像と前記文字的な記述とを表現する第3のベクトルを得るステップと、
前記第3のベクトルに基づいて、前記コンテナーにおける荷物が属するカテゴリを判別するステップと、
を含む、コンテナーを検査する方法。 - 前記第3のベクトルに基づいて、前記コンテナーにおける荷物が属するカテゴリを判別するステップは、
確率関数に基づいて、前記第3のベクトルからコンテナーにおける荷物があるカテゴリに属することを表す確率値を生成することと、
最大確率値を持つカテゴリを前記荷物が属するカテゴリとすることと、
をさらに含む、請求項1に記載の方法。 - 判別されたカテゴリに応じて、ユーザーに前記カテゴリに関連する典型的な透過画像を表示すること、
をさらに含む、請求項2に記載の方法。 - 単語ベクトルを生成するステップは、
前記コンテナーにおける荷物の文字的な記述に対して単語分類操作を行うことと、
単語分類操作を行った後の文字的な記述をベクトル化して、前記単語ベクトルを得ることと、
を含む、請求項1に記載の方法。 - 前記単語ベクトルに基づいて、典型的な透過画像データーベースから対応する典型的な透過画像を検索するステップと、
ユーザーに検索された典型的な透過画像を表示するステップと、
をさらに含む、請求項4に記載の方法。 - 前記第1のベクトルに基づいて、典型的な透過画像データーベースから対応する典型的な透過画像を検索するステップと、
ユーザーに検索された典型的な透過画像を表示するステップと、
をさらに含む、請求項1に記載の方法。 - 被検査コンテナーに対してX線走査を行って透過画像を得るX線検査システムと、
前記透過画像を記憶するメモリと、
畳み込みニューラルネットワークを利用して透過画像から局所的な透過画像を表現する第1のベクトルを生成し、
循環ニューラルネットワークを利用してコンテナーにおける荷物の文字的な記述から単語ベクトルを生成して第2のベクトルとし、
前記第1のベクトルと前記第2のベクトルとを統合して、前記透過画像と前記文字的な記述とを表現する第3のベクトルを得て、
前記第3のベクトルに基づいて、前記コンテナーにおける荷物が属するカテゴリを判別する、ように配置されたプロセッサーと、
を含む、検査設備。 - 前記プロセッサーは、
確率関数に基づいて、前記第3のベクトルからコンテナーにおける荷物があるカテゴリに属することを表す確率値を生成し、
最大確率値を持つカテゴリを前記荷物が属するカテゴリとする、ように配置される、
請求項7に記載の検査設備。 - 前記プロセッサーは、さらに、
判別されたカテゴリに応じて、ユーザーに前記カテゴリに関連する典型的な透過画像を表示する、ように配置される、
請求項8に記載の検査設備。 - 前記プロセッサーは、
前記コンテナーにおける荷物の文字的な記述に対して単語分類操作を行い、
単語分類操作を行った後の文字的な記述をベクトル化して、単語ベクトルを得る、ように配置される、
請求項7に記載の検査設備。 - 前記プロセッサーは、さらに、
前記単語ベクトルに基づいて、典型的な透過画像データーベースから対応する典型的な透過画像を検索し、
ユーザーに検索された典型的な透過画像を表示する、ように配置される、
請求項10に記載の検査設備。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710243591.9 | 2017-04-14 | ||
CN201710243591.9A CN108734183A (zh) | 2017-04-14 | 2017-04-14 | 检查方法和检查设备 |
PCT/CN2018/083012 WO2018188653A1 (zh) | 2017-04-14 | 2018-04-13 | 检查方法和检查设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020516897A true JP2020516897A (ja) | 2020-06-11 |
Family
ID=63792302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019555877A Pending JP2020516897A (ja) | 2017-04-14 | 2018-04-13 | 検査方法及び検査設備 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3611666A4 (ja) |
JP (1) | JP2020516897A (ja) |
KR (1) | KR20190139254A (ja) |
CN (1) | CN108734183A (ja) |
WO (1) | WO2018188653A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522913B (zh) * | 2017-09-18 | 2022-07-19 | 同方威视技术股份有限公司 | 检查方法和检查设备以及计算机可读介质 |
CN111461152B (zh) * | 2019-01-21 | 2024-04-05 | 同方威视技术股份有限公司 | 货物检测方法及装置、电子设备和计算机可读介质 |
CN110472728B (zh) * | 2019-07-30 | 2023-05-23 | 腾讯科技(深圳)有限公司 | 目标信息确定方法、目标信息确定装置、介质及电子设备 |
CN111860263B (zh) * | 2020-07-10 | 2024-08-23 | 海尔优家智能科技(北京)有限公司 | 信息录入方法、装置及计算机可读存储介质 |
CN113496046B (zh) * | 2021-01-18 | 2024-05-10 | 华翼(广东)电商科技有限公司 | 一种基于区块链的电商物流系统及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7734102B2 (en) * | 2005-05-11 | 2010-06-08 | Optosecurity Inc. | Method and system for screening cargo containers |
JP2014525594A (ja) * | 2011-09-07 | 2014-09-29 | ラピスカン システムズ、インコーポレイテッド | マニフェストデータをイメージング/検知処理に統合するx線検査システム |
CN105574133A (zh) * | 2015-12-15 | 2016-05-11 | 苏州贝多环保技术有限公司 | 一种多模态的智能问答系统及方法 |
CN105975457A (zh) * | 2016-05-03 | 2016-09-28 | 成都数联铭品科技有限公司 | 基于全自动学习的信息分类预测系统 |
JP2016181196A (ja) * | 2015-03-25 | 2016-10-13 | 日本電気株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2017507391A (ja) * | 2013-12-27 | 2017-03-16 | 同方威視技▲術▼股▲分▼有限公司 | 貨物を自動で分類認識する透視検査システム及び方法 |
JP2017509903A (ja) * | 2014-12-30 | 2017-04-06 | 清華大學Tsinghua University | 貨物の検査方法およびそのシステム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104567758B (zh) * | 2013-10-29 | 2017-11-17 | 同方威视技术股份有限公司 | 立体成像系统及其方法 |
CN105784732B (zh) * | 2014-12-26 | 2019-02-22 | 同方威视技术股份有限公司 | 检查方法和检查系统 |
CN106446782A (zh) * | 2016-08-29 | 2017-02-22 | 北京小米移动软件有限公司 | 图像识别方法及装置 |
-
2017
- 2017-04-14 CN CN201710243591.9A patent/CN108734183A/zh active Pending
-
2018
- 2018-04-13 JP JP2019555877A patent/JP2020516897A/ja active Pending
- 2018-04-13 EP EP18785106.8A patent/EP3611666A4/en not_active Withdrawn
- 2018-04-13 KR KR1020197033257A patent/KR20190139254A/ko not_active Application Discontinuation
- 2018-04-13 WO PCT/CN2018/083012 patent/WO2018188653A1/zh unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7734102B2 (en) * | 2005-05-11 | 2010-06-08 | Optosecurity Inc. | Method and system for screening cargo containers |
JP2014525594A (ja) * | 2011-09-07 | 2014-09-29 | ラピスカン システムズ、インコーポレイテッド | マニフェストデータをイメージング/検知処理に統合するx線検査システム |
JP2017507391A (ja) * | 2013-12-27 | 2017-03-16 | 同方威視技▲術▼股▲分▼有限公司 | 貨物を自動で分類認識する透視検査システム及び方法 |
JP2017509903A (ja) * | 2014-12-30 | 2017-04-06 | 清華大學Tsinghua University | 貨物の検査方法およびそのシステム |
JP2016181196A (ja) * | 2015-03-25 | 2016-10-13 | 日本電気株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN105574133A (zh) * | 2015-12-15 | 2016-05-11 | 苏州贝多环保技术有限公司 | 一种多模态的智能问答系统及方法 |
CN105975457A (zh) * | 2016-05-03 | 2016-09-28 | 成都数联铭品科技有限公司 | 基于全自动学习的信息分类预测系统 |
Non-Patent Citations (1)
Title |
---|
SAMIT AKCAY ET AL.: "TRANSFER LEARNING USING CONVOLUTIONAL NEURAL NETWORKS FOR OBJECT CLASSIFICATION WITHIN X-RAY", 2016 IEEE INTERNATIONAL CONFEERENCE ON IMAGE PROCESSING (ICIP), JPN6021033483, 2016, pages 1057 - 1061, ISSN: 0004581431 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018188653A1 (zh) | 2018-10-18 |
KR20190139254A (ko) | 2019-12-17 |
EP3611666A1 (en) | 2020-02-19 |
CN108734183A (zh) | 2018-11-02 |
EP3611666A4 (en) | 2021-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020516897A (ja) | 検査方法及び検査設備 | |
US10796104B1 (en) | Systems and methods for constructing an artificially diverse corpus of training data samples for training a contextually-biased model for a machine learning-based dialogue system | |
CN107918782A (zh) | 一种生成描述图像内容的自然语言的方法与系统 | |
CN112732921B (zh) | 一种虚假用户评论检测方法及系统 | |
JP2020534508A (ja) | 検査方法、検査設備及びコンピューター読み取り可能な媒体 | |
Menshawy | Deep Learning By Example: A hands-on guide to implementing advanced machine learning algorithms and neural networks | |
CN111506729B (zh) | 一种信息处理方法、装置及计算机可读存储介质 | |
CN111126057A (zh) | 一种分级神经网络的案件情节精准量刑系统 | |
CN113128550A (zh) | 用于数据有效的主动机器学习的设备和计算机实现的方法 | |
CN117611576A (zh) | 一种基于图文融合对比学习预测方法 | |
CN115965818A (zh) | 一种基于相似度特征融合的小样本图像分类方法 | |
CN113065356A (zh) | 一种基于语义分析算法的it设备运维故障建议处理方法 | |
Kim et al. | Massive scale deep learning for detecting extreme climate events | |
CN111708865B (zh) | 一种基于改进XGBoost算法的技术预见及专利预警分析方法 | |
CN113361194A (zh) | 一种基于深度学习的传感器漂移校准方法、电子设备及存储介质 | |
CN112559741A (zh) | 核电设备缺陷记录文本分类方法、系统、介质及电子设备 | |
CN115861720B (zh) | 一种小样本亚类图像分类识别方法 | |
US20050021338A1 (en) | Recognition device and system | |
Podsztavek et al. | Spectroscopic redshift determination with Bayesian convolutional networks | |
CN116503674B (zh) | 一种基于语义指导的小样本图像分类方法、装置及介质 | |
Li | Textual Data Mining for Financial Fraud Detection: A Deep Learning Approach | |
NL2034690B1 (en) | Method and apparatus of training radiation image recognition model online, and method and apparatus of recognizing radiation image | |
Kalpana et al. | Recognition and Classification of Image Based Coal and Coal Gangue Using Deep Learning Techniques | |
Tesso et al. | Signed Language Translation into Afaan Oromo Text Using Deep-Learning Approach | |
Abbruzzese et al. | REMOAC: A retroactive explainable method for OCR anomalies correction in legal domain |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200814 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210830 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220328 |