JP2022177232A - 画像処理方法、テキスト認識方法及び装置 - Google Patents
画像処理方法、テキスト認識方法及び装置 Download PDFInfo
- Publication number
- JP2022177232A JP2022177232A JP2022152161A JP2022152161A JP2022177232A JP 2022177232 A JP2022177232 A JP 2022177232A JP 2022152161 A JP2022152161 A JP 2022152161A JP 2022152161 A JP2022152161 A JP 2022152161A JP 2022177232 A JP2022177232 A JP 2022177232A
- Authority
- JP
- Japan
- Prior art keywords
- field
- features
- image
- text
- positional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000012545 processing Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 67
- 238000007781 pre-processing Methods 0.000 claims abstract description 21
- 230000000007 visual effect Effects 0.000 claims description 42
- 230000006870 function Effects 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 23
- 230000000717 retained effect Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 19
- 238000003672 processing method Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 8
- 230000000873 masking effect Effects 0.000 claims description 5
- 230000036961 partial effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 26
- 238000004458 analytical method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/199—Arrangements for recognition using optical reference masks, e.g. holographic masks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/412—Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/16—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/20—Combination of acquisition, preprocessing or recognition functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
- Character Input (AREA)
Abstract
Description
取得されたサンプル画像を前処理し、前記サンプル画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るステップと、
前記フィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツに従って、前記フィールドの位置情報に対してマスク予測を行い、予測結果を得るステップと、
前記予測結果に従って訓練してテキスト認識モデルを得るステップであって、前記テキスト認識モデルが認識対象の画像に対してテキスト認識を行うためのものであるステップと、を含む。
認識対象の画像を取得するステップと、
予め訓練されたテキスト認識モデルに基づいて前記認識対象の画像に対してテキスト認識を行い、前記認識対象の画像のテキストコンテンツを得るステップと、を含み、
前記テキスト認識モデルが第1の態様に記載の方法に基づいて得られたものである。
取得されたサンプル画像を前処理し、前記サンプル画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るための第1の処理ユニットと、
前記フィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツに従って、前記フィールドの位置情報に対してマスク予測を行い、予測結果を得るための予測ユニットと、
前記予測結果に従って訓練してテキスト認識モデルを得るための訓練ユニットであって、前記テキスト認識モデルが認識対象の画像に対してテキスト認識を行うためのものである訓練ユニットと、を含む。
認識対象の画像を取得するための取得ユニットと、
予め訓練されたテキスト認識モデルに基づいて前記認識対象の画像に対してテキスト認識を行い、前記認識対象の画像のテキストコンテンツを得るための認識ユニットと、を含み、
前記テキスト認識モデルが第1の態様に記載の方法に基づいて訓練されたものである。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサが第1の態様又は第2の態様に記載の方法を実行できる。
取得されたサンプル画像を前処理し、サンプル画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るための第1の処理ユニット701と、
フィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツに従って、フィールドの位置情報に対してマスク予測を行い、予測結果を得るための予測ユニット702と、
予測結果に従って訓練してテキスト認識モデルを得るための訓練ユニット703であって、テキスト認識モデルが認識対象の画像に対してテキスト認識を行うためのものである訓練ユニット703と、を含む。
取得されたサンプル画像を前処理し、サンプル画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るための第1の処理ユニット801を含む。
サンプル画像に対して文字検出処理を行い、画像ブロック、及びフィールドの位置情報を得るための第1の処理サブユニット8011であって、画像ブロックがフィールドの位置情報に対応する領域をボックス選択するためのバウンディングボックスである第1の処理サブユニット8011と、
サンプル画像に対して文字認識処理を行い、テキストコンテンツを得るための第2の処理サブユニット8012と、
フィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツに従って、フィールドの位置情報に対してマスク予測を行い、予測結果を得るための予測ユニット802と、を含むことがわかる。
取得サブユニット8021は、フィールドの位置情報に対応する位置的特徴を取得し、画像ブロックに対応する視覚的特徴を取得し、テキストコンテンツに対応するテキスト特徴を取得するために使用される。
フィールドの位置情報を第1のネットワークモデルに入力するための第1の入力モジュールと、
フィールドの位置情報に対応する位置的特徴を出力するための第1の出力モジュールと、
画像ブロックを第2のネットワークモデルに入力するための第2の入力モジュールと、
視覚的特徴を出力するための第2の出力モジュールと、
テキストコンテンツを第3のネットワークモデルに入力するための第3の入力モジュールと、
テキスト特徴を出力するための第3の出力モジュールと、を含み、
予測サブユニット8022は、フィールドの位置的特徴、視覚的特徴、及びテキスト特徴に従って、フィールドの位置的特徴に対してマスク予測を行い、事前訓練モデルを得るために使用される。
フィールドの一部の位置的特徴をランダムに取り除くための取り除きモジュールと、
視覚的特徴、テキスト特徴、及びフィールドの位置的特徴のうち保持された一部の位置的特徴に従って、フィールドの位置的特徴のうち取り除かれた一部の位置的特徴に対してマスク予測を行い、事前訓練モデルを得るための予測モジュールと、を含む。
視覚的特徴、テキスト特徴、及びフィールドの位置的特徴のうち保持された一部の位置的特徴を第4のネットワークモデルに入力するための入力サブモジュールと、
フィールドの位置的特徴のうち取り除かれた一部の位置的特徴の位置情報を出力するための出力サブモジュールと、
フィールドの位置情報、及び出力された位置情報に従って、事前訓練モデルを生成するための第2の生成サブモジュールと、を含む。
視覚的特徴、テキスト特徴、及びフィールドの位置的特徴のうち保持された一部の位置的特徴に従って、フィールドの位置的特徴のうち取り除かれた一部の位置的特徴を予測して得るための予測サブモジュールと、
フィールドの位置的特徴のうち取り除かれた一部の位置的特徴に対応する位置情報を取得するための取得サブモジュールと、
フィールドの位置情報及び取得された位置情報に従って、事前訓練モデルを生成するための第1の生成サブモジュールと、を含む。
訓練ユニット803は、予測結果に従って訓練してテキスト認識モデルを得るためのものであり、テキスト認識モデルが認識対象の画像に対してテキスト認識を行うためのものである。
認識対象の画像を取得するための取得ユニット1101と、
予め訓練されたテキスト認識モデルに基づいて認識対象の画像に対してテキスト認識を行い、認識対象の画像のテキストコンテンツを得るための認識ユニット1102と、を含む。
認識対象の画像を取得するための取得ユニット1201と、
認識対象の画像を前処理し、認識対象の画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るための第2の処理ユニット1202と、
認識対象の画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツをテキスト認識モデルに入力し、認識対象の画像のテキストコンテンツを出力するための認識ユニット1203と、を含む。
Claims (29)
- 画像処理方法であって、
取得されたサンプル画像を前処理し、前記サンプル画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るステップと、
前記フィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツに従って、前記フィールドの位置情報に対してマスク予測を行い、予測結果を得るステップと、
前記予測結果に従って訓練してテキスト認識モデルを得るステップであって、前記テキスト認識モデルが認識対象の画像に対してテキスト認識を行うためのものであるステップと、を含む画像処理方法。 - 前記予測結果が事前訓練モデルであり、
前記フィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツに従って、前記フィールドの位置情報に対してマスク予測を行い、予測結果を得る前記ステップは、
前記フィールドの位置情報に対応する位置的特徴を取得し、前記画像ブロックに対応する視覚的特徴を取得し、前記テキストコンテンツに対応するテキスト特徴を取得するステップと、
前記フィールドの位置的特徴、前記視覚的特徴、及び前記テキスト特徴に従って、前記フィールドの位置的特徴に対してマスク予測を行い、前記事前訓練モデルを得るステップと、を含む請求項1に記載の方法。 - 前記フィールドの位置的特徴、前記視覚的特徴、及び前記テキスト特徴に従って、前記フィールドの位置的特徴に対してマスク予測を行い、前記事前訓練モデルを得る前記ステップは、
前記フィールドの一部の位置的特徴をランダムに取り除くステップと、
前記視覚的特徴、前記テキスト特徴、及び前記フィールドの位置的特徴のうち保持された一部の位置的特徴に従って、前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴に対してマスク予測を行い、前記事前訓練モデルを得るステップと、を含む請求項2に記載の方法。 - 前記視覚的特徴、前記テキスト特徴、及び前記フィールドの位置的特徴のうち保持された一部の位置的特徴に従って、前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴に対してマスク予測を行い、前記事前訓練モデルを得る前記ステップは、
前記視覚的特徴、前記テキスト特徴、及び前記フィールドの位置的特徴のうち保持された一部の位置的特徴に従って、前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴を予測して得るステップと、
前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴に対応する位置情報を取得するステップと、
前記フィールドの位置情報、及び取得された位置情報に従って、前記事前訓練モデルを生成するステップと、を含む請求項3に記載の方法。 - 前記フィールドの位置情報、及び取得された位置情報に従って、前記事前訓練モデルを生成する前記ステップは、
前記フィールドの位置情報、及び取得された位置情報間の損失関数を計算して、前記損失関数に基づいて訓練して前記事前訓練モデルを得るステップを含む請求項4に記載の方法。 - 前記フィールドの位置情報に対応する位置的特徴を取得し、前記画像ブロックに対応する視覚的特徴を取得し、前記テキストコンテンツに対応するテキスト特徴を取得する前記ステップは、
前記フィールドの位置情報を第1のネットワークモデルに入力し、前記フィールドの位置情報に対応する位置的特徴を出力するステップと、
前記画像ブロックを第2のネットワークモデルに入力し、前記視覚的特徴を出力するステップと、
前記テキストコンテンツを第3のネットワークモデルに入力し、前記テキスト特徴を出力するステップと、を含む請求項3に記載の方法。 - 前記視覚的特徴、前記テキスト特徴、及び前記フィールドの位置的特徴のうち保持された一部の位置的特徴に従って、前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴に対してマスク予測を行い、前記事前訓練モデルを得る前記ステップは、
前記視覚的特徴、前記テキスト特徴、及び前記フィールドの位置的特徴のうち保持された一部の位置的特徴を第4のネットワークモデルに入力し、前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴の位置情報を出力するステップと、
前記フィールドの位置情報、及び出力された位置情報に従って、前記事前訓練モデルを生成するステップと、を含む請求項6に記載の方法。 - 前記フィールドの位置情報、及び出力された位置情報に従って、前記事前訓練モデルを生成する前記ステップは、
前記フィールドの位置情報、及び出力された位置情報間の損失関数を計算するステップと、
前記損失関数に従って前記第1のネットワークモデル、前記第2のネットワークモデル、前記第3のネットワークモデル、及び前記第4のネットワークモデルのそれぞれに対応するモデルパラメータを調整し、前記事前訓練モデルを得るステップと、を含む請求項7に記載の方法。 - 前記フィールドの位置情報、及び出力された位置情報間の損失関数を計算する前記ステップは、
前記フィールドの位置情報、及び出力された位置情報間の距離損失を計算して、前記距離損失を前記損失関数として決定するステップを含む請求項8に記載の方法。 - 前記フィールドの位置情報は、ピクセル座標系に基づく前記フィールドの検出横座標及び検出縦座標を含み、出力された位置情報は、ピクセル座標系に基づく前記フィールドの予測横座標及び予測縦座標を含み、
前記フィールドの位置情報、及び出力された位置情報間の距離損失を計算する前記ステップは、
前記予測横座標と前記検出横座標との間の横座標差分情報、及び前記予測縦座標と前記検出縦座標との間の縦座標差分情報を計算するステップと、
前記横座標差分情報及び前記縦座標差分情報に従って、前記距離損失を決定するステップと、を含む請求項9に記載の方法。 - 前記前処理は、文字検出処理及び文字認識処理を含み、
取得されたサンプル画像を前処理し、前記サンプル画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得る前記ステップは、
前記サンプル画像に対して文字検出処理を行い、前記画像ブロック、及び前記フィールドの位置情報を得るステップであって、前記画像ブロックが前記フィールドの位置情報に対応する領域をボックス選択するためのバウンディングボックスであるステップと、
前記サンプル画像に対して文字認識処理を行い、前記テキストコンテンツを得るステップと、を含む請求項1に記載の方法。 - テキスト認識方法であって、
認識対象の画像を取得するステップと、
予め訓練されたテキスト認識モデルに基づいて前記認識対象の画像に対してテキスト認識を行い、前記認識対象の画像のテキストコンテンツを得るステップと、を含み、
前記テキスト認識モデルが請求項1~11のいずれか1項に記載の方法を利用して得られたものであるテキスト認識方法。 - 前記方法は、さらに、
認識対象の画像を前処理し、前記認識対象の画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るステップを含み、
予め訓練されたテキスト認識モデルに基づいて前記認識対象の画像に対してテキスト認識を行い、前記認識対象の画像のテキストコンテンツを得るステップは、前記認識対象の画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを前記テキスト認識モデルに入力し、前記認識対象の画像のテキストコンテンツを出力するステップを含む請求項12に記載の方法。 - 画像処理装置であって、
取得されたサンプル画像を前処理し、前記サンプル画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るための第1の処理ユニットと、
前記フィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツに従って、前記フィールドの位置情報に対してマスク予測を行い、予測結果を得るための予測ユニットと、
前記予測結果に従って訓練してテキスト認識モデルを得るための訓練ユニットであって、前記テキスト認識モデルが認識対象の画像に対してテキスト認識を行うためのものである訓練ユニットと、を含む画像処理装置。 - 前記予測結果が事前訓練モデルであり、前記予測ユニットは、
前記フィールドの位置情報に対応する位置的特徴を取得し、前記画像ブロックに対応する視覚的特徴を取得し、前記テキストコンテンツに対応するテキスト特徴を取得するための取得サブユニットと、
前記フィールドの位置的特徴、前記視覚的特徴、及び前記テキスト特徴に従って、前記フィールドの位置的特徴に対してマスク予測を行い、前記事前訓練モデルを得るための予測サブユニットと、を含む請求項14に記載の装置。 - 前記予測サブユニットは、
前記フィールドの一部の位置的特徴をランダムに取り除くための取り除きモジュールと、
前記視覚的特徴、前記テキスト特徴、及び前記フィールドの位置的特徴のうち保持された一部の位置的特徴に従って、前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴に対してマスク予測を行い、前記事前訓練モデルを得るための予測モジュールと、を含む請求項15に記載の装置。 - 前記予測モジュールは、
前記視覚的特徴、前記テキスト特徴、及び前記フィールドの位置的特徴のうち保持された一部の位置的特徴に従って、前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴を予測して得るための予測サブモジュールと、
前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴に対応する位置情報を取得するための取得サブモジュールと、
前記フィールドの位置情報、及び取得された位置情報に従って、前記事前訓練モデルを生成するための第1の生成サブモジュールと、を含む請求項16に記載の装置。 - 前記第1の生成サブモジュールは、前記フィールドの位置情報、及び取得された位置情報間の損失関数を計算して、前記損失関数に基づいて訓練して前記事前訓練モデルを得るためのものである請求項17に記載の装置。
- 前記取得サブユニットは、
前記フィールドの位置情報を第1のネットワークモデルに入力するための第1の入力モジュールと、
前記フィールドの位置情報に対応する位置的特徴を出力するための第1の出力モジュールと、
前記画像ブロックを第2のネットワークモデルに入力するための第2の入力モジュールと、
前記視覚的特徴を出力するための第2の出力モジュールと、
前記テキストコンテンツを第3のネットワークモデルに入力するための第3の入力モジュールと、
前記テキスト特徴を出力するための第3の出力モジュールと、を含む請求項16に記載の装置。 - 前記予測モジュールは、
前記視覚的特徴、前記テキスト特徴、及び前記フィールドの位置的特徴のうち保持された一部の位置的特徴を第4のネットワークモデルに入力するための入力サブモジュールと、
前記フィールドの位置的特徴のうち取り除かれた一部の位置的特徴の位置情報を出力するための出力サブモジュールと、
前記フィールドの位置情報、及び出力された位置情報に従って、前記事前訓練モデルを生成するための第2の生成サブモジュールと、を含む請求項19に記載の装置。 - 前記第2の生成サブモジュールは、前記フィールドの位置情報、及び出力された位置情報間の損失関数を計算して、前記損失関数に従って前記第1のネットワークモデル、前記第2のネットワークモデル、前記第3のネットワークモデル、及び前記第4のネットワークモデルのそれぞれに対応するモデルパラメータを調整し、前記事前訓練モデルを得るためのものである請求項20に記載の装置。
- 前記第2の生成サブモジュールは、前記フィールドの位置情報、及び出力された位置情報間の距離損失を計算して、前記距離損失を前記損失関数として決定するためのものである請求項21に記載の装置。
- 前記フィールドの位置情報は、ピクセル座標系に基づく前記フィールドの検出横座標及び検出縦座標を含み、出力された位置情報は、ピクセル座標系に基づく前記フィールドの予測横座標及び予測縦座標を含み、前記第2の生成サブモジュールは、前記予測横座標と前記検出横座標との間の横座標差分情報、及び前記予測縦座標と前記検出縦座標との間の縦座標差分情報を計算して、前記横座標差分情報及び前記縦座標差分情報に従って、前記距離損失を決定するためのものである請求項22に記載の装置。
- 前記前処理は、文字検出処理及び文字認識処理を含み、前記第1の処理ユニットは、
前記サンプル画像に対して文字検出処理を行い、前記画像ブロック、及び前記フィールドの位置情報を得るための第1の処理サブユニットであって、前記画像ブロックが前記フィールドの位置情報に対応する領域をボックス選択するためのバウンディングボックスである第1の処理サブユニットと、
前記サンプル画像に対して文字認識処理を行い、前記テキストコンテンツを得るための第2の処理サブユニットと、を含む請求項14~23のいずれか1項に記載の装置。 - テキスト認識装置であって、
認識対象の画像を取得するための取得ユニットと、
予め訓練されたテキスト認識モデルに基づいて前記認識対象の画像に対してテキスト認識を行い、前記認識対象の画像のテキストコンテンツを得るための認識ユニットと、を含み、
前記テキスト認識モデルが請求項1~11のいずれか1項に記載の方法を利用して得られたものであるテキスト認識装置。 - 前記装置は、さらに、
認識対象の画像を前処理し、前記認識対象の画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを得るための第2の処理ユニットを含み、
前記認識ユニットは、前記認識対象の画像内のフィールドにそれぞれ対応する位置情報、画像ブロック、及びテキストコンテンツを前記テキスト認識モデルに入力し、前記認識対象の画像のテキストコンテンツを出力するためのものである請求項25に記載の装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサが請求項1~11のいずれか1項に記載の方法を実行できるか、前記少なくとも1つのプロセッサが請求項12又は13に記載の方法を実行できる電子機器。 - コンピュータ命令が記憶された非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令がコンピュータに請求項1~11のいずれか1項に記載の方法を実行させるためのものであるか、前記コンピュータ命令が前記コンピュータに請求項12又は13に記載の方法を実行させるためのものである非一時的なコンピュータ可読記憶媒体。
- コンピュータプログラムであって、当該コンピュータプログラムがプロセッサにより実行されると、請求項1~11のいずれか1項に記載の方法は実現されるか、当該コンピュータプログラムがプロセッサにより実行されると、請求項12又は13に記載の方法は実現されるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210182337.3A CN114550177B (zh) | 2022-02-25 | 2022-02-25 | 图像处理的方法、文本识别方法及装置 |
CN202210182337.3 | 2022-02-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022177232A true JP2022177232A (ja) | 2022-11-30 |
JP7425147B2 JP7425147B2 (ja) | 2024-01-30 |
Family
ID=81679070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022152161A Active JP7425147B2 (ja) | 2022-02-25 | 2022-09-26 | 画像処理方法、テキスト認識方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220415072A1 (ja) |
JP (1) | JP7425147B2 (ja) |
KR (1) | KR20220125712A (ja) |
CN (1) | CN114550177B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115346074B (zh) * | 2022-09-02 | 2023-06-16 | 北京百度网讯科技有限公司 | 训练方法、图像处理方法、装置、电子设备以及存储介质 |
CN116052186A (zh) * | 2023-01-30 | 2023-05-02 | 无锡容智技术有限公司 | 多模态发票自动分类识别方法、校验方法及系统 |
KR20240126544A (ko) | 2023-02-14 | 2024-08-21 | 엘에스일렉트릭(주) | 제품 검사 시스템 및 그 제어 방법 |
CN116071740B (zh) * | 2023-03-06 | 2023-07-04 | 深圳前海环融联易信息科技服务有限公司 | 发票识别方法、计算机设备及存储介质 |
CN116152577B (zh) * | 2023-04-19 | 2023-08-29 | 深圳须弥云图空间科技有限公司 | 图像分类方法及装置 |
CN116188632A (zh) * | 2023-04-24 | 2023-05-30 | 之江实验室 | 一种图像的生成方法、装置、存储介质及电子设备 |
CN116597454B (zh) * | 2023-05-24 | 2024-07-12 | 北京百度网讯科技有限公司 | 图像处理方法、图像处理模型的训练方法和装置 |
CN116844168A (zh) * | 2023-06-30 | 2023-10-03 | 北京百度网讯科技有限公司 | 确定文本的方法、深度学习模型的训练方法和装置 |
CN117292384B (zh) * | 2023-08-30 | 2024-10-29 | 北京瑞莱智慧科技有限公司 | 文字识别方法、相关装置及存储介质 |
CN116912856A (zh) * | 2023-09-14 | 2023-10-20 | 深圳市贝铂智能科技有限公司 | 一种智能扫描笔的图像识别方法、装置以及智能扫描笔 |
CN118469040B (zh) * | 2024-07-10 | 2024-10-01 | 中建五局第三建设(深圳)有限公司 | 围标检测模型的训练方法、预测方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435529A (zh) * | 2021-07-06 | 2021-09-24 | 北京百度网讯科技有限公司 | 模型预训练方法、模型训练方法及图像处理方法 |
JP2021149452A (ja) * | 2020-03-18 | 2021-09-27 | 株式会社Pfu | 画像処理装置、制御方法及び制御プログラム |
CN113705733A (zh) * | 2021-09-29 | 2021-11-26 | 平安医疗健康管理股份有限公司 | 医疗票据图像处理方法及装置、电子设备、存储介质 |
CN113704460A (zh) * | 2021-03-25 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 一种文本分类方法、装置、电子设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919014B (zh) * | 2019-01-28 | 2023-11-03 | 平安科技(深圳)有限公司 | Ocr识别方法及其电子设备 |
CN110874618B (zh) * | 2020-01-19 | 2020-11-27 | 同盾控股有限公司 | 基于小样本的ocr模板学习方法、装置、电子设备及介质 |
CN111832292B (zh) * | 2020-06-03 | 2024-02-02 | 北京百度网讯科技有限公司 | 文本识别处理方法、装置、电子设备和存储介质 |
CN111860479B (zh) * | 2020-06-16 | 2024-03-26 | 北京百度网讯科技有限公司 | 光学字符识别方法、装置、电子设备及存储介质 |
CN113657395B (zh) * | 2021-08-17 | 2024-02-13 | 北京百度网讯科技有限公司 | 文本识别方法、视觉特征提取模型的训练方法及装置 |
-
2022
- 2022-02-25 CN CN202210182337.3A patent/CN114550177B/zh active Active
- 2022-08-26 KR KR1020220107491A patent/KR20220125712A/ko unknown
- 2022-09-02 US US17/901,897 patent/US20220415072A1/en active Pending
- 2022-09-26 JP JP2022152161A patent/JP7425147B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021149452A (ja) * | 2020-03-18 | 2021-09-27 | 株式会社Pfu | 画像処理装置、制御方法及び制御プログラム |
CN113704460A (zh) * | 2021-03-25 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 一种文本分类方法、装置、电子设备和存储介质 |
CN113435529A (zh) * | 2021-07-06 | 2021-09-24 | 北京百度网讯科技有限公司 | 模型预训练方法、模型训练方法及图像处理方法 |
CN113705733A (zh) * | 2021-09-29 | 2021-11-26 | 平安医疗健康管理股份有限公司 | 医疗票据图像处理方法及装置、电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114550177B (zh) | 2023-06-20 |
KR20220125712A (ko) | 2022-09-14 |
CN114550177A (zh) | 2022-05-27 |
JP7425147B2 (ja) | 2024-01-30 |
US20220415072A1 (en) | 2022-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7425147B2 (ja) | 画像処理方法、テキスト認識方法及び装置 | |
JP2023541532A (ja) | テキスト検出モデルのトレーニング方法及び装置、テキスト検出方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
KR20220122566A (ko) | 텍스트 인식 모델의 트레이닝 방법, 텍스트 인식 방법 및 장치 | |
CN115063875B (zh) | 模型训练方法、图像处理方法、装置和电子设备 | |
CN113177472A (zh) | 动态手势识别方法、装置、设备以及存储介质 | |
CN114429637B (zh) | 一种文档分类方法、装置、设备及存储介质 | |
US20230067934A1 (en) | Action Recognition Method, Apparatus and Device, Storage Medium and Computer Program Product | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
CN114187624A (zh) | 图像生成方法、装置、电子设备及存储介质 | |
CN113239807B (zh) | 训练票据识别模型和票据识别的方法和装置 | |
JP2022185143A (ja) | テキスト検出方法、テキスト認識方法及び装置 | |
EP4123605A2 (en) | Method of transferring image, and method and apparatus of training image transfer model | |
CN113379877A (zh) | 人脸视频生成方法、装置、电子设备及存储介质 | |
EP4156124A1 (en) | Dynamic gesture recognition method and apparatus, and device and storage medium | |
CN113762109B (zh) | 一种文字定位模型的训练方法及文字定位方法 | |
CN114299366A (zh) | 一种图像检测方法、装置、电子设备及存储介质 | |
CN113781653A (zh) | 对象模型生成方法、装置、电子设备及存储介质 | |
CN111144374B (zh) | 人脸表情识别方法及装置、存储介质和电子设备 | |
CN115565186B (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
US20230027813A1 (en) | Object detecting method, electronic device and storage medium | |
US20220058779A1 (en) | Inpainting method and apparatus for human image, and electronic device | |
US20240135576A1 (en) | Three-Dimensional Object Detection | |
CN112560848B (zh) | 兴趣点poi预训练模型的训练方法、装置及电子设备 | |
CN113191364B (zh) | 车辆外观部件识别方法、装置、电子设备和介质 | |
CN114120305A (zh) | 文本分类模型的训练方法、文本内容的识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7425147 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |