JP7085605B2 - Model evaluation system, model evaluation method and model evaluation program - Google Patents
Model evaluation system, model evaluation method and model evaluation program Download PDFInfo
- Publication number
- JP7085605B2 JP7085605B2 JP2020182500A JP2020182500A JP7085605B2 JP 7085605 B2 JP7085605 B2 JP 7085605B2 JP 2020182500 A JP2020182500 A JP 2020182500A JP 2020182500 A JP2020182500 A JP 2020182500A JP 7085605 B2 JP7085605 B2 JP 7085605B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- control unit
- image
- trained model
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、機械学習により生成された学習済みモデルの評価を支援するモデル評価システム、モデル評価方法及びモデル評価プログラムに関する。 The present invention relates to a model evaluation system, a model evaluation method, and a model evaluation program that support evaluation of a trained model generated by machine learning.
近年、深層学習を利用して生成した学習済みモデルを用いて、画像等のコンテンツを、コンピュータによって認識する技術が利用されている。しかしながら、学習済みモデルは、ブラックボックスでの判断になるため、コンピュータが、コンテンツをどのように認識するかについて、判断の根拠の説明が難しい。このため、判断根拠が不明な状況での運用は困難な場合もある。 In recent years, a technique of recognizing contents such as images by a computer using a trained model generated by using deep learning has been used. However, since the trained model is a black box judgment, it is difficult to explain the basis of the judgment as to how the computer recognizes the content. For this reason, it may be difficult to operate in situations where the basis for judgment is unknown.
そこで、判断根拠を説明するための技術も検討されている(非特許文献1、2)。非特許文献1に記載された技術では、CNNベースのモデルの大規模なクラスからの決定に対して「視覚的な説明」を作成し、それらをより透明にする。ここでは、任意のターゲットコンセプトの勾配を使用して、最終的な畳み込み層に流し込み、画像内の重要な領域を強調する粗いローカリゼーションマップを生成して、コンセプトを予測する。 Therefore, a technique for explaining the basis of judgment is also being studied (Non-Patent Documents 1 and 2). The technique described in Non-Patent Document 1 creates "visual explanations" for decisions from large classes of CNN-based models and makes them more transparent. Here, the gradient of any target concept is used to inject into the final convolution layer and generate a coarse localization map that highlights important areas in the image to predict the concept.
また、非特許文献2に記載された技術では、予測を中心に解釈可能なモデルを局所的に学習することにより、分類器の予測を解釈可能に説明するLIME(Local Interpretable Model-agnostic Explainations)を用いる。 Further, in the technique described in Non-Patent Document 2, LIME (Local Interpretable Model-agnostic Explainations) is used to explain the prediction of the classifier in an interpretable manner by locally learning a model that can be interpreted centering on the prediction. Use.
しかしながら、非特許文献1に記載された技術では、深層学習の内部に手を加えているため、既に学習された学習済みモデルには適用できない。また、非特許文献1、2に記載された技術では、着目している領域しか分からない。また、いずれの技術も、画像を人が用意しているため、恣意性を排除できない。 However, since the technique described in Non-Patent Document 1 modifies the inside of deep learning, it cannot be applied to a trained model that has already been trained. Further, in the techniques described in Non-Patent Documents 1 and 2, only the area of interest can be known. In addition, in any of the techniques, since the image is prepared by a person, arbitrariness cannot be excluded.
上記課題を解決するモデル評価システムは、学習済みモデルを記録する評価対象記憶部と、前記学習済みモデルを用いて認識結果を出力する制御部とを備える。そして、前記制御部が、複数のサンプルコンテンツを生成し、前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、前記確からしさに応じた前記サンプルコンテンツを用いて、前記学習済みモデルにおける特徴コンテンツに関する評価結果を出力する。 The model evaluation system that solves the above problems includes an evaluation target storage unit that records a trained model and a control unit that outputs a recognition result using the trained model. Then, the control unit generates a plurality of sample contents, inputs the sample contents into the trained model recorded in the evaluation target storage unit, and acquires the certainty of the recognition result of the sample contents. , The evaluation result regarding the feature content in the trained model is output by using the sample content according to the certainty.
本発明によれば、機械学習により生成された学習済みモデルを評価することができる。 According to the present invention, a trained model generated by machine learning can be evaluated.
(第1実施形態)
図1~図4に従って、モデル評価システム、モデル評価方法及びモデル評価プログラムの第1実施形態を説明する。本実施形態では、教師情報を用いた機械学習により生成され、所定のコンテンツ(画像)を入力して認識結果(テキスト)を出力する学習済みモデルを評価する。
図1に示すように、本実施形態のモデル評価システムは、ネットワークを介して接続されたユーザ端末10、支援サーバ20を用いる。
(First Embodiment)
The first embodiment of the model evaluation system, the model evaluation method, and the model evaluation program will be described with reference to FIGS. 1 to 4. In this embodiment, a trained model that is generated by machine learning using teacher information, inputs predetermined content (image), and outputs a recognition result (text) is evaluated.
As shown in FIG. 1, the model evaluation system of the present embodiment uses a
(ハードウェア構成例)
図2は、ユーザ端末10、支援サーバ20等として機能する情報処理装置H10のハードウェア構成例である。
(Hardware configuration example)
FIG. 2 is a hardware configuration example of the information processing apparatus H10 that functions as a
情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。 The information processing device H10 includes a communication device H11, an input device H12, a display device H13, a storage device H14, and a processor H15. Note that this hardware configuration is an example, and may have other hardware.
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースや無線インタフェース等である。 The communication device H11 is an interface that establishes a communication path with another device and executes data transmission / reception, such as a network interface or a wireless interface.
入力装置H12は、利用者等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイやタッチパネル等である。 The input device H12 is a device that receives input from a user or the like, and is, for example, a mouse, a keyboard, or the like. The display device H13 is a display, a touch panel, or the like that displays various information.
記憶装置H14は、ユーザ端末10、支援サーバ20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
The storage device H14 is a storage device that stores data and various programs for executing various functions of the
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、ユーザ端末10、支援サーバ20における各処理(例えば、後述する制御部21における処理)を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。例えば、プロセッサH15は、ユーザ端末10、支援サーバ20のアプリケーションプログラムが起動された場合、後述する各処理を実行するプロセスを動作させる。
The processor H15 controls each process (for example, a process in the
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、(1)コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ、(2)各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは(3)それらの組み合わせ、を含む回路(circuitry)として構成し得る。プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。 The processor H15 is not limited to the one that performs software processing for all the processing executed by itself. For example, the processor H15 may include a dedicated hardware circuit (for example, an integrated circuit for a specific application: ASIC) that performs hardware processing for at least a part of the processing executed by the processor H15. That is, the processor H15 is (1) one or more processors that operate according to a computer program (software), (2) one or more dedicated hardware circuits that execute at least a part of various processes, or ( 3) It can be configured as a circuitry including a combination thereof. The processor includes a CPU and a memory such as a RAM and a ROM, and the memory stores a program code or a command configured to cause the CPU to execute a process. Memory or computer readable media includes any available medium accessible by a general purpose or dedicated computer.
(各情報処理装置の機能)
図1のユーザ端末10は、学習済みモデルを評価する担当者が利用するコンピュータ端末である。
(Functions of each information processing device)
The
支援サーバ20は、学習済みモデルの評価を支援するためのコンピュータシステムである。この支援サーバ20は、制御部21、評価対象記憶部22、特徴情報記憶部23を備えている。
The
この制御部21は、後述する処理(画像加工段階、予測段階、評価段階、クラスタ分析段階等を含む処理)を行なう。このためのモデル評価プログラムを実行することにより、制御部21は、画像加工部211、予測部212、評価部213、クラスタ分析部214等として機能する。
The
画像加工部211は、評価に用いる画像を調整する処理を実行する。画像加工部211は、特徴コンテンツ生成処理を終了する終了条件に関するデータを保持している。終了条件としては、例えば、特徴情報記憶部23に記録された特徴画像の数が所定数になった場合を用いることができる。
The
予測部212は、学習済みモデルを用いて、予測結果を出力する処理を実行する。
評価部213は、学習済みモデルを評価する処理を実行する。評価部213は、学習済みモデルにより出力された確からしさと比較するための基準値に関するデータを保持している。
The
The
クラスタ分析部214は、クラスタリング処理より、特徴画像のグループ分けを行なう処理を実行する。このクラスタリング処理には、例えば、認識結果と特徴画像とを用いたk平均法を用いることができるが、k平均法に限定されるものではない。
The
評価対象記憶部22には、評価対象の学習済みモデルが記録される。この学習済みモデルは、ユーザ端末10から、評価対象の学習済みモデルを取得した場合に記録される。本実施形態では、評価対象の学習済みモデルとして、深層学習によって生成された予測モデル(ネットワーク)であって、画像に含まれるテキストを認識する文字認識モデルを用いる。ここで、画像に含まれるテキストとしては、例えば、数字「5」を用いることができる。
The trained model to be evaluated is recorded in the evaluation
特徴情報記憶部23には、特徴画像管理レコードが記録される。この特徴画像管理レコードは、特徴コンテンツ生成処理を実行した場合に記録される。特徴画像管理レコードには、特徴画像及び認識結果に関するデータが記録される。
A feature image management record is recorded in the feature
特徴画像データ領域には、認識文字の確からしさが基準値以上となった特徴画像(特徴コンテンツ)に関するデータが記録される。
認識結果データ領域には、特徴画像を、基準値以上の確からしさで認識した文字に関するデータが記録される。例えば、画像において基準値以上の確からしさで「5」を認識した場合、認識結果として数字「5」が記録される。
In the feature image data area, data related to the feature image (feature content) in which the certainty of the recognition character is equal to or higher than the reference value is recorded.
In the recognition result data area, data related to characters in which the feature image is recognized with a certainty higher than the reference value is recorded. For example, when "5" is recognized in the image with a certainty of the reference value or more, the number "5" is recorded as the recognition result.
次に、上記のように構成されたシステムにおいて、学習済みモデルを評価する処理手順を説明する。
(特徴コンテンツ生成処理)
まず、図3を用いて、特徴コンテンツ生成処理を説明する。
Next, a processing procedure for evaluating the trained model in the system configured as described above will be described.
(Feature content generation processing)
First, the feature content generation process will be described with reference to FIG.
ここでは、支援サーバ20の制御部21は、白黒画像の生成処理を実行する(ステップS101)。具体的には、制御部21の画像加工部211は、ユーザ端末10から、学習済みモデルを取得し、評価対象記憶部22に記録する。そして、画像加工部211は、任意の白黒画像(サンプルコンテンツ)を生成する。例えば、所定のサイズのビットマップにおいて、ランダムに白ピクセル及び黒ピクセルを配置した白黒画像を生成する。
例えば、図4に示すように、白黒画像500を生成する場合を想定する。
Here, the
For example, as shown in FIG. 4, it is assumed that a black-and-
次に、支援サーバ20の制御部21は、ランダムにピクセル選定処理を実行する(ステップS102)。具体的には、制御部21の画像加工部211は、生成した白黒画像において、ランダムにピクセルを選択する。本実施形態では、ステップS101において生成した白黒画像のビットマップにおいて、1つのピクセルを選択する。
例えば、図4において、白黒画像500のピクセル501を選定する。
Next, the
For example, in FIG. 4, the
次に、支援サーバ20の制御部21は、ピクセル反転処理を実行する(ステップS103)。具体的には、制御部21の画像加工部211は、選択したピクセルの白黒を反転させる。これにより、選択したピクセルが白ピクセルの場合には黒ピクセルに反転させ、黒ピクセルの場合には白ピクセルに反転させた白黒画像(サンプルコンテンツ)が生成される。
ここでは、図4において、黒のピクセル501を白に白黒反転することにより、白黒画像510が生成される。
Next, the
Here, in FIG. 4, a black-and-
次に、支援サーバ20の制御部21は、予測処理を実行する(ステップS104)。具体的には、制御部21の予測部212は、生成した白黒画像510を、評価対象記憶部22の学習済みモデルに入力する。そして、予測部212は、学習済みモデルによって出力された認識結果と確からしさを取得する。
Next, the
次に、支援サーバ20の制御部21は、確からしさが基準値以上かどうかについての判定処理を実行する(ステップS105)。具体的には、制御部21の予測部212は、学習済みモデルにより出力された確からしさと基準値とを比較する。
Next, the
確からしさが基準値以上と判定した場合(ステップS105において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理を実行する(ステップS106)。具体的には、制御部21の画像加工部211は、学習済みモデルに入力した白黒画像を特徴画像として、認識結果と関連付けた特徴画像管理レコードを生成し、特徴情報記憶部23に記録する。
When it is determined that the certainty is equal to or higher than the reference value (when "YES" in step S105), the
一方、確からしさが基準値未満と判定した場合(ステップS105において「NO」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理(ステップS106)をスキップする。
On the other hand, when it is determined that the certainty is less than the reference value (when "NO" in step S105), the
次に、支援サーバ20の制御部21は、終了かどうかについての判定処理を実行する(ステップS107)。具体的には、制御部21の画像加工部211は、同じ認識結果の特徴画像管理レコードのレコード数をカウントする。そして、レコード数が終了条件を満足している場合には、終了と判定する。
Next, the
レコード数が終了条件を満足しておらず、終了でないと判定した場合(ステップS107において「NO」の場合)、支援サーバ20の制御部21は、ランダムにピクセル選定処理(ステップS102)以降の処理を繰り返す。
例えば、図4に示すように、白黒画像510において、ピクセル502を選定し、白黒反転することにより、白黒画像520が生成される。
When it is determined that the number of records does not satisfy the end condition and it is not the end (when "NO" in step S107), the
For example, as shown in FIG. 4, in the black-and-
一方、終了と判定した場合(ステップS107において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の取得処理を実行する(ステップS108)。具体的には、制御部21のクラスタ分析部214は、特徴情報記憶部23から、すべての特徴画像管理レコードを抽出し、特徴画像管理レコードに記録された特徴画像を取得する。
On the other hand, when it is determined that the end is completed (when "YES" in step S107), the
次に、支援サーバ20の制御部21は、特徴画像のクラスタリング処理を実行する(ステップS109)。具体的には、制御部21のクラスタ分析部214は、特徴画像をクラスタリング処理により、グループ分けを行なう。
Next, the
次に、支援サーバ20の制御部21は、クラスタリング結果の出力処理を実行する(ステップS110)。具体的には、制御部21の評価部213は、クラスタリングにより生成した各グループの特徴画像を、ユーザ端末10に出力する。
Next, the
本実施形態によれば、以下のような効果を得ることができる。
(1-1)本実施形態においては、支援サーバ20の制御部21は、ランダムにピクセル選定処理(ステップS102)、ピクセル反転処理(ステップS103)、予測処理(ステップS104)を実行する。これにより、画像を部分的に変化させながら、確からしさを算出して、学習済みモデルを評価することができる。
According to this embodiment, the following effects can be obtained.
(1-1) In the present embodiment, the
(1-2)本実施形態においては、支援サーバ20の制御部21は、確からしさが基準値以上かどうかについての判定処理を実行する(ステップS105)。そして、確からしさが基準値以上と判定した場合(ステップS105において「YES」の場合)、支援サーバ20の制御部21は、特徴画像の登録処理を実行する(ステップS106)。これにより、確からしさに応じて、認識結果を出力する特徴的な画像を探すことができる。
(1-2) In the present embodiment, the
(1-3)本実施形態においては、支援サーバ20の制御部21は、特徴画像のクラスタリング処理を実行する(ステップS109)。これにより、認識結果に対して、複数の特徴画像を取得した場合にも、クラスタリングによってグループ毎にまとめた特徴を出力することができる。
(1-3) In the present embodiment, the
(第2実施形態)
次に、モデル評価システム、モデル評価方法及びモデル評価プログラムの第2実施形態を説明する。第1実施形態では、特徴情報記憶部23に記録された特徴画像についてクラスタリングを行なう。第2実施形態では、特徴画像において特徴的な領域(特徴領域)を特定してクラスタリングを行なうように変更した特徴領域評価処理を実行する。なお、上記第1実施形態と同様の部分については、同一の符号を付し、その詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment of the model evaluation system, the model evaluation method, and the model evaluation program will be described. In the first embodiment, clustering is performed on the feature images recorded in the feature
この場合、制御部21の画像加工部211は、特徴画像の一部のマスキングを行なう処理を実行する。そして、画像加工部211は、マスキング処理の要否を判定するための要否判定条件に関するデータを保持している。要否判定条件として、例えば、各特徴画像の類似性を評価した分散値を用いることができる。この場合、分散値が要否基準値内の場合には、マスク処理は不要と判定する。
In this case, the
更に、特徴情報記憶部23には、特徴領域管理レコードを記録する。特徴領域管理レコードは、特徴領域評価処理を実行した場合に記録される。特徴領域管理レコードには、特徴領域画像及び認識結果に関するデータが記録される。
Further, the feature area management record is recorded in the feature
特徴領域画像データ領域には、特徴画像の中で認識結果に影響を与える領域の画像に関するデータが記録される。
認識結果データ領域には、特徴領域により認識されるテキスト(ここでは数字)に関するデータが記録される。
In the feature area image data area, data related to an image in a region of the feature image that affects the recognition result is recorded.
In the recognition result data area, data related to the text (here, numbers) recognized by the feature area is recorded.
(特徴領域評価処理)
次に、図5を用いて、特徴領域評価処理を説明する。
まず、支援サーバ20の制御部21は、特徴画像の取得処理を実行する(ステップS201)。具体的には、制御部21の画像加工部211は、特徴情報記憶部23から、すべての特徴画像管理レコードを抽出し、特徴画像管理レコードに記録された特徴画像を取得する。
(Characteristic area evaluation processing)
Next, the feature region evaluation process will be described with reference to FIG.
First, the
次に、支援サーバ20の制御部21は、マスキング処理が必要かどうかについての判定処理を実行する(ステップS202)。具体的には、制御部21の画像加工部211は、特徴コンテンツ生成処理におけるクラスタリング結果を取得する。そして、画像加工部211は、各特徴画像の特徴量を比較し、類似性の分散値を算出する。そして、画像加工部211は、分散値と要否基準値とを比較する。
Next, the
分散値が要否基準値を超えており、マスキングが必要と判定した場合(ステップS202)、支援サーバ20の制御部21は、特徴画像毎に、以下の処理を繰り返す。
When the dispersion value exceeds the necessity reference value and it is determined that masking is necessary (step S202), the
ここでは、まず、支援サーバ20の制御部21は、部分マスキング処理を実行する(ステップS203)。具体的には、制御部21の画像加工部211は、特徴画像のビットマップ全体の1/4のサイズの黒マスクを用いて、特徴画像をマスキングしたマスク画像(マスクコンテンツ)を生成する。例えば、特徴画像の左上に黒マスクを配置したマスク画像を生成する。
図6に示すように、特徴画像600に対して、黒マスクM1を配置したマスク画像610を生成する。
Here, first, the
As shown in FIG. 6, a
次に、支援サーバ20の制御部21は、確からしさの算出処理を実行する(ステップS204)。具体的には、制御部21の予測部212は、マスク画像を、評価対象記憶部22に記録された学習済みモデルに入力する。この場合、予測部212は、マスク画像について、認識結果及び確からしさを出力する。
Next, the
次に、支援サーバ20の制御部21は、確からしさの低下の仮記憶処理を実行する(ステップS205)。具体的には、制御部21の評価部213は、特徴画像の認識結果について、予測部212が出力したマスク画像の確からしさを取得する。次に、評価部213は、特徴画像の確からしさとマスク画像の確からしさとの差分値を算出する。そして、評価部213は、特徴画像において黒マスクでマスキングされた領域(マスク領域)の画像に関連付けて、確からしさの差分値をメモリに仮記憶する。
Next, the
次に、支援サーバ20の制御部21は、マスキングを終了したかどうかについての判定処理を実行する(ステップS206)。具体的には、制御部21の画像加工部211は、特徴画像におけるすべての配置についてマスキングを行なった場合には、マスキングの終了と判定する。例えば、特徴画像の左上からマスキングを開始した場合には、特徴画像の右下に黒マスクが到達したことにより、マスキングの終了と判定する。
Next, the
ここで、マスキングを終了していないと判定した場合(ステップS206において「NO」の場合)、支援サーバ20の制御部21は、部分マスキング処理(ステップS203)以降の処理を実行する。この場合には、黒マスクを1ピクセル(1行又は1列)分、移動させることにより、マスク画像を生成する。
Here, if it is determined that masking has not been completed (in the case of "NO" in step S206), the
図6に示すように、マスク画像610に対して、黒マスクM1を移動させたマスク画像620を生成する。支援サーバ20の制御部21は、マスク画像620について、ステップS203~206の処理を終了後、更に、順次、マスク画像630の生成を繰り返す。そして、特徴画像600の右下に黒マスクが到達したマスク画像640において、マスキングの終了と判定する。
As shown in FIG. 6, a
マスキングを終了と判定した場合(ステップS206において「YES」の場合)、支援サーバ20の制御部21は、確からしさの低下が最大の特徴領域の特定処理を実行する(ステップS207)。具体的には、制御部21の評価部213は、メモリに仮記憶された差分値の中で、最大値のマスク領域を特徴領域として特定する。そして、評価部213は、特徴領域の画像を認識結果に関連付けて記録した特徴領域管理レコードを生成し、特徴情報記憶部23に記録する。
そして、支援サーバ20の制御部21は、すべての特徴画像について終了するまで、上記処理を繰り返す。
When it is determined that the masking is finished (when "YES" in step S206), the
Then, the
すべての特徴画像についての繰り返し処理を終了した場合、支援サーバ20の制御部21は、特徴領域の取得処理を実行する(ステップS208)。具体的には、制御部21のクラスタ分析部214は、特徴情報記憶部23から、すべての特徴領域管理レコードを抽出し、特徴領域管理レコードに記録された特徴領域の画像を取得する。
When the iterative processing for all the feature images is completed, the
次に、支援サーバ20の制御部21は、特徴領域のクラスタリング処理を実行する(ステップS209)。具体的には、制御部21のクラスタ分析部214は、特徴領域画像をクラスタリング処理により、グループ分けを行なう。これにより、共通した認識結果において、類似した特徴領域画像を特定することができる。
ここでは、図7に示すように、特徴領域のクラスタリング処理により、グループG1~G3が生成される。
Next, the
Here, as shown in FIG. 7, the groups G1 to G3 are generated by the clustering process of the feature region.
次に、支援サーバ20の制御部21は、クラスタリング結果の出力処理を実行する(ステップS211)。具体的には、制御部21のクラスタ分析部214は、クラスタリングにより生成したグループ毎に特徴領域画像の平均画像を生成する。そして、クラスタ分析部214は、認識結果に関連付けた平均画像を、ユーザ端末10に出力する。
Next, the
ここでは、図7に示すように、各グループG1~G3に属する特徴領域画像の平均画像701~703を生成して、ユーザ端末10に出力する。
一方、マスキング処理は不要と判定した場合(ステップS202において「NO」の場合)、支援サーバ20の制御部21は、ステップS109と同様に、特徴情報記憶部23に記録された特徴画像を用いて、特徴画像のクラスタリング処理を実行する(ステップS210)。
Here, as shown in FIG. 7,
On the other hand, when it is determined that the masking process is unnecessary (when "NO" in step S202), the
本実施形態によれば、上記(1-1)~(1-3)の効果に加えて、以下のような効果を、更に得ることができる。
(2-1)本実施形態においては、支援サーバ20の制御部21は、マスキング処理が必要かどうかについての判定処理を実行する(ステップS202)。これにより、特徴画像の生成状況により、特徴領域評価処理の実行の必要性を判定することができる。
According to the present embodiment, in addition to the above-mentioned effects (1-1) to (1-3), the following effects can be further obtained.
(2-1) In the present embodiment, the
(2-2)本実施形態においては、支援サーバ20の制御部21は、部分マスキング処理(ステップS203)、確からしさの算出処理(ステップS204)、確からしさの低下の仮記憶処理(ステップS205)を実行する。これにより、特徴画像の中でも、過去領域の認識結果に与える影響を評価することができる。
(2-2) In the present embodiment, the
(2-3)本実施形態においては、支援サーバ20の制御部21は、確からしさの低下が最大の特徴領域の特定処理を実行する(ステップS207)。これにより、特徴画像において、学習済みモデルの出力に最も影響を与える領域を特定することができる。
(2-3) In the present embodiment, the
(2-4)本実施形態においては、支援サーバ20の制御部21は、特徴領域のクラスタリング処理を実行する(ステップS209)。これにより、認識結果に対して、複数の特徴領域画像を取得した場合にも、クラスタリングによるグループ毎にまとめた特徴を出力することができる。
(2-4) In the present embodiment, the
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記第1実施形態では、コンテンツとして画像に含まれる文字を認識する学習済みモデルの評価を行なう。本発明の適用対象は、画像認識に限定されるものではない。例えば、音信号をテキストに変換する音声認識や、文章に基づいて、感情を認識する学習済みモデルに適用してもよい。
This embodiment can be modified and implemented as follows. The present embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
-In the first embodiment, the trained model that recognizes the characters included in the image as the content is evaluated. The object of application of the present invention is not limited to image recognition. For example, it may be applied to speech recognition that converts a sound signal into text, or a trained model that recognizes emotions based on sentences.
・上記第1実施形態では、支援サーバ20の制御部21は、白黒画像の生成処理を実行する(ステップS101)。最初の画像は白黒画像に限定されるものではない。例えば、全面が白または黒の画像を用いてもよい。また、認識結果の確からしさが高い画像を最初の画像として用いてもよい。
-In the first embodiment, the
・上記第1実施形態では、支援サーバ20の制御部21は、ランダムにピクセル選定処理を実行する(ステップS102)。サンプルコンテンツを網羅的に変更できれば、ピクセルの選択はランダムに限定されるものではない。また、選択するピクセルは、1つに限らず、同時期に複数のピクセルを選択してもよい。
-In the first embodiment, the
・上記第1実施形態では、支援サーバ20の制御部21は、ピクセル反転処理を実行する(ステップS103)。網羅的に変化を加えることができれば、ピクセル反転に限定されるものではない。カラー画像を用いて、画像認識を行なう学習済みモデルの場合には、支援サーバ20の制御部21は、例えば、各ピクセルのRGB値を、順次、変更する。
-In the first embodiment, the
また、音声信号をテキストに変換する学習済みモデルの場合には、支援サーバ20の制御部21は、例えば、音声信号を周波数変換し、各周波数の係数をランダムに変更する。
また、文章から何らかの認識結果を取得する自然言語処理を行なう学習済みモデルの場合には、例えば、文章に含まれる単語を変更する。この場合には、複数のサンプルコンテンツを生成するために、単語を記録した辞書記憶部から、文章に含まれる単語を置き換えるために他の単語を取得する。
Further, in the case of a trained model that converts an audio signal into text, the
Further, in the case of a trained model that performs natural language processing to acquire some recognition result from a sentence, for example, the word included in the sentence is changed. In this case, in order to generate a plurality of sample contents, another word is acquired from the dictionary storage unit in which the word is recorded in order to replace the word contained in the sentence.
・上記第1実施形態では、支援サーバ20の制御部21は、終了かどうかについての判定処理を実行する(ステップS107)。ここでは、レコード数が終了条件を満足している場合に、終了と判定する。終了条件は、これに限定されるものではない。例えば、支援サーバ20の制御部21が、白黒画像の生成処理(ステップS101)を繰り返し、この繰り返し回数を終了条件として用いてもよい。この場合には、支援サーバ20の制御部21が、先行して生成したサンプルコンテンツの確からしさと、後続のサンプルコンテンツの確からしさとを比較して、確からしさが低下した場合に、先行のサンプルコンテンツを特徴画像と判定する。そして、再度、白黒画像の生成処理(ステップS101)からの処理を繰り返し、この繰り返し回数が所定回数に到達した場合に、終了と判定する。
-In the first embodiment, the
・上記第2実施形態では、支援サーバ20の制御部21は、マスキングが必要かどうかについての判定処理を実行する(ステップS202)。この判定では、要否基準値を用いる場合に限定されるものではない。例えば、ユーザ端末10における、担当者の判断の入力結果に基づいて、マスキングの要否を判定するようにしてもよい。この場合には、画像加工部211は、ユーザ端末10に、マスク処理の要否を確認する確認画面を出力する。
-In the second embodiment, the
・上記第2実施形態では、支援サーバ20の制御部21は、確からしさの低下の仮記憶処理を実行する(ステップS205)。ここで、確からしさの低下が基準値以上の特徴領域を特徴情報記憶部23に記録するようにしてもよい。この場合には、評価部213に、特徴領域を判定するための低下基準値に関するデータを保持させておく。そして、評価部213は、特徴画像の確からしさとマスク画像の確からしさとの差分値と低下基準値とを比較し、低下基準値以上の差分値の特徴画像を記録する。
-In the second embodiment, the
・上記第2実施形態では、支援サーバ20の制御部21は、部分マスキング処理を実行する(ステップS203)。具体的には、特徴画像のビットマップ全体の1/4にサイズの黒マスクを用いる。マスクサイズは、これに限定されるものではない。例えば、特徴画像における白黒の分散状況に応じて、マスクサイズを変更してもよい。この場合、分散状況を示す指標値が基準値以下の場合には、マスクサイズを大きくする。
-In the second embodiment, the
10…ユーザ端末、20…支援サーバ、21…制御部、211…画像加工部、212…予測部、213…評価部、214…クラスタ分析部、22…評価対象記憶部、23…特徴情報記憶部。 10 ... user terminal, 20 ... support server, 21 ... control unit, 211 ... image processing unit, 212 ... prediction unit, 213 ... evaluation unit, 214 ... cluster analysis unit, 22 ... evaluation target storage unit, 23 ... feature information storage unit ..
Claims (4)
前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムであって、
前記制御部が、
所定サイズのコンテンツの一部の領域のみをランダムに変更することにより、複数のサンプルコンテンツを生成し、
前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
前記確からしさが基準値以上の前記サンプルコンテンツを特徴コンテンツとして特定し、前記特徴コンテンツをクラスタリングした結果を、前記特徴コンテンツに関する評価結果として出力することを特徴とするモデル評価システム。 An evaluation target storage unit that records the trained model,
It is a model evaluation system that evaluates the trained model by providing a control unit that outputs a recognition result using the trained model.
The control unit
Generate multiple sample contents by randomly changing only a part of the content of a predetermined size .
Each of the sample contents is input to the trained model recorded in the evaluation target storage unit, and the certainty of the recognition result of the sample contents is acquired.
A model evaluation system characterized in that the sample content whose certainty is equal to or higher than a reference value is specified as a feature content, and the result of clustering the feature content is output as an evaluation result regarding the feature content.
前記特徴コンテンツの一部をマスク領域でマスキングしたマスクコンテンツを生成し、
前記マスクコンテンツを、前記評価対象記憶部に記録された学習済みモデルに適用して確からしさを算出し、
前記特徴コンテンツの確からしさと前記マスクコンテンツの確からしさとの差分値を算出し、
前記差分値の大きさに応じて前記マスク領域を特定し、
前記マスク領域をクラスタリングした結果を、更に出力することを特徴とする請求項1に記載のモデル評価システム。 The control unit
A mask content is generated by masking a part of the feature content in the mask area.
The mask content is applied to the trained model recorded in the evaluation target storage unit to calculate the certainty.
The difference value between the certainty of the feature content and the certainty of the mask content is calculated.
The mask area is specified according to the magnitude of the difference value, and the mask area is specified.
The model evaluation system according to claim 1 , wherein the result of clustering the mask area is further output.
前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムを用いて、前記学習済みモデルを評価する方法であって、
前記制御部が、
所定サイズのコンテンツの一部の領域のみをランダムに変更することにより、複数のサンプルコンテンツを生成し、
前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
前記確からしさが基準値以上の前記サンプルコンテンツを特徴コンテンツとして特定し、前記特徴コンテンツをクラスタリングした結果を、前記特徴コンテンツに関する評価結果として出力することを特徴とするモデル評価方法。 An evaluation target storage unit that records the trained model,
It is a method of evaluating the trained model by using a model evaluation system that includes a control unit that outputs a recognition result using the trained model and evaluates the trained model.
The control unit
Generate multiple sample contents by randomly changing only a part of the content of a predetermined size .
Each of the sample contents is input to the trained model recorded in the evaluation target storage unit, and the certainty of the recognition result of the sample contents is acquired.
A model evaluation method characterized in that the sample content whose certainty is equal to or higher than a reference value is specified as a feature content, and the result of clustering the feature content is output as an evaluation result regarding the feature content.
前記学習済みモデルを用いて認識結果を出力する制御部とを備え、前記学習済みモデルを評価するモデル評価システムを用いて、前記学習済みモデルを評価するモデル評価プログラムであって、
前記制御部を、
所定サイズのコンテンツの一部の領域のみをランダムに変更することにより、複数のサンプルコンテンツを生成し、
前記各サンプルコンテンツを、前記評価対象記憶部に記録された学習済みモデルに入力して、前記サンプルコンテンツの認識結果の確からしさを取得し、
前記確からしさが基準値以上の前記サンプルコンテンツを特徴コンテンツとして特定し、前記特徴コンテンツをクラスタリングした結果を、前記特徴コンテンツに関する評価結果として出力する手段として機能させるためのモデル評価プログラム。 An evaluation target storage unit that records the trained model,
It is a model evaluation program that evaluates the trained model by using a model evaluation system that has a control unit that outputs a recognition result using the trained model and evaluates the trained model.
The control unit
Generate multiple sample contents by randomly changing only a part of the content of a predetermined size .
Each of the sample contents is input to the trained model recorded in the evaluation target storage unit, and the certainty of the recognition result of the sample contents is acquired.
A model evaluation program for specifying the sample content whose certainty is equal to or higher than the reference value as the feature content and functioning as a means for outputting the result of clustering the feature content as an evaluation result for the feature content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020182500A JP7085605B2 (en) | 2020-10-30 | 2020-10-30 | Model evaluation system, model evaluation method and model evaluation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020182500A JP7085605B2 (en) | 2020-10-30 | 2020-10-30 | Model evaluation system, model evaluation method and model evaluation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022072841A JP2022072841A (en) | 2022-05-17 |
JP7085605B2 true JP7085605B2 (en) | 2022-06-16 |
Family
ID=81605045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020182500A Active JP7085605B2 (en) | 2020-10-30 | 2020-10-30 | Model evaluation system, model evaluation method and model evaluation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7085605B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015146075A (en) | 2014-01-31 | 2015-08-13 | 株式会社日本デジタル研究所 | accounting data input support system, method, and program |
JP2016110373A (en) | 2014-12-05 | 2016-06-20 | 株式会社デンソー | Curve mirror detection device |
JP2018109906A (en) | 2017-01-05 | 2018-07-12 | 住友電気工業株式会社 | Image data creation program, image data creation device, and image data creation method |
JP2019046390A (en) | 2017-09-06 | 2019-03-22 | 株式会社東芝 | Learning device, method for learning, and program |
JP2020024534A (en) | 2018-08-07 | 2020-02-13 | 日本放送協会 | Image classifier and program |
JP2020061066A (en) | 2018-10-12 | 2020-04-16 | 富士通株式会社 | Learning program, detection program, learning apparatus, detection apparatus, learning method, and detection method |
JP2020119135A (en) | 2019-01-22 | 2020-08-06 | 株式会社日立ハイテク | Image evaluation apparatus and method |
US20200327311A1 (en) | 2019-03-18 | 2020-10-15 | Shenzhen Sensetime Technology Co., Ltd. | Image clustering method and apparatus, electronic device, and storage medium |
-
2020
- 2020-10-30 JP JP2020182500A patent/JP7085605B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015146075A (en) | 2014-01-31 | 2015-08-13 | 株式会社日本デジタル研究所 | accounting data input support system, method, and program |
JP2016110373A (en) | 2014-12-05 | 2016-06-20 | 株式会社デンソー | Curve mirror detection device |
JP2018109906A (en) | 2017-01-05 | 2018-07-12 | 住友電気工業株式会社 | Image data creation program, image data creation device, and image data creation method |
JP2019046390A (en) | 2017-09-06 | 2019-03-22 | 株式会社東芝 | Learning device, method for learning, and program |
JP2020024534A (en) | 2018-08-07 | 2020-02-13 | 日本放送協会 | Image classifier and program |
JP2020061066A (en) | 2018-10-12 | 2020-04-16 | 富士通株式会社 | Learning program, detection program, learning apparatus, detection apparatus, learning method, and detection method |
JP2020119135A (en) | 2019-01-22 | 2020-08-06 | 株式会社日立ハイテク | Image evaluation apparatus and method |
US20200327311A1 (en) | 2019-03-18 | 2020-10-15 | Shenzhen Sensetime Technology Co., Ltd. | Image clustering method and apparatus, electronic device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2022072841A (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108628971B (en) | Text classification method, text classifier and storage medium for unbalanced data set | |
RU2661750C1 (en) | Symbols recognition with the use of artificial intelligence | |
US20180061439A1 (en) | Automatic audio captioning | |
CN108182437B (en) | Click verification code identification method and device and user terminal | |
JP7532860B2 (en) | Generating Optical Character Recognition Training Data for Neural Networks by Analysing Page Description Language Jobs. | |
CN112329476B (en) | Text error correction method and device, equipment and storage medium | |
CN108959474B (en) | Entity relation extraction method | |
US20220036068A1 (en) | Method and apparatus for recognizing image, electronic device and storage medium | |
CN114648681B (en) | Image generation method, device, equipment and medium | |
CN111783812A (en) | Method and device for identifying forbidden images and computer readable storage medium | |
CN112801085A (en) | Method, device, medium and electronic equipment for recognizing characters in image | |
CN110717407A (en) | Human face recognition method, device and storage medium based on lip language password | |
CN117851826A (en) | Model construction method, model construction device, apparatus, and storage medium | |
CN114972910B (en) | Training method and device for image-text recognition model, electronic equipment and storage medium | |
Tymoshenko et al. | Real-Time Ukrainian Text Recognition and Voicing. | |
CN113689514B (en) | Theme-oriented image scene graph generation method | |
JP7085605B2 (en) | Model evaluation system, model evaluation method and model evaluation program | |
CN111488927B (en) | Classification threshold determining method, device, electronic equipment and storage medium | |
CN112465805A (en) | Neural network training method for quality detection of steel bar stamping and bending | |
CN115049899B (en) | Model training method, reference expression generation method and related equipment | |
CN115565186B (en) | Training method and device for character recognition model, electronic equipment and storage medium | |
US11669949B2 (en) | Apparatus and method for inferring contrast score of an image | |
CN115546813A (en) | Document analysis method and device, storage medium and equipment | |
CN116958615A (en) | Picture identification method, device, equipment and medium | |
CN113610080A (en) | Cross-modal perception-based sensitive image identification method, device, equipment and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7085605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |