[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2022138266A - Method of discriminating class of discriminated data using machine learning model, information processing apparatus, and computer program - Google Patents

Method of discriminating class of discriminated data using machine learning model, information processing apparatus, and computer program Download PDF

Info

Publication number
JP2022138266A
JP2022138266A JP2021038054A JP2021038054A JP2022138266A JP 2022138266 A JP2022138266 A JP 2022138266A JP 2021038054 A JP2021038054 A JP 2021038054A JP 2021038054 A JP2021038054 A JP 2021038054A JP 2022138266 A JP2022138266 A JP 2022138266A
Authority
JP
Japan
Prior art keywords
class
machine learning
similarity
data
classes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021038054A
Other languages
Japanese (ja)
Inventor
亮基 渡邊
Ryoki Watanabe
光 倉沢
Hikaru Kurasawa
秦 西村
Shin Nishimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021038054A priority Critical patent/JP2022138266A/en
Publication of JP2022138266A publication Critical patent/JP2022138266A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a technique that discriminates a class of discriminated data by a method other than a normal method using a discrimination result at an output layer of a neural network.SOLUTION: A class discrimination method includes: a step (a) of preparing M pairs of known characteristic spectrum groups corresponding to M machine learning models; and a step (b) of performing class discrimination processing of discriminated data using the M machine learning models and M known characteristic spectrum groups. The step (b) includes: a step (b1) of calculating M characteristic spectra from an output of a specific layer of the M machine learning models; a step (b2) of calculating a similarity for each class relating to each of the machine learning models as a similarity between the characteristic spectrum and the known characteristic spectrum group, and obtaining a reliability for each class depending on the similarity for each class; and a step (b3) of outputting a discrimination result list in which a plurality of classes are arranged in an order of the reliability of each of the classes.SELECTED DRAWING: Figure 3

Description

本開示は、機械学習モデルを用いて被判別データのクラスを判別する方法、情報処理装置、及び、コンピュータープログラムに関する。 The present disclosure relates to a method, an information processing device, and a computer program for discriminating a class of data to be discriminated using a machine learning model.

特許文献1,2には、ベクトルニューロンを用いるベクトルニューラルネットワーク型の機械学習モデルとして、カプセルネットワークと呼ばれるものが開示されている。ベクトルニューロンとは、入出力がベクトルであるニューロンを意味する。カプセルネットワークは、カプセルと呼ばれるベクトルニューロンをネットワークのノードとする機械学習モデルである。カプセルネットワークなどのベクトルニューラルネットワーク型の機械学習モデルは、入力データのクラス判別に利用することができる。 Patent Documents 1 and 2 disclose what is called a capsule network as a vector neural network type machine learning model using vector neurons. A vector neuron means a neuron whose inputs and outputs are vectors. A capsule network is a machine learning model whose network nodes are vector neurons called capsules. Vector neural network type machine learning models such as capsule networks can be used for class discrimination of input data.

米国特許第5210798号公報U.S. Pat. No. 5,210,798 国際公開2019/083553号公報International Publication No. 2019/083553

本開示の発明者は、従来技術では、ニューラルネットワークの中間層において抽出される特徴が、出力層でのクラス判別結果に正しく反映されず、クラス判別結果が誤ってしまう場合があるという問題があることを見いだした。本開示は、ニューラルネットワークの出力層での判別結果をそのまま用いる通常の方法とは別の方法で、被判別データのクラス判別を行う技術を提供する。また、本開示は、当該別の方法に組み合せられても当該別の方法から分離しても、判別精度の向上に貢献する教師データの処理技術を提供する。 The inventor of the present disclosure has the problem that in the conventional technology, the features extracted in the intermediate layer of the neural network are not correctly reflected in the class discrimination results in the output layer, and the class discrimination results may be erroneous. I found out. The present disclosure provides a technique for performing class discrimination of data to be discriminated by a method different from the usual method of directly using the discrimination result in the output layer of the neural network. In addition, the present disclosure provides a training data processing technique that contributes to improvement in discrimination accuracy, whether combined with or separated from the other method.

本開示の第1の形態によれば、Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する方法が提供される。前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとする。前記方法は、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を準備する工程であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、工程と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する工程と、を含む。前記工程(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する工程と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る工程と、(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する工程と、を含む。 According to the first aspect of the present disclosure, when M is an integer of 1 or more, the class of data to be discriminated is determined using M vector neural network type machine learning models having a plurality of vector neuron layers. A method is provided. The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. and The method includes the step of: (a) preparing M sets of known feature spectra groups associated with the M machine learning models, wherein the M sets of known feature spectra groups are Nm for each machine learning model; (b) a known feature spectrum group obtained from the output of a specific layer of the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of the classes is input; using the M machine learning models and the M known feature spectra groups to perform class discrimination processing of the data to be discriminated. The step (b) includes (b1) calculating M feature spectra from the output of the specific layer in response to the input of the data to be discriminated to the M machine learning models; and (b2) the As the similarity between the M feature spectra and the M sets of known feature spectra, calculate the class similarity for each of the Nm classes in each machine learning model, and the class similarity (b3) obtaining M sets of class-wise confidences associated with the M machine learning models by obtaining dependent class-wise confidences; and outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in order of reliability of each class.

本開示の第2の形態によれば、Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する方法が提供される。この方法は、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を準備する工程であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、工程と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する工程と、を含む。前記工程(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する工程と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る工程と、(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する工程と、を含む。 According to the second form of the present disclosure, when M is an integer of 2 or more, the class of data to be discriminated is determined using M vector neural network type machine learning models having a plurality of vector neuron layers. A method is provided. This method includes (a) a step of preparing M sets of known feature spectra groups associated with the M machine learning models, wherein the M sets of known feature spectra groups are Nm for each machine learning model. (b) a known feature spectrum group obtained from the output of a specific layer of the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of the classes is input; using the M machine learning models and the M known feature spectra groups to perform class discrimination processing of the data to be discriminated. The step (b) includes (b1) calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and generating M discriminant classes (b2) calculating a discriminant class similarity for each of the M discriminant classes as a similarity between the M feature spectra and the M sets of known feature spectra, and obtaining a model confidence for each of the M machine learning models by obtaining a model confidence dependent on the discriminant class similarity; (b3) among the M discriminant classes, the model confidence; outputting the discriminant class obtained from the machine learning model with the highest , as a class discrimination result for the data to be discriminated.

本開示の第3の形態によれば、Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する情報処理装置が提供される。この情報処理装置は、前記M個の機械学習モデルを記憶するメモリーと、前記M個の機械学習モデルを用いた演算を実行するプロセッサーと、を備える。前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとする。前記プロセッサーは、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を前記メモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、を実行する。前記処理(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する処理と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る処理と、(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する処理と、を含む。 According to the third aspect of the present disclosure, when M is an integer of 1 or more, the class of data to be discriminated is determined using M vector neural network type machine learning models having a plurality of vector neuron layers. An information processing device is provided. This information processing apparatus includes a memory that stores the M machine learning models, and a processor that performs calculations using the M machine learning models. The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. and The processor performs (a) a process of reading M sets of known feature spectra groups associated with the M machine learning models from the memory, wherein the M sets of known feature spectra groups are each machine learning model A process including a group of known feature spectra obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of Nm classes is input to ( b) using the M machine learning models and the M known feature spectrum groups to perform class discrimination processing of the data to be discriminated. The process (b) includes (b1) a process of calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and (b2) the As the similarity between the M feature spectra and the M sets of known feature spectra, calculate the class similarity for each of the Nm classes in each machine learning model, and the class similarity (b3) a process of obtaining M sets of class confidences associated with the M machine learning models by obtaining the class confidences that depend on them; and (b3) the M sets of class confidences represented by a process of outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in order of reliability of each class.

本開示の第4の形態によれば、Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する情報処理装置が提供される。この情報処理装置は、前記M個の機械学習モデルを記憶するメモリーと、前記M個の機械学習モデルを用いた演算を実行するプロセッサーと、を備える。前記プロセッサーは、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を前記メモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、を実行する。前記処理(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する処理と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る処理と、(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する処理と、を含む。 According to the fourth aspect of the present disclosure, when M is an integer of 2 or more, the class of data to be discriminated is determined using M vector neural network type machine learning models having a plurality of vector neuron layers. An information processing device is provided. This information processing apparatus includes a memory that stores the M machine learning models, and a processor that performs calculations using the M machine learning models. The processor performs (a) a process of reading M sets of known feature spectra groups associated with the M machine learning models from the memory, wherein the M sets of known feature spectra groups are each machine learning model A process including a group of known feature spectra obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of Nm classes is input to ( b) using the M machine learning models and the M known feature spectrum groups to perform class discrimination processing of the data to be discriminated. The process (b) includes (b1) calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and generating M discriminant classes and (b2) calculating the discriminant class similarity for each of the M discriminant classes as the similarity between the M feature spectra and the M sets of known feature spectra, (b3) a process of obtaining model reliability for each of the M machine learning models by obtaining model reliability that depends on the discriminant class similarity; and (b3) the model reliability among the M discriminant classes outputting the discriminant class obtained from the machine learning model with the highest value as the class discrimination result for the data to be discriminated.

本開示の第5の形態によれば、Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別するクラス判別処理をプロセッサーに実行させるコンピュータープログラムが提供される。前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとする。前記コンピュータープログラムは、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群をメモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、を前記プロセッサーに実行させるコンピュータープログラムである。前記処理(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する処理と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る処理と、(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する処理と、を含む。 According to the fifth aspect of the present disclosure, when M is an integer of 1 or more, the class of data to be discriminated is determined using M vector neural network type machine learning models having a plurality of vector neuron layers. A computer program is provided that causes a processor to perform a class determination process for The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. and The computer program includes (a) a process of reading from memory M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are each machine learning model; A process including a group of known feature spectra obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of Nm classes is input to ( b) a computer program that causes the processor to execute a process of classifying the data to be classified using the M machine learning models and the M known feature spectrum groups. The process (b) includes (b1) a process of calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and (b2) the As the similarity between the M feature spectra and the M sets of known feature spectra, calculate the class similarity for each of the Nm classes in each machine learning model, and the class similarity (b3) a process of obtaining M sets of class confidences associated with the M machine learning models by obtaining the class confidences that depend on them; and (b3) the M sets of class confidences represented by a process of outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in order of reliability of each class.

本開示の第6の形態によれば、Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別するクラス判別処理をプロセッサーに実行させるコンピュータープログラムが提供される。このコンピュータープログラムは、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群をメモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、を前記プロセッサーに実行させるコンピュータープログラムである。前記処理(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する処理と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る処理と、(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する処理と、を含む。 According to the sixth aspect of the present disclosure, when M is an integer of 2 or more, the class of data to be discriminated is determined using M vector neural network type machine learning models having a plurality of vector neuron layers. A computer program is provided that causes a processor to perform a class determination process for This computer program includes (a) a process of reading out from a memory M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are each machine learning model; A process including a group of known feature spectra obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of Nm classes is input to ( b) a computer program that causes the processor to execute a process of classifying the data to be classified using the M machine learning models and the M known feature spectrum groups. The process (b) includes (b1) calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and generating M discriminant classes and (b2) calculating the discriminant class similarity for each of the M discriminant classes as the similarity between the M feature spectra and the M sets of known feature spectra, (b3) a process of obtaining model reliability for each of the M machine learning models by obtaining model reliability that depends on the discriminant class similarity; and (b3) the model reliability among the M discriminant classes outputting the discriminant class obtained from the machine learning model with the highest value as the class discrimination result for the data to be discriminated.

実施形態におけるクラス判別システムのブロック図。1 is a block diagram of a class determination system according to an embodiment; FIG. 情報処理装置のブロック図。1 is a block diagram of an information processing device; FIG. 機械学習モデルの構成を示す説明図。Explanatory drawing which shows the structure of a machine-learning model. 機械学習モデルの他の構成を示す説明図。Explanatory drawing which shows the other structure of a machine-learning model. 第1実施形態におけるクラス判別処理部の機能を示すブロック図。FIG. 4 is a block diagram showing functions of a class determination processing unit according to the first embodiment; 機械学習モデルの準備工程を示すフローチャート。A flow chart showing a preparation process of a machine learning model. クラスタリング処理された教師データを示す説明図。Explanatory drawing which shows the teacher data by which the clustering process was carried out. 特徴スペクトルを示す説明図。Explanatory drawing which shows a characteristic spectrum. 教師データを用いて既知特徴スペクトル群を作成する様子を示す説明図。FIG. 4 is an explanatory diagram showing how a group of known feature spectra is created using teacher data; 既知特徴スペクトル群の構成を示す説明図。Explanatory drawing which shows the structure of a known-feature spectrum group. 第1実施形態における媒体判別/印刷工程の処理手順を示すフローチャート。4 is a flow chart showing a processing procedure of a medium discrimination/printing process in the first embodiment; 被判別データに関するクラス別類似度を求める様子を示す説明図。FIG. 10 is an explanatory diagram showing how a similarity degree by class regarding data to be discriminated is obtained; 判別結果リストの一例を示す説明図。Explanatory drawing which shows an example of the discrimination|determination result list|wrist. 第2実施形態におけるクラス判別処理部の機能を示すブロック図。The block diagram which shows the function of the class discrimination|determination process part in 2nd Embodiment. 第3実施形態におけるクラス判別処理部の機能を示すブロック図。The block diagram which shows the function of the class discrimination|determination process part in 3rd Embodiment. 第3実施形態における媒体判別/印刷工程の処理手順を示すフローチャート。10 is a flow chart showing a processing procedure of a medium discrimination/printing process in the third embodiment; 第4実施形態におけるクラス判別処理部の機能を示すブロック図。The block diagram which shows the function of the class discrimination|determination process part in 4th Embodiment. 第5実施形態におけるクラス判別処理部の機能を示すブロック図。The block diagram which shows the function of the class discrimination|determination process part in 5th Embodiment. クラス別類似度の第1の演算方法を示す説明図。Explanatory drawing which shows the 1st calculation method of the similarity degree according to class. クラス別類似度の第2の演算方法を示す説明図。Explanatory drawing which shows the 2nd calculation method of the similarity degree according to class. クラス別類似度の第3の演算方法を示す説明図。Explanatory drawing which shows the 3rd calculation method of the similarity according to class. 複数の特定層を用いた場合のクラス別類似度の選択方法を示す説明図。FIG. 10 is an explanatory diagram showing a method of selecting similarities by class when using a plurality of specific layers;

A. 第1実施形態:
図1は、第1実施形態におけるクラス判別システムを示すブロック図である。このクラス判別システムは、プリンター10と、情報処理装置20と、分光測定器30とを有する印刷システムである。分光測定器30は、プリンター10で使用される印刷媒体PMについて、未印刷の状態で分光測定を行って、分光反射率を取得することが可能である。本開示において、分光反射率を「分光データ」とも呼ぶ。分光測定器30は、例えば、波長可変干渉分光フィルターと、モノクロイメージセンサーとを備える。分光測定器30で得られた分光データは、後述する機械学習モデルに入力される被判別データとして使用される。情報処理装置20は、機械学習モデルを用いて分光データのクラス判別処理を実行し、印刷媒体PMが複数のクラスのいずれに該当するかを判別する。「印刷媒体PMのクラス」とは、印刷媒体PMの種類を意味する。情報処理装置20は、印刷媒体PMの種類に応じた適切な印刷条件で印刷を実行するようにプリンター10を制御する。また、情報処理装置20は、判別した印刷媒体PMの種類をプリンタディスプレイに表示させるようにしてもよい。こうすれば、ユーザーが意図したメディアと異なったメディアを設置したままプリンターを駆動させることを未然に防ぐことができる。なお、本開示によるクラス判別システムは、印刷システム以外のシステムとしても実現可能であり、例えば、被判別画像や、分光データ以外の1次元データ、分光画像、時系列データなどを被判別データとしてクラス判別を行うシステムとして実現してもよい。
A. First Embodiment:
FIG. 1 is a block diagram showing a class discrimination system according to the first embodiment. This class determination system is a printing system having a printer 10 , an information processing device 20 and a spectrometer 30 . The spectrometer 30 can spectroscopically measure the unprinted print medium PM used in the printer 10 to obtain the spectral reflectance. In the present disclosure, spectral reflectance is also referred to as "spectral data". The spectrometer 30 includes, for example, a tunable interference spectrum filter and a monochrome image sensor. The spectroscopic data obtained by the spectrometer 30 is used as discriminated data input to a machine learning model, which will be described later. The information processing apparatus 20 uses a machine learning model to perform class determination processing of spectral data, and determines to which of a plurality of classes the print medium PM belongs. The “class of print medium PM” means the type of print medium PM. The information processing device 20 controls the printer 10 so as to execute printing under appropriate printing conditions according to the type of print medium PM. Further, the information processing apparatus 20 may display the determined type of the printing medium PM on the printer display. By doing this, it is possible to prevent the printer from being driven while a medium different from the one intended by the user is installed. The class determination system according to the present disclosure can also be implemented as a system other than a printing system. For example, images to be determined, one-dimensional data other than spectral data, spectral images, time series data, etc. It may be realized as a system that performs determination.

図2は、情報処理装置20の機能を示すブロック図である。情報処理装置20は、プロセッサー110と、メモリー120と、インターフェイス回路130と、インターフェイス回路130に接続された入力デバイス140及び表示部150と、を有している。インターフェイス回路130には、分光測定器30とプリンター10も接続されている。限定されないが例えば、プロセッサー110は、以下で詳述される処理を実行する機能を有するだけでなく、表示部150に、当該処理によって得られるデータ、および当該処理の過程で生成されるデータを表示する機能も有する。 FIG. 2 is a block diagram showing functions of the information processing device 20. As shown in FIG. The information processing apparatus 20 has a processor 110 , a memory 120 , an interface circuit 130 , an input device 140 and a display section 150 connected to the interface circuit 130 . The spectrometer 30 and the printer 10 are also connected to the interface circuit 130 . For example, without limitation, the processor 110 not only has the function of executing the processing detailed below, but also displays data obtained by the processing and data generated during the processing on the display unit 150. It also has the function to

プロセッサー110は、プリンター10を用いた印刷処理を実行する印刷処理部112として機能し、また、印刷媒体PMの分光データのクラス判別処理を実行するクラス判別処理部114として機能する。クラス判別処理部114は、類似度演算部310と総合判定部320とを含む。印刷処理部112とクラス判別処理部114は、メモリー120に格納されたコンピュータープログラムをプロセッサー110が実行することによって実現される。但し、これらの各部112,114をハードウェア回路で実現してもよい。本明細書のプロセッサーは、このようなハードウェア回路をも含む用語である。また、クラス判別処理を実行するプロセッサーは、ネットワークを介して情報処理装置20に接続されたリモートコンピューターに含まれるプロセッサーであってもよい。 The processor 110 functions as a print processing unit 112 that executes print processing using the printer 10, and functions as a class determination processing unit 114 that executes class determination processing for spectral data of the print medium PM. The class determination processing unit 114 includes a similarity calculation unit 310 and a comprehensive determination unit 320 . The print processing unit 112 and the class determination processing unit 114 are implemented by the processor 110 executing computer programs stored in the memory 120 . However, these units 112 and 114 may be realized by hardware circuits. A processor herein is a term that also includes such hardware circuitry. Also, the processor that executes the class determination process may be a processor included in a remote computer connected to the information processing device 20 via a network.

メモリー120には、複数の機械学習モデル200と、複数の教師データ群TDと、複数の既知特徴スペクトル群KSpと、印刷設定テーブルPSTと、が格納される。機械学習モデル200は、クラス判別処理部114による処理に使用される。機械学習モデル200の構成例や動作については後述する。教師データ群TDは、機械学習モデル200の学習に使用されるラベル付きのデータの集合である。本実施形態では、教師データ群TDは分光データの集合である。既知特徴スペクトル群KSpは、学習済みの機械学習モデル200に教師データ群TDを入力した際に得られる特徴スペクトルの集合である。特徴スペクトルについては後述する。印刷設定テーブルPSTは、各印刷媒体に適した印刷設定が登録されたテーブルである。機械学習モデル200の数を整数Mで表すとき、Mは1以上の任意の数に設定可能である。本実施形態では、2つの機械学習モデル200を使用する場合を説明する。教師データ群TDと既知特徴スペクトル群KSpは、機械学習モデル200に対応したものがそれぞれ使用される。 The memory 120 stores a plurality of machine learning models 200, a plurality of teacher data groups TD, a plurality of known feature spectrum groups KSp, and a print setting table PST. The machine learning model 200 is used for processing by the class determination processing unit 114 . A configuration example and operation of the machine learning model 200 will be described later. A teacher data group TD is a set of labeled data used for learning of the machine learning model 200 . In this embodiment, the teacher data group TD is a set of spectral data. The known feature spectrum group KSp is a set of feature spectra obtained when the teacher data group TD is input to the trained machine learning model 200 . A feature spectrum will be described later. The print setting table PST is a table in which print settings suitable for each print medium are registered. When the number of machine learning models 200 is represented by an integer M, M can be set to any number equal to or greater than 1. In this embodiment, the case of using two machine learning models 200 will be described. As the teacher data group TD and the known feature spectrum group KSp, those corresponding to the machine learning model 200 are used.

図3は、機械学習モデル200の構成を示す説明図である。この機械学習モデル200は、入力データIMの側から順に、畳み込み層210と、プライマリーベクトルニューロン層220と、第1畳み込みベクトルニューロン層230と、第2畳み込みベクトルニューロン層240と、分類ベクトルニューロン層250とを備える。これらの5つの層210~250のうち、畳み込み層210が最も下位の層であり、分類ベクトルニューロン層250が最も上位の層である。以下の説明では、層210~250を、それぞれ「Conv層210」、「PrimeVN層220」、「ConvVN1層230」、「ConvVN2層240」、及び「ClassVN層250」とも呼ぶ。 FIG. 3 is an explanatory diagram showing the configuration of the machine learning model 200. As shown in FIG. This machine learning model 200 includes a convolutional layer 210, a primary vector neuron layer 220, a first convolutional vector neuron layer 230, a second convolutional vector neuron layer 240, and a classification vector neuron layer 250 in order from the input data IM side. and Of these five layers 210-250, the convolutional layer 210 is the lowest layer and the classification vector neuron layer 250 is the highest layer. In the following discussion, layers 210-250 are also referred to as "Conv layer 210," "PrimeVN layer 220," "ConvVN1 layer 230," "ConvVN2 layer 240," and "ClassVN layer 250," respectively.

本実施形態において、入力データIMは分光データなので、1次元配列のデータである。例えば、入力データIMは、380nm~730nmの範囲の分光データから、10nm毎に36個の代表値を抽出したデータである。 In the present embodiment, the input data IM is spectral data, so it is one-dimensional array data. For example, the input data IM is data obtained by extracting 36 representative values every 10 nm from spectral data in the range of 380 nm to 730 nm.

図3の例では2つの畳み込みベクトルニューロン層230,240を用いているが、畳み込みベクトルニューロン層の数は任意であり、畳み込みベクトルニューロン層を省略してもよい。但し、1つ以上の畳み込みベクトルニューロン層を用いることが好ましい。 Although two convolution vector neuron layers 230 and 240 are used in the example of FIG. 3, the number of convolution vector neuron layers is arbitrary and the convolution vector neuron layers may be omitted. However, it is preferable to use one or more convolutional vector neuron layers.

図3の各層210~250の構成は、以下のように記述できる。
<機械学習モデル200の構成の記述>
・Conv層210:Conv[32,6,2]
・PrimeVN層220:PrimeVN[26,1,1]
・ConvVN1層230:ConvVN1[20,5,2]
・ConvVN2層240:ConvVN2[16,4,1]
・ClassVN層250:ClassVN[Nm,3,1]
・ベクトル次元VD:VD=16
これらの各層210~250の記述において、括弧前の文字列はレイヤー名であり、括弧内の数字は、順に、チャンネル数、カーネルの表面サイズ、及び、ストライドである。例えば、Conv層210のレイヤー名は「Conv」であり、チャンネル数は32、カーネルの表面サイズは1×6、ストライドは2である。図3では、各層の下にこれらの記述が示されている。各層の中に描かれているハッチングを付した矩形は、隣接する上位層の出力ベクトルを算出する際に使用されるカーネルの表面サイズを表している。本実施形態では、入力データIMが1次元配列のデータなので、カーネルの表面サイズも1次元である。なお、各層210~250の記述で用いたパラメーターの値は例示であり、任意に変更可能である。
The configuration of each layer 210-250 in FIG. 3 can be described as follows.
<Description of Configuration of Machine Learning Model 200>
Conv layer 210: Conv[32,6,2]
- PrimeVN layer 220: PrimeVN[26,1,1]
ConvVN1 layer 230: ConvVN1[20,5,2]
ConvVN2 layer 240: ConvVN2[16,4,1]
- ClassVN layer 250: ClassVN[Nm,3,1]
・Vector dimension VD: VD=16
In the description of each of these layers 210-250, the character string before the parentheses is the layer name, and the numbers inside the parentheses are the number of channels, the surface size of the kernel, and the stride, respectively. For example, the Conv layer 210 has the layer name “Conv”, the number of channels is 32, the kernel surface size is 1×6, and the stride is 2. These descriptions are shown under each layer in FIG. The hatched rectangle drawn in each layer represents the surface size of the kernel used in calculating the output vector of the adjacent upper layer. In this embodiment, since the input data IM is one-dimensional array data, the surface size of the kernel is also one-dimensional. Note that the parameter values used in the description of each layer 210 to 250 are examples and can be changed arbitrarily.

Conv層210は、スカラーニューロンで構成された層である。他の4つの層220~250は、ベクトルニューロンで構成された層である。ベクトルニューロンは、ベクトルを入出力とするニューロンである。上記の記述では、個々のベクトルニューロンの出力ベクトルの次元は16で一定である。以下では、スカラーニューロン及びベクトルニューロンの上位概念として「ノード」という語句を使用する。 The Conv layer 210 is a layer composed of scalar neurons. The other four layers 220-250 are layers composed of vector neurons. A vector neuron is a neuron whose input and output are vectors. In the above description, the dimensions of the output vectors of the individual vector neurons are 16 and constant. In the following, the term "node" is used as a superordinate concept for scalar neurons and vector neurons.

図3では、Conv層210について、ノード配列の平面座標を規定する第1軸x及び第2軸yと、奥行きを表す第3軸zとが示されている。また、Conv層210のx,y,z方向のサイズが1,16,32であることが示されている。x方向のサイズとy方向のサイズを「解像度」と呼ぶ。本実施形態では、x方向の解像度は常に1である。z方向のサイズは、チャンネル数である。これらの3つの軸x,y,zは、他の層においても各ノードの位置を示す座標軸として使用する。但し、図3では、Conv層210以外の層では、これらの軸x,y,zの図示が省略されている。 In FIG. 3, for the Conv layer 210, a first axis x and a second axis y defining the plane coordinates of the node array and a third axis z representing depth are shown. It also shows that the Conv layer 210 has sizes of 1, 16, and 32 in the x, y, and z directions. The size in the x direction and the size in the y direction are called "resolution". In this embodiment, the x-direction resolution is always one. The size in the z direction is the number of channels. These three axes x, y, and z are also used as coordinate axes indicating the position of each node in other layers. However, in FIG. 3, illustration of these axes x, y, and z in layers other than the Conv layer 210 is omitted.

よく知られているように、畳み込み後のy方向の解像度W1は、次式で与えられる。
W1=Ceil{(W0-Wk+1)/S} (1)
ここで、W0は畳み込み前の解像度、Wkはカーネルの表面サイズ、Sはストライド、Ceil{X}はXの小数点以下を切り上げる演算を行う関数である。
図3に示した各層の解像度は、入力データIMのy方向の解像度を36とした場合の例であり、実際の各層の解像度は入力データIMのサイズに応じて適宜変更される。
As is well known, the y-direction resolution W1 after convolution is given by the following equation.
W1=Ceil{(W0-Wk+1)/S} (1)
Here, W0 is the resolution before convolution, Wk is the surface size of the kernel, S is the stride, and Ceil{X} is a function for rounding up the decimal part of X.
The resolution of each layer shown in FIG. 3 is an example when the y-direction resolution of the input data IM is 36, and the actual resolution of each layer is appropriately changed according to the size of the input data IM.

ClassVN層250は、Nm個のチャンネルを有している。図3の例ではNm=3である。一般に、Nmは2以上の整数であり、機械学習モデル200を用いて判別可能な既知のクラスの数である。判別可能なクラス数Nmは、機械学習モデル200毎に異なる値を設定可能である。M個の機械学習モデル200で判別可能なクラスの合計数は、ΣNmで表される。ClassVN層250の3つのチャンネルからは、3つの既知のクラスに対する判定値Class1~Class3が出力される。通常は、これらの判定値Class1~Class3のうちで最も大きな値を有するクラスが、入力データIMのクラス判別結果として使用される。また、判定値Class1~Class3のうちで最も大きな値が予め定められた閾値未満である場合には、入力データIMのクラスが未知であるものと判定するようにしてもよい。 The ClassVN layer 250 has Nm channels. In the example of FIG. 3, Nm=3. In general, Nm is an integer greater than or equal to 2 and is the number of known classes discriminable using machine learning model 200 . A different value can be set for each machine learning model 200 for the number of distinguishable classes Nm. The total number of classes discriminable by the M machine learning models 200 is represented by ΣNm. The three channels of the ClassVN layer 250 output judgment values Class1 to Class3 for the three known classes. Usually, the class having the largest value among these judgment values Class1 to Class3 is used as the class discrimination result of the input data IM. Further, when the largest value among the determination values Class1 to Class3 is less than a predetermined threshold value, it may be determined that the class of the input data IM is unknown.

本開示では、後述するように、出力層であるClassVN層250の判定値Class1~Class3を使用する代わりに、特定のベクトルニューロン層の出力から算出される類似度を使用して、判別クラスを決定する手法をとっても良い。また、1つの判別クラスを決定するのではなく、類似度順又は類似度に依存する信頼度順に複数のクラスを配列した判別結果リストを出力することも可能である。第1実施形態では、判別結果リストを出力してユーザーに提示する方法を採用する。 In the present disclosure, as described later, instead of using the judgment values Class1 to Class3 of the ClassVN layer 250, which is the output layer, the similarity calculated from the output of a specific vector neuron layer is used to determine the discriminant class. It's a good way to do it. It is also possible to output a discrimination result list in which a plurality of classes are arranged in order of similarity or in order of reliability dependent on similarity, instead of determining one discrimination class. In the first embodiment, a method of outputting a discrimination result list and presenting it to the user is adopted.

図3では、更に、各層210,220,230,240,250における部分領域Rnが描かれている。部分領域Rnの添え字「n」は、各層の符号である。例えば、部分領域R210は、Conv層210における部分領域を示す。「部分領域Rn」とは、各層において、第1軸xの位置と第2軸yとの位置で規定される平面位置(x,y)で特定され、第3軸zに沿った複数のチャンネルを含む領域である。部分領域Rnは、第1軸x、第2軸y、および第3軸zに対応する「Width」×「Height」×「Depth」の次元を有する。本実施形態では、1つの「部分領域Rn」に含まれるノードの数は「1×1×デプス数」、すなわち「1×1×チャンネル数」である。 In FIG. 3, partial regions Rn in each layer 210, 220, 230, 240, 250 are also depicted. The suffix “n” of the partial region Rn is the code for each layer. For example, partial region R210 indicates a partial region in Conv layer 210. FIG. The “partial region Rn” is specified by a plane position (x, y) defined by the position of the first axis x and the position of the second axis y in each layer, and a plurality of channels along the third axis z is a region containing The partial region Rn has dimensions of “Width”דHeight”דDepth” corresponding to the first axis x, the second axis y, and the third axis z. In this embodiment, the number of nodes included in one “partial region Rn” is “1×1×number of depths”, that is, “1×1×number of channels”.

図3に示すように、ConvVN1層230の出力から後述する特徴スペクトルSp_ConvVN1が算出されて、類似度演算部310に入力される。同様に、ConvVN2層240とClassVN層250の出力から特徴スペクトルSp_ConvVN2,Sp_ClassVNがそれぞれ算出されて類似度演算部310に入力される。類似度演算部310は、これらの特徴スペクトルSp_ConvVN1,Sp_ConvVN,Sp_ClassVNと、予め作成されていた既知特徴スペクトル群KSpとを用いて、後述するクラス別類似度を算出し、クラス別類似度に依存するクラス別信頼度をそれぞれ算出する。 As shown in FIG. 3 , a feature spectrum Sp_ConvVN1, which will be described later, is calculated from the output of the ConvVN1 layer 230 and input to the similarity calculation section 310 . Similarly, feature spectra Sp_ConvVN2 and Sp_ClassVN are calculated from the outputs of the ConvVN2 layer 240 and the ClassVN layer 250 and input to the similarity calculation section 310 . The similarity calculation unit 310 uses these feature spectra Sp_ConvVN1, Sp_ConvVN, Sp_ClassVN and a known feature spectrum group KSp created in advance to calculate similarities by class, which will be described later, and depends on the similarities by class. Calculate the reliability for each class.

本開示において、類似度の算出に使用されるベクトルニューロン層を、「特定層」とも呼ぶ。特定層としては、1つ以上の任意の数のベクトルニューロン層を使用可能である。なお、特徴スペクトルの構成と、特徴スペクトルを用いた類似度や信頼度の演算方法については後述する。 In the present disclosure, the vector neuron layer used for similarity calculation is also called "specific layer". Any number of one or more vector neuron layers can be used as the specific layer. The structure of the feature spectrum and the method of calculating the degree of similarity and the degree of reliability using the feature spectrum will be described later.

図4は、機械学習モデル200の他の構成を示す説明図である。この機械学習モデル200は、入力データIMが2次元配列のデータである点で、1次元配列の入力データを用いる図3の機械学習モデル200と異なっている。図4の各層210~250の構成は、以下のように記述できる。
<各層の構成の記述>
・Conv層210:Conv[32,5,2]
・PrimeVN層220:PrimeVN[16,1,1]
・ConvVN1層230:ConvVN1[12,3,2]
・ConvVN2層240:ConvVN2[6,3,1]
・ClassVN層250:ClassVN[Nm,4,1]
・ベクトル次元VD:VD=16
FIG. 4 is an explanatory diagram showing another configuration of the machine learning model 200. As shown in FIG. This machine learning model 200 differs from the machine learning model 200 of FIG. 3 using one-dimensional array input data in that the input data IM is two-dimensional array data. The configuration of each layer 210-250 in FIG. 4 can be described as follows.
<Description of the configuration of each layer>
Conv layer 210: Conv[32,5,2]
- PrimeVN layer 220: PrimeVN[16,1,1]
ConvVN1 layer 230: ConvVN1[12,3,2]
ConvVN2 layer 240: ConvVN2[6,3,1]
- ClassVN layer 250: ClassVN[Nm,4,1]
・Vector dimension VD: VD=16

図4に示した機械学習モデル200は、例えば、被判別画像のクラス判別を行うクラス判別システムに使用できる。但し、以下の説明では、図3に示した機械学習モデル200を使用する。 The machine learning model 200 shown in FIG. 4 can be used, for example, in a classification system that classifies images to be classified. However, in the following description, the machine learning model 200 shown in FIG. 3 is used.

図5は、第1実施形態におけるクラス判別処理部114aの機能を示すブロック図である。クラス判別処理部114aは、類似度演算部310aと総合判定部320aとを含んでいる。これらの符号の末尾に付された「a」は、第1実施形態のものであることを示している。総合判定部320aは、リスト作成部322を含んでいる。この例では、2つの機械学習モデル200_1,200_2が使用されている。これらの符号の末尾の「_1」「_2」は、2つの機械学習モデルを区別するための付加的な符号である。但し、複数の機械学習モデルを区別する必要が無い場合には、付加的な符号の無い符号「200」を使用する。 FIG. 5 is a block diagram showing functions of the class determination processing unit 114a in the first embodiment. The class determination processing unit 114a includes a similarity calculation unit 310a and a comprehensive determination unit 320a. The "a" attached to the end of these symbols indicates that they are those of the first embodiment. Comprehensive determination section 320 a includes list creation section 322 . In this example, two machine learning models 200_1 and 200_2 are used. "_1" and "_2" at the end of these codes are additional codes to distinguish between the two machine learning models. However, when there is no need to distinguish between a plurality of machine learning models, the code "200" with no additional code is used.

被判別データIMが2つの機械学習モデル200に入力されると、2つの機械学習モデル200の特定層から特徴スペクトルSpがそれぞれ算出されて、類似度演算部310aに入力される。類似度演算部310aは、特徴スペクトルSpと、対応した特定層の既知特徴スペクトル群KSpとの間の類似度であるクラス別類似度Sclassを算出するとともに、クラス別類似度Sclassに依存するクラス別信頼度Rclassを求める。図5において類似度演算部310a内に破線で描かれたボックスは、入出力関係を示すために便宜的に描いたものである。クラス別類似度Sclassは、機械学習モデル200を示すパラメーターmと、クラスを示すパラメーターiと、クラスiの類似度値S_valueとを含んでいる。クラス別類似度Sclassの算出方法は後述する。 When the data to be discriminated IM is input to the two machine learning models 200, the feature spectra Sp are calculated from the specific layers of the two machine learning models 200 and input to the similarity calculation section 310a. The similarity calculation unit 310a calculates a class-based similarity Sclass that is a similarity between the feature spectrum Sp and the corresponding known feature spectrum group KSp of the specific layer, and calculates a class-based similarity Sclass that depends on the class-based similarity Sclass. Obtain the reliability Rclass. Boxes drawn with dashed lines in the similarity calculation unit 310a in FIG. 5 are drawn for convenience to show the input/output relationship. The class similarity Sclass includes a parameter m indicating the machine learning model 200, a parameter i indicating the class, and a similarity value S_value of the class i. A method of calculating the similarity by class Sclass will be described later.

クラス別信頼度Rclassは、機械学習モデル200を示すパラメーターmと、クラスを示すパラメーターiと、クラスiの信頼度値R_valueとを含んでいる。次式に示すように、信頼度値R_valueは、クラス別類似度Sclassの類似度値S_valueに依存する信頼度関数Hに従って算出される。
R_value(i)=H[S_value(i)] (2)
この式では、機械学習モデルのパラメーターmは省略している。信頼度関数Hは、クラス別信頼度Rclassがクラス別類似度Sclassに対して正の相関を有するようにクラス別信頼度Rclassを決定するものであることが好ましい。信頼度関数Hの具体例は後述する。
The class-specific reliability Rclass includes a parameter m indicating the machine learning model 200, a parameter i indicating the class, and the reliability value R_value of the class i. As shown in the following equation, the reliability value R_value is calculated according to a reliability function H that depends on the similarity value S_value of the class similarity Sclass.
R_value(i)=H[S_value(i)] (2)
In this formula, the machine learning model parameter m is omitted. Preferably, the reliability function H determines the reliability by class Rclass so that the reliability by class Rclass has a positive correlation with the similarity by class Sclass. A specific example of the reliability function H will be described later.

図5の例では、2つの機械学習モデル200において判別可能なクラス数はそれぞれ3個であるものと仮定している。リスト作成部322は、クラス別信頼度Rclassに応じて、信頼度の順に複数のクラスを配列した判別結果リストRLを出力する。この判別結果リストRLは、表示部150に表示される。クラス別信頼度Rclassや判別結果リストRLの具体例については後述する。 In the example of FIG. 5, it is assumed that each of the two machine learning models 200 has three discriminable classes. The list creation unit 322 outputs a discrimination result list RL in which a plurality of classes are arranged in order of reliability according to the class-by-class reliability Rclass. This discrimination result list RL is displayed on the display unit 150 . Specific examples of the class-by-class reliability Rclass and the discrimination result list RL will be described later.

図6は、機械学習モデルの準備工程の処理手順を示すフローチャートである。この準備工程は、例えば、プリンター10のメーカーで実行される工程である。 FIG. 6 is a flow chart showing the processing procedure of the machine learning model preparation process. This preparation process is, for example, a process executed by the manufacturer of the printer 10 .

図6のステップS100では、クラス判別処理部114aが、複数の教師データをクラスタリング処理することによって、グループ分けを実行する。図7は、クラスタリング処理によってグループ分けされた教師データを示している。この例では、複数の教師データが、第1の教師データ群TD1と第2の教師データ群TD2とにグループ分けされている。クラスタリング処理としては、例えば、k平均法を使用することができる。また、印刷媒体の光学スペクトルに関するユークリッド距離やマハラノビス距離などの距離を用いてクラスタリング処理を実行することも可能である。例えば、ユークリッド距離を用いたクラスタリング処理では、印刷媒体毎に複数回のスペクトル測定の結果を平均した平均スペクトルを求め、基準とする印刷媒体の平均スペクトルとのユークリッド距離が近い順に印刷媒体を集めて第1グループとし、集めた印刷媒体の数が基準値に達したら第1グループの収集を終了する。そして、再度新たな基準を設けて、ユークリッド距離の順に印刷媒体を集めて第2グループとする、という処理を繰り返す。 k平均法を用いた場合を考えると、教師データ群TD1,TD2は、それぞれの教師データ群TD1,TD2を代表する代表点G1,G2を有する。これらの代表点G1,G2は、例えば重心である。教師データがn個の波長における反射率で構成されている場合には、1つの教師データをn次元空間の1点を表すデータとして捉えることによって、教師データ同士の距離や、複数の教師データの重心を計算することが可能である。図7では図示の便宜上、2次元空間において複数の教師データの点を描いているが、実際には、教師データはn次元空間の点として表現できる。これらの代表点G1,G2は、新たなクラスをクラス判別処理の対象として追加する場合に、その追加クラスに対する教師データが、複数の教師データ群TD1,TD2のいずれに最も近いかを判定する際に使用できる。この判定を利用して追加クラスの教師データを複数の教師データ群TD1,TD2のいずれかに追加すれば、追加後の教師データ群TD1,TD2を、クラスタリング処理によってグループ分けされた状態と等価な状態に維持することが可能である。なお、代表点G1,G2としては、重心以外を使用してもよい。 In step S100 of FIG. 6, the class determination processing unit 114a performs grouping by clustering a plurality of teacher data. FIG. 7 shows teacher data grouped by clustering processing. In this example, a plurality of teacher data are grouped into a first teacher data group TD1 and a second teacher data group TD2. As the clustering process, for example, the k-means method can be used. It is also possible to perform clustering processing using distances such as the Euclidean distance or the Mahalanobis distance for the optical spectrum of the print medium. For example, in clustering processing using the Euclidean distance, an average spectrum is obtained by averaging the results of multiple spectrum measurements for each print medium, and the print media are collected in order of closest Euclidean distance to the average spectrum of the reference print medium. The collection of the first group is terminated when the number of collected print media reaches the reference value. Then, a new reference is set again, and the print media are collected in the order of the Euclidean distance to form the second group, and the process is repeated. Considering the case of using the k-means method, the teacher data groups TD1 and TD2 have representative points G1 and G2 representing the respective teacher data groups TD1 and TD2. These representative points G1 and G2 are, for example, the center of gravity. If the teacher data consists of reflectances at n wavelengths, one teacher data can be regarded as data representing one point in an n-dimensional space, so that distances between teacher data and differences between multiple teacher data can be calculated. It is possible to calculate the centroid. In FIG. 7, for convenience of illustration, a plurality of teaching data points are drawn in a two-dimensional space, but in practice, teaching data can be expressed as points in an n-dimensional space. These representative points G1 and G2 are used when determining which of the plurality of teacher data groups TD1 and TD2 the teacher data for the added class is closest to when adding a new class as a target of class discrimination processing. can be used for If the teacher data of the additional class is added to one of the plurality of teacher data groups TD1 and TD2 using this judgment, the teacher data groups TD1 and TD2 after addition are equivalent to the state grouped by the clustering process. state can be maintained. Note that points other than the center of gravity may be used as the representative points G1 and G2.

本実施形態では、複数の教師データが2つの教師データ群TD1,TD2にグループ分けされているが、教師データ群は1つのみでもよく、或いは3つ以上の教師データ群を作成してもよい。また、クラスタリング処理以外の方法で複数の教師データ群を作成しても良い。但し、クラスタリング処理によって複数の教師データをグループ分けすれば、互いに近似した教師データを同じグループにまとめることができる。このような複数の教師データ群を用いて複数の機械学習モデル200の学習を行えば、クラスタリング処理しない場合に比べて、個々の機械学習モデル200によるクラス判別処理の精度を高めることができる。これは、以下のような理由による。すなわち、複数の機械学習モデルは個々に独立しているため、例えばA,Bという2つの機械学習モデルが存在し、Am,Bmという酷似している分光データが存在すると仮定する。もし分光データAm、Bmが別々の機械学習モデルA,Bで学習されているとすると、個々の機械学習モデルA,Bにおいて分光データAm,Bmの特徴を分離させる学習は行っていないことになる。その結果、分光データAm,Bmの違いを見分けることができず、2つの機械学習モデルA,B共に分光データAmをBm、分光データBmをAmと判断してしまう可能性がある。一方、分光データAm,Bmを同じ機械学習モデルで学習させると、分光データAm、Bmの違いを学習しているため、分光データAm,Bmを判別することができる。このように、分光データをクラスタリングすれば、特徴が類似した印刷媒体を同じ機械学習モデルで学習させるため、それらの印刷媒体を正しく判別することができる。また、他の機械学習モデルでは、未知の印刷媒体と判別されやすくなる。 In this embodiment, a plurality of teacher data are grouped into two teacher data groups TD1 and TD2, but only one teacher data group may be created, or three or more teacher data groups may be created. . Also, a plurality of training data groups may be created by a method other than clustering processing. However, if a plurality of teacher data are grouped by clustering processing, teacher data that are similar to each other can be put together in the same group. By learning a plurality of machine learning models 200 using such a plurality of teacher data groups, the accuracy of class discrimination processing by individual machine learning models 200 can be improved compared to the case where clustering processing is not performed. This is for the following reasons. That is, since a plurality of machine learning models are independent of each other, it is assumed that there are two machine learning models A and B, and very similar spectroscopic data Am and Bm, for example. If the spectroscopic data Am and Bm are learned by separate machine learning models A and B, the individual machine learning models A and B do not perform learning to separate the features of the spectroscopic data Am and Bm. . As a result, the difference between the spectral data Am and Bm cannot be distinguished, and both the two machine learning models A and B may judge the spectral data Am as Bm and the spectral data Bm as Am. On the other hand, if the spectroscopic data Am and Bm are learned by the same machine learning model, the spectroscopic data Am and Bm can be discriminated because the difference between the spectroscopic data Am and Bm is learned. By clustering the spectral data in this way, print media with similar features are learned by the same machine learning model, so these print media can be correctly discriminated. Also, other machine learning models are more likely to discriminate unknown print media.

図6のステップS110では、クラス判別処理部114aが、複数の教師データ群TDを用いて機械学習モデル200の学習を実行する。個々の教師データには、予めラベルが付与されている。本実施形態では、第1の機械学習モデル200_1の教師データには1~3のいずれかのラベルが付与されているものと仮定する。これらのラベルは、図3に示した機械学習モデル200の3つのクラスClass1~Class3に対応している。また、第2の機械学習モデル200_2の教師データには、11~13のいずれかのラベルが付与されているものと仮定する。本開示において、「ラベル」と「クラス」は同じものを意味する。 In step S110 of FIG. 6, the class determination processing unit 114a executes learning of the machine learning model 200 using a plurality of teacher data groups TD. Each piece of teacher data is labeled in advance. In this embodiment, it is assumed that any one of labels 1 to 3 is assigned to teacher data of the first machine learning model 200_1. These labels correspond to the three classes Class1 to Class3 of the machine learning model 200 shown in FIG. It is also assumed that the teacher data of the second machine learning model 200_2 is given a label of any one of 11-13. In this disclosure, "label" and "class" mean the same thing.

複数の教師データ群TDを用いた学習が終了すると、学習済みの機械学習モデル200がメモリー120に保存される。図6のステップS120では、学習済みの機械学習モデル200に複数の教師データを再度入力して、既知特徴スペクトル群KSpを生成する。既知特徴スペクトル群KSpは、以下で説明する特徴スペクトルの集合である。 After completing the learning using the plurality of teacher data groups TD, the learned machine learning model 200 is stored in the memory 120 . In step S120 of FIG. 6, the machine learning model 200 that has already been trained is input again with a plurality of teacher data to generate the known feature spectrum group KSp. The known feature spectrum group KSp is a set of feature spectra described below.

図8は、学習済みの機械学習モデル200に任意の入力データを入力することによって得られる特徴スペクトルSpを示す説明図である。ここでは、ConvVN1層230の出力から得られる特徴スペクトルSpについて説明する。図8の横軸は、ConvVN1層230の1つの部分領域R230に含まれる複数のノードの出力ベクトルに関するベクトル要素の位置である。このベクトル要素の位置は、各ノードにおける出力ベクトルの要素番号NDと、チャンネル番号NCとの組み合わせで表される。本実施形態では、ベクトル次元が16(各ノードが出力する出力ベクトルの要素の数)なので、出力ベクトルの要素番号NDは0から15までの16個である。また、ConvVN1層230のチャンネル数は20なので、チャンネル番号NCは0から19までの20個である。換言すれば、この特徴スペクトルSpは、1つの部分領域R230に含まれる各ベクトルニューロンの出力ベクトルの複数の要素値を、第3軸zに沿った複数のチャンネルにわたって配列したものである。 FIG. 8 is an explanatory diagram showing a feature spectrum Sp obtained by inputting arbitrary input data to the learned machine learning model 200. As shown in FIG. Here, the feature spectrum Sp obtained from the output of the ConvVN1 layer 230 is explained. The horizontal axis of FIG. 8 is the position of the vector elements for the output vectors of the multiple nodes included in one partial region R230 of the ConvVN1 layer 230. In FIG. The position of this vector element is represented by a combination of the output vector element number ND and the channel number NC at each node. In this embodiment, since the vector dimension is 16 (the number of elements of the output vector output by each node), the element numbers ND of the output vector are 16 from 0 to 15. FIG. Also, since the number of channels in the ConvVN1 layer 230 is 20, there are 20 channel numbers NC from 0 to 19. In other words, this feature spectrum Sp is obtained by arranging a plurality of element values of the output vector of each vector neuron included in one partial region R230 over a plurality of channels along the third axis z.

図8の縦軸は、各スペクトル位置での特徴値CVを示す。この例では、特徴値CVは、出力ベクトルの各要素の値VNDである。なお、特徴値CVとしては、出力ベクトルの各要素の値VNDと、後述する正規化係数とを乗算した値を使用してもよく、或いは、正規化係数をそのまま使用してもよい。後者の場合には、特徴スペクトルSpに含まれる特徴値CVの数はチャンネル数に等しく、20個である。なお、正規化係数は、そのノードの出力ベクトルのベクトル長さに相当する値である。 The vertical axis in FIG. 8 indicates the feature value C V at each spectral position. In this example, the feature value C V is the value V ND of each element of the output vector. As the feature value CV, a value obtained by multiplying the value VND of each element of the output vector by a normalization factor described later may be used, or the normalization factor may be used as it is. In the latter case, the number of feature values C V included in the feature spectrum Sp is equal to the number of channels, which is twenty. Note that the normalization coefficient is a value corresponding to the vector length of the output vector of that node.

1つの入力データに対してConvVN1層230の出力から得られる特徴スペクトルSpの数は、ConvVN1層230の平面位置(x,y)の数、すなわち、部分領域R230の数に等しいので、6個である。同様に、1つの入力データに対して、ConvVN2層240の出力から3個の特徴スペクトルSpが得られ、ClassVN層250の出力から1個の特徴スペクトルSpが得られる。 The number of feature spectra Sp obtained from the output of the ConvVN1 layer 230 for one input data is equal to the number of plane positions (x, y) of the ConvVN1 layer 230, that is, the number of subregions R230, so 6 be. Similarly, three feature spectra Sp are obtained from the output of the ConvVN2 layer 240 and one feature spectrum Sp is obtained from the output of the ClassVN layer 250 for one input data.

類似度演算部310aは、学習済みの機械学習モデル200に教師データが再度入力されたときに、図8に示す特徴スペクトルSpを算出して、既知特徴スペクトル群KSpとしてメモリー120に登録する。 When teacher data is input again to the learned machine learning model 200, the similarity calculation unit 310a calculates the feature spectrum Sp shown in FIG. 8 and registers it in the memory 120 as a known feature spectrum group KSp.

図9は、教師データTDを用いて既知特徴スペクトル群KSpを作成する様子を示す説明図である。この例では、ラベルが1~3である教師データTDを、学習済みの機械学習モデル200に入力することによって、3つのベクトルニューロン層、すなわち、ConvVN1層230とConvVN2層240とClassVN層250の出力から、それぞれのラベル又はクラスに対応付けられた特徴スペクトルKSp_ConvVN1,KSp_ConvVN2,KSp_ClassVNが得られている。これらの特徴スペクトルKSp_ConvVN1,KSp_ConvVN2,KSp_ClassVNが既知特徴スペクトル群KSpとしてメモリー120に格納される。 FIG. 9 is an explanatory diagram showing how the known feature spectrum group KSp is created using the teacher data TD. In this example, by inputting the teacher data TD whose labels are 1 to 3 to the trained machine learning model 200, three vector neuron layers, that is, the ConvVN1 layer 230, the ConvVN2 layer 240 and the ClassVN layer 250 output , feature spectra KSp_ConvVN1, KSp_ConvVN2, and KSp_ClassVN associated with respective labels or classes are obtained. These feature spectra KSp_ConvVN1, KSp_ConvVN2, and KSp_ClassVN are stored in the memory 120 as a group of known feature spectra KSp.

図10は、既知特徴スペクトル群KSpの構成を示す説明図である。この例では、第1の機械学習モデル200_1のConvVN1層230の出力から得られた既知特徴スペクトル群KSp_ConvVN1が示されている。ConvVN2層240の出力から得られた既知特徴スペクトル群KSp_ConvVN2と、ClassVN層250の出力から得られた既知特徴スペクトル群KSp_ConvVN1も同様の構成を有しているが、図10では図示が省略されている。なお、既知特徴スペクトル群KSpとしては、すくなくとも1つのベクトルニューロン層の出力から得られたものが登録されていればよい。 FIG. 10 is an explanatory diagram showing the structure of the known feature spectrum group KSp. In this example, the known feature spectrum group KSp_ConvVN1 obtained from the output of the ConvVN1 layer 230 of the first machine learning model 200_1 is shown. The known feature spectrum group KSp_ConvVN2 obtained from the output of the ConvVN2 layer 240 and the known feature spectrum group KSp_ConvVN1 obtained from the output of the ClassVN layer 250 have similar configurations, but are omitted in FIG. . As the known feature spectrum group KSp, it suffices if the one obtained from the output of at least one vector neuron layer is registered.

既知特徴スペクトル群KSp_ConvVN1の個々のレコードは、機械学習モデルの順序を示すパラメーターmと、ラベルまたはクラスの順序を示すパラメーターiと、特定層の順序を示すパラメーターjと、部分領域Rnの順序を示すパラメーターkと、データ番号を示すパラメーターqと、既知特徴スペクトルKSpとを含んでいる。既知特徴スペクトルKSpは、図8の特徴スペクトルSpと同じものである。 Each record of the known feature spectrum group KSp_ConvVN1 indicates a parameter m indicating the order of the machine learning model, a parameter i indicating the order of the label or class, a parameter j indicating the order of the specific layer, and the order of the partial regions Rn. It contains a parameter k, a parameter q indicating a data number, and a known feature spectrum KSp. The known feature spectrum KSp is the same as the feature spectrum Sp in FIG.

クラスのパラメーターiは、ラベルと同じ1~3の値を取る。特定層のパラメーターjは、3つの特定層230,240,250のいずれであるかを示す1~3の値を取る。部分領域Rnのパラメーターkは、個々の特定層に含まれる複数の部分領域Rnのいずれであるか、すなわち、平面位置(x,y)のいずれであるかを示す値を取る。ConvVN1層230については部分領域R230の数が6個なので、k=1~6である。データ番号のパラメーターqは、同じラベルが付された教師データの番号を示しており、クラス1については1~max1,クラス2については1~max2、クラス3については1~max3の値を取る。 The class parameter i takes the same value from 1 to 3 as the label. The specific layer parameter j takes a value from 1 to 3 indicating which of the three specific layers 230, 240, 250 is. The parameter k of the partial region Rn takes a value indicating which of the plurality of partial regions Rn included in each specific layer, that is, which plane position (x, y). Since the ConvVN1 layer 230 has six partial regions R230, k=1-6. The data number parameter q indicates the number of teacher data with the same label, and takes values from 1 to max1 for class 1, from 1 to max2 for class 2, and from 1 to max3 for class 3.

なお、ステップS120で使用される複数の教師データTDは、ステップS110で使用された複数の教師データTDと同じものである必要は無い。但し、ステップS120においても、ステップS110で使用された複数の教師データTDの一部又は全部を利用すれば、新たな教師データを準備する必要が無いという利点がある。 Note that the plurality of teaching data TD used in step S120 need not be the same as the plurality of teaching data TD used in step S110. However, even in step S120, if some or all of the plurality of teaching data TD used in step S110 are used, there is an advantage that there is no need to prepare new teaching data.

図11は、学習済みの機械学習モデルを用いた媒体判別/印刷工程の処理手順を示すフローチャートである。この媒体判別/印刷工程は、例えば、プリンター10を使用するユーザーによって実行される。 FIG. 11 is a flow chart showing a processing procedure of a medium discrimination/printing process using a learned machine learning model. This medium identification/printing process is performed by a user using the printer 10, for example.

ステップS210では、ユーザーによって、処理対象としての印刷媒体である対象印刷媒体について、クラス判別処理を必要とするか否かがクラス判別処理部114aに指示される。ユーザーが対象印刷媒体の種類を知っている場合にも、確認のためにクラス判別処理が必要であるものと指示してもよい。クラス判別処理が不要な場合には、ステップS260に進んでユーザーが対象印刷媒体に適した印刷設定を選択し、ステップS270において印刷処理部112が対象印刷媒体を用いた印刷をプリンター10に実行させる。一方、対象印刷媒体の種類が不明であり、そのクラス判別処理が必要な場合には、ステップS220に進む。 In step S210, the user instructs the class determination processing unit 114a as to whether or not the target print medium, which is the print medium to be processed, requires the class determination process. Even if the user knows the type of the target print medium, it may indicate that the class determination process is required for confirmation. If the class determination process is unnecessary, the process proceeds to step S260, where the user selects print settings suitable for the target print medium, and in step S270, the print processing unit 112 causes the printer 10 to execute printing using the target print medium. . On the other hand, if the type of target print medium is unknown and the class determination process is required, the process proceeds to step S220.

ステップS220では、クラス判別処理部114aが、分光測定器30に対象印刷媒体の分光測定を実行させることによって、分光データを取得する。この分光データは、機械学習モデル200に入力される被判別データとして使用される。 In step S220, the class determination processing unit 114a acquires spectral data by causing the spectrometer 30 to perform spectroscopic measurement of the target print medium. This spectral data is used as discriminated data input to the machine learning model 200 .

ステップS230では、クラス判別処理部114aが、学習済みの機械学習モデル200_1,200_2に被判別データをそれぞれ入力して、機械学習モデル200_1,200_2の出力から特徴スペクトルSpをそれぞれ算出する。ステップS240では、類似度演算部310aが、被判別データの入力に応じて得られた特徴スペクトルSpと、登録済みの既知特徴スペクトル群KSpから、クラス別類似度を算出するとともに、クラス別類似度に依存するクラス別信頼度を求める。 In step S230, the class discrimination processing unit 114a inputs data to be discriminated to the learned machine learning models 200_1 and 200_2, respectively, and calculates feature spectra Sp from the outputs of the machine learning models 200_1 and 200_2. In step S240, the similarity calculation unit 310a calculates the similarity by class from the feature spectrum Sp obtained according to the input of the data to be discriminated and the registered known feature spectrum group KSp, and the similarity by class Depends on class reliability.

図12は、被判別データに関するクラス別類似度Sclassとクラス別信頼度Rclassを求める様子を示す説明図である。被判別データがm番目の機械学習モデル200_mに入力されると、クラス判別処理部114aが、機械学習モデル200_mのConvVN1層230とConvVN2層240とClassVN層250の出力から、特徴スペクトルSp_ConvVN1,Sp_ConvVN2,Sp_ClassVNをそれぞれ算出する。類似度演算部310aは、ConvVN1層230の出力から得られた特徴スペクトルSp_ConvVN1と、既知特徴スペクトル群KSp_ConvVN1とを用いてクラス別類似度Sclass_ConvVN1を算出する。クラス別類似度の具体的な算出方法については後述する。ConvVN2層240とClassVN層250についても、同様にしてクラス別類似度Sclass_ConvVN2,Sclass_ClassVNが算出される。 FIG. 12 is an explanatory diagram showing how the similarity by class Sclass and the reliability by class Rclass regarding the data to be discriminated are obtained. When the data to be discriminated is input to the m-th machine learning model 200_m, the class discrimination processing unit 114a extracts feature spectra Sp_ConvVN1, Sp_ConvVN2, Calculate Sp_ClassVN respectively. The similarity calculator 310a uses the feature spectrum Sp_ConvVN1 obtained from the output of the ConvVN1 layer 230 and the known feature spectrum group KSp_ConvVN1 to calculate the similarity by class Sclass_ConvVN1. A specific method for calculating the degree of similarity by class will be described later. For the ConvVN2 layer 240 and the ClassVN layer 250, similarities by class Sclass_ConvVN2 and Sclass_ClassVN are similarly calculated.

3つのベクトルニューロン層230,240.250をそれぞれ用いてクラス別類似度Sclass_ConvVN1,Sclass_ConvVN2,Sclass_ClassVNをすべて生成する必要はないが、これらのうちの1つ以上のベクトルニューロン層を用いてクラス別類似度を算出することが好ましい。前述したように、本開示において、類似度の算出に使用されるベクトルニューロン層を、「特定層」と呼ぶ。 It is not necessary to generate all the class similarities Sclass_ConvVN1, Sclass_ConvVN2, Sclass_ClassVN using the three vector neuron layers 230, 240 and 250 respectively, but one or more of these vector neuron layers may be used to generate the class similarities is preferably calculated. As described above, in the present disclosure, a vector neuron layer used for similarity calculation is referred to as a "specific layer".

類似度演算部310aは、これらのクラス別類似度Sclass_ConvVN1,Sclass_ConvVN2,Sclass_ClassVNの少なくとも1つを用いてクラス別類似度Sclassを算出し、このクラス別類似度Sclassからクラス別信頼度Rclassを求める。クラス別類似度Sclassは、m番目の機械学習モデルの個々のクラスiに関する類似度値S_valueを表している。クラス別信頼度Rclassは、m番目の機械学習モデルの個々のクラスiに関する信頼度値R_valueを表している。類似度値S_valueから信頼度値R_valueを求める信頼度関数としては、例えば次のいずれかを使用可能である。
R_value(i)=H1[S_value(i)]=S_value(i) (3a)
R_value(i)=H2[S_value(i)]=Ac(i)×Wt+S_value(i)×(1-Wt) (3b)
R_value(i)=H3[S_value(i)]=Ac(i)×S_value(i) (3c)
ここで、Ac(i)は機械学習モデル200の出力層におけるクラスiの判定値に相当するアクティベーション値であり、Wtは0<Wt<1の範囲の重み係数である。なお、アクティベーション値Ac(i)は、図3に示した各クラスの判定値Class1~Class3と同じものである。
The similarity calculator 310a calculates the similarity by class Sclass using at least one of these similarities by class Sclass_ConvVN1, Sclass_ConvVN2, and Sclass_ClassVN, and obtains the reliability by class Rclass from this similarity by class Sclass. The similarity by class Sclass represents the similarity value S_value for each class i of the m-th machine learning model. Class-specific reliability Rclass represents the reliability value R_value for each class i of the m-th machine learning model. As the reliability function for obtaining the reliability value R_value from the similarity value S_value, for example, any of the following can be used.
R_value( i )=H1 [S_value(i)]=S_value(i) (3a)
R_value(i)=H2[ S_value (i)]=Ac(i)×Wt+S_value(i)×(1-Wt) (3b)
R_value(i)=H 3 [S_value(i)]=Ac(i)×S_value(i) (3c)
Here, Ac(i) is an activation value corresponding to the judgment value of class i in the output layer of the machine learning model 200, and Wt is a weighting coefficient in the range of 0<Wt<1. The activation value Ac(i) is the same as the determination values Class1 to Class3 for each class shown in FIG.

上記(3a)式の信頼度関数H1は、類似度値S_valueそのものを信頼度値R_valueとする恒等関数である。上記(3b)式の信頼度関数H2は、類似度値S_valueとアクティベーション値Acとの重み付き平均を取ることによって、信頼度値R_valueを求める関数である。上記(3c)式の信頼度関数H3は、類似度値S_valueにアクティベーション値Acを乗算することによって、信頼度値R_valueを求める関数である。また、これら以外の信頼度関数を用いてもよい。例えば、類似度値S_valueのべき乗を信頼度値R_valueとする関数を用いても良い。このように、クラス別信頼度Rclassは、クラス別類似度Sclassに依存するものとして求めることができる。また、クラス別信頼度Rclassは、クラス別類似度Sclassに対して正の相関を有することが好ましい。 The reliability function H1 in the above equation (3a) is an identity function that takes the similarity value S_value itself as the reliability value R_value. The reliability function H2 in the above equation (3b) is a function that obtains the reliability value R_value by taking the weighted average of the similarity value S_value and the activation value Ac. The reliability function H3 in the above equation ( 3c ) is a function that obtains the reliability value R_value by multiplying the similarity value S_value by the activation value Ac. Also, reliability functions other than these may be used. For example, a function may be used in which the power of the similarity value S_value is used as the reliability value R_value. In this way, the reliability by class Rclass can be determined as depending on the similarity by class Sclass. Further, it is preferable that the class-wise reliability Rclass has a positive correlation with the class-wise similarity Sclass.

クラス別類似度Sclassは、被判別データが、各クラスに関する教師データに類似するか否かの程度を示す指標である。また、クラス別信頼度Rclassは、被判別データが各クラスに該当するか否かの程度を示す指標として使用することができる。 The similarity by class Sclass is an index indicating the degree of similarity between the data to be discriminated and the teacher data for each class. Also, the class-by-class reliability Rclass can be used as an index indicating whether or not the data to be discriminated corresponds to each class.

ステップS250では、リスト作成部322が、クラス別信頼度Rclassに応じて、信頼度値R_valueの順に複数のクラスを配列した判別結果リストRLを出力する。この判別結果リストRLは、表示部150に表示される。 In step S250, the list creation unit 322 outputs a discrimination result list RL in which a plurality of classes are arranged in order of reliability value R_value according to the class-by-class reliability Rclass. This discrimination result list RL is displayed on the display unit 150 .

図13は、判別結果リストRLの一例を示す説明図である。この例では、判別結果リストRLは、優先度と、機械学習モデルを示すパラメーターmと、クラスを示すパラメーターiと、クラス名と、信頼度値R_valueとを含んでおり、信頼度値R_valueの順に複数のクラスが配列されている。他の実施形態では、判別結果リストRLが、機械学習モデルを示すパラメーターmを含んでいなくてもよい。優先度は、信頼値R_valueの順番を示している。クラス名としては、印刷媒体の名称が例示されている。なお、優先度は省略してもよい。また、クラス情報のうち、クラスのパラメーターiとクラス名のうちの一方は省略してもよい。更に、判別結果リストRLは、M個の機械学習モデルにより判別可能なすべてのクラスを含んでいる必要はなく、その一部のみを含むようにしてもよい。一般に、M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数をNmとしたとき、M個の機械学習モデルで判別可能なクラスの合計数はΣNmで表される。判別結果リストRLは、ΣNm個のクラスのうち、信頼度値R_valueが上位である一部の複数のクラスのみを含むようにしてもよい。 FIG. 13 is an explanatory diagram showing an example of the determination result list RL. In this example, the discrimination result list RL includes priority, parameter m indicating the machine learning model, parameter i indicating the class, class name, and reliability value R_value. Multiple classes are arranged. In other embodiments, the discrimination result list RL may not include the parameter m indicating the machine learning model. Priority indicates the order of the confidence value R_value. The name of the print medium is exemplified as the class name. Note that the priority may be omitted. Also, one of the class parameter i and the class name may be omitted from the class information. Furthermore, the discrimination result list RL does not need to include all classes that can be discriminated by the M machine learning models, and may include only some of them. In general, when the number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, the total number of classes distinguishable by the M machine learning models is represented by ΣNm. . The discrimination result list RL may include only some of the ΣNm classes with higher reliability values R_value.

判別結果リストRLが表示部150に表示されると、ユーザーは、この判別結果リストRLを観察して、判別対象となっている対象印刷媒体の種類を確定することが可能である。例えば、対象印刷媒体の種類としてユーザーが予め想定していたクラスが、判別結果リストRLの上位に存在している場合には、想定していたクラスを対象印刷媒体の種類として確定することができる。また、ユーザーが、対象印刷媒体の種類を予め想定していなかった場合には、信頼度の値と照らし合わせることで、判別結果リストRLの最上位にあるクラスを、対象印刷媒体の種類として確定することができる。判別結果リストRLの最上位にあるクラスの信頼度が低い場合には、対象印刷媒体の種類として確定せずに、未知の印刷媒体として取り扱い、それに応じた動作をしてもよい。例えば、未知の印刷媒体がセットされていることをユーザーに警告するようにしてもよい。 When the determination result list RL is displayed on the display unit 150, the user can observe the determination result list RL and determine the type of target print medium to be determined. For example, if a class assumed in advance by the user as the type of target print medium exists at the top of the discrimination result list RL, the expected class can be determined as the type of target print medium. . Also, if the user does not anticipate the type of target print media in advance, the class at the top of the discrimination result list RL can be determined as the type of target print media by comparing it with the reliability value. can do. If the reliability of the class at the top of the determination result list RL is low, it may be treated as an unknown print medium without being determined as the type of target print medium, and an operation may be performed accordingly. For example, the user may be warned that an unknown print medium is set.

ステップS260では、ユーザーが、判別結果リストRLから、対象印刷媒体のクラス、すなわち、対象印刷媒体の種類を選択して、印刷処理部112に指示する。ステップS260は、(i)ユーザーからの指示に応じて、プロセッサー110が判別結果リストRLの中から一つの印刷媒体の種類を選ぶこと、(ii)ユーザーが表示「承諾(Accept)」を意味する指示をする場合に、プロセッサー110が判別結果リストRLの最上位にある印刷媒体の種類を選択すること、および、(iii)所定期間内にユーザーの指示がない場合に、プロセッサー110が判別結果リストRLの最上位にある印刷媒体の種類を選択すること/または処理を止めること、のいずれか一つを含むものとしてもよい。ステップS270では、印刷処理部112が、対象印刷媒体の種類に応じて印刷設定テーブルPSTを参照し、印刷設定を選択する。ステップS280では、印刷処理部112が、印刷設定に従って印刷を実行する。図11の手順によれば、対象印刷媒体の種類が不明確な場合にも、機械学習モデル200を用いて対象印刷媒体の種類を判別できるので、その種類に適した印刷設定を用いて印刷を実行することが可能である。 In step S260, the user selects the class of the target print medium, ie, the type of the target print medium, from the determination result list RL, and instructs the print processing unit 112 to select it. Step S260 means (i) that the processor 110 selects one print medium type from the discrimination result list RL in response to an instruction from the user, and (ii) that the user displays "Accept". (iii) if there is no user's instruction within a predetermined period of time, the processor 110 selects the type of print medium at the top of the determination result list RL when giving an instruction; It may include any one of selecting the print media type at the top of the RL and/or stopping the process. In step S270, the print processing unit 112 selects print settings by referring to the print setting table PST according to the type of target print medium. In step S280, the print processing unit 112 executes printing according to the print settings. According to the procedure of FIG. 11, even if the type of target print medium is unclear, the machine learning model 200 can be used to determine the target print medium type. It is possible to run

以上のように、第1実施形態では、各クラスの信頼度の順に複数のクラスを配列した判別結果リストRLを出力するので、信頼性の高いクラス判別結果を得ることができる。 As described above, in the first embodiment, since the discrimination result list RL in which a plurality of classes are arranged in order of reliability of each class is output, highly reliable class discrimination results can be obtained.

B. 第2実施形態:
図14は、第2実施形態におけるクラス判別処理部114bの機能を示すブロック図である。クラス判別処理部114bは、類似度演算部310bと総合判定部320bとを含んでいる。総合判定部320bは、クラス内選択部321とリスト作成部322を含んでいる。なお、図1及び図2に示した装置の構成や、図6及び図11に示した処理の手順は、第1実施形態とほぼ同じである。
B. Second embodiment:
FIG. 14 is a block diagram showing functions of the class determination processing unit 114b in the second embodiment. The class determination processing unit 114b includes a similarity calculation unit 310b and a comprehensive determination unit 320b. The comprehensive determination section 320 b includes an in-class selection section 321 and a list creation section 322 . The configuration of the apparatus shown in FIGS. 1 and 2 and the procedure of processing shown in FIGS. 6 and 11 are substantially the same as in the first embodiment.

第2実施形態では、同一の判別対象物から得られた複数の被判別データIM_1,IM_2,IM_3が機械学習モデル200_1,200_2にそれぞれ入力される。なお、被判別データIMの数を整数Pで表すとき、Pは2以上の任意の数に設定可能である。個々の被判別データIMを区別する場合には、パラメーターpを使用する。第2実施形態では、3つの被判別データIM_1,IM_2,IM_3を使用する例を説明する。これらの被判別データIM_1,IM_2,IM_3は、同一の印刷媒体から分光測定器30で測定された分光データである。 In the second embodiment, a plurality of discriminated data IM_1, IM_2, IM_3 obtained from the same discriminated object are input to machine learning models 200_1, 200_2, respectively. Note that when the number of pieces of data to be determined IM is represented by an integer P, P can be set to any number equal to or greater than 2. A parameter p is used to distinguish individual discriminated data IM. In the second embodiment, an example using three data to be determined IM_1, IM_2, IM_3 will be described. These discriminated data IM_1, IM_2, and IM_3 are spectral data measured by the spectrometer 30 from the same print medium.

類似度演算部310bは、個々の被判別データIM_pについて、特徴スペクトルSpと既知特徴スペクトル群KSpとの間の類似度であるクラス別類似度Sclassを算出するとともに、クラス別類似度に依存するクラス別信頼度Rclass_pを求める。クラス別信頼度Rclass_pは、機械学習モデルを示すパラメーターmと、クラスを示すパラメーターiと、被判別データを示すパラメーターpと、クラスの信頼度値R_valueとを含んでいる。換言すれば、第2実施形態では、P個の被判別データに応じて、P個のクラス別信頼度Rclass_pがクラス毎に求められる。これらのクラス別信頼度Rclass_pは、被判別データを示すパラメーターpを含んでいること以外は、第1実施形態において図5で説明したクラス別信頼度Rclassと同じものである。 The similarity calculation unit 310b calculates a similarity by class Sclass, which is the similarity between the feature spectrum Sp and the group of known feature spectra KSp, for each piece of data to be discriminated IM_p. Obtain another reliability Rclass_p. The reliability by class Rclass_p includes a parameter m indicating the machine learning model, a parameter i indicating the class, a parameter p indicating the data to be discriminated, and a reliability value R_value of the class. In other words, in the second embodiment, P pieces of class-by-class reliability Rclass_p are obtained for each class according to P pieces of data to be discriminated. These class-by-class reliability Rclass_p are the same as the class-by-class reliability Rclass described in FIG.

クラス内選択部321は、各クラスに関して、P個のクラス別信頼度Rclass_pで表されるP個の信頼度値R_valueのうちの統計的な代表値である信頼度代表値を、そのクラスの信頼度値として決定する。「統計的な代表値」とは、中央値、平均値、又は、最頻値を意味する。この結果、クラス内選択部321からは、図5で説明したものと同様のクラス別信頼度Rclassが出力される。 For each class, the intra-class selection unit 321 selects a reliability representative value, which is a statistical representative value among P reliability values R_value represented by P class-specific reliability Rclass_p, as the reliability of the class. Determined as a degree value. A "statistically representative value" means a median value, an average value, or a mode value. As a result, the class-by-class reliability Rclass similar to that described with reference to FIG. 5 is output from the in-class selector 321 .

リスト作成部322は、クラス内選択部321から与えられたクラス別信頼度Rclassに応じて、信頼度値R_valueの順に複数のクラスを配列した判別結果リストRLを出力する。この処理は、第1実施形態と同じである。 The list creation unit 322 outputs a discrimination result list RL in which a plurality of classes are arranged in order of reliability values R_value according to the class-by-class reliability Rclass given from the in-class selection unit 321 . This processing is the same as in the first embodiment.

以上のように、第2実施形態では、同一の被判別対象物から得られたP個の被判別データを用いて算出されたP個のクラス別信頼度Rclass_pの中からクラス毎の信頼度代表値を求め、それらの信頼度代表値を用いて判別結果リストRLを出力するので、より信頼性の高いクラス判別結果を得ることができる。 As described above, in the second embodiment, the reliability representative for each class is selected from the P reliability levels Rclass_p calculated using P pieces of data to be determined obtained from the same object to be determined. Values are obtained, and a discrimination result list RL is output using these reliability representative values, so that class discrimination results with higher reliability can be obtained.

C. 第3実施形態:
図15は、第3施形態におけるクラス判別処理部114cの機能を示すブロック図である。クラス判別処理部114cは、類似度演算部310cと総合判定部320cを含んでいる。総合判定部320cは、結果選択部325を含んでいる。なお、図1及び図2に示した装置の構成や図6に示した処理の手順は、第1実施形態とほぼ同じである。
C. Third Embodiment:
FIG. 15 is a block diagram showing functions of the class determination processing unit 114c in the third embodiment. The class determination processing unit 114c includes a similarity calculation unit 310c and a comprehensive determination unit 320c. Comprehensive determination section 320 c includes result selection section 325 . The configuration of the apparatus shown in FIGS. 1 and 2 and the procedure of processing shown in FIG. 6 are substantially the same as those of the first embodiment.

第3実施形態の類似度演算部310cには、特徴スペクトルSpに加えて、機械学習モデル200の出力層で得られたクラス判別結果Dcが与えられる。このクラス判別結果Dcは、機械学習モデル200で判別可能な複数のクラスの中の1つを判別クラスとして特定する結果である。類似度演算部310cは、クラス判別結果Dcで示される判別クラスに関する判別クラス類似度Sdcを算出するとともに、判別クラス類似度Sdcに依存するモデル信頼度Rmodelを求める。判別クラス類似度Sdcは、判別クラスに関する類似度値のみを含んでおり、判別クラス以外の他のクラスの類似度値を含まない点以外は、上述した第1実施形態で説明したクラス別類似度Sclassと同じであり、クラス別類似度Sclassと同様の式で算出される。また、判別クラス類似度Sdcからモデル信頼度Rmodelを求める方法も、第1実施形態で説明したクラス別類似度Sclassからクラス別信頼度Rclassを求める方法と同じ方法を使用できる。モデル信頼度Rmodelは、機械学習モデル200を示すパラメーターmと、判別クラスを示すパラメーターDcと、信頼度値Rbとを含んでいる。 The similarity calculation unit 310c of the third embodiment is provided with the class discrimination result Dc obtained in the output layer of the machine learning model 200 in addition to the feature spectrum Sp. This class discrimination result Dc is a result of specifying one of a plurality of classes that can be discriminated by the machine learning model 200 as the discriminant class. The similarity calculator 310c calculates a discriminant class similarity Sdc regarding the discriminant class indicated by the class discrimination result Dc, and obtains a model reliability Rmodel dependent on the discriminant class similarity Sdc. The discriminant class similarity Sdc includes only the similarity values related to the discriminant class, and does not include the similarity values of classes other than the discriminant class. It is the same as Sclass and is calculated by the same formula as the similarity by class Sclass. Also, the same method as the method of obtaining the class-by-class reliability Rclass from the class-by-class similarity Sclass described in the first embodiment can be used as the method of obtaining the model reliability Rmodel from the discriminant class similarity Sdc. The model reliability Rmodel includes a parameter m indicating the machine learning model 200, a parameter Dc indicating the discriminant class, and a reliability value Rb.

結果選択部325は、M個の機械学習モデル200で判別されたM個の判別クラスのうち、モデル信頼度Rmodelが最も高い機械学習モデルから得られた判別クラスを、被判別データに対するクラス判別結果FRDとして出力する。或いは、クラス判別結果FRDとして、モデル信頼度Rmodelが高い順に複数のクラスを配列したリストとして出力してもよい。図15の例では、機械学習モデル200の個数Mは2であるが、第3実施形態では、整数Mとして2以上の任意の値を採用可能である。 The result selection unit 325 selects the discriminant class obtained from the machine learning model with the highest model reliability Rmodel among the M discriminant classes discriminated by the M machine learning models 200 as the class discrimination result for the data to be discriminated. Output as FRD. Alternatively, as the class discrimination result FRD, a list in which a plurality of classes are arranged in descending order of model reliability Rmodel may be output. In the example of FIG. 15, the number M of machine learning models 200 is 2, but in the third embodiment, an arbitrary value of 2 or more can be adopted as the integer M.

図16は、第3実施形態における媒体判別/印刷工程の処理手順を示すフローチャートである。図16の手順は、第1実施形態で説明した図11のステップS230~S260をステップS310~S340で置き換えたものであり、他のステップは図11と同じである。 FIG. 16 is a flow chart showing the processing procedure of the medium discrimination/printing process in the third embodiment. The procedure in FIG. 16 is obtained by replacing steps S230 to S260 in FIG. 11 described in the first embodiment with steps S310 to S340, and other steps are the same as in FIG.

ステップS310では、クラス判別処理部114cが、複数の機械学習モデル200に被判別データをそれぞれ入力して、各機械学習モデル200の出力から判別クラスDcと特徴スペクトルSpをそれぞれ算出する。ステップS320では、類似度演算部310cが、被判別データの入力に応じて得られた特徴スペクトルSpと、登録済みの既知特徴スペクトル群KSpから、判別クラスDcの判別クラス類似度Sdcを算出するとともに、判別クラス類似度Sdcに依存するモデル信頼度Rmodelを求める。ステップS330では、結果選択部325が、モデル信頼度Rmodelの高い機械学習モデルから得られたクラス判別結果FRDを出力する。このクラス判別結果FRDは、印刷処理部112に与えられる。ステップS340では、印刷処理部112が、クラス判別結果FRDに応じて対象印刷媒体の種類を選択する。次のステップS270以降は第1実施形態と同じである。 In step S310, the class discrimination processing unit 114c inputs data to be discriminated to a plurality of machine learning models 200, and calculates a discriminant class Dc and a feature spectrum Sp from the output of each machine learning model 200, respectively. In step S320, the similarity calculator 310c calculates the discriminant class similarity Sdc of the discriminant class Dc from the feature spectrum Sp obtained in response to the input of the data to be discriminated and the registered known feature spectrum group KSp. , a model reliability Rmodel that depends on the discriminant class similarity Sdc. In step S330, the result selection unit 325 outputs the class discrimination result FRD obtained from the machine learning model with high model reliability Rmodel. This class determination result FRD is given to the print processing unit 112 . In step S340, the print processing unit 112 selects the type of target print medium according to the class determination result FRD. The steps after the next step S270 are the same as in the first embodiment.

以上のように、第3実施形態では、M個の機械学習モデルから得られたM個の判別クラスのうち、モデル信頼度Rmodelが最も高い機械学習モデルから得られた判別クラスを被判別データに対するクラス判別結果FRDとして出力するので、信頼性の高いクラス判別結果を得ることができる。 As described above, in the third embodiment, among the M discriminant classes obtained from the M machine learning models, the discriminant class obtained from the machine learning model with the highest model reliability Rmodel is applied to the data to be discriminated. Since it is output as a class discrimination result FRD, a highly reliable class discrimination result can be obtained.

D. 第4実施形態:
図17は、第4実施形態におけるクラス判別処理部114dの機能を示すブロック図である。クラス判別処理部114dは、類似度演算部310dと総合判定部320dとを含んでいる。総合判定部320dは、モデル内選択部324と結果選択部325を含んでいる。なお、図1及び図2に示した装置の構成や図6に示した処理の手順は第1実施形態とほぼ同じであり、図16に示した処理の手順は第3実施形態とほぼ同じである。
D. Fourth Embodiment:
FIG. 17 is a block diagram showing functions of the class determination processing unit 114d in the fourth embodiment. The class determination processing unit 114d includes a similarity calculation unit 310d and a comprehensive determination unit 320d. The comprehensive determination section 320 d includes an intra-model selection section 324 and a result selection section 325 . 1 and 2 and the processing procedure shown in FIG. 6 are substantially the same as in the first embodiment, and the processing procedure shown in FIG. 16 is substantially the same as in the third embodiment. be.

第4実施形態では、第2実施形態と同様に、同一の判別対象物から得られた複数の被判別データIM_1,IM_2,IM_3が機械学習モデル200_1,200_2にそれぞれ入力される。類似度演算部310dには、第3実施形態と同様に、各機械学習モデル200から特徴スペクトルSpとクラス判別結果Dcが与えられる。 In the fourth embodiment, as in the second embodiment, a plurality of discriminated data IM_1, IM_2, IM_3 obtained from the same discriminated object are input to machine learning models 200_1, 200_2, respectively. Similar to the third embodiment, the similarity calculator 310d is provided with the feature spectrum Sp and the class discrimination result Dc from each machine learning model 200. FIG.

類似度演算部310dは、個々の被判別データIM_pについて、判別クラスDcに関する判別クラス類似度Sdcを算出するとともに、判別クラス類似度Sdcに依存するモデル信頼度Rmodel_pを求める。モデル信頼度Rmodel_pは、機械学習モデルを示すパラメーターmと、判別クラスを示すパラメーターDcと、被判別データを示すパラメーターpと、モデルの信頼度値Rbとを含んでいる。換言すれば、第4実施形態では、P個の被判別データに応じて、P個のモデル信頼度Rmodel_pが機械学習モデル毎に求められる。これらのモデル信頼度Rmodel_pは、被判別データを示すパラメーターpを含んでいる以外は、第3実施形態において図15で説明したモデル信頼度Rmodelと同じものである。 The similarity calculator 310d calculates a discriminant class similarity Sdc regarding the discriminant class Dc for each discriminated data IM_p, and obtains a model reliability Rmodel_p that depends on the discriminant class similarity Sdc. The model reliability Rmodel_p includes a parameter m indicating the machine learning model, a parameter Dc indicating the discriminant class, a parameter p indicating data to be discriminated, and a model reliability value Rb. In other words, in the fourth embodiment, P model reliability levels Rmodel_p are obtained for each machine learning model according to P pieces of data to be discriminated. These model reliability degrees Rmodel_p are the same as the model reliability degrees Rmodel described in FIG. 15 in the third embodiment, except that the parameter p indicating the data to be discriminated is included.

モデル内選択部324は、各機械学習モデル200に関して、P個のモデル信頼度Rmodel_pに含まれるP個の判別クラスDcのうちで、最も多いクラスをその機械学習モデル200における判別クラスDcとして選択し、その判別クラスDcを含むモデル信頼度を採用する。この結果、モデル内選択部324からは、図15で説明したものと同様のモデル信頼度Rmodelが出力される。結果選択部325は、モデル信頼度Rmodelが最も高い機械学習モデルから得られたクラス判別結果FRDを出力する。この処理は、第3実施形態と同じである。 For each machine learning model 200, the intra-model selection unit 324 selects the largest class among the P discriminant classes Dc included in the P model reliability Rmodel_p as the discriminant class Dc in the machine learning model 200. , adopt the model confidence including its discriminant class Dc. As a result, the intra-model selector 324 outputs the model reliability Rmodel similar to that described with reference to FIG. The result selection unit 325 outputs the class discrimination result FRD obtained from the machine learning model with the highest model reliability Rmodel. This processing is the same as in the third embodiment.

以上のように、第4実施形態では、同一の被判別対象物から得られたP個の被判別データを用いて各機械学習モデルから得られるP個の判別クラスの中で最も多いクラスを、その機械学習モデルの判別クラスとして採用するので、より信頼性の高いクラス判別結果を得ることができる。 As described above, in the fourth embodiment, among the P discriminant classes obtained from each machine learning model using P discriminant data obtained from the same discriminant object, the class with the largest number is Since it is adopted as the discriminant class of the machine learning model, a more reliable class discrimination result can be obtained.

E. 第5実施形態:
図18は、第5実施形態におけるクラス判別処理部114eの機能を示すブロック図である。クラス判別処理部114eは、類似度演算部310eと総合判定部320eとを含んでいる。総合判定部320eは、クラス内選択部326とモデル内選択部327と結果選択部328を含んでいる。なお、図1及び図2に示した装置の構成や図6に示した処理の手順は第1実施形態とほぼ同じであり、図16に示した処理の手順は第3実施形態とほぼ同じである。
E. Fifth Embodiment:
FIG. 18 is a block diagram showing functions of the class determination processing unit 114e in the fifth embodiment. The class determination processing unit 114e includes a similarity calculation unit 310e and a comprehensive determination unit 320e. The comprehensive determination section 320 e includes an in-class selection section 326 , an in-model selection section 327 and a result selection section 328 . 1 and 2 and the processing procedure shown in FIG. 6 are substantially the same as in the first embodiment, and the processing procedure shown in FIG. 16 is substantially the same as in the third embodiment. be.

第5施形態では、第2実施形態と同様に、同一の判別対象物から得られた複数の被判別データIM_1,IM_2,IM_3が機械学習モデル200_1,200_2にそれぞれ入力される。類似度演算部310eには、第2実施形態と同様に、各機械学習モデル200から特徴スペクトルSpが与えられる。 In the fifth embodiment, as in the second embodiment, a plurality of discriminated data IM_1, IM_2, IM_3 obtained from the same discriminated object are input to machine learning models 200_1, 200_2, respectively. The similarity calculator 310e is provided with the feature spectrum Sp from each machine learning model 200, as in the second embodiment.

類似度演算部310eは、個々の被判別データIM_pについて、特徴スペクトルSpと既知特徴スペクトル群KSpとの間の類似度であるクラス別類似度Sclass_pを算出する。クラス別類似度Sclass_pは、機械学習モデルを示すパラメーターmと、クラスを示すパラメーターiと、被判別データを示すパラメーターpと、クラスの類似度値S_valueとを含んでいる。換言すれば、第5実施形態では、P個の被判別データに応じて、P個のクラス別類似度Sclass_pが求められる。 The similarity calculator 310e calculates a similarity by class Sclass_p, which is the similarity between the feature spectrum Sp and the known feature spectrum group KSp, for each piece of data to be discriminated IM_p. The class similarity Sclass_p includes a parameter m indicating a machine learning model, a parameter i indicating a class, a parameter p indicating data to be discriminated, and a class similarity value S_value. In other words, in the fifth embodiment, P class similarities Sclass_p are obtained according to P pieces of data to be discriminated.

クラス内選択部326は、各クラスに関して、P個のクラス別類似度Sclass_pで表されるP個の類似度値S_valueのうちの統計的な代表値である類似度代表値を、そのクラスの類似度値として決定する。「統計的な代表値」とは、中央値、平均値、又は、最頻値を意味する。この結果、クラス内選択部326からは、機械学習モデルを示すパラメーターmと、クラスを示すパラメーターiと、クラスの類似度値S_valueとを含むクラス別類似度Sclassが出力される。 For each class, the intra-class selection unit 326 selects a similarity representative value, which is a statistical representative value among the P similarity values S_value represented by the P class similarities Sclass_p, as the similarity of the class. Determined as a degree value. A "statistically representative value" means a median value, an average value, or a mode value. As a result, the in-class selection unit 326 outputs a class-by-class similarity Sclass including a parameter m indicating a machine learning model, a parameter i indicating a class, and a class similarity value S_value.

モデル内選択部327は、各機械学習モデル200に関して、クラス別類似度Sclassで表された各クラスの類似度値S_valueのうちで最も高い類似度値に対応するクラスを、その機械学習モデル200に対応する判別クラスDcとして決定する。また、モデル内選択部327は、この判別クラスDcに対する類似度値S_valueを判別クラスDcの判別クラス類似度として採用し、その判別クラス類似度S_valueに依存するモデル信頼度Rmodelの信頼値Rbを求める。判別クラス類似度S_valueからモデル信頼度Rmodelを求める方法は、第1実施形態で説明したクラス別類似度Sclassからクラス別信頼度Rclassを求める方法と同じ方法を使用できる。この結果、モデル内選択部327からは、図17の場合と同様に、モデルを示すパラメーターmと、判別クラスを示すパラメーターDcと、信頼度値Rbとを含むモデル信頼度Rmodelが出力される。結果選択部325は、モデル信頼度Rmodelが最も高い機械学習モデルから得られたクラス判別結果FRDを出力する。この処理は、第4実施形態と同じである。 For each machine learning model 200, the intra-model selection unit 327 selects the class corresponding to the highest similarity value among the similarity values S_value of each class represented by the class similarity Sclass as the machine learning model 200. Determine the corresponding discriminant class Dc. Further, the intra-model selection unit 327 adopts the similarity value S_value for this discriminant class Dc as the discriminant class similarity of the discriminant class Dc, and obtains the confidence value Rb of the model reliability Rmodel that depends on the discriminant class similarity S_value. . As a method for obtaining the model reliability Rmodel from the discriminant class similarity S_value, the same method as the method for obtaining the class-by-class reliability Rclass from the class-by-class similarity Sclass described in the first embodiment can be used. As a result, the in-model selector 327 outputs the model reliability Rmodel including the parameter m indicating the model, the parameter Dc indicating the discriminant class, and the reliability value Rb, as in the case of FIG. The result selection unit 325 outputs the class discrimination result FRD obtained from the machine learning model with the highest model reliability Rmodel. This processing is the same as in the fourth embodiment.

なお、第5実施形態では、図16に示す手順のステップS310おいて、機械学習モデル200の出力層から得られる判別結果を用いるのではなく、クラス別類似度Sclassで表された各クラスの類似度値S_valueのうちで最も高い類似度値に対応するクラスを、その機械学習モデル200に対応する判別クラスDcとして決定している点が、第4実施形態と異なっている。この第5実施形態では、判別クラスを決定する処理を、図16のステップS320で行っているものと考えることも可能である。 In the fifth embodiment, in step S310 of the procedure shown in FIG. 16, instead of using the discrimination result obtained from the output layer of the machine learning model 200, the similarity of each class represented by the similarity by class Sclass The difference from the fourth embodiment is that the class corresponding to the highest similarity value among the degree values S_value is determined as the discrimination class Dc corresponding to the machine learning model 200 . In this fifth embodiment, it is also possible to consider that the process of determining the discriminant class is performed in step S320 of FIG.

以上のように、第5実施形態では、同一の被判別対象物から得られたP個の被判別データを用いて各機械学習モデルに関してP個のクラス別類似度を求め、P個のクラス別類似度を利用して判別クラスを決定するので、より信頼性の高いクラス判別結果を得ることができる。 As described above, in the fifth embodiment, using P pieces of discriminated data obtained from the same object to be discriminated, P similarities for each class are obtained for each machine learning model. Since the discriminant class is determined using the degree of similarity, a more reliable class discrimination result can be obtained.

F. 類似度の算出方法:
上述したクラス別類似度の演算方法としては、例えば、以下の3つの方法のいずれかを採用可能である。
(1)特徴スペクトルSpと既知特徴スペクトル群KSpにおける部分領域Rnの対応を考慮せずにクラス別類似度を求める第1の演算方法M1
(2)特徴スペクトルSpと既知特徴スペクトル群KSpの対応する部分領域Rn同士でクラス別類似度を求める第2の演算方法M2
(3)部分領域Rnを全く考慮せずにクラス別類似度を求める第3の演算方法M3
以下では、これらの3つの演算方法M1,M2,M3に従って、ConvVN1層230の出力からクラス別類似度Sclass_ConvVN1を算出する方法について順次説明する。なお、以下の説明では、機械学習モデル200のパラメーターmや、被判別データのパラメーターqは省略している。
F. Method of calculating similarity:
For example, any one of the following three methods can be adopted as a method for calculating the similarity by class described above.
(1) A first calculation method M1 for obtaining similarity by class without considering the correspondence between the feature spectrum Sp and the partial region Rn in the group of known feature spectra KSp
(2) A second calculation method M2 for obtaining the similarity by class between the corresponding partial regions Rn of the feature spectrum Sp and the group of known feature spectra KSp.
(3) A third calculation method M3 for obtaining similarity by class without considering partial regions Rn at all
A method for calculating the similarity by class Sclass_ConvVN1 from the output of the ConvVN1 layer 230 will be sequentially described below in accordance with these three calculation methods M1, M2, and M3. In the following description, the parameter m of the machine learning model 200 and the parameter q of the discriminated data are omitted.

図19は、クラス別類似度の第1の演算方法M1を示す説明図である。第1の演算方法M1では、まず、特定層であるConvVN1層230の出力から、部分領域k毎に各クラスiに対する類似度を示す局所類似度S(i,j,k)が算出される。そして、これらの局所類似度S(i,j,k)から、図19の右側に示す3種類のクラス別類似度Sclass(i,j)のいずれかが算出される。クラス別類似度Sclass(i,j)は、図3及び図12に示したクラス別類似度Sclass_ConvVN1と同じものである。 FIG. 19 is an explanatory diagram showing the first calculation method M1 of similarity by class. In the first calculation method M1, first, from the output of the ConvVN1 layer 230, which is a specific layer, a local similarity S(i,j,k) representing the similarity to each class i is calculated for each partial region k. Then, from these local similarities S(i,j,k), one of the three class similarities Sclass(i,j) shown on the right side of FIG. 19 is calculated. The similarity by class Sclass(i,j) is the same as the similarity by class Sclass_ConvVN1 shown in FIGS.

第1の演算方法M1において、局所類似度S(i,j,k)は次式を用いて算出される。
S(i,j,k)=max[G{Sp(j,k), KSp(i,j,k=all,q=all)}] (c1)
ここで、
iは、クラスを示すパラメーター、
jは、特定層を示すパラメーター、
kは、部分領域Rnを示すパラメーター、
qは、データ番号を示すパラメーター、
G{a,b}は、aとbの類似度を求める関数、
Sp(j,k)は、被判別データに応じて、特定層jの特定の部分領域kの出力から得られる特徴スペクトル、
KSp(i,j,k=all,q=all)は、図10に示した既知特徴スペクトル群KSpのうち、クラスiに関連付けられた、特定層jのすべての部分領域kにおけるすべてのデータ番号qの既知特徴スペクトル、
max[X]は、Xの値のうちの最大値を取る論理演算である。
なお、類似度を求める関数G{a,b}としては、例えば、コサイン類似度を求める式や、距離に応じた類似度を求める式を使用できる。
In the first calculation method M1, the local similarity S(i,j,k) is calculated using the following equation.
S(i,j,k)=max[G{Sp(j,k), KSp(i,j,k=all,q=all)}] (c1)
here,
i is a parameter indicating the class,
j is a parameter indicating a specific layer;
k is a parameter indicating the partial region Rn;
q is a parameter indicating a data number;
G{a,b} is a function for obtaining the similarity between a and b,
Sp(j,k) is a feature spectrum obtained from the output of a specific subregion k of a specific layer j according to the data to be discriminated;
KSp(i,j,k=all,q=all) is all data numbers in all partial regions k of a specific layer j associated with class i in the known feature spectrum group KSp shown in FIG. known feature spectrum of q,
max[X] is a logical operation that takes the maximum of the X values.
As the function G{a,b} for obtaining the degree of similarity, for example, a formula for obtaining cosine similarity or a formula for obtaining similarity according to distance can be used.

図19の右側に示す3種類のクラス別類似度Sclass(i,j)は、クラスi毎に、複数の部分領域kについての局所類似度S(i,j,k)の最大値、平均値、又は、最小値を取ることによって得られたものである。最大値、平均値、又は、最小値のいずれの演算を使用するかは、クラス判別処理の使用目的に応じて異なる。例えば、自然画像を用いて物体を判別することを目的とする場合には、クラスi毎に局所類似度S(i,j,k)の最大値を取ることによってクラス別類似度Sclass(i,j)を求めることが好ましい。また、印刷媒体の種類を判別することを目的とする場合や、工業製品の画像を用いた良否判定を目的とする場合には、クラスi毎に局所類似度S(i,j,k)の最小値を取ることによってクラス別類似度Sclass(i,j)を求めることが好ましい。また、クラスi毎に局所類似度S(i,j,k)の平均値を取ることによってクラス別類似度Sclass(i,j)を求めることが好ましい場合も考えられる。これらの3種類の演算のいずれを使用するかは、実験的または経験的にユーザーによって予め設定される。 The three types of similarities by class Sclass(i,j) shown on the right side of FIG. , or obtained by taking the minimum value. Whether to use the maximum value, the average value, or the minimum value depends on the intended use of the class discrimination process. For example, when the purpose is to discriminate an object using a natural image, the class similarity Sclass(i, j) is preferably determined. Also, when the purpose is to discriminate the type of printing medium, or when the purpose is to judge quality using an image of an industrial product, the local similarity S(i, j, k) for each class i It is preferable to obtain the similarity by class Sclass(i,j) by taking the minimum value. Also, there may be cases where it is preferable to find the similarity by class Sclass(i,j) by averaging the local similarities S(i,j,k) for each class i. Which of these three types of calculations is used is preset by the user experimentally or empirically.

以上のように、クラス別類似度の第1の演算方法M1では、
(1)被判別データに応じて、特定層jの特定の部分領域kの出力から得られる特徴スペクトルSpと、その特定層j及び各クラスiに関連付けられたすべての既知特徴スペクトルKSpとの類似度である局所類似度S(i,j,k)を求め、
(2)クラスi毎に、複数の部分領域kについての局所類似度S(i,j,k)の最大値、平均値、又は、最小値を取ることによってクラス別類似度Sclass(i,j)を求める。
この第1の演算方法M1によれば、比較的簡単な演算及び手順により、クラス別類似度Sclass(i,j)を求めることができる。
As described above, in the first calculation method M1 of similarity by class,
(1) Similarity between the feature spectrum Sp obtained from the output of a specific subregion k of a specific layer j and all known feature spectra KSp associated with that specific layer j and each class i, depending on the data to be discriminated Find the local similarity S(i,j,k), which is the degree of
(2) Class-specific similarity Sclass(i,j) by taking the maximum value, average value, or minimum value of local similarity S(i,j,k) for a plurality of partial regions k for each class i. ).
According to this first calculation method M1, the similarity by class Sclass(i,j) can be obtained by a relatively simple calculation and procedure.

図20は、クラス別類似度の第2の演算方法M2を示す説明図である。第2の演算方法M2では、上述した(c1)式の代わりに次式を用いて局所類似度S(i,j,k)を算出する。
S(i,j,k)=max[G{Sp(j,k), KSp(i,j,k,q=all)}] (c2)
ここで、
KSp(i,j,k,q=all)は、図10に示した既知特徴スペクトル群KSpのうち、クラスiに関連付けられた、特定層jの特定の部分領域kにおけるすべてのデータ番号qの既知特徴スペクトルである。
FIG. 20 is an explanatory diagram showing the second calculation method M2 of similarity by class. In the second calculation method M2, the local similarity S(i,j,k) is calculated using the following equation instead of the above equation (c1).
S(i,j,k)=max[G{Sp(j,k), KSp(i,j,k,q=all)}] (c2)
here,
KSp(i,j,k,q=all) is the number of all data numbers q in a specific subregion k of a specific layer j associated with class i in the group of known feature spectra KSp shown in FIG. Known feature spectrum.

上述した第1の演算方法M1では、特定層jのすべての部分領域kにおける既知特徴スペクトルKSp(i,j,k=all,q=all)を用いていたのに対して、第2の演算方法M2では、特徴スペクトルSp(j,k)の部分領域kと同じ部分領域kに対する既知特徴スペクトルKSp(i,j,k,q=all)のみを用いている。第2の演算方法M2における他の方法は、第1の演算方法M1と同じである。 In the above-described first calculation method M1, the known feature spectrum KSp (i, j, k=all, q=all) in all partial regions k of the specific layer j is used, whereas the second calculation method M1 Method M2 uses only the known feature spectrum KSp(i,j,k,q=all) for the same subregion k as the subregion k of the feature spectrum Sp(j,k). Other methods in the second calculation method M2 are the same as the first calculation method M1.

クラス別類似度の第2の演算方法M2では、
(1)被判別データに応じて、特定層jの特定の部分領域kの出力から得られる特徴スペクトルSpと、その特定層jの特定の部分領域k及び各クラスiに関連付けられたすべての既知特徴スペクトルKSpとの類似度である局所類似度S(i,j,k)を求め、
(2)クラスi毎に、複数の部分領域kについての局所類似度S(i,j,k)の最大値、平均値、又は、最小値を取ることによって、クラス別類似度Sclass(i,j)を求める。
この第2の演算方法M2によっても、比較的簡単な演算及び手順により、クラス別類似度Sclass(i,j)を求めることができる。
In the second class similarity calculation method M2,
(1) Depending on the data to be discriminated, the feature spectrum Sp obtained from the output of a particular sub-region k of a particular layer j and all known sub-regions k of that particular layer j and all known Find the local similarity S(i,j,k), which is the similarity with the feature spectrum KSp,
(2) By taking the maximum value, average value, or minimum value of the local similarities S(i,j,k) for a plurality of partial regions k for each class i, the similarity by class Sclass(i, j).
The class similarity Sclass(i,j) can also be obtained by the second calculation method M2 through relatively simple calculations and procedures.

図21は、クラス別類似度の第3の演算方法M3を示す説明図である。第3の演算方法M3では、局所類似度S(i,j,k)を求めることなく、特定層であるConvVN1層230の出力からクラス別類似度Sclass(i,j)が算出される。 FIG. 21 is an explanatory diagram showing the third calculation method M3 of similarity by class. In the third calculation method M3, the class similarity Sclass(i,j) is calculated from the output of the ConvVN1 layer 230, which is the specific layer, without obtaining the local similarity S(i,j,k).

第3の演算方法M3で得られるクラス別類似度Sclass(i,j)は、次式を用いて算出される。
Sclass(i,j)=max[G{Sp(j,k=all), KSp(i,j,k=all,q=all)}] (c3)
ここで、
Sp(j,k=all)は、被判別データに応じて、特定層jのすべての部分領域kの出力から得られる特徴スペクトルである。
The class similarity Sclass(i,j) obtained by the third calculation method M3 is calculated using the following equation.
Sclass(i,j)=max[G{Sp(j,k=all), KSp(i,j,k=all,q=all)}] (c3)
here,
Sp(j, k=all) is the feature spectrum obtained from the output of all sub-regions k of the specific layer j according to the data to be discriminated.

以上のように、クラス別類似度の第3の演算方法M3では、
(1)被判別データに応じて特定層jの出力から得られるすべての特徴スペクトルSpと、その特定層j及び各クラスiに関連付けられたすべての既知特徴スペクトルKSpとの類似度であるクラス別類似度Sclass(i,j)をクラス毎にそれぞれ求める。
この第3の演算方法M3によれば、更に簡単な演算及び手順により、クラス別類似度Sclass(i,j)を求めることができる。
As described above, in the third calculation method M3 of similarity by class,
(1) By class, which is the similarity between all feature spectra Sp obtained from the output of a specific layer j according to the data to be discriminated and all known feature spectra KSp associated with the specific layer j and each class i A similarity Sclass(i,j) is obtained for each class.
According to the third calculation method M3, the similarity by class Sclass(i,j) can be obtained by a simpler calculation and procedure.

上述した3つの演算方法M1~M3は、いずれも個々の特定層iに関してクラス別類似度を演算する方法である。上述したように、本実施形態では、図3に示した複数のベクトルニューロン層230,240,250のうちの1つ以上を特定層としてクラス別類似度を演算することができる。複数の特定層を用いる場合には、例えば、以下のように、クラス別類似度を決定することが可能である。 All of the three calculation methods M1 to M3 described above are methods for calculating the similarity by class with respect to each specific layer i. As described above, in this embodiment, one or more of the vector neuron layers 230, 240, and 250 shown in FIG. 3 can be used as specific layers to calculate similarity by class. When using a plurality of specific layers, it is possible to determine similarity by class, for example, as follows.

図22は、複数の特定層を用いた場合のクラス別類似度の選択方法を示す説明図である。この方法では、複数の特定層のうち、最も統計的に有意な判定結果を示す特定層から得られたクラス別類似度を選択する。図22の例では、ConvVN1層230とConvVN2層240が特定層として使用されている。まず、ConvVN1層230の各部分領域kに関して、局所類似度S(i,j,k)が最大値となるクラスを決定し、そのクラスのクラスパラメーター値iを各部分領域kに割り当てる処理を実行する。なお、クラスパラメーター値iは、複数のクラスの中での順序を示す値である。ConvVN2層240についても同様に、局所類似度S(i,j,k)が最大値となるクラスを決定し、そのクラスのクラスパラメーター値iを各部分領域kに割り当てる処理を実行する。 FIG. 22 is an explanatory diagram showing a method of selecting similarities by class when using a plurality of specific layers. This method selects the similarity by class obtained from the specific layer showing the most statistically significant determination result among the plurality of specific layers. In the example of FIG. 22, the ConvVN1 layer 230 and the ConvVN2 layer 240 are used as specific layers. First, for each subregion k of the ConvVN1 layer 230, a class having the maximum local similarity S(i,j,k) is determined, and the class parameter value i of that class is assigned to each subregion k. do. Note that the class parameter value i is a value that indicates the order in a plurality of classes. Similarly, for the ConvVN2 layer 240, a class with the maximum local similarity S(i,j,k) is determined, and the class parameter value i of that class is assigned to each partial region k.

図22の方法では、更に、各特定層において、複数の部分領域kにおけるクラスパラメーター値iの分布に関して分散が算出される。この分散は、クラスパラメーター値iについての統計的な分散の値である。図22の例では、ConvVN1層230の分散は0.14であり、ConvVN2層240の分散0.22である。これらの特定層230,240のうちで、クラスパラメーター値iの分布の偏りが大きいほど判定結果が明確であることが予想されるので、分散が低い特定層についてのクラス別類似度を採用する。換言すれば、複数の特定層のうち、分散が最も小さい特定層に対して得られていたクラス別類似度を採用する。この方法によれば、複数の特定層を用いて複数のクラス別類似度が得られる場合にも、その中から適切なクラス別類似度を選択することができる。 In the method of FIG. 22, the variance is further calculated for the distribution of the class parameter values i in the plurality of partial regions k in each specific layer. This variance is the statistical variance value for the class parameter value i. In the example of FIG. 22, the ConvVN1 layer 230 has a variance of 0.14 and the ConvVN2 layer 240 has a variance of 0.22. Among these specific layers 230 and 240, it is expected that the more biased the distribution of the class parameter value i, the clearer the determination result. In other words, among the plurality of specific layers, the similarity by class obtained for the specific layer with the smallest variance is adopted. According to this method, even when a plurality of similarities by class are obtained using a plurality of specific layers, an appropriate similarity by class can be selected from among them.

G. 機械学習モデルの各層の出力ベクトルの演算方法:
図3に示した機械学習モデル200における各層の出力の演算方法は、以下の通りである。図4に示した機械学習モデル200も、個々のパラメーターの値以外は同じである。
G. How to calculate the output vector of each layer of the machine learning model:
The method of calculating the output of each layer in the machine learning model 200 shown in FIG. 3 is as follows. The machine learning model 200 shown in FIG. 4 is also the same except for the individual parameter values.

PrimeVN層220の各ノードは、Conv層210の1×1×32個のノードのスカラー出力を32次元のベクトルとみなして、このベクトルに変換行列を乗ずることによってそのノードのベクトル出力を得る。この変換行列は、表面サイズが1×1のカーネルの要素であり、機械学習モデル200の学習によって更新される。なお、Conv層210とPrimeVN層220の処理を統合して、1つのプライマリーベクトルニューロン層として構成することも可能である。 Each node of the PrimeVN layer 220 takes the scalar output of the 1x1x32 nodes of the Conv layer 210 as a 32-dimensional vector and multiplies this vector by the transformation matrix to obtain the vector output of that node. This transformation matrix is an element of a kernel with a surface size of 1×1 and is updated as the machine learning model 200 learns. Note that it is also possible to integrate the processing of the Conv layer 210 and the PrimeVN layer 220 into one primary vector neuron layer.

PrimeVN層220を「下位層L」と呼び、その上位側に隣接するConvVN1層230を「上位層L+1」と呼ぶとき、上位層L+1の各ノードの出力は、以下の式を用いて決定される。

Figure 2022138266000002
ここで、
L iは、下位層Lにおけるi番目のノードの出力ベクトル、
L+1 jは、上位層L+1におけるj番目のノードの出力ベクトル、
ijは、出力ベクトルML+1 jの予測ベクトル、
L ijは、下位層Lの出力ベクトルML iから予測ベクトルvijを算出するための予測行列、
jは、予測ベクトルvijの和、すなわち線形結合、である和ベクトル、
jは、和ベクトルujのノルム|uj|を正規化することによって得られる正規化係数であるアクティベーション値、
F(X)は、Xを正規化する正規化関数である。 When the PrimeVN layer 220 is called the "lower layer L" and the ConvVN1 layer 230 adjacent to it on the upper side is called the "upper layer L+1", the output of each node in the upper layer L+1 is determined using the following equation. .
Figure 2022138266000002
here,
M L i is the output vector of the i-th node in the lower layer L,
M L+1 j is the output vector of the j-th node in the upper layer L+1,
v ij is the prediction vector of the output vector M L+1 j ;
W L ij is a prediction matrix for calculating the prediction vector v ij from the output vector M L i of the lower layer L;
u j is the sum vector that is the sum, a linear combination, of the prediction vectors v ij ;
a j is the activation value, the normalization factor obtained by normalizing the norm |u j | of the sum vector u j ;
F(X) is the normalization function that normalizes X.

正規化関数F(X)としては、例えば以下の(E3a)式または(E3b)式を使用できる。

Figure 2022138266000003
ここで、
kは、上位層L+1のすべてのノードに対する序数、
βは、任意の正の係数である調整パラメーターであり、例えばβ=1である。 As the normalization function F(X), for example, the following formula (E3a) or formula (E3b) can be used.
Figure 2022138266000003
here,
k is the ordinal number for all nodes in the upper layer L+1,
β is a tuning parameter that is any positive coefficient, eg β=1.

上記(E3a)式では、上位層L+1のすべてのノードに関して和ベクトルujのノルム|uj|をソフトマックス関数で正規化することによってアクティベーション値ajが得られる。一方、(E3b)式では、和ベクトルujのノルム|uj|を、上位層L+1のすべてのノードに関するノルム|uj|の和で除算することによってアクティベーション値ajが得られる。なお、正規化関数F(X)としては、(E3a)式や(E3b)式以外の他の関数を用いてもよい。 In the above equation (E3a), the activation value a j is obtained by normalizing the norm |u j | of the sum vector u j for all the nodes of the upper layer L+1 with the softmax function. On the other hand, in equation (E3b), the activation value a j is obtained by dividing the norm |u j | of the sum vector u j by the sum of the norms |u j | for all nodes in the upper layer L+1. As the normalization function F(X), functions other than the formulas (E3a) and (E3b) may be used.

上記(E2)式の序数iは、上位層L+1におけるj番目のノードの出力ベクトルML+1 jを決めるために使用される下位層Lのノードに便宜上割り振られるものであり、1~nの値をとる。また、整数nは、上位層L+1におけるj番目のノードの出力ベクトルML+1 jを決めるために使用される下位層Lのノードの数である。従って、整数nは次式で与えられる。
n=Nk×Nc (E5)
ここで、Nkはカーネルの表面サイズであり、Ncは下位層であるPrimeVN層220のチャンネル数である。図3の例ではNk=5、Nc=26なので、n=130である。
The ordinal number i in the above equation (E2) is conveniently assigned to the nodes of the lower layer L used to determine the output vector M L+1 j of the j-th node in the upper layer L+1. take a value. Also, the integer n is the number of nodes in the lower layer L used to determine the output vector M L+1 j of the j-th node in the upper layer L+1. Therefore, the integer n is given by the following equation.
n=Nk×Nc (E5)
Here, Nk is the surface size of the kernel, and Nc is the number of channels in the PrimeVN layer 220, which is the lower layer. In the example of FIG. 3, Nk=5 and Nc=26, so n=130.

ConvVN1層230の出力ベクトルを求めるために使用される1つのカーネルは、カーネルサイズ1×5を表面サイズとし、下位層のチャンネル数26を深さとする1×5×26=130個の要素を有しており、これらの要素のそれぞれは予測行列WL ijである。また、ConvVN1層230の20個のチャンネルの出力ベクトルを生成するためには、このカーネルが20組必要である。従って、ConvVN1層230の出力ベクトルを求めるために使用されるカーネルの予測行列WL ijの数は、130×20=2600個である。これらの予測行列WL ijは、機械学習モデル200の学習により更新される。 One kernel used to determine the output vector of the ConvVN1 layer 230 has 1×5×26=130 elements with a surface size of kernel size 1×5 and a depth of 26 channels in the lower layer. , and each of these elements is the prediction matrix W L ij . Also, 20 sets of these kernels are required to generate output vectors for the 20 channels of the ConvVN1 layer 230 . Therefore, the number of kernel prediction matrices W L ij used to determine the output vectors of the ConvVN1 layer 230 is 130×20=2600. These prediction matrices W L ij are updated as the machine learning model 200 learns.

上述した(E1)~(E4)式から分かるように、上位層L+1の個々のノードの出力ベクトルML+1 jは、以下の演算によって求められる。
(a)下位層Lの各ノードの出力ベクトルML iに予測行列WL ijを乗じて予測ベクトルvijを求め、
(b)下位層Lの各ノードから得られた予測ベクトルvijの和、すなわち線形結合、である和ベクトルujを求め、
(c)和ベクトルujのノルム|uj|を正規化することによって正規化係数であるアクティベーション値ajを求め、
(d)和ベクトルujをノルム|uj|で除算し、更に、アクティベーション値ajを乗じる。
As can be seen from the above equations (E1) to (E4), the output vector M L+1 j of each node of the upper layer L+1 is obtained by the following calculation.
(a) Multiply the output vector M L i of each node of the lower layer L by the prediction matrix W L ij to obtain the prediction vector v ij ,
(b) obtaining a sum vector u j that is the sum of the prediction vectors v ij obtained from each node of the lower layer L, that is, a linear combination;
(c) normalizing the norm |u j | of the sum vector u j to obtain an activation value a j that is a normalization factor;
(d) Divide the sum vector u j by the norm |u j | and multiply it by the activation value a j .

なお、アクティベーション値ajは、上位層L+1のすべてのノードに関してノルム|uj|を正規化することによって得られる正規化係数である。従って、アクティベーション値ajは、上位層L+1内の全ノードの中における各ノードの相対的な出力強度を示す指標と考えることができる。(E3)式,(E3a)式、(E3b)式、及び(4)式で使用されるノルムは、典型的な例ではベクトル長さを表すL2ノルムである。このとき、アクティベーション値ajは、出力ベクトルML+1 jのベクトル長さに相当する。アクティベーション値ajは、上述した(E3)式と(E4)式で使用されるだけなので、ノードから出力される必要は無い。但し、アクティベーション値ajを外部に出力するように上位層L+1を構成することも可能である。 Note that the activation value a j is a normalization factor obtained by normalizing the norm |u j | with respect to all nodes in the upper layer L+1. Therefore, the activation value a j can be considered as an index indicating the relative output strength of each node among all nodes in the upper layer L+1. The norms used in equations (E3), (E3a), (E3b), and (4) are typically L2 norms representing vector lengths. At this time, the activation value a j corresponds to the vector length of the output vector M L+1 j . Since the activation value a j is only used in the above equations (E3) and (E4), it need not be output from the node. However, it is also possible to configure the upper layer L+1 so as to output the activation value a j to the outside.

ベクトルニューラルネットワークの構成は、カプセルネットワークの構成とほぼ同じであり、ベクトルニューラルネットワークのベクトルニューロンがカプセルネットワークのカプセルに相当する。但し、ベクトルニューラルネットワークで使用される上述の(E1)~(E4)式による演算は、カプセルネットワークで使用される演算と異なる。両者の最も大きな違いは、カプセルネットワークでは、上記(E2)式の右辺の予測ベクトルvijにそれぞれ重みが乗じられており、その重みが、動的ルーティングを複数回繰り返すことによって探索される点である。一方、本実施形態のベクトルニューラルネットワークでは、上述した(E1)~(E4)式を順番に1回計算することによって出力ベクトルML+1 jが得られるので、動的ルーティングを繰り返す必要が無く、演算がより高速であるという利点がある。また、本実施形態のベクトルニューラルネットワークは、カプセルネットワークよりも演算に必要とするメモリー量がカプセルネットワークより少なく、本開示の発明者の実験によれば、約1/2~1/3のメモリー量で済むという利点もある。 The configuration of the vector neural network is almost the same as that of the capsule network, and the vector neurons of the vector neural network correspond to the capsules of the capsule network. However, the calculations according to the above equations (E1) to (E4) used in the vector neural network are different from those used in the capsule network. The biggest difference between the two is that in the capsule network, the prediction vector v ij on the right side of the above equation (E2) is multiplied by a weight, and the weight is searched for by repeating dynamic routing multiple times. be. On the other hand, in the vector neural network of this embodiment, since the output vector M L+1 j is obtained by calculating the above-described equations (E1) to (E4) once in order, there is no need to repeat dynamic routing. , which has the advantage of being faster to compute. In addition, the vector neural network of the present embodiment requires a smaller amount of memory for calculation than the capsule network, and according to experiments by the inventor of the present disclosure, the amount of memory is about 1/2 to 1/3. There is also an advantage that it can be done with

ベクトルを入出力とするノードを使用するという点では、ベクトルニューラルネットワークはカプセルネットワークと同じである。従って、ベクトルニューロンを使用する利点もカプセルネットワークと共通している。また、複数の層210~250は、上位に行くほどより大きな領域の特徴を表現し、下位に行くほどより小さな領域の特徴を表現する、という点は、通常の畳み込みニューラルネットワークと同じである。ここで、「特徴」とは、ニューラルネットワークへの入力データに含まれている特徴的な部分を意味する。ベクトルニューラルネットワークやカプセルネットワークでは、或るノードの出力ベクトルが、そのノードが表現する特徴の空間的な情報を表す空間情報を含む点で、通常の畳み込みニューラルネットワークよりも優れている。すなわち、或るノードの出力ベクトルのベクトル長さは、そのノードが表現する特徴の存在確率を表し、ベクトル方向がその特徴の方向やスケール等の空間情報を表している。従って、同じ層に属する2つのノードの出力ベクトルのベクトル方向は、それぞれの特徴の位置関係を表す。あるいは、当該2つのノードの出力ベクトルのベクトル方向は、特徴のバリエーションを表わすとも言える。例えば、「目」の特徴に対応するノードなら、出力ベクトルの方向は、目の細さ、吊り上がり方、などのバリエーションを表し得る。通常の畳み込みニューラルネットワークでは、プーリング処理によって特徴の空間情報が消失してしまうと言われている。この結果、ベクトルニューラルネットワークやカプセルネットワークは、通常の畳み込みニューラルネットワークに比べて入力データを識別する性能に優れているという利点がある。 A vector neural network is similar to a capsule network in that it uses nodes whose inputs and outputs are vectors. Therefore, the advantages of using vector neurons are also shared with capsule networks. In addition, the plurality of layers 210 to 250 represent features of larger regions as they go higher, and features of smaller regions as they go lower, which is the same as an ordinary convolutional neural network. Here, the "feature" means a characteristic part included in the input data to the neural network. Vector neural networks and capsule networks are superior to ordinary convolutional neural networks in that the output vector of a node contains spatial information representing the spatial information of the feature represented by that node. That is, the vector length of the output vector of a certain node represents the existence probability of the feature represented by that node, and the vector direction represents spatial information such as the direction and scale of that feature. Therefore, the vector directions of the output vectors of two nodes belonging to the same layer represent the positional relationship of their respective features. Alternatively, it can be said that the vector directions of the output vectors of the two nodes represent variations of the feature. For example, for a node corresponding to the "eyes" feature, the direction of the output vector could represent variations in the fineness of the eyes, how they are hung, and so on. In a normal convolutional neural network, it is said that spatial information of features disappears due to pooling processing. As a result, vector neural networks and capsule networks have the advantage of being superior to ordinary convolutional neural networks in their ability to identify input data.

ベクトルニューラルネットワークの利点は、以下のように考えることも可能である。すなわち、ベクトルニューラルネットワークでは、ノードの出力ベクトルが、入力データの特徴を連続空間内の座標として表現すること、に利点がある。従って、ベクトル方向が近ければ特徴が似ている、というように出力ベクトルを評価できる。また、入力データに含まれている特徴が教師データではカバーできていなくても、補間してその特徴を判別できる、などの利点もある。一方、通常の畳み込みニューラルネットワークは、プーリング処理によって無秩序な圧縮がかかるため、入力データの特徴を連続空間内の座標として表現できない、という欠点がある。 The advantages of vector neural networks can also be considered as follows. That is, the vector neural network has the advantage that the output vectors of the nodes represent the features of the input data as coordinates in a continuous space. Therefore, the output vectors can be evaluated such that if the vector directions are close, the features are similar. In addition, even if the feature included in the input data is not covered by the teacher data, there is an advantage that the feature can be determined by interpolation. On the other hand, a conventional convolutional neural network suffers from chaotic compression due to pooling processing, and thus has the disadvantage that the features of input data cannot be expressed as coordinates in a continuous space.

ConvVN2層240とClassVN層250の各ノードの出力も、上述した(E1)~(E4)式を用いて同様に決定されるので、詳細な説明は省略する。最上位層であるClassVN層250の解像度は1×1であり、チャンネル数はn1である。 The output of each node of the ConvVN2 layer 240 and the ClassVN layer 250 is similarly determined using the above-described equations (E1) to (E4), so detailed description is omitted. The resolution of the ClassVN layer 250, which is the highest layer, is 1×1, and the number of channels is n1.

ClassVN層250の出力は、既知のクラスに対する複数の判定値Class0~Class2に変換される。これらの判定値は、通常はソフトマックス関数によって正規化された値である。具体的には、例えば、ClassVN層250の各ノードの出力ベクトルから、その出力ベクトルのベクトル長さを算出し、更に、各ノードのベクトル長さをソフトマックス関数で正規化する、という演算を実行することによって、個々のクラスに対する判定値を得ることができる。上述したように、上記(E3)式で得られるアクティベーション値ajは、出力ベクトルML+1 jのベクトル長さに相当する値であり、正規化されている。従って、ClassVN層250の各ノードのそれぞれにおけるアクティベーション値ajを出力して、そのまま各クラスに対する判定値として使用してもよい。 The output of ClassVN layer 250 is transformed into a plurality of decision values Class0-Class2 for known classes. These judgment values are values normalized by a softmax function. Specifically, for example, from the output vector of each node of the ClassVN layer 250, the vector length of the output vector is calculated, and the vector length of each node is normalized by the softmax function. to obtain the decision value for each class. As described above, the activation value a j obtained by the above equation (E3) is a value corresponding to the vector length of the output vector M L+1 j and is normalized. Therefore, the activation value a j in each node of the ClassVN layer 250 may be output and used as it is as the judgment value for each class.

上述の実施形態では、機械学習モデル200として、上記(E1)式~(E4)式の演算によって出力ベクトルを求めるベクトルニューラルネットワークを用いていたが、この代わりに、米国特許第5210798号公報や国際公開2009/083553号公報に開示されているカプセルネットワークを用いてもよい。 In the above-described embodiment, as the machine learning model 200, a vector neural network that obtains an output vector by calculating the above equations (E1) to (E4) was used. A capsule network disclosed in Japanese Patent Publication No. 2009/083553 may be used.

・他の実施形態:
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
・Other embodiments:
The present disclosure is not limited to the embodiments described above, and can be implemented in various forms without departing from the scope of the present disclosure. For example, the present disclosure can also be implemented in the following aspects. The technical features in the above embodiments corresponding to the technical features in each form described below are used to solve some or all of the problems of the present disclosure, or to achieve some or all of the effects of the present disclosure. In order to achieve the above, it is possible to appropriately replace or combine them. Also, if the technical features are not described as essential in this specification, they can be deleted as appropriate.

<1>本開示の第1の形態によれば、Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する方法が提供される。前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとする。前記方法は、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を準備する工程であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、工程と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する工程と、を含む。前記工程(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する工程と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る工程と、(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する工程と、を含む。
この方法によれば、各クラスの信頼度の順に複数のクラスを配列した判別結果リストを出力するので、信頼性の高いクラス判別結果を得ることができる。
<1> According to the first aspect of the present disclosure, when M is an integer of 1 or more, using M vector neural network type machine learning models having a plurality of vector neuron layers, A method is provided for determining a class. The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. and The method includes the step of: (a) preparing M sets of known feature spectra groups associated with the M machine learning models, wherein the M sets of known feature spectra groups are Nm for each machine learning model; (b) a known feature spectrum group obtained from the output of a specific layer of the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of the classes is input; using the M machine learning models and the M known feature spectra groups to perform class discrimination processing of the data to be discriminated. The step (b) includes (b1) calculating M feature spectra from the output of the specific layer in response to the input of the data to be discriminated to the M machine learning models; and (b2) the As the similarity between the M feature spectra and the M sets of known feature spectra, calculate the class similarity for each of the Nm classes in each machine learning model, and the class similarity (b3) obtaining M sets of class-wise confidences associated with the M machine learning models by obtaining dependent class-wise confidences; and outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in order of reliability of each class.
According to this method, since a discrimination result list in which a plurality of classes are arranged in order of reliability of each class is output, highly reliable class discrimination results can be obtained.

<2>上記方法において、Pを2以上の整数とするとき、前記被判別データは、同一の被判別対象物から得られたP個の被判別データを含む。前記工程(b1)は、各機械学習モデルへの前記P個の被判別データの入力に応じて各機械学習モデルの出力からP個の特徴スペクトルを算出する工程を含み、前記工程(b2)は、前記M組のクラス別信頼度のうちの各組のクラス別信頼度に関して、各機械学習モデルから得られた前記P個の特徴スペクトルを用いて、前記各組のクラス別信頼度として、P個のクラス別信頼度を求める工程と、前記P個のクラス別信頼度で表される各クラスに関するP個の信頼度値のうちの統計的な代表値である信頼度代表値を、前記各組のクラス別信頼度で表される各クラスの信頼度値として決定する工程と、を含むものとしてもよい。
この方法によれば、同一の被判別対象物から得られたP個の被判別データを用いて算出されたP個のクラス別信頼度の中からクラス毎の信頼度代表値を求め、それらの信頼度代表値を用いて判別結果リストを出力するので、より信頼性の高いクラス判別結果を得ることができる。
<2> In the above method, when P is an integer of 2 or more, the discriminated data includes P discriminated data obtained from the same discriminated object. The step (b1) includes a step of calculating P feature spectra from the output of each machine learning model in response to the input of the P pieces of discriminated data to each machine learning model, and the step (b2) is , with respect to each set of reliability by class among the M sets of reliability by class, using the P feature spectra obtained from each machine learning model, as the reliability by class for each set, P a step of obtaining the confidences by class; determining a confidence value for each class represented by the set of class confidences.
According to this method, a reliability representative value for each class is obtained from among P reliability degrees for each class calculated using P pieces of data to be discriminated obtained from the same object to be discriminated. Since the classification result list is output using the reliability representative value, it is possible to obtain class classification results with higher reliability.

<3>上記方法において、前記クラス別信頼度は、(1)前記クラス別類似度と等しい、又は、(2)前記クラス別類似度に置ける各クラスの類似度値と、前記機械学習モデルの出力層における各クラスの判定値に相当するアクティベーション値と、の重み付き平均を取った結果、又は、(3)前記クラス別類似度の各クラスの類似度値と、各クラスに対する前記アクティベーション値とを乗算した結果、のいずれかであるものとしてもよい。
この方法によれば、簡単な演算でクラス別信頼度を求めることができる。
<3> In the above method, the reliability by class is (1) equal to the similarity by class, or (2) the similarity value of each class in the similarity by class and the machine learning model Activation value corresponding to the judgment value of each class in the output layer and the result of taking a weighted average, or (3) the similarity value of each class of the similarity by class and the activation for each class It may be either the result of multiplying the value with
According to this method, the class-by-class reliability can be obtained by a simple calculation.

<4>本開示の第2の形態によれば、Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する方法が提供される。この方法は、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を準備する工程であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、工程と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する工程と、を含む。前記工程(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する工程と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る工程と、(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する工程と、を含む。
この方法によれば、M個の機械学習モデルから得られたM個の判別クラスのうち、モデル信頼度が最も高い機械学習モデルから得られた判別クラスを被判別データに対するクラス判別結果として出力するので、信頼性の高いクラス判別結果を得ることができる。
<4> According to the second aspect of the present disclosure, when M is an integer of 2 or more, using M vector neural network type machine learning models having a plurality of vector neuron layers, A method is provided for determining a class. This method includes (a) a step of preparing M sets of known feature spectra groups associated with the M machine learning models, wherein the M sets of known feature spectra groups are Nm for each machine learning model. (b) a known feature spectrum group obtained from the output of a specific layer of the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of the classes is input; using the M machine learning models and the M known feature spectra groups to perform class discrimination processing of the data to be discriminated. The step (b) includes (b1) calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and generating M discriminant classes (b2) calculating a discriminant class similarity for each of the M discriminant classes as a similarity between the M feature spectra and the M sets of known feature spectra, and obtaining a model confidence for each of the M machine learning models by obtaining a model confidence dependent on the discriminant class similarity; (b3) among the M discriminant classes, the model confidence; outputting the discriminant class obtained from the machine learning model with the highest , as a class discrimination result for the data to be discriminated.
According to this method, of the M discriminant classes obtained from the M machine learning models, the discriminant class obtained from the machine learning model with the highest model reliability is output as the class discrimination result for the data to be discriminated. Therefore, highly reliable class discrimination results can be obtained.

<5>上記方法において、Pを2以上の整数とするとき、前記被判別データは、同一の被判別対象物から得られたP個の被判別データを含み、前記工程(b1)は、各機械学習モデルへの前記P個の被判別データの入力に応じてP個の判別クラスを決定する工程と、各機械学習モデルから得られたP個の判別クラスのうちで、最も多いクラスを当該機械学習モデルにおける判別クラスとして選択する工程と、を含むものとしてもよい。
この方法によれば、同一の被判別対象物から得られたP個の被判別データを用いて各機械学習モデルから得られるP個の判別クラスの中で最も多いクラスを、その機械学習モデルの判別クラスとして採用するので、より信頼性の高いクラス判別結果を得ることができる。
<5> In the above method, when P is an integer of 2 or more, the data to be determined includes P pieces of data to be determined obtained from the same object to be determined, and the step (b1) includes: a step of determining P discriminant classes according to the input of the P discriminant data to the machine learning model; selecting as discriminant classes in the machine learning model.
According to this method, the class with the largest number of P discriminant classes obtained from each machine learning model using P discriminant data obtained from the same discriminant object is selected as the class of the machine learning model. Since it is adopted as a discriminant class, a more reliable class discrimination result can be obtained.

<6>上記方法において、Pを2以上の整数とするとき、前記被判別データは、同一の被判別対象物から得られたP個の被判別データを含み、前記工程(b1)は、前記M組の機械学習モデルのそれぞれに関して、各機械学習モデルから得られた前記P個の特徴スペクトルを用いて、当該機械学習モデルに対応付けられたクラス別類似度として、P個のクラス別類似度を求める工程と、前記P個のクラス別類似度で表される各クラスに関するP個の類似度値のうちの統計的な代表値である類似度代表値を、当該機械学習モデルに対応付けられたクラス別類似度で表される各クラスの類似度値として決定する工程と、前記クラス別類似度で表された各クラスの類似度値のうちで最も高い類似度値に対応するクラスを、当該機械学習モデルに対応する前記判別クラスとして決定する工程と、を含むものとしてもよい。前記工程(b2)は、前記工程(b1)において各機械学習モデルに対応する前記判別クラスを決定する際に用いられた前記最も高い類似度値を、前記判別クラス類似度として採用する工程を含むものとしてもよい。
この方法によれば、同一の被判別対象物から得られたP個の被判別データを用いて各機械学習モデルに関してP個のクラス別類似度を求め、P個のクラス別類似度を利用して判別クラスを決定するので、より信頼性の高いクラス判別結果を得ることができる。
<6> In the above method, when P is an integer of 2 or more, the data to be determined includes P pieces of data to be determined obtained from the same object to be determined, and the step (b1) includes: For each of the M sets of machine learning models, using the P feature spectra obtained from each machine learning model, as the class similarity associated with the machine learning model, P class similarities and a similarity representative value, which is a statistically representative value among the P similarity values for each class represented by the P class similarities, associated with the machine learning model determining the similarity value of each class represented by the similarity by class, and the class corresponding to the highest similarity value among the similarity values of each class represented by the similarity by class, and determining the discriminant class corresponding to the machine learning model. The step (b2) includes adopting the highest similarity value used in determining the discriminant class corresponding to each machine learning model in the step (b1) as the discriminant class similarity. It can be a thing.
According to this method, P similarities by class are obtained for each machine learning model using P pieces of data to be discriminated obtained from the same object to be discriminated, and P similarities by class are used. Since the discriminant class is determined by the method, a more reliable class discrimination result can be obtained.

<7>上記方法において、前記モデル信頼度は、(1)前記判別クラス類似度と等しい、又は、(2)前記判別クラス類似度と、前記機械学習モデルの出力層における前記判別クラスの判定値に相当するアクティベーション値と、の重み付き平均を取った結果、又は、(3)前記判別クラス類似度と、前記判別クラスに対する前記アクティベーション値とを乗算した結果、のいずれかであるものとしてもよい。
この方法によれば、簡単な演算でモデル信頼度を求めることができる。
<7> In the above method, the model reliability is (1) equal to the discriminant class similarity, or (2) the discriminant class similarity and the discriminant class judgment value in the output layer of the machine learning model. or (3) the result of multiplying the discriminant class similarity by the activation value for the discriminant class. good too.
According to this method, the model reliability can be obtained by a simple calculation.

<8>上記方法において、前記整数Mは2以上であり、前記M個の機械学習モデルは、対応するM個の教師データ群を用いて学習が実行されており、前記M個の教師データ群は、クラスタリング処理によってN個の組にグループ分けされた状態と等価な状態にあるものとしてもよい。
この方法によれば、各機械学習モデルの学習に用いられる教師データ群がクラスタリング処理によってグループ分けされているので、機械学習モデルによるクラス判別処理の精度を高めることができる。
<8> In the above method, the integer M is 2 or more, the M machine learning models are trained using the corresponding M teacher data groups, and the M teacher data groups may be in a state equivalent to being grouped into N sets by clustering processing.
According to this method, the teacher data group used for learning each machine learning model is grouped by the clustering process, so that the accuracy of the class discrimination process by the machine learning model can be improved.

<9>上記方法において、前記特定層は、第1軸と第2軸の2つの軸で規定された平面に配置されたベクトルニューロンが、前記2つの軸とは異なる方向の第3軸に沿って複数のチャンネルとして配置されている構成を有し、前記特定層において、前記第1軸の位置と前記第2軸の位置で規定される平面位置で特定され、前記第3軸に沿った前記複数のチャンネルを含む領域を、部分領域と呼ぶ。前記特徴スペクトルは、前記特定層に含まれる複数の部分領域のうちの各部分領域について、(i)当該部分領域に含まれる各ベクトルニューロンの出力ベクトルの複数の要素値を、前記第3軸に沿った前記複数のチャンネルにわたって配列した第1種の特徴スペクトルと、(ii)前記第1種の特徴スペクトルの各要素値に、前記出力ベクトルのベクトル長さに相当する正規化係数を乗じることによって得られる第2種の特徴スペクトルと、(iii)前記正規化係数を、前記第3軸に沿った前記複数のチャンネルにわたって配列した第3種の特徴スペクトルと、のうちのいずれかとして求められるものとしてもよい。
この方法によれば、特定層の出力ベクトルから得られる3種の特徴スペクトルのいずれかを用いて類似度を求めることができる。
<9> In the above method, the specific layer includes vector neurons arranged on a plane defined by two axes, a first axis and a second axis, along a third axis in a direction different from the two axes. in the specific layer, specified by a plane position defined by the position of the first axis and the position of the second axis, and along the third axis A region containing multiple channels is called a partial region. For each partial region among the plurality of partial regions included in the specific layer, the feature spectrum is obtained by: and (ii) by multiplying each element value of said first feature spectrum by a normalization factor corresponding to the vector length of said output vector. and (iii) a third feature spectrum in which said normalization factors are arranged across said plurality of channels along said third axis. may be
According to this method, the degree of similarity can be obtained using any one of three types of characteristic spectra obtained from the output vector of a specific layer.

<10>上記方法において、前記工程(b2)は、前記被判別データに応じて、前記特定層の特定の部分領域の出力から得られる前記特徴スペクトルと、前記特定層及び各クラスに関連付けられたすべての前記既知特徴スペクトルとの類似度である局所類似度を求めることによって、前記特定層の前記複数の部分領域に関して各クラスに対する類似度を示す複数の局所類似度を求める工程と、前記クラス毎に、前記複数の部分領域に関する前記複数の局所類似度の最大値、平均値、又は、最小値を取ることによって、前記クラス別類似度又は前記判別クラス類似度を求める工程と、を含むものとしてもよい。
この方法によれば、比較的簡単な演算によって、クラス別類似度又は判別クラス類似度を演算できる。
<10> In the above method, in the step (b2), the feature spectrum obtained from the output of the specific partial region of the specific layer, and the characteristic spectrum associated with the specific layer and each class according to the data to be discriminated a step of obtaining a plurality of local similarities indicating similarity to each class with respect to the plurality of partial regions of the specific layer by obtaining local similarities that are degrees of similarity to all the known feature spectra; and obtaining the class similarity or the discriminant class similarity by taking the maximum value, average value, or minimum value of the plurality of local similarities for the plurality of partial regions. good too.
According to this method, the similarity by class or the discriminant class similarity can be calculated by relatively simple calculations.

<11>上記方法において、前記工程(b2)は、前記被判別データに応じて、前記特定層の特定の部分領域の出力から得られる前記特徴スペクトルと、前記特定層の前記特定の部分領域及び各クラスに関連付けられたすべての前記既知特徴スペクトルとの類似度である局所類似度を求めることによって、前記特定層の前記複数の部分領域に関して各クラスに対する類似度を示す複数の局所類似度を求める工程と、前記クラス毎に、前記複数の部分領域に関する前記複数の局所類似度の最大値、平均値、又は、最小値を取ることによって、前記クラス別類似度又は前記判別クラス類似度を求める工程と、を含むものとしてもよい。
この方法によれば、比較的簡単な演算によって、クラス別類似度又は判別クラス類似度を演算できる。
<11> In the above method, the step (b2) includes the characteristic spectrum obtained from the output of the specific partial region of the specific layer, the specific partial region of the specific layer and the Obtaining a plurality of local similarities indicating similarities to each class with respect to the plurality of partial regions of the specific layer by obtaining local similarities that are similarities to all the known feature spectra associated with each class. and determining the similarity by class or the discriminant class similarity by taking the maximum value, average value, or minimum value of the plurality of local similarities for the plurality of partial regions for each class. and may be included.
According to this method, the similarity by class or the discriminant class similarity can be calculated by relatively simple calculations.

<12>上記方法において、前記工程(b2)は、前記被判別データに応じて、前記特定層の出力から得られるすべての前記特徴スペクトルと、前記特定層及び各クラスに関連付けられたすべての前記既知特徴スペクトルとの類似度をクラス毎にそれぞれ求めることによって、前記クラス別類似度又は前記判別クラス類似度を求める工程を含むものとしてもよい。
この方法によれば、更に簡単な演算によって、クラス別類似度又は判別クラス類似度を演算できる。
<12> In the above method, the step (b2) includes all the characteristic spectra obtained from the output of the specific layer and all the characteristic spectra associated with the specific layer and each class according to the data to be discriminated. A step of determining the similarity by class or the discriminant class similarity may be included by determining the similarity with the known feature spectrum for each class.
According to this method, the similarity by class or the discriminant class similarity can be calculated by a simpler calculation.

<13>本開示の第3の形態によれば、Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する情報処理装置が提供される。この情報処理装置は、前記M個の機械学習モデルを記憶するメモリーと、前記M個の機械学習モデルを用いた演算を実行するプロセッサーと、を備える。前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとする。前記プロセッサーは、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を前記メモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、を実行する。前記処理(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する処理と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る処理と、(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する処理と、を含む。
この情報処理装置によれば、各クラスの信頼度の順に複数のクラスを配列した判別結果リストを出力するので、信頼性の高いクラス判別結果を得ることができる。
<13> According to the third aspect of the present disclosure, when M is an integer of 1 or more, using M vector neural network type machine learning models having a plurality of vector neuron layers, An information processing device for discriminating classes is provided. This information processing apparatus includes a memory that stores the M machine learning models, and a processor that performs calculations using the M machine learning models. The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. and The processor performs (a) a process of reading M sets of known feature spectra groups associated with the M machine learning models from the memory, wherein the M sets of known feature spectra groups are each machine learning model A process including a group of known feature spectra obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of Nm classes is input to ( b) using the M machine learning models and the M known feature spectrum groups to perform class discrimination processing of the data to be discriminated. The process (b) includes (b1) a process of calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and (b2) the As the similarity between the M feature spectra and the M sets of known feature spectra, calculate the class similarity for each of the Nm classes in each machine learning model, and the class similarity (b3) a process of obtaining M sets of class confidences associated with the M machine learning models by obtaining the class confidences that depend on them; and (b3) the M sets of class confidences represented by a process of outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in order of reliability of each class.
According to this information processing apparatus, since a discrimination result list in which a plurality of classes are arranged in order of reliability of each class is output, highly reliable class discrimination results can be obtained.

<14>本開示の第4の形態によれば、Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する情報処理装置が提供される。この情報処理装置は、前記M個の機械学習モデルを記憶するメモリーと、前記M個の機械学習モデルを用いた演算を実行するプロセッサーと、を備える。前記プロセッサーは、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を前記メモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、を実行する。前記処理(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する処理と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る処理と、(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する処理と、を含む。
この情報処理装置によれば、M個の機械学習モデルから得られたM個の判別クラスのうち、モデル信頼度が最も高い機械学習モデルから得られた判別クラスを被判別データに対するクラス判別結果として出力するので、信頼性の高いクラス判別結果を得ることができる。
<14> According to the fourth aspect of the present disclosure, when M is an integer of 2 or more, using M vector neural network type machine learning models having a plurality of vector neuron layers, An information processing device for discriminating classes is provided. This information processing apparatus includes a memory that stores the M machine learning models, and a processor that performs calculations using the M machine learning models. The processor performs (a) a process of reading M sets of known feature spectra groups associated with the M machine learning models from the memory, wherein the M sets of known feature spectra groups are each machine learning model A process including a group of known feature spectra obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of Nm classes is input to ( b) using the M machine learning models and the M known feature spectrum groups to perform class discrimination processing of the data to be discriminated. The process (b) includes (b1) calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and generating M discriminant classes and (b2) calculating the discriminant class similarity for each of the M discriminant classes as the similarity between the M feature spectra and the M sets of known feature spectra, (b3) a process of obtaining model reliability for each of the M machine learning models by obtaining model reliability that depends on the discriminant class similarity; and (b3) the model reliability among the M discriminant classes outputting the discriminant class obtained from the machine learning model with the highest value as the class discrimination result for the data to be discriminated.
According to this information processing device, among the M discriminant classes obtained from the M machine learning models, the discriminant class obtained from the machine learning model with the highest model reliability is used as the class discrimination result for the data to be discriminated. Since it is output, highly reliable class discrimination results can be obtained.

<15>本開示の第5の形態によれば、Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別するクラス判別処理をプロセッサーに実行させるコンピュータープログラムが提供される。前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとする。前記コンピュータープログラムは、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群をメモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、を前記プロセッサーに実行させるコンピュータープログラムである。前記処理(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する処理と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る処理と、(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する処理と、を含む。
このコンピュータープログラムによれば、各クラスの信頼度の順に複数のクラスを配列した判別結果リストを出力するので、信頼性の高いクラス判別結果を得ることができる。
<15> According to the fifth aspect of the present disclosure, when M is an integer of 1 or more, using M vector neural network type machine learning models having a plurality of vector neuron layers, A computer program is provided that causes a processor to perform a class determination process to determine a class. The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. and The computer program includes (a) a process of reading from memory M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are each machine learning model; A process including a group of known feature spectra obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of Nm classes is input to ( b) a computer program that causes the processor to execute a process of classifying the data to be classified using the M machine learning models and the M known feature spectrum groups. The process (b) includes (b1) a process of calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and (b2) the As the similarity between the M feature spectra and the M sets of known feature spectra, calculate the class similarity for each of the Nm classes in each machine learning model, and the class similarity (b3) a process of obtaining M sets of class confidences associated with the M machine learning models by obtaining the class confidences that depend on them; and (b3) the M sets of class confidences represented by a process of outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in order of reliability of each class.
According to this computer program, since a discrimination result list in which a plurality of classes are arranged in order of reliability of each class is output, a highly reliable class discrimination result can be obtained.

<16>本開示の第6の形態によれば、Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別するクラス判別処理をプロセッサーに実行させるコンピュータープログラムが提供される。このコンピュータープログラムは、(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群をメモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、を前記プロセッサーに実行させるコンピュータープログラムである。前記処理(b)は、(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する処理と、(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る処理と、(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する処理と、を含む。
このコンピュータープログラムによれば、M個の機械学習モデルから得られたM個の判別クラスのうち、モデル信頼度が最も高い機械学習モデルから得られた判別クラスを被判別データに対するクラス判別結果として出力するので、信頼性の高いクラス判別結果を得ることができる。
<16> According to the sixth aspect of the present disclosure, when M is an integer of 2 or more, using M vector neural network type machine learning models having a plurality of vector neuron layers, A computer program is provided that causes a processor to perform a class determination process to determine a class. This computer program includes (a) a process of reading out from a memory M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are each machine learning model; A process including a group of known feature spectra obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of Nm classes is input to ( b) a computer program that causes the processor to execute a process of classifying the data to be classified using the M machine learning models and the M known feature spectrum groups. The process (b) includes (b1) calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models, and generating M discriminant classes and (b2) calculating the discriminant class similarity for each of the M discriminant classes as the similarity between the M feature spectra and the M sets of known feature spectra, (b3) a process of obtaining model reliability for each of the M machine learning models by obtaining model reliability that depends on the discriminant class similarity; and (b3) the model reliability among the M discriminant classes outputting the discriminant class obtained from the machine learning model with the highest value as the class discrimination result for the data to be discriminated.
According to this computer program, among the M discriminant classes obtained from the M machine learning models, the discriminant class obtained from the machine learning model with the highest model reliability is output as the class discrimination result for the data to be discriminated. Therefore, highly reliable class discrimination results can be obtained.

本開示は、上記以外の種々の形態で実現することも可能である。例えば、クラス判別装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。 The present disclosure can also be implemented in various forms other than those described above. For example, it can be realized in the form of a computer program for realizing the function of the class discrimination device, a non-transitory storage medium in which the computer program is recorded, or the like.

10…プリンター、20…情報処理装置、30…分光測定器、110…プロセッサー、112…印刷処理部、114…クラス判別処理部、120…メモリー、130…インターフェイス回路、150…表示部、200…機械学習モデル、210…畳み込み層、220…プライマリーベクトルニューロン層、230…第1畳み込みベクトルニューロン層、240…第2畳み込みベクトルニューロン層、250…分類ベクトルニューロン層、310…類似度演算部、320…総合判定部、321…クラス内選択部、322…リスト作成部、324…モデル内選択部、325…結果選択部、326…クラス内選択部、327…モデル内選択部、328…結果選択部 DESCRIPTION OF SYMBOLS 10... Printer, 20... Information processing apparatus, 30... Spectral measuring instrument, 110... Processor, 112... Print process part, 114... Class discrimination process part, 120... Memory, 130... Interface circuit, 150... Display part, 200... Machine Learning model 210 Convolution layer 220 Primary vector neuron layer 230 First convolution vector neuron layer 240 Second convolution vector neuron layer 250 Classification vector neuron layer 310 Similarity calculator 320 Synthesis Determination unit 321 In-class selection unit 322 List creation unit 324 In-model selection unit 325 Result selection unit 326 In-class selection unit 327 In-model selection unit 328 Result selection unit

Claims (16)

Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する方法であって、
前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとするとき、
前記方法は、
(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を準備する工程であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、工程と、
(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する工程と、
を含み、
前記工程(b)は、
(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する工程と、
(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る工程と、
(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する工程と、
を含む、方法。
A method for discriminating a class of data to be discriminated using M machine learning models of a vector neural network type having a plurality of vector neuron layers, where M is an integer of 1 or more,
The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. When
The method includes:
(a) A step of preparing M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are Nm classes for each machine learning model a known feature spectrum group obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each is input;
(b) using the M machine learning models and the M known feature spectrum groups to perform class discrimination processing of the data to be discriminated;
including
The step (b) is
(b1) calculating M feature spectra from the output of the specific layer in response to the input of the data to be discriminated to the M machine learning models;
(b2) Calculate the similarity by class for each of the Nm classes in each machine learning model as the similarity between the M feature spectra and the M sets of known feature spectra, and obtaining M sets of class confidences associated with the M machine learning models by determining class confidences that depend on class similarities;
(b3) outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in the order of reliability of each class represented by the M sets of reliability by class; ,
A method, including
請求項1に記載の方法であって、
Pを2以上の整数とするとき、前記被判別データは、同一の被判別対象物から得られたP個の被判別データを含み、
前記工程(b1)は、各機械学習モデルへの前記P個の被判別データの入力に応じて各機械学習モデルの出力からP個の特徴スペクトルを算出する工程を含み、
前記工程(b2)は、前記M組のクラス別信頼度のうちの各組のクラス別信頼度に関して、
各機械学習モデルから得られた前記P個の特徴スペクトルを用いて、前記各組のクラス別信頼度として、P個のクラス別信頼度を求める工程と、
前記P個のクラス別信頼度で表される各クラスに関するP個の信頼度値のうちの統計的な代表値である信頼度代表値を、前記各組のクラス別信頼度で表される各クラスの信頼度値として決定する工程と、
を含む、方法。
2. The method of claim 1, wherein
When P is an integer of 2 or more, the data to be discriminated includes P pieces of data to be discriminated obtained from the same object to be discriminated,
The step (b1) includes a step of calculating P feature spectra from the output of each machine learning model in response to the input of the P pieces of discriminated data to each machine learning model,
In the step (b2), with respect to each set of class-based reliability among the M sets of class-based reliability,
Using the P feature spectra obtained from each machine learning model, obtaining P class confidences as the class confidences of each set;
A reliability representative value, which is a statistically representative value among the P reliability values for each class represented by the P class confidences, is calculated for each set of class confidences determining as a confidence value for the class;
A method, including
請求項1又は2に記載の方法であって、
前記クラス別信頼度は、
(1)前記クラス別類似度と等しい、又は、
(2)前記クラス別類似度に置ける各クラスの類似度値と、前記機械学習モデルの出力層における各クラスの判定値に相当するアクティベーション値と、の重み付き平均を取った結果、又は、
(3)前記クラス別類似度の各クラスの類似度値と、各クラスに対する前記アクティベーション値とを乗算した結果、
のいずれかである、方法。
3. A method according to claim 1 or 2,
The reliability by class is
(1) equal to the similarity by class, or
(2) A result of taking a weighted average of the similarity value of each class in the similarity by class and the activation value corresponding to the judgment value of each class in the output layer of the machine learning model, or
(3) As a result of multiplying the similarity value of each class of the similarity by class and the activation value for each class,
A method that is either
Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する方法であって、
(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を準備する工程であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、工程と、
(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する工程と、
を含み、
前記工程(b)は、
(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する工程と、
(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る工程と、
(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する工程と、
を含む、方法。
A method for discriminating a class of data to be discriminated using M machine learning models of a vector neural network type having a plurality of vector neuron layers, where M is an integer of 2 or more,
(a) A step of preparing M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are Nm classes for each machine learning model a known feature spectrum group obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each is input;
(b) using the M machine learning models and the M known feature spectrum groups to perform class discrimination processing of the data to be discriminated;
including
The step (b) is
(b1) calculating M feature spectra from the output of the specific layer and determining M discrimination classes in response to the input of the data to be discriminated to the M machine learning models;
(b2) Calculate the discriminant class similarity for each of the M discriminant classes as the similarity between the M feature spectra and the M sets of known feature spectra, and calculate the discriminant class similarity for each of the M discriminant classes obtaining a model confidence for each of the M machine learning models by determining a dependent model confidence;
(b3) outputting the discriminant class obtained from the machine learning model with the highest model reliability among the M discriminant classes as a class discrimination result for the data to be discriminated;
A method, including
請求項4に記載の方法であって、
Pを2以上の整数とするとき、前記被判別データは、同一の被判別対象物から得られたP個の被判別データを含み、
前記工程(b1)は、
各機械学習モデルへの前記P個の被判別データの入力に応じてP個の判別クラスを決定する工程と、
各機械学習モデルから得られたP個の判別クラスのうちで、最も多いクラスを当該機械学習モデルにおける判別クラスとして選択する工程と、
を含む、方法。
5. The method of claim 4, wherein
When P is an integer of 2 or more, the data to be discriminated includes P pieces of data to be discriminated obtained from the same object to be discriminated,
The step (b1) is
determining P discriminant classes in response to the P discriminated data inputs to each machine learning model;
A step of selecting the class with the largest number of P discriminant classes obtained from each machine learning model as the discriminant class in the machine learning model;
A method, including
請求項4に記載の方法であって、
Pを2以上の整数とするとき、前記被判別データは、同一の被判別対象物から得られたP個の被判別データを含み、
前記工程(b1)は、前記M組の機械学習モデルのそれぞれに関して、
各機械学習モデルから得られた前記P個の特徴スペクトルを用いて、当該機械学習モデルに対応付けられたクラス別類似度として、P個のクラス別類似度を求める工程と、
前記P個のクラス別類似度で表される各クラスに関するP個の類似度値のうちの統計的な代表値である類似度代表値を、当該機械学習モデルに対応付けられたクラス別類似度で表される各クラスの類似度値として決定する工程と、
前記クラス別類似度で表された各クラスの類似度値のうちで最も高い類似度値に対応するクラスを、当該機械学習モデルに対応する前記判別クラスとして決定する工程と、
を含み、
前記工程(b2)は、前記工程(b1)において各機械学習モデルに対応する前記判別クラスを決定する際に用いられた前記最も高い類似度値を、前記判別クラス類似度として採用する工程を含む、
方法。
5. The method of claim 4, wherein
When P is an integer of 2 or more, the data to be discriminated includes P pieces of data to be discriminated obtained from the same object to be discriminated,
The step (b1) includes, for each of the M sets of machine learning models,
Using the P feature spectra obtained from each machine learning model, obtaining P class similarities as class similarities associated with the machine learning models;
A similarity representative value, which is a statistically representative value among the P similarity values for each class represented by the P class similarities, is a class similarity associated with the machine learning model determining as a similarity value for each class represented by
determining the class corresponding to the highest similarity value among the similarity values of each class represented by the similarity by class as the discriminant class corresponding to the machine learning model;
including
The step (b2) includes adopting the highest similarity value used in determining the discriminant class corresponding to each machine learning model in the step (b1) as the discriminant class similarity. ,
Method.
請求項4~6のいずれか一項に記載の方法であって、
前記モデル信頼度は、
(1)前記判別クラス類似度と等しい、又は、
(2)前記判別クラス類似度と、前記機械学習モデルの出力層における前記判別クラスの判定値に相当するアクティベーション値と、の重み付き平均を取った結果、又は、
(3)前記判別クラス類似度と、前記判別クラスに対する前記アクティベーション値とを乗算した結果、
のいずれかである、方法。
The method according to any one of claims 4 to 6,
The model reliability is
(1) equal to the discriminant class similarity, or
(2) a weighted average result of the discriminant class similarity and the activation value corresponding to the discriminant class decision value in the output layer of the machine learning model, or
(3) As a result of multiplying the discriminant class similarity by the activation value for the discriminant class,
A method that is either
請求項1~7のいずれか一項に記載の方法であって、
前記整数Mは2以上であり、
前記M個の機械学習モデルは、対応するM個の教師データ群を用いて学習が実行されており、
前記M個の教師データ群は、クラスタリング処理によってN個の組にグループ分けされた状態と等価な状態にある、方法。
A method according to any one of claims 1 to 7,
The integer M is 2 or more,
The M machine learning models are learned using corresponding M teacher data groups,
The method according to claim 1, wherein the M training data groups are in a state equivalent to being grouped into N sets by clustering processing.
請求項1~8のいずれか一項に記載の方法であって、
前記特定層は、第1軸と第2軸の2つの軸で規定された平面に配置されたベクトルニューロンが、前記2つの軸とは異なる方向の第3軸に沿って複数のチャンネルとして配置されている構成を有し、
前記特定層において、前記第1軸の位置と前記第2軸の位置で規定される平面位置で特定され、前記第3軸に沿った前記複数のチャンネルを含む領域を、部分領域と呼ぶとき、
前記特徴スペクトルは、前記特定層に含まれる複数の部分領域のうちの各部分領域について、
(i)当該部分領域に含まれる各ベクトルニューロンの出力ベクトルの複数の要素値を、前記第3軸に沿った前記複数のチャンネルにわたって配列した第1種の特徴スペクトルと、
(ii)前記第1種の特徴スペクトルの各要素値に、前記出力ベクトルのベクトル長さに相当する正規化係数を乗じることによって得られる第2種の特徴スペクトルと、
(iii)前記正規化係数を、前記第3軸に沿った前記複数のチャンネルにわたって配列した第3種の特徴スペクトルと、
のうちのいずれかとして求められる、方法。
A method according to any one of claims 1 to 8,
In the specific layer, vector neurons arranged on a plane defined by two axes, a first axis and a second axis, are arranged as a plurality of channels along a third axis in a direction different from the two axes. having a configuration that
In the specific layer, when a region specified by a planar position defined by the position of the first axis and the position of the second axis and including the plurality of channels along the third axis is called a partial region,
For each partial region of a plurality of partial regions included in the specific layer, the characteristic spectrum is
(i) a first type feature spectrum in which a plurality of element values of an output vector of each vector neuron included in the partial region are arranged over the plurality of channels along the third axis;
(ii) a feature spectrum of the second type obtained by multiplying each element value of the feature spectrum of the first type by a normalization factor corresponding to the vector length of the output vector;
(iii) a third type of feature spectrum in which the normalization factors are arranged across the plurality of channels along the third axis;
A method, called as one of
請求項9に記載の方法であって、
前記工程(b2)は、
前記被判別データに応じて、前記特定層の特定の部分領域の出力から得られる前記特徴スペクトルと、前記特定層及び各クラスに関連付けられたすべての前記既知特徴スペクトルとの類似度である局所類似度を求めることによって、前記特定層の前記複数の部分領域に関して各クラスに対する類似度を示す複数の局所類似度を求める工程と、
前記クラス毎に、前記複数の部分領域に関する前記複数の局所類似度の最大値、平均値、又は、最小値を取ることによって、前記クラス別類似度又は前記判別クラス類似度を求める工程と、
を含む、方法。
10. The method of claim 9, wherein
The step (b2) is
Local similarity, which is a degree of similarity between the feature spectrum obtained from the output of a specific partial region of the specific layer and all the known feature spectra associated with the specific layer and each class, according to the data to be discriminated obtaining a plurality of local similarities indicative of the similarity for each class with respect to the plurality of sub-regions of the specific layer;
obtaining the similarity by class or the discriminant class similarity by taking the maximum value, average value, or minimum value of the plurality of local similarities regarding the plurality of partial regions for each class;
A method, including
請求項9に記載の方法であって、
前記工程(b2)は、
前記被判別データに応じて、前記特定層の特定の部分領域の出力から得られる前記特徴スペクトルと、前記特定層の前記特定の部分領域及び各クラスに関連付けられたすべての前記既知特徴スペクトルとの類似度である局所類似度を求めることによって、前記特定層の前記複数の部分領域に関して各クラスに対する類似度を示す複数の局所類似度を求める工程と、
前記クラス毎に、前記複数の部分領域に関する前記複数の局所類似度の最大値、平均値、又は、最小値を取ることによって、前記クラス別類似度又は前記判別クラス類似度を求める工程と、
を含む、方法。
10. The method of claim 9, wherein
The step (b2) is
the feature spectrum obtained from the output of the specific partial region of the specific layer and all the known feature spectra associated with the specific partial region and each class of the specific layer, according to the data to be discriminated; a step of obtaining a plurality of local similarities indicating similarities for each class with respect to the plurality of partial regions of the specific layer by obtaining local similarities that are similarities;
obtaining the similarity by class or the discriminant class similarity by taking the maximum value, average value, or minimum value of the plurality of local similarities regarding the plurality of partial regions for each class;
A method, including
請求項9に記載の方法であって、
前記工程(b2)は、
前記被判別データに応じて、前記特定層の出力から得られるすべての前記特徴スペクトルと、前記特定層及び各クラスに関連付けられたすべての前記既知特徴スペクトルとの類似度をクラス毎にそれぞれ求めることによって、前記クラス別類似度又は前記判別クラス類似度を求める工程を含む、方法。
10. The method of claim 9, wherein
The step (b2) is
obtaining, for each class, similarities between all the feature spectra obtained from the output of the specific layer and all the known feature spectra associated with the specific layer and each class, according to the data to be discriminated; determining the class-wise similarity or the discriminant class similarity by:
Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する判別処理を実行する情報処理装置であって、
前記M個の機械学習モデルを記憶するメモリーと、
前記M個の機械学習モデルを用いた演算を実行するプロセッサーと、
を備え、
前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとするとき、
前記プロセッサーは、
(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を前記メモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、
(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、
を実行し、
前記処理(b)は、
(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する処理と、
(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る処理と、
(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する処理と、
を含む、情報処理装置。
An information processing device that executes a discrimination process for discriminating a class of data to be discriminated using M machine learning models of a vector neural network type having a plurality of vector neuron layers, where M is an integer of 1 or more. hand,
a memory that stores the M machine learning models;
a processor that performs operations using the M machine learning models;
with
The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. When
The processor
(a) A process of reading from the memory M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are Nm for each machine learning model A process including a known feature spectrum group obtained from the output of a specific layer of the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of the classes is input;
(b) using the M machine learning models and the M known feature spectrum groups, a process of performing class discrimination processing of the data to be discriminated;
and run
The processing (b) is
(b1) a process of calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models;
(b2) Calculate the similarity by class for each of the Nm classes in each machine learning model as the similarity between the M feature spectra and the M sets of known feature spectra, and A process of obtaining M sets of class confidences associated with the M machine learning models by obtaining class confidences that depend on class similarities;
(b3) a process of outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in the order of reliability of each class represented by the M sets of reliability by class; ,
An information processing device, including
Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別する判別処理を実行する情報処理装置であって、
前記M個の機械学習モデルを記憶するメモリーと、
前記M個の機械学習モデルを用いた演算を実行するプロセッサーと、
を備え、
前記プロセッサーは、
(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群を前記メモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、
(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、
を実行し、
前記処理(b)は、
(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する処理と、
(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る処理と、
(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する処理と、
を含む、情報処理装置。
An information processing device that executes discrimination processing for discriminating classes of data to be discriminated using M machine learning models of a vector neural network type having a plurality of vector neuron layers, where M is an integer of 2 or more. hand,
a memory that stores the M machine learning models;
a processor that performs operations using the M machine learning models;
with
The processor
(a) A process of reading from the memory M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are Nm for each machine learning model A process including a known feature spectrum group obtained from the output of a specific layer of the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of the classes is input;
(b) using the M machine learning models and the M known feature spectrum groups, a process of performing class discrimination processing of the data to be discriminated;
and run
The processing (b) is
(b1) a process of calculating M feature spectra from the output of the specific layer and determining M discrimination classes according to the input of the data to be discriminated to the M machine learning models;
(b2) calculating a discriminant class similarity for each of the M discriminant classes as the similarity between the M feature spectra and the M sets of known feature spectra, and calculating the discriminant class similarity for each of the M discriminant classes; obtaining a model confidence for each of the M machine learning models by determining a dependent model confidence;
(b3) a process of outputting a discriminant class obtained from the machine learning model with the highest model reliability among the M discriminant classes as a class discrimination result for the data to be discriminated;
An information processing device, including
Mを1以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別するクラス判別処理をプロセッサーに実行させるコンピュータープログラムであって、
前記M個の機械学習モデルのうちのm番目の機械学習モデルで判別可能なクラスの数を2以上の整数であるNmとし、前記M個の機械学習モデルで判別可能なクラスの合計数をΣNmとするとき、
前記コンピュータープログラムは、
(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群をメモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、
(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、
を前記プロセッサーに実行させるコンピュータープログラムであり、
前記処理(b)は、
(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出する処理と、
(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、各機械学習モデルにおける前記Nm個のクラスのそれぞれに関するクラス別類似度を算出するとともに、前記クラス別類似度に依存するクラス別信頼度を求めることによって、前記M個の機械学習モデルに対応付けられたM組のクラス別信頼度を得る処理と、
(b3)前記M組のクラス別信頼度で表される各クラスの信頼度の順に、前記ΣNm個のクラスのうちの少なくとも一部である複数のクラスを配列した判別結果リストを出力する処理と、
を含む、コンピュータープログラム。
A computer program that causes a processor to execute class discrimination processing for discriminating classes of data to be discriminated using M machine learning models of a vector neural network type having a plurality of vector neuron layers, where M is an integer of 1 or more. and
The number of classes distinguishable by the m-th machine learning model out of the M machine learning models is Nm, which is an integer of 2 or more, and the total number of classes distinguishable by the M machine learning models is ΣNm. When
Said computer program comprises:
(a) A process of reading from memory M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are Nm classes for each machine learning model A process including a known feature spectrum group obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of is input;
(b) using the M machine learning models and the M known feature spectrum groups, a process of performing class discrimination processing of the data to be discriminated;
a computer program that causes the processor to execute
The processing (b) is
(b1) a process of calculating M feature spectra from the output of the specific layer according to the input of the data to be discriminated to the M machine learning models;
(b2) Calculate the similarity by class for each of the Nm classes in each machine learning model as the similarity between the M feature spectra and the M sets of known feature spectra, and A process of obtaining M sets of class confidences associated with the M machine learning models by obtaining class confidences that depend on class similarities;
(b3) a process of outputting a discrimination result list in which a plurality of classes, which are at least part of the ΣNm classes, are arranged in the order of reliability of each class represented by the M sets of reliability by class; ,
computer programs, including
Mを2以上の整数とするとき、複数のベクトルニューロン層を有するベクトルニューラルネットワーク型のM個の機械学習モデルを用いて、被判別データのクラスを判別するクラス判別処理をプロセッサーに実行させるコンピュータープログラムであって、
(a)前記M個の機械学習モデルに対応付けられたM組の既知特徴スペクトル群をメモリーから読み出す処理であって、前記M組の既知特徴スペクトル群は、各機械学習モデルにNm個のクラスのそれぞれに対する複数の教師データが入力されたときに各機械学習モデルの前記複数のベクトルニューロン層のうちの特定層の出力から得られる既知特徴スペクトル群を含む、処理と、
(b)前記M個の機械学習モデルと前記M個の既知特徴スペクトル群とを用いて、前記被判別データのクラス判別処理を実行する処理と、
を前記プロセッサーに実行させるコンピュータープログラムであり、
前記処理(b)は、
(b1)前記M個の機械学習モデルへの前記被判別データの入力に応じて、前記特定層の出力からM個の特徴スペクトルを算出するとともに、M個の判別クラスを決定する処理と、
(b2)前記M個の特徴スペクトルと前記M組の既知特徴スペクトル群との間の類似度として、前記M個の判別クラスのそれぞれに関する判別クラス類似度を算出するとともに、前記判別クラス類似度に依存するモデル信頼度を求めることによって、前記M個の機械学習モデルのそれぞれに関するモデル信頼度を得る処理と、
(b3)前記M個の判別クラスのうち、前記モデル信頼度が最も高い機械学習モデルから得られた判別クラスを、前記被判別データに対するクラス判別結果として出力する処理と、
を含む、コンピュータープログラム。
A computer program that causes a processor to execute class discrimination processing for discriminating classes of data to be discriminated using M machine learning models of a vector neural network type having a plurality of vector neuron layers, where M is an integer of 2 or more. and
(a) A process of reading from memory M sets of known feature spectrum groups associated with the M machine learning models, wherein the M sets of known feature spectrum groups are Nm classes for each machine learning model A process including a known feature spectrum group obtained from the output of a specific layer among the plurality of vector neuron layers of each machine learning model when a plurality of teacher data for each of is input;
(b) using the M machine learning models and the M known feature spectrum groups, a process of performing class discrimination processing of the data to be discriminated;
a computer program that causes the processor to execute
The processing (b) is
(b1) a process of calculating M feature spectra from the output of the specific layer and determining M discrimination classes according to the input of the data to be discriminated to the M machine learning models;
(b2) calculating a discriminant class similarity for each of the M discriminant classes as the similarity between the M feature spectra and the M sets of known feature spectra, and calculating the discriminant class similarity for each of the M discriminant classes; obtaining a model confidence for each of the M machine learning models by determining a dependent model confidence;
(b3) a process of outputting a discriminant class obtained from the machine learning model with the highest model reliability among the M discriminant classes as a class discrimination result for the data to be discriminated;
computer programs, including
JP2021038054A 2021-03-10 2021-03-10 Method of discriminating class of discriminated data using machine learning model, information processing apparatus, and computer program Pending JP2022138266A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021038054A JP2022138266A (en) 2021-03-10 2021-03-10 Method of discriminating class of discriminated data using machine learning model, information processing apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021038054A JP2022138266A (en) 2021-03-10 2021-03-10 Method of discriminating class of discriminated data using machine learning model, information processing apparatus, and computer program

Publications (1)

Publication Number Publication Date
JP2022138266A true JP2022138266A (en) 2022-09-26

Family

ID=83399331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021038054A Pending JP2022138266A (en) 2021-03-10 2021-03-10 Method of discriminating class of discriminated data using machine learning model, information processing apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP2022138266A (en)

Similar Documents

Publication Publication Date Title
CN105740912B (en) The recognition methods and system of low-rank image characteristics extraction based on nuclear norm regularization
WO2019015246A1 (en) Image feature acquisition
Grattarola et al. Change detection in graph streams by learning graph embeddings on constant-curvature manifolds
JP2004152297A (en) Method and system for integrating multiple cue
JP4376145B2 (en) Image classification learning processing system and image identification processing system
US11816565B2 (en) Semantic coherence analysis of deep neural networks
Laaksonen Subspace classifiers in recognition of handwritten digits
JP2017102906A (en) Information processing apparatus, information processing method, and program
CN116110089A (en) Facial expression recognition method based on depth self-adaptive metric learning
CN114654902B (en) Method and system for executing discriminating processing of printing medium by machine learning model
Dieste et al. Resbagan: A residual balancing gan with data augmentation for forest mapping
Wong et al. A massive self-organizing map for hyperspectral image classification
Christensen et al. Empirical evaluation methods in computer vision
JP7552287B2 (en) OBJECT DETECTION METHOD, OBJECT DETECTION DEVICE, AND COMPUTER PROGRAM
JP2022138266A (en) Method of discriminating class of discriminated data using machine learning model, information processing apparatus, and computer program
US20230186085A1 (en) Learning method, determining method, learning apparatus, determining apparatus, and non-transitory computer-readable storage medium storing computer program
JP7567371B2 (en) Method for performing class classification processing using machine learning model, information processing device, and computer program
Julian et al. Construction of Deep Representations
de Oliveira Martins et al. Classification of breast masses in mammogram images using Ripley’s K function and support vector machine
JP2023027858A (en) Method, information processing device, and computer program for performing classification process using machine learning model
Patel et al. Breast Cancer Detection Framework using Evolutionary Search and SVM Classifier
JP2022118781A (en) Method of discriminating class of data to be discriminated using machine learning model, information processing apparatus, and computer program
JP2022131085A (en) Method for determining class of data to be discriminated using machine learning model, information processing apparatus, and computer program
JP2000090274A (en) Pattern identifying method and record medium recording pattern identification program
JP2023078763A (en) Classification device configured to execute classification processing using machine learning model, method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241015