JP6528608B2 - Diagnostic device, learning processing method in diagnostic device, and program - Google Patents
Diagnostic device, learning processing method in diagnostic device, and program Download PDFInfo
- Publication number
- JP6528608B2 JP6528608B2 JP2015168404A JP2015168404A JP6528608B2 JP 6528608 B2 JP6528608 B2 JP 6528608B2 JP 2015168404 A JP2015168404 A JP 2015168404A JP 2015168404 A JP2015168404 A JP 2015168404A JP 6528608 B2 JP6528608 B2 JP 6528608B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- conversion
- image
- unit
- diagnostic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、診断装置、及び診断装置における学習処理方法、並びにプログラムに関する。 The present invention relates to a diagnostic device, a learning processing method in the diagnostic device, and a program.
皮膚病変の診断として視診は必ず行われ、多くの情報を得ることが出来る。しかしながら、肉眼やルーペだけでは、ホクロとしみの判別さえ難しく、良性腫瘍と悪性腫瘍の鑑別も難しい。そこで、ダーモスコープ付きカメラを用いて病変を撮影するダーモスコピー診断が行われているが、画像の観察による症例の識別は医師のスキルに依存しているのが現状である。 As a diagnosis of skin lesions, visual inspection is always performed, and a lot of information can be obtained. However, with the naked eye or the loupe alone, it is difficult even to distinguish between hokuro and stains, and it is also difficult to distinguish between benign tumors and malignant tumors. Therefore, dermoscopy diagnosis is performed in which a lesion is photographed using a dermoscope camera, but the present situation is that the identification of a case by observation of an image depends on the skill of a doctor.
従来のダーモスコピー画像による画像の識別は原画像に基づき処理されており、このため、医師が症例を識別する手がかりである患部の血管構造に着目して重点処理することができず、したがって症例のパターン識別の精度に問題があった。 The identification of the image by the conventional dermoscopy image is processed based on the original image, so that the doctor can not focus on the blood vessel structure of the affected area which is a clue for identifying the case, and thus the case pattern There was a problem with the accuracy of identification.
ところで、一般的なパターン識別のための機械学習手法に、複数の識別器で識別を行い、その識別結果を統合することにより精度の高い識別を行うアンサンブル学習法が知られている。アンサンブル学習法は、推定の分散値が大きい識別器でも複数の識別器を集めて多数決による識別を行うと推定値の分散が小さくなることを識別の原理としている。 As a general machine learning method for pattern identification, there is known an ensemble learning method in which discrimination is performed with a plurality of classifiers and the discrimination results are integrated to perform discrimination with high accuracy. The ensemble learning method is based on the principle of discrimination that the variance of estimated values becomes small when a classifier with a large estimated variance value is gathered by a plurality of classifiers to perform discrimination by majority.
例えば、特許文献1に、特徴量空間の無数の基底関数の選択肢の中からパターン識別に有効な基底関数を優先的に選択してアンサンブル学習を行う方法が開示されている。
For example,
上記した特許文献1に開示された技術によれば、従来のアンサンブル手法に比べて学習時の計算量とデータ量は抑制できるが、依然として識別の精度に問題が残る。
According to the technology disclosed in
本発明は上記した課題を解決するためになされたものであり、アンサンブル識別器による識別の精度向上をはかってより精度の高い診断支援が可能な、診断装置、及び診断装置における学習処理方法、並びにプログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and a diagnostic device capable of performing diagnosis support with higher accuracy by improving the accuracy of discrimination by an ensemble classifier, and a learning processing method in the diagnostic device, and The purpose is to provide a program.
上記した課題を解決するために本発明の一態様は、皮膚画像を用いて皮膚の疾患を診断するための診断装置であって、診断されるべき対象に係わる複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備え、前記アンサンブル識別器が、前記対象に係る原画像データ、前記原画像データに対して所定の第1の変換処理が施された第1の変換画像データ、及び、前記原画像データに対して前記第1の変換処理と異なる第2の変換処理が施された第2の変換画像データのうちの、少なくとも前記第2の変換画像データを含めた2つを含む前記複数の未知の皮膚画像データに対応するように、少なくとも2つの単位識別器と、前記単位識別器によって各別に得られた複数の識別値を統合し最終判定値を得る判定手段と、を備え、前記第2の変換処理は、前記原画像データの輝度成分及び色情報成分に基づいて、前記原画像データから血管に相当する部位を強調して抽出する処理であることを特徴とする。
本発明の他の特徴は、本明細書及び添付図面の記載により明らかにする。
In order to solve the above-described problems, one aspect of the present invention is a diagnostic device for diagnosing a skin disease using a skin image, which is based on a plurality of unknown skin image data related to a subject to be diagnosed. And an ensemble discriminator for identifying whether the subject is a disease or not, wherein the ensemble discriminator comprises: original image data relating to the subject; and the first image data subjected to a predetermined first conversion process on the original image data. converted image data, and, of the second converted image data by the first conversion processing different from the second conversion processing on the original image data has been subjected, at least the second converted image data In order to correspond to the plurality of unknown skin image data including two included , at least two unit discriminators and a plurality of discrimination values separately obtained by the unit discriminators are integrated to obtain a final judgment value. Judgment Comprising a stage, and in that said second conversion processing, on the basis of the luminance component and color information components of the original image data, a process of extracting highlights the portion corresponding to the blood vessel from the original image data It features.
Other features of the present invention will become apparent from the description of the present specification and the accompanying drawings.
本発明によれば、アンサンブル識別器による識別の精度向上をはかり、より精度の高い診断支援が可能な、診断装置、及び診断装置における学習処理方法、並びにプログラムを提供することができる。 According to the present invention, it is possible to provide a diagnostic device, a learning processing method in a diagnostic device, and a program capable of improving the accuracy of identification by an ensemble classifier and performing diagnosis support with higher accuracy.
以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以降の図においては、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。 Hereinafter, with reference to the accompanying drawings, modes (hereinafter, embodiments) for carrying out the present invention will be described in detail. In the following drawings, the same elements are denoted by the same reference numerals or symbols throughout the description of the embodiments.
(第1実施形態の構成)
図1は、本発明の第1実施形態に係る診断装置100Aの構成を示すブロック図である。図1に示すように、本発明の第1実施態に係る診断装置100Aには、ダーモスコープ付き撮影装置110が接続されている。
(Configuration of the first embodiment)
FIG. 1 is a block diagram showing the configuration of a diagnosis apparatus 100A according to the first embodiment of the present invention. As shown in FIG. 1, a photographing
ダーモスコープ付き撮影装置110は、診断装置100Aからの指示により撮影を行ない、撮影画像(ダーモスコピー画像)を画像記憶部104に格納すると共に、表示装置120上に表示する。また、撮影画像は、診断装置本体10(前処理部10a,処理部11a)により画像処理が施されて画像記憶部104に保存されると共に表示装置120上に表示される。
The dermoscope-equipped
入力装置130は、ダーモスコープ画像の撮影開始指示や、後述するダーモスコピー画像中の部位選択操作等を行う。なお、表示装置120、例えば、LCD(Liquid Crystal Display)モニタ等により構成され、入力装置130は、マウス等により構成されている。
The
学習用皮膚画像記憶部103は、学習用に付された疾患の識別名称と既知の皮膚画像データを関連付けて記録される皮膚画像データベースである。
The learning skin
診断装置本体10は、前処理部10aと、処理部11a(アンサンブル識別器)と、取得部12aとを含む。
The
前処理部10aは、画像記憶部104に記憶された撮影画像(原画像データ)に構造明瞭変換処理を施した変換画像データ、あるいは、原画像データに対し部位強調処理が施された変換画像データを生成して処理部11aに出力する。ここで、構造明瞭変換処理とは、原画像データの輝度成分を強調する処理であり、部位強調処理とは、原画像データの輝度成分又は輝度成分及び色情報成分から該当する部位を抽出する処理である。なお、これら変換画像データを回転し、あるいは反転させた回転反転画像を含んでもよい。
The
このため、前処理部10aは、分離手段101と、抽出手段102と、を含む。
For this reason, the
分離手段101は、撮影画像を輝度成分と色情報成分に分離する手段として機能する。 The separation unit 101 functions as a unit that separates a photographed image into a luminance component and a color information component.
抽出手段102は、診断の対象の部位を抽出する手段として機能し、部位候補を輝度成分により抽出する第1の抽出手段102aと、部位らしさを輝度成分と色情報成分とから構成される色空間により抽出する第2の抽出手段102bの少なくとも1つを含み、抽出された部位候補又は部位らしさに平滑フィルタ処理を含むモルフォロジー処理を施す。 The extraction means 102 functions as a means for extracting a region to be diagnosed, and is a color space constituted by a first extraction means 102a for extracting a region candidate by a luminance component, and a region likeness from a luminance component and a color information component. And at least one of the second extraction means 102b for performing extraction, and performs morphological processing including smoothing filter processing on the extracted region candidate or region likeness.
抽出手段102は、撮影画像における構造化要素中の部位候補又は部位らしさを示す形状を抽出する場合、第1の抽出手段102aが輝度成分を用いて第1のモルフォロジー処理により部位候補を抽出するとともに、第2の抽出手段102bが色空間を用いて部位らしさを抽出し、抽出手段102が抽出された部位候補と部位らしさを統合して抽出画像を生成してもよい。
When the extraction means 102 extracts a shape indicating a part candidate or part likeness in a structured element in a photographed image, the first extraction means 102a extracts a part candidate by a first morphological process using a luminance component. The second extracting unit 102b may extract the region likeness using the color space, and the extracting
抽出手段102は、撮影画像における構造化要素中の部位候補又は部位らしさを示す形状を抽出する場合、第2の抽出手段102bが色空間を用いて部位らしさを抽出し、抽出手段102が抽出された部位らしさを用いて第2のモルフォロジー処理により部位抽出画像を生成してもよい。
When the
ここで、第1のモルフォロジー処理とは、抽出された輝度成分に対し膨張処理と収縮処理をこの順に繰り返すクロージング処理、クロージング処理が施された輝度成分に対する平滑フィルタ処理、及び平滑フィルタ処理が施された輝度成分から撮影画像の輝度成分を減算する減算処理を含む。また、第2のモルフォロジー処理とは、抽出された部位らしさに対し収縮処理と膨張処理をこの順に繰り返すオープニング処理、オープニング処理が施された部位らしさに対する平滑フィルタ処理、及び平滑フィルタ処理が施された部位らしさを抽出された部位らしさから減算する処理を含む。 Here, in the first morphological processing, the extracted luminance component is subjected to closing processing in which expansion processing and contraction processing are repeated in this order, smoothing filter processing on the luminance component subjected to the closing processing, and smoothing filter processing. And subtracting the luminance component of the photographed image from the luminance component. In the second morphological process, an opening process in which contraction and expansion processes are repeated in this order on the extracted part likeness, a smoothing filter process on the part likeness subjected to the opening process, and a smoothing filter process are performed It includes a process of subtracting the site likeness from the extracted site likeness.
処理部11aは、前処理部10aによって前処理された診断されるべき対象に係わる複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備え、このアンサンブル識別器は、対象に係る原画像データ、原画像データから変換された(第1の変換画像データ)及び同じく(第2の変換画像データ)のうち少なくとも2つを含む複数の皮膚画像データに対応するように、少なくとも2つの単位識別器111(CNN1),112(CNN2)・・と、単位識別器111,112によって各別に得られた識別値を統合し、最終判定値を得る判定手段113と、を含む。
The
なお、単位識別器111,112・・は、疾患に係る複数の既知の皮膚画像データに基づいて学習する畳み込みニューラルネットワーク(CNN:Convolution Neural Network)を有し、前処理部10aによって生成される変換画像データを、この畳み込みニューラルネットワークに入力することにより予め学習に付され、診断されるべき疾患の識別が可能なように分類情報を生成する識別器として機能する。
Note that the
なお、単位識別器111,112・・・は、例えば、診断装置100Aが製造工場から出荷される前に製造段階で予め学習に付されていてもよいし、出荷された後に病院側などで予め学習に付されることとしてもよい。ここで、「予め」とは、診断されるべき疾患を識別するよりも前にという意味である。
Note that, for example, the
図2に、畳み込みニューラルネットワーク(CNN)の代表的構成を示す。図2によれば、畳み込みニューラルネットワークは、学習段階では複数の既知の皮膚画像データ(変換画像データ)が、試験段階では複数の未知の皮膚画像データ(変換画像データ)が入力される入力層111aと、畳み込み層とプーリング層から構成されたセットを複数有し、複数の既知の皮膚画像データ又は複数の未知の皮膚画像データから特徴を抽出する中間層111bと、抽出された特徴に基づき診断対象の分類ごとに識別値を出力する出力層111cと、を備える。
FIG. 2 shows a representative configuration of a convolutional neural network (CNN). According to FIG. 2, in the convolutional neural network, a plurality of known skin image data (converted image data) are input in the learning stage, and a plurality of unknown skin image data (converted image data) are input in the testing stage. And an
上記した畳み込みニューラルネットワークの処理は、多段接続された複数の処理ユニットaを介して行われる。各処理ユニットaの入出力は、入力画像から抽出される複数の特徴である特徴マップbで示される複数の二次元画像である。この場合、入力画像も1枚の特徴量マップとみなされる。ここでは、畳み込み演算とプーリングのユニットのペアが処理ユニットaとして多段接続され、特徴量ベクトルを算出する。この特徴量ベクトルに対し、後述する判定手段113で識別処理が行われ、出力クラスを得る構成になっている。
The processing of the above-described convolutional neural network is performed via a plurality of processing units a connected in multiple stages. The input and output of each processing unit a are a plurality of two-dimensional images represented by a feature map b which is a plurality of features extracted from an input image. In this case, the input image is also regarded as one feature amount map. Here, a pair of units of convolution operation and pooling are connected in multiple stages as a processing unit a to calculate a feature quantity vector. An identification process is performed on the feature amount vector by the
判定手段113は、抽出された特徴を入力して識別を行う。畳み込みニューラルネットワークの学習は、誤差逆転伝搬法による学習により各層の重みを更新する。識別処理として多層パーセプトロンが用いられる。多層パーセプトロンは、入力層111a、中間層111b、出力層111cで構成される非線形のクラス識別器である。各階層間の重みは、誤差伝搬法による確率的勾配降下法で求める。識別時は、特徴量を順次伝搬し、出力層の各ユニットの出力を各クラスの事後確率として画像を分類する。ここでは、各単位識別器に111,112よって各別に得られた識別値を、例えば、平均することにより統合し、最終判定値を得る。
The determination means 113 inputs the extracted feature and performs identification. In the learning of the convolutional neural network, the weight of each layer is updated by learning by the error reverse propagation method. A multilayer perceptron is used as an identification process. The multilayer perceptron is a non-linear class discriminator composed of an input layer 111a, an
畳み込みニューラルネットワークは、高い精度で画像を分類するのに一般的な手法であり、例えば、インターネットURL(http://en.wikipedia.org/wiki/Convolutional neural network)等に詳細に記載されている。畳み込みニューラルネットワーク(CNN)は、脳の神経回路網を模したニューラルネットワークを多層にして学習するディープラーニング(ディープニューラルネットワーク;Deep Neural Network)の一種であり、画像解析に好適に用いることができる。なお、ディープラーニングの他の手法を採用したり、他の手法と組み合わせたりすることも可能である。 A convolutional neural network is a general method for classifying images with high accuracy, and is described in detail, for example, on the Internet URL (http://en.wikipedia.org/wiki/Convolutional neural network). . A convolutional neural network (CNN) is a type of deep learning (deep neural network; deep neural network) in which neural networks that simulate neural networks of the brain are learned in multiple layers and can be suitably used for image analysis. In addition, it is also possible to adopt other methods of deep learning or to combine with other methods.
なお、取得部12aは、複数の未知の皮膚画像データを取得可能であって、構造明瞭、部位強調等の画像変換のために前処理部10aへ出力する。
The acquiring
(第1実施形態の動作)
以下、図3以降のフローチャートを参照しながら、図1,図2に示す本発明の第1実施形態に係る診断装置100Aの動作について詳細に説明する。なお、以下の動作は、コンピュータに実行させる学習処理プログラムとして構成することができる。
(Operation of the first embodiment)
Hereinafter, the operation of the diagnostic device 100A according to the first embodiment of the present invention shown in FIGS. 1 and 2 will be described in detail with reference to flowcharts in FIG. The following operations can be configured as a learning processing program to be executed by a computer.
図3において、診断装置本体10の取得部12aは、まず、診断対象に係わる複数の未知の皮膚画像データを学習用皮膚画像として取得する(ステップS10:学習画像収集)。具体的に、未知の皮膚画像データの収集にあたり、医師が患者の疾患部分のダーモスコピー撮影を行なうことにより、取得部12aが、その撮影操作により複数の未知の皮膚画像データを取り込み、前処理部10aへ出力する。
In FIG. 3, the acquiring
このとき、前処理部10aは、症例の疾患名を、収集した学習用皮膚画像データに関連付けて学習用皮膚画像記憶部103に登録する。そして、前処理部10aは、学習用皮膚画像を必要数収集したか否かを判定し、必要枚数収集するまで上記の手順を繰り返し実行し、学習用皮膚画像記憶部103上に皮膚画像データベースを構築する。
At this time, the
取得部12aがステップS10で未知の皮膚画像データ収集処理を実行後、前処理部10aは、未知の皮膚画像データに対して構造明瞭、部位強調等の画像変換処理を実行し、更に、90度回転等のデータ増量処理を施して処理部11aへ出力する。処理部11aは、単位識別器111,112・・・が、重みフィルタによる畳み込み演算とプーリングとを繰り返すことにより、入力画像である学習用皮膚画像の特徴を抽出する(ステップS20:機械学習器生成処理)。
After the
具体的に、単位識別器111,112・・・は、入力画像に対して重みフィルタをラスタスキャンさせて繰り返し畳み込み演算を行うことで特徴マップb(図2)を得、その後、特徴マップbに対してプーリングを行ない、m−1の特徴マップbの小領域から値を出力してmの特徴マップに変換する識別器生成処理を実行する。
Specifically, the
次に、判定手段113は、単位識別器111,112・・・で抽出した特徴を入力して識別を行う。識別処理として多層パーセプトロンが用いられ、識別時は、特徴量を順次伝搬し、出力層111cの各ユニットの出力を各クラスの事後確率として入力画像を分類する未知の画像について識別処理を実行する(ステップS30:試験画像識別)。
Next, the determination means 113 performs identification by inputting the features extracted by the
図4は、本発明の第1実施形態に係る診断装置100Aの機械学習識別器生成処理の手順(図3のステップS20)を示すフローチャートである。図4によれば、まず、前処理部10aが、学習用皮膚画像に対して、部位強調、構造明瞭のための画像変換処理を実行する(ステップS201)。ここで、部位強調とは、原画像データに対し血管等の部位強調処理が施された画像データである。部位強調変換処理は、原画像データの輝度成分又は輝度成分及び色情報成分から該当する部位を抽出する処理、構造明瞭は、画像データの輝度成分を強調する処理である。
FIG. 4 is a flowchart showing the procedure of the machine learning discriminator generation process (step S20 of FIG. 3) of the diagnosis apparatus 100A according to the first embodiment of the present invention. According to FIG. 4, first, the
以下、図5〜図10を参照して、図4のステップS201の「学習用皮膚画像に画像の変換」の詳細な処理手順について説明する。 Hereinafter, with reference to FIGS. 5-10, the detailed process sequence of "conversion to the skin image for learning" of FIG.4 S201 is demonstrated.
この画像変換にあたり、前処理部10aは、まず、ダーモスコープ付き撮影装置110で撮影された、例えば、皮膚の病変部位等、患部の撮影画像を取得する。そして、取得した撮影画像を画像記憶部104の所定の領域に格納し、続いて、前処理部10aは、撮影画像から血管抽出処理を行い、抽出された血管を強調する処理を実行する。
In the image conversion, the
図5に、画像変換(画像変換処理A)のための詳細な処理手順が示されている。図5によれば、前処理部10aは、まず、分離手段101が、RGB色空間の撮影画像を、Lab色空間(正確には、CIE 1976 L*a*b色空間)に変換する(ステップS201a)。Lab色空間の詳細は、インターネットURL(http://ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93)<平成26年9月1日>に記載されている。
A detailed processing procedure for image conversion (image conversion processing A) is shown in FIG. According to FIG. 5, the
次に、前処理部10aは、抽出手段102が、診断の対象として選択された部位を抽出する。具体的に、第1の抽出手段102aが、選択された部位の候補(血管候補)をLab色空間において分離された輝度成分から抽出する。このため、第1の抽出手段102aは、分離手段101によって色空間変換されたLab色空間で輝度に相当するL画像を用い、モルフォロジー処理A(第1のモルフォロジー処理)により血管候補画像BHを得る(ステップS202a)。ここで、モルフオロジー処理とは、構造化要素を入力画像に適用し、同じサイズの出力画像としての血管候補画像BHを生成するもので、出力画像の各値は、入力画像内の対応する画素と近傍画素との比較に基づいている。
Next, the preprocessing
最も基本的なモルフォロジー処理は、膨張と収縮である。膨張は入力画像内のオブジェクトの境界に画素を付加し、収縮は、境界の画素を除去する。オブジェクトに付加し、あるいは削除する画素の数は、画像処理に使用される構造化要素のサイズと形状によって異なる。 The most basic morphological processes are expansion and contraction. Dilation adds pixels to object boundaries in the input image, and contraction removes boundary pixels. The number of pixels added to or deleted from an object depends on the size and shape of the structuring element used for image processing.
ここでは、モルフォロジー処理Aを実行し、診断の対象として選択された部位(血管候補)を輝度成分から抽出する方法について説明する。ボトムハット処理については、図6にその詳細手順が示されている。 Here, a method of executing morphology processing A and extracting a site (blood vessel candidate) selected as a target of diagnosis from the luminance component will be described. The bottom hat processing is shown in FIG. 6 in detail.
図6によれば、第1の抽出手段102aは、L画像に膨張処理を行い、処理後の輝度画像L1を得る(ステップS202a−1)。膨張処理の詳細は、インターネットURL(http://www.mathworks.co.jp/jp/help/images/morphology−fundamentals−dilation−and−erosion.html)<平成26年9月1日閲覧>に記載されている。 According to FIG. 6, the first extraction unit 102a performs expansion processing on the L image to obtain a luminance image L1 after processing (step S202a-1). The details of expansion processing, Internet URL (http://www.mathworks.co.jp/jp/help/images/morphology-fundamentals-dilation-and-erosion.html) <September 1, 2014 reading> Have been described.
次に、第1の抽出手段102aは、膨張処理後の輝度画像L1に対して収縮処理を行い、収縮処理後の輝度画像L2を得る(ステップS202a−2)。続いて、第1の抽出手段102aは、収縮処理後の輝度画像L2に対して輝度を滑らかにする平滑フィルタ処理を施し、平滑化された輝度画像L3を得る(ステップS202a−3)。ここでは、ガウシアンフィルタにより平滑化が施される。 Next, the first extraction unit 102a performs contraction processing on the luminance image L1 after expansion processing, and obtains a luminance image L2 after contraction processing (step S202a-2). Subsequently, the first extraction unit 102a performs smoothing filter processing to smooth the luminance on the luminance image L2 after the contraction processing, and obtains a smoothed luminance image L3 (step S202a-3). Here, smoothing is performed by a Gaussian filter.
ガウシアンフィルタによる平滑化は以下の演算式で表現される。
f(x,y)=(1/√(2πσ^2))exp(−(x^2+y^2)/(2σ^2))
The smoothing by the Gaussian filter is expressed by the following equation.
f (x, y) = (1 / √ (2πσ ^ 2)) exp (-(x ^ 2 + y ^ 2) / (2σ ^ 2))
ガウシアンフィルタでは、ガウス分布による重み付けが上記所定レートとして利用される。上記した演算式中のσの大きさにより平滑度を制御でき、所定の値を設定することにより実現される。なお、平滑フィルタは、ガウシアンフィルタに限定されず、メディアンフィルタ、平均フィルタ等を用いてもよい。平滑処理後の輝度画像L3からL画像を減算して(BH=L3−L)ボトムハット処理後の画像BHを得る(ステッフS202a−4)。 In the Gaussian filter, weighting by Gaussian distribution is used as the predetermined rate. The degree of smoothness can be controlled by the magnitude of σ in the above-described arithmetic expression, and this is realized by setting a predetermined value. The smoothing filter is not limited to the Gaussian filter, and a median filter, an average filter or the like may be used. From the luminance image L3 after the smoothing process by subtracting the L image (BH = L 3 -L) to obtain an image BH after bottom-hat processing (Stiff S202a-4).
以上の処理を規定回数について繰り返し、規定回数が終了したときは、画像BHを血管抽出画像Eとする。規定回数内のときは、画像BHを画像Lとして膨張処理(ステップS202a−1)、収縮処理(ステップS202a−2)等を繰り返す。 The above process is repeated for the specified number of times, and when the specified number of times is completed, the image BH is taken as the blood vessel extraction image E. When the number is within the specified number, the expansion process (step S202a-1), the contraction process (step S202a-2), and the like are repeated using the image BH as the image L.
ここで、膨張処理について補足する。例えば、半径5ドットの構造化要素を考える。膨張処理とは、注目画素の構造化要素の範囲内での最大値をその注目画像の値とする処理を全画素について行うことをいう。すなわち、出力される注目画素値は、入力画素近傍の中で全ての画素の最大値である。一方、縮小処理は、注目画素の構造化要素の範囲内での最小値をその注目画素の値とする。すなわち、注目画素値は、入力画素近傍の中で全ての画素の最小値である。なお、構造化要素は円としたが、例えば、矩形でもよい。但し、円にしたほうが平滑フィルタの平滑度を小さくできる。
Here, the expansion process is supplemented. For example, consider a structuring element of
説明を図5のフローチャートに戻す。次に、処理部11aは、第2の抽出手段102bが、選択された部位のそれらしさ(血管らしさ)を輝度成分と色情報成分とから構成される色空間により抽出する。このため、第2の抽出手段102bは、血管らしさを尤度Aとして計算する(ステップS203a)。尤度Aの求め方は図7にその一例が示されている。
The description is returned to the flowchart of FIG. Next, the
図7のフローチャートによれば、前処理部10aは、第2の抽出手段102bが、Lab色空間の赤系の色相方向に応じた色情報成分であるa軸の値、及び青系の色相方向に応じた色情報成分であるb軸の値を用いて抽出する(ステップS203a−1)。すなわち、第2の抽出手段102bは、Lab色空間のa軸,b軸の値から以下の計算を行うことによってLH1を生成する(ステップS203a−2)。
According to the flowchart of FIG. 7, the
ad=(a−ca)*cos(r)+b*sin(r)+ca
bd=−(a−ca)*sin(r)+b*cos(r)
LH1=exp(−((ad*ad)/sa/sa+(bd*bd)
/sb/sb))
ad = (a-ca) * cos (r) + b * sin (r) + ca
bd =-(a-ca) * sin (r) + b * cos (r)
LH1 = exp (-((ad * ad) / sa / sa + (bd * bd)
/ Sb / sb))
ここで、ad,bdは、(ca,0)を中心に、反時計回りにab平面をrラジアンだけ回転させたものとなる。また、rの値として、0.3〜0.8ラジアン程度を設定する。caは、0〜50の間で設定する。sa,sbは、それぞれa軸方向の感度の逆数、b軸方向の感度の逆数となる。ここでは、sa>sbとして設定する。 Here, ad and bd are obtained by rotating the ab plane counterclockwise by r radian around (ca, 0). Also, as the value of r, about 0.3 to 0.8 radian is set. ca is set between 0 and 50. sa and sb are respectively the reciprocal of the sensitivity in the a-axis direction and the reciprocal of the sensitivity in the b-axis direction. Here, it is set as sa> sb.
次に、第2の抽出手段102bは、得られたLH1に輝度Lで制限をかける。輝度Lが閾値TH1以上であれば0にしたものをLH3とし(ステップS203a−3)、輝度Lが閾値TH2以下のものをLH3とする(ステップS203a−4)。ここでは、閾値TH1は60から100の間で、閾値TH2は0から40の間で設定するものとする。ここで求めたLH3を、血管らしさを示す尤度Aとする(ステップS203a−5)。 Next, the second extraction means 102b limits the obtained LH1 with the luminance L. Those luminance L is set to 0 if the threshold value TH1 or more and LH 3 (Step S203a-3), the luminance L is the threshold TH2 following ones and LH3 (Step S203a-4). Here, the threshold TH1 is set between 60 and 100, and the threshold TH2 is set between 0 and 40. Let LH3 obtained here be a likelihood A indicating blood vessel likeness (step S203a-5).
説明を図5に戻す。第2の抽出手段102bは、上記した手順にしたがい血管らしさを尤度Aとして抽出した後(ステップS203a)、ボトムハット処理後の画像BHと、血管らしさを示す尤度Aの各要素を乗算し、係数Nで除算する(ステップS204a)。さらに、1でクリッピング処理を行なうことで強調された血管抽出画像Eを生成する(ステップS205a)。 Description will be returned to FIG. The second extraction means 102b extracts blood vessel likeness as the likelihood A according to the above procedure (step S203a), and then multiplies the image BH after bottom hat processing by each element of the likelihood A indicating blood vessel likeness , Division by a factor N (step S204a). Furthermore, the blood vessel extraction image E enhanced by performing the clipping process in 1 is generated (step S205a).
上記した例によれば、血管抽出画像Eは、0〜1までの値を持つ多値画像であるものの、ボトムハット処理を経ているため、抽出された血管の境界は急峻になっている。さらに急峻な境界を得たい場合は、所望の閾値で2値化をしてもよい。 According to the example described above, the blood vessel extraction image E, although a multi-level image having a value of up to 0-1, since the through ball Tomuhatto processing, the boundary of the extracted blood vessel is steeper. When it is desired to obtain a sharper boundary, binarization may be performed with a desired threshold.
上述したように、第2の抽出手段102bは、色空間の赤系の色相方向と、青系の色相方向で構成される平面座標を、赤系の色相方向軸の特定の点を中心に反時計まわりに所定角回転させ、特定の値域で輝度成分に制限をかけることにより、選択された部位の血管らしさを示す尤度Aを算出する。そして、算出された尤度Aを、輝度成分の画像にボトムハット処理を施して得られる輝度画像に乗算して選択された部位を強調する。 As described above, the second extracting unit 102b shifts the plane coordinates formed by the red hue direction of the color space and the blue hue direction around the specific point of the red hue axis. A likelihood A indicating the blood vessel likeness of the selected part is calculated by rotating the predetermined angle clockwise and limiting the luminance component in a specific value range. Then, the selected likelihood is emphasized by multiplying the calculated likelihood A by the luminance image obtained by performing bottom-hat processing on the image of the luminance component.
血管らしさを尤度Aとして抽出する変形例について、図8のフローチャートを参照して説明する。抽出手段102は、Lab色空間の赤系の色相方向であるa軸の値を取得し(ステップS203a−7)、Sを例えば80とし(ステップS203a−8)、血管らしさAの値を、0〜80の範囲で制限を与えて正規化(A←max(min(a,S),0)/S)を行い、0から1の値範囲に設定している(ステップS203a−9)。ここでは、0から80の値で制限を与えたが、この値は一例であり、この値に制限されない。
A modification in which blood vessel likeness is extracted as the likelihood A will be described with reference to the flowchart in FIG. The
次に、学習画像の画像変換処理の他の例として、色情報から直接血管を抽出する方法について図9,図10のフローチャートを参照しながら説明する。以降の説明では、色情報から血管尤度画像を生成し、改良されたトップハット処理(以下、モルフォロジー処理Bという)によって血管を抽出するものである。なお、血管尤度画像は、尤度の高い方が画像の値が大きい。 Next, as another example of the image conversion process of a learning image, a method of directly extracting a blood vessel from color information will be described with reference to the flowcharts of FIGS. In the following description, a blood vessel likelihood image is generated from color information, and a blood vessel is extracted by the improved top hat processing (hereinafter referred to as morphology processing B). In the blood vessel likelihood image, the higher the likelihood, the larger the value of the image.
図6に示したモルフォロジー処理Aは、ソース画像に対して膨張処理を施した後に縮小処理を行なっている。膨張、収縮を同じ回数分繰り返して行う処理はクロージング処理と呼ばれている。つまり、クロージング処理した画像に平滑フィルタ処理を施し、ソース画像から減算(ブラックハット処理)している。ここで、ソース画像は輝度画像Lであり、血管での画像の値は比較的小さくなっている。このように、画像中の値が小さい形状を抽出する場合に図6に示すモルフォロジー処理Aが用いられる。 In the morphological processing A shown in FIG. 6, the reduction processing is performed after the expansion processing is performed on the source image. The process of repeating expansion and contraction the same number of times is called closing process. That is, smoothing filtering is applied to the image subjected to closing processing, and subtraction (black hat processing) is performed from the source image. Here, the source image is a luminance image L, and the value of the image at the blood vessel is relatively small. Thus, when extracting a shape having a small value in the image, the morphological processing A shown in FIG. 6 is used.
以下に、モルフォロジー処理Bによる血管抽出処理について説明する。図9に、画像変換Bの処理手順を示すように、前処理部10aは、まず、分離手段101が、RGB色空間の撮影画像を、Lab色空間変換する(ステップS201b)。次に、前処理部10aは、第2の抽出手段102bが、選択された部位のそれらしさ(血管らしさ)をLab色空間において分離された色情報成分により抽出する。このため、第2の抽出手段102bは、血管らしさを尤度Aとして計算する(ステップS202b)。尤度Aの求め方は、先に図7、図8を使用して説明した通りである。
The blood vessel extraction process by the morphology process B will be described below. As shown in FIG. 9, the processing procedure of the image conversion B is as follows. First, the separation unit 101 performs Lab color space conversion on the photographed image in the RGB color space of the
続いて、第2の抽出手段102bは、血管らしさを示す血管尤度画像Aから血管抽出E画像を取得する(ステップS203b)。血管尤度画像Aから血管抽出画像を取得する処理手順は図10に示されている。 Subsequently, the second extraction unit 102b acquires a blood vessel extraction E image from the blood vessel likelihood image A indicating blood vessel likeness (step S203 b). A processing procedure for acquiring a blood vessel extraction image from the blood vessel likelihood image A is shown in FIG.
図10のフローチャートによれば、第2の抽出手段102bは、まず、血管尤度画像Aを適切な構造化要素により収縮処理を行なって収縮処理後の血管尤度画像A1を取得する(ステップS203b−1)。次に、収縮処理後の血管尤度画像A1を膨張処理して膨張処理後の血管尤度画像A2を得る(ステップS203b−2)。第2の抽出手段102bは、更にこの膨張処理後の血管尤度画像A2に平滑フィルタ処理(ガウシアンフィルタ)を施し、平滑処理後の血管尤度画像A3を得る(ステップS203b−3)。最後に、血管尤度画像Aから平滑処理後の血管尤度画像A3を差し引いて血管抽出画像Eを得る(ステップS203b−4)。 According to the flowchart of FIG. 10, the second extraction unit 102b first performs contraction processing on the blood vessel likelihood image A using an appropriate structuring element to acquire the blood vessel likelihood image A1 after contraction processing (step S203 b). -1). Next, the blood vessel likelihood image A1 after the contraction process is subjected to dilation processing to obtain a blood vessel likelihood image A2 after the dilation processing (step S203 b-2). The second extraction means 102b further performs a smoothing filter process (Gaussian filter) on the blood vessel likelihood image A2 after the expansion process to obtain a blood vessel likelihood image A3 after the smoothing process (step S203 b-3). Finally, a blood vessel extraction image E is obtained by subtracting the blood vessel likelihood image A3 after the smoothing process from the blood vessel likelihood image A (step S203 b-4).
上記したように、ソース画像(血管尤度画像A)に対して収縮処理を行ない、続いて膨張処理を行なったものを、オープニング処理という。第2の抽出手段102bは、オープニング処理した画像に対して平滑フィルタ処理を施し、ソース画像からオープニングした画像を差し引いて(トップハット処理)、ソース画像中の血管形状を抽出している。ここで、ソース画像は血管尤度画像になっているため、血管らしいところでは画像の値が大きくなっている。 As described above, the source image (blood vessel likelihood image A) subjected to contraction processing and then to expansion processing is referred to as opening processing. The second extraction unit 102b performs smoothing filter processing on the image subjected to opening processing, subtracts the opened image from the source image (top hat processing), and extracts the blood vessel shape in the source image. Here, since the source image is a blood vessel likelihood image, the value of the image is large where blood vessels are likely.
説明を図9のフローチャートに戻す。第2の抽出手段102bは、血管尤度画像Aから血管抽出E画像を取得した後、血管抽出E画像に適切な係数Nを乗算し(ステップS204b)、1でクリッピング処理を行なうことで強調された血管抽出画像を生成する(ステップS205b)。 The description is returned to the flowchart of FIG. After acquiring the blood vessel extraction E image from the blood vessel likelihood image A, the second extraction means 102b multiplies the blood vessel extraction E image by an appropriate coefficient N (step S204b), and is enhanced by performing the clipping process in 1. The blood vessel extraction image is generated (step S205 b).
上記したように、多値画像から形状を取得するために、画像中の値が大きい形状を取得する場合には、クロージング処理を行った画像に対して平滑フィルタ処理を施し、ソース画像を差し引くことにより血管抽出画像を得、一方、画像中の値が小さい形状を取得する場合には、オープニング処理を行ったものに対して平滑フィルタ処理を施してソース画像から減算することにより血管抽出画像を得る。 As described above, in order to acquire a shape having a large value in an image in order to acquire a shape from a multivalued image, a smoothing filter process is performed on the image subjected to the closing process, and the source image is subtracted. The blood vessel extraction image is obtained by obtaining the blood vessel extraction image, and on the other hand, when obtaining a shape having a small value in the image, the one subjected to the opening process is subjected to the smoothing filter process and subtracted from the source image. .
ここで、オープニング処理とは、収縮処理と膨張処理をその順で一回あるいは複数回繰り返したものをいい、クロージング処理とは、膨張処理と収縮処理をその順で一回あるいは複数回繰り返したものをいう。オープニング処理、クロージング処理ともに、使用する構造化要素の形状は円が好ましい。また、平滑フィルタとし、例えば、ガウシアンフィルタ、平均フィルタ、メディアンフィルタ等が使用される。 Here, the opening processing, refers to those repeated one or more times a contraction processing and expansion processing in that order, the claw-di-packaging process, repeated one or more times the expansion processing and contraction processing in that order Say what The shape of the structuring element used in both the opening process and the closing process is preferably a circle. Further, as a smoothing filter, for example, a Gaussian filter, an average filter, a median filter or the like is used.
以上が学習画像の画像変換処理(血管強調、構造明瞭)であり、輝度画像からの血管形状抽出、血管尤度画像からの血管形状抽出を行い、その結果、不規則な形状、値変動が大きな形状に対してもモアレ等の疑似模様を発生させることなく形状取得が可能になる。 The above is the image conversion processing (blood vessel enhancement, clear structure) of the learning image, and the blood vessel shape extraction from the luminance image and the blood vessel shape extraction from the blood vessel likelihood image are performed. As a result, the irregular shape and the value fluctuation are large. It is possible to obtain the shape without generating a pseudo pattern such as moire for the shape.
説明を図4の機械学習識別器生成処理のフローチャートに戻す。図4において、前処理部10aは、上記した、血管強調、構造明瞭のための画像変換処理を実行後(ステップS201)、各変換画像を90xN回転と反転の組み合わせで8倍に増量処理を実行し、結果を処理部11aに引き渡す(ステップS202)。
The description is returned to the flowchart of the machine learning discriminator generation process of FIG. In FIG. 4, after the
これを受けて処理部11aは、増量された各画像の学習済みCNN値を変換画像毎に平均して4096次元の特徴ベクトルを得る(ステップS203)。処理部11aは、更に、変換画像毎に出力された特徴ベクトル平均を連結して最終的なベクトル表現とする(ステップS204)。そして、ステップS210からS204の処理を繰り返し実行して必要種類の識別器生成後(ステップS205“YES”)、連結された特徴ベクトルを用い、そのベクトルを入力とする線形SVM(Support Vector Machine)学習を行ない、機械学習識別器生成処理を終了する(ステップS206)。
In response to this, the
図11は、本発明の第1実施形態に係る診断装置100Aの試験画像の識別処理の手順(図3のステップS30)を示すフローチャートである。 FIG. 11 is a flowchart showing the procedure of the test image identification process (step S30 of FIG. 3) of the diagnostic device 100A according to the first embodiment of the present invention.
図11によれば、まず、前処理部10aは、取得部12aが取得した未知の皮膚画像データに対して、部位強調、構造明瞭のための画像変換を実行する(ステップS301)。ここで行われる画像変換は、学習用皮膚画像の画像変換と同様、図5〜図10のフローチャートにしたがう。前処理部10aは、更に、各変換画像を90xN回転と反転の組み合わせで8倍に増量処理を実行し、結果を処理部11aに引き渡す。
According to FIG. 11, first, the
処理部11aは、増量された各画像の学習済みCNN値を変換画像毎に平均して4096次元の特徴ベクトルを得、更に、変換画像毎に出力された特徴ベクトル平均を連結して最終的なベクトル表現とする(ステップS302)。そして、処理部11aは、ステッップS301とS302の処理を繰り返し実行して必要種類の識別器生成後(ステップS303“YES”)、判定手段113が、全ての識別値を平均貸して最終判定値を得、例えば、表示装置120に表示する(ステップS304)。
The
すなわち、ステップS301〜S303までの処理は、画像変換の対象となる入力画像が学習用皮膚画像から試験画像(未知の画像)に変更されただけであり、必要種類の識別器生成後、学習済みの線形SVM識別器の出力値により識別結果を得る。 That is, in the processing of steps S301 to S303, the input image to be subjected to the image conversion is only changed from the learning skin image to the test image (an unknown image), and after the generation of the necessary types of classifiers The discrimination result is obtained by the output value of the linear SVM discriminator of
(第2実施形態)
図12に、本発明の第2実施形態に係る診断装置100Bの構成が示されている。図1に示す第1実施形態に係る診断装置100Aとの構成上の差異は、診断装置本体10の処理部11bの構成にのみある。第2実施形態に係る診断装置100Bにおいて、処理部11bは、原画像を含む変換画像毎に複数の識別器を生成する構成になっている。周辺装置であるダーモスコープ付撮影装置110、表示装置120、入力装置130も含め他の構成は図1に示した第1実施形態に係る診断装置100Aと同様である。
Second Embodiment
FIG. 12 shows the configuration of a diagnostic device 100B according to a second embodiment of the present invention. The difference in configuration from the diagnostic device 100A according to the first embodiment shown in FIG. 1 is only in the configuration of the
上記構成において、処理部11bは、原画像に対して単位識別器CNN1〜CNN3(211〜213)、部位強調画像に対して識別器CNN4〜CNN6(214〜216)、構造明瞭画像に対して識別器CNN7〜CNN9(217〜219)がそれぞれ特徴ベクトルを生成する。この場合、識別器生成の際の学習時の初期値は、都度、乱数で決定し、同じ変換画像群に対しても、異なる識別器となるようにする。
In the above configuration, the
すなわち、第2実施形態に係る診断装置100Bでは、各単位識別器211〜219は、初期値がその都度乱数によって決定されることにより、決定された初期値ごとに単位識別器の群として多段的に機能することができる。
That is, in the diagnostic device 100B according to the second embodiment, each of the
(実施形態の効果)
以上説明のように本実施形態に係る診断装置100A(100B)によれば、構造明瞭や部位強調などの画像変換を行った後、変換アリゴリズム毎に、個別で画像識別を行い、それぞれの識別スコアを総合的に判定することにより疾患の識別率を向上させることができる。
(Effect of the embodiment)
As described above, according to the diagnostic device 100A (100B) according to the present embodiment, after image conversion such as structural clarity or site enhancement is performed, image identification is individually performed for each conversion algorithm, and each identification score It is possible to improve the identification rate of disease by comprehensively determining
具体的に、イボとホクロ識別試験による識別率を評価結果として図13に表形式で示した。識別対象は、イボとホクロの2クラス分類とした。イボはウイルス感染や皮脂腺の多い部位の皮膚表面が変化してできるもの、ホンロは色素細胞(メラノサイト)というメラニン色素を作る細胞が変化した母斑細胞と呼ばれる細胞のかたまりで発生箇所が異なるもので、色、形状が似通っていて素人には判別が困難なケースが一定数存在する。イボかホクロかの識別には直接的な需要がある点と、症例が多くデータの入手が比較的よういである点を考慮してこのような問題設定を選択した。 Specifically, the discrimination rate by the warpage and the hokuro discrimination test is shown in the form of a table in FIG. 13 as the evaluation result. The target of identification was a 2-class classification of wart and hokuro. Wart can be caused by changes in the skin surface in areas with many viral infections and sebaceous glands, and uro is a cluster of cells called nevus cells in which the cells that make up the melanin pigment called melanocytes (melanocytes) are different. There are a certain number of cases where color and shape are similar and it is difficult for an amateur to distinguish. We chose this kind of problem setting in consideration of the direct demand for the identification of wart or hokuro and the fact that there are many cases with relatively easy access to data.
評価用データは、イボ画像261枚、ホクロ画像704枚を用い、イボ画像、ホクロ画像をそれぞれ4分割して評価を行った。更に、この評価用データセットを用い、イボ、ホクロの識別学習器を用いて評価した。このイボ、ホクロの識別成功率が図13に示されている。表には、学習済みCNNを利用した個別識別(但し、前処理無し)、5種画像アンサンブル(5種類の変換画像による特徴ベクトルの連結)、7種変換画像による識別成功率がそれぞれ示されている。 The evaluation data was evaluated by dividing the warpage image and the black image into four parts using 261 war images and 704 black images. Furthermore, using this data set for evaluation, evaluation was performed using a discrimination / learning device of wart and hokuro. The identification success rate of the wart and the hokuro is shown in FIG. In the table, individual identification using training CNN (but without pre-processing), five image ensembles (concatenation of feature vectors by five types of converted images) and discrimination success rates by seven types of converted images are shown respectively. There is.
図13に示すように、個別の変換画像のみによる識別器においては、従来のBoF(Bag−of−Features)方式で前処理無しのグレー画像で89.8%、HDRC(High Dynamic Range Compression)グレー画像で89.8%よりも約1〜2%ほど上回っており、本実施形態に係る診断装置100A(100B)により優位性を確認することができた。また、5種アンサンブル方式に対して構造明瞭画像、血管等部位強調画像を加えた7種アンサンブル方式にすることにより、93.9%から94.7%へ識別成功率の向上を確認することができた。 As shown in FIG. 13, in the classifier using only individual converted images, 89.8% of gray images without pretreatment in the conventional BoF (Bag-of-Features) method, HDRC (High Dynamic Range Compression) gray The image was about 1 to 2% higher than 89.8%, and the superiority could be confirmed by the diagnostic device 100A (100B) according to the present embodiment. In addition, by using 7 types of ensemble method in which a structure clear image and a region-weighted image such as blood vessels are added to 5 types of ensemble methods, it is possible to confirm an improvement in the identification success rate from 93.9% to 94.7%. did it.
最後に、以上では、本実施形態として、診断装置、及び診断装置における学習処理方法、並びにプログラムを説明したが、各要素をそれぞれの手段とする診断システムとして構築してもよい、例えば、個々の手段をネットワークで接続し、医療現場には患者の疾患に係る未知の皮膚画像データを取得する手段を端末として配置し、その皮膚画像データをもとに診断されるべき疾患を識別する手段を専門機関が有するサーバに配置するようにしてもよい。 Finally, although the diagnostic device, the learning processing method in the diagnostic device, and the program have been described above as the present embodiment, the diagnostic system may be constructed using each element as a means, for example, individual We connect means by network, place in medical field the means to acquire unknown skin image data related to the disease of the patient as a terminal, and specialize the means to identify the disease to be diagnosed based on the skin image data It may be arranged on a server owned by an organization.
以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。またその様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiment, it goes without saying that the technical scope of the present invention is not limited to the scope described in the above embodiment. It will be apparent to those skilled in the art that various changes or modifications can be added to the above embodiment. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[請求項1]
皮膚画像を用いて皮膚の疾患を診断するための診断装置であって、
診断されるべき対象に係わる複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備え、
前記アンサンブル識別器が、
前記対象に係る原画像データ、前記原画像データから変換された第1の変換画像データ及び同じく第2の変換画像データのうち少なくとも2つを含む前記複数の皮膚画像データに対応するように、少なくとも2つの単位識別器と、
前記単位識別器によって各別に得られた識別値を統合し、最終判定値を得る判定手段と、を備えることを特徴とする診断装置。
[請求項2]
前記アンサンブル識別器が、前記対象に係る原画像データ、前記原画像データから変換された第1の変換画像データ及び同じく第2の変換画像データを含む前記複数の未知の皮膚画像データに対応するように、3つの単位識別器を備えることを特徴とする請求項1に記載の診断装置。
[請求項3]
前記アンサンブル識別器が、前記対象に係る原画像に係る原画像データから変換された第1の変換画像データ、及び前記第1の変換画像データを回転及び/又は反転させた複数の回転反転画像のうち少なくとも2つを含む前記複数の未知の皮膚画像データに対応するように、少なくとも2つの単位識別器を備えることを特徴とする請求項1に記載の診断装置。
[請求項4]
前記アンサンブル識別器が、前記対象に係る原画像データから変換された第2の変換画像データ、及び前記第2の変換画像データを回転及び/又は反転させた複数の回転及び/又は反転画像のうち少なくとも2つを含む前記複数の未知の皮膚画像データに対応するように、少なくとも2つの単位識別器を備えることを特徴とする請求項1に記載の診断装置。
[請求項5]
各単位識別器が、初期値がその都度乱数によって決定されることにより、決定された初期値ごとに単位識別器の群として多段的に機能することを特徴とする請求項1から4のいずれか1項に記載の診断装置。
[請求項6]
前記判定手段が、前記複数の識別値を平均して統合することを特徴とする請求項1から5のいずれか1項に記載の診断装置。
[請求項7]
前記第1の変換画像データが前記原画像データに対し構造明瞭変換処理が施された画像データであり、前記構造明瞭変換処理が前記原画像データの輝度成分を強調する処理であることを特徴とする請求項1から6のいずれか1項に記載の診断装置。
[請求項8]
前記第2の変換画像データが前記原画像データに対し部位強調処理が施された画像データであり、前記部位強調変換処理が前記原画像データの輝度成分又は輝度成分及び色情報成分から該当する部位を抽出する処理であることを特徴とすることを特徴とする請求項1から6のいずれか1項に記載の診断装置。
[請求項9]
疾患の識別名称と既知の皮膚画像データを関連付けて記録している皮膚画像データベースと、前記複数の未知の皮膚画像データを取得可能な取得部と、をさらに備えることを特徴とする請求項1から8のいずれか1項に記載の診断装置。
[請求項10]
前記単位識別器が、疾患に係る複数の既知の皮膚画像データに基づいて学習する畳み込みニューラルネットワークを有し、
前記畳み込みニューラルネットワークが、
学習段階では前記複数の既知の皮膚画像データが、試験段階では前記複数の未知の皮膚画像データが入力される入力層と、
畳み込み層とプーリング層から構成されたセットを複数有し、前記複数の既知の皮膚画像データ又は前記複数の未知の皮膚画像データから特徴を抽出する中間層と、
抽出された前記特徴に基づき診断対象の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項1から9のいずれか1項に記載の診断装置。
[請求項11]
診断されるべき対象に係る複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備えた診断装置における学習処理方法であって、
前記対象に係る原画像データ、前記原画像データから変換された第1の変換画像データ及び同じく第2の変換画像データの少なくとも2つを含む前記複数の未知の皮膚画像データを取得するステップと、
前記アンサンブル識別器を構成する少なくとも2つの単位識別器に、前記複数の未知の皮膚画像データのそれぞれを入力するステップと、
前記単位識別器によって各別に得られた識別値を統合して最終判定値を得るステップと、を有することを特徴とする診断装置における学習処理方法。
[請求項12]
診断されるべき対象に係る複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備えた診断装置の学習処理プログラムであって、
コンピュータに、
前記対象に係る原画像データ、前記原画像データから変換された第1の変換画像データ及び同じく第2の変換画像データの少なくとも2つを含む前記複数の未知の皮膚画像データを取得する手順と、
前記アンサンブル識別器を構成する少なくとも2つの単位識別器に、前記複数の未知の皮膚画像データのそれぞれを入力する手順と、
前記単位識別器によって各別に得られた識別値を統合して最終判定値を得る手順と、を実行させる学習処理プログラム。
In the following, the invention described in the claims initially attached to the request for this application is appended. The item numbers of the claims described in the appendix are as in the claims attached at the beginning of the application for this application.
[Claim 1]
A diagnostic apparatus for diagnosing a skin disorder using a skin image, comprising:
An ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data related to a subject to be diagnosed;
The ensemble discriminator
In order to correspond to the plurality of skin image data including at least two of original image data relating to the object, first converted image data converted from the original image data, and second converted image data as well With two unit classifiers,
A determination unit that integrates identification values obtained separately by the unit classifier and obtains a final determination value.
[Claim 2]
The ensemble discriminator corresponds to the plurality of unknown skin image data including the original image data relating to the object, the first converted image data converted from the original image data, and the second converted image data. The diagnostic device according to
[Claim 3]
The first image data converted from the original image data relating to the original image relating to the target, and the plurality of rotationally inverted images obtained by rotating and / or inverting the first image data converted by the ensemble discriminator The diagnostic device according to
[Claim 4]
Of the plurality of rotated and / or inverted images obtained by rotating and / or inverting the second converted image data converted from the original image data relating to the object, and the second converted image data by the ensemble discriminator The diagnostic device according to
[Claim 5]
The unit discriminator according to any one of
[Claim 6]
The diagnostic apparatus according to any one of
[Claim 7]
The first converted image data is image data obtained by subjecting the original image data to a structure clear conversion process, and the structure clear conversion process is a process of emphasizing a luminance component of the original image data. The diagnostic device according to any one of
[Claim 8]
The second converted image data is image data obtained by performing site enhancement processing on the original image data, and the site enhancement conversion process is applied to the luminance component or the luminance component and the color information component of the original image data. The diagnostic device according to any one of
[Claim 9]
The skin image database in which the identification name of the disease and the known skin image data are associated and recorded, and the acquiring unit capable of acquiring the plurality of unknown skin image data. The diagnostic device according to any one of 8.
[Claim 10]
The unit discriminator includes a convolutional neural network that learns based on a plurality of known skin image data related to a disease,
The convolutional neural network is
An input layer to which the plurality of known skin image data are input in the learning stage, and the plurality of unknown skin image data in the testing stage;
An intermediate layer having a plurality of sets composed of a convolution layer and a pooling layer and extracting features from the plurality of known skin image data or the plurality of unknown skin image data;
The diagnostic device according to any one of
[Claim 11]
A learning processing method in a diagnostic apparatus comprising an ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data of a subject to be diagnosed,
Acquiring the plurality of unknown skin image data including at least two of original image data relating to the object, first converted image data converted from the original image data, and second converted image data as well;
Inputting each of the plurality of unknown skin image data into at least two unit classifiers constituting the ensemble classifier;
Integrating the identification values separately obtained by the unit discriminator to obtain a final judgment value.
[Claim 12]
A learning processing program of a diagnostic device comprising an ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data of a subject to be diagnosed,
On the computer
Acquiring a plurality of unknown skin image data including at least two of original image data relating to the object, first converted image data converted from the original image data, and second converted image data as well;
A step of inputting each of the plurality of unknown skin image data to at least two unit classifiers constituting the ensemble classifier;
A learning processing program for executing a procedure of integrating the identification values obtained separately by the unit classifier to obtain a final determination value.
10…診断装置本体、10a,10b…前処理部、11a,11a…処理部(アンサンブル識別器)、12a,12b…取得部、100A,100B…診断装置、103…学習用皮膚画像記憶部、104…画像記憶部、103…学習用皮膚画像記憶部、110…ダーモスコープ付き撮影装置、120…表示装置、130…入力装置、101…分離手段、102…抽出手段、102a…第1の抽出手段、102b…第2の抽出手段、111,112,201〜209…単位識別器、113…判定手段、111a…入力層、111b…中間層、111c…出力層、a…処理ユニット、b…特徴マップ
DESCRIPTION OF
Claims (19)
診断されるべき対象に係わる複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備え、
前記アンサンブル識別器が、
前記対象に係る原画像データ、前記原画像データに対して所定の第1の変換処理が施された第1の変換画像データ、及び、前記原画像データに対して前記第1の変換処理と異なる第2の変換処理が施された第2の変換画像データのうちの、少なくとも前記第2の変換画像データを含めた2つを含む前記複数の未知の皮膚画像データに対応するように、少なくとも2つの単位識別器と、
前記単位識別器によって各別に得られた識別値を統合し、最終判定値を得る判定手段と、を備え、
前記第2の変換処理は、前記原画像データの輝度成分及び色情報成分に基づいて、前記原画像データから血管に相当する部位を強調して抽出する処理であることを特徴とする診断装置。 A diagnostic apparatus for diagnosing a skin disorder using a skin image, comprising:
An ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data related to a subject to be diagnosed;
The ensemble discriminator
Original image data according to the object, different from the first converted image data by the first conversion processing given on the original image data is performed, and the first conversion processing on the original image data of the second converted image data by the second conversion processing has been performed, so as to correspond to the plurality of unknown skin image data including the two, including at least the second converted image data, at least 2 With one unit identifier,
Determining means for integrating the identification values separately obtained by the unit classifier and obtaining a final determination value ;
The second conversion process is a process of emphasizing and extracting a portion corresponding to a blood vessel from the original image data based on a luminance component and a color information component of the original image data .
前記アンサンブル識別器が、前記第2の変換画像データに加え、前記第1の変換画像データを含む前記複数の未知の皮膚画像データに対応するように、複数の識別器を備えることを特徴とする請求項1から5のいずれか1項に記載の診断装置。 What the first structure clearly conversion process converts the image data to the original image data is image data that has undergone the structure clearly conversion processing emphasizing process der the luminance component of the original image data,
The ensemble discriminator includes a plurality of discriminators so as to correspond to the plurality of unknown skin image data including the first converted image data in addition to the second converted image data. The diagnostic device according to any one of claims 1 to 5.
前記畳み込みニューラルネットワークが、
学習段階では前記複数の既知の皮膚画像データが、試験段階では前記複数の未知の皮膚画像データが入力される入力層と、
畳み込み層とプーリング層から構成されたセットを複数有し、前記複数の既知の皮膚画像データ又は前記複数の未知の皮膚画像データから特徴を抽出する中間層と、
抽出された前記特徴に基づき診断対象の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項1から7のいずれか1項に記載の診断装置。 The unit discriminator includes a convolutional neural network that learns based on a plurality of known skin image data related to a disease,
The convolutional neural network is
An input layer to which the plurality of known skin image data are input in the learning stage, and the plurality of unknown skin image data in the testing stage;
An intermediate layer having a plurality of sets composed of a convolution layer and a pooling layer and extracting features from the plurality of known skin image data or the plurality of unknown skin image data;
The diagnostic device according to any one of claims 1 to 7 , further comprising: an output layer that outputs an identification value for each classification of a diagnostic object based on the extracted feature .
前記対象に係る原画像データ、前記原画像データに対して所定の第1の変換処理が施された第1の変換画像データ、及び、前記原画像データに対して前記第1の変換処理と異なる第2の変換処理が施された第2の変換画像データのうちの、少なくとも前記第2の変換画像データを含めた2つを含む前記複数の未知の皮膚画像データを取得するステップと、
前記アンサンブル識別器を構成する少なくとも2つの単位識別器に、前記複数の未知の皮膚画像データのそれぞれを入力するステップと、
前記単位識別器によって各別に得られた複数の識別値を統合して最終判定値を得るステップと、を有し、
前記第2の変換処理は、前記原画像データの輝度成分及び色情報成分に基づいて、前記原画像データから血管に相当する部位を強調して抽出する処理であることを特徴とする診断装置における学習処理方法。 A learning processing method in a diagnostic apparatus comprising an ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data of a subject to be diagnosed,
The original image data relating to the target, the first converted image data obtained by performing the predetermined first conversion processing on the original image data, and the first conversion processing on the original image data are different from each other Acquiring the plurality of unknown skin image data including at least two of the second conversion image data subjected to the second conversion processing including the second conversion image data;
Inputting each of the plurality of unknown skin image data into at least two unit classifiers constituting the ensemble classifier;
Combining a plurality of identification values separately obtained by the unit identifier to obtain a final determination value;
The second conversion process, the original on the basis of the luminance component and color information components of the image data, diagnostics you, wherein a process of extracting highlights the portion corresponding to the blood vessel from the original image data Learning processing method in the device.
前記診断装置に、In the diagnostic device,
前記対象に係る原画像データ、前記原画像データに対して所定の第1の変換処理が施された第1の変換画像データ、及び、前記原画像データに対して前記第1の変換処理と異なる第2の変換処理が施された第2の変換画像データのうちの、少なくとも前記第2の変換画像データを含めた2つを含む前記複数の未知の皮膚画像データを取得する手順と、The original image data relating to the target, the first converted image data obtained by performing the predetermined first conversion processing on the original image data, and the first conversion processing on the original image data are different from each other A step of acquiring the plurality of unknown skin image data including two of the second conversion image data subjected to the second conversion processing including at least the second conversion image data;
前記アンサンブル識別器を構成する少なくとも2つの単位識別器に、前記複数の未知の皮膚画像データのそれぞれを入力する手順と、A step of inputting each of the plurality of unknown skin image data to at least two unit classifiers constituting the ensemble classifier;
前記単位識別器によって各別に得られた複数の識別値を統合して最終判定値を得る手順と、を実行させ、Performing a procedure of combining a plurality of identification values obtained separately by the unit identifier to obtain a final determination value;
前記第2の変換処理は、前記原画像データの輝度成分及び色情報成分に基づいて、前記原画像データから血管に相当する部位を強調して抽出する処理であるプログラム。The second conversion process is a program for emphasizing and extracting a portion corresponding to a blood vessel from the original image data based on a luminance component and a color information component of the original image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015168404A JP6528608B2 (en) | 2015-08-28 | 2015-08-28 | Diagnostic device, learning processing method in diagnostic device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015168404A JP6528608B2 (en) | 2015-08-28 | 2015-08-28 | Diagnostic device, learning processing method in diagnostic device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017045341A JP2017045341A (en) | 2017-03-02 |
JP6528608B2 true JP6528608B2 (en) | 2019-06-12 |
Family
ID=58211562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015168404A Active JP6528608B2 (en) | 2015-08-28 | 2015-08-28 | Diagnostic device, learning processing method in diagnostic device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6528608B2 (en) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6583316B2 (en) | 2017-03-08 | 2019-10-02 | カシオ計算機株式会社 | Identification device, identification method, and program |
JP7024197B2 (en) * | 2017-03-24 | 2022-02-24 | カシオ計算機株式会社 | Image processing equipment, image processing methods and programs |
US11238318B2 (en) | 2017-04-13 | 2022-02-01 | Siemens Healthcare Diagnostics Inc. | Methods and apparatus for HILN characterization using convolutional neural network |
SG11201911791RA (en) | 2017-06-09 | 2020-01-30 | Ai Medical Service Inc | A disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein |
JP6772112B2 (en) | 2017-07-31 | 2020-10-21 | 株式会社日立製作所 | Medical imaging device and medical image processing method |
US11633084B2 (en) | 2017-10-30 | 2023-04-25 | Japanese Foundation For Cancer Research | Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program |
JP6345332B1 (en) | 2017-11-21 | 2018-06-20 | 国立研究開発法人理化学研究所 | Classification device, classification method, program, and information recording medium |
US11495057B2 (en) * | 2017-12-08 | 2022-11-08 | Nec Corporation | Person verification device and method and non-transitory computer readable media |
JP6732722B2 (en) * | 2017-12-11 | 2020-08-05 | 憲隆 福永 | Embryo selection system |
KR102121462B1 (en) * | 2018-01-25 | 2020-06-10 | 안준범 | A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network |
CN108665457B (en) * | 2018-05-16 | 2023-12-19 | 腾讯医疗健康(深圳)有限公司 | Image recognition method, device, storage medium and computer equipment |
US11189367B2 (en) * | 2018-05-31 | 2021-11-30 | Canon Medical Systems Corporation | Similarity determining apparatus and method |
JP6627069B2 (en) | 2018-06-01 | 2020-01-08 | 株式会社フロンティアファーマ | Image processing method, drug sensitivity test method, and image processing device |
EP3805401B1 (en) * | 2018-06-01 | 2023-09-27 | Frontier Pharma, Inc. | Image processing method, medicine sensitivity test method and image processing device |
WO2019245009A1 (en) | 2018-06-22 | 2019-12-26 | 株式会社Aiメディカルサービス | Method of assisting disease diagnosis based on endoscope image of digestive organ, diagnosis assistance system, diagnosis assistance program, and computer-readable recording medium having said diagnosis assistance program stored thereon |
US10929716B2 (en) * | 2018-09-12 | 2021-02-23 | Molecular Devices, Llc | System and method for label-free identification and classification of biological samples |
KR102210806B1 (en) * | 2018-10-02 | 2021-02-01 | 한림대학교 산학협력단 | Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images |
KR102168485B1 (en) * | 2018-10-02 | 2020-10-21 | 한림대학교 산학협력단 | Endoscopic device and method for diagnosing gastric lesion based on gastric endoscopic image obtained in real time |
CN109523522B (en) * | 2018-10-30 | 2023-05-09 | 腾讯医疗健康(深圳)有限公司 | Endoscopic image processing method, device, system and storage medium |
TW202037327A (en) | 2018-11-21 | 2020-10-16 | 日商Ai醫療服務股份有限公司 | Disease diagnostic assistance method based on digestive organ endoscopic images, diagnostic assistance system, diagnostic assistance program, and computer-readable recording medium having diagnostic assistance program stored thereon |
KR20200066952A (en) | 2018-12-03 | 2020-06-11 | 삼성전자주식회사 | Method and apparatus for performing dilated convolution operation in neural network |
JP7218215B2 (en) * | 2019-03-07 | 2023-02-06 | 株式会社日立製作所 | Image diagnosis device, image processing method and program |
JP6938698B2 (en) * | 2019-03-22 | 2021-09-22 | ネイバー コーポレーションNAVER Corporation | A framework that combines multi-global descriptors for image search |
JP7000379B2 (en) * | 2019-05-07 | 2022-01-19 | 憲隆 福永 | Embryo selection system |
JP7044120B2 (en) | 2020-02-07 | 2022-03-30 | カシオ計算機株式会社 | Discriminator, discriminator learning method, discriminating method and program |
JP7256765B2 (en) * | 2020-02-28 | 2023-04-12 | 株式会社日立製作所 | Medical imaging device, medical image processing device, and image processing program |
KR102365783B1 (en) * | 2021-11-30 | 2022-02-21 | 주식회사 미모바이오 | Method and device for generating customized prescription data based on artificial intelligence |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4437202B2 (en) * | 2004-01-09 | 2010-03-24 | 学校法人慶應義塾 | Telemedicine system for pigmentation site |
JP4628882B2 (en) * | 2005-06-16 | 2011-02-09 | 富士フイルム株式会社 | Classifier learning method, face discrimination method and apparatus, and program |
BRPI0717019A8 (en) * | 2006-09-22 | 2015-10-06 | Koninklijke Philips Electronics Nv | METHOD TO MAKE CHARACTERISTICS SELECTION BASED ON GENETIC ALGORITHM |
JP4513898B2 (en) * | 2008-06-09 | 2010-07-28 | 株式会社デンソー | Image identification device |
US10095917B2 (en) * | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
-
2015
- 2015-08-28 JP JP2015168404A patent/JP6528608B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017045341A (en) | 2017-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6528608B2 (en) | Diagnostic device, learning processing method in diagnostic device, and program | |
Hernandez-Matas et al. | FIRE: fundus image registration dataset | |
CN108830155B (en) | Heart coronary artery segmentation and identification method based on deep learning | |
US20210133473A1 (en) | Learning apparatus and learning method | |
JP6361776B2 (en) | Diagnosis support apparatus, image processing method and program in diagnosis support apparatus | |
JP2020532783A (en) | Speckle Contrast Analysis Using Machine Learning to Visualize Flow | |
CN110858399B (en) | Method and apparatus for providing post-examination images of a virtual tomographic stroke | |
CN108601509B (en) | Image processing apparatus, image processing method, and program-recorded medium | |
JP6580446B2 (en) | Image processing apparatus and image processing method | |
Khordehchi et al. | Automatic lung nodule detection based on statistical region merging and support vector machines | |
AU2015275262B2 (en) | Diagnostic apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method | |
Mishra et al. | Automatic lesion border selection in dermoscopy images using morphology and color features | |
JP2006507579A (en) | Histological evaluation of nuclear polymorphism | |
EP3217659B1 (en) | Image processing apparatus, image processing method, and program | |
WO2021129324A1 (en) | Ultrasonic image lesion segmentation method and apparatus, and computer device | |
JP2019118670A (en) | Diagnosis support apparatus, image processing method, and program | |
Saghir et al. | Skin cancer detection and classification based on differential analyzer algorithm | |
Oprisescu et al. | Automatic pap smear nuclei detection using mean-shift and region growing | |
Muthiah et al. | Fusion of MRI and PET images using deep learning neural networks | |
JP2018171516A (en) | Image processing method, diagnosis device, and program | |
JP6503733B2 (en) | Diagnosis support apparatus, image processing method in the diagnosis support apparatus, and program thereof | |
Atehortúa et al. | Characterization of motion patterns by a spatio-temporal saliency descriptor in cardiac cine MRI | |
JP6117988B2 (en) | Biometric authentication device, biometric authentication method, and program | |
Goyal | Gaussian filtering based image integration for improved disease diagnosis and treatment planning | |
JP6431044B2 (en) | Biometric authentication device, biometric authentication method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190429 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6528608 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |