[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6528608B2 - Diagnostic device, learning processing method in diagnostic device, and program - Google Patents

Diagnostic device, learning processing method in diagnostic device, and program Download PDF

Info

Publication number
JP6528608B2
JP6528608B2 JP2015168404A JP2015168404A JP6528608B2 JP 6528608 B2 JP6528608 B2 JP 6528608B2 JP 2015168404 A JP2015168404 A JP 2015168404A JP 2015168404 A JP2015168404 A JP 2015168404A JP 6528608 B2 JP6528608 B2 JP 6528608B2
Authority
JP
Japan
Prior art keywords
image data
conversion
image
unit
diagnostic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015168404A
Other languages
Japanese (ja)
Other versions
JP2017045341A (en
Inventor
松永 和久
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015168404A priority Critical patent/JP6528608B2/en
Publication of JP2017045341A publication Critical patent/JP2017045341A/en
Application granted granted Critical
Publication of JP6528608B2 publication Critical patent/JP6528608B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、診断装置、及び診断装置における学習処理方法、並びにプログラムに関する。   The present invention relates to a diagnostic device, a learning processing method in the diagnostic device, and a program.

皮膚病変の診断として視診は必ず行われ、多くの情報を得ることが出来る。しかしながら、肉眼やルーペだけでは、ホクロとしみの判別さえ難しく、良性腫瘍と悪性腫瘍の鑑別も難しい。そこで、ダーモスコープ付きカメラを用いて病変を撮影するダーモスコピー診断が行われているが、画像の観察による症例の識別は医師のスキルに依存しているのが現状である。   As a diagnosis of skin lesions, visual inspection is always performed, and a lot of information can be obtained. However, with the naked eye or the loupe alone, it is difficult even to distinguish between hokuro and stains, and it is also difficult to distinguish between benign tumors and malignant tumors. Therefore, dermoscopy diagnosis is performed in which a lesion is photographed using a dermoscope camera, but the present situation is that the identification of a case by observation of an image depends on the skill of a doctor.

従来のダーモスコピー画像による画像の識別は原画像に基づき処理されており、このため、医師が症例を識別する手がかりである患部の血管構造に着目して重点処理することができず、したがって症例のパターン識別の精度に問題があった。   The identification of the image by the conventional dermoscopy image is processed based on the original image, so that the doctor can not focus on the blood vessel structure of the affected area which is a clue for identifying the case, and thus the case pattern There was a problem with the accuracy of identification.

ところで、一般的なパターン識別のための機械学習手法に、複数の識別器で識別を行い、その識別結果を統合することにより精度の高い識別を行うアンサンブル学習法が知られている。アンサンブル学習法は、推定の分散値が大きい識別器でも複数の識別器を集めて多数決による識別を行うと推定値の分散が小さくなることを識別の原理としている。   As a general machine learning method for pattern identification, there is known an ensemble learning method in which discrimination is performed with a plurality of classifiers and the discrimination results are integrated to perform discrimination with high accuracy. The ensemble learning method is based on the principle of discrimination that the variance of estimated values becomes small when a classifier with a large estimated variance value is gathered by a plurality of classifiers to perform discrimination by majority.

例えば、特許文献1に、特徴量空間の無数の基底関数の選択肢の中からパターン識別に有効な基底関数を優先的に選択してアンサンブル学習を行う方法が開示されている。   For example, Patent Document 1 discloses a method of performing ensemble learning by preferentially selecting a basis function effective for pattern identification from among the innumerable choices of basis functions in the feature amount space.

特開2012−43156号公報JP 2012-43156 A

上記した特許文献1に開示された技術によれば、従来のアンサンブル手法に比べて学習時の計算量とデータ量は抑制できるが、依然として識別の精度に問題が残る。   According to the technology disclosed in Patent Document 1 described above, although the amount of calculation and the amount of data at the time of learning can be suppressed as compared with the conventional ensemble method, problems still remain in the accuracy of identification.

本発明は上記した課題を解決するためになされたものであり、アンサンブル識別器による識別の精度向上をはかってより精度の高い診断支援が可能な、診断装置、及び診断装置における学習処理方法、並びにプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and a diagnostic device capable of performing diagnosis support with higher accuracy by improving the accuracy of discrimination by an ensemble classifier, and a learning processing method in the diagnostic device, and The purpose is to provide a program.

上記した課題を解決するために本発明の一態様は、皮膚画像を用いて皮膚の疾患を診断するための診断装置であって、診断されるべき対象に係わる複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備え、前記アンサンブル識別器が、前記対象に係る原画像データ、前記原画像データに対して所定の第1の変換処理が施された第1の変換画像データ及び、前記原画像データに対して前記第1の変換処理と異なる第2の変換処理が施された第2の変換画像データのうちの、少なくとも前記第2の変換画像データを含めた2つを含む前記複数の未知の皮膚画像データに対応するように、少なくとも2つの単位識別器と、前記単位識別器によって各別に得られた複数の識別値を統合し最終判定値を得る判定手段と、を備え、前記第2の変換処理は、前記原画像データの輝度成分及び色情報成分に基づいて、前記原画像データから血管に相当する部位を強調して抽出する処理であることを特徴とする。
本発明の他の特徴は、本明細書及び添付図面の記載により明らかにする。
In order to solve the above-described problems, one aspect of the present invention is a diagnostic device for diagnosing a skin disease using a skin image, which is based on a plurality of unknown skin image data related to a subject to be diagnosed. And an ensemble discriminator for identifying whether the subject is a disease or not, wherein the ensemble discriminator comprises: original image data relating to the subject; and the first image data subjected to a predetermined first conversion process on the original image data. converted image data, and, of the second converted image data by the first conversion processing different from the second conversion processing on the original image data has been subjected, at least the second converted image data In order to correspond to the plurality of unknown skin image data including two included , at least two unit discriminators and a plurality of discrimination values separately obtained by the unit discriminators are integrated to obtain a final judgment value. Judgment Comprising a stage, and in that said second conversion processing, on the basis of the luminance component and color information components of the original image data, a process of extracting highlights the portion corresponding to the blood vessel from the original image data It features.
Other features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

本発明によれば、アンサンブル識別器による識別の精度向上をはかり、より精度の高い診断支援が可能な、診断装置、及び診断装置における学習処理方法、並びにプログラムを提供することができる。   According to the present invention, it is possible to provide a diagnostic device, a learning processing method in a diagnostic device, and a program capable of improving the accuracy of identification by an ensemble classifier and performing diagnosis support with higher accuracy.

本発明の第1実施形態に係る診断装置の構成を示すブロック図である。It is a block diagram showing composition of a diagnostic device concerning a 1st embodiment of the present invention. 図1の処理部の動作概念図である。It is an operation conceptual diagram of the processing unit of FIG. 図1の診断装置の基本動作を示すフローチャートである。It is a flowchart which shows the basic operation | movement of the diagnostic apparatus of FIG. 図3の機械学習識別器生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the machine learning discriminator production | generation process of FIG. 図4の学習用皮膚画像に画像の変換を行う処理の一例(画像変換処理A)を示すフローチャートである。It is a flowchart which shows an example (image conversion process A) of the process which converts an image into the learning skin image of FIG. 図5の輝度画像から血管候補画像を得る処理の一例を示す図である。It is a figure which shows an example of the process which obtains a blood-vessel candidate image from the luminance image of FIG. 図6の血管らしさを尤度Aとして抽出する処理の一例を示す図である。It is a figure which shows an example of the process which extracts the blood vessel likeness of FIG. 6 as likelihood A. FIG. 図6の血管らしさを尤度Aとして抽出する処理の他の例を示す図である。It is a figure which shows the other example of the process which extracts the blood vessel likeness of FIG. 6 as likelihood A. FIG. 図4の学習用皮膚画像に画像の変換を行う処理の他の例(画像変換処理B)を示すフローチャートである。It is a flowchart which shows the other example (image conversion process B) of the process which converts an image into the learning skin image of FIG. 図9の血管らしさを示す尤度Aから血管抽出を行う処理の一例を示す図である。It is a figure which shows an example of the process which performs blood vessel extraction from likelihood A which shows the blood vessel likeness of FIG. 図3の試験画像(未知の画像識別)識別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a test image (unknown image identification) identification process of FIG. 本発明の第2実施形態に係る診断装置の構成を示すブロック図である。It is a block diagram showing composition of a diagnostic device concerning a 2nd embodiment of the present invention. 識別評価結果を表形式で示した図である。It is the figure which showed the identification evaluation result in tabular form.

以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以降の図においては、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。   Hereinafter, with reference to the accompanying drawings, modes (hereinafter, embodiments) for carrying out the present invention will be described in detail. In the following drawings, the same elements are denoted by the same reference numerals or symbols throughout the description of the embodiments.

(第1実施形態の構成)
図1は、本発明の第1実施形態に係る診断装置100Aの構成を示すブロック図である。図1に示すように、本発明の第1実施態に係る診断装置100Aには、ダーモスコープ付き撮影装置110が接続されている。
(Configuration of the first embodiment)
FIG. 1 is a block diagram showing the configuration of a diagnosis apparatus 100A according to the first embodiment of the present invention. As shown in FIG. 1, a photographing apparatus 110 with a dermoscope is connected to the diagnostic apparatus 100A according to the first embodiment of the present invention.

ダーモスコープ付き撮影装置110は、診断装置100Aからの指示により撮影を行ない、撮影画像(ダーモスコピー画像)を画像記憶部104に格納すると共に、表示装置120上に表示する。また、撮影画像は、診断装置本体10(前処理部10a,処理部11a)により画像処理が施されて画像記憶部104に保存されると共に表示装置120上に表示される。   The dermoscope-equipped imaging device 110 captures an image according to an instruction from the diagnostic device 100A, stores the captured image (dermoscopy image) in the image storage unit 104, and displays the image on the display device 120. The photographed image is subjected to image processing by the diagnostic device body 10 (the pre-processing unit 10 a and the processing unit 11 a), stored in the image storage unit 104, and displayed on the display device 120.

入力装置130は、ダーモスコープ画像の撮影開始指示や、後述するダーモスコピー画像中の部位選択操作等を行う。なお、表示装置120、例えば、LCD(Liquid Crystal Display)モニタ等により構成され、入力装置130は、マウス等により構成されている。   The input device 130 performs a photographing start instruction of a dermoscope image, an operation for selecting a region in a dermoscopy image described later, and the like. Note that the display device 120 is configured of, for example, an LCD (Liquid Crystal Display) monitor or the like, and the input device 130 is configured of a mouse or the like.

学習用皮膚画像記憶部103は、学習用に付された疾患の識別名称と既知の皮膚画像データを関連付けて記録される皮膚画像データベースである。   The learning skin image storage unit 103 is a skin image database in which the identification name of a disease given for learning and known skin image data are associated with each other and recorded.

診断装置本体10は、前処理部10aと、処理部11a(アンサンブル識別器)と、取得部12aとを含む。   The diagnostic device body 10 includes a preprocessing unit 10a, a processing unit 11a (an ensemble discriminator), and an acquisition unit 12a.

前処理部10aは、画像記憶部104に記憶された撮影画像(原画像データ)に構造明瞭変換処理を施した変換画像データ、あるいは、原画像データに対し部位強調処理が施された変換画像データを生成して処理部11aに出力する。ここで、構造明瞭変換処理とは、原画像データの輝度成分を強調する処理であり、部位強調処理とは、原画像データの輝度成分又は輝度成分及び色情報成分から該当する部位を抽出する処理である。なお、これら変換画像データを回転し、あるいは反転させた回転反転画像を含んでもよい。   The pre-processing unit 10 a converts the captured image (original image data) stored in the image storage unit 104 by performing the structure clear conversion process, or the converted image data by performing the site enhancement process on the original image data. Are generated and output to the processing unit 11a. Here, the clear structure conversion process is a process of emphasizing the luminance component of the original image data, and the part emphasizing process is a process of extracting a corresponding part from the luminance component or the luminance component and the color information component of the original image data. It is. The converted image data may be rotated or inverted.

このため、前処理部10aは、分離手段101と、抽出手段102と、を含む。   For this reason, the preprocessing unit 10 a includes a separation unit 101 and an extraction unit 102.

分離手段101は、撮影画像を輝度成分と色情報成分に分離する手段として機能する。   The separation unit 101 functions as a unit that separates a photographed image into a luminance component and a color information component.

抽出手段102は、診断の対象の部位を抽出する手段として機能し、部位候補を輝度成分により抽出する第1の抽出手段102aと、部位らしさを輝度成分と色情報成分とから構成される色空間により抽出する第2の抽出手段102bの少なくとも1つを含み、抽出された部位候補又は部位らしさに平滑フィルタ処理を含むモルフォロジー処理を施す。   The extraction means 102 functions as a means for extracting a region to be diagnosed, and is a color space constituted by a first extraction means 102a for extracting a region candidate by a luminance component, and a region likeness from a luminance component and a color information component. And at least one of the second extraction means 102b for performing extraction, and performs morphological processing including smoothing filter processing on the extracted region candidate or region likeness.

抽出手段102は、撮影画像における構造化要素中の部位候補又は部位らしさを示す形状を抽出する場合、第1の抽出手段102aが輝度成分を用いて第1のモルフォロジー処理により部位候補を抽出するとともに、第2の抽出手段102bが色空間を用いて部位らしさを抽出し、抽出手段102が抽出された部位候補と部位らしさを統合して抽出画像を生成してもよい。   When the extraction means 102 extracts a shape indicating a part candidate or part likeness in a structured element in a photographed image, the first extraction means 102a extracts a part candidate by a first morphological process using a luminance component. The second extracting unit 102b may extract the region likeness using the color space, and the extracting unit 102 may integrate the extracted region candidate and the region likeness to generate an extracted image.

抽出手段102は、撮影画像における構造化要素中の部位候補又は部位らしさを示す形状を抽出する場合、第2の抽出手段102bが色空間を用いて部位らしさを抽出し、抽出手段102が抽出された部位らしさを用いて第2のモルフォロジー処理により部位抽出画像を生成してもよい。   When the extraction unit 102 extracts a part candidate in the captured image or a shape indicating a part likeness in the structured element, the second extraction unit 102 b extracts the likeness using the color space, and the extraction unit 102 is extracted. The region extracted image may be generated by the second morphological process using the region likeness.

ここで、第1のモルフォロジー処理とは、抽出された輝度成分に対し膨張処理と収縮処理をこの順に繰り返すクロージング処理、クロージング処理が施された輝度成分に対する平滑フィルタ処理、及び平滑フィルタ処理が施された輝度成分から撮影画像の輝度成分を減算する減算処理を含む。また、第2のモルフォロジー処理とは、抽出された部位らしさに対し収縮処理と膨張処理をこの順に繰り返すオープニング処理、オープニング処理が施された部位らしさに対する平滑フィルタ処理、及び平滑フィルタ処理が施された部位らしさを抽出された部位らしさから減算する処理を含む。   Here, in the first morphological processing, the extracted luminance component is subjected to closing processing in which expansion processing and contraction processing are repeated in this order, smoothing filter processing on the luminance component subjected to the closing processing, and smoothing filter processing. And subtracting the luminance component of the photographed image from the luminance component. In the second morphological process, an opening process in which contraction and expansion processes are repeated in this order on the extracted part likeness, a smoothing filter process on the part likeness subjected to the opening process, and a smoothing filter process are performed It includes a process of subtracting the site likeness from the extracted site likeness.

処理部11aは、前処理部10aによって前処理された診断されるべき対象に係わる複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備え、このアンサンブル識別器は、対象に係る原画像データ、原画像データから変換された(第1の変換画像データ)及び同じく(第2の変換画像データ)のうち少なくとも2つを含む複数の皮膚画像データに対応するように、少なくとも2つの単位識別器111(CNN1),112(CNN2)・・と、単位識別器111,112によって各別に得られた識別値を統合し、最終判定値を得る判定手段113と、を含む。   The processing unit 11a includes an ensemble discriminator that determines whether or not there is a disease based on a plurality of unknown skin image data related to an object to be diagnosed that has been preprocessed by the preprocessing unit 10a. Corresponds to a plurality of skin image data including at least two of original image data relating to the object, (first converted image data) converted from the original image data, and the same (second converted image data) And at least two unit discriminators 111 (CNN1), 112 (CNN2)... And a judging means 113 for integrating final identification values obtained by the unit discriminators 111 and 112 to obtain final judgment values. Including.

なお、単位識別器111,112・・は、疾患に係る複数の既知の皮膚画像データに基づいて学習する畳み込みニューラルネットワーク(CNN:Convolution Neural Network)を有し、前処理部10aによって生成される変換画像データを、この畳み込みニューラルネットワークに入力することにより予め学習に付され、診断されるべき疾患の識別が可能なように分類情報を生成する識別器として機能する。   Note that the unit classifiers 111, 112 have a convolutional neural network (CNN: Convolution Neural Network) that learns based on a plurality of known skin image data related to a disease, and the conversion generated by the preprocessing unit 10a. Image data is input to this convolutional neural network in advance to be learned, and functions as a classifier that generates classification information so that the disease to be diagnosed can be identified.

なお、単位識別器111,112・・・は、例えば、診断装置100Aが製造工場から出荷される前に製造段階で予め学習に付されていてもよいし、出荷された後に病院側などで予め学習に付されることとしてもよい。ここで、「予め」とは、診断されるべき疾患を識別するよりも前にという意味である。   Note that, for example, the unit identifiers 111, 112,... May be given learning in advance in the manufacturing stage before the diagnostic device 100A is shipped from the manufacturing factory, or after being shipped in advance by the hospital etc. It may be attached to learning. Here, "in advance" means before identifying the disease to be diagnosed.

図2に、畳み込みニューラルネットワーク(CNN)の代表的構成を示す。図2によれば、畳み込みニューラルネットワークは、学習段階では複数の既知の皮膚画像データ(変換画像データ)が、試験段階では複数の未知の皮膚画像データ(変換画像データ)が入力される入力層111aと、畳み込み層とプーリング層から構成されたセットを複数有し、複数の既知の皮膚画像データ又は複数の未知の皮膚画像データから特徴を抽出する中間層111bと、抽出された特徴に基づき診断対象の分類ごとに識別値を出力する出力層111cと、を備える。   FIG. 2 shows a representative configuration of a convolutional neural network (CNN). According to FIG. 2, in the convolutional neural network, a plurality of known skin image data (converted image data) are input in the learning stage, and a plurality of unknown skin image data (converted image data) are input in the testing stage. And an intermediate layer 111 b having a plurality of sets composed of a convolution layer and a pooling layer and extracting features from a plurality of known skin image data or a plurality of unknown skin image data, and a diagnosis target based on the extracted features And an output layer 111c that outputs an identification value for each of the categories.

上記した畳み込みニューラルネットワークの処理は、多段接続された複数の処理ユニットaを介して行われる。各処理ユニットaの入出力は、入力画像から抽出される複数の特徴である特徴マップbで示される複数の二次元画像である。この場合、入力画像も1枚の特徴量マップとみなされる。ここでは、畳み込み演算とプーリングのユニットのペアが処理ユニットaとして多段接続され、特徴量ベクトルを算出する。この特徴量ベクトルに対し、後述する判定手段113で識別処理が行われ、出力クラスを得る構成になっている。   The processing of the above-described convolutional neural network is performed via a plurality of processing units a connected in multiple stages. The input and output of each processing unit a are a plurality of two-dimensional images represented by a feature map b which is a plurality of features extracted from an input image. In this case, the input image is also regarded as one feature amount map. Here, a pair of units of convolution operation and pooling are connected in multiple stages as a processing unit a to calculate a feature quantity vector. An identification process is performed on the feature amount vector by the determination unit 113 described later to obtain an output class.

判定手段113は、抽出された特徴を入力して識別を行う。畳み込みニューラルネットワークの学習は、誤差逆転伝搬法による学習により各層の重みを更新する。識別処理として多層パーセプトロンが用いられる。多層パーセプトロンは、入力層111a、中間層111b、出力層111cで構成される非線形のクラス識別器である。各階層間の重みは、誤差伝搬法による確率的勾配降下法で求める。識別時は、特徴量を順次伝搬し、出力層の各ユニットの出力を各クラスの事後確率として画像を分類する。ここでは、各単位識別器に111,112よって各別に得られた識別値を、例えば、平均することにより統合し、最終判定値を得る。   The determination means 113 inputs the extracted feature and performs identification. In the learning of the convolutional neural network, the weight of each layer is updated by learning by the error reverse propagation method. A multilayer perceptron is used as an identification process. The multilayer perceptron is a non-linear class discriminator composed of an input layer 111a, an intermediate layer 111b, and an output layer 111c. The weight between each layer is obtained by the stochastic gradient descent method by the error propagation method. At the time of identification, feature quantities are sequentially propagated, and the output of each unit in the output layer is classified as a posterior probability of each class. Here, the identification values obtained separately for each unit identifier by 111 and 112 are integrated, for example, by averaging to obtain the final judgment value.

畳み込みニューラルネットワークは、高い精度で画像を分類するのに一般的な手法であり、例えば、インターネットURL(http://en.wikipedia.org/wiki/Convolutional neural network)等に詳細に記載されている。畳み込みニューラルネットワーク(CNN)は、脳の神経回路網を模したニューラルネットワークを多層にして学習するディープラーニング(ディープニューラルネットワーク;Deep Neural Network)の一種であり、画像解析に好適に用いることができる。なお、ディープラーニングの他の手法を採用したり、他の手法と組み合わせたりすることも可能である。   A convolutional neural network is a general method for classifying images with high accuracy, and is described in detail, for example, on the Internet URL (http://en.wikipedia.org/wiki/Convolutional neural network). . A convolutional neural network (CNN) is a type of deep learning (deep neural network; deep neural network) in which neural networks that simulate neural networks of the brain are learned in multiple layers and can be suitably used for image analysis. In addition, it is also possible to adopt other methods of deep learning or to combine with other methods.

なお、取得部12aは、複数の未知の皮膚画像データを取得可能であって、構造明瞭、部位強調等の画像変換のために前処理部10aへ出力する。   The acquiring unit 12a is capable of acquiring a plurality of unknown skin image data, and outputs the plurality of unknown skin image data to the preprocessing unit 10a for image conversion such as clear structure and region emphasis.

(第1実施形態の動作)
以下、図3以降のフローチャートを参照しながら、図1,図2に示す本発明の第1実施形態に係る診断装置100Aの動作について詳細に説明する。なお、以下の動作は、コンピュータに実行させる学習処理プログラムとして構成することができる。
(Operation of the first embodiment)
Hereinafter, the operation of the diagnostic device 100A according to the first embodiment of the present invention shown in FIGS. 1 and 2 will be described in detail with reference to flowcharts in FIG. The following operations can be configured as a learning processing program to be executed by a computer.

図3において、診断装置本体10の取得部12aは、まず、診断対象に係わる複数の未知の皮膚画像データを学習用皮膚画像として取得する(ステップS10:学習画像収集)。具体的に、未知の皮膚画像データの収集にあたり、医師が患者の疾患部分のダーモスコピー撮影を行なうことにより、取得部12aが、その撮影操作により複数の未知の皮膚画像データを取り込み、前処理部10aへ出力する。   In FIG. 3, the acquiring unit 12a of the diagnostic device body 10 first acquires a plurality of unknown skin image data related to a diagnosis target as a learning skin image (step S10: learning image collection). Specifically, when collecting unknown skin image data, the doctor performs dermoscopy photographing of the diseased part of the patient, and the acquiring unit 12a takes in a plurality of unknown skin image data by the photographing operation, and the preprocessing unit 10a Output to

このとき、前処理部10aは、症例の疾患名を、収集した学習用皮膚画像データに関連付けて学習用皮膚画像記憶部103に登録する。そして、前処理部10aは、学習用皮膚画像を必要数収集したか否かを判定し、必要枚数収集するまで上記の手順を繰り返し実行し、学習用皮膚画像記憶部103上に皮膚画像データベースを構築する。   At this time, the preprocessing unit 10a registers the disease name of the case in the learning skin image storage unit 103 in association with the collected learning skin image data. Then, the pre-processing unit 10a determines whether the necessary number of learning skin images have been collected, repeatedly executes the above procedure until the required number of sheets are collected, and the skin image database is stored on the learning skin image storage unit 103. To construct.

取得部12aがステップS10で未知の皮膚画像データ収集処理を実行後、前処理部10aは、未知の皮膚画像データに対して構造明瞭、部位強調等の画像変換処理を実行し、更に、90度回転等のデータ増量処理を施して処理部11aへ出力する。処理部11aは、単位識別器111,112・・・が、重みフィルタによる畳み込み演算とプーリングとを繰り返すことにより、入力画像である学習用皮膚画像の特徴を抽出する(ステップS20:機械学習器生成処理)。   After the acquisition unit 12a executes unknown skin image data collection processing in step S10, the preprocessing unit 10a executes image conversion processing such as clearness of structure, region emphasis, etc. on unknown skin image data, and further 90 degrees. Data increase processing such as rotation is performed and output to the processing unit 11a. The processing unit 11a extracts the feature of the learning skin image which is the input image by the unit classifiers 111, 112,... Repeating the convolution operation and the pooling by the weight filter (step S20: machine learning device generation) processing).

具体的に、単位識別器111,112・・・は、入力画像に対して重みフィルタをラスタスキャンさせて繰り返し畳み込み演算を行うことで特徴マップb(図2)を得、その後、特徴マップbに対してプーリングを行ない、m−1の特徴マップbの小領域から値を出力してmの特徴マップに変換する識別器生成処理を実行する。   Specifically, the unit classifiers 111, 112,... Raster scan the weight image with respect to the input image and repeatedly perform the convolution operation to obtain the feature map b (FIG. 2). Then, pooling is performed, and a discriminator generation process is executed to output values from a small area of the m-1 feature map b and convert the values into m feature maps.

次に、判定手段113は、単位識別器111,112・・・で抽出した特徴を入力して識別を行う。識別処理として多層パーセプトロンが用いられ、識別時は、特徴量を順次伝搬し、出力層111cの各ユニットの出力を各クラスの事後確率として入力画像を分類する未知の画像について識別処理を実行する(ステップS30:試験画像識別)。   Next, the determination means 113 performs identification by inputting the features extracted by the unit classifiers 111, 112,. A multilayer perceptron is used as a discrimination process, and at the time of discrimination, the feature amount is sequentially propagated, and the discrimination process is performed on an unknown image which classifies an input image with the output of each unit of the output layer 111c as a posterior probability of each class Step S30: test image identification).

図4は、本発明の第1実施形態に係る診断装置100Aの機械学習識別器生成処理の手順(図3のステップS20)を示すフローチャートである。図4によれば、まず、前処理部10aが、学習用皮膚画像に対して、部位強調、構造明瞭のための画像変換処理を実行する(ステップS201)。ここで、部位強調とは、原画像データに対し血管等の部位強調処理が施された画像データである。部位強調変換処理は、原画像データの輝度成分又は輝度成分及び色情報成分から該当する部位を抽出する処理、構造明瞭は、画像データの輝度成分を強調する処理である。   FIG. 4 is a flowchart showing the procedure of the machine learning discriminator generation process (step S20 of FIG. 3) of the diagnosis apparatus 100A according to the first embodiment of the present invention. According to FIG. 4, first, the preprocessing unit 10a executes an image conversion process for site enhancement and structure clarity on the learning skin image (step S201). Here, region emphasis is image data obtained by performing region emphasis processing such as blood vessels on original image data. The part emphasizing transformation process is a process of extracting a corresponding part from the luminance component or the luminance component and the color information component of the original image data, and the structure clarity is a process of emphasizing the luminance component of the image data.

以下、図5〜図10を参照して、図4のステップS201の「学習用皮膚画像に画像の変換」の詳細な処理手順について説明する。   Hereinafter, with reference to FIGS. 5-10, the detailed process sequence of "conversion to the skin image for learning" of FIG.4 S201 is demonstrated.

この画像変換にあたり、前処理部10aは、まず、ダーモスコープ付き撮影装置110で撮影された、例えば、皮膚の病変部位等、患部の撮影画像を取得する。そして、取得した撮影画像を画像記憶部104の所定の領域に格納し、続いて、前処理部10aは、撮影画像から血管抽出処理を行い、抽出された血管を強調する処理を実行する。   In the image conversion, the preprocessing unit 10a first acquires a photographed image of an affected area, for example, a lesion site of the skin, photographed by the photographing apparatus 110 with a dermoscope. Then, the acquired captured image is stored in a predetermined area of the image storage unit 104. Subsequently, the preprocessing unit 10a performs a blood vessel extraction process from the captured image and executes a process of emphasizing the extracted blood vessel.

図5に、画像変換(画像変換処理A)のための詳細な処理手順が示されている。図5によれば、前処理部10aは、まず、分離手段101が、RGB色空間の撮影画像を、Lab色空間(正確には、CIE 1976 L*a*b色空間)に変換する(ステップS201a)。Lab色空間の詳細は、インターネットURL(http://ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93)<平成26年9月1日>に記載されている。   A detailed processing procedure for image conversion (image conversion processing A) is shown in FIG. According to FIG. 5, the preprocessing unit 10a first converts the captured image in the RGB color space into the Lab color space (more precisely, the CIE 1976 L * a * b color space) by the separation unit 101 (step S201a). The details of Lab color space, Internet URL (http://en.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93) <September 1, 2014 It is described in>.

次に、前処理部10aは、抽出手段102が、診断の対象として選択された部位を抽出する。具体的に、第1の抽出手段102aが、選択された部位の候補(血管候補)をLab色空間において分離された輝度成分から抽出する。このため、第1の抽出手段102aは、分離手段101によって色空間変換されたLab色空間で輝度に相当するL画像を用い、モルフォロジー処理A(第1のモルフォロジー処理)により血管候補画像BHを得る(ステップS202a)。ここで、モルフオロジー処理とは、構造化要素を入力画像に適用し、同じサイズの出力画像としての血管候補画像BHを生成するもので、出力画像の各値は、入力画像内の対応する画素と近傍画素との比較に基づいている。   Next, the preprocessing unit 10 a extracts the part selected as the target of diagnosis by the extraction unit 102. Specifically, the first extraction unit 102a extracts the candidate (blood vessel candidate) of the selected site from the luminance components separated in the Lab color space. Therefore, the first extraction unit 102a obtains the blood vessel candidate image BH by the morphological processing A (first morphological processing) using the L image corresponding to the luminance in the Lab color space subjected to color space conversion by the separation unit 101. (Step S202a). Here, the morphological processing is to apply a structuring element to an input image to generate a blood vessel candidate image BH as an output image of the same size, and each value of the output image is a corresponding pixel in the input image. Based on the comparison of the pixel with the neighboring pixels.

最も基本的なモルフォロジー処理は、膨張と収縮である。膨張は入力画像内のオブジェクトの境界に画素を付加し、収縮は、境界の画素を除去する。オブジェクトに付加し、あるいは削除する画素の数は、画像処理に使用される構造化要素のサイズと形状によって異なる。   The most basic morphological processes are expansion and contraction. Dilation adds pixels to object boundaries in the input image, and contraction removes boundary pixels. The number of pixels added to or deleted from an object depends on the size and shape of the structuring element used for image processing.

ここでは、モルフォロジー処理Aを実行し、診断の対象として選択された部位(血管候補)を輝度成分から抽出する方法について説明する。ボトムハット処理については、図6にその詳細手順が示されている。   Here, a method of executing morphology processing A and extracting a site (blood vessel candidate) selected as a target of diagnosis from the luminance component will be described. The bottom hat processing is shown in FIG. 6 in detail.

図6によれば、第1の抽出手段102aは、L画像に膨張処理を行い、処理後の輝度画像L1を得る(ステップS202a−1)。膨張処理の詳細は、インターネットURL(http://www.mathworks.co.jp/jp/help/images/morphology−fundamentals−dilation−and−erosion.html)<平成26年9月1日閲覧>に記載されている。   According to FIG. 6, the first extraction unit 102a performs expansion processing on the L image to obtain a luminance image L1 after processing (step S202a-1). The details of expansion processing, Internet URL (http://www.mathworks.co.jp/jp/help/images/morphology-fundamentals-dilation-and-erosion.html) <September 1, 2014 reading> Have been described.

次に、第1の抽出手段102aは、膨張処理後の輝度画像L1に対して収縮処理を行い、収縮処理後の輝度画像L2を得る(ステップS202a−2)。続いて、第1の抽出手段102aは、収縮処理後の輝度画像L2に対して輝度を滑らかにする平滑フィルタ処理を施し、平滑化された輝度画像L3を得る(ステップS202a−3)。ここでは、ガウシアンフィルタにより平滑化が施される。   Next, the first extraction unit 102a performs contraction processing on the luminance image L1 after expansion processing, and obtains a luminance image L2 after contraction processing (step S202a-2). Subsequently, the first extraction unit 102a performs smoothing filter processing to smooth the luminance on the luminance image L2 after the contraction processing, and obtains a smoothed luminance image L3 (step S202a-3). Here, smoothing is performed by a Gaussian filter.

ガウシアンフィルタによる平滑化は以下の演算式で表現される。
f(x,y)=(1/√(2πσ^2))exp(−(x^2+y^2)/(2σ^2))
The smoothing by the Gaussian filter is expressed by the following equation.
f (x, y) = (1 / √ (2πσ ^ 2)) exp (-(x ^ 2 + y ^ 2) / (2σ ^ 2))

ガウシアンフィルタでは、ガウス分布による重み付けが上記所定レートとして利用される。上記した演算式中のσの大きさにより平滑度を制御でき、所定の値を設定することにより実現される。なお、平滑フィルタは、ガウシアンフィルタに限定されず、メディアンフィルタ、平均フィルタ等を用いてもよい。平滑処理後の輝度画像L3からL画像を減算して(BH=L−L)ボトムハット処理後の画像BHを得る(ステッフS202a−4)。 In the Gaussian filter, weighting by Gaussian distribution is used as the predetermined rate. The degree of smoothness can be controlled by the magnitude of σ in the above-described arithmetic expression, and this is realized by setting a predetermined value. The smoothing filter is not limited to the Gaussian filter, and a median filter, an average filter or the like may be used. From the luminance image L3 after the smoothing process by subtracting the L image (BH = L 3 -L) to obtain an image BH after bottom-hat processing (Stiff S202a-4).

以上の処理を規定回数について繰り返し、規定回数が終了したときは、画像BHを血管抽出画像Eとする。規定回数内のときは、画像BHを画像Lとして膨張処理(ステップS202a−1)、収縮処理(ステップS202a−2)等を繰り返す。   The above process is repeated for the specified number of times, and when the specified number of times is completed, the image BH is taken as the blood vessel extraction image E. When the number is within the specified number, the expansion process (step S202a-1), the contraction process (step S202a-2), and the like are repeated using the image BH as the image L.

ここで、膨張処理について補足する。例えば、半径5ドットの構造化要素を考える。膨張処理とは、注目画素の構造化要素の範囲内での最大値をその注目画像の値とする処理を全画素について行うことをいう。すなわち、出力される注目画素値は、入力画素近傍の中で全ての画素の最大値である。一方、縮小処理は、注目画素の構造化要素の範囲内での最小値をその注目画素の値とする。すなわち、注目画素値は、入力画素近傍の中で全ての画素の最小値である。なお、構造化要素は円としたが、例えば、矩形でもよい。但し、円にしたほうが平滑フィルタの平滑度を小さくできる。   Here, the expansion process is supplemented. For example, consider a structuring element of radius 5 dots. The expansion processing refers to performing processing of setting the maximum value within the range of the structuring element of the pixel of interest as the value of the image of interest for all pixels. That is, the target pixel value to be output is the maximum value of all the pixels in the vicinity of the input pixel. On the other hand, in the reduction process, the minimum value within the range of the structuring element of the pixel of interest is taken as the value of the pixel of interest. That is, the target pixel value is the minimum value of all pixels in the vicinity of the input pixel. Although the structuring element is a circle, it may be, for example, a rectangle. However, using a circle can reduce the smoothness of the smoothing filter.

説明を図5のフローチャートに戻す。次に、処理部11aは、第2の抽出手段102bが、選択された部位のそれらしさ(血管らしさ)を輝度成分と色情報成分とから構成される色空間により抽出する。このため、第2の抽出手段102bは、血管らしさを尤度Aとして計算する(ステップS203a)。尤度Aの求め方は図7にその一例が示されている。   The description is returned to the flowchart of FIG. Next, the processing unit 11a causes the second extraction unit 102b to extract the depth (blood vessel likeness) of the selected portion from the color space configured from the luminance component and the color information component. Therefore, the second extraction unit 102b calculates the likelihood of a blood vessel as the likelihood A (step S203a). An example of how to determine the likelihood A is shown in FIG.

図7のフローチャートによれば、前処理部10aは、第2の抽出手段102bが、Lab色空間の赤系の色相方向に応じた色情報成分であるa軸の値、及び青系の色相方向に応じた色情報成分であるb軸の値を用いて抽出する(ステップS203a−1)。すなわち、第2の抽出手段102bは、Lab色空間のa軸,b軸の値から以下の計算を行うことによってLH1を生成する(ステップS203a−2)。   According to the flowchart of FIG. 7, the preprocessing unit 10a causes the second extraction unit 102b to generate the a-axis value, which is the color information component according to the red hue direction of the Lab color space, and the bluish hue direction. It extracts using the value of the b-axis which is the color information component according to (step S203a-1). That is, the second extraction unit 102b generates LH1 by performing the following calculation from the values of the a-axis and b-axis of the Lab color space (step S203a-2).

ad=(a−ca)*cos(r)+b*sin(r)+ca
bd=−(a−ca)*sin(r)+b*cos(r)
LH1=exp(−((ad*ad)/sa/sa+(bd*bd)
/sb/sb))
ad = (a-ca) * cos (r) + b * sin (r) + ca
bd =-(a-ca) * sin (r) + b * cos (r)
LH1 = exp (-((ad * ad) / sa / sa + (bd * bd)
/ Sb / sb))

ここで、ad,bdは、(ca,0)を中心に、反時計回りにab平面をrラジアンだけ回転させたものとなる。また、rの値として、0.3〜0.8ラジアン程度を設定する。caは、0〜50の間で設定する。sa,sbは、それぞれa軸方向の感度の逆数、b軸方向の感度の逆数となる。ここでは、sa>sbとして設定する。   Here, ad and bd are obtained by rotating the ab plane counterclockwise by r radian around (ca, 0). Also, as the value of r, about 0.3 to 0.8 radian is set. ca is set between 0 and 50. sa and sb are respectively the reciprocal of the sensitivity in the a-axis direction and the reciprocal of the sensitivity in the b-axis direction. Here, it is set as sa> sb.

次に、第2の抽出手段102bは、得られたLH1に輝度Lで制限をかける。輝度Lが閾値TH1以上であれば0にしたものをLHとし(ステップS203a−3)、輝度Lが閾値TH2以下のものをLH3とする(ステップS203a−4)。ここでは、閾値TH1は60から100の間で、閾値TH2は0から40の間で設定するものとする。ここで求めたLH3を、血管らしさを示す尤度Aとする(ステップS203a−5)。 Next, the second extraction means 102b limits the obtained LH1 with the luminance L. Those luminance L is set to 0 if the threshold value TH1 or more and LH 3 (Step S203a-3), the luminance L is the threshold TH2 following ones and LH3 (Step S203a-4). Here, the threshold TH1 is set between 60 and 100, and the threshold TH2 is set between 0 and 40. Let LH3 obtained here be a likelihood A indicating blood vessel likeness (step S203a-5).

説明を図5に戻す。第2の抽出手段102bは、上記した手順にしたがい血管らしさを尤度Aとして抽出した後(ステップS203a)、ボトムハット処理後の画像BHと、血管らしさを示す尤度Aの各要素を乗算し、係数Nで除算する(ステップS204a)。さらに、1でクリッピング処理を行なうことで強調された血管抽出画像Eを生成する(ステップS205a)。   Description will be returned to FIG. The second extraction means 102b extracts blood vessel likeness as the likelihood A according to the above procedure (step S203a), and then multiplies the image BH after bottom hat processing by each element of the likelihood A indicating blood vessel likeness , Division by a factor N (step S204a). Furthermore, the blood vessel extraction image E enhanced by performing the clipping process in 1 is generated (step S205a).

上記した例によれば、血管抽出画像Eは、0〜1までの値を持つ多値画像であるものの、トムハット処理を経ているため、抽出された血管の境界は急峻になっている。さらに急峻な境界を得たい場合は、所望の閾値で2値化をしてもよい。 According to the example described above, the blood vessel extraction image E, although a multi-level image having a value of up to 0-1, since the through ball Tomuhatto processing, the boundary of the extracted blood vessel is steeper. When it is desired to obtain a sharper boundary, binarization may be performed with a desired threshold.

上述したように、第2の抽出手段102bは、色空間の赤系の色相方向と、青系の色相方向で構成される平面座標を、赤系の色相方向軸の特定の点を中心に反時計まわりに所定角回転させ、特定の値域で輝度成分に制限をかけることにより、選択された部位の血管らしさを示す尤度Aを算出する。そして、算出された尤度Aを、輝度成分の画像にボトムハット処理を施して得られる輝度画像に乗算して選択された部位を強調する。   As described above, the second extracting unit 102b shifts the plane coordinates formed by the red hue direction of the color space and the blue hue direction around the specific point of the red hue axis. A likelihood A indicating the blood vessel likeness of the selected part is calculated by rotating the predetermined angle clockwise and limiting the luminance component in a specific value range. Then, the selected likelihood is emphasized by multiplying the calculated likelihood A by the luminance image obtained by performing bottom-hat processing on the image of the luminance component.

血管らしさを尤度Aとして抽出する変形例について、図8のフローチャートを参照して説明する。抽出手段102は、Lab色空間の赤系の色相方向であるa軸の値を取得し(ステップS203a−7)、Sを例えば80とし(ステップS203a−8)、血管らしさAの値を、0〜80の範囲で制限を与えて正規化(A←max(min(a,S),0)/S)を行い、0から1の値範囲に設定している(ステップS203a−9)。ここでは、0から80の値で制限を与えたが、この値は一例であり、この値に制限されない。   A modification in which blood vessel likeness is extracted as the likelihood A will be described with reference to the flowchart in FIG. The extraction unit 102 acquires the value of the a-axis that is the red hue direction of the Lab color space (step S203a-7), and sets S to, for example, 80 (step S203a-8). A restriction is given in the range of ̃80 to perform normalization (A ← max (min (a, S), 0) / S), and the value is set in the range of 0 to 1 (step S 203 a-9). Here, the restriction is given with a value of 0 to 80, but this value is an example and is not limited to this value.

次に、学習画像の画像変換処理の他の例として、色情報から直接血管を抽出する方法について図9,図10のフローチャートを参照しながら説明する。以降の説明では、色情報から血管尤度画像を生成し、改良されたトップハット処理(以下、モルフォロジー処理Bという)によって血管を抽出するものである。なお、血管尤度画像は、尤度の高い方が画像の値が大きい。   Next, as another example of the image conversion process of a learning image, a method of directly extracting a blood vessel from color information will be described with reference to the flowcharts of FIGS. In the following description, a blood vessel likelihood image is generated from color information, and a blood vessel is extracted by the improved top hat processing (hereinafter referred to as morphology processing B). In the blood vessel likelihood image, the higher the likelihood, the larger the value of the image.

図6に示したモルフォロジー処理Aは、ソース画像に対して膨張処理を施した後に縮小処理を行なっている。膨張、収縮を同じ回数分繰り返して行う処理はクロージング処理と呼ばれている。つまり、クロージング処理した画像に平滑フィルタ処理を施し、ソース画像から減算(ブラックハット処理)している。ここで、ソース画像は輝度画像Lであり、血管での画像の値は比較的小さくなっている。このように、画像中の値が小さい形状を抽出する場合に図6に示すモルフォロジー処理Aが用いられる。   In the morphological processing A shown in FIG. 6, the reduction processing is performed after the expansion processing is performed on the source image. The process of repeating expansion and contraction the same number of times is called closing process. That is, smoothing filtering is applied to the image subjected to closing processing, and subtraction (black hat processing) is performed from the source image. Here, the source image is a luminance image L, and the value of the image at the blood vessel is relatively small. Thus, when extracting a shape having a small value in the image, the morphological processing A shown in FIG. 6 is used.

以下に、モルフォロジー処理Bによる血管抽出処理について説明する。図9に、画像変換Bの処理手順を示すように、前処理部10aは、まず、分離手段101が、RGB色空間の撮影画像を、Lab色空間変換する(ステップS201b)。次に、前処理部10aは、第2の抽出手段102bが、選択された部位のそれらしさ(血管らしさ)をLab色空間において分離された色情報成分により抽出する。このため、第2の抽出手段102bは、血管らしさを尤度Aとして計算する(ステップS202b)。尤度Aの求め方は、先に図7、図8を使用して説明した通りである。   The blood vessel extraction process by the morphology process B will be described below. As shown in FIG. 9, the processing procedure of the image conversion B is as follows. First, the separation unit 101 performs Lab color space conversion on the photographed image in the RGB color space of the preprocessing unit 10 a (step S 201 b). Next, the pre-processing unit 10 a causes the second extraction unit 102 b to extract those textures (blood vessel likeness) of the selected part from the color information components separated in the Lab color space. Therefore, the second extraction unit 102b calculates the likelihood of a blood vessel as the likelihood A (step S202b). The method of determining the likelihood A is as described above using FIGS. 7 and 8.

続いて、第2の抽出手段102bは、血管らしさを示す血管尤度画像Aから血管抽出E画像を取得する(ステップS203b)。血管尤度画像Aから血管抽出画像を取得する処理手順は図10に示されている。   Subsequently, the second extraction unit 102b acquires a blood vessel extraction E image from the blood vessel likelihood image A indicating blood vessel likeness (step S203 b). A processing procedure for acquiring a blood vessel extraction image from the blood vessel likelihood image A is shown in FIG.

図10のフローチャートによれば、第2の抽出手段102bは、まず、血管尤度画像Aを適切な構造化要素により収縮処理を行なって収縮処理後の血管尤度画像A1を取得する(ステップS203b−1)。次に、収縮処理後の血管尤度画像A1を膨張処理して膨張処理後の血管尤度画像A2を得る(ステップS203b−2)。第2の抽出手段102bは、更にこの膨張処理後の血管尤度画像A2に平滑フィルタ処理(ガウシアンフィルタ)を施し、平滑処理後の血管尤度画像A3を得る(ステップS203b−3)。最後に、血管尤度画像Aから平滑処理後の血管尤度画像A3を差し引いて血管抽出画像Eを得る(ステップS203b−4)。   According to the flowchart of FIG. 10, the second extraction unit 102b first performs contraction processing on the blood vessel likelihood image A using an appropriate structuring element to acquire the blood vessel likelihood image A1 after contraction processing (step S203 b). -1). Next, the blood vessel likelihood image A1 after the contraction process is subjected to dilation processing to obtain a blood vessel likelihood image A2 after the dilation processing (step S203 b-2). The second extraction means 102b further performs a smoothing filter process (Gaussian filter) on the blood vessel likelihood image A2 after the expansion process to obtain a blood vessel likelihood image A3 after the smoothing process (step S203 b-3). Finally, a blood vessel extraction image E is obtained by subtracting the blood vessel likelihood image A3 after the smoothing process from the blood vessel likelihood image A (step S203 b-4).

上記したように、ソース画像(血管尤度画像A)に対して収縮処理を行ない、続いて膨張処理を行なったものを、オープニング処理という。第2の抽出手段102bは、オープニング処理した画像に対して平滑フィルタ処理を施し、ソース画像からオープニングした画像を差し引いて(トップハット処理)、ソース画像中の血管形状を抽出している。ここで、ソース画像は血管尤度画像になっているため、血管らしいところでは画像の値が大きくなっている。   As described above, the source image (blood vessel likelihood image A) subjected to contraction processing and then to expansion processing is referred to as opening processing. The second extraction unit 102b performs smoothing filter processing on the image subjected to opening processing, subtracts the opened image from the source image (top hat processing), and extracts the blood vessel shape in the source image. Here, since the source image is a blood vessel likelihood image, the value of the image is large where blood vessels are likely.

説明を図9のフローチャートに戻す。第2の抽出手段102bは、血管尤度画像Aから血管抽出E画像を取得した後、血管抽出E画像に適切な係数Nを乗算し(ステップS204b)、1でクリッピング処理を行なうことで強調された血管抽出画像を生成する(ステップS205b)。   The description is returned to the flowchart of FIG. After acquiring the blood vessel extraction E image from the blood vessel likelihood image A, the second extraction means 102b multiplies the blood vessel extraction E image by an appropriate coefficient N (step S204b), and is enhanced by performing the clipping process in 1. The blood vessel extraction image is generated (step S205 b).

上記したように、多値画像から形状を取得するために、画像中の値が大きい形状を取得する場合には、クロージング処理を行った画像に対して平滑フィルタ処理を施し、ソース画像を差し引くことにより血管抽出画像を得、一方、画像中の値が小さい形状を取得する場合には、オープニング処理を行ったものに対して平滑フィルタ処理を施してソース画像から減算することにより血管抽出画像を得る。   As described above, in order to acquire a shape having a large value in an image in order to acquire a shape from a multivalued image, a smoothing filter process is performed on the image subjected to the closing process, and the source image is subtracted. The blood vessel extraction image is obtained by obtaining the blood vessel extraction image, and on the other hand, when obtaining a shape having a small value in the image, the one subjected to the opening process is subjected to the smoothing filter process and subtracted from the source image. .

ここで、オープニング処理とは、収縮処理と膨張処理をその順で一回あるいは複数回繰り返したものをいい、クローング処理とは、膨張処理と収縮処理をその順で一回あるいは複数回繰り返したものをいう。オープニング処理、クロージング処理ともに、使用する構造化要素の形状は円が好ましい。また、平滑フィルタとし、例えば、ガウシアンフィルタ、平均フィルタ、メディアンフィルタ等が使用される。 Here, the opening processing, refers to those repeated one or more times a contraction processing and expansion processing in that order, the claw-di-packaging process, repeated one or more times the expansion processing and contraction processing in that order Say what The shape of the structuring element used in both the opening process and the closing process is preferably a circle. Further, as a smoothing filter, for example, a Gaussian filter, an average filter, a median filter or the like is used.

以上が学習画像の画像変換処理(血管強調、構造明瞭)であり、輝度画像からの血管形状抽出、血管尤度画像からの血管形状抽出を行い、その結果、不規則な形状、値変動が大きな形状に対してもモアレ等の疑似模様を発生させることなく形状取得が可能になる。   The above is the image conversion processing (blood vessel enhancement, clear structure) of the learning image, and the blood vessel shape extraction from the luminance image and the blood vessel shape extraction from the blood vessel likelihood image are performed. As a result, the irregular shape and the value fluctuation are large. It is possible to obtain the shape without generating a pseudo pattern such as moire for the shape.

説明を図4の機械学習識別器生成処理のフローチャートに戻す。図4において、前処理部10aは、上記した、血管強調、構造明瞭のための画像変換処理を実行後(ステップS201)、各変換画像を90xN回転と反転の組み合わせで8倍に増量処理を実行し、結果を処理部11aに引き渡す(ステップS202)。   The description is returned to the flowchart of the machine learning discriminator generation process of FIG. In FIG. 4, after the preprocessing unit 10a executes the above-described image conversion processing for blood vessel enhancement and structure clarity (step S201), the conversion image is increased by eight times by a combination of 90 × N rotation and inversion. And deliver the result to the processing unit 11a (step S202).

これを受けて処理部11aは、増量された各画像の学習済みCNN値を変換画像毎に平均して4096次元の特徴ベクトルを得る(ステップS203)。処理部11aは、更に、変換画像毎に出力された特徴ベクトル平均を連結して最終的なベクトル表現とする(ステップS204)。そして、ステップS210からS204の処理を繰り返し実行して必要種類の識別器生成後(ステップS205“YES”)、連結された特徴ベクトルを用い、そのベクトルを入力とする線形SVM(Support Vector Machine)学習を行ない、機械学習識別器生成処理を終了する(ステップS206)。 In response to this, the processing unit 11a obtains 4096-dimensional feature vectors by averaging the learned CNN values of the respective increased images for each converted image (step S203). The processing unit 11a further concatenates the feature vector averages output for each transformed image to obtain a final vector representation (step S204). Then, stearyl-up S210 need types repeatedly performs the processes of S204 from discriminator generation after (step S205 "YES"), using the concatenated feature vectors, linear SVM (Support Vector Machine to enter the vector ) The learning is performed, and the machine learning discriminator generation process is ended (step S206).

図11は、本発明の第1実施形態に係る診断装置100Aの試験画像の識別処理の手順(図3のステップS30)を示すフローチャートである。   FIG. 11 is a flowchart showing the procedure of the test image identification process (step S30 of FIG. 3) of the diagnostic device 100A according to the first embodiment of the present invention.

図11によれば、まず、前処理部10aは、取得部12aが取得した未知の皮膚画像データに対して、部位強調、構造明瞭のための画像変換を実行する(ステップS301)。ここで行われる画像変換は、学習用皮膚画像の画像変換と同様、図5〜図10のフローチャートにしたがう。前処理部10aは、更に、各変換画像を90xN回転と反転の組み合わせで8倍に増量処理を実行し、結果を処理部11aに引き渡す。   According to FIG. 11, first, the preprocessing unit 10a performs region enhancement and image conversion for clear structure with respect to unknown skin image data acquired by the acquisition unit 12a (step S301). The image conversion performed here follows the flowcharts of FIGS. 5 to 10 in the same manner as the image conversion of the learning skin image. Further, the preprocessing unit 10a executes an increase process eight times on each converted image by a combination of 90 × N rotation and inversion, and delivers the result to the processing unit 11a.

処理部11aは、増量された各画像の学習済みCNN値を変換画像毎に平均して4096次元の特徴ベクトルを得、更に、変換画像毎に出力された特徴ベクトル平均を連結して最終的なベクトル表現とする(ステップS302)。そして、処理部11aは、ステッップS301とS302の処理を繰り返し実行して必要種類の識別器生成後(ステップS303“YES”)、判定手段113が、全ての識別値を平均貸して最終判定値を得、例えば、表示装置120に表示する(ステップS304)。   The processing unit 11a obtains the 4096-dimensional feature vector by averaging the learned CNN values of the increased images for each converted image, and further concatenates the feature vector averages output for each converted image to obtain a final result. Vector representation is made (step S302). Then, after the processing unit 11a repeatedly executes the processing of steps S301 and S302 to generate the necessary type of classifier (step S303 "YES"), the determination unit 113 averages all the identification values and averages the final determination value. For example, it is displayed on the display device 120 (step S304).

すなわち、ステップS301〜S303までの処理は、画像変換の対象となる入力画像が学習用皮膚画像から試験画像(未知の画像)に変更されただけであり、必要種類の識別器生成後、学習済みの線形SVM識別器の出力値により識別結果を得る。   That is, in the processing of steps S301 to S303, the input image to be subjected to the image conversion is only changed from the learning skin image to the test image (an unknown image), and after the generation of the necessary types of classifiers The discrimination result is obtained by the output value of the linear SVM discriminator of

(第2実施形態)
図12に、本発明の第2実施形態に係る診断装置100Bの構成が示されている。図1に示す第1実施形態に係る診断装置100Aとの構成上の差異は、診断装置本体10の処理部11bの構成にのみある。第2実施形態に係る診断装置100Bにおいて、処理部11bは、原画像を含む変換画像毎に複数の識別器を生成する構成になっている。周辺装置であるダーモスコープ付撮影装置110、表示装置120、入力装置130も含め他の構成は図1に示した第1実施形態に係る診断装置100Aと同様である。
Second Embodiment
FIG. 12 shows the configuration of a diagnostic device 100B according to a second embodiment of the present invention. The difference in configuration from the diagnostic device 100A according to the first embodiment shown in FIG. 1 is only in the configuration of the processing unit 11b of the diagnostic device main body 10. In the diagnostic device 100B according to the second embodiment, the processing unit 11b is configured to generate a plurality of classifiers for each converted image including the original image. The rest of the configuration is the same as that of the diagnostic device 100A according to the first embodiment shown in FIG. 1 including the imaging device 110 with dermoscope as a peripheral device, the display device 120, and the input device 130.

上記構成において、処理部11bは、原画像に対して単位識別器CNN1〜CNN3(211〜213)、部位強調画像に対して識別器CNN4〜CNN6(214〜216)、構造明瞭画像に対して識別器CNN7〜CNN9(217〜219)がそれぞれ特徴ベクトルを生成する。この場合、識別器生成の際の学習時の初期値は、都度、乱数で決定し、同じ変換画像群に対しても、異なる識別器となるようにする。   In the above configuration, the processing unit 11b identifies unit classifiers CNN1 to CNN3 (211 to 213) for the original image, classifiers CNN4 to CNN6 (214 to 216) for the site-emphasized image, and the structure clear image. The counters CNN7 to CNN9 (217 to 219) respectively generate feature vectors. In this case, the initial value at the time of learning at the time of classifier generation is determined by a random number each time, and different classifiers are made for the same converted image group.

すなわち、第2実施形態に係る診断装置100Bでは、各単位識別器211〜219は、初期値がその都度乱数によって決定されることにより、決定された初期値ごとに単位識別器の群として多段的に機能することができる。   That is, in the diagnostic device 100B according to the second embodiment, each of the unit classifiers 211 to 219 is multistaged as a group of unit classifiers for each of the determined initial values by determining the initial value by the random number each time. Can function.

(実施形態の効果)
以上説明のように本実施形態に係る診断装置100A(100B)によれば、構造明瞭や部位強調などの画像変換を行った後、変換アリゴリズム毎に、個別で画像識別を行い、それぞれの識別スコアを総合的に判定することにより疾患の識別率を向上させることができる。
(Effect of the embodiment)
As described above, according to the diagnostic device 100A (100B) according to the present embodiment, after image conversion such as structural clarity or site enhancement is performed, image identification is individually performed for each conversion algorithm, and each identification score It is possible to improve the identification rate of disease by comprehensively determining

具体的に、イボとホクロ識別試験による識別率を評価結果として図13に表形式で示した。識別対象は、イボとホクロの2クラス分類とした。イボはウイルス感染や皮脂腺の多い部位の皮膚表面が変化してできるもの、ホンロは色素細胞(メラノサイト)というメラニン色素を作る細胞が変化した母斑細胞と呼ばれる細胞のかたまりで発生箇所が異なるもので、色、形状が似通っていて素人には判別が困難なケースが一定数存在する。イボかホクロかの識別には直接的な需要がある点と、症例が多くデータの入手が比較的よういである点を考慮してこのような問題設定を選択した。   Specifically, the discrimination rate by the warpage and the hokuro discrimination test is shown in the form of a table in FIG. 13 as the evaluation result. The target of identification was a 2-class classification of wart and hokuro. Wart can be caused by changes in the skin surface in areas with many viral infections and sebaceous glands, and uro is a cluster of cells called nevus cells in which the cells that make up the melanin pigment called melanocytes (melanocytes) are different. There are a certain number of cases where color and shape are similar and it is difficult for an amateur to distinguish. We chose this kind of problem setting in consideration of the direct demand for the identification of wart or hokuro and the fact that there are many cases with relatively easy access to data.

評価用データは、イボ画像261枚、ホクロ画像704枚を用い、イボ画像、ホクロ画像をそれぞれ4分割して評価を行った。更に、この評価用データセットを用い、イボ、ホクロの識別学習器を用いて評価した。このイボ、ホクロの識別成功率が図13に示されている。表には、学習済みCNNを利用した個別識別(但し、前処理無し)、5種画像アンサンブル(5種類の変換画像による特徴ベクトルの連結)、7種変換画像による識別成功率がそれぞれ示されている。   The evaluation data was evaluated by dividing the warpage image and the black image into four parts using 261 war images and 704 black images. Furthermore, using this data set for evaluation, evaluation was performed using a discrimination / learning device of wart and hokuro. The identification success rate of the wart and the hokuro is shown in FIG. In the table, individual identification using training CNN (but without pre-processing), five image ensembles (concatenation of feature vectors by five types of converted images) and discrimination success rates by seven types of converted images are shown respectively. There is.

図13に示すように、個別の変換画像のみによる識別器においては、従来のBoF(Bag−of−Features)方式で前処理無しのグレー画像で89.8%、HDRC(High Dynamic Range Compression)グレー画像で89.8%よりも約1〜2%ほど上回っており、本実施形態に係る診断装置100A(100B)により優位性を確認することができた。また、5種アンサンブル方式に対して構造明瞭画像、血管等部位強調画像を加えた7種アンサンブル方式にすることにより、93.9%から94.7%へ識別成功率の向上を確認することができた。   As shown in FIG. 13, in the classifier using only individual converted images, 89.8% of gray images without pretreatment in the conventional BoF (Bag-of-Features) method, HDRC (High Dynamic Range Compression) gray The image was about 1 to 2% higher than 89.8%, and the superiority could be confirmed by the diagnostic device 100A (100B) according to the present embodiment. In addition, by using 7 types of ensemble method in which a structure clear image and a region-weighted image such as blood vessels are added to 5 types of ensemble methods, it is possible to confirm an improvement in the identification success rate from 93.9% to 94.7%. did it.

最後に、以上では、本実施形態として、診断装置、及び診断装置における学習処理方法、並びにプログラムを説明したが、各要素をそれぞれの手段とする診断システムとして構築してもよい、例えば、個々の手段をネットワークで接続し、医療現場には患者の疾患に係る未知の皮膚画像データを取得する手段を端末として配置し、その皮膚画像データをもとに診断されるべき疾患を識別する手段を専門機関が有するサーバに配置するようにしてもよい。   Finally, although the diagnostic device, the learning processing method in the diagnostic device, and the program have been described above as the present embodiment, the diagnostic system may be constructed using each element as a means, for example, individual We connect means by network, place in medical field the means to acquire unknown skin image data related to the disease of the patient as a terminal, and specialize the means to identify the disease to be diagnosed based on the skin image data It may be arranged on a server owned by an organization.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。またその様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Although the present invention has been described above using the embodiment, it goes without saying that the technical scope of the present invention is not limited to the scope described in the above embodiment. It will be apparent to those skilled in the art that various changes or modifications can be added to the above embodiment. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[請求項1]
皮膚画像を用いて皮膚の疾患を診断するための診断装置であって、
診断されるべき対象に係わる複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備え、
前記アンサンブル識別器が、
前記対象に係る原画像データ、前記原画像データから変換された第1の変換画像データ及び同じく第2の変換画像データのうち少なくとも2つを含む前記複数の皮膚画像データに対応するように、少なくとも2つの単位識別器と、
前記単位識別器によって各別に得られた識別値を統合し、最終判定値を得る判定手段と、を備えることを特徴とする診断装置。
[請求項2]
前記アンサンブル識別器が、前記対象に係る原画像データ、前記原画像データから変換された第1の変換画像データ及び同じく第2の変換画像データを含む前記複数の未知の皮膚画像データに対応するように、3つの単位識別器を備えることを特徴とする請求項1に記載の診断装置。
[請求項3]
前記アンサンブル識別器が、前記対象に係る原画像に係る原画像データから変換された第1の変換画像データ、及び前記第1の変換画像データを回転及び/又は反転させた複数の回転反転画像のうち少なくとも2つを含む前記複数の未知の皮膚画像データに対応するように、少なくとも2つの単位識別器を備えることを特徴とする請求項1に記載の診断装置。
[請求項4]
前記アンサンブル識別器が、前記対象に係る原画像データから変換された第2の変換画像データ、及び前記第2の変換画像データを回転及び/又は反転させた複数の回転及び/又は反転画像のうち少なくとも2つを含む前記複数の未知の皮膚画像データに対応するように、少なくとも2つの単位識別器を備えることを特徴とする請求項1に記載の診断装置。
[請求項5]
各単位識別器が、初期値がその都度乱数によって決定されることにより、決定された初期値ごとに単位識別器の群として多段的に機能することを特徴とする請求項1から4のいずれか1項に記載の診断装置。
[請求項6]
前記判定手段が、前記複数の識別値を平均して統合することを特徴とする請求項1から5のいずれか1項に記載の診断装置。
[請求項7]
前記第1の変換画像データが前記原画像データに対し構造明瞭変換処理が施された画像データであり、前記構造明瞭変換処理が前記原画像データの輝度成分を強調する処理であることを特徴とする請求項1から6のいずれか1項に記載の診断装置。
[請求項8]
前記第2の変換画像データが前記原画像データに対し部位強調処理が施された画像データであり、前記部位強調変換処理が前記原画像データの輝度成分又は輝度成分及び色情報成分から該当する部位を抽出する処理であることを特徴とすることを特徴とする請求項1から6のいずれか1項に記載の診断装置。
[請求項9]
疾患の識別名称と既知の皮膚画像データを関連付けて記録している皮膚画像データベースと、前記複数の未知の皮膚画像データを取得可能な取得部と、をさらに備えることを特徴とする請求項1から8のいずれか1項に記載の診断装置。
[請求項10]
前記単位識別器が、疾患に係る複数の既知の皮膚画像データに基づいて学習する畳み込みニューラルネットワークを有し、
前記畳み込みニューラルネットワークが、
学習段階では前記複数の既知の皮膚画像データが、試験段階では前記複数の未知の皮膚画像データが入力される入力層と、
畳み込み層とプーリング層から構成されたセットを複数有し、前記複数の既知の皮膚画像データ又は前記複数の未知の皮膚画像データから特徴を抽出する中間層と、
抽出された前記特徴に基づき診断対象の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項1から9のいずれか1項に記載の診断装置。
[請求項11]
診断されるべき対象に係る複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備えた診断装置における学習処理方法であって、
前記対象に係る原画像データ、前記原画像データから変換された第1の変換画像データ及び同じく第2の変換画像データの少なくとも2つを含む前記複数の未知の皮膚画像データを取得するステップと、
前記アンサンブル識別器を構成する少なくとも2つの単位識別器に、前記複数の未知の皮膚画像データのそれぞれを入力するステップと、
前記単位識別器によって各別に得られた識別値を統合して最終判定値を得るステップと、を有することを特徴とする診断装置における学習処理方法。
[請求項12]
診断されるべき対象に係る複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備えた診断装置の学習処理プログラムであって、
コンピュータに、
前記対象に係る原画像データ、前記原画像データから変換された第1の変換画像データ及び同じく第2の変換画像データの少なくとも2つを含む前記複数の未知の皮膚画像データを取得する手順と、
前記アンサンブル識別器を構成する少なくとも2つの単位識別器に、前記複数の未知の皮膚画像データのそれぞれを入力する手順と、
前記単位識別器によって各別に得られた識別値を統合して最終判定値を得る手順と、を実行させる学習処理プログラム。
In the following, the invention described in the claims initially attached to the request for this application is appended. The item numbers of the claims described in the appendix are as in the claims attached at the beginning of the application for this application.
[Claim 1]
A diagnostic apparatus for diagnosing a skin disorder using a skin image, comprising:
An ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data related to a subject to be diagnosed;
The ensemble discriminator
In order to correspond to the plurality of skin image data including at least two of original image data relating to the object, first converted image data converted from the original image data, and second converted image data as well With two unit classifiers,
A determination unit that integrates identification values obtained separately by the unit classifier and obtains a final determination value.
[Claim 2]
The ensemble discriminator corresponds to the plurality of unknown skin image data including the original image data relating to the object, the first converted image data converted from the original image data, and the second converted image data. The diagnostic device according to claim 1, further comprising three unit discriminators.
[Claim 3]
The first image data converted from the original image data relating to the original image relating to the target, and the plurality of rotationally inverted images obtained by rotating and / or inverting the first image data converted by the ensemble discriminator The diagnostic device according to claim 1, further comprising at least two unit identifiers corresponding to the plurality of unknown skin image data including at least two of them.
[Claim 4]
Of the plurality of rotated and / or inverted images obtained by rotating and / or inverting the second converted image data converted from the original image data relating to the object, and the second converted image data by the ensemble discriminator The diagnostic device according to claim 1, further comprising at least two unit identifiers to correspond to the plurality of unknown skin image data including at least two.
[Claim 5]
The unit discriminator according to any one of claims 1 to 4, wherein each unit discriminator functions as a group of unit discriminators in multiple stages for each of the determined initial values, with the initial value being determined by a random number each time. The diagnostic device according to claim 1.
[Claim 6]
The diagnostic apparatus according to any one of claims 1 to 5, wherein the determination unit averages and integrates the plurality of identification values.
[Claim 7]
The first converted image data is image data obtained by subjecting the original image data to a structure clear conversion process, and the structure clear conversion process is a process of emphasizing a luminance component of the original image data. The diagnostic device according to any one of claims 1 to 6.
[Claim 8]
The second converted image data is image data obtained by performing site enhancement processing on the original image data, and the site enhancement conversion process is applied to the luminance component or the luminance component and the color information component of the original image data. The diagnostic device according to any one of claims 1 to 6, characterized in that the processing is for extracting.
[Claim 9]
The skin image database in which the identification name of the disease and the known skin image data are associated and recorded, and the acquiring unit capable of acquiring the plurality of unknown skin image data. The diagnostic device according to any one of 8.
[Claim 10]
The unit discriminator includes a convolutional neural network that learns based on a plurality of known skin image data related to a disease,
The convolutional neural network is
An input layer to which the plurality of known skin image data are input in the learning stage, and the plurality of unknown skin image data in the testing stage;
An intermediate layer having a plurality of sets composed of a convolution layer and a pooling layer and extracting features from the plurality of known skin image data or the plurality of unknown skin image data;
The diagnostic device according to any one of claims 1 to 9, further comprising: an output layer that outputs an identification value for each classification of a diagnostic object based on the extracted feature.
[Claim 11]
A learning processing method in a diagnostic apparatus comprising an ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data of a subject to be diagnosed,
Acquiring the plurality of unknown skin image data including at least two of original image data relating to the object, first converted image data converted from the original image data, and second converted image data as well;
Inputting each of the plurality of unknown skin image data into at least two unit classifiers constituting the ensemble classifier;
Integrating the identification values separately obtained by the unit discriminator to obtain a final judgment value.
[Claim 12]
A learning processing program of a diagnostic device comprising an ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data of a subject to be diagnosed,
On the computer
Acquiring a plurality of unknown skin image data including at least two of original image data relating to the object, first converted image data converted from the original image data, and second converted image data as well;
A step of inputting each of the plurality of unknown skin image data to at least two unit classifiers constituting the ensemble classifier;
A learning processing program for executing a procedure of integrating the identification values obtained separately by the unit classifier to obtain a final determination value.

10…診断装置本体、10a,10b…前処理部、11a,11a…処理部(アンサンブル識別器)、12a,12b…取得部、100A,100B…診断装置、103…学習用皮膚画像記憶部、104…画像記憶部、103…学習用皮膚画像記憶部、110…ダーモスコープ付き撮影装置、120…表示装置、130…入力装置、101…分離手段、102…抽出手段、102a…第1の抽出手段、102b…第2の抽出手段、111,112,201〜209…単位識別器、113…判定手段、111a…入力層、111b…中間層、111c…出力層、a…処理ユニット、b…特徴マップ
DESCRIPTION OF SYMBOLS 10 Diagnostic device main body 10a, 10b: Pre-processing unit 11a, 11a: Processing unit (ensemble classifier) 12a, 12b: Acquisition unit 100A, 100B: Diagnostic device 103: Learning skin image storage unit 104 ... image storage unit, 103 ... skin image storage unit for learning, 110 ... imaging device with dermoscope, 120 ... display device, 130 ... input device, 101 ... separation means, 102 ... extraction means, 102a ... first extraction means, 102b ... second extraction means, 111, 112, 201-209 ... unit discriminator, 113 ... judgment means, 111 a ... input layer, 111 b ... intermediate layer, 111 c ... output layer, a ... processing unit, b ... feature map

Claims (19)

皮膚画像を用いて皮膚の疾患を診断するための診断装置であって、
診断されるべき対象に係わる複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備え、
前記アンサンブル識別器が、
前記対象に係る原画像データ、前記原画像データに対して所定の第1の変換処理が施された第1の変換画像データ及び、前記原画像データに対して前記第1の変換処理と異なる第2の変換処理が施された第2の変換画像データのうちの、少なくとも前記第2の変換画像データを含めた2つを含む前記複数の未知の皮膚画像データに対応するように、少なくとも2つの単位識別器と、
前記単位識別器によって各別に得られた識別値を統合し、最終判定値を得る判定手段と、を備え
前記第2の変換処理は、前記原画像データの輝度成分及び色情報成分に基づいて、前記原画像データから血管に相当する部位を強調して抽出する処理であることを特徴とする診断装置。
A diagnostic apparatus for diagnosing a skin disorder using a skin image, comprising:
An ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data related to a subject to be diagnosed;
The ensemble discriminator
Original image data according to the object, different from the first converted image data by the first conversion processing given on the original image data is performed, and the first conversion processing on the original image data of the second converted image data by the second conversion processing has been performed, so as to correspond to the plurality of unknown skin image data including the two, including at least the second converted image data, at least 2 With one unit identifier,
Determining means for integrating the identification values separately obtained by the unit classifier and obtaining a final determination value ;
The second conversion process is a process of emphasizing and extracting a portion corresponding to a blood vessel from the original image data based on a luminance component and a color information component of the original image data .
前記アンサンブル識別器が、前記原画像データ、前記第1の変換画像データ及び前記第2の変換画像データを含む前記複数の未知の皮膚画像データに対応するように、3つの単位識別器を備えることを特徴とする請求項1に記載の診断装置。 The ensemble classifier, before Kihara image data, before SL so as to correspond to the first converted image data and the plurality of unknown skin image data including the second converted image data, the three unit identifier The diagnostic device according to claim 1, comprising: 前記アンサンブル識別器が、前記第2の変換画像データに加え、記第1の変換画像データ、及び前記第1の変換画像データを回転及び/又は反転させた複数の回転反転画像のうち少なくとも2つを含む前記複数の未知の皮膚画像データに対応するように、複数の単位識別器を備えることを特徴とする請求項1に記載の診断装置。 The ensemble classifier is added to the second converted image data, before Symbol least 2 of the first converted image data, and a plurality of rotary inversion image rotation and / or by inverting the first converted image data The diagnostic device according to claim 1, further comprising a plurality of unit identifiers corresponding to the plurality of unknown skin image data including one. 前記アンサンブル識別器が、前記第2の変換画像データに加え、前記第2の変換画像データを回転及び/又は反転させた複数の回転及び/又は反転画像のうち少なくとも2つを含む前記複数の未知の皮膚画像データに対応するように、複数の単位識別器を備えることを特徴とする請求項1に記載の診断装置。 The ensemble classifier, the addition to the second converted image data, before Symbol plurality of including at least two of the second converted image data rotated and / or inverted plurality of rotating and / or reverse image was a The diagnostic device according to claim 1, comprising a plurality of unit discriminators so as to correspond to unknown skin image data. 前記判定手段が、前記単位識別器によって各別に得られた前記識別値を平均して統合することを特徴とする請求項1から4のいずれか1項に記載の診断装置。 The diagnostic apparatus according to any one of claims 1 to 4, wherein the determination unit averages and integrates the identification values obtained separately by the unit identifier . 前記第1の変換画像データが前記原画像データに対し構造明瞭変換処理が施された画像データであり、前記構造明瞭変換処理が前記原画像データの輝度成分を強調する処理であって、
前記アンサンブル識別器が、前記第2の変換画像データに加え、前記第1の変換画像データを含む前記複数の未知の皮膚画像データに対応するように、複数の識別器を備えることを特徴とする請求項1から5のいずれか1項に記載の診断装置。
What the first structure clearly conversion process converts the image data to the original image data is image data that has undergone the structure clearly conversion processing emphasizing process der the luminance component of the original image data,
The ensemble discriminator includes a plurality of discriminators so as to correspond to the plurality of unknown skin image data including the first converted image data in addition to the second converted image data. The diagnostic device according to any one of claims 1 to 5.
疾患の識別名称と既知の皮膚画像データを関連付けて記録している皮膚画像データベースと、前記複数の未知の皮膚画像データを取得可能な取得部と、をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の診断装置。 The skin image database in which the identification name of the disease and the known skin image data are associated and recorded, and the acquiring unit capable of acquiring the plurality of unknown skin image data. The diagnostic device according to any one of 6. 前記単位識別器が、疾患に係る複数の既知の皮膚画像データに基づいて学習する畳み込みニューラルネットワークを有し、
前記畳み込みニューラルネットワークが、
学習段階では前記複数の既知の皮膚画像データが、試験段階では前記複数の未知の皮膚画像データが入力される入力層と、
畳み込み層とプーリング層から構成されたセットを複数有し、前記複数の既知の皮膚画像データ又は前記複数の未知の皮膚画像データから特徴を抽出する中間層と、
抽出された前記特徴に基づき診断対象の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項1からのいずれか1項に記載の診断装置。
The unit discriminator includes a convolutional neural network that learns based on a plurality of known skin image data related to a disease,
The convolutional neural network is
An input layer to which the plurality of known skin image data are input in the learning stage, and the plurality of unknown skin image data in the testing stage;
An intermediate layer having a plurality of sets composed of a convolution layer and a pooling layer and extracting features from the plurality of known skin image data or the plurality of unknown skin image data;
The diagnostic device according to any one of claims 1 to 7 , further comprising: an output layer that outputs an identification value for each classification of a diagnostic object based on the extracted feature .
診断されるべき対象に係る複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備えた診断装置における学習処理方法であって、
前記対象に係る原画像データ、前記原画像データに対して所定の第1の変換処理が施された第1の変換画像データ、及び、前記原画像データに対して前記第1の変換処理と異なる第2の変換処理が施された第2の変換画像データのうちの、少なくとも前記第2の変換画像データを含めた2つを含む前記複数の未知の皮膚画像データを取得するステップと、
前記アンサンブル識別器を構成する少なくとも2つの単位識別器に、前記複数の未知の皮膚画像データのそれぞれを入力するステップと、
前記単位識別器によって各別に得られた複数の識別値を統合して最終判定値を得るステップと、を有し、
前記第2の変換処理は、前記原画像データの輝度成分及び色情報成分に基づいて、前記原画像データから血管に相当する部位を強調して抽出する処理であることを特徴とする診断装置における学習処理方法
A learning processing method in a diagnostic apparatus comprising an ensemble discriminator for identifying whether or not a disease is present based on a plurality of unknown skin image data of a subject to be diagnosed,
The original image data relating to the target, the first converted image data obtained by performing the predetermined first conversion processing on the original image data, and the first conversion processing on the original image data are different from each other Acquiring the plurality of unknown skin image data including at least two of the second conversion image data subjected to the second conversion processing including the second conversion image data;
Inputting each of the plurality of unknown skin image data into at least two unit classifiers constituting the ensemble classifier;
Combining a plurality of identification values separately obtained by the unit identifier to obtain a final determination value;
The second conversion process, the original on the basis of the luminance component and color information components of the image data, diagnostics you, wherein a process of extracting highlights the portion corresponding to the blood vessel from the original image data Learning processing method in the device.
診断されるべき対象に係る複数の未知の皮膚画像データに基づいて疾患であるか否かを識別するアンサンブル識別器を備えた診断装置のプログラムであって、It is a program of a diagnostic device provided with an ensemble discriminator which identifies whether it is a disease based on a plurality of unknown skin image data concerning a subject to be diagnosed,
前記診断装置に、In the diagnostic device,
前記対象に係る原画像データ、前記原画像データに対して所定の第1の変換処理が施された第1の変換画像データ、及び、前記原画像データに対して前記第1の変換処理と異なる第2の変換処理が施された第2の変換画像データのうちの、少なくとも前記第2の変換画像データを含めた2つを含む前記複数の未知の皮膚画像データを取得する手順と、The original image data relating to the target, the first converted image data obtained by performing the predetermined first conversion processing on the original image data, and the first conversion processing on the original image data are different from each other A step of acquiring the plurality of unknown skin image data including two of the second conversion image data subjected to the second conversion processing including at least the second conversion image data;
前記アンサンブル識別器を構成する少なくとも2つの単位識別器に、前記複数の未知の皮膚画像データのそれぞれを入力する手順と、A step of inputting each of the plurality of unknown skin image data to at least two unit classifiers constituting the ensemble classifier;
前記単位識別器によって各別に得られた複数の識別値を統合して最終判定値を得る手順と、を実行させ、Performing a procedure of combining a plurality of identification values obtained separately by the unit identifier to obtain a final determination value;
前記第2の変換処理は、前記原画像データの輝度成分及び色情報成分に基づいて、前記原画像データから血管に相当する部位を強調して抽出する処理であるプログラム。The second conversion process is a program for emphasizing and extracting a portion corresponding to a blood vessel from the original image data based on a luminance component and a color information component of the original image data.
前記第2の変換処理は、前記第2の変換画像データを得るために、前記原画像データの前記輝度成分に相当する輝度画像に対して施される所定のモルフォロジー処理を含むことを特徴とする請求項1から8のいずれか1項に記載の診断装置。The second conversion process includes a predetermined morphological process performed on a luminance image corresponding to the luminance component of the original image data to obtain the second converted image data. A diagnostic device according to any one of the preceding claims. 前記第2の変換処理は、前記第2の変換画像データを得るために、前記色情報成分に基づいて前記血管らしさを示す尤度を求める処理を含むことを特徴とする請求項1から8及び11のいずれか1項に記載の診断装置。9. The method according to claim 1, wherein the second conversion process includes a process of obtaining a likelihood indicating the blood vessel likeness based on the color information component in order to obtain the second converted image data. The diagnostic device according to any one of 11. 前記第2の変換処理は、前記モルフォロジー処理が施された前記輝度画像と、前記求められた前記血管らしさを示す前記尤度とに基づいて、前記第2の変換画像データを生成することを特徴とする請求項11に従属する請求項12に記載の診断装置。The second conversion processing is characterized in that the second conversion image data is generated based on the luminance image on which the morphological processing has been performed and the likelihood indicating the blood vessel likeness thus obtained. The diagnostic device according to claim 12, which is subordinate to claim 11. 前記第2の変換処理は、前記第2の変換画像データを得るために、前記原画像データの前記輝度成分に相当する輝度画像に対して施される所定のモルフォロジー処理を含むことを特徴とする請求項9に記載の診断装置における学習処理方法。The second conversion process includes a predetermined morphological process performed on a luminance image corresponding to the luminance component of the original image data to obtain the second converted image data. The learning processing method in the diagnostic device according to claim 9. 前記第2の変換処理は、前記第2の変換画像データを得るために、前記色情報成分に基づいて前記血管らしさを示す尤度を求める処理を含むことを特徴とする請求項9又は14に記載の診断装置における学習処理方法。The method according to claim 9 or 14, wherein the second conversion process includes a process of obtaining a likelihood indicating the blood vessel likeness based on the color information component in order to obtain the second converted image data. The learning processing method in the diagnostic apparatus as described. 前記第2の変換処理は、前記モルフォロジー処理が施された前記輝度画像と、前記求められた前記血管らしさを示す前記尤度とに基づいて、前記第2の変換画像データを生成することを特徴とする請求項14に従属する請求項15に記載の診断装置における学習処理方法。The second conversion processing is characterized in that the second conversion image data is generated based on the luminance image on which the morphological processing has been performed and the likelihood indicating the blood vessel likeness thus obtained. The learning processing method in the diagnostic device according to claim 15, which is subordinate to claim 14. 前記第2の変換処理は、前記第2の変換画像データを得るために、前記原画像データの前記輝度成分に相当する輝度画像に対して施される所定のモルフォロジー処理を含むことを特徴とする請求項10に記載のプログラム。The second conversion process includes a predetermined morphological process performed on a luminance image corresponding to the luminance component of the original image data to obtain the second converted image data. The program according to claim 10. 前記第2の変換処理は、前記第2の変換画像データを得るために、前記色情報成分に基づいて前記血管らしさを示す尤度を求める処理を含むことを特徴とする請求項10又は17に記載のプログラム。The method according to claim 10, wherein the second conversion process includes a process of obtaining a likelihood indicating the blood vessel likeness based on the color information component in order to obtain the second converted image data. Described program. 前記第2の変換処理は、前記モルフォロジー処理が施された前記輝度画像と、前記求められた前記血管らしさを示す前記尤度とに基づいて、前記第2の変換画像データを生成することを特徴とする請求項17に従属する請求項18に記載のプログラム。The second conversion processing is characterized in that the second conversion image data is generated based on the luminance image on which the morphological processing has been performed and the likelihood indicating the blood vessel likeness thus obtained. The program according to claim 18, which depends on claim 17.
JP2015168404A 2015-08-28 2015-08-28 Diagnostic device, learning processing method in diagnostic device, and program Active JP6528608B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015168404A JP6528608B2 (en) 2015-08-28 2015-08-28 Diagnostic device, learning processing method in diagnostic device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015168404A JP6528608B2 (en) 2015-08-28 2015-08-28 Diagnostic device, learning processing method in diagnostic device, and program

Publications (2)

Publication Number Publication Date
JP2017045341A JP2017045341A (en) 2017-03-02
JP6528608B2 true JP6528608B2 (en) 2019-06-12

Family

ID=58211562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015168404A Active JP6528608B2 (en) 2015-08-28 2015-08-28 Diagnostic device, learning processing method in diagnostic device, and program

Country Status (1)

Country Link
JP (1) JP6528608B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6583316B2 (en) 2017-03-08 2019-10-02 カシオ計算機株式会社 Identification device, identification method, and program
JP7024197B2 (en) * 2017-03-24 2022-02-24 カシオ計算機株式会社 Image processing equipment, image processing methods and programs
US11238318B2 (en) 2017-04-13 2022-02-01 Siemens Healthcare Diagnostics Inc. Methods and apparatus for HILN characterization using convolutional neural network
SG11201911791RA (en) 2017-06-09 2020-01-30 Ai Medical Service Inc A disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein
JP6772112B2 (en) 2017-07-31 2020-10-21 株式会社日立製作所 Medical imaging device and medical image processing method
US11633084B2 (en) 2017-10-30 2023-04-25 Japanese Foundation For Cancer Research Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
JP6345332B1 (en) 2017-11-21 2018-06-20 国立研究開発法人理化学研究所 Classification device, classification method, program, and information recording medium
US11495057B2 (en) * 2017-12-08 2022-11-08 Nec Corporation Person verification device and method and non-transitory computer readable media
JP6732722B2 (en) * 2017-12-11 2020-08-05 憲隆 福永 Embryo selection system
KR102121462B1 (en) * 2018-01-25 2020-06-10 안준범 A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network
CN108665457B (en) * 2018-05-16 2023-12-19 腾讯医疗健康(深圳)有限公司 Image recognition method, device, storage medium and computer equipment
US11189367B2 (en) * 2018-05-31 2021-11-30 Canon Medical Systems Corporation Similarity determining apparatus and method
JP6627069B2 (en) 2018-06-01 2020-01-08 株式会社フロンティアファーマ Image processing method, drug sensitivity test method, and image processing device
EP3805401B1 (en) * 2018-06-01 2023-09-27 Frontier Pharma, Inc. Image processing method, medicine sensitivity test method and image processing device
WO2019245009A1 (en) 2018-06-22 2019-12-26 株式会社Aiメディカルサービス Method of assisting disease diagnosis based on endoscope image of digestive organ, diagnosis assistance system, diagnosis assistance program, and computer-readable recording medium having said diagnosis assistance program stored thereon
US10929716B2 (en) * 2018-09-12 2021-02-23 Molecular Devices, Llc System and method for label-free identification and classification of biological samples
KR102210806B1 (en) * 2018-10-02 2021-02-01 한림대학교 산학협력단 Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images
KR102168485B1 (en) * 2018-10-02 2020-10-21 한림대학교 산학협력단 Endoscopic device and method for diagnosing gastric lesion based on gastric endoscopic image obtained in real time
CN109523522B (en) * 2018-10-30 2023-05-09 腾讯医疗健康(深圳)有限公司 Endoscopic image processing method, device, system and storage medium
TW202037327A (en) 2018-11-21 2020-10-16 日商Ai醫療服務股份有限公司 Disease diagnostic assistance method based on digestive organ endoscopic images, diagnostic assistance system, diagnostic assistance program, and computer-readable recording medium having diagnostic assistance program stored thereon
KR20200066952A (en) 2018-12-03 2020-06-11 삼성전자주식회사 Method and apparatus for performing dilated convolution operation in neural network
JP7218215B2 (en) * 2019-03-07 2023-02-06 株式会社日立製作所 Image diagnosis device, image processing method and program
JP6938698B2 (en) * 2019-03-22 2021-09-22 ネイバー コーポレーションNAVER Corporation A framework that combines multi-global descriptors for image search
JP7000379B2 (en) * 2019-05-07 2022-01-19 憲隆 福永 Embryo selection system
JP7044120B2 (en) 2020-02-07 2022-03-30 カシオ計算機株式会社 Discriminator, discriminator learning method, discriminating method and program
JP7256765B2 (en) * 2020-02-28 2023-04-12 株式会社日立製作所 Medical imaging device, medical image processing device, and image processing program
KR102365783B1 (en) * 2021-11-30 2022-02-21 주식회사 미모바이오 Method and device for generating customized prescription data based on artificial intelligence

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4437202B2 (en) * 2004-01-09 2010-03-24 学校法人慶應義塾 Telemedicine system for pigmentation site
JP4628882B2 (en) * 2005-06-16 2011-02-09 富士フイルム株式会社 Classifier learning method, face discrimination method and apparatus, and program
BRPI0717019A8 (en) * 2006-09-22 2015-10-06 Koninklijke Philips Electronics Nv METHOD TO MAKE CHARACTERISTICS SELECTION BASED ON GENETIC ALGORITHM
JP4513898B2 (en) * 2008-06-09 2010-07-28 株式会社デンソー Image identification device
US10095917B2 (en) * 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation

Also Published As

Publication number Publication date
JP2017045341A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
JP6528608B2 (en) Diagnostic device, learning processing method in diagnostic device, and program
Hernandez-Matas et al. FIRE: fundus image registration dataset
CN108830155B (en) Heart coronary artery segmentation and identification method based on deep learning
US20210133473A1 (en) Learning apparatus and learning method
JP6361776B2 (en) Diagnosis support apparatus, image processing method and program in diagnosis support apparatus
JP2020532783A (en) Speckle Contrast Analysis Using Machine Learning to Visualize Flow
CN110858399B (en) Method and apparatus for providing post-examination images of a virtual tomographic stroke
CN108601509B (en) Image processing apparatus, image processing method, and program-recorded medium
JP6580446B2 (en) Image processing apparatus and image processing method
Khordehchi et al. Automatic lung nodule detection based on statistical region merging and support vector machines
AU2015275262B2 (en) Diagnostic apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method
Mishra et al. Automatic lesion border selection in dermoscopy images using morphology and color features
JP2006507579A (en) Histological evaluation of nuclear polymorphism
EP3217659B1 (en) Image processing apparatus, image processing method, and program
WO2021129324A1 (en) Ultrasonic image lesion segmentation method and apparatus, and computer device
JP2019118670A (en) Diagnosis support apparatus, image processing method, and program
Saghir et al. Skin cancer detection and classification based on differential analyzer algorithm
Oprisescu et al. Automatic pap smear nuclei detection using mean-shift and region growing
Muthiah et al. Fusion of MRI and PET images using deep learning neural networks
JP2018171516A (en) Image processing method, diagnosis device, and program
JP6503733B2 (en) Diagnosis support apparatus, image processing method in the diagnosis support apparatus, and program thereof
Atehortúa et al. Characterization of motion patterns by a spatio-temporal saliency descriptor in cardiac cine MRI
JP6117988B2 (en) Biometric authentication device, biometric authentication method, and program
Goyal Gaussian filtering based image integration for improved disease diagnosis and treatment planning
JP6431044B2 (en) Biometric authentication device, biometric authentication method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190429

R150 Certificate of patent or registration of utility model

Ref document number: 6528608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150