[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6987721B2 - Image processing equipment, methods and programs - Google Patents

Image processing equipment, methods and programs Download PDF

Info

Publication number
JP6987721B2
JP6987721B2 JP2018162857A JP2018162857A JP6987721B2 JP 6987721 B2 JP6987721 B2 JP 6987721B2 JP 2018162857 A JP2018162857 A JP 2018162857A JP 2018162857 A JP2018162857 A JP 2018162857A JP 6987721 B2 JP6987721 B2 JP 6987721B2
Authority
JP
Japan
Prior art keywords
cross
findings
sectional images
evaluation
sectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018162857A
Other languages
Japanese (ja)
Other versions
JP2020032043A (en
Inventor
昭治 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018162857A priority Critical patent/JP6987721B2/en
Publication of JP2020032043A publication Critical patent/JP2020032043A/en
Application granted granted Critical
Publication of JP6987721B2 publication Critical patent/JP6987721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本開示は、断面画像に含まれる各画素を複数種類の所見に分類する画像処理装置、方法およびプログラムに関するものである。 The present disclosure relates to an image processing apparatus, method and program for classifying each pixel included in a cross-sectional image into a plurality of types of findings.

近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の3次元画像が画像診断に用いられるようになってきている。 In recent years, with the progress of medical devices such as CT (Computed Tomography) devices and MRI (Magnetic Resonance Imaging) devices, higher quality and higher resolution three-dimensional images have come to be used for diagnostic imaging.

ところで、肺の疾患として間質性肺炎が知られている。間質性肺炎の患者の断面画像を解析することにより、断面画像に含まれる蜂窩肺、網状影および嚢胞等の特定の症状を呈する病変または組織(以下病変または組織を所見と総称するものとする)を分類して定量化する手法が提案されている。このように断面画像を解析して所見を分類して定量化することにより、肺の疾患の程度を容易に判定することができる。また、このように分類された所見の領域に所見毎にそれぞれ異なる色を割り当てることにより、特定の所見の領域がどの程度画像内に含まれているかを、容易に診断できることとなる。 By the way, interstitial pneumonia is known as a lung disease. By analyzing the cross-sectional image of a patient with interstitial pneumonia, the lesion or tissue showing specific symptoms such as honeycomb lung, reticular shadow and cyst included in the cross-sectional image (hereinafter, the lesion or tissue is collectively referred to as a finding). ) Has been proposed as a method for classifying and quantifying. By analyzing the cross-sectional image in this way to classify and quantify the findings, the degree of lung disease can be easily determined. Further, by assigning a different color to each of the findings areas classified in this way for each finding, it is possible to easily diagnose how much a specific finding area is included in the image.

特開2015−80720号公報Japanese Unexamined Patent Publication No. 2015-80720

しかしながら、従来の手法では、2次元の断面画像に対して分類を行っているため、2次元の断面画像の奥行方向に関して不連続な領域として分類される場合がある。このような分類は、解剖学上適切な分類ではない。 However, in the conventional method, since the two-dimensional cross-sectional image is classified, it may be classified as a discontinuous region with respect to the depth direction of the two-dimensional cross-sectional image. Such a classification is not an anatomically appropriate classification.

特許文献1においては、所見に含まれる病変が良性か悪性かを判断するために、3次元画像から複数の2次元画像を作成し、複数の2次元画像のそれぞれにおいて病変を評価して決定する方法が提案されている。しかしながら、特許文献1では、2次元画像に含まれる病変が良性か悪性かを分類しているだけであり、病変の領域を適切に分類する方法については何も提案されていない。 In Patent Document 1, in order to determine whether the lesion included in the findings is benign or malignant, a plurality of two-dimensional images are created from the three-dimensional images, and the lesions are evaluated and determined in each of the plurality of two-dimensional images. A method has been proposed. However, Patent Document 1 only classifies whether the lesion contained in the two-dimensional image is benign or malignant, and does not propose any method for appropriately classifying the lesion region.

本開示は、上記事情に鑑み、断面画像の各画素を複数種類の所見に高精度に分類することができる画像処理装置および方法並びにプログラムを提供することを目的とするものである。 In view of the above circumstances, it is an object of the present disclosure to provide an image processing apparatus, method and program capable of classifying each pixel of a cross-sectional image into a plurality of types of findings with high accuracy.

本開示による画像処理装置は、被検体の複数の異なる断面方向の断面画像を取得する断面画像取得部と、
複数の断面画像のそれぞれについて、各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行う一次分類部と、
複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により、各断面画像の一次分類処理の結果を評価することによって、複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う二次分類部とを備える。
The image processing apparatus according to the present disclosure includes a cross-sectional image acquisition unit that acquires cross-sectional images of a plurality of different cross-sectional directions of a subject.
For each of the plurality of cross-sectional images, a primary classification unit that performs a primary classification process for specifying the type of finding in which each pixel of each cross-sectional image is classified, and
For the parts common to multiple cross-sectional images, the parts common to multiple cross-sectional images are classified by evaluating the results of the primary classification processing of each cross-sectional image by different evaluation methods according to the type of findings. It is provided with a secondary classification unit that performs secondary classification processing to specify the type.

「複数の断面画像に共通する部分」とは、複数の断面画像に共通していれば、共通する1つの画素であってもよく、共通する画素の周辺にある予め定められた範囲内の複数の画素であってもよい。 The "part common to a plurality of cross-sectional images" may be one common pixel as long as it is common to a plurality of cross-sectional images, and a plurality of a plurality within a predetermined range around the common pixel. It may be a pixel of.

なお、本開示による画像処理装置においては、一次分類処理の結果は、複数種類の所見のそれぞれであることを表す評価値を含むものであってもよい。 In the image processing apparatus according to the present disclosure, the result of the primary classification process may include an evaluation value indicating that each of the plurality of types of findings is used.

また、本開示による画像処理装置においては、二次分類部は、すべての断面画像における評価値が高い程、高い評価値となった所見を共通する部分の所見に優先的に分類する特定の平均化方式を評価方式の1つとして採用するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit preferentially classifies the findings having higher evaluation values into the findings of the common part as the evaluation value in all the cross-sectional images is higher. The conversion method may be adopted as one of the evaluation methods.

また、本開示による画像処理装置においては、特定の平均化方式は調和平均であってもよい。 Further, in the image processing apparatus according to the present disclosure, the specific averaging method may be a harmonic mean.

また、本開示による画像処理装置においては、二次分類部は、病変の所見についての評価値に対して、特定の平均化方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit may perform secondary classification processing on the evaluation value of the lesion findings by a specific averaging method.

また、本開示による画像処理装置においては、二次分類部は、病変以外の所見についての評価値に対して、特定の平均化方式とは異なる他の評価方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit performs secondary classification processing on the evaluation values for findings other than lesions by another evaluation method different from the specific averaging method. There may be.

また、本開示による画像処理装置においては、二次分類部は、所見が病変間の境界および病変と病変以外の背景となる組織との境界を含む場合、境界の所見ついての評価値に対して、特定の平均化方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, when the findings include the boundary between lesions and the boundary between the lesion and the background tissue other than the lesion, the secondary classification unit determines the evaluation value of the boundary findings. , The secondary classification process may be performed by a specific averaging method.

また、本開示による画像処理装置においては、二次分類部は、所見が対象臓器を含む場合、対象臓器の所見ついての評価値に対して、特定の平均化方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, when the findings include the target organ, the secondary classification unit performs the secondary classification process on the evaluation value of the findings of the target organ by a specific averaging method. May be.

また、本開示による画像処理装置においては、二次分類部は、対象臓器以外の所見についての評価値に対して、特定の平均化方式とは異なる他の評価方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit performs secondary classification processing on the evaluation values for findings other than the target organ by another evaluation method different from the specific averaging method. May be.

この場合、他の評価方式は、複数の断面画像に共通する部分における評価値の代表値を二次分類処理の結果とする評価方式であってもよい。 In this case, the other evaluation method may be an evaluation method in which the representative value of the evaluation value in the portion common to the plurality of cross-sectional images is used as the result of the secondary classification process.

また、本開示による画像処理装置においては、二次分類部は、二次分類処理の結果、複数の断面画像に共通する部分について、最も評価が高い得られた所見を、当該画素についての所見として特定するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit uses the findings obtained with the highest evaluation for the portion common to a plurality of cross-sectional images as the findings for the pixels as a result of the secondary classification processing. It may be specific.

また、本開示による画像処理装置においては、一次分類部は、機械学習によって生成された判別器を用いて一次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the primary classification unit may perform primary classification processing using a discriminator generated by machine learning.

また、本開示による画像処理装置においては、二次分類処理の結果を表示部に表示する表示制御部をさらに備えるものであってもよい。 Further, the image processing apparatus according to the present disclosure may further include a display control unit that displays the result of the secondary classification process on the display unit.

この場合、表示制御部は、さらに一次分類処理の結果を表示部に表示するものであってもよい。 In this case, the display control unit may further display the result of the primary classification process on the display unit.

また、本開示による画像処理装置においては、所見の解剖学上の特徴または画像特徴量に基づいて、二次分類処理の結果を補正する補正部をさらに備えるものであってもよい。 Further, the image processing apparatus according to the present disclosure may further include a correction unit that corrects the result of the secondary classification processing based on the anatomical features of the findings or the amount of image features.

また、本開示による画像処理装置においては、補正部は、特定の断面方向の断面画像の各画素の信号値に基づいて、二次分類処理の結果を補正するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the correction unit may correct the result of the secondary classification process based on the signal value of each pixel of the cross-sectional image in a specific cross-sectional direction.

また、本開示による画像処理装置においては、補正部は、組織または病変の形状または位置の解剖学上の特徴に基づいて、二次分類処理の結果を補正するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the correction unit may correct the result of the secondary classification process based on the anatomical features of the shape or position of the tissue or lesion.

また、本開示による画像処理装置においては、補正部は、二次分類処理によって分類された各画素によって特定される組織または病変の辺縁または重心位置の3次元空間上の連続性に異常がある場合に、各画素の二次分類処理の結果を補正するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the correction unit has an abnormality in the continuity of the edge or center of gravity of the tissue or lesion specified by each pixel classified by the secondary classification process in the three-dimensional space. In some cases, the result of the secondary classification process of each pixel may be corrected.

本開示による画像処理方法は、被検体の複数の異なる断面方向の断面画像を取得し、
複数の断面画像のそれぞれについて、各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行い、
複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により、各断面画像の一次分類処理の結果を評価することによって、複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う。
The image processing method according to the present disclosure obtains cross-sectional images of a plurality of different cross-sectional directions of a subject, and obtains cross-sectional images.
For each of the plurality of cross-sectional images, a primary classification process is performed to specify the type of finding in which each pixel of each cross-sectional image is classified.
For the parts common to multiple cross-sectional images, the parts common to multiple cross-sectional images are classified by evaluating the results of the primary classification processing of each cross-sectional image by different evaluation methods according to the type of findings. Performs secondary classification processing to specify the type.

なお、本開示による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。 It should be noted that the image processing method according to the present disclosure may be provided as a program for causing a computer to execute the image processing method.

本開示による他の画像処理装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
被検体の複数の異なる断面方向の断面画像を取得し、
複数の断面画像のそれぞれについて、各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行い、
複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により、各断面画像の一次分類処理の結果を評価することによって、複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う。
Other image processing devices according to the present disclosure include a memory for storing instructions for causing a computer to execute, and a memory.
The processor comprises a processor configured to execute a stored instruction.
Obtain cross-sectional images of multiple different cross-sectional directions of the subject,
For each of the plurality of cross-sectional images, a primary classification process is performed to specify the type of finding in which each pixel of each cross-sectional image is classified.
For the parts common to multiple cross-sectional images, the parts common to multiple cross-sectional images are classified by evaluating the results of the primary classification processing of each cross-sectional image by different evaluation methods according to the type of findings. Performs secondary classification processing to specify the type.

本開示によれば、断面画像の各画素を複数種類の所見に高精度に分類することができる。 According to the present disclosure, each pixel of a cross-sectional image can be classified into a plurality of types of findings with high accuracy.

本開示の画像処理装置の一実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図A block diagram showing a schematic configuration of a medical image diagnosis support system using an embodiment of the image processing apparatus of the present disclosure. 複数の異なる断面方向の断面画像の一例を示す図The figure which shows an example of the sectional image in a plurality of different sectional directions. 多層ニューラルネットワークの一例を示す図Diagram showing an example of a multi-layer neural network ある関心領域の中心画素についての所見の種類に対応する評価値を示す図A diagram showing evaluation values corresponding to the types of findings for the central pixel of a region of interest. 二次分類処理を説明するための図Diagram for explaining the secondary classification process ある関心領域の中心画素についての所見の評価値の算術平均値を示す図A diagram showing the arithmetic mean of the evaluation values of the findings for the central pixel of a region of interest. ある関心領域の中心画素についての所見の評価値の調和平均値を示す図A diagram showing the harmonic mean of the evaluation values of the findings for the central pixel of a region of interest. 所見の種類に応じて、異なる評価方式を採用した場合の二次分類結果を示す図A diagram showing the results of secondary classification when different evaluation methods are adopted according to the type of findings. マッピング画像の一例を示す図Diagram showing an example of a mapping image 本開示の画像処理装置の一実施形態を用いた医用画像診断支援システムの作用を説明するためのフローチャートA flowchart for explaining the operation of the medical image diagnosis support system using one embodiment of the image processing apparatus of the present disclosure. 領域の境界付近を説明するための図Diagram to illustrate near the boundaries of the region 本開示の画像処理装置の他の実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図A block diagram showing a schematic configuration of a medical image diagnosis support system using another embodiment of the image processing apparatus of the present disclosure. 嚢胞が誤分類された例を示す図Diagram showing an example of misclassification of cysts 嚢胞が誤分類されたその他の例を示す図Diagram showing other examples of misclassified cysts 嚢胞と分類された各領域の重心位置の連続性を説明するための図Diagram to explain the continuity of the position of the center of gravity of each region classified as a cyst

以下、本開示の画像処理装置、方法およびプログラムの一実施形態を用いた医用画像診断支援システムについて、図面を参照して詳細に説明する。図1は、本開示の画像処理装置の一実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図である。 Hereinafter, a medical image diagnosis support system using an embodiment of the image processing apparatus, method, and program of the present disclosure will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a medical image diagnosis support system using an embodiment of the image processing apparatus of the present disclosure.

本実施形態の医用画像診断支援システムは、図1に示すように、画像処理装置10、表示装置20、入力装置30、および3次元画像保管サーバ40を備える。 As shown in FIG. 1, the medical image diagnosis support system of the present embodiment includes an image processing device 10, a display device 20, an input device 30, and a three-dimensional image storage server 40.

画像処理装置10は、コンピュータに本実施形態の画像処理プログラムをインストールすることによって構成されたものである。画像処理プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disk Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。 The image processing device 10 is configured by installing the image processing program of the present embodiment on a computer. The image processing program is recorded and distributed on a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disk Read Only Memory), and is installed in a computer from the recording medium. Alternatively, it is stored in a storage device of a server computer connected to a network or in a network storage in a state accessible from the outside, and is downloaded and installed on a computer used by a doctor upon request.

画像処理装置10は、CPU(Central Processing Unit)および半導体メモリ、並びにハードディスクおよびSSD(Solid State Drive)等のストレージデバイス等を備えている。そして、これらのハードウェアによって、図1に示すような断面画像取得部11、一次分類部12、二次分類部13、および表示制御部14が構成されている。そして、ストレージデバイスにインストールされた画像処理プログラムがCPUによって実行されることによって上記各部がそれぞれ動作する。 The image processing device 10 includes a CPU (Central Processing Unit), a semiconductor memory, a hard disk, a storage device such as an SSD (Solid State Drive), and the like. Then, these hardware constitute a cross-sectional image acquisition unit 11, a primary classification unit 12, a secondary classification unit 13, and a display control unit 14 as shown in FIG. Then, each of the above parts operates by executing the image processing program installed in the storage device by the CPU.

断面画像取得部11は、手術前または検査前等に予め撮影された被検体の断面画像を取得するものである。断面画像としては、例えばCT装置およびMRI装置等から出力されたスライスデータ、並びにMS(Multi Slice)CT装置およびコーンビームCT装置から出力されたスライスデータ等により表されるものがある。断面画像は、3次元画像保管サーバ40に被検体の識別情報と対応づけられて保存されている。断面画像取得部11は、入力装置30において入力された被検体の識別情報に対応する断面画像を3次元画像保管サーバ40から読み出して取得する。 The cross-sectional image acquisition unit 11 acquires a cross-sectional image of a subject taken in advance before surgery, examination, or the like. The cross-sectional image may be represented by, for example, slice data output from a CT device, an MRI device, or the like, slice data output from an MS (Multi Slice) CT device, a cone beam CT device, or the like. The cross-sectional image is stored in the three-dimensional image storage server 40 in association with the identification information of the subject. The cross-sectional image acquisition unit 11 reads out the cross-sectional image corresponding to the identification information of the subject input in the input device 30 from the three-dimensional image storage server 40 and acquires it.

また、断面画像取得部11は、被検体の複数の異なる断面方向の断面画像を取得する。断面方向としては、アキシャル、サジタル、コロナルおよびオブリーク等がある。断面画像取得部11は、少なくとも3以上の断面画像を取得することが好ましい。断面画像取得部11は、例えば図2のA,B,Cに示すように互いに異なる3つの断面方向の各断面方向について、それぞれ複数の断面画像を取得するものである。なお、3つの断面方向は、アキシャル方向、サジタル方向およびコロナル方向とする。 Further, the cross-sectional image acquisition unit 11 acquires a plurality of cross-sectional images of the subject in different cross-sectional directions. The cross-sectional direction includes axial, sagittal, coronal, oblique and the like. It is preferable that the cross-sectional image acquisition unit 11 acquires at least three or more cross-sectional images. As shown in FIGS. A, B, and C of FIG. 2, the cross-sectional image acquisition unit 11 acquires a plurality of cross-sectional images for each of the three different cross-sectional directions. The three cross-sectional directions are the axial direction, the sagittal direction, and the coronal direction.

なお、断面画像取得部11は、被検体の複数の異なる断面方向の断面画像が3次元画像保管サーバ40に予め保存されている場合には、それら複数の断面画像を取得するが、被検体のボリュームデータが3次元画像保管サーバ40に保存されている場合には、そのボリュームデータを読み出し、ボリュームデータから複数の異なる断面方向の断面画像を生成して取得するようにしてもよい。 When the cross-sectional image acquisition unit 11 acquires a plurality of cross-sectional images of the subject in different cross-sectional directions in advance in the three-dimensional image storage server 40, the cross-sectional image acquisition unit 11 acquires the plurality of cross-sectional images of the subject. When the volume data is stored in the three-dimensional image storage server 40, the volume data may be read out, and a plurality of cross-sectional images in different cross-sectional directions may be generated and acquired from the volume data.

一次分類部12は、断面画像取得部11によって取得された複数の断面画像のそれぞれについて、各断面画像の各画素が分類される組織または病変の種類、すなわち所見の種類を特定するための一次分類処理を行う。本実施形態においては、断面画像取得部11によって肺領域を含む複数の断面画像を取得し、各断面画像の各画素について、複数種類の所見のそれぞれであることを表す評価値、すなわち複数種類の所見のそれぞれに対応する評価値を一次分類処理の結果として取得する。なお、以下、複数の断面画像のうち、アキシャル方向の1つの断面画像に対する一次分類処理についてのみ説明するが、他の断面方向の断面画像についても同様にして一次分類処理が行われるものとする。 The primary classification unit 12 is a primary classification for specifying the type of tissue or lesion to which each pixel of each cross-sectional image is classified, that is, the type of findings, for each of the plurality of cross-sectional images acquired by the cross-sectional image acquisition unit 11. Perform processing. In the present embodiment, a plurality of cross-sectional images including the lung region are acquired by the cross-sectional image acquisition unit 11, and evaluation values indicating that each pixel of each cross-sectional image is each of a plurality of types of findings, that is, a plurality of types. The evaluation values corresponding to each of the findings are acquired as the result of the primary classification process. Hereinafter, among the plurality of cross-sectional images, only the primary classification process for one cross-sectional image in the axial direction will be described, but it is assumed that the primary classification process is also performed for the cross-sectional images in the other cross-sectional directions.

本実施形態の一次分類部12は、機械学習であるディープラーニング(深層学習)によって生成された多層ニューラルネットワークからなる判別器を有し、この判別器を用いて、各断面画像の各画素に関して、複数種類の所見のそれぞれに対応する評価値を取得する。 The primary classification unit 12 of the present embodiment has a discriminator composed of a multi-layer neural network generated by deep learning (deep learning) which is machine learning, and the discriminator is used for each pixel of each cross-sectional image. Obtain the evaluation value corresponding to each of multiple types of findings.

多層ニューラルネットワークでは、各層において、前段の階層により得られる異なる複数の特徴量のデータに対して各種カーネルを用いて演算処理を行う。そして、この演算処理によって得られる特徴量のデータに対して次段以降の層においてさらなる演算処理を行うことにより、特徴量の認識率を向上させ、入力されたデータを複数のクラスのそれぞれに対応する評価値を取得し、評価値に基づいて入力されたデータを複数のクラスのいずれかに分類することができる。 In the multi-layer neural network, in each layer, arithmetic processing is performed using various kernels on the data of a plurality of different features obtained by the layer of the previous stage. Then, by further performing arithmetic processing on the feature quantity data obtained by this arithmetic processing in the next and subsequent layers, the recognition rate of the feature quantity is improved, and the input data corresponds to each of a plurality of classes. It is possible to acquire the evaluation value to be used and classify the input data based on the evaluation value into one of a plurality of classes.

図3は多層ニューラルネットワークの一例を示す図である。図3に示すように多層ニューラルネットワーク50は、入力層51および出力層52を含む複数の階層からなる。本実施形態においては、断面画像に含まれる肺領域を、例えば、浸潤影、腫瘤影、すりガラス影、小葉中心性結節影、非小葉中心性結節影、網状影、線状影、小葉間隔壁肥厚、蜂窩肺、嚢胞、低吸収域(気腫)、空洞、胸膜肥厚、胸水、空洞、気管支拡張、牽引性気管支拡張、動脈、正常肺、胸壁および縦隔等の所見に分類するように学習がなされている。なお、所見の種類はこれらに限定されるものではなく、これらより多くの所見であってもよく、これらより少ない所見であってもよい。 FIG. 3 is a diagram showing an example of a multi-layer neural network. As shown in FIG. 3, the multi-layer neural network 50 includes a plurality of layers including an input layer 51 and an output layer 52. In the present embodiment, the lung region included in the cross-sectional image is, for example, an infiltrative shadow, a mass shadow, a ground glass shadow, a lobular central nodule shadow, a non-lobular central nodule shadow, a reticular shadow, a linear shadow, and a thickening of the mediastinal wall. , Honeycombing, cyst, low absorption area (emphysema), cavity, pleural thickening, pleural effusion, cavity, bronchiectal dilation, traction bronchiectal dilation, arteries, normal lungs, chest wall and mediastinum. It has been done. The types of findings are not limited to these, and may be more or less than these.

本実施形態においては、これらの所見について、数百万という多数の教師データを用いて、多層ニューラルネットワーク50に学習させる。学習の際には、所見の種類が既知の断面画像から、予め定められたサイズ(例えば1.5cm×1.5cm)の関心領域を切り出し、その関心領域を教師データとして用いる。そして、多層ニューラルネットワーク50に教師データを入力して、所見の種類の分類処理の結果(以下、分類結果とする)を出力させる。次いで、出力された結果を教師データと比較し、正解か不正解かに応じて、出力側から入力側に向かって、多層ニューラルネットワーク50の各層に含まれるユニット(図3に 丸印で示す)の各階層間における結合の重みを修正する。結合の重みの修正を、多数の教師データを用いて、予め定められた回数、または出力される分類結果の正解率が100%になるまで繰り返し行い、学習を終了する。 In this embodiment, these findings are trained by the multi-layer neural network 50 using a large number of teacher data of millions. At the time of learning, a region of interest having a predetermined size (for example, 1.5 cm × 1.5 cm) is cut out from a cross-sectional image of which the type of finding is known, and the region of interest is used as teacher data. Then, the teacher data is input to the multi-layer neural network 50, and the result of the classification process of the type of findings (hereinafter referred to as the classification result) is output. Next, the output result is compared with the teacher data, and the units included in each layer of the multi-layer neural network 50 from the output side to the input side depending on whether the answer is correct or incorrect (circled in FIG. 3). Correct the join weight between each layer of. The correction of the join weight is repeated using a large number of teacher data until the correct answer rate of the predetermined number of times or the output classification result reaches 100%, and the learning is completed.

一次分類部12は一次分類処理を行う際に、分類対象の断面画像から教師データと同じ大きさの関心領域を順次切り出し、その関心領域を多層ニューラルネットワーク50からなる判別器に入力する。これにより、切り出した関心領域の中心画素について、複数の所見のそれぞれに対応する評価値が出力される。なお、複数の所見のそれぞれに対応する評価値は、中心画素が、各所見に属する可能性を示す評価値であり、この評価値が大きいほど、その所見に分類される可能性が高いことを意味する。一次分類部12は、断面画像に含まれる各画素において、複数種類の所見のそれぞれに対応する評価値を取得するものとする。 When the primary classification unit 12 performs the primary classification process, the region of interest having the same size as the teacher data is sequentially cut out from the cross-sectional image of the classification target, and the region of interest is input to the discriminator composed of the multilayer neural network 50. As a result, the evaluation values corresponding to each of the plurality of findings are output for the central pixel of the cut out region of interest. The evaluation value corresponding to each of the plurality of findings is an evaluation value indicating the possibility that the central pixel belongs to each finding, and the larger the evaluation value, the higher the possibility of being classified into the findings. means. The primary classification unit 12 shall acquire evaluation values corresponding to each of the plurality of types of findings in each pixel included in the cross-sectional image.

図4は、ある関心領域の中心画素についての所見の種類に対応する評価値を示す図である。なお、図4においては、説明を簡単なものとするために複数の所見のうちの一部の所見についての評価値を示す。本実施形態において、判別器は、関心領域の中心画素について、複数の所見のそれぞれに対応する評価値を出力する。このため、図4に示すように、各所見に対応する評価値が取得される。図4に示すような評価値が取得された場合、その関心領域の中心画素は、網状影である可能性が最も高く、次にすりガラス影の可能性が高い。逆に正常肺または低吸収域の可能性はほとんど無い。このため、仮に一次分類結果のみを用いるとするならば、図4に示すような評価値が取得された関心領域の中心画素は、評価値が最大の網状影に分類される。 FIG. 4 is a diagram showing evaluation values corresponding to the types of findings for the central pixel of a certain region of interest. Note that FIG. 4 shows evaluation values for some of the plurality of findings for the sake of simplicity. In the present embodiment, the discriminator outputs an evaluation value corresponding to each of the plurality of findings for the central pixel of the region of interest. Therefore, as shown in FIG. 4, the evaluation values corresponding to each finding are acquired. When the evaluation value as shown in FIG. 4 is acquired, the central pixel of the region of interest is most likely to be a reticular shadow, and then is most likely to be a ground glass shadow. On the contrary, there is almost no possibility of normal lung or low absorption area. Therefore, if only the primary classification result is used, the central pixel of the region of interest from which the evaluation value is acquired as shown in FIG. 4 is classified into the reticulated shadow having the maximum evaluation value.

一次分類部12は、上述したようにアキシャル方向の断面画像以外のその他の断面方向の断面画像についても、上記と同様の一次分類処理を行い、各断面画像の各画素において、複数種類の所見のそれぞれに対応する評価値を取得する。 As described above, the primary classification unit 12 performs the same primary classification processing on the cross-sectional images in the cross-sectional directions other than the cross-sectional images in the axial direction as described above, and in each pixel of each cross-sectional image, a plurality of types of findings are found. Obtain the evaluation value corresponding to each.

次に、二次分類部13について説明する。二次分類部13は、一次分類部12で用いられた複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により各断面画像の一次分類結果を評価する。とくに、複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により各断面画像の一次分類結果を評価する。そしてこれにより、二次分類部13は、複数の断面画像に共通する画素が分類される所見の種類を特定する。具体的には、図5に示すように、3方向の断面画像S1,S2,S3に共通する画素Pについて、断面画像S1,S2,S3の一次分類結果がそれぞれ取得され、その3つの一次分類結果が評価されて、画素Pが分類される所見の種類が特定される。 Next, the secondary classification unit 13 will be described. The secondary classification unit 13 evaluates the primary classification result of each cross-sectional image by a different evaluation method according to the type of findings for the portion common to the plurality of cross-sectional images used in the primary classification unit 12. In particular, for the portion common to a plurality of cross-sectional images, the primary classification result of each cross-sectional image is evaluated by a different evaluation method according to the type of findings. As a result, the secondary classification unit 13 identifies the type of finding in which the pixels common to the plurality of cross-sectional images are classified. Specifically, as shown in FIG. 5, the primary classification results of the cross-sectional images S1, S2, and S3 are acquired for the pixels P common to the cross-sectional images S1, S2, and S3 in the three directions, and the three primary classifications are obtained. The results are evaluated to identify the type of finding to which the pixel P is classified.

本実施形態においては、一次分類結果として、断面画像の各画素において、複数種類の所見のそれぞれに対応する評価値が取得されている。このため、一次分類結果の評価方式として、各所見についての評価値の算術平均値を算出する評価方式を用いることが考えられる。この場合、最も大きい算術平均値が算出された所見が、画素Pの最終的な所見に特定される。 In the present embodiment, as a result of the primary classification, evaluation values corresponding to each of the plurality of types of findings are acquired in each pixel of the cross-sectional image. Therefore, as an evaluation method for the primary classification result, it is conceivable to use an evaluation method for calculating the arithmetic mean value of the evaluation values for each finding. In this case, the finding for which the largest arithmetic mean value is calculated is specified as the final finding of the pixel P.

図6はある関心領域の中心画素についての所見の評価値の算術平均値を示す図である。図6に示すように、この画素についての所見の評価値の算術平均値は、浸潤影が6.3と最も大きくなる。したがって、評価方式として算術平均を用いた場合、この画素は二次分類処理により浸潤影に分類される。しかしながら、浸潤影について、コロナル、サジタルおよびアキシャルの3方向の断面のそれぞれの評価値を比較すると、アキシャル方向の評価値が0.5であり、コロナル方向の評価値である10.8およびサジタル方向の評価値である7.5と比較すると低いものとなっている。評価値が0.5と言うことは、アキシャル方向の断面画像においては、その画素は浸潤影の可能性が極めて低いことを示している。このため、このような状況でその画素を最終的に浸潤影に分類した場合、分類の精度は必ずしも高いものではなくなる。 FIG. 6 is a diagram showing an arithmetic mean value of evaluation values of findings for a central pixel of a certain region of interest. As shown in FIG. 6, the arithmetic mean value of the evaluation value of the findings for this pixel has the largest infiltration shadow of 6.3. Therefore, when the arithmetic mean is used as the evaluation method, this pixel is classified as an infiltration shadow by the secondary classification process. However, when comparing the evaluation values of the cross sections in the three directions of coronal, sagittal, and axial for the infiltration shadow, the evaluation value in the axial direction is 0.5, and the evaluation value in the coronal direction is 10.8 and the sagittal direction. It is lower than the evaluation value of 7.5. The evaluation value of 0.5 indicates that the pixel has an extremely low possibility of infiltration shadow in the cross-sectional image in the axial direction. Therefore, when the pixel is finally classified as an infiltration shadow in such a situation, the classification accuracy is not always high.

一般に、病変は凸構造が多いため、多層ニューラルネットワーク50を学習するための学習データに含まれる病変においては、病変の周囲が正常肺等の背景となる組織であることが多い。このような学習データを用いて、確実に病変を検出できるように多層ニューラルネットワーク50を学習しようとすると、正常肺等の背景よりも病変の方が強めに学習されることになる。その結果、そのように学習された多層ニューラルネットワーク50を判別器として使用した場合、病変の境界のように病変か背景かの分類が微妙な領域は、広めに病変として分類されやすくなる。逆に背景となる正常肺等の広範囲に存在する領域は、病変に対して分類されにくくなる。 In general, since lesions have many convex structures, in the lesions included in the learning data for learning the multi-layer neural network 50, the periphery of the lesion is often the tissue that is the background of the normal lung or the like. When an attempt is made to learn a multi-layer neural network 50 so that a lesion can be reliably detected using such learning data, the lesion is learned more strongly than the background such as a normal lung. As a result, when the multi-layer neural network 50 learned in this way is used as a discriminator, a region where the classification of a lesion or a background is delicate, such as the boundary of a lesion, is easily classified as a lesion widely. On the contrary, a wide area such as a normal lung, which is the background, is difficult to be classified for a lesion.

また、病変の領域以外の領域であっても、図6に示す浸潤影のアキシャル方向の断面画像の評価値のように、ある断面画像で病変が全く存在しない状態は少なく、実際には多層ニューラルネットワーク50が出力する評価値は、所見の種類に応じて微妙な差となることが多い。 Further, even in a region other than the lesion region, there are few states in which no lesion exists in a certain cross-sectional image as in the evaluation value of the cross-sectional image in the axial direction of the infiltrating shadow shown in FIG. 6, and the multi-layer neural network is actually used. The evaluation value output by the network 50 often varies slightly depending on the type of finding.

このため、分類結果に対してより差を大きくするためには、病変の所見とそれ以外の背景等の他の所見とで、異なる評価方式を採用することが好ましい。 Therefore, in order to make the difference larger than the classification result, it is preferable to adopt a different evaluation method depending on the findings of the lesion and other findings such as other backgrounds.

このため、本実施形態においては、二次分類部13は、一次分類結果に基づいて、病変の所見についての評価値に対して、すべての断面画像における評価値が高い程、高い評価値となった所見を、共通する画素の所見に優先的に分類する特定の平均化方式を採用する。具体的には、特定の平均化方式として調和平均を評価方式として採用する。この場合、病変以外の所見についての評価値に対しては、上述した算術平均を評価方式として採用する。ここで、調和平均は下記の式(1)により表される。式(1)において、E1はコロナル方向の断面画像における評価値、E2はサジタル方向の断面画像における評価値、E3はアキシャル方向の断面画像における評価値である。また、二次分類部13は、評価値が0を超える所見についてのみ調和平均を算出し、評価値が0以下となる所見については調和平均は算出しないものとする。 Therefore, in the present embodiment, the secondary classification unit 13 has a higher evaluation value for the findings of the lesion based on the primary classification result, as the evaluation value in all the cross-sectional images is higher. A specific averaging method is adopted that preferentially classifies the findings into the findings of common pixels. Specifically, the harmonic mean is adopted as the evaluation method as a specific averaging method. In this case, the above-mentioned arithmetic mean is adopted as the evaluation method for the evaluation values for the findings other than the lesion. Here, the harmonic mean is expressed by the following equation (1). In the formula (1), E1 is an evaluation value in the cross-sectional image in the coronal direction, E2 is an evaluation value in the cross-sectional image in the sagittal direction, and E3 is an evaluation value in the cross-sectional image in the axial direction. Further, the secondary classification unit 13 calculates the harmonic mean only for the findings whose evaluation value exceeds 0, and does not calculate the harmonic mean for the findings whose evaluation value is 0 or less.

調和平均=3/(1/E1+1/E2+1/E3) (1) Harmonic mean = 3 / (1 / E1 + 1 / E2 + 1 / E3) (1)

図7は図6と同様のある画素についての所見毎の評価値の調和平均値を示す図である。図7に示すように、評価方式として調和平均を採用すると、浸潤影のように低い評価値を含む場合、調和平均値は低い値となる。逆に、正常肺のように3方向のすべてにおいて評価値が大きい所見については、調和平均は大きい値となる。図7に示すように調和平均を評価方式として用いた場合、この画素の二次分類処理の結果である二次分類結果は、調和平均値が最も大きい正常肺となる。 FIG. 7 is a diagram showing a harmonic mean value of evaluation values for each finding for a certain pixel similar to that in FIG. As shown in FIG. 7, when the harmonic mean is adopted as the evaluation method, the harmonic mean value becomes a low value when a low evaluation value such as an infiltration shadow is included. Conversely, for findings with large evaluation values in all three directions, such as normal lung, the harmonic mean is large. When the harmonic mean is used as the evaluation method as shown in FIG. 7, the secondary classification result which is the result of the secondary classification process of the pixel is the normal lung having the largest harmonic mean value.

上述したように、病変の所見についての評価値に対しては調和平均を用いることが好ましい。しかしながら、例えば点状影等のように比較的小さい領域は、3方向の断面画像において点状影に分類された画素の位置が一致しにくい。このため、3方向の断面画像における点状影となるべき画素の位置がわずかに外れるのみで、ある断層面において点状影となるべき画素が、他の断層面において全く認識されなくなる可能性がある。このような場合、評価方式として調和平均を採用すると、その画素は点状影に分類されなくなってしまう。このため、点状影となる所見についての評価値に対しては、評価方式として調和平均ではなく算術平均を採用することが好ましい。 As mentioned above, it is preferable to use the harmonic mean for the evaluation value of the lesion findings. However, in a relatively small region such as a punctate shadow, it is difficult for the positions of the pixels classified as punctate shadows to match in the cross-sectional image in three directions. For this reason, the positions of the pixels that should be punctate shadows in the cross-sectional image in three directions are only slightly off, and the pixels that should be punctate shadows on one tomographic plane may not be recognized at all on other tomographic planes. be. In such a case, if the harmonic mean is adopted as the evaluation method, the pixels will not be classified as point-like shadows. For this reason, it is preferable to use an arithmetic mean instead of a harmonic mean as the evaluation method for the evaluation value of the finding that becomes a punctate shadow.

また、動脈すなわち血管等の線状構造は、ある方向の断面画像においては線状に含まれるが、この方向に直交する方向の断面画像においては点として含まれる。このため、3方向の断面画像における線状構造となるべき画素の位置がわずかに外れるのみで、ある断層面において線状構造となるべき画素が、他の断層面において全く認識されなくなる可能性がある。このような場合、評価方式として調和平均を採用すると、その画素は血管等の線状構造に分類されなくなってしまう。このため、線状構造となる所見についての評価値に対しては、評価方式として調和平均ではなく算術平均を採用することが好ましい。 Further, a linear structure such as an artery, that is, a blood vessel is included linearly in a cross-sectional image in a certain direction, but is included as a point in a cross-sectional image in a direction orthogonal to this direction. For this reason, the positions of the pixels that should have a linear structure in the cross-sectional image in three directions are only slightly deviated, and the pixels that should have a linear structure in one tomographic plane may not be recognized at all in another tomographic plane. be. In such a case, if the harmonic mean is adopted as the evaluation method, the pixels will not be classified into linear structures such as blood vessels. For this reason, it is preferable to use an arithmetic mean instead of a harmonic mean as the evaluation method for the evaluation values of the findings having a linear structure.

また、蜂窩肺等の病変は、アキシャル方向の断面画像においては、蜂の巣を上から見たような構造に見えるが、コロナル方向またはサジタル方向の断面画像においては、縦長の構造を伴うことが多い。一方、CT画像またはMRI画像を用いた画像診断においては、アキシャル方向の断面画像を用いることが多い。このため、多層ニューラルネットワーク50の学習に使用する学習データも、アキシャル方向の断面画像が多くなる。このように学習された多層ニューラルネットワーク50を判別器として使用すると、アキシャル方向の断面画像については蜂窩肺についての分類の精度は高いが、コロナル方向の断面画像およびサジタル方向の断面画像については、蜂窩肺の分類精度がアキシャル方向の断面画像よりも低くなる。このような場合、アキシャル方向の断面画像についての評価値の重みを、コロナル方向の断面画像およびサジタル方向の断面画像についての評価値の重みよりも大きくした重み付け算術平均を評価方式として採用することにより、蜂窩肺の分類精度を向上させることができる。また、このような場合の評価方式としては、重み付け算術平均に限定されるものではない。病変の種類に応じて、3方向の断面画像の評価値についての中間値および最大値等、重み付け算術平均以外の他の代表値を用いるようにしてもよい。 In addition, lesions such as honeycomb lungs look like a honeycomb viewed from above in a cross-sectional image in the axial direction, but are often accompanied by a vertically long structure in a cross-sectional image in the coronal direction or the sagittal direction. On the other hand, in diagnostic imaging using CT images or MRI images, cross-sectional images in the axial direction are often used. Therefore, the learning data used for learning the multi-layer neural network 50 also has many cross-sectional images in the axial direction. When the multi-layer neural network 50 learned in this way is used as a discriminator, the accuracy of classification of the honeycomb lung is high for the sectional image in the axial direction, but the sectional image in the coronal direction and the sectional image in the sagittal direction are classified into the honeycomb. The classification accuracy of the lungs is lower than that of the cross-sectional image in the axial direction. In such a case, a weighted arithmetic mean in which the weight of the evaluation value for the cross-sectional image in the axial direction is larger than the weight of the evaluation value for the cross-sectional image in the coronal direction and the cross-sectional image in the sagittal direction is adopted as the evaluation method. , Honeycomb lung classification accuracy can be improved. Further, the evaluation method in such a case is not limited to the weighted arithmetic mean. Depending on the type of lesion, representative values other than the weighted arithmetic mean, such as the median and maximum values for the evaluation values of the cross-sectional images in three directions, may be used.

以上のように、本実施形態においては、所見の種類に応じた異なる評価方式を採用する。 As described above, in the present embodiment, different evaluation methods are adopted according to the types of findings.

図8は所見の種類に応じて、異なる評価方式を採用した場合の二次分類結果を示す図である。図8において、蜂窩肺の評価方式の「アキシャル2倍の重み」は、アキシャル方向の断面画像についての評価値の重みを、コロナル方向の断面画像についての評価値およびサジタル方向の断面画像についての評価値の2倍とした重み付け算術平均を意味する。また、図8においては、正常肺の評価方式の最大値とは、3方向の評価値のうちの最大値を採用する評価方式を意味する。図8に示すように所見の種類に応じて異なる評価方式を採用した場合、この画素の二次分類処理の結果である二次分類結果は、評価値が3.9と最も大きい蜂窩肺となる。このように所見の種類に応じて異なる評価方式を採用することにより、より精度よく分類を行うことができる。 FIG. 8 is a diagram showing the results of secondary classification when different evaluation methods are adopted according to the type of findings. In FIG. 8, the “double weight of the axial” of the evaluation method of the honeycomb lung is the evaluation of the evaluation value for the cross-sectional image in the axial direction, the evaluation value for the cross-sectional image in the coronal direction, and the evaluation for the cross-sectional image in the sagittal direction. It means a weighted arithmetic average that is twice the value. Further, in FIG. 8, the maximum value of the evaluation method for normal lung means an evaluation method that adopts the maximum value among the evaluation values in three directions. As shown in FIG. 8, when different evaluation methods are adopted depending on the type of findings, the secondary classification result, which is the result of the secondary classification processing of this pixel, is the honeycomb lung having the largest evaluation value of 3.9. .. By adopting different evaluation methods according to the types of findings in this way, classification can be performed more accurately.

なお、上記説明では、1つの画素Pの二次分類処理について説明したが、3次元空間上における全ての画素について、上記と同様にして二次分類処理が行われ、各画素が分類される所見の種類が特定される。 In the above description, the secondary classification process of one pixel P has been described, but it is found that all the pixels in the three-dimensional space are subjected to the secondary classification process in the same manner as described above, and each pixel is classified. The type of is specified.

図1に戻り、表示制御部14は、二次分類結果に基づいて、各分類の領域に色を割り当てることによってマッピング画像を生成し、そのマッピング画像を表示装置20に表示させる。 Returning to FIG. 1, the display control unit 14 generates a mapping image by assigning a color to each classification area based on the secondary classification result, and displays the mapping image on the display device 20.

具体的には、表示制御部14は、上述した複数種類の所見のうちのいずれかに分類された3次元空間上の全ての画素について、同一の所見に分類された画素に対して同じ色を割り当てることによって3次元のマッピング画像を生成する。図9は、マッピング画像の一例を示す図である。なお、図9においては、説明を簡単なものとするために、すりガラス影、正常肺、気管支拡張、蜂窩肺、網状影、浸潤影および嚢胞の8種類の所見に分類した場合のマッピング画像を示す。また、図9においては、3次元のマッピング画像における任意の断面の断面画像を示しているが、これに限らず、3次元のマッピング画像を表示装置20に表示させるようにしてもよい。 Specifically, the display control unit 14 applies the same color to all the pixels in the three-dimensional space classified into any of the above-mentioned plurality of types of findings with respect to the pixels classified into the same findings. By assigning, a three-dimensional mapping image is generated. FIG. 9 is a diagram showing an example of a mapping image. Note that FIG. 9 shows mapping images classified into eight types of findings: ground glass shadow, normal lung, bronchiectasis, honeycomb lung, reticular shadow, infiltration shadow, and cyst for the sake of simplicity. .. Further, although FIG. 9 shows a cross-sectional image of an arbitrary cross section in the three-dimensional mapping image, the present invention is not limited to this, and the three-dimensional mapping image may be displayed on the display device 20.

また、表示制御部14は、断面画像取得部11によって取得された複数の断面方向の断面画像、および二次分類部13によって二次分類処理された断面画像または3次元画像等を表示装置20に表示可能なものである。なお、表示制御部14は、一次分類部12による一次分類結果に基づいて、評価値が最大となる所見に断面画像の各画素を分類して、一次分類結果に基づくマッピング画像を生成するものであってもよい。この場合、図9に示すマッピング画像(すなわち、二次分類結果に基づくマッピング画像)と一次分類結果に基づくマッピング画像とを切り替え可能に、あるいはこれらを並べて表示可能なものとしてもよい。これにより、一次分類結果と二次分類結果との比較を容易に行うことができる。 Further, the display control unit 14 displays a plurality of cross-sectional images in the cross-sectional direction acquired by the cross-sectional image acquisition unit 11 and a cross-sectional image or a three-dimensional image subjected to the secondary classification process by the secondary classification unit 13 on the display device 20. It can be displayed. The display control unit 14 classifies each pixel of the cross-sectional image into the finding that maximizes the evaluation value based on the primary classification result by the primary classification unit 12, and generates a mapping image based on the primary classification result. There may be. In this case, the mapping image shown in FIG. 9 (that is, the mapping image based on the secondary classification result) and the mapping image based on the primary classification result may be switchable, or these may be displayed side by side. This makes it possible to easily compare the primary classification result with the secondary classification result.

表示装置20は、例えば液晶ディスプレイ等を備えたものである。また、表示装置20をタッチパネルによって構成し、入力装置30と兼用するようにしてもよい。 The display device 20 includes, for example, a liquid crystal display or the like. Further, the display device 20 may be configured by a touch panel and may also be used as the input device 30.

入力装置30は、マウスおよびキーボード等を備えたものであり、ユーザによる種々の設定入力を受け付けるものである。具体的には、例えば患者の識別情報の設定入力等を受け付けるものである。 The input device 30 includes a mouse, a keyboard, and the like, and accepts various setting inputs by the user. Specifically, for example, it accepts setting input of patient identification information.

次に、本実施形態の画像処理装置の動作について説明する。図10は本実施形態の画像処理装置の動作を示すフローチャートである。まず、ユーザによる患者の識別情報等の設定入力に応じて、患者の複数の断面方向の断面画像が取得される(ステップST1)。複数の断面画像は一次分類部12に出力され、一次分類部12は、入力された各断面画像に対して一次分類処理を施すことによって、一次分類結果を取得する(ステップST2)。 Next, the operation of the image processing apparatus of this embodiment will be described. FIG. 10 is a flowchart showing the operation of the image processing apparatus of the present embodiment. First, a cross-sectional image in a plurality of cross-sectional directions of the patient is acquired in response to a setting input such as patient identification information by the user (step ST1). The plurality of cross-sectional images are output to the primary classification unit 12, and the primary classification unit 12 acquires the primary classification result by performing the primary classification process on each of the input cross-sectional images (step ST2).

そして、一次分類部12による一次分類結果が二次分類部13に出力され、二次分類部13は、入力された一次分類結果に基づいて、所見の種類に応じた異なる評価方式により二次分類処理を行う(ステップST3)。 Then, the primary classification result by the primary classification unit 12 is output to the secondary classification unit 13, and the secondary classification unit 13 uses a different evaluation method according to the type of findings based on the input primary classification result to perform secondary classification. Perform processing (step ST3).

そして、二次分類部13による二次分類結果が表示制御部14に出力され、表示制御部14は、各分類の領域に色を割り当てることによってマッピング画像を生成し、そのマッピング画像を表示装置20に表示させ(ステップST4)、処理を終了する。 Then, the secondary classification result by the secondary classification unit 13 is output to the display control unit 14, and the display control unit 14 generates a mapping image by assigning colors to the areas of each classification, and the mapping image is displayed on the display device 20. Is displayed (step ST4), and the process is terminated.

このように、本実施形態によれば、被検体の複数の異なる断面方向の断面画像を取得し、その複数の断面画像のそれぞれについて、各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行う。次いで、複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により、各断面画像の一次分類結果を評価することによって、複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う。このように二次分類処理を行うことによって、断面画像の各画素を複数種類の所見に高精度に分類することができる。 As described above, according to the present embodiment, a plurality of cross-sectional images of the subject in different cross-sectional directions are acquired, and for each of the plurality of cross-sectional images, the type of finding in which each pixel of each cross-sectional image is classified is specified. Perform the primary classification process for this purpose. Next, with respect to the part common to the plurality of cross-sectional images, the part common to the plurality of cross-sectional images is classified by evaluating the primary classification result of each cross-sectional image by a different evaluation method according to the type of the finding. Performs secondary classification processing to specify the type. By performing the secondary classification process in this way, each pixel of the cross-sectional image can be classified into a plurality of types of findings with high accuracy.

なお、上記実施形態においては、複数種類の所見に病変間の境界を含めるようにしてもよい。ここで、病変間の境界とは、病変間の境界を含む予め定められた範囲(例えば境界の周囲の数画素)を意味する。具体的には、図11に示すように、それぞれが病変の領域A1,A2が隣接しているとする。領域A1の境界付近とは、領域A1と領域A2との境界B0から予め定められた範囲の領域A11となる。一方、領域A2の境界付近とは、領域A1と領域A2との境界B0から予め定められた範囲の領域A12となる。なお、複数種類の所見に、病変と病変以外の組織との境界を含めてもよい。 In the above embodiment, a plurality of types of findings may include boundaries between lesions. Here, the boundary between lesions means a predetermined range including the boundary between lesions (for example, several pixels around the boundary). Specifically, as shown in FIG. 11, it is assumed that the lesion areas A1 and A2 are adjacent to each other. The vicinity of the boundary of the area A1 is the area A11 in a predetermined range from the boundary B0 between the area A1 and the area A2. On the other hand, the vicinity of the boundary of the area A2 is the area A12 in a predetermined range from the boundary B0 between the area A1 and the area A2. It should be noted that the plurality of types of findings may include the boundary between the lesion and the tissue other than the lesion.

このように複数種類の所見に病変間等の境界を含めた場合、一次分類結果により取得される境界の評価値に対しては、調和平均のように、すべての断面画像における評価値が高い程、高い評価値となった所見を共通する部分の所見に優先的に分類する評価方式を採用することが好ましい。この場合、境界以外の評価値に対しては、上述した算術平均を評価方式として採用すればよい。 When boundaries such as between lesions are included in multiple types of findings in this way, the higher the evaluation value in all cross-sectional images, such as the harmonic mean, for the evaluation value of the boundary obtained by the primary classification result. It is preferable to adopt an evaluation method that preferentially classifies the findings with high evaluation values into the findings of the common part. In this case, the above-mentioned arithmetic mean may be adopted as the evaluation method for the evaluation values other than the boundary.

また、上記実施形態においては、所見として診断対象となる肺および肝臓等の対象臓器を含めるようにしてもよい。このように、所見に対象臓器を含めた場合、一次分類結果により取得される対象臓器の評価値に対しては、調和平均のように、すべての断面画像における評価値が高い程、高い評価値となった所見を共通する部分の所見に優先的に分類する評価方式を採用することが好ましい。この場合、対象臓器以外の評価値に対しては、上述した算術平均を評価方式として採用すればよい。 Further, in the above embodiment, the target organs such as the lung and the liver to be diagnosed may be included as the findings. In this way, when the target organ is included in the findings, the higher the evaluation value in all the cross-sectional images, the higher the evaluation value, as in the harmonic mean, for the evaluation value of the target organ obtained from the primary classification result. It is preferable to adopt an evaluation method that preferentially classifies the findings that have become common to the findings of the common part. In this case, for the evaluation values other than the target organ, the above-mentioned arithmetic mean may be adopted as the evaluation method.

また、上記実施形態においては、二次分類部13が出力した二次分類結果を、所見の解剖学上の特徴または画像特徴量に基づいて補正するようにしてもよい。以下、これを他の実施形態として説明する。図12は、本開示の画像処理装置および方法並びにプログラムの他の実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図である。なお、図12において図1と同一の構成については同一の参照番号を付与し、詳細な説明は省略する。図12に示す他の実施形態による医用画像診断支援システムは、図1に示す医用画像診断支援システムに対して補正部15を備えたものである。 Further, in the above embodiment, the secondary classification result output by the secondary classification unit 13 may be corrected based on the anatomical features of the findings or the amount of image features. Hereinafter, this will be described as another embodiment. FIG. 12 is a block diagram showing a schematic configuration of a medical image diagnosis support system using the image processing apparatus and method of the present disclosure and other embodiments of the program. In FIG. 12, the same reference numbers are assigned to the same configurations as those in FIG. 1, and detailed description thereof will be omitted. The medical image diagnosis support system according to the other embodiment shown in FIG. 12 is provided with a correction unit 15 for the medical image diagnosis support system shown in FIG.

補正部15は、所見の解剖学上の特徴または画像特徴量に基づいて、二次分類結果を補正するものである。 The correction unit 15 corrects the secondary classification result based on the anatomical feature of the finding or the image feature amount.

ここで、上述した二次分類部13によって各画素が分類される所見を特定したとしても、その分類結果が、解剖学上の構造に沿った結果とは異なる場合がある。 Here, even if the finding that each pixel is classified by the above-mentioned secondary classification unit 13 is specified, the classification result may be different from the result according to the anatomical structure.

具体的には、例えば嚢胞の輪郭は連続した滑らかな曲線となるが、二次分類結果、嚢胞と分類された画素からなる領域の輪郭が、連続した滑らかな曲線とならない場合がある。例えば図13に示すように、嚢胞と分類された画素からなる領域が、分断された2つの領域r1,r2となる場合がある。また、図14に示すように、嚢胞と分類された画素からなる領域r3の輪郭に突起ができたり、逆に凹みができたりして、嚢胞の領域の辺縁に異常がある場合がある。 Specifically, for example, the contour of a cyst may be a continuous smooth curve, but as a result of secondary classification, the contour of a region consisting of pixels classified as a cyst may not be a continuous smooth curve. For example, as shown in FIG. 13, a region composed of pixels classified as a cyst may be two divided regions r1 and r2. Further, as shown in FIG. 14, there are cases where a protrusion is formed on the contour of the region r3 composed of pixels classified as a cyst, or a dent is formed on the contrary, and the edge of the region of the cyst is abnormal.

そこで、本開示の他の実施形態の補正部15は、解剖学上の構造に沿った結果となるように、二次分類結果を補正するものである。具体的には、補正部15は、特定の断面方向の断面画像を用いて、各画素の二次分類結果を補正する。特定の断面方向の断面画像としては、より高精度に各画素を所見に分類可能な断面画像を用いることが好ましく、例えば一次分類処理を行う際に用いた複数の断面画像のうち、最も解像度が高い断面方向の断面画像を用いることが好ましい。 Therefore, the correction unit 15 of the other embodiment of the present disclosure corrects the secondary classification result so that the result is in line with the anatomical structure. Specifically, the correction unit 15 corrects the secondary classification result of each pixel by using a cross-sectional image in a specific cross-sectional direction. As the cross-sectional image in a specific cross-sectional direction, it is preferable to use a cross-sectional image capable of classifying each pixel into findings with higher accuracy. It is preferable to use a cross-sectional image in a high cross-sectional direction.

具体的には、例えば最も解像度が高い断面方向の断面画像の画素値を用いて、閾値処理またはフィルタ処理等を行うことによって嚢胞領域を抽出し、その輪郭を画像特徴量として取得する。そして、二次分類処理によって嚢胞と分類された画素からなる領域を上記輪郭にマッチングさせることによって補正を行う。これにより、図13に示す領域r2を嚢胞の領域から除外することができ、図14に示す領域r3の突起を無くすことができる。また、嚢胞に限らず、断面画像の画素値を用いて、閾値処理またはフィルタ処理等を行うことによって気管支領域を抽出し、その輪郭を画像特徴量として取得する。そして、二次分類処理によって気管支と分類された画素からなる領域を上記輪郭にマッチングさせることによって補正を行うようにしてもよい。 Specifically, for example, the cyst region is extracted by performing threshold processing or filter processing using the pixel value of the cross-sectional image in the cross-sectional direction having the highest resolution, and the contour thereof is acquired as an image feature amount. Then, the correction is performed by matching the region consisting of the pixels classified as the cyst by the secondary classification process with the contour. Thereby, the region r2 shown in FIG. 13 can be excluded from the region of the cyst, and the protrusion of the region r3 shown in FIG. 14 can be eliminated. Further, not only the cyst but also the bronchial region is extracted by performing threshold processing or filter processing using the pixel value of the cross-sectional image, and the contour thereof is acquired as an image feature amount. Then, the correction may be performed by matching the region consisting of the pixels classified as the bronchi by the secondary classification process with the contour.

なお、上記説明では、嚢胞領域または気管支領域を抽出するようにしたが、このように必ずしも、所見を特定しなくてもよい。例えば断面画像に含まれるエッジまたは形状を解析して断面画像をセグメンテーションし、二次分類処理によって特定の所見に分類された画素からなる領域をセグメンテーションされた領域まで広げたり、または狭めたりしてもよい。 In the above description, the cyst region or the bronchial region is extracted, but the findings do not necessarily have to be specified. For example, the edge or shape contained in the cross-section image may be analyzed to segment the cross-section image, and the region consisting of pixels classified into specific findings by the secondary classification process may be expanded or narrowed to the segmented region. good.

また、補正をする際、二次分類処理によって分類された領域に含まれる信号値を画像特徴量として用いるようにしてもよい。具体的には、二次分類処理によって分類された領域に含まれる信号値の分布を解析し、高信号値の領域と低信号値の領域が存在した場合、判別分析法を用いてこれらの領域を分離することによって、上述した嚢胞または気管支等の組織を表す信号値の領域を決定して補正するようにしてもよい。例えば断面画像がCT画像である場合、空気領域の信号値は−1024に近づくが、気管支壁および血管等の組織は0以上の値を示すので、二次分類処理によって分類された嚢胞領域の中に空気領域に近い低信号値の領域と、血管等に近い高信号値が含まれていた場合には、分離された信号値群のうち低信号値群の領域を補正された嚢胞領域として決定する。 Further, when making corrections, the signal values included in the area classified by the secondary classification process may be used as the image feature amount. Specifically, the distribution of signal values included in the regions classified by the secondary classification process is analyzed, and if there are high signal value regions and low signal value regions, these regions are used using a discriminant analysis method. By separating the above-mentioned regions of signal values representing tissues such as cysts or bronchi as described above, the region may be determined and corrected. For example, when the cross-sectional image is a CT image, the signal value in the air region approaches -1024, but the tissue such as the bronchial wall and blood vessels shows a value of 0 or more. If a low signal value region close to the air region and a high signal value close to a blood vessel etc. are included, the region of the low signal value group among the separated signal value groups is determined as the corrected cyst region. do.

また、二次分類処理によって分類された嚢胞領域の信号値に対して、低吸収域の信号値である−950等の特定の閾値を用いて閾値処理を施すことによって補正するようにしてもよい。 Further, the signal value of the cyst region classified by the secondary classification process may be corrected by performing the threshold value process using a specific threshold value such as −950, which is the signal value of the low absorption region. ..

また、二次分類処理によって分類された領域または上述した補正方法によって補正された領域を、その領域の外側に向けて1単位(1ボクセルまたは1ピクセル)ずつ膨らませていき、信号値の分布が近しい領域部分は拡張することによって補正するようにしてもよい。 In addition, the area classified by the secondary classification process or the area corrected by the above-mentioned correction method is expanded by 1 unit (1 voxel or 1 pixel) toward the outside of the area, and the distribution of signal values is close. The area portion may be corrected by expanding it.

例えば嚢胞領域の場合、中央は空気領域で信号値が低いが辺縁は肺組織の区切りまたは線維化組織であるので、信号値が高くなる。したがって、1単位ずつ高信号値の領域に行き着くまで膨らませることによって補正するようにしてもよい。また、二次分類処理によって分類された嚢胞領域内で、エッジ(高信号値)の領域が検出されて領域が分断された場合には、それぞれの分断された領域の信号値の分布(分散および標準偏差等)を算出して比較することによって、肺野に近い領域を除外して補正するようにしてもよい。 For example, in the case of the cyst region, the signal value is high in the air region in the center, but the signal value is high because the margin is a partition or fibrotic tissue of lung tissue. Therefore, it may be corrected by inflating one unit at a time until it reaches the region of high signal value. In addition, when an edge (high signal value) region is detected and the region is divided within the cyst region classified by the secondary classification process, the distribution (dispersion and distribution) of the signal value of each divided region is also obtained. By calculating and comparing the standard deviation, etc.), the region close to the lung field may be excluded and corrected.

また、上記説明では、画像特徴量を用いて補正を行うようにしたが、これに限らず、所見の解剖学上の特徴を用いて補正を行うようにしてもよい。具体的には、上述したように嚢胞と胸水とは、断面画像上において同じような輪郭形状で現れる場合があり、胸水の領域が嚢胞の領域と誤分類される可能性がある。そこで、嚢胞に分類された領域が、肺領域以外の周辺領域である場合には、その領域は胸水の領域であるとして削除するようにしてもよい。すなわち、嚢胞の解剖学上の位置の特徴に基づいて、補正を行うようにしてもよい。また、嚢胞と分類された領域が、図13に示すように分断された領域r1,r2である場合には、嚢胞の輪郭は連続した滑らかな曲線であるという解剖学上の形状の特徴に基づいて、領域r2を削除するようにしてもよい。また、嚢胞と分類された領域が、図14に示すように突起を有する領域である場合には、嚢胞の輪郭は連続した滑らかな曲線であるという解剖学上の形状の特徴に基づいて、突起の部分を削除するようにしてもよい。 Further, in the above description, the correction is performed using the image feature amount, but the correction is not limited to this, and the correction may be performed using the anatomical feature of the finding. Specifically, as described above, the cyst and the pleural effusion may appear in the same contour shape on the cross-sectional image, and the pleural effusion region may be misclassified as the cyst region. Therefore, if the region classified as a cyst is a peripheral region other than the lung region, that region may be deleted as a pleural effusion region. That is, the correction may be made based on the characteristics of the anatomical position of the cyst. Further, when the region classified as a cyst is a divided region r1 or r2 as shown in FIG. 13, the contour of the cyst is based on the characteristic of the anatomical shape that the contour is a continuous smooth curve. Then, the area r2 may be deleted. Also, when the region classified as a cyst is a region with protrusions as shown in FIG. 14, the protrusions are based on the anatomical shape feature that the contour of the cyst is a continuous smooth curve. You may try to delete the part of.

また、上記他の実施形態では、補正をする際、一次分類処理を行う際に用いた複数の断面画像のうち、最も解像度が高い断面方向の断面画像を用いるようにしたが、これに限らず、例えば被検体の撮影におけるスライス方向の断面画像を用いるようにしてもよい。撮影の際のスライス方向の断面画像とは、いわゆる原画像であって、例えば撮影の際のスライス方向が、体軸に直交する方向である場合には、アキシャル方向の断面画像が、スライス方向の断面画像となる。スライス方向の断面画像は、最も解像度が高い画像であるので、分類精度をより向上させることができる。 Further, in the above other embodiment, when the correction is performed, the cross-sectional image in the cross-sectional direction having the highest resolution is used among the plurality of cross-sectional images used when performing the primary classification process, but the present invention is not limited to this. For example, a cross-sectional image in the slice direction in photographing the subject may be used. The cross-sectional image in the slice direction at the time of shooting is a so-called original image. For example, when the slice direction at the time of shooting is a direction orthogonal to the body axis, the cross-sectional image in the axial direction is the slice direction. It becomes a cross-sectional image. Since the cross-sectional image in the slice direction is the image having the highest resolution, the classification accuracy can be further improved.

また、補正部15は、図14に示すような嚢胞と分類された領域の突起または凹み等の辺縁の異常の検出処理を行い、辺縁の異常が検出された場合のみ上述した補正を行うようにしてもよい。また、二次分類処理が行われた断面画像S4,S5,S6を、図15に示すように3次元空間上に平行に配列した場合に、例えば各断面画像S4,S5,S6内における嚢胞と分類された各領域r4,r5,r6の重心位置の連続性の異常を検出した場合に、各断面画像S4,S5,S6の嚢胞と分類された領域に対して上述した補正を行うようにしてもよい。重心位置の連続性の異常については、例えば重心位置を結んだ線Lの直線性を評価し、直線性が予め設定された閾値以下である場合に、重心位置の連続性に異常があると認識するようにすればよい。 Further, the correction unit 15 performs a process of detecting an abnormality in the edge such as a protrusion or a dent in a region classified as a cyst as shown in FIG. 14, and performs the above-mentioned correction only when an abnormality in the edge is detected. You may do so. Further, when the cross-sectional images S4, S5, and S6 subjected to the secondary classification process are arranged in parallel on the three-dimensional space as shown in FIG. 15, for example, with the cyst in each cross-sectional image S4, S5, S6. When an abnormality in the continuity of the center of gravity of each of the classified regions r4, r5, and r6 is detected, the above-mentioned correction is performed for the region classified as a cyst in each of the cross-sectional images S4, S5, and S6. May be good. Regarding the abnormality of the continuity of the center of gravity position, for example, the linearity of the line L connecting the center of gravity positions is evaluated, and when the linearity is equal to or less than a preset threshold value, it is recognized that the continuity of the center of gravity position is abnormal. You just have to do it.

このように、所見の解剖学上の特徴または画像特徴量に基づいて、二次分類結果を補正することにより、より解剖学上の構造に沿った分類結果とすることができ、断面画像の各画素を複数の所見に高精度に分類することができる。 In this way, by correcting the secondary classification result based on the anatomical features or image features of the findings, the classification result can be made more in line with the anatomical structure, and each of the cross-sectional images can be obtained. Pixels can be classified into multiple findings with high accuracy.

なお、上記各実施形態においては、すべての断面画像における評価値が高い程、高い評価値となった所見を共通する部分の所見に優先的に分類する特定の平均化方式として調和平均を採用しているが、これに限定されるものではない。 In each of the above embodiments, the higher the evaluation value in all the cross-sectional images, the more the harmonic mean is adopted as a specific averaging method that preferentially classifies the findings with higher evaluation values into the findings of the common part. However, it is not limited to this.

また、上記各実施形態においては、複数の断面画像に共通する画素について、所見の種類に応じた異なる評価方式により各断面画像の一次分類結果を評価しているが、評価するのは画素に限定されるものではない。共通する画素を中心とする予め定められた範囲内の(例えば、3×3×3画素、5×5×5画素等)の複数の画素について、各断面画像の一次分類結果を評価してもよい。 Further, in each of the above embodiments, the primary classification result of each cross-sectional image is evaluated by different evaluation methods according to the type of findings for the pixels common to the plurality of cross-sectional images, but the evaluation is limited to the pixels. It is not something that will be done. Even if the primary classification result of each cross-sectional image is evaluated for a plurality of pixels within a predetermined range (for example, 3 × 3 × 3 pixels, 5 × 5 × 5 pixels, etc.) centered on a common pixel. good.

また、上記各実施形態においては、評価方式として平均化方式を採用しているが、これに限定されるものではない。例えば、一次分類結果に含まれる所見毎の評価値に対して何らかのパラメータを変化させる評価方式等、任意の評価方式を採用することができる。 Further, in each of the above embodiments, the averaging method is adopted as the evaluation method, but the evaluation method is not limited to this. For example, an arbitrary evaluation method such as an evaluation method in which some parameter is changed with respect to the evaluation value for each finding included in the primary classification result can be adopted.

また、上記各実施形態において、例えば、断面画像取得部11、一次分類部12、二次分類部13、表示制御部14および補正部15といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 Further, in each of the above embodiments, the hardware of the processing unit that executes various processes such as the cross-sectional image acquisition unit 11, the primary classification unit 12, the secondary classification unit 13, the display control unit 14, and the correction unit 15. As the wear-like structure, various processors shown below can be used. As described above, the various processors include CPUs, which are general-purpose processors that execute software (programs) and function as various processing units, as well as circuits after manufacturing FPGAs (Field Programmable Gate Arrays) and the like. Dedicated electricity, which is a processor with a circuit configuration specially designed to execute specific processing such as Programmable Logic Device (PLD), which is a processor whose configuration can be changed, and ASIC (Application Specific Integrated Circuit). Circuits etc. are included.

1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). ) May be configured. Further, a plurality of processing units may be configured by one processor.

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client and a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units. Second, as typified by System On Chip (SoC), there is a form that uses a processor that realizes the functions of the entire system including multiple processing units with one IC (Integrated Circuit) chip. be. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.

さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。 Further, as the hardware structure of these various processors, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined can be used.

10 画像処理装置
11 断面画像取得部
12 一次分類部
13 二次分類部
14 表示制御部
15 補正部
20 表示装置
30 入力装置
40 3次元画像保管サーバ
50 多層ニューラルネットワーク
51 入力層
52 出力層
A1,A2,A11,A12 領域
B0 境界
L 重心位置を結ぶ線
P 画素
r1,r2,r3,r4,r5,r6 嚢胞と分類された領域
S1,S2,S3,S4,S5,S6 断面画像
10 Image processing device 11 Cross-sectional image acquisition unit 12 Primary classification unit 13 Secondary classification unit 14 Display control unit 15 Correction unit 20 Display device 30 Input device 40 3D image storage server 50 Multilayer neural network 51 Input layer 52 Output layer A1, A2 , A11, A12 Region B0 Boundary L Line connecting the position of the center of gravity
P pixel r1, r2, r3, r4, r5, r6 Area classified as a cyst S1, S2, S3, S4, S5, S6 Cross-sectional image

Claims (15)

被検体の複数の異なる断面方向の断面画像を取得する断面画像取得部と、
複数の前記断面画像のそれぞれについて、前記各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行うことにより、複数種類の所見のそれぞれであることを表す評価値を含む一次分類の結果を取得する一次分類部と、
前記複数の断面画像に共通する部分について、前記所見の種類に応じた異なる評価方式であって、すべての断面画像における評価値が高い程、該高い評価値となった所見を前記共通する部分の所見に優先的に分類する特定の平均化方式を評価方式の1つとして含む異なる評価方式により、前記各断面画像の前記一次分類処理の結果を評価することによって、前記複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う二次分類部とを備えた画像処理装置。
A cross-sectional image acquisition unit that acquires cross-sectional images of a plurality of subjects in different cross-sectional directions,
For each of the plurality of cross-sectional images, an evaluation value indicating that each of the plurality of types of findings is obtained is obtained by performing a primary classification process for specifying the type of findings in which each pixel of each of the cross-sectional images is classified. The primary classification unit that acquires the results of the primary classification including
With respect to the portion common to the plurality of cross-sectional images, different evaluation methods are used according to the type of the findings, and the higher the evaluation value in all the cross-sectional images, the higher the evaluation value of the common portion. By evaluating the result of the primary classification process of each of the cross-sectional images by a different evaluation method including a specific averaging method that preferentially classifies the findings as one of the evaluation methods, it is common to the plurality of cross-sectional images. An image processing device provided with a secondary classification unit that performs secondary classification processing to specify the type of findings in which the parts are classified.
前記特定の平均化方式は調和平均である請求項に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the specific averaging method is a harmonic mean. 前記二次分類部は、病変の所見についての評価値に対して、前記特定の平均化方式により前記二次分類処理を行う請求項またはに記載の画像処理装置。 The image processing apparatus according to claim 1 or 2 , wherein the secondary classification unit performs the secondary classification process on the evaluation value of the lesion findings by the specific averaging method. 前記二次分類部は、前記病変以外の所見についての評価値に対して、前記特定の平均化方式とは異なる他の評価方式により前記二次分類処理を行う請求項に記載の画像処理装置。 The image processing apparatus according to claim 3 , wherein the secondary classification unit performs the secondary classification process on the evaluation values for findings other than the lesion by another evaluation method different from the specific averaging method. .. 前記二次分類部は、前記所見が病変間の境界および病変と該病変以外の組織との境界を含む場合、該境界の所見ついての評価値に対して、前記特定の平均化方式により前記二次分類処理を行う請求項からのいずれか1項に記載の画像処理装置。 When the findings include a boundary between lesions and a boundary between a lesion and a tissue other than the lesion, the secondary classification unit uses the specific averaging method for the evaluation value of the findings of the boundary. The image processing apparatus according to any one of claims 1 to 4 , which performs the following classification process. 前記二次分類部は、前記所見が対象臓器を含む場合、該対象臓器の所見ついての評価値に対して、前記特定の平均化方式により前記二次分類処理を行う請求項またはに記載の画像処理装置。 The secondary classification unit according to claim 1 or 2 , wherein when the findings include a target organ, the evaluation value of the findings of the target organ is subjected to the secondary classification process by the specific averaging method. Image processing equipment. 前記二次分類部は、前記対象臓器以外の所見についての評価値に対して、前記特定の平均化方式とは異なる他の評価方式により前記二次分類処理を行う請求項に記載の画像処理装置。 The image processing according to claim 6 , wherein the secondary classification unit performs the secondary classification process on the evaluation values of the findings other than the target organ by another evaluation method different from the specific averaging method. Device. 前記他の評価方式は、前記複数の断面画像に共通する部分における評価値の代表値を前記二次分類処理の結果とする評価方式である請求項またはに記載の画像処理装置。 The image processing apparatus according to claim 4 or 7 , wherein the other evaluation method is an evaluation method in which a representative value of an evaluation value in a portion common to the plurality of cross-sectional images is used as a result of the secondary classification process. 前記二次分類部は、前記二次分類処理の結果、前記複数の断面画像に共通する部分について、最も評価が高い得られた所見を、当該共通する部分についての所見として特定する請求項1からのいずれか1項に記載の画像処理装置。 From claim 1, the secondary classification unit specifies the findings obtained with the highest evaluation for the portion common to the plurality of cross-sectional images as a result of the secondary classification process as the findings regarding the common portion. 8. The image processing apparatus according to any one of 8. 前記一次分類部は、機械学習によって生成された判別器を用いて前記一次分類処理を行う請求項1からのいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9 , wherein the primary classification unit performs the primary classification process using a discriminator generated by machine learning. 前記二次分類処理の結果を表示部に表示する表示制御部をさらに備えた請求項1から10のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10 , further comprising a display control unit for displaying the result of the secondary classification process on the display unit. 前記表示制御部は、さらに前記一次分類処理の結果を前記表示部に表示する請求項11に記載の画像処理装置。 The image processing device according to claim 11, wherein the display control unit further displays the result of the primary classification process on the display unit. 前記所見の解剖学上の特徴または画像特徴量に基づいて、前記二次分類処理の結果を補正する補正部をさらに備えた請求項1から12のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 12 , further comprising a correction unit for correcting the result of the secondary classification process based on the anatomical feature or the image feature amount of the finding. 被検体の複数の異なる断面方向の断面画像を取得し、
複数の前記断面画像のそれぞれについて、前記各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行うことにより、複数種類の所見のそれぞれであることを表す評価値を含む一次分類の結果を取得し
前記複数の断面画像に共通する部分について、前記所見の種類に応じた異なる評価方式であって、すべての断面画像における評価値が高い程、該高い評価値となった所見を前記共通する部分の所見に優先的に分類する特定の平均化方式を評価方式の1つとして含む異なる評価方式により、前記各断面画像の前記一次分類処理の結果を評価することによって、前記複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う画像処理方法。
Obtain cross-sectional images of multiple different cross-sectional directions of the subject,
For each of a plurality of said cross-sectional images, the by row Ukoto primary classification processing for each pixel of each cross-sectional image to determine the type of findings to be classified, the evaluation value indicating that a plurality of types of findings Get the result of the primary classification including
With respect to the portion common to the plurality of cross-sectional images, different evaluation methods are used according to the type of the findings, and the higher the evaluation value in all the cross-sectional images, the higher the evaluation value of the common portion. By evaluating the result of the primary classification process of each of the cross-sectional images by a different evaluation method including a specific averaging method that preferentially classifies the findings as one of the evaluation methods, it is common to the plurality of cross-sectional images. An image processing method that performs secondary classification processing to specify the type of finding in which a part is classified.
被検体の複数の異なる断面方向の断面画像を取得する手順と、
複数の前記断面画像のそれぞれについて、前記各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行うことにより、複数種類の所見のそれぞれであることを表す評価値を含む一次分類の結果を取得する手順と、
前記複数の断面画像に共通する部分について、前記所見の種類に応じた異なる評価方式であって、すべての断面画像における評価値が高い程、該高い評価値となった所見を前記共通する部分の所見に優先的に分類する特定の平均化方式を評価方式の1つとして含む異なる評価方式により、前記各断面画像の前記一次分類処理の結果を評価することによって、前記複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う手順とをコンピュータに実行させる画像処理プログラム。
The procedure for acquiring cross-sectional images of multiple different cross-sectional directions of a subject,
For each of the plurality of cross-sectional images, an evaluation value indicating that each of the plurality of types of findings is obtained is obtained by performing a primary classification process for specifying the type of findings in which each pixel of each of the cross-sectional images is classified. The procedure for obtaining the results of the primary classification including
With respect to the portion common to the plurality of cross-sectional images, different evaluation methods are used according to the type of the findings, and the higher the evaluation value in all the cross-sectional images, the higher the evaluation value of the common portion. By evaluating the result of the primary classification process of each of the cross-sectional images by a different evaluation method including a specific averaging method that preferentially classifies the findings as one of the evaluation methods, it is common to the plurality of cross-sectional images. An image processing program that causes a computer to perform a secondary classification process that identifies the type of finding in which a part is classified.
JP2018162857A 2018-08-31 2018-08-31 Image processing equipment, methods and programs Active JP6987721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018162857A JP6987721B2 (en) 2018-08-31 2018-08-31 Image processing equipment, methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018162857A JP6987721B2 (en) 2018-08-31 2018-08-31 Image processing equipment, methods and programs

Publications (2)

Publication Number Publication Date
JP2020032043A JP2020032043A (en) 2020-03-05
JP6987721B2 true JP6987721B2 (en) 2022-01-05

Family

ID=69666360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018162857A Active JP6987721B2 (en) 2018-08-31 2018-08-31 Image processing equipment, methods and programs

Country Status (1)

Country Link
JP (1) JP6987721B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111095263A (en) 2017-06-26 2020-05-01 纽约州立大学研究基金会 System, method, and computer-accessible medium for virtual pancreatography
CN115151523A (en) 2020-02-27 2022-10-04 学校法人立教学院 Metal-organic structure having carboxylate ion having terphenyl skeleton as ligand
JPWO2022045277A1 (en) * 2020-08-31 2022-03-03
JP2022117177A (en) 2021-01-29 2022-08-10 富士フイルム株式会社 Device, method, and program for processing information

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5873824A (en) * 1996-11-29 1999-02-23 Arch Development Corporation Apparatus and method for computerized analysis of interstitial infiltrates in chest images using artificial neural networks
JP4129375B2 (en) * 2002-08-13 2008-08-06 株式会社東芝 Medical image diagnostic apparatus and image region designation support method
JP2013039267A (en) * 2011-08-18 2013-02-28 Asahikawa Medical College Image processing apparatus, image processing method, and program
JP5733229B2 (en) * 2012-02-06 2015-06-10 新日鐵住金株式会社 Classifier creation device, classifier creation method, and computer program
JP6419441B2 (en) * 2014-03-11 2018-11-07 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image processing system, and medical image processing program
JP6697743B2 (en) * 2015-09-29 2020-05-27 パナソニックIpマネジメント株式会社 Information terminal control method and program
JP6313741B2 (en) * 2015-12-25 2018-04-18 キヤノン株式会社 Image processing apparatus and method of operating image processing apparatus
US10748277B2 (en) * 2016-09-09 2020-08-18 Siemens Healthcare Gmbh Tissue characterization based on machine learning in medical imaging

Also Published As

Publication number Publication date
JP2020032043A (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP6837376B2 (en) Image processing equipment and methods and programs
da Silva Sousa et al. Methodology for automatic detection of lung nodules in computerized tomography images
Militello et al. A semi-automatic approach for epicardial adipose tissue segmentation and quantification on cardiac CT scans
JP5081390B2 (en) Method and system for monitoring tumor burden
JP6987721B2 (en) Image processing equipment, methods and programs
Pandey et al. Automatic and fast segmentation of breast region-of-interest (ROI) and density in MRIs
JP7005191B2 (en) Image processing equipment, medical diagnostic imaging equipment, and programs
US8175348B2 (en) Segmenting colon wall via level set techniques
JP2016531709A (en) Image analysis technology for diagnosing disease
CN110838114B (en) Pulmonary nodule detection method, device and computer storage medium
US11854190B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
US20100266173A1 (en) Computer-aided detection (cad) of a disease
EP2987114B1 (en) Method and system for determining a phenotype of a neoplasm in a human or animal body
US11756292B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
JP6415878B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
Sakellarios et al. Novel methodology for 3D reconstruction of carotid arteries and plaque characterization based upon magnetic resonance imaging carotid angiography data
Rebouças Filho et al. 3D segmentation and visualization of lung and its structures using CT images of the thorax
US20240370997A1 (en) Systems and methods for detecting and characterizing covid-19
Farzaneh et al. Automated kidney segmentation for traumatic injured patients through ensemble learning and active contour modeling
JP2023114463A (en) Display device, method and program
CN115393246A (en) Image segmentation system and image segmentation method
WO2020044736A1 (en) Similarity determination device, method, and program
WO2020110520A1 (en) Similarity determination device, method, and program
US20240112786A1 (en) Image processing apparatus, image processing method, and image processing program
WO2022137855A1 (en) Information processing device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211201

R150 Certificate of patent or registration of utility model

Ref document number: 6987721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150