JP7242041B2 - Gap change detection device, gap change detection method, and gap change detection program - Google Patents
Gap change detection device, gap change detection method, and gap change detection program Download PDFInfo
- Publication number
- JP7242041B2 JP7242041B2 JP2019072574A JP2019072574A JP7242041B2 JP 7242041 B2 JP7242041 B2 JP 7242041B2 JP 2019072574 A JP2019072574 A JP 2019072574A JP 2019072574 A JP2019072574 A JP 2019072574A JP 7242041 B2 JP7242041 B2 JP 7242041B2
- Authority
- JP
- Japan
- Prior art keywords
- gap
- change detection
- image
- change
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 217
- 238000012545 processing Methods 0.000 claims description 119
- 238000000034 method Methods 0.000 claims description 113
- 238000000926 separation method Methods 0.000 claims description 98
- 230000006740 morphological transformation Effects 0.000 claims description 19
- 210000000988 bone and bone Anatomy 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 239000002131 composite material Substances 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 44
- 210000002745 epiphysis Anatomy 0.000 description 26
- 210000001145 finger joint Anatomy 0.000 description 26
- 238000012937 correction Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 16
- 230000010339 dilation Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 9
- 206010039073 rheumatoid arthritis Diseases 0.000 description 6
- 239000003814 drug Substances 0.000 description 5
- 229940079593 drug Drugs 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000002591 computed tomography Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000003462 vein Anatomy 0.000 description 2
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Description
本発明は、間隙変化検出装置、間隙変化検出方法及び間隙変化検出用プログラムの技術分野に属する。より詳細には、例えば人の関節を構成する複数の骨の端部間の間隙の長さの変化を検出する間隙変化検出装置及び間隙変化検出方法並びに当該間隙変化検出装置用のプログラムの技術分野に属する。 The present invention belongs to the technical field of gap change detection apparatus, gap change detection method, and gap change detection program. More specifically, for example, the technical field of a gap change detection device and a gap change detection method for detecting changes in the length of gaps between ends of a plurality of bones that constitute human joints, and a program for the gap change detection device belongs to
近年、関節リュウマチ治療のための薬の研究が進み、従来に比して有効な薬が開発・提供されている。これらの薬は、その薬価が高価であることも相まって、関節リュウマチの進行度に応じて適切に使い分けることが求められる。従って、関節リュウマチの進行度を的確に認識することは、極めて重要である。このとき、当該進行度の尺度の一つとしては、診断の対象となる関節における上記間隙の長さがある。例えば一般には、この長さが短くなるほど関節リュウマチの進行度が高いと診断されることがある。 In recent years, research on drugs for treating rheumatoid arthritis has progressed, and drugs that are more effective than conventional drugs have been developed and provided. These drugs are required to be properly used depending on the degree of progression of rheumatoid arthritis, coupled with their high drug prices. Therefore, it is extremely important to accurately recognize the progress of rheumatoid arthritis. At this time, one measure of the progress is the length of the gap in the joint to be diagnosed. For example, in general, the shorter the length, the more advanced rheumatoid arthritis may be diagnosed.
一方、上記間隙の長さの診断は、診断対象となる関節のX線画像を用いて行われる場合が多い。即ち、当該X線画像を観た医師により、最終的に当該間隙の長さが診断されることが多い。従って、当該X線画像は鮮明であることが求められる。そして、このような要求に対応した先行技術文献としては、例えば下記特許文献1が挙げられる。特許文献1に記載された技術では、少なくとも二種類以上の構成部材からなるシンチレータ部材をX線の入射側に備え、上記構成部材がX線の入反射方向に周期的に配置されてなり、構成部材の少なくとも1つ以上がX線を可視光に変換する蛍光体を含み、X線の入射側から順に、シンチレータ部材、光学部材、及び光検出器の順に配置される構成とされている。
On the other hand, the diagnosis of the length of the gap is often performed using an X-ray image of the joint to be diagnosed. That is, the length of the gap is often finally diagnosed by a doctor who has viewed the X-ray image. Therefore, the X-ray image is required to be clear. As a prior art document corresponding to such a request, for example,
しかしながら一方で、例えば特許文献1記載の技術を用いてX線画像が鮮明に撮れたとしても、それを医師が目で観察して上記間隙の長さを診断する場合、当該間隙の長さの、その進行度による変化が判り難い関節リュウマチについては、(i)主観的になり易い、(ii)間隙の長さの微小な変化を見落とし易い、(iii)正確な診断のためには特別な訓練が必要となる、及び(iv)再現性が乏しい、といった問題点があることが従来から指摘されていた。
However, on the other hand, even if a clear X-ray image can be taken using the technique described in
そこで本発明は、上記の各問題点に鑑みて為されたもので、その課題の一例は、上記間隙の長さの変化を、診断対象となる関節を撮像した画像から、例えば医師の主観等を介在させることなく、的確且つ定量的に検出することが可能な間隙変化検出装置及び間隙変化検出方法並びに当該間隙変化検出装置用のプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and one example of the problem is to detect changes in the length of the gap from an image of the joint to be diagnosed, for example, subjectively by a doctor. It is an object of the present invention to provide a gap change detection device, a gap change detection method, and a program for the gap change detection device that can accurately and quantitatively detect the gap change without intervening.
上記の課題を解決するために、請求項1に記載の発明は、複数の物体間の間隙の長さの変化を検出する間隙変化検出装置において、前記複数の物体及び前記間隙が映っている画像に相当する画像情報を取得する指位置検出部等の取得手段と、前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離部等の分離手段と、前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、位相限定相関法を用いて検出する変化検出部等の位置変化検出手段と、各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記時系列に沿った前記間隙の長さの変化を検出する変化検出部等の変化検出手段と、を備える。
In order to solve the above problems, the invention according to
上記の課題を解決するために、請求項6に記載の発明は、複数の物体間の間隙の長さの変化を検出する間隙変化検出装置であって、指位置検出部等の取得手段と、分離部等の分離手段と、変化検出部等の位置変化検出手段と、変化検出部等の変化検出手段と、を備える間隙変化検出装置において実行される間隙検出方法であって、前記複数の物体及び前記間隙が映っている画像に相当する画像情報を前記取得手段により取得する取得工程と、前記分離手段により、前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離工程と、前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、前記位置変化検出手段により位相限定相関法を用いて検出する位置変化検出工程と、各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記変化検出手段により前記時系列に沿った前記間隙の長さの変化を検出する変化検出工程と、を含む。
In order to solve the above-mentioned problems, the invention according to
上記の課題を解決するために、請求項7に記載の発明は、複数の物体間の間隙の長さの変化を検出する間隙変化検出装置に含まれるコンピュータを、前記複数の物体及び前記間隙が映っている画像に相当する画像情報を取得する取得手段、前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離手段、前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、位相限定相関法を用いて検出する位置変化検出手段、及び、各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記時系列に沿った前記間隙の長さの変化を検出する変化検出手段、として機能させる。
In order to solve the above-mentioned problems, the invention according to
請求項1、請求項6又は請求項7のいずれか一項に記載の発明によれば、複数の物体及び間隙が映っている画像に相当する画像情報に基づいて各物体の間隙側の端部を分離し、当該端部それぞれについての時系列位置変化を位相限定相関法を用いて検出し、その検出結果に基づいて間隙の長さの変化を検出するので、上記間隙の長さの変化を、上記画像情報から、例えば医師の主観等を介在させることなく、的確且つ定量的に検出することができる。
According to the invention described in any one of
上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の間隙変化検出装置において、前記物体は関節を構成する骨であり、前記間隙は当該関節における前記骨間の間隙であり、前記分離手段は、前記取得した画像情報に対してモルフォロジー変換処理を施す分離部等の変換手段を備え、当該分離手段は、前記変換手段による前記画像情報の変換結果に基づいて、前記関節が含まれる身体の部位を前記画像において検出し、当該検出された部位に基づいて前記端部を検出して分離するように構成される。
In order to solve the above-mentioned problems, the invention according to
請求項2に記載の発明によれば、請求項1に記載の発明の作用に加えて、各物体が関節を構成する骨であり、間隙が当該関節における骨間の間隙であり、画像情報に対するモルフォロジー変換処理による変換結果に基づいて関節が含まれる身体の部位を検出し、当該検出された部位に基づいて骨の端部を検出して分離するので、より正確に当該端部を検出して分離することができる。
According to the invention of
上記の課題を解決するために、請求項3に記載の発明は、請求項2に記載の間隙変化検出装置において、前期分離手段は、機械学習法を用いた二値識別器等の二値識別手段が線形に接続されてなる複合識別器等の複合識別手段が複数直列に接続されてなる指関節検出部等の識別手段を更に備え、当該分離手段は、前記検出された部位について前記識別手段による二値識別処理を施して前記画像における前記関節を検出し、当該検出された関節に基づいて前記端部を検出して分離するように構成される。
In order to solve the above problems, the invention according to
請求項3に記載の発明によれば、請求項2に記載の発明の作用に加えて、検出された身体の部位について二値識別処理を施して関節を検出し、検出された関節に基づいて骨の端部を検出して分離するので、更に正確に当該端部を検出して分離することができる。 According to the third aspect of the invention, in addition to the effects of the second aspect of the invention, a joint is detected by subjecting the detected body part to binary identification processing, and based on the detected joint, Since the ends of the bone are detected and separated, the ends can be detected and separated more accurately.
上記の課題を解決するために、請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の間隙変化検出装置において、前記位置変化検出手段は、前記時系列に対応した前記画像情報間における前記物体の位置ずれを、前記画像情報に相当する前記画像全体に対する位置限定相関法を用いて検出する変化検出部等の位置ずれ検出手段を備え、当該位置変化検出手段は、当該検出された位置ずれを除去しつつ前記時系列位置変化を検出するように構成される。
In order to solve the above problems, the invention according to
請求項4に記載の発明によれば、請求項1から請求項3のいずれか一項に記載の発明の作用に加えて、時系列に対応した画像情報間における物体の位置ずれを、画像全体に対する位置限定相関法を用いて検出し、その検出された位置ずれを除去しつつ時系列位置変化を検出するので、より正確に時系列位置変化を検出することができる。
According to the invention of
上記の課題を解決するために、請求項5に記載の発明は、請求項1から請求項4のいずれか一項に記載の間隙変化検出装置において、前記分離手段は、前記取得した画像情報に対してモルフォロジー変換処理を施す分離部等の変換手段を備え、当該分離手段は、前記変換手段による前記画像情報の変換結果に基づいて前記端部を前記画像においてそれぞれ分離するように構成される。
In order to solve the above-mentioned problems, the invention according to
請求項5に記載の発明によれば、請求項1から請求項4のいずれか一項に記載の発明の作用に加えて、取得した画像情報に対するモルフォロジー変換処理による変換結果に基づいて物体の端部を画像においてそれぞれ分離するので、より正確に当該端部を分離することができる。 According to the fifth aspect of the invention, in addition to the effect of the invention according to any one of the first to fourth aspects, the edge of the object is determined based on the transformation result of the morphological transformation processing of the acquired image information. Since the parts are each separated in the image, the edges can be separated more accurately.
本発明によれば、複数の物体及び間隙が映っている画像に相当する画像情報に基づいて各物体の間隙側の端部を分離し、当該端部それぞれについての時系列位置変化を位相限定相関法を用いて検出し、その検出結果に基づいて間隙の長さの変化を検出する。 According to the present invention, the edge of each object on the side of the gap is separated based on image information corresponding to an image in which a plurality of objects and gaps are shown, and the time-series position change of each of the edges is analyzed using phase-only correlation. method, and the change in gap length is detected based on the detection results.
従って、複数の物体間の間隙の長さの変化を、当該複数の物体及び間隙が映っている画像に相当する画像情報から、例えば医師の主観等を介在させることなく、的確且つ定量的に検出することができる。 Therefore, the change in the length of the gap between a plurality of objects can be accurately and quantitatively detected from the image information corresponding to the image showing the plurality of objects and the gap, for example, without intervening the subjectivity of the doctor. can do.
次に、本発明を実施するための形態について、図1乃至図16に基づいて説明する。なお以下に説明する実施形態は、例えばレントゲン装置又はCT(Computed Tomography)装置等により撮像された人の手の画像から当該手の関節を構成する二つ以上の骨の端部間の間隙の長さの変化を検出する間隙変化検出装置に対して、本発明を適用した場合の実施の形態である。当該間隙変化検出装置は、時間的に離れて同じ関節を撮像して得られた複数の上記画像を比較/解析することにより、上記間隙の長さの変化を自動的且つ数値化された状態で検出する。なお以下の説明においては、上記レントゲン装置又はCT装置等により撮像された画像を、単に「画像」と称する。 Next, a mode for carrying out the present invention will be described with reference to FIGS. 1 to 16. FIG. In the embodiments described below, the length of the gap between the ends of two or more bones forming the joint of the hand is obtained from an image of a human hand taken by an X-ray device, a CT (Computed Tomography) device, or the like. This is an embodiment in which the present invention is applied to a gap change detection device that detects a change in height. The gap change detection device compares/analyzes a plurality of images obtained by imaging the same joint at different times, thereby automatically and quantifying changes in the length of the gap. To detect. In the following description, an image captured by the X-ray device, CT device, or the like is simply referred to as an "image."
また、図1は実施形態の間隙変化検出装置を含む間隙検査システムの概要構成を示すブロック図であり、図2は当該間隙変化検出装置の概要構成を示すブロック図であり、図3は実施形態の指位置検出処理を示す図であり、図4は実施形態の指関節検出処理等を示す図である。更に、図5は実施形態の位相限定相関法を説明する図であり、図6は実施形態の位置修正処理を示す図であり、図7及び図8は実施形態の関節分離処理における溝検出処理をそれぞれ示す図であり、図9は実施形態の関節分離処理における分離処理を示す図(I)である。更にまた、図10乃至図12は当該関節分離処理におけるモルフォロジー変換処理をそれぞれ例示する図であり、図13は実施形態の関節分離処理における分離処理を示す図(II)である。また、図14は実施形態の間隙変化検出処理を例示する図であり、図15は当該間隙変化検出処理の結果を例示する図であり、図16は当該結果の表示例を示す図である。 FIG. 1 is a block diagram showing a schematic configuration of a gap inspection system including the gap change detection device of the embodiment, FIG. 2 is a block diagram showing a schematic configuration of the gap change detection device, and FIG. 4A and 4B are diagrams showing finger position detection processing of the embodiment, and FIG. Further, FIG. 5 is a diagram for explaining the phase-only correlation method of the embodiment, FIG. 6 is a diagram showing position correction processing of the embodiment, and FIGS. 7 and 8 are groove detection processing in the joint separation processing of the embodiment. , respectively, and FIG. 9 is a diagram (I) showing separation processing in the joint separation processing of the embodiment. 10 to 12 are diagrams respectively illustrating morphological transformation processing in the joint separation processing, and FIG. 13 is a diagram (II) showing separation processing in the joint separation processing of the embodiment. 14 is a diagram illustrating the gap change detection process of the embodiment, FIG. 15 is a diagram illustrating the result of the gap change detection process, and FIG. 16 is a diagram illustrating a display example of the result.
(1)間隙検出システムの全体構成及び動作
初めに、実施形態の間隙検出システムの全体構成及び動作について、図1を用いて説明する。図1に示すように、実施形態の間隙変化検出装置Sを含む間隙検出システムSSは、当該間隙変化検出装置Sに加えて撮像装置SXを備えて構成されている。
(1) Overall configuration and operation of gap detection system
First, the overall configuration and operation of the gap detection system of the embodiment will be described with reference to FIG. As shown in FIG. 1, a gap detection system SS including the gap change detection device S of the embodiment is configured to include an imaging device SX in addition to the gap change detection device S. As shown in FIG.
この構成において、撮像装置SXは、例えばレントゲン装置又はCT装置からなり、間隙変化検出装置Sによる検出対象となった間隙を有する関節、又は当該関節を含む人の手を撮像し、当該関節又は手に相当する画像データDxを生成して間隙変化検出装置Sに出力する。これにより間隙変化検出装置Sは、当該画像データDxに基づいて上記間隙の長さの変化を自動的且つ数値化して検出し、検出結果データDoutとして出力する。ここで、間隙変化検出装置Sにおける上記間隙の長さの変化の検出に当たっては、いわゆる位相限定相関(POC(Phase-Only Correlation))法が用いられる。この位相限定相関法については、後ほど詳述する。そして上記検出結果データDoutに相当する検出結果は、例えば後述するように図示しないディスプレイ上に表示される。なお以下の説明において、上記位相限定相関法を単に「POC法」と称し、上記位相限定相関法を用いた処理を単に「POC処理」と称する。 In this configuration, the imaging device SX is composed of, for example, an X-ray device or a CT device, and images a joint having a gap to be detected by the gap change detection device S or a human hand including the joint. and outputs the image data Dx to the gap change detection device S. Accordingly, the gap change detection device S automatically and numerically detects the change in the length of the gap based on the image data Dx, and outputs it as detection result data Dout. Here, a so-called Phase-Only Correlation (POC) method is used to detect the change in the length of the gap in the gap change detection device S. This phase-only correlation method will be described in detail later. A detection result corresponding to the detection result data Dout is displayed, for example, on a display (not shown) as described later. In the following description, the phase-only correlation method is simply referred to as "POC method", and the processing using the phase-only correlation method is simply referred to as "POC processing".
次に、上記間隙変化検出装置Sの構成について、具体的に図2を用いて説明する。図2に示すように、実施形態の間隙変化検出装置Sは、指位置検出部1と、指関節検出部2と、位置修正部3と、分離部4と、変化検出部5と、により構成されている。このとき、指位置検出部1、指関節検出部2、位置修正部3、分離部4及び変化検出部5については、間隙変化検出装置Sを構成する例えばCPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等からなるハードウェアロジック回路により実現されていてもよいし、又は、後述する各処理に相当するプログラムを上記CPU等が読み出して実行することにより、ソフトウェア的に実現されるものであってもよい。また、上記指位置検出部1が本発明の「取得手段」の一例に相当し、指関節検出部2が本発明の「識別手段」の一例に相当し、分離部4が本発明の「分離手段」の一例及び「変換手段」の一例にそれぞれ相当し、変化検出部5が本発明の「位置変化検出手段」の一例、「変化検出手段」の一例及び「位置ずれ検出手段」の一例にそれぞれ相当する。
Next, the configuration of the gap change detection device S will be specifically described with reference to FIG. As shown in FIG. 2, the gap change detection device S of the embodiment includes a finger
以上の構成において、指位置検出部1は初めに、撮像装置SXから出力された上記画像データDxを取得すると、当該画像データDxに相当する画像における指(即ち、上記間隙の変化の検出対象となっている関節を含む指)の位置を検出する実施形態の指位置検出処理を実行し、その結果を指位置データDfngとして指関節検出部2に出力する。このとき指位置検出部1は、上記時間的に離れて同じ関節を撮像して得られた複数の画像に相当する複数の画像データDxのそれぞれについて、指位置データDfngを出力する。なお、上記指位置検出処理については、後ほど図3を用いて詳説する。
In the above configuration, when the finger
これにより指関節検出部2は、指位置検出部1からの上記各指位置データDfngに基づき、当該各指位置データDfngによりその位置が示されている指に含まれている関節をそれぞれ検出する実施形態の指関節検出処理を実行し、その結果を関節データDjntとして位置修正部3にそれぞれ出力する。なお、上記指関節検出処理については、後ほど図4を用いて詳説する。
As a result, the finger
次に位置修正部3は、指関節検出部2からの上記各関節データDjntに基づき、当該各関節データDjntに相当する関節のそれぞれについて、例えば時間的に離れること(即ち時系列に沿って取得されたこと)に起因する位置ずれがあった場合、上記POC法を用いて当該位置ずれを相互に修正する実施形態の位置修正処理を実行し、その結果を修正関節データDmとして分離部4にそれぞれ出力する。なお、上記位置修正処理については、後ほど図5及び図6を用いて詳説する。
Next, based on the joint data Djnt from the finger
そして分離部4は、位置修正部3からの上記各修正関節データDmに基づき、当該各修正関節データDmに相当する画像から、当該画像に映っている関節を構成する例えば二つの骨の端部にそれぞれ相当する画像を分離する実施形態の関節分離処理を実行し、その結果を関節分離データDsepとして変化検出部5に出力する。この分離部4の機能により、当該関節が映った一の画像から、当該関節を構成する各端部のみをそれぞれ含む二つの画像が分離されることとなる。なお、上記関節分離処理については、後ほど図7乃至図13を用いて詳説する。
Then, based on the corrected joint data Dm from the
最後に変化検出部5は、分離部4からの上記各関節分離データDsepに基づき、当該各関節分離データDsepに相当する画像に映っている上記各端部間の距離の変化(即ち、上記間隙の長さの変化)を、上記POC法を用いて検出する実施形態の間隙変化検出処理を実行し、その結果を上記検出結果データDoutとして例えば上記図示しないディスプレイに出力する。なお、上記間隙変化検出処理については、後ほど図14乃至図16を用いて詳説する。
Finally, based on the joint separation data Dsep from the
(2)上記指位置検出処理について
次に、指位置検出部1により実行される上記指位置検出処理について、図2及び図3を用いて説明する。
(2) Finger position detection processing
Next, the finger position detection processing executed by the finger
図3に例示するように、例えば右手をレントゲン装置で撮像して得られた画像G(図3(a)参照)に相当する画像データDxが取得されると、初めに指位置検出部1は、上記指位置検出処理の第1処理として、例えばいわゆる大津の二値化処理を当該画像データDxに対して施し、図3(b)に例示される二値化画像を生成する。次に指位置検出部1は、上記指位置検出処理の第2処理として、当該二値化画像に対してモルフォロジー変換における膨張処理及び収縮処理を施し、雑音を除去した二値化画像を生成する(図3(c)参照)。その後、指位置検出部1は、上記指位置検出処理の第3処理として、雑音が除去された二値化画像に対して従来と同様のエッジ検出処理及び輪郭近似処理を施し、各指及び手首等を形取った輪郭Rを検出する(図3(d)参照)。次に指位置検出部1は、上記指位置検出処理の第4処理として、当該輪郭近似処理等が施された二値化画像に対して、従来と同様の端部検出処理(即ち、部分的な最大値及び最小値を検出する処理)を施し、各指の先端(図3(e)において白○で示す)と指の間の部分(図3(e)において白□で示す)とをそれぞれ検出する。次に指位置検出部1は、上記指位置検出処理の第5処理として、図3(e)に例示する各先端及び各指の間の位置に基づき、各指の画像をそれぞれ切り出し、当該切り出した各指の中心線を設定する(図3(f)参照)。そして指位置検出部1は、上記指位置検出処理の第6処理として、設定された中心線に基づいて指の開く角度を検出する処理を各指について施し(図3(g)参照)、更に上記指位置検出処理の第7処理として、最終的に指の部分の画像のみを各指について図3(h)に例示するように切り出す。その後、指位置検出部1は、各切り出された指の画像(図3(h)参照)を、上記指位置データDfngとして指関節検出部2に出力する。なお、本発明の発明者等による実験では、250画素×300画素の画像Gを用いた上記指位置検出処理に要する時間は、約0.05秒であった。
As illustrated in FIG. 3, when image data Dx corresponding to an image G (see FIG. 3A) obtained by imaging the right hand with an X-ray device, for example, is acquired, the finger
(3)上記指関節検出処理について
次に、指関節検出部2により実行される上記指関節検出処理について、図2及び図4を用いて説明する。実施形態の指関節検出処理は、上記指位置データDfngにより示されている指の位置を含む画像に対して、従来のHaar-like特徴量を用いた特徴量検出処理を施すことで、当該指の中から関節を検出する指関節検出処理である。このとき、上記Haar-like特徴量を用いた特徴量検出処理とは、画像の一部を切り出して得られた当該画像の部分における局所的な明暗差を当該部分の特徴量とし、その特徴量を部分ごとに組み合わせることで当該画像全体としての特徴を捉える特徴量検出処理である。
(3) Finger joint detection process
Next, the finger joint detection process executed by the finger
即ち、実施形態の指関節検出部2は、図4(a)に示すように、n個(nは予め設定された接続数)の複合識別器MI1乃至複合識別器MInが直列に接続されて構成されている。そして、複合識別器MI1乃至複合識別器MInの各々は、上記Haar-like特徴量を用いた二値の特徴量検出処理をそれぞれに行う二値識別器がT個(Tは予め設定された最適結合数)線形に接続されて構成されている。この構成において、上記二値識別器が本発明の「二値識別手段」の一例に相当し、複合識別器MI1乃至複合識別器MInの各々が本発明の「複合識別手段」の一例にそれぞれ相当する。
That is, in the finger
このとき、当該二値識別器のそれぞれは、例えば骨の端部同士で形成される関節の画像に対応して、「白」(関節を構成する一方の骨の端部に相当)-「黒」(上記間隙に相当)-「白」(関節を構成する他方の骨の端部に相当)なるフィルタを用いた下記式(1)に示されるHaar-like特徴量hの検出を行う。そしてこの結果、複合識別器MI1乃至複合識別器MInの各々は、下記式(2)に示されるHaar-like特徴量Hの検出を行うことになる。
より具体的には、図4(a)に示すように、上記指位置データDfngが入力された指関節検出部2の復号識別器MI1は、上記二値の特徴量検出処理により当該指位置データDfngに相当する画像(図4(b)参照)から関節と認識される部分をそれぞれ検出し、その結果を次段の複合識別器MI2に出力する。これ以降、複合識別器MI2乃至複合識別器MInは、順次複合識別器MI1と同様の二値の特徴量検出処理をそれぞれ施す。この結果、図4(c)及び図4(d)に白□で例示するように、上記フィルタに対応した各関節が元の画像Gから検出される。上記各関節の検出結果は、上記関節データDjntとして位置修正部3に出力される。なお、本発明の発明者等による実験では、2,280画素×2,860画素の画像G(図4(d)参照)を用いた上記指関節検出処理に要する時間は、約0.4秒であった。
More specifically, as shown in FIG. 4(a), the decoding discriminator MI1 of the finger
(4)上記位置修正処理について
次に、位置修正部3により実行される上記位置修正処理について、図2並びに図5及び図6を用いて説明する。実施形態の位置修正処理は、指関節検出部2からの上記各関節データDjntに基づき、当該各関節データDjntに相当する関節のそれぞれにおける上記位置ずれを、上記POC法を用いて相互に修正する位置修正処理である。より具体的に、実施形態の位置修正処理には、局所中央値を用いるいわゆるメディアンフィルタ(Median Filter)を用いて、上記関節データDjntに相当する画像Gにおける高周波成分を除去する第1処理と、上記POC法を用いて位置ずれを修正する第2処理と、がある。このとき、上記高周波成分は、関節データDjntに相当する関節を構成する骨の骨脈に対応した高周波成分であり、実施形態の間隙の長さの変化の検出には不要なものである。
(4) Position correction processing
Next, the position correcting process executed by the
より具体的に、実施形態の位置修正処理の第1処理として、位置修正部3は、関節データDjntに相当する画像G(図5(a)左に一例を示す)に対して上記Median Filterを適用する処理を施し、図5(b)右に例示するように上記骨脈に相当する高周波成分を除去する。
More specifically, as the first process of the position correction process of the embodiment, the
次に位置修正部3は、実施形態の位置修正処理の第2処理として、時系列に沿って取得されたことに起因する位置ずれが、例えば図5(b)に例示するように関節データDjntに相当する画像Gに含まれている場合、上記高周波成分が除去された画像の全体について、上記POC法を用いて当該位置ずれを相互に修正する。
Next, as second processing of the position correction processing of the embodiment, the
ここで、実施形態のPOC法は、上記位置修正処理だけでなく、後述する変化検出部5による実施形態の間隙変化検出処理でも用いられる。よって次に、当該POC法について図6を用いて一般的に説明する。
Here, the POC method of the embodiment is used not only in the position correction process, but also in the gap change detection process of the embodiment by the
即ち、例えば直近に撮像された画像Gに相当する画像データDxを画像データf(x,y)と表し、それより過去に撮像された画像Gに相当する画像データDxを画像データg(x,y)と表すとすると、上記POC処理では、図5に示すように、これらに対していわゆる離散フーリエ変換(Discrete Fourier Transform(以下、「DFT」と称する))処理を初めにそれぞれ施して、波数(k)空間の信号に変換する。このとき当該変換の結果は、下記式(3)のように表される。
上記POC処理では次に、図5に示すように、式(3)における関数F(kx,ky)及び関数G(kx,ky)をその振幅で除することによりそれぞれ正規化し、更にその一方を共役とすることで、いわゆる要素積(Hadamard Product又はElement-Wise Product)を求める。この要素積は、下記式(4)のように表される。
この式(4)において、「θF(kx,ky)」は複素関数F(kx,ky)の位相角であり、「θG(kx,ky)」は複素関数G(kx,ky)の位相角である。そして上記POC処理では最後に、上記式(4)により求められた要素積に対して、図5に示すように、いわゆる逆離散フーリエ変換(Inverse Discrete Fourier Transform(以下、「IDFT」と称する)処理を施し、当該POC処理の結果として出力する。この結果は、下記式(5)に示すものとなる。
ここで、上記画像データf(x,y)に相当する画像と、上記画像データg(x,y)に相当する画像と、の関係を、その位置ずれ量d(水平方向の位置ずれであるか、垂直方向の位置ずれであるか、或いは斜め方向の位置ずれであるか、を問わない)を用いて表すとすると、以下の式(6)のようになる。
そして、式(6)の両辺に対してDFT処理(図5参照)を施した結果は、以下の式(7)となる。
従って、式(7)に対して上記式(4)と同様の正規化処理を施し、更にその要素積を求めると(それぞれ図5参照)、その結果は、上記式(4)に対応して、以下の式(8)に示すものとなる。
そして、上記式(8)の両辺に対してIDFT処理(図5参照)を施した結果は、以下の式(9)となる。
この式(9)から判るように、上記画像データf(x,y)に相当する画像と、上記画像データg(x,y)に相当する画像と、の間に位置ずれdがある場合(図5(b)参照)、その位置ずれdに対応して、式(9)で示されるデルタ(δ)関数としてのピークが現れることになる。 As can be seen from the equation (9), when there is a positional deviation d between the image corresponding to the image data f(x, y) and the image corresponding to the image data g(x, y) ( (see FIG. 5B), a peak appears as a delta (.delta.) function represented by the equation (9) corresponding to the positional deviation d.
そして位置修正部3は、位置修正処理の第2処理として、図5(c)に例示するように上記デルタ関数のピークの位置に対応する位置ずれdを相互に修正する。その後位置修正部3は、当該修正の結果を修正関節データDmとして分離部4にそれぞれ出力する。
Then, as the second process of the position correction process, the
(5)上記関節分離処理について
次に、分離部4により実行される上記関節分離処理について、図2並びに図7乃至図13を用いて説明する。実施形態の関節分離処理には、位置修正部3からの上記各修正関節データDm(即ち、時系列に沿って取得された各画像Gに相当する各修正関節データDm)に基づき、当該各修正関節データDmに相当する関節のそれぞれにおける上記間隙を溝(Gully)として検出する溝検出処理と、当該検出された間隙の画像に対してモルフォロジー変換処理を施すことにより上記間隙を挟んで相対している各骨端を分離する分離処理と、がある。
(5) About the joint separation process
Next, the joint separation processing executed by the
初めに、上記関節分離処理における溝検出処理について、図7及び図8を用いて説明する。当該溝検出処理として分離部4は、先ず、図7左に例示する画像Gに映っている関節部分に対して図7中縦方向に直線を一本設定し、図7に例示するフィルタA1及びフィルタB1をその直線に沿って移動させつつ、当該フィルタA1及びフィルタB1を画像Gの各画素値(例えば、画像Gを構成する各画素の輝度値)に適用する処理を、当該直線の位置を図7中横方向に移動させつつ繰り返して行う。
First, groove detection processing in the joint separation processing will be described with reference to FIGS. 7 and 8. FIG. As the groove detection process, the
このときフィルタA1は、縦二画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「1」、「2」、「1」、「-1」、「-2」及び「-1」となっている。一方フィルタB1は、縦二画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「-1」、「-2」、「-1」、「1」、「2」及び「1」となっている。そして、フィルタA1の位置とフィルタB1の位置とは、図7に例示するように画素横一行分だけ移動方向にずらされている。従って、フィルタA1及びフィルタB1を、相互の位置関係を図7に例示する状態に維持しながら図7中縦方向に移動させつつ、画像Gの各画素値に適用する(即ち、当該画素値とフィルタ係数とを乗算する)と、その結果は、図7右において符号A1及び符号B1で示す波形図(横軸は移動の位置を示し、縦軸は適用の結果の値を示す。以下、同様。)のように変化する。その後分離部4は、符号A1で示す波形図の変化と、符号B1で示す波形の変化と、を比較し、同じ位置においてより小さい方を選択する関数F1(m,n)(m及びnは画素の位置を示す。以下、同様。)を算出する。この結果、当該関数F1(m,n)に対応する溝画像P1が得られる。これにより分離部4は、上記溝画像P1に相当する画像データを、図示しないROM等に記録する。
At this time, the filter A1 has a size corresponding to two pixels vertically by three pixels horizontally, and the filter coefficients corresponding to each pixel are "1", "2 , “1”, “-1”, “-2” and “-1”. On the other hand, the filter B1 has a size corresponding to two pixels vertically by three pixels horizontally, and the filter coefficients corresponding to each pixel are "-1", "- 2", "-1", "1", "2" and "1". The position of the filter A1 and the position of the filter B1 are shifted in the movement direction by one horizontal row of pixels as illustrated in FIG. Therefore, the filters A1 and B1 are applied to each pixel value of the image G while maintaining the positional relationship shown in FIG. The filter coefficient is multiplied), and the result is a waveform diagram indicated by symbols A1 and B1 on the right side of FIG. ). After that, the
次に、上記溝検出処理として分離部4は、図7に例示するフィルタA2及びフィルタB2を上記直線に沿って移動させつつ、当該フィルタA2及びフィルタB2を画像Gの各画素値に適用する処理を、当該直線の位置を図7中横方向に移動させつつ繰り返して行う。
Next, as the groove detection process, the separating
このときフィルタA2は、縦四画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「1」、「2」、「1」、「1」、「2」、「1」、「-1」、「-2」、「-1」、「-1」、「-2」及び「-1」となっている。一方フィルタB2は、縦四画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「-1」、「-2」、「-1」、「-1」、「-2」、「-1」、「1」、「2」、「1」、「1」、「2」及び「1」となっている。そして、フィルタA2の位置とフィルタB2の位置とは、図7に例示するように画素横二行分だけ移動方向にずらされている。従って、フィルタA2及びフィルタB2を、相互の位置関係を図7に例示する状態に維持しながら図7中縦方向に移動させつつ、画像Gの各画素値に適用すると、その結果は、図7右において符号A2及び符号B2で示す波形図のように変化する。その後分離部4は、符号A2で示す波形図の変化と、符号B2で示す波形の変化と、を比較し、同じ位置においてより小さい方を選択する関数F2(m,n)を算出する。この結果、当該関数F2(m,n)に対応する溝画像P2が得られる。これにより分離部4は、上記溝画像P2に相当する画像データを、図示しないROM等に記録する。このとき、溝画像P2は、上記溝画像P1をよりぼかした状態の溝画像(即ち不要な雑音が除去された溝画像。以下、同様。)となり、上記間隙に相当する溝が画像上鮮明となりつつある。
At this time, the filter A2 has a size corresponding to four pixels vertically by three pixels horizontally, and the filter coefficients corresponding to each pixel are "1", "2 , "1", "1", "2", "1", "-1", "-2", "-1", "-1", "-2" and "-1". there is On the other hand, the filter B2 has a size corresponding to four pixels vertically by three pixels horizontally, and the filter coefficients corresponding to each pixel are "-1", "- 2”, “-1”, “-1”, “-2”, “-1”, “1”, “2”, “1”, “1”, “2” and “1” . The position of the filter A2 and the position of the filter B2 are shifted in the moving direction by two horizontal rows of pixels as illustrated in FIG. Therefore, when the filter A2 and the filter B2 are applied to each pixel value of the image G while maintaining the mutual positional relationship shown in FIG. 7 and moving in the vertical direction in FIG. On the right, the waveform changes as indicated by symbols A2 and B2. After that, the
更に、上記溝検出処理として分離部4は、図7に例示するフィルタA3及びフィルタB3を上記直線に沿って移動させつつ、当該フィルタA3及びフィルタB3を画像Gの各画素値に適用する処理を、当該直線の位置を図7中横方向に移動させつつ繰り返して行う。
Further, as the groove detection process, the separating
このときフィルタA3は、縦六画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「1」、「2」、「1」、「1」、「2」、「1」、「1」、「2」、「1」、「-1」、「-2」、「-1」、「-1」、「-2」、「-1」、「-1」、「-2」及び「-1」となっている。一方フィルタB3は、縦六画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「-1」、「-2」、「-1」、「-1」、「-2」、「-1」、「-1」、「-2」、「-1」、「1」、「2」、「1」、「1」、「2」、「1」、「1」、「2」及び「1」となっている。そして、フィルタA3の位置とフィルタB3の位置とは、図7に例示するように画素横三行分だけ移動方向にずらされている。従って、フィルタA3及びフィルタB3を、相互の位置関係を図7に例示する状態に維持しながら図7中縦方向に移動させつつ、画像Gの各画素値に適用すると、その結果として、上記フィルタA1及び上記フィルタB1又は上記フィルタA2及び上記フィルタB2の場合と同様に、対応する関数F3(m,n)に対応する溝画像P3が得られる。これにより分離部4は、上記溝画像P3に相当する画像データを、図示しないROM等に記録する。このとき、溝画像P3は、上記溝画像P2を更にぼかした状態の溝画像となり、上記間隙に相当する溝が画像上より鮮明となりつつある。
At this time, the filter A3 has a size corresponding to 6 pixels vertically by 3 pixels horizontally, and the filter coefficients corresponding to each pixel are, as shown in FIG. ', '1', '1', '2', '1', '1', '2', '1', '-1', '-2', '-1', '-1', "-2", "-1", "-1", "-2" and "-1". On the other hand, the filter B3 has a size corresponding to 6 pixels vertically by 3 pixels horizontally, and the filter coefficient corresponding to each pixel is "-1", "- 2", "-1", "-1", "-2", "-1", "-1", "-2", "-1", "1", "2", "1", "1", "2", "1", "1", "2" and "1". The position of the filter A3 and the position of the filter B3 are shifted in the movement direction by three horizontal rows of pixels as illustrated in FIG. Therefore, when the filter A3 and the filter B3 are applied to each pixel value of the image G while maintaining the positional relationship shown in FIG. 7 and moving them in the vertical direction in FIG. As with A1 and said filter B1 or said filter A2 and said filter B2, a groove image P3 corresponding to the corresponding function F 3 (m,n) is obtained. As a result, the
これ以降分離部4は、上記フィルタA1及び上記フィルタB1等を用いた場合と同様の溝検出処理を、例えば図7に例示する縦十画素×横三画素に相当する大きさ及びフィルタ係数のフィルタA5及びフィルタB5を用いた処理まで繰返し、最終的に得られた溝画像P1乃至溝画像P5を重ね合わせることで、間隙に相当する溝部分が鮮明に表れた溝画像Pallを生成する。そして図8に例示するように、上記各溝検出処理により、フィルタA1及びフィルタB1等を変えつつそれぞれ得られた溝画像P1(図8(a)及び図7参照)、溝画像P5(図8(b)及び図7参照)、溝画像P7(図8(c)参照。各フィルタは縦十四画素×横三画素に相当する大きさ。)及び溝画像P9(図8(d)参照。各フィルタは縦十八画素×横三画素に相当する大きさ。)を重ね合わせると、当該溝が鮮明に表された溝画像Pall(図8(e)参照)が得られる。図8(e)に例示する溝画像Pallでは、関節を構成する骨端EGと、それに対応して形成されている間隙(溝)GPと、が鮮明に表されている。
After that, the
次に、上記関節分離処理における分離処理について、図9乃至図13を用いて説明する。当該分離処理として分離部4は、先ず、上記溝検出処理により検出された溝(間隙)を示す溝画像Pallに対して、例えば図9(a)に例示するような横十行×縦十列の画像PXを設定する。ここで、設定された各画素PXにおける画素値が、例えば図9(b)に例示する各値であったとする。これにより分離部4は、モルフォロジー変換処理を用いた分離処理の第1処理として、先ず、左から一列目の最上部二画素分を含み且つ縦三画素分の大きさを有する枠W(図10(a)において破線で示す)を当該左から一列目に設定し、その枠W内に含まれることとなる画素PXの画素値の最大値(図10(a)に例示する場合は「2」)が当該枠Wの中央の画素値となるように変換する、上記モルフォロジー変換処理における膨張処理を実行する(図10(a)において破線矢印で示す)。次に分離部4は、枠Wを一画素分だけ図10中下方にずらし(図10(a)において一点鎖線で示す)、ずらした枠W内に含まれることとなる画素PXの画素値の最大値(図10(a)に例示する場合は「6」)が当該枠Wの中央の画素値となるように変換する膨張処理を実行する(図10(a)において一点鎖線矢印で示す)。更に分離部4は、枠Wを更に一画素分だけ図10中下方にずらし(図10(a)において点線で示す)、ずらした枠W内に含まれることとなる画素PXの画素値の最大値(図10(a)に例示する場合は「6」)が当該枠Wの中央の画素値となるように変換する膨張処理を実行する(図10(a)において点線矢印で示す)。以降分離部4は、上記と同様の膨張処理を、上記左から一列目の全ての画素PXについて、枠Wを一画素分ずつ順に下方にずらしながら行う。この結果、当該左から一列目の各画素PXの画素値は、図10(a)右に斜体字で例示するものとなる。
Next, separation processing in the joint separation processing will be described with reference to FIGS. 9 to 13. FIG. As the separation process, the
次に分離部4は、モルフォロジー変換処理を用いた分離処理の第2処理として、図10(b)左に示すように、膨張処理後の左から一列目の画素PXの画素値を、左から二列目の対応する画素PXの画素値に加算する。この結果、左から二列目の画素PXの画素値は、図10(b)に例示する画素値となる。これにより、膨張処理後の左から一列目の画素値を左から二列目の画素値に反映(拡散)させることになる。
Next, as the second process of the separation process using the morphological transformation process, the
次に分離部4は、モルフォロジー変換処理を用いた分離処理の第3処理として、現在の左から二列目の最上部二画素分を含み且つ縦三画素分の大きさを有する上記枠W(図11(a)において破線で示す)を当該左から二列目に改めて設定し、その枠W内に含まれることとなる画素PXの画素値の最大値(図11(a)に例示する場合は「7」)が当該枠Wの中央の画素値となるように変換する上記膨張処理を実行する(図11(a)において破線矢印で示す)。次に分離部4は、枠Wを一画素分だけ図11中下方にずらし(図11(a)において一点鎖線で示す)、ずらした枠W内に含まれることとなる画素PXの画素値の最大値(図11(a)に例示する場合は「12」)が当該枠Wの中央の画素値となるように変換する膨張処理を実行する(図11(a)において一点鎖線矢印で示す)。更に分離部4は、枠Wを更に一画素分だけ図11中下方にずらし(図11(a)において点線で示す)、ずらした枠W内に含まれることとなる画素PXの画素値の最大値(図11(a)に例示する場合は「12」)が当該枠Wの中央の画素値となるように変換する膨張処理を実行する(図11(a)において点線矢印で示す)。以降分離部4は、上記と同様の膨張処理を、上記左から二列目の全ての画素PXについて、枠Wを一画素分ずつ順に下方にずらしながら行う、この結果、当該左から二列目の各画素PXの画素値は、図11(a)右に斜体字で例示するものとなる。なお、図11(a)に例示する場合において、先に膨張処理が施された左から一列目の画素PXの画素値は、当該膨張処理が施される前の画素値(図9(b)又は図10(a)左参照)に戻されていることに注意を要する。
Next, the
次に分離部4は、モルフォロジー変換処理を用いた分離処理の第4処理として、図11(b)左に示すように、膨張処理後の左から二列目の画素PXの画素値を、左から三列目の対応する画素PXの画素値に加算する。この結果、左から三列目の画素PXの画素値は、図11(b)右に例示する画素値となる。これにより、膨張処理後の左から二列目の画素値を左から三列目の画素値に反映(拡散)させることになる。なお、図11(b)に例示する状態となった後、左から二列目の画素PXの画素値は、モルフォロジー変換処理を用いた分離処理の第5処理として、図12(a)に例示するように、当該膨張処理が施される直線の画素値(図10(b)右又は図11(a)左参照)に戻されていることに注意を要する。
Next, as the fourth processing of the separation processing using the morphological transformation processing, the
これ以降、分離部4は、列ごとに上記膨張処理と右隣の対応する画素値への加算処理とを繰り返す。この結果、各画素PXの画素値は、最終的には図12(b)に例示する画素値となる。その後分離部4は、右から一列目の画素PXのうち最も画素値が高い画素PXeを起点として、右から左に向けて、左隣に隣接する列の縦三画素のうち最大の画素値を有する画素PX(図12(b)ハッチング参照)を辿ることで(図12(b)黒矢印参照)、分離処理の結果としての関節分離線SEPを設定する。
Thereafter, the
以上の溝検出処理及び分離処理を含む実施形態の関節分離処理により、図13(a)に例示する画像Gに対して関節分離線SEPが設定されると、次に分離部4は、図13(b)に例示するように、関節分離線SEPを境に画像Gを分割し、分割した画像Gに対して図13(b)に例示する空白部の調整(黒塗り)処理を施し、最終的に、一方の骨端のみを含む画像GUと、他の骨端のみを含む画像GLと、を生成する(図13(c)参照)。その後、分離部4は、上記生成された画像GU及び画像GLに相当する関節分離データDsepを、実施形態の関節分離処理の結果として変化検出部5に出力する。
When the joint separation line SEP is set for the image G illustrated in FIG. As illustrated in FIG. 13B, the image G is divided along the joint separation line SEP. Specifically, an image GU containing only one epiphysis and an image GL containing only the other epiphysis are generated (see FIG. 13(c)). After that, the
(6)上記間隙変化検出処理について
最後に、変化検出部5により実行される上記間隙変化検出処理について、図14乃至図16を用いて説明する。実施形態の間隙変化検出処理は、分離部4からの上記各関節分離データDsep(即ち、時系列に沿って取得された各画像Gに相当する各関節分離データDsep)に基づき、当該各関節分離データDsepに相当する画像に映っている上記各端部間の距離の変化(即ち、上記間隙の長さの変化)を、上記POC法を用いて検出する間隙変化検出処理である。
(6) About the gap change detection process
Finally, the gap change detection process executed by the
即ち図14に例示するように、直近に撮像された関節の画像Gnから関節について分離(分割)された画像GUn及び画像GLnが関節分離データDsepとして取得されており、一方で過去に撮像された関節の画像Goから関節について分離(分割)された画像GUo及び画像GLoが関節分離データDsepとして取得されている場合(図14実線参照)、先ず変化検出部5は、画像GUn及び画像GUoを対象としたPOC処理により、画像GUnに映っている骨端の位置と画像GUoに映っている骨端の位置とのずれを示す位相差画像PIU(デルタ関数の画像(上記式(9)参照。以下、同様。))を生成する(図14破線参照)。これと並行して変化検出部5は、画像GLn及び画像GLoを対象としたPOC処理により、画像GLnに映っている骨端の位置と画像GLoに映っている骨端の位置とのずれを示す位相差画像PIL(デルタ関数の画像)を生成する(図14破線参照)。
That is, as exemplified in FIG. 14, an image GUn and an image GLn separated (divided) for the joint from the recently captured joint image Gn are obtained as the joint separation data Dsep, while previously captured images When the image GUo and the image GLo obtained by separating (dividing) the joint from the image Go of the joint are obtained as the joint separation data Dsep (see the solid line in FIG. 14), the
そして変化検出部5は、位相差画像PIUにおけるピーク位置に基づいて、画像GUnに映っている骨端の位置と画像GUoに映っている骨端の位置との上記ずれを、例えば「画像中右方向に1.793画素分、下方向に1.243画素分」のように算出する。また同様に、変化検出部5は、位相差画像PILにおけるピーク位置に基づいて、画像GLnに映っている骨端の位置と画像GLoに映っている骨端の位置との上記ずれを、例えば「画像中右方向に0.634画素分、上方向に0.020画素分」のように算出する。これにより変化検出部5は、図14に例示する状態に対応して図15(a)に例示する画像GUn及び画像GUo並びに画像GLn及び画像GLoに基づいて検出された一方の骨端BUoから骨端BUnへのずれ(図15(b)中右下向き矢印で示す)と、他方の骨端BLoから骨端BLnへのずれ(図15(b)中右上向き矢印で示す)と、に基づき、最終的な上記間隙の長さの変化として、例えば「1.26画素分の減少」といったように上記検出結果データDoutを生成する。そしてこの検出結果データDoutに相当する検出結果は、例えば図16に例示するように、図示しないディスプレイDに表示される。この場合、例えば、「The Result of Detected」として上記指関節検出処理により検出された関節の位置が示された画像Gが表示され、「Line Chart」として上記間隙変化検出処理により検出された間隙の長さが撮像日別に示され、更に「Knuckles」として各関節の画像Gが撮像日別に示されるのが好ましい。
Then, based on the peak position in the phase contrast image PIU, the
次に、実施形態に対応する実施例について、図17を用い説明する。なお図17は、当該実施例の結果をそれぞれ示す図である。 Next, an example corresponding to the embodiment will be described with reference to FIG. 17 . In addition, FIG. 17 is a figure which shows the result of the said Example, respectively.
即ち実施例として、本発明の発明者は、実施形態の間隙変化検出装置Sにより検出された上記間隙の長さについて、その直線性を実験により確認した。即ち、異なるスケールについて図17(a)及び図17(b)に示すように、直線近似されたデータと、実施形態の間隙変化検出装置Sにより検出された上記間隙の長さのデータについて比較したところ、当該間隙変化検出装置Sにより検出された上記間隙の長さのデータについて良好な線形性があることが判った。このことから、実施形態の間隙変化検出装置Sにより検出された上記間隙の長さについては、その精度が高いことが理解できる。 That is, as an example, the inventor of the present invention experimentally confirmed the linearity of the length of the gap detected by the gap change detection device S of the embodiment. That is, as shown in FIGS. 17(a) and 17(b) for different scales, the linearly approximated data and the gap length data detected by the gap change detection device S of the embodiment were compared. By the way, it was found that the data of the gap length detected by the gap change detector S had good linearity. From this, it can be understood that the accuracy of the length of the gap detected by the gap change detection device S of the embodiment is high.
以上それぞれ説明したように、実施形態に係る間隙変化検出装置Sの動作によれば、複数の骨端及びそれらの間隙が映っている画像Gに相当する画像データDxに基づいて各骨端を分離し(図7乃至図13参照)、当該骨端それぞれについての時系列の位置変化をPOC法を用いて検出し、その検出結果に基づいて間隙の長さの変化を検出するので、当該間隙の長さの変化を、画像データDxから、例えば医師の主観等を介在させることなく、的確且つ定量的に検出することができる。 As described above, according to the operation of the gap change detection device S according to the embodiment, each epiphysis is separated based on the image data Dx corresponding to the image G showing the plurality of epiphyses and their gaps. (see FIGS. 7 to 13), time-series positional changes for each epiphysis are detected using the POC method, and changes in the gap length are detected based on the detection results. The change in length can be accurately and quantitatively detected from the image data Dx, for example, without subjective intervention by a doctor.
また、画像データDxに対するモルフォロジー変換処理による変換結果に基づいて指を検出し(図3参照)、当該検出された指の位置に基づいて骨端を検出して分離するので、より正確に当該骨端を検出して分離することができる。 Further, the finger is detected based on the transformation result of the morphological transformation processing for the image data Dx (see FIG. 3), and the epiphysis is detected and separated based on the position of the detected finger. Edges can be detected and separated.
更に、検出された指について二値識別処理を施して関節を検出し(図4参照)、検出された関節に基づいて骨端を検出して分離するので、更に正確に当該骨端を検出して分離することができる。 Further, the detected finger is subjected to binary identification processing to detect the joint (see FIG. 4), and the epiphysis is detected and separated based on the detected joint, so the epiphysis can be detected more accurately. can be separated by
更にまた、時系列に対応した画像データDx間における位置ずれを、画像Gの全体に対するPOC法を用いて検出し、その検出された位置ずれを除去しつつ時系列の位置変化を検出するので(図5参照)、より正確に当該位置変化を検出することができる。 Furthermore, the positional deviation between the image data Dx corresponding to the time series is detected using the POC method for the entire image G, and the positional change in the time series is detected while removing the detected positional deviation ( 5), the change in position can be detected more accurately.
また、取得した画像データDxに対するモルフォロジー変換処理による変換結果に基づいて骨端を画像Gにおいてそれぞれ分離するので(図9乃至図12参照)、より正確に当該骨端を分離することができる。 Moreover, since the epiphysis is separated from the image G based on the transformation result of the morphological transformation processing for the acquired image data Dx (see FIGS. 9 to 12), the epiphysis can be separated more accurately.
なお上述した実施形態及び実施例では、関節における骨端の間隙の長さの変化を検出対象としたが、これ以外に、画像Gとして撮像し得る物体の間にある間隙の長さの変化の検出に対して、本発明を広く適用することができる。 In the above-described embodiments and examples, the change in the length of the gap between the epiphyses at the joint was used as the object of detection. The present invention can be widely applied to detection.
また、上記指位置検出処理、上記指関節検出処理、上記位置修正処理、上記関節分離処理及び上記間隙変化検出処理のそれぞれに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これを汎用のマイクロコンピュータ等に読み出して実行することにより、当該マイクロコンピュータ等を実施形態に係る間隙変化検出装置Sとして機能させることも可能である。 Further, a program corresponding to each of the finger position detection process, the finger joint detection process, the position correction process, the joint separation process, and the gap change detection process is recorded in a recording medium such as an optical disk or a hard disk, Alternatively, it is possible to obtain the data via a network such as the Internet, read the data to a general-purpose microcomputer or the like, and execute the data, so that the microcomputer or the like functions as the gap change detection device S according to the embodiment. .
以上それぞれ説明したように、本発明は間隙変化検出装置の分野に利用することが可能であり、特に関節リュウマチに関する診断を行う場合における関節内の骨端の間隙の長さの変化を検出する間隙変化検出装置の分野に適用すれば、特に顕著な効果が得られる。 INDUSTRIAL APPLICABILITY As described above, the present invention can be used in the field of gap change detectors, and in particular, the present invention can be used to detect changes in the length of epiphyseal gaps in joints when diagnosing rheumatoid arthritis. If applied to the field of change detection devices, a particularly remarkable effect can be obtained.
1 指位置検出部
2 指関節検出部
3 位置修正部
4 分離部
5 変化検出部
S 間隙変化検出装置
SS 間隙検出システム
SX 撮像装置
EG 骨端
GP 間隙(溝)
SEP 関節分離線
Dx 画像データ
Dout 検出結果データ
Dfng 指位置データ
Djnt 関節データ
Dm 修正関節データ
Dsep 関節分離データ
G、Gn、GUn、GLn、Go、GUo、GLo 画像
PIU、PIL 位相差画像
BUo、BUn、BLo、BLn 骨端
1 finger
SEP Joint separation line Dx Image data Dout Detection result data Dfng Finger position data Djnt Joint data Dm Corrected joint data Dsep Joint separation data G, Gn, GUn, GLn, Go, GUo, GLo Image PIU, PIL Phase contrast image BUo, BUn, BLo, BLn Epiphysis
Claims (7)
前記複数の物体及び前記間隙が映っている画像に相当する画像情報を取得する取得手段と、
前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離手段と、
前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、位相限定相関法を用いて検出する位置変化検出手段と、
各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記時系列に沿った前記間隙の長さの変化を検出する変化検出手段と、
を備えることを特徴とする間隙変化検出装置。 In a gap change detection device for detecting a change in gap length between a plurality of objects,
Acquisition means for acquiring image information corresponding to an image showing the plurality of objects and the gap;
Separating means for separating, based on the obtained image information, an end portion of each of the objects on the gap side in the image corresponding to the image information;
Position change detection means for detecting time-series position changes, which are changes along the same time series, of the positions of the separated ends using a phase-only correlation method;
change detection means for detecting a change in the length of the gap along the time series based on the time-series position change detected for each of the ends;
A gap change detection device comprising:
前記物体は関節を構成する骨であり、前記間隙は当該関節における前記骨間の間隙であり、
前記分離手段は、前記取得した画像情報に対してモルフォロジー変換処理を施す変換手段を備え、
当該分離手段は、前記変換手段による前記画像情報の変換結果に基づいて、前記関節が含まれる身体の部位を前記画像において検出し、当該検出された部位に基づいて前記端部を検出して分離することを特徴とする間隙変化検出装置。 The gap change detection device according to claim 1,
the object is a bone forming a joint, the gap is a gap between the bones in the joint,
The separating means comprises transforming means for performing morphological transformation processing on the acquired image information,
The separating means detects a body part including the joint in the image based on the conversion result of the image information by the converting means, and detects and separates the end based on the detected part. A gap change detection device characterized by:
前期分離手段は、機械学習法を用いた二値識別手段が線形に接続されてなる複合識別手段が複数直列に接続されてなる識別手段を更に備え、
当該分離手段は、前記検出された部位について前記識別手段による二値識別処理を施して前記画像における前記関節を検出し、当該検出された関節に基づいて前記端部を検出して分離することを特徴とする間隙変化検出装置。 In the gap change detection device according to claim 2,
The separation means further comprises identification means in which a plurality of composite identification means are connected in series, and a plurality of composite identification means are formed by linearly connecting binary identification means using a machine learning method,
The separating means performs binary identification processing by the identifying means on the detected parts to detect the joints in the image, and detects and separates the ends based on the detected joints. A gap change detection device characterized by:
前記位置変化検出手段は、前記時系列に対応した前記画像情報間における前記物体の位置ずれを、前記画像情報に相当する前記画像全体に対する位置限定相関法を用いて検出する位置ずれ検出手段を備え、
当該位置変化検出手段は、当該検出された位置ずれを除去しつつ前記時系列位置変化を検出することを特徴とする間隙変化検出装置。 In the gap change detection device according to any one of claims 1 to 3,
The positional change detection means includes positional deviation detection means for detecting a positional deviation of the object between the image information corresponding to the time series by using a position only correlation method for the entire image corresponding to the image information. ,
The gap change detection device, wherein the position change detection means detects the time-series position change while removing the detected position shift.
前記分離手段は、前記取得した画像情報に対してモルフォロジー変換処理を施す変換手段を備え、
当該分離手段は、前記変換手段による前記画像情報の変換結果に基づいて前記端部を前記画像においてそれぞれ分離することを特徴とする間隙変化検出装置。 In the gap change detection device according to any one of claims 1 to 4,
The separating means comprises transforming means for performing morphological transformation processing on the acquired image information,
The gap change detecting device, wherein the separation means separates the ends in the image based on the result of conversion of the image information by the conversion means.
前記複数の物体及び前記間隙が映っている画像に相当する画像情報を前記取得手段により取得する取得工程と、
前記分離手段により、前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離工程と、
前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、前記位置変化検出手段により位相限定相関法を用いて検出する位置変化検出工程と、
各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記変化検出手段により前記時系列に沿った前記間隙の長さの変化を検出する変化検出工程と、
を含むことを特徴とする間隙変化検出方法。 A gap change detection apparatus for detecting a change in gap length between a plurality of objects, the gap change detection apparatus comprising an acquisition means, a separation means, a position change detection means, and a change detection means. A gap detection method comprising:
an acquisition step of acquiring image information corresponding to an image showing the plurality of objects and the gap by the acquisition means;
a separating step of separating, by the separating means, an end portion of each of the objects on the gap side in the image corresponding to the acquired image information, based on the acquired image information;
a position change detection step of detecting a time-series position change, which is a change along the same time series, of the positions of the separated ends using a phase-only correlation method by the position change detection means;
a change detection step of detecting a change in the length of the gap along the time series by the change detection means based on the time-series position change detected for each of the ends;
A gap change detection method, comprising:
前記複数の物体及び前記間隙が映っている画像に相当する画像情報を取得する取得手段、
前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離手段、
前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、位相限定相関法を用いて検出する位置変化検出手段、及び、
各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記時系列に沿った前記間隙の長さの変化を検出する変化検出手段、
として機能させることを特徴とする間隙変化検出用プログラム。 a computer included in a gap change detection device for detecting a change in gap length between a plurality of objects;
Acquisition means for acquiring image information corresponding to an image showing the plurality of objects and the gap;
Separating means for separating, based on the obtained image information, an end portion of each of the objects on the gap side in the image corresponding to the image information, in the image;
position change detection means for detecting time-series position changes, which are changes along the same time series, of the positions of the separated ends using a phase-only correlation method; and
change detection means for detecting a change in the length of the gap along the time series based on the time-series position change detected for each of the ends;
A gap change detection program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019072574A JP7242041B2 (en) | 2019-04-05 | 2019-04-05 | Gap change detection device, gap change detection method, and gap change detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019072574A JP7242041B2 (en) | 2019-04-05 | 2019-04-05 | Gap change detection device, gap change detection method, and gap change detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020170429A JP2020170429A (en) | 2020-10-15 |
JP7242041B2 true JP7242041B2 (en) | 2023-03-20 |
Family
ID=72746794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019072574A Active JP7242041B2 (en) | 2019-04-05 | 2019-04-05 | Gap change detection device, gap change detection method, and gap change detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7242041B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009199270A (en) | 2008-02-20 | 2009-09-03 | Konica Minolta Holdings Inc | Analysis device |
JP2010253243A (en) | 2008-12-04 | 2010-11-11 | Fujifilm Corp | System for measuring joint fissure width, method and program for measuring joint fissure width |
JP2016144535A (en) | 2015-02-06 | 2016-08-12 | 国立大学法人名古屋大学 | Interosseous distance measuring device, interosseous distance measuring method, program for causing a computer to function as an interosseous distance measuring device, and a recording medium storing the program |
JP2016162096A (en) | 2015-02-27 | 2016-09-05 | セコム株式会社 | Moving object tracking device |
JP2017134634A (en) | 2016-01-28 | 2017-08-03 | 大日本印刷株式会社 | Data integration device, data integration method and program |
WO2017134634A1 (en) | 2016-02-05 | 2017-08-10 | The Eyelash Trainer Limited | An apparatus for practising the application of eyelash extensions |
JP2018161397A (en) | 2017-03-27 | 2018-10-18 | 国立大学法人 東京大学 | Diagnostic image processing apparatus, evaluation support method, and program |
-
2019
- 2019-04-05 JP JP2019072574A patent/JP7242041B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009199270A (en) | 2008-02-20 | 2009-09-03 | Konica Minolta Holdings Inc | Analysis device |
JP2010253243A (en) | 2008-12-04 | 2010-11-11 | Fujifilm Corp | System for measuring joint fissure width, method and program for measuring joint fissure width |
JP2016144535A (en) | 2015-02-06 | 2016-08-12 | 国立大学法人名古屋大学 | Interosseous distance measuring device, interosseous distance measuring method, program for causing a computer to function as an interosseous distance measuring device, and a recording medium storing the program |
JP2016162096A (en) | 2015-02-27 | 2016-09-05 | セコム株式会社 | Moving object tracking device |
JP2017134634A (en) | 2016-01-28 | 2017-08-03 | 大日本印刷株式会社 | Data integration device, data integration method and program |
WO2017134634A1 (en) | 2016-02-05 | 2017-08-10 | The Eyelash Trainer Limited | An apparatus for practising the application of eyelash extensions |
JP2018161397A (en) | 2017-03-27 | 2018-10-18 | 国立大学法人 東京大学 | Diagnostic image processing apparatus, evaluation support method, and program |
Non-Patent Citations (2)
Title |
---|
G. Langs et al.,"Automatic Quantification of Joint Space Narrowing and Erosions in Rheumatoid Arthritis",IEEE Transactions on Medical Imaging,米国,IEEE,2008年08月15日,Vol.28, No.1,pp.151-164 |
佐々木 慶文、外4名,"位相限定相関法に基づく高精度レジストレーション",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2002年04月11日,Vol.102, No.15,pp.49-54 |
Also Published As
Publication number | Publication date |
---|---|
JP2020170429A (en) | 2020-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Miri et al. | Retinal image analysis using curvelet transform and multistructure elements morphology by reconstruction | |
Thomas et al. | Artificial neural network for diagnosing autism spectrum disorder | |
US9569846B2 (en) | Ophthalmic reference image selection | |
US10176614B2 (en) | Image processing device, image processing method, and program | |
CN103593826B (en) | Image annular artifact correction method | |
CN107316047A (en) | Image processing apparatus, image processing method and storage medium | |
Haloi et al. | A Gaussian scale space approach for exudates detection, classification and severity prediction | |
JP2015190776A (en) | Image processing apparatus and imaging system | |
EP3338619B1 (en) | Image processing device, image processing method, and image processing program | |
JP7242041B2 (en) | Gap change detection device, gap change detection method, and gap change detection program | |
JP3913517B2 (en) | Defect detection method | |
Umamageswari et al. | A novel approach for classification of diabetics from retinal image using deep learning technique | |
US20210042885A1 (en) | Image processing device, image processing method, and image processing program | |
JP2018026018A (en) | Gait analyzer | |
Selvathi et al. | Detection of retinal blood vessels using curvelet transform | |
Medhi et al. | Automatic detection of fovea using property of vessel free region | |
JP5176372B2 (en) | Sputum Inspection Method, Sputum Inspection Apparatus, and Computer Program | |
WO2017030058A1 (en) | Image processing device, image processing method, and image processing program | |
JP2015528144A (en) | Image processing method and apparatus, and laser scanning type ophthalmoscope having image processing apparatus | |
Abang et al. | Application of blind deconvolution and Lucy-Richardson Deconvolution for image deblurring | |
TWI419057B (en) | Method and system for detecting blur fingerprint images | |
EP3338620A1 (en) | Image processing device, image processing method, and image processing program | |
JP2005265828A (en) | Flaw detection method and apparatus | |
Boudet et al. | Semi-automated image analysis of gel electrophoresis of cerebrospinal fluid for oligoclonal band detection | |
JP2001235319A (en) | Shading correction device, shading correction method, and surface inspection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220303 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230215 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7242041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |