[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7242041B2 - Gap change detection device, gap change detection method, and gap change detection program - Google Patents

Gap change detection device, gap change detection method, and gap change detection program Download PDF

Info

Publication number
JP7242041B2
JP7242041B2 JP2019072574A JP2019072574A JP7242041B2 JP 7242041 B2 JP7242041 B2 JP 7242041B2 JP 2019072574 A JP2019072574 A JP 2019072574A JP 2019072574 A JP2019072574 A JP 2019072574A JP 7242041 B2 JP7242041 B2 JP 7242041B2
Authority
JP
Japan
Prior art keywords
gap
change detection
image
change
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019072574A
Other languages
Japanese (ja)
Other versions
JP2020170429A (en
Inventor
将之 池辺
保 神島
亜非 欧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Original Assignee
Hokkaido University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC filed Critical Hokkaido University NUC
Priority to JP2019072574A priority Critical patent/JP7242041B2/en
Publication of JP2020170429A publication Critical patent/JP2020170429A/en
Application granted granted Critical
Publication of JP7242041B2 publication Critical patent/JP7242041B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、間隙変化検出装置、間隙変化検出方法及び間隙変化検出用プログラムの技術分野に属する。より詳細には、例えば人の関節を構成する複数の骨の端部間の間隙の長さの変化を検出する間隙変化検出装置及び間隙変化検出方法並びに当該間隙変化検出装置用のプログラムの技術分野に属する。 The present invention belongs to the technical field of gap change detection apparatus, gap change detection method, and gap change detection program. More specifically, for example, the technical field of a gap change detection device and a gap change detection method for detecting changes in the length of gaps between ends of a plurality of bones that constitute human joints, and a program for the gap change detection device belongs to

近年、関節リュウマチ治療のための薬の研究が進み、従来に比して有効な薬が開発・提供されている。これらの薬は、その薬価が高価であることも相まって、関節リュウマチの進行度に応じて適切に使い分けることが求められる。従って、関節リュウマチの進行度を的確に認識することは、極めて重要である。このとき、当該進行度の尺度の一つとしては、診断の対象となる関節における上記間隙の長さがある。例えば一般には、この長さが短くなるほど関節リュウマチの進行度が高いと診断されることがある。 In recent years, research on drugs for treating rheumatoid arthritis has progressed, and drugs that are more effective than conventional drugs have been developed and provided. These drugs are required to be properly used depending on the degree of progression of rheumatoid arthritis, coupled with their high drug prices. Therefore, it is extremely important to accurately recognize the progress of rheumatoid arthritis. At this time, one measure of the progress is the length of the gap in the joint to be diagnosed. For example, in general, the shorter the length, the more advanced rheumatoid arthritis may be diagnosed.

一方、上記間隙の長さの診断は、診断対象となる関節のX線画像を用いて行われる場合が多い。即ち、当該X線画像を観た医師により、最終的に当該間隙の長さが診断されることが多い。従って、当該X線画像は鮮明であることが求められる。そして、このような要求に対応した先行技術文献としては、例えば下記特許文献1が挙げられる。特許文献1に記載された技術では、少なくとも二種類以上の構成部材からなるシンチレータ部材をX線の入射側に備え、上記構成部材がX線の入反射方向に周期的に配置されてなり、構成部材の少なくとも1つ以上がX線を可視光に変換する蛍光体を含み、X線の入射側から順に、シンチレータ部材、光学部材、及び光検出器の順に配置される構成とされている。 On the other hand, the diagnosis of the length of the gap is often performed using an X-ray image of the joint to be diagnosed. That is, the length of the gap is often finally diagnosed by a doctor who has viewed the X-ray image. Therefore, the X-ray image is required to be clear. As a prior art document corresponding to such a request, for example, Patent Document 1 below can be cited. In the technique described in Patent Document 1, a scintillator member composed of at least two or more types of constituent members is provided on the X-ray incident side, and the constituent members are periodically arranged in the X-ray incident/reflected direction. At least one of the members contains a phosphor that converts X-rays into visible light, and the scintillator member, the optical member, and the photodetector are arranged in this order from the X-ray incident side.

特開2018-179795号公報JP 2018-179795 A

しかしながら一方で、例えば特許文献1記載の技術を用いてX線画像が鮮明に撮れたとしても、それを医師が目で観察して上記間隙の長さを診断する場合、当該間隙の長さの、その進行度による変化が判り難い関節リュウマチについては、(i)主観的になり易い、(ii)間隙の長さの微小な変化を見落とし易い、(iii)正確な診断のためには特別な訓練が必要となる、及び(iv)再現性が乏しい、といった問題点があることが従来から指摘されていた。 However, on the other hand, even if a clear X-ray image can be taken using the technique described in Patent Document 1, for example, when a doctor visually observes it and diagnoses the length of the gap, the length of the gap cannot be determined. However, for rheumatoid arthritis, where changes due to the degree of progression are difficult to discern, (i) it is easy to be subjective, (ii) it is easy to overlook minute changes in the length of the gap, and (iii) special measures are required for accurate diagnosis. Conventionally, it has been pointed out that there are problems such as the need for training and (iv) poor reproducibility.

そこで本発明は、上記の各問題点に鑑みて為されたもので、その課題の一例は、上記間隙の長さの変化を、診断対象となる関節を撮像した画像から、例えば医師の主観等を介在させることなく、的確且つ定量的に検出することが可能な間隙変化検出装置及び間隙変化検出方法並びに当該間隙変化検出装置用のプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and one example of the problem is to detect changes in the length of the gap from an image of the joint to be diagnosed, for example, subjectively by a doctor. It is an object of the present invention to provide a gap change detection device, a gap change detection method, and a program for the gap change detection device that can accurately and quantitatively detect the gap change without intervening.

上記の課題を解決するために、請求項1に記載の発明は、複数の物体間の間隙の長さの変化を検出する間隙変化検出装置において、前記複数の物体及び前記間隙が映っている画像に相当する画像情報を取得する指位置検出部等の取得手段と、前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離部等の分離手段と、前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、位相限定相関法を用いて検出する変化検出部等の位置変化検出手段と、各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記時系列に沿った前記間隙の長さの変化を検出する変化検出部等の変化検出手段と、を備える。 In order to solve the above problems, the invention according to claim 1 provides a gap change detection device for detecting a change in the length of a gap between a plurality of objects, wherein an image showing the plurality of objects and the gap is provided. and an acquisition means such as a finger position detection unit that acquires image information corresponding to the image information, based on the acquired image information, the edge of each of the objects in the image corresponding to the image information on the gap side is detected in the image A separation means such as a separation unit that separates in and a change detection unit that detects time-series position changes that are changes along the same time series of the positions of the separated ends using the phase-only correlation method. and change detection means such as a change detection unit for detecting a change in the length of the gap along the time series based on the time-series position changes detected for each of the ends. , provided.

上記の課題を解決するために、請求項6に記載の発明は、複数の物体間の間隙の長さの変化を検出する間隙変化検出装置であって、指位置検出部等の取得手段と、分離部等の分離手段と、変化検出部等の位置変化検出手段と、変化検出部等の変化検出手段と、を備える間隙変化検出装置において実行される間隙検出方法であって、前記複数の物体及び前記間隙が映っている画像に相当する画像情報を前記取得手段により取得する取得工程と、前記分離手段により、前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離工程と、前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、前記位置変化検出手段により位相限定相関法を用いて検出する位置変化検出工程と、各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記変化検出手段により前記時系列に沿った前記間隙の長さの変化を検出する変化検出工程と、を含む。 In order to solve the above-mentioned problems, the invention according to claim 6 is a gap change detection device for detecting a change in the length of gaps between a plurality of objects, comprising acquisition means such as a finger position detection unit, A gap detection method performed in a gap change detection device including separation means such as a separation section, position change detection means such as a change detection section, and change detection means such as a change detection section, wherein the plurality of objects and an acquiring step of acquiring image information corresponding to the image in which the gap is shown by the acquiring means, and each of the objects in the image corresponding to the image information by the separating means based on the acquired image information A separation step of separating the gap-side end of the image in the image, and a time-series positional change that is a change along the same time series of the position of each of the separated ends by the positional change detection means a positional change detection step of detecting using a phase-only correlation method; and determining the length of the gap along the time series by the change detecting means based on the time-series positional changes detected for each of the ends. and a change detection step of detecting a change.

上記の課題を解決するために、請求項7に記載の発明は、複数の物体間の間隙の長さの変化を検出する間隙変化検出装置に含まれるコンピュータを、前記複数の物体及び前記間隙が映っている画像に相当する画像情報を取得する取得手段、前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離手段、前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、位相限定相関法を用いて検出する位置変化検出手段、及び、各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記時系列に沿った前記間隙の長さの変化を検出する変化検出手段、として機能させる。 In order to solve the above-mentioned problems, the invention according to claim 7 provides a computer included in a gap change detection device for detecting a change in the length of a gap between a plurality of objects, wherein the plurality of objects and the gap are Acquisition means for acquiring image information corresponding to the displayed image, based on the acquired image information, separating ends of the objects on the gap side in the image corresponding to the image information in the image. Separating means, position change detecting means for detecting time-series positional changes, which are changes along the same time series, of the positions of the separated ends using a phase-only correlation method, and for each of the ends It functions as change detection means for detecting a change in the length of the gap along the time series based on the time-series positional changes detected respectively.

請求項1、請求項6又は請求項7のいずれか一項に記載の発明によれば、複数の物体及び間隙が映っている画像に相当する画像情報に基づいて各物体の間隙側の端部を分離し、当該端部それぞれについての時系列位置変化を位相限定相関法を用いて検出し、その検出結果に基づいて間隙の長さの変化を検出するので、上記間隙の長さの変化を、上記画像情報から、例えば医師の主観等を介在させることなく、的確且つ定量的に検出することができる。 According to the invention described in any one of claims 1, 6, and 7, based on the image information corresponding to the image in which the plurality of objects and the gap are shown, the end portion of each object on the side of the gap is detected. is separated, and the time-series positional change for each of the relevant ends is detected using the phase-only correlation method, and the change in the length of the gap is detected based on the detection result, so the change in the length of the gap is detected , can be accurately and quantitatively detected from the image information, for example, without intervention of doctor's subjectivity or the like.

上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の間隙変化検出装置において、前記物体は関節を構成する骨であり、前記間隙は当該関節における前記骨間の間隙であり、前記分離手段は、前記取得した画像情報に対してモルフォロジー変換処理を施す分離部等の変換手段を備え、当該分離手段は、前記変換手段による前記画像情報の変換結果に基づいて、前記関節が含まれる身体の部位を前記画像において検出し、当該検出された部位に基づいて前記端部を検出して分離するように構成される。 In order to solve the above-mentioned problems, the invention according to claim 2 is the gap change detection device according to claim 1, wherein the object is a bone forming a joint, and the gap is between the bones in the joint. The separation means includes conversion means such as a separation unit that performs morphological conversion processing on the acquired image information, and the separation means is based on the conversion result of the image information by the conversion means and detecting in the image a part of the body that includes the joint, and detecting and separating the end based on the detected part.

請求項2に記載の発明によれば、請求項1に記載の発明の作用に加えて、各物体が関節を構成する骨であり、間隙が当該関節における骨間の間隙であり、画像情報に対するモルフォロジー変換処理による変換結果に基づいて関節が含まれる身体の部位を検出し、当該検出された部位に基づいて骨の端部を検出して分離するので、より正確に当該端部を検出して分離することができる。 According to the invention of claim 2, in addition to the effects of the invention of claim 1, each object is a bone that constitutes a joint, the gap is a gap between bones in the joint, and image information is Based on the transformation result of the morphological transformation processing, body parts including joints are detected, and bone ends are detected and separated based on the detected parts, so that the ends can be detected more accurately. can be separated.

上記の課題を解決するために、請求項3に記載の発明は、請求項2に記載の間隙変化検出装置において、前期分離手段は、機械学習法を用いた二値識別器等の二値識別手段が線形に接続されてなる複合識別器等の複合識別手段が複数直列に接続されてなる指関節検出部等の識別手段を更に備え、当該分離手段は、前記検出された部位について前記識別手段による二値識別処理を施して前記画像における前記関節を検出し、当該検出された関節に基づいて前記端部を検出して分離するように構成される。 In order to solve the above problems, the invention according to claim 3 is the gap change detection device according to claim 2, wherein the separation means is a binary discriminator such as a binary discriminator using a machine learning method. It further comprises an identification means such as a finger joint detection unit in which a plurality of composite identification means such as a composite identification device in which means are linearly connected are connected in series, and the separation means separates the detected part from the identification means to detect the joints in the image, and to detect and separate the ends based on the detected joints.

請求項3に記載の発明によれば、請求項2に記載の発明の作用に加えて、検出された身体の部位について二値識別処理を施して関節を検出し、検出された関節に基づいて骨の端部を検出して分離するので、更に正確に当該端部を検出して分離することができる。 According to the third aspect of the invention, in addition to the effects of the second aspect of the invention, a joint is detected by subjecting the detected body part to binary identification processing, and based on the detected joint, Since the ends of the bone are detected and separated, the ends can be detected and separated more accurately.

上記の課題を解決するために、請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の間隙変化検出装置において、前記位置変化検出手段は、前記時系列に対応した前記画像情報間における前記物体の位置ずれを、前記画像情報に相当する前記画像全体に対する位置限定相関法を用いて検出する変化検出部等の位置ずれ検出手段を備え、当該位置変化検出手段は、当該検出された位置ずれを除去しつつ前記時系列位置変化を検出するように構成される。 In order to solve the above problems, the invention according to claim 4 is the gap change detection device according to any one of claims 1 to 3, wherein the position change detection means is arranged in the time series. positional deviation detection means such as a change detection unit for detecting a positional deviation of the object between the corresponding image information using a position-limited correlation method for the entire image corresponding to the image information; is configured to detect the chronological position change while removing the detected positional deviation.

請求項4に記載の発明によれば、請求項1から請求項3のいずれか一項に記載の発明の作用に加えて、時系列に対応した画像情報間における物体の位置ずれを、画像全体に対する位置限定相関法を用いて検出し、その検出された位置ずれを除去しつつ時系列位置変化を検出するので、より正確に時系列位置変化を検出することができる。 According to the invention of claim 4, in addition to the effect of the invention of any one of claims 1 to 3, positional deviation of an object between pieces of image information corresponding to time series can be detected in the entire image. is detected using the position-only correlation method for , and the time-series position change is detected while removing the detected position shift, so that the time-series position change can be detected more accurately.

上記の課題を解決するために、請求項5に記載の発明は、請求項1から請求項4のいずれか一項に記載の間隙変化検出装置において、前記分離手段は、前記取得した画像情報に対してモルフォロジー変換処理を施す分離部等の変換手段を備え、当該分離手段は、前記変換手段による前記画像情報の変換結果に基づいて前記端部を前記画像においてそれぞれ分離するように構成される。 In order to solve the above-mentioned problems, the invention according to claim 5 is the gap change detection device according to any one of claims 1 to 4, wherein the separating means is adapted to the acquired image information. Conversion means such as a separation unit for performing morphological conversion processing is provided, and the separation means is configured to separate the ends in the image based on the result of conversion of the image information by the conversion means.

請求項5に記載の発明によれば、請求項1から請求項4のいずれか一項に記載の発明の作用に加えて、取得した画像情報に対するモルフォロジー変換処理による変換結果に基づいて物体の端部を画像においてそれぞれ分離するので、より正確に当該端部を分離することができる。 According to the fifth aspect of the invention, in addition to the effect of the invention according to any one of the first to fourth aspects, the edge of the object is determined based on the transformation result of the morphological transformation processing of the acquired image information. Since the parts are each separated in the image, the edges can be separated more accurately.

本発明によれば、複数の物体及び間隙が映っている画像に相当する画像情報に基づいて各物体の間隙側の端部を分離し、当該端部それぞれについての時系列位置変化を位相限定相関法を用いて検出し、その検出結果に基づいて間隙の長さの変化を検出する。 According to the present invention, the edge of each object on the side of the gap is separated based on image information corresponding to an image in which a plurality of objects and gaps are shown, and the time-series position change of each of the edges is analyzed using phase-only correlation. method, and the change in gap length is detected based on the detection results.

従って、複数の物体間の間隙の長さの変化を、当該複数の物体及び間隙が映っている画像に相当する画像情報から、例えば医師の主観等を介在させることなく、的確且つ定量的に検出することができる。 Therefore, the change in the length of the gap between a plurality of objects can be accurately and quantitatively detected from the image information corresponding to the image showing the plurality of objects and the gap, for example, without intervening the subjectivity of the doctor. can do.

実施形態の間隙変化検出装置を含む間隙検査システムの概要構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a clearance inspection system including a clearance change detection device of an embodiment; FIG. 実施形態の間隙変化検出装置の概要構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a gap change detection device according to an embodiment; FIG. 実施形態の指位置検出処理を示す図であり、(a)は当該指位置検出処理の対象となる画像を例示する図であり、(b)は当該指位置検出処理の第1処理を示す図であり、(c)は当該指位置検出処理の第2処理を示す図であり、(d)は当該指位置検出処理の第3処理を示す図であり、(e)は当該指位置検出処理の第4処理を示す図であり、(f)は当該指位置検出処理の第5処理を示す図であり、(g)は当該指位置検出処理の第6処理を示す図であり、(h)は当該指位置検出処理の第7処理を示す図である。FIG. 4A is a diagram illustrating finger position detection processing of the embodiment, FIG. 4A is a diagram illustrating an image to be subjected to the finger position detection processing, and FIG. 4B is a diagram illustrating the first processing of the finger position detection processing; , (c) is a diagram showing the second processing of the finger position detection processing, (d) is a diagram showing the third processing of the finger position detection processing, and (e) is the finger position detection processing (f) is a diagram showing a fifth process of the finger position detection process; (g) is a diagram showing a sixth process of the finger position detection process; ) shows the seventh process of the finger position detection process. 実施形態の指関節検出処理等を示す図であり、(a)は実施形態の指関節検出部の細部構成を示すブロック図であり、(b)は当該指関節検出処理の第1処理を示す図であり、(c)は当該指関節検出処理の第2処理を示す図であり、(d)は当該指関節検出処理による検出結果を示す図である。FIG. 4A is a block diagram showing a detailed configuration of a finger joint detection unit of the embodiment, and FIG. 4B shows the first processing of the finger joint detection processing. It is a figure, (c) is a figure which shows the 2nd process of the said finger joint detection process, (d) is a figure which shows the detection result by the said finger joint detection process. 実施形態の位置修正処理を示す図であり、(a)は当該位置修正処理の第1処理を示す図であり、(b)は当該位置修正処理の対象となる位置ずれを例示する図であり、(c)は当該位置修正処理の第2処理を示す図である。FIG. 4A is a diagram showing a position correction process of the embodiment, FIG. 4A is a diagram showing a first process of the position correction process, and FIG. and (c) are diagrams showing the second processing of the position correction processing. 実施形態の位相限定相関法を説明する図である。It is a figure explaining the phase only correlation method of embodiment. 実施形態の関節分離処理における溝検出処理を示す図(I)である。It is a figure (I) which shows the groove|channel detection process in the joint separation process of embodiment. 実施形態の関節分離処理における溝検出処理を示す図(II)であり、(a)は当該溝検出処理の第1例を示す図であり、(b)は当該溝検出処理の第2例を示す図であり、(c)は当該溝検出処理の第3例を示す図であり、(d)は当該溝検出処理の第4例を示す図であり、(e)は当該溝検出処理の結果を例示する図である。FIG. 2(II) shows a groove detection process in the joint separation process of the embodiment, (a) shows a first example of the groove detection process, and (b) shows a second example of the groove detection process. FIG. 3C is a diagram showing a third example of the groove detection process, (d) is a diagram showing a fourth example of the groove detection process, and (e) is a diagram showing the groove detection process. FIG. 4 illustrates the results; 実施形態の関節分離処理における分離処理を示す図(I)であり、(a)は当該関節分離処理における画素の配置を例示する図であり、(b)は各画素における画素値を例示する図である。FIG. 1(I) shows separation processing in the joint separation processing of the embodiment, FIG. 1(a) is a diagram illustrating the arrangement of pixels in the joint separation processing, and FIG. 1(b) is a diagram illustrating the pixel value of each pixel; is. 実施形態の分離処理におけるモルフォロジー変換処理を例示する図(I)であり、(a)は当該モルフォロジー変換処理の第1処理を例示する図であり、(b)は当該モルフォロジー変換処理の第2処理を例示する図である。FIG. 11 is a diagram (I) illustrating morphological transformation processing in the separation processing of the embodiment, (a) is a diagram illustrating the first processing of the morphological transformation processing, and (b) is the second processing of the morphological transformation processing; It is a figure which illustrates. 実施形態の分離処理におけるモルフォロジー変換処理を例示する図(II)であり、(a)は当該モルフォロジー変換処理の第3処理を例示する図であり、(b)は当該モルフォロジー変換処理の第4処理を例示する図である。FIG. 2B is a diagram (II) illustrating the morphological transformation processing in the separation processing of the embodiment, (a) is a diagram illustrating the third processing of the morphological transformation processing, and (b) is the fourth processing of the morphological transformation processing; It is a figure which illustrates. 実施形態の分離処理におけるモルフォロジー変換処理を例示する図(III)であり、(a)は当該モルフォロジー変換処理の第5処理を例示する図であり、(b)は当該モルフォロジー変換処理の結果としての関節分離線を例示する図である。FIG. 3(III) illustrates morphological transformation processing in the separation processing of the embodiment, FIG. FIG. 4 is a diagram illustrating a joint separation line; 実施形態の関節分離処理における分離処理を示す図(II)であり、(a)は関節分離線が重畳されたX線画像を例示する図であり、(b)は当該関節分離線を用いた関節の分離を例示する図であり、(c)は当該関節分離処理の結果を例示する図である。FIG. 2(II) shows separation processing in the joint separation processing of the embodiment, (a) is a diagram illustrating an X-ray image on which a joint separation line is superimposed, and (b) is a diagram using the joint separation line. FIG. 10 is a diagram illustrating joint separation, and FIG. 10C is a diagram illustrating a result of the joint separation processing; 実施形態の間隙変化検出処理を例示する図である。It is a figure which illustrates the clearance change detection process of embodiment. 実施形態の間隙変化検出処理の結果を例示する図であり、(a)は実施形態の関節分離処理の結果を例示する図であり、(b)は間隙変化の結果を模式的に示す図である。FIG. 4A is a diagram illustrating the result of the gap change detection process of the embodiment, FIG. 4A is a diagram illustrating the result of the joint separation process of the embodiment, and FIG. be. 実施形態の間隙変化検出処理の結果の表示例を示す図である。FIG. 7 is a diagram showing a display example of a result of gap change detection processing according to the embodiment; 実施例の結果を示す図であり、(a)は当該結果の第1例を示す図であり、(b)は当該結果の第2例を示す図である。It is a figure which shows the result of an Example, (a) is a figure which shows the 1st example of the said result, (b) is a figure which shows the 2nd example of the said result.

次に、本発明を実施するための形態について、図1乃至図16に基づいて説明する。なお以下に説明する実施形態は、例えばレントゲン装置又はCT(Computed Tomography)装置等により撮像された人の手の画像から当該手の関節を構成する二つ以上の骨の端部間の間隙の長さの変化を検出する間隙変化検出装置に対して、本発明を適用した場合の実施の形態である。当該間隙変化検出装置は、時間的に離れて同じ関節を撮像して得られた複数の上記画像を比較/解析することにより、上記間隙の長さの変化を自動的且つ数値化された状態で検出する。なお以下の説明においては、上記レントゲン装置又はCT装置等により撮像された画像を、単に「画像」と称する。 Next, a mode for carrying out the present invention will be described with reference to FIGS. 1 to 16. FIG. In the embodiments described below, the length of the gap between the ends of two or more bones forming the joint of the hand is obtained from an image of a human hand taken by an X-ray device, a CT (Computed Tomography) device, or the like. This is an embodiment in which the present invention is applied to a gap change detection device that detects a change in height. The gap change detection device compares/analyzes a plurality of images obtained by imaging the same joint at different times, thereby automatically and quantifying changes in the length of the gap. To detect. In the following description, an image captured by the X-ray device, CT device, or the like is simply referred to as an "image."

また、図1は実施形態の間隙変化検出装置を含む間隙検査システムの概要構成を示すブロック図であり、図2は当該間隙変化検出装置の概要構成を示すブロック図であり、図3は実施形態の指位置検出処理を示す図であり、図4は実施形態の指関節検出処理等を示す図である。更に、図5は実施形態の位相限定相関法を説明する図であり、図6は実施形態の位置修正処理を示す図であり、図7及び図8は実施形態の関節分離処理における溝検出処理をそれぞれ示す図であり、図9は実施形態の関節分離処理における分離処理を示す図(I)である。更にまた、図10乃至図12は当該関節分離処理におけるモルフォロジー変換処理をそれぞれ例示する図であり、図13は実施形態の関節分離処理における分離処理を示す図(II)である。また、図14は実施形態の間隙変化検出処理を例示する図であり、図15は当該間隙変化検出処理の結果を例示する図であり、図16は当該結果の表示例を示す図である。 FIG. 1 is a block diagram showing a schematic configuration of a gap inspection system including the gap change detection device of the embodiment, FIG. 2 is a block diagram showing a schematic configuration of the gap change detection device, and FIG. 4A and 4B are diagrams showing finger position detection processing of the embodiment, and FIG. Further, FIG. 5 is a diagram for explaining the phase-only correlation method of the embodiment, FIG. 6 is a diagram showing position correction processing of the embodiment, and FIGS. 7 and 8 are groove detection processing in the joint separation processing of the embodiment. , respectively, and FIG. 9 is a diagram (I) showing separation processing in the joint separation processing of the embodiment. 10 to 12 are diagrams respectively illustrating morphological transformation processing in the joint separation processing, and FIG. 13 is a diagram (II) showing separation processing in the joint separation processing of the embodiment. 14 is a diagram illustrating the gap change detection process of the embodiment, FIG. 15 is a diagram illustrating the result of the gap change detection process, and FIG. 16 is a diagram illustrating a display example of the result.

(1)間隙検出システムの全体構成及び動作
初めに、実施形態の間隙検出システムの全体構成及び動作について、図1を用いて説明する。図1に示すように、実施形態の間隙変化検出装置Sを含む間隙検出システムSSは、当該間隙変化検出装置Sに加えて撮像装置SXを備えて構成されている。
(1) Overall configuration and operation of gap detection system
First, the overall configuration and operation of the gap detection system of the embodiment will be described with reference to FIG. As shown in FIG. 1, a gap detection system SS including the gap change detection device S of the embodiment is configured to include an imaging device SX in addition to the gap change detection device S. As shown in FIG.

この構成において、撮像装置SXは、例えばレントゲン装置又はCT装置からなり、間隙変化検出装置Sによる検出対象となった間隙を有する関節、又は当該関節を含む人の手を撮像し、当該関節又は手に相当する画像データDxを生成して間隙変化検出装置Sに出力する。これにより間隙変化検出装置Sは、当該画像データDxに基づいて上記間隙の長さの変化を自動的且つ数値化して検出し、検出結果データDoutとして出力する。ここで、間隙変化検出装置Sにおける上記間隙の長さの変化の検出に当たっては、いわゆる位相限定相関(POC(Phase-Only Correlation))法が用いられる。この位相限定相関法については、後ほど詳述する。そして上記検出結果データDoutに相当する検出結果は、例えば後述するように図示しないディスプレイ上に表示される。なお以下の説明において、上記位相限定相関法を単に「POC法」と称し、上記位相限定相関法を用いた処理を単に「POC処理」と称する。 In this configuration, the imaging device SX is composed of, for example, an X-ray device or a CT device, and images a joint having a gap to be detected by the gap change detection device S or a human hand including the joint. and outputs the image data Dx to the gap change detection device S. Accordingly, the gap change detection device S automatically and numerically detects the change in the length of the gap based on the image data Dx, and outputs it as detection result data Dout. Here, a so-called Phase-Only Correlation (POC) method is used to detect the change in the length of the gap in the gap change detection device S. This phase-only correlation method will be described in detail later. A detection result corresponding to the detection result data Dout is displayed, for example, on a display (not shown) as described later. In the following description, the phase-only correlation method is simply referred to as "POC method", and the processing using the phase-only correlation method is simply referred to as "POC processing".

次に、上記間隙変化検出装置Sの構成について、具体的に図2を用いて説明する。図2に示すように、実施形態の間隙変化検出装置Sは、指位置検出部1と、指関節検出部2と、位置修正部3と、分離部4と、変化検出部5と、により構成されている。このとき、指位置検出部1、指関節検出部2、位置修正部3、分離部4及び変化検出部5については、間隙変化検出装置Sを構成する例えばCPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等からなるハードウェアロジック回路により実現されていてもよいし、又は、後述する各処理に相当するプログラムを上記CPU等が読み出して実行することにより、ソフトウェア的に実現されるものであってもよい。また、上記指位置検出部1が本発明の「取得手段」の一例に相当し、指関節検出部2が本発明の「識別手段」の一例に相当し、分離部4が本発明の「分離手段」の一例及び「変換手段」の一例にそれぞれ相当し、変化検出部5が本発明の「位置変化検出手段」の一例、「変化検出手段」の一例及び「位置ずれ検出手段」の一例にそれぞれ相当する。 Next, the configuration of the gap change detection device S will be specifically described with reference to FIG. As shown in FIG. 2, the gap change detection device S of the embodiment includes a finger position detection unit 1, a finger joint detection unit 2, a position correction unit 3, a separation unit 4, and a change detection unit 5. It is At this time, the finger position detection unit 1, the finger joint detection unit 2, the position correction unit 3, the separation unit 4, and the change detection unit 5 constitute the gap change detection device S, for example, a CPU (Central Processing Unit), a ROM (Read (Only Memory) and RAM (Random Access Memory), etc., or a program corresponding to each process described later is read and executed by the CPU, etc., so that software It may be realized in Further, the finger position detection unit 1 corresponds to an example of the "acquisition means" of the present invention, the finger joint detection unit 2 corresponds to an example of the "identification means" of the present invention, and the separation unit 4 corresponds to the "separation means" of the present invention. The change detection unit 5 corresponds to an example of the "position change detection means", an example of the "change detection means", and an example of the "position deviation detection means" of the present invention. correspond respectively.

以上の構成において、指位置検出部1は初めに、撮像装置SXから出力された上記画像データDxを取得すると、当該画像データDxに相当する画像における指(即ち、上記間隙の変化の検出対象となっている関節を含む指)の位置を検出する実施形態の指位置検出処理を実行し、その結果を指位置データDfngとして指関節検出部2に出力する。このとき指位置検出部1は、上記時間的に離れて同じ関節を撮像して得られた複数の画像に相当する複数の画像データDxのそれぞれについて、指位置データDfngを出力する。なお、上記指位置検出処理については、後ほど図3を用いて詳説する。 In the above configuration, when the finger position detection unit 1 first acquires the image data Dx output from the imaging device SX, the finger in the image corresponding to the image data Dx (that is, the detection target of the change in the gap) is detected. The finger position detection processing of the embodiment for detecting the position of the finger (including the joint that is formed) is executed, and the result is output to the finger joint detection unit 2 as finger position data Dfng. At this time, the finger position detection unit 1 outputs finger position data Dfng for each of the plurality of image data Dx corresponding to the plurality of images obtained by imaging the same joint separated in time. Note that the finger position detection processing will be described later in detail with reference to FIG.

これにより指関節検出部2は、指位置検出部1からの上記各指位置データDfngに基づき、当該各指位置データDfngによりその位置が示されている指に含まれている関節をそれぞれ検出する実施形態の指関節検出処理を実行し、その結果を関節データDjntとして位置修正部3にそれぞれ出力する。なお、上記指関節検出処理については、後ほど図4を用いて詳説する。 As a result, the finger joint detection unit 2 detects the joints included in the fingers whose positions are indicated by the finger position data Dfng, based on the finger position data Dfng from the finger position detection unit 1. The finger joint detection processing of the embodiment is executed, and the result is output to the position corrector 3 as joint data Djnt. The finger joint detection process will be described later in detail with reference to FIG.

次に位置修正部3は、指関節検出部2からの上記各関節データDjntに基づき、当該各関節データDjntに相当する関節のそれぞれについて、例えば時間的に離れること(即ち時系列に沿って取得されたこと)に起因する位置ずれがあった場合、上記POC法を用いて当該位置ずれを相互に修正する実施形態の位置修正処理を実行し、その結果を修正関節データDmとして分離部4にそれぞれ出力する。なお、上記位置修正処理については、後ほど図5及び図6を用いて詳説する。 Next, based on the joint data Djnt from the finger joint detection unit 2, the position correction unit 3 moves the joints corresponding to the joint data Djnt apart in time (i.e., acquires them in time series). If there is a positional deviation due to the above-mentioned POC method, the positional correction processing of the embodiment is executed to mutually correct the positional deviation using the POC method, and the result is sent to the separation unit 4 as corrected joint data Dm. Output each. The above position correction processing will be explained in detail later with reference to FIGS. 5 and 6. FIG.

そして分離部4は、位置修正部3からの上記各修正関節データDmに基づき、当該各修正関節データDmに相当する画像から、当該画像に映っている関節を構成する例えば二つの骨の端部にそれぞれ相当する画像を分離する実施形態の関節分離処理を実行し、その結果を関節分離データDsepとして変化検出部5に出力する。この分離部4の機能により、当該関節が映った一の画像から、当該関節を構成する各端部のみをそれぞれ含む二つの画像が分離されることとなる。なお、上記関節分離処理については、後ほど図7乃至図13を用いて詳説する。 Then, based on the corrected joint data Dm from the position correcting unit 3, the separation unit 4 extracts, from the image corresponding to the corrected joint data Dm, end portions of, for example, two bones forming the joint shown in the image. , and outputs the result to the change detection unit 5 as joint separation data Dsep. By the function of the separation unit 4, two images each including only each end portion constituting the joint are separated from one image showing the joint. The joint separation processing will be described later in detail with reference to FIGS. 7 to 13. FIG.

最後に変化検出部5は、分離部4からの上記各関節分離データDsepに基づき、当該各関節分離データDsepに相当する画像に映っている上記各端部間の距離の変化(即ち、上記間隙の長さの変化)を、上記POC法を用いて検出する実施形態の間隙変化検出処理を実行し、その結果を上記検出結果データDoutとして例えば上記図示しないディスプレイに出力する。なお、上記間隙変化検出処理については、後ほど図14乃至図16を用いて詳説する。 Finally, based on the joint separation data Dsep from the separation unit 4, the change detection unit 5 detects a change in the distance between the ends (i.e., the gap ) is detected using the POC method, and the result is output as the detection result data Dout to, for example, the display (not shown). The clearance change detection process will be described in detail later with reference to FIGS. 14 to 16. FIG.

(2)上記指位置検出処理について
次に、指位置検出部1により実行される上記指位置検出処理について、図2及び図3を用いて説明する。
(2) Finger position detection processing
Next, the finger position detection processing executed by the finger position detection section 1 will be described with reference to FIGS. 2 and 3. FIG.

図3に例示するように、例えば右手をレントゲン装置で撮像して得られた画像G(図3(a)参照)に相当する画像データDxが取得されると、初めに指位置検出部1は、上記指位置検出処理の第1処理として、例えばいわゆる大津の二値化処理を当該画像データDxに対して施し、図3(b)に例示される二値化画像を生成する。次に指位置検出部1は、上記指位置検出処理の第2処理として、当該二値化画像に対してモルフォロジー変換における膨張処理及び収縮処理を施し、雑音を除去した二値化画像を生成する(図3(c)参照)。その後、指位置検出部1は、上記指位置検出処理の第3処理として、雑音が除去された二値化画像に対して従来と同様のエッジ検出処理及び輪郭近似処理を施し、各指及び手首等を形取った輪郭Rを検出する(図3(d)参照)。次に指位置検出部1は、上記指位置検出処理の第4処理として、当該輪郭近似処理等が施された二値化画像に対して、従来と同様の端部検出処理(即ち、部分的な最大値及び最小値を検出する処理)を施し、各指の先端(図3(e)において白○で示す)と指の間の部分(図3(e)において白□で示す)とをそれぞれ検出する。次に指位置検出部1は、上記指位置検出処理の第5処理として、図3(e)に例示する各先端及び各指の間の位置に基づき、各指の画像をそれぞれ切り出し、当該切り出した各指の中心線を設定する(図3(f)参照)。そして指位置検出部1は、上記指位置検出処理の第6処理として、設定された中心線に基づいて指の開く角度を検出する処理を各指について施し(図3(g)参照)、更に上記指位置検出処理の第7処理として、最終的に指の部分の画像のみを各指について図3(h)に例示するように切り出す。その後、指位置検出部1は、各切り出された指の画像(図3(h)参照)を、上記指位置データDfngとして指関節検出部2に出力する。なお、本発明の発明者等による実験では、250画素×300画素の画像Gを用いた上記指位置検出処理に要する時間は、約0.05秒であった。 As illustrated in FIG. 3, when image data Dx corresponding to an image G (see FIG. 3A) obtained by imaging the right hand with an X-ray device, for example, is acquired, the finger position detection unit 1 first detects As the first process of the finger position detection process, for example, so-called Otsu's binarization process is applied to the image data Dx to generate a binarized image illustrated in FIG. 3(b). Next, as the second processing of the finger position detection processing, the finger position detection unit 1 performs expansion processing and contraction processing in morphological transformation on the binarized image to generate a binarized image from which noise has been removed. (See FIG. 3(c)). After that, as the third process of the finger position detection process, the finger position detection unit 1 performs the same edge detection process and contour approximation process as in the conventional art on the binarized image from which the noise has been removed, and detects each finger and wrist. etc. is detected (see FIG. 3(d)). Next, as the fourth processing of the finger position detection processing, the finger position detection unit 1 performs edge detection processing (that is, partial Processing to detect the maximum and minimum values) is performed, and the tips of each finger (indicated by white circles in FIG. 3(e)) and the portions between the fingers (indicated by white squares in FIG. 3(e)) detect each. Next, as the fifth process of the finger position detection process, the finger position detection unit 1 cuts out an image of each finger based on the positions between the tips and the fingers illustrated in FIG. Then, set the center line of each finger (see FIG. 3(f)). As the sixth process of the finger position detection process, the finger position detection unit 1 performs the process of detecting the opening angle of each finger based on the set center line (see FIG. 3G), and further As the seventh process of the finger position detection process, only the image of the finger portion is finally cut out for each finger as shown in FIG. 3(h). After that, the finger position detection unit 1 outputs each clipped finger image (see FIG. 3(h)) to the finger joint detection unit 2 as the finger position data Dfng. In an experiment conducted by the inventors of the present invention, the time required for the finger position detection process using the image G of 250 pixels×300 pixels was about 0.05 seconds.

(3)上記指関節検出処理について
次に、指関節検出部2により実行される上記指関節検出処理について、図2及び図4を用いて説明する。実施形態の指関節検出処理は、上記指位置データDfngにより示されている指の位置を含む画像に対して、従来のHaar-like特徴量を用いた特徴量検出処理を施すことで、当該指の中から関節を検出する指関節検出処理である。このとき、上記Haar-like特徴量を用いた特徴量検出処理とは、画像の一部を切り出して得られた当該画像の部分における局所的な明暗差を当該部分の特徴量とし、その特徴量を部分ごとに組み合わせることで当該画像全体としての特徴を捉える特徴量検出処理である。
(3) Finger joint detection process
Next, the finger joint detection process executed by the finger joint detection unit 2 will be described with reference to FIGS. 2 and 4. FIG. In the finger joint detection processing of the embodiment, an image including the position of the finger indicated by the finger position data Dfng is subjected to feature amount detection processing using a conventional Haar-like feature amount. This is finger joint detection processing for detecting a joint from among. At this time, the feature amount detection processing using the Haar-like feature amount is defined as a feature amount of a local contrast difference in a portion of the image obtained by cutting out a part of the image, and the feature amount are combined for each part to capture the characteristics of the image as a whole.

即ち、実施形態の指関節検出部2は、図4(a)に示すように、n個(nは予め設定された接続数)の複合識別器MI1乃至複合識別器MInが直列に接続されて構成されている。そして、複合識別器MI1乃至複合識別器MInの各々は、上記Haar-like特徴量を用いた二値の特徴量検出処理をそれぞれに行う二値識別器がT個(Tは予め設定された最適結合数)線形に接続されて構成されている。この構成において、上記二値識別器が本発明の「二値識別手段」の一例に相当し、複合識別器MI1乃至複合識別器MInの各々が本発明の「複合識別手段」の一例にそれぞれ相当する。 That is, in the finger joint detection unit 2 of the embodiment, as shown in FIG. 4A, n composite discriminators MI1 to MIn are connected in series (n is the number of connections set in advance). It is configured. Each of the composite classifiers MI1 to MIn includes T binary classifiers (T is a preset optimum number of bonds) are connected linearly. In this configuration, the binary discriminator corresponds to an example of the "binary discriminating means" of the present invention, and each of the composite discriminators MI1 to MIn corresponds to an example of the "composite discriminating means" of the present invention. do.

このとき、当該二値識別器のそれぞれは、例えば骨の端部同士で形成される関節の画像に対応して、「白」(関節を構成する一方の骨の端部に相当)-「黒」(上記間隙に相当)-「白」(関節を構成する他方の骨の端部に相当)なるフィルタを用いた下記式(1)に示されるHaar-like特徴量hの検出を行う。そしてこの結果、複合識別器MI1乃至複合識別器MInの各々は、下記式(2)に示されるHaar-like特徴量Hの検出を行うことになる。

Figure 0007242041000001
Figure 0007242041000002
At this time, each of the binary discriminators, for example, corresponds to the image of the joint formed by the ends of the bones, "white" (corresponding to the end of one of the bones forming the joint) - "black ” (corresponding to the above gap)−“white” (corresponding to the end of the other bone forming the joint) is used to detect the Haar-like feature quantity h represented by the following equation (1). As a result, each of the composite classifiers MI1 to MIn detects the Haar-like feature quantity H shown in the following equation (2).
Figure 0007242041000001
Figure 0007242041000002

より具体的には、図4(a)に示すように、上記指位置データDfngが入力された指関節検出部2の復号識別器MI1は、上記二値の特徴量検出処理により当該指位置データDfngに相当する画像(図4(b)参照)から関節と認識される部分をそれぞれ検出し、その結果を次段の複合識別器MI2に出力する。これ以降、複合識別器MI2乃至複合識別器MInは、順次複合識別器MI1と同様の二値の特徴量検出処理をそれぞれ施す。この結果、図4(c)及び図4(d)に白□で例示するように、上記フィルタに対応した各関節が元の画像Gから検出される。上記各関節の検出結果は、上記関節データDjntとして位置修正部3に出力される。なお、本発明の発明者等による実験では、2,280画素×2,860画素の画像G(図4(d)参照)を用いた上記指関節検出処理に要する時間は、約0.4秒であった。 More specifically, as shown in FIG. 4(a), the decoding discriminator MI1 of the finger joint detection unit 2 to which the finger position data Dfng is input, detects the finger position data by the binary feature quantity detection process. Each portion recognized as a joint is detected from the image corresponding to Dfng (see FIG. 4(b)), and the result is output to the composite discriminator MI2 at the next stage. Thereafter, the composite classifiers MI2 to MIn successively perform binary feature amount detection processing similar to that of the composite classifier MI1. As a result, each joint corresponding to the filter is detected from the original image G, as illustrated by white squares in FIGS. 4(c) and 4(d). The detection result of each joint is output to the position corrector 3 as the joint data Djnt. According to an experiment conducted by the inventors of the present invention, the time required for the finger joint detection process using an image G of 2,280 pixels×2,860 pixels (see FIG. 4(d)) was about 0.4 seconds. Met.

(4)上記位置修正処理について
次に、位置修正部3により実行される上記位置修正処理について、図2並びに図5及び図6を用いて説明する。実施形態の位置修正処理は、指関節検出部2からの上記各関節データDjntに基づき、当該各関節データDjntに相当する関節のそれぞれにおける上記位置ずれを、上記POC法を用いて相互に修正する位置修正処理である。より具体的に、実施形態の位置修正処理には、局所中央値を用いるいわゆるメディアンフィルタ(Median Filter)を用いて、上記関節データDjntに相当する画像Gにおける高周波成分を除去する第1処理と、上記POC法を用いて位置ずれを修正する第2処理と、がある。このとき、上記高周波成分は、関節データDjntに相当する関節を構成する骨の骨脈に対応した高周波成分であり、実施形態の間隙の長さの変化の検出には不要なものである。
(4) Position correction processing
Next, the position correcting process executed by the position correcting section 3 will be described with reference to FIGS. 2, 5 and 6. FIG. In the position correction processing of the embodiment, based on the joint data Djnt from the finger joint detection unit 2, the positional deviations of the joints corresponding to the joint data Djnt are mutually corrected using the POC method. position correction processing. More specifically, the position correction processing of the embodiment includes first processing for removing high-frequency components in the image G corresponding to the joint data Djnt using a so-called median filter using a local median value, and a second process of correcting misregistration using the POC method. At this time, the high-frequency component is a high-frequency component corresponding to the veins of the bones forming the joint corresponding to the joint data Djnt, and is unnecessary for detecting the change in the length of the gap in the embodiment.

より具体的に、実施形態の位置修正処理の第1処理として、位置修正部3は、関節データDjntに相当する画像G(図5(a)左に一例を示す)に対して上記Median Filterを適用する処理を施し、図5(b)右に例示するように上記骨脈に相当する高周波成分を除去する。 More specifically, as the first process of the position correction process of the embodiment, the position correction unit 3 applies the Median Filter to the image G (an example is shown on the left side of FIG. 5A) corresponding to the joint data Djnt. Applying processing is performed to remove high frequency components corresponding to the bone veins as illustrated on the right side of FIG. 5(b).

次に位置修正部3は、実施形態の位置修正処理の第2処理として、時系列に沿って取得されたことに起因する位置ずれが、例えば図5(b)に例示するように関節データDjntに相当する画像Gに含まれている場合、上記高周波成分が除去された画像の全体について、上記POC法を用いて当該位置ずれを相互に修正する。 Next, as second processing of the position correction processing of the embodiment, the position correction unit 3 corrects the positional deviation caused by the acquisition along the time series to the joint data Djnt as illustrated in FIG. 5B, for example. is included in the image G corresponding to , the positional deviation is mutually corrected using the POC method for the entire image from which the high frequency component has been removed.

ここで、実施形態のPOC法は、上記位置修正処理だけでなく、後述する変化検出部5による実施形態の間隙変化検出処理でも用いられる。よって次に、当該POC法について図6を用いて一般的に説明する。 Here, the POC method of the embodiment is used not only in the position correction process, but also in the gap change detection process of the embodiment by the change detection unit 5, which will be described later. Therefore, the POC method will be generally described below with reference to FIG.

即ち、例えば直近に撮像された画像Gに相当する画像データDxを画像データf(x,y)と表し、それより過去に撮像された画像Gに相当する画像データDxを画像データg(x,y)と表すとすると、上記POC処理では、図5に示すように、これらに対していわゆる離散フーリエ変換(Discrete Fourier Transform(以下、「DFT」と称する))処理を初めにそれぞれ施して、波数(k)空間の信号に変換する。このとき当該変換の結果は、下記式(3)のように表される。

Figure 0007242041000003
That is, for example, the image data Dx corresponding to the image G captured most recently is represented as image data f(x, y), and the image data Dx corresponding to the image G captured in the past is represented as image data g(x, y), in the POC process, as shown in FIG. (k) Transform into a spatial signal. At this time, the result of the conversion is represented by the following formula (3).
Figure 0007242041000003

上記POC処理では次に、図5に示すように、式(3)における関数F(k,k)及び関数G(k,k)をその振幅で除することによりそれぞれ正規化し、更にその一方を共役とすることで、いわゆる要素積(Hadamard Product又はElement-Wise Product)を求める。この要素積は、下記式(4)のように表される。

Figure 0007242041000004
In the above POC process, next, as shown in FIG. 5, the function F(k x , ky ) and the function G(k x , ky ) in equation (3) are normalized by dividing by their amplitudes, respectively, Further, by conjugated one of them, a so-called element product (Hadamard Product or Element-Wise Product) is obtained. This element product is represented by the following formula (4).
Figure 0007242041000004

この式(4)において、「θ(k,k)」は複素関数F(k,k)の位相角であり、「θ(k,k)」は複素関数G(k,k)の位相角である。そして上記POC処理では最後に、上記式(4)により求められた要素積に対して、図5に示すように、いわゆる逆離散フーリエ変換(Inverse Discrete Fourier Transform(以下、「IDFT」と称する)処理を施し、当該POC処理の結果として出力する。この結果は、下記式(5)に示すものとなる。

Figure 0007242041000005
In this equation (4), “θ F (k x , ky )” is the phase angle of the complex function F (k x , ky ), and “θ G (k x , ky )” is the complex function G is the phase angle of (k x , ky ). Finally, in the POC process, as shown in FIG. 5, a so-called Inverse Discrete Fourier Transform (hereinafter referred to as "IDFT") process is performed on the element product obtained by the above equation (4). and output as the result of the POC processing, which is given by the following equation (5).
Figure 0007242041000005

ここで、上記画像データf(x,y)に相当する画像と、上記画像データg(x,y)に相当する画像と、の関係を、その位置ずれ量d(水平方向の位置ずれであるか、垂直方向の位置ずれであるか、或いは斜め方向の位置ずれであるか、を問わない)を用いて表すとすると、以下の式(6)のようになる。

Figure 0007242041000006
Here, the relationship between the image corresponding to the image data f(x, y) and the image corresponding to the image data g(x, y) is defined as the displacement amount d (horizontal displacement). It does not matter whether it is a positional shift in the vertical direction, or in the oblique direction), the following equation (6) is obtained.
Figure 0007242041000006

そして、式(6)の両辺に対してDFT処理(図5参照)を施した結果は、以下の式(7)となる。

Figure 0007242041000007
Then, the result of performing the DFT processing (see FIG. 5) on both sides of the equation (6) is the following equation (7).
Figure 0007242041000007

従って、式(7)に対して上記式(4)と同様の正規化処理を施し、更にその要素積を求めると(それぞれ図5参照)、その結果は、上記式(4)に対応して、以下の式(8)に示すものとなる。

Figure 0007242041000008
Therefore, when formula (7) is normalized in the same way as formula (4) above, and the element product thereof is obtained (see FIG. 5), the result corresponds to formula (4) above. , as shown in the following equation (8).
Figure 0007242041000008

そして、上記式(8)の両辺に対してIDFT処理(図5参照)を施した結果は、以下の式(9)となる。

Figure 0007242041000009
Then, the result of performing the IDFT processing (see FIG. 5) on both sides of the above equation (8) is the following equation (9).
Figure 0007242041000009

この式(9)から判るように、上記画像データf(x,y)に相当する画像と、上記画像データg(x,y)に相当する画像と、の間に位置ずれdがある場合(図5(b)参照)、その位置ずれdに対応して、式(9)で示されるデルタ(δ)関数としてのピークが現れることになる。 As can be seen from the equation (9), when there is a positional deviation d between the image corresponding to the image data f(x, y) and the image corresponding to the image data g(x, y) ( (see FIG. 5B), a peak appears as a delta (.delta.) function represented by the equation (9) corresponding to the positional deviation d.

そして位置修正部3は、位置修正処理の第2処理として、図5(c)に例示するように上記デルタ関数のピークの位置に対応する位置ずれdを相互に修正する。その後位置修正部3は、当該修正の結果を修正関節データDmとして分離部4にそれぞれ出力する。 Then, as the second process of the position correction process, the position correction unit 3 mutually corrects the positional deviations d corresponding to the positions of the peaks of the delta functions as illustrated in FIG. 5(c). After that, the position correction unit 3 outputs the result of the correction to the separation unit 4 as corrected joint data Dm.

(5)上記関節分離処理について
次に、分離部4により実行される上記関節分離処理について、図2並びに図7乃至図13を用いて説明する。実施形態の関節分離処理には、位置修正部3からの上記各修正関節データDm(即ち、時系列に沿って取得された各画像Gに相当する各修正関節データDm)に基づき、当該各修正関節データDmに相当する関節のそれぞれにおける上記間隙を溝(Gully)として検出する溝検出処理と、当該検出された間隙の画像に対してモルフォロジー変換処理を施すことにより上記間隙を挟んで相対している各骨端を分離する分離処理と、がある。
(5) About the joint separation process
Next, the joint separation processing executed by the separation section 4 will be described with reference to FIGS. 2 and 7 to 13. FIG. In the joint separation processing of the embodiment, based on each corrected joint data Dm (that is, each corrected joint data Dm corresponding to each image G obtained along the time series) from the position correction unit 3, each corrected Groove detection processing for detecting the gap in each joint corresponding to the joint data Dm as a groove (Gully), and morphological conversion processing for the image of the detected gap are performed so that the gap is opposite to each other across the gap. and a separation process for separating each epiphysis.

初めに、上記関節分離処理における溝検出処理について、図7及び図8を用いて説明する。当該溝検出処理として分離部4は、先ず、図7左に例示する画像Gに映っている関節部分に対して図7中縦方向に直線を一本設定し、図7に例示するフィルタA1及びフィルタB1をその直線に沿って移動させつつ、当該フィルタA1及びフィルタB1を画像Gの各画素値(例えば、画像Gを構成する各画素の輝度値)に適用する処理を、当該直線の位置を図7中横方向に移動させつつ繰り返して行う。 First, groove detection processing in the joint separation processing will be described with reference to FIGS. 7 and 8. FIG. As the groove detection process, the separation unit 4 first sets a straight line in the vertical direction in FIG. The process of applying the filter A1 and the filter B1 to each pixel value of the image G (for example, the luminance value of each pixel constituting the image G) while moving the filter B1 along the straight line is performed by moving the position of the straight line. This is repeated while moving laterally in FIG.

このときフィルタA1は、縦二画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「1」、「2」、「1」、「-1」、「-2」及び「-1」となっている。一方フィルタB1は、縦二画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「-1」、「-2」、「-1」、「1」、「2」及び「1」となっている。そして、フィルタA1の位置とフィルタB1の位置とは、図7に例示するように画素横一行分だけ移動方向にずらされている。従って、フィルタA1及びフィルタB1を、相互の位置関係を図7に例示する状態に維持しながら図7中縦方向に移動させつつ、画像Gの各画素値に適用する(即ち、当該画素値とフィルタ係数とを乗算する)と、その結果は、図7右において符号A1及び符号B1で示す波形図(横軸は移動の位置を示し、縦軸は適用の結果の値を示す。以下、同様。)のように変化する。その後分離部4は、符号A1で示す波形図の変化と、符号B1で示す波形の変化と、を比較し、同じ位置においてより小さい方を選択する関数F(m,n)(m及びnは画素の位置を示す。以下、同様。)を算出する。この結果、当該関数F(m,n)に対応する溝画像P1が得られる。これにより分離部4は、上記溝画像P1に相当する画像データを、図示しないROM等に記録する。 At this time, the filter A1 has a size corresponding to two pixels vertically by three pixels horizontally, and the filter coefficients corresponding to each pixel are "1", "2 , “1”, “-1”, “-2” and “-1”. On the other hand, the filter B1 has a size corresponding to two pixels vertically by three pixels horizontally, and the filter coefficients corresponding to each pixel are "-1", "- 2", "-1", "1", "2" and "1". The position of the filter A1 and the position of the filter B1 are shifted in the movement direction by one horizontal row of pixels as illustrated in FIG. Therefore, the filters A1 and B1 are applied to each pixel value of the image G while maintaining the positional relationship shown in FIG. The filter coefficient is multiplied), and the result is a waveform diagram indicated by symbols A1 and B1 on the right side of FIG. ). After that, the separation unit 4 compares the change in the waveform diagram indicated by symbol A1 with the change in the waveform indicated by symbol B1, and selects the smaller one at the same position as a function F 1 (m, n) (m and n indicates the position of the pixel.The same applies hereinafter.) is calculated. As a result, a groove image P1 corresponding to the function F 1 (m, n) is obtained. As a result, the separation unit 4 records image data corresponding to the groove image P1 in a ROM (not shown) or the like.

次に、上記溝検出処理として分離部4は、図7に例示するフィルタA2及びフィルタB2を上記直線に沿って移動させつつ、当該フィルタA2及びフィルタB2を画像Gの各画素値に適用する処理を、当該直線の位置を図7中横方向に移動させつつ繰り返して行う。 Next, as the groove detection process, the separating unit 4 moves the filter A2 and the filter B2 illustrated in FIG. is repeated while moving the position of the straight line in the horizontal direction in FIG.

このときフィルタA2は、縦四画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「1」、「2」、「1」、「1」、「2」、「1」、「-1」、「-2」、「-1」、「-1」、「-2」及び「-1」となっている。一方フィルタB2は、縦四画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「-1」、「-2」、「-1」、「-1」、「-2」、「-1」、「1」、「2」、「1」、「1」、「2」及び「1」となっている。そして、フィルタA2の位置とフィルタB2の位置とは、図7に例示するように画素横二行分だけ移動方向にずらされている。従って、フィルタA2及びフィルタB2を、相互の位置関係を図7に例示する状態に維持しながら図7中縦方向に移動させつつ、画像Gの各画素値に適用すると、その結果は、図7右において符号A2及び符号B2で示す波形図のように変化する。その後分離部4は、符号A2で示す波形図の変化と、符号B2で示す波形の変化と、を比較し、同じ位置においてより小さい方を選択する関数F(m,n)を算出する。この結果、当該関数F(m,n)に対応する溝画像P2が得られる。これにより分離部4は、上記溝画像P2に相当する画像データを、図示しないROM等に記録する。このとき、溝画像P2は、上記溝画像P1をよりぼかした状態の溝画像(即ち不要な雑音が除去された溝画像。以下、同様。)となり、上記間隙に相当する溝が画像上鮮明となりつつある。 At this time, the filter A2 has a size corresponding to four pixels vertically by three pixels horizontally, and the filter coefficients corresponding to each pixel are "1", "2 , "1", "1", "2", "1", "-1", "-2", "-1", "-1", "-2" and "-1". there is On the other hand, the filter B2 has a size corresponding to four pixels vertically by three pixels horizontally, and the filter coefficients corresponding to each pixel are "-1", "- 2”, “-1”, “-1”, “-2”, “-1”, “1”, “2”, “1”, “1”, “2” and “1” . The position of the filter A2 and the position of the filter B2 are shifted in the moving direction by two horizontal rows of pixels as illustrated in FIG. Therefore, when the filter A2 and the filter B2 are applied to each pixel value of the image G while maintaining the mutual positional relationship shown in FIG. 7 and moving in the vertical direction in FIG. On the right, the waveform changes as indicated by symbols A2 and B2. After that, the separation unit 4 compares the change in the waveform diagram indicated by symbol A2 with the change in the waveform indicated by symbol B2, and calculates a function F 2 (m, n) that selects the smaller one at the same position. As a result, a groove image P2 corresponding to the function F 2 (m,n) is obtained. As a result, the separation unit 4 records image data corresponding to the groove image P2 in a ROM (not shown) or the like. At this time, the groove image P2 becomes a groove image in which the groove image P1 is more blurred (i.e., a groove image from which unnecessary noise has been removed; the same shall apply hereinafter), and the groove corresponding to the gap becomes clear on the image. It's getting

更に、上記溝検出処理として分離部4は、図7に例示するフィルタA3及びフィルタB3を上記直線に沿って移動させつつ、当該フィルタA3及びフィルタB3を画像Gの各画素値に適用する処理を、当該直線の位置を図7中横方向に移動させつつ繰り返して行う。 Further, as the groove detection process, the separating unit 4 performs a process of applying the filter A3 and the filter B3 to each pixel value of the image G while moving the filter A3 and the filter B3 illustrated in FIG. 7 along the straight line. , while moving the position of the straight line in the horizontal direction in FIG.

このときフィルタA3は、縦六画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「1」、「2」、「1」、「1」、「2」、「1」、「1」、「2」、「1」、「-1」、「-2」、「-1」、「-1」、「-2」、「-1」、「-1」、「-2」及び「-1」となっている。一方フィルタB3は、縦六画素×横三画素に相当する大きさを有し、各画素に対応するフィルタ係数は、図7に例示するように、左上から右下にかけて「-1」、「-2」、「-1」、「-1」、「-2」、「-1」、「-1」、「-2」、「-1」、「1」、「2」、「1」、「1」、「2」、「1」、「1」、「2」及び「1」となっている。そして、フィルタA3の位置とフィルタB3の位置とは、図7に例示するように画素横三行分だけ移動方向にずらされている。従って、フィルタA3及びフィルタB3を、相互の位置関係を図7に例示する状態に維持しながら図7中縦方向に移動させつつ、画像Gの各画素値に適用すると、その結果として、上記フィルタA1及び上記フィルタB1又は上記フィルタA2及び上記フィルタB2の場合と同様に、対応する関数F(m,n)に対応する溝画像P3が得られる。これにより分離部4は、上記溝画像P3に相当する画像データを、図示しないROM等に記録する。このとき、溝画像P3は、上記溝画像P2を更にぼかした状態の溝画像となり、上記間隙に相当する溝が画像上より鮮明となりつつある。 At this time, the filter A3 has a size corresponding to 6 pixels vertically by 3 pixels horizontally, and the filter coefficients corresponding to each pixel are, as shown in FIG. ', '1', '1', '2', '1', '1', '2', '1', '-1', '-2', '-1', '-1', "-2", "-1", "-1", "-2" and "-1". On the other hand, the filter B3 has a size corresponding to 6 pixels vertically by 3 pixels horizontally, and the filter coefficient corresponding to each pixel is "-1", "- 2", "-1", "-1", "-2", "-1", "-1", "-2", "-1", "1", "2", "1", "1", "2", "1", "1", "2" and "1". The position of the filter A3 and the position of the filter B3 are shifted in the movement direction by three horizontal rows of pixels as illustrated in FIG. Therefore, when the filter A3 and the filter B3 are applied to each pixel value of the image G while maintaining the positional relationship shown in FIG. 7 and moving them in the vertical direction in FIG. As with A1 and said filter B1 or said filter A2 and said filter B2, a groove image P3 corresponding to the corresponding function F 3 (m,n) is obtained. As a result, the separation unit 4 records image data corresponding to the groove image P3 in a ROM (not shown) or the like. At this time, the groove image P3 becomes a groove image in which the groove image P2 is further blurred, and the groove corresponding to the gap is becoming clearer on the image.

これ以降分離部4は、上記フィルタA1及び上記フィルタB1等を用いた場合と同様の溝検出処理を、例えば図7に例示する縦十画素×横三画素に相当する大きさ及びフィルタ係数のフィルタA5及びフィルタB5を用いた処理まで繰返し、最終的に得られた溝画像P1乃至溝画像P5を重ね合わせることで、間隙に相当する溝部分が鮮明に表れた溝画像Pallを生成する。そして図8に例示するように、上記各溝検出処理により、フィルタA1及びフィルタB1等を変えつつそれぞれ得られた溝画像P1(図8(a)及び図7参照)、溝画像P5(図8(b)及び図7参照)、溝画像P7(図8(c)参照。各フィルタは縦十四画素×横三画素に相当する大きさ。)及び溝画像P9(図8(d)参照。各フィルタは縦十八画素×横三画素に相当する大きさ。)を重ね合わせると、当該溝が鮮明に表された溝画像Pall(図8(e)参照)が得られる。図8(e)に例示する溝画像Pallでは、関節を構成する骨端EGと、それに対応して形成されている間隙(溝)GPと、が鮮明に表されている。 After that, the separation unit 4 performs the same groove detection processing as in the case of using the filter A1 and the filter B1, etc., for example, by applying a filter having a size and a filter coefficient corresponding to 10 pixels vertically by 3 pixels horizontally as illustrated in FIG. By repeating the process up to the process using A5 and filter B5 and superimposing the finally obtained groove images P1 to P5, a groove image Pall in which the groove portions corresponding to the gaps clearly appear is generated. 8, groove image P1 (see FIGS. 8A and 7) and groove image P5 (see FIG. (b) and FIG. 7), a groove image P7 (see FIG. 8(c). Each filter has a size corresponding to 14 vertical pixels×3 horizontal pixels), and a groove image P9 (see FIG. 8(d). Each filter has a size corresponding to 18 vertical pixels.times.3 horizontal pixels.) is superimposed to obtain a groove image Pall (see FIG. 8(e)) in which the grooves are clearly represented. In the groove image Pall exemplified in FIG. 8(e), the epiphysis EG constituting the joint and the correspondingly formed gap (groove) GP are clearly represented.

次に、上記関節分離処理における分離処理について、図9乃至図13を用いて説明する。当該分離処理として分離部4は、先ず、上記溝検出処理により検出された溝(間隙)を示す溝画像Pallに対して、例えば図9(a)に例示するような横十行×縦十列の画像PXを設定する。ここで、設定された各画素PXにおける画素値が、例えば図9(b)に例示する各値であったとする。これにより分離部4は、モルフォロジー変換処理を用いた分離処理の第1処理として、先ず、左から一列目の最上部二画素分を含み且つ縦三画素分の大きさを有する枠W(図10(a)において破線で示す)を当該左から一列目に設定し、その枠W内に含まれることとなる画素PXの画素値の最大値(図10(a)に例示する場合は「2」)が当該枠Wの中央の画素値となるように変換する、上記モルフォロジー変換処理における膨張処理を実行する(図10(a)において破線矢印で示す)。次に分離部4は、枠Wを一画素分だけ図10中下方にずらし(図10(a)において一点鎖線で示す)、ずらした枠W内に含まれることとなる画素PXの画素値の最大値(図10(a)に例示する場合は「6」)が当該枠Wの中央の画素値となるように変換する膨張処理を実行する(図10(a)において一点鎖線矢印で示す)。更に分離部4は、枠Wを更に一画素分だけ図10中下方にずらし(図10(a)において点線で示す)、ずらした枠W内に含まれることとなる画素PXの画素値の最大値(図10(a)に例示する場合は「6」)が当該枠Wの中央の画素値となるように変換する膨張処理を実行する(図10(a)において点線矢印で示す)。以降分離部4は、上記と同様の膨張処理を、上記左から一列目の全ての画素PXについて、枠Wを一画素分ずつ順に下方にずらしながら行う。この結果、当該左から一列目の各画素PXの画素値は、図10(a)右に斜体字で例示するものとなる。 Next, separation processing in the joint separation processing will be described with reference to FIGS. 9 to 13. FIG. As the separation process, the separation unit 4 first performs the groove image Pall indicating the grooves (gap) detected by the groove detection process as shown in FIG. Set the image PX of Here, it is assumed that the pixel values of the set pixels PX are the values illustrated in FIG. 9B, for example. As a result, the separation unit 4 performs the first separation process using the morphological transformation process. First, a frame W (Fig. 10 10A) is set in the first column from the left, and the maximum value of the pixel values of the pixels PX to be included in the frame W ("2" in the example shown in FIG. 10A) ) becomes the pixel value at the center of the frame W, the dilation processing in the morphology conversion processing is executed (indicated by the dashed arrow in FIG. 10A). Next, the separation unit 4 shifts the frame W downward by one pixel in FIG. Perform dilation processing so that the maximum value (“6” in the example shown in FIG. 10A) becomes the pixel value in the center of the frame W (indicated by the dashed-dotted line arrow in FIG. 10A) . Further, the separation unit 4 further shifts the frame W downward by one pixel in FIG. A value (“6” in the example shown in FIG. 10(a)) is converted to a pixel value in the center of the frame W (indicated by a dotted arrow in FIG. 10(a)). After that, the separation unit 4 performs the same dilation processing as described above while sequentially shifting the frame W downward by one pixel for all the pixels PX in the first row from the left. As a result, the pixel values of the pixels PX in the first column from the left are illustrated in italics on the right side of FIG. 10(a).

次に分離部4は、モルフォロジー変換処理を用いた分離処理の第2処理として、図10(b)左に示すように、膨張処理後の左から一列目の画素PXの画素値を、左から二列目の対応する画素PXの画素値に加算する。この結果、左から二列目の画素PXの画素値は、図10(b)に例示する画素値となる。これにより、膨張処理後の左から一列目の画素値を左から二列目の画素値に反映(拡散)させることになる。 Next, as the second process of the separation process using the morphological transformation process, the separation unit 4 converts the pixel values of the pixels PX in the first column from the left after the dilation process to It is added to the pixel value of the corresponding pixel PX in the second column. As a result, the pixel values of the pixels PX in the second column from the left are the pixel values illustrated in FIG. 10(b). As a result, the pixel values in the first column from the left after expansion processing are reflected (diffused) in the pixel values in the second column from the left.

次に分離部4は、モルフォロジー変換処理を用いた分離処理の第3処理として、現在の左から二列目の最上部二画素分を含み且つ縦三画素分の大きさを有する上記枠W(図11(a)において破線で示す)を当該左から二列目に改めて設定し、その枠W内に含まれることとなる画素PXの画素値の最大値(図11(a)に例示する場合は「7」)が当該枠Wの中央の画素値となるように変換する上記膨張処理を実行する(図11(a)において破線矢印で示す)。次に分離部4は、枠Wを一画素分だけ図11中下方にずらし(図11(a)において一点鎖線で示す)、ずらした枠W内に含まれることとなる画素PXの画素値の最大値(図11(a)に例示する場合は「12」)が当該枠Wの中央の画素値となるように変換する膨張処理を実行する(図11(a)において一点鎖線矢印で示す)。更に分離部4は、枠Wを更に一画素分だけ図11中下方にずらし(図11(a)において点線で示す)、ずらした枠W内に含まれることとなる画素PXの画素値の最大値(図11(a)に例示する場合は「12」)が当該枠Wの中央の画素値となるように変換する膨張処理を実行する(図11(a)において点線矢印で示す)。以降分離部4は、上記と同様の膨張処理を、上記左から二列目の全ての画素PXについて、枠Wを一画素分ずつ順に下方にずらしながら行う、この結果、当該左から二列目の各画素PXの画素値は、図11(a)右に斜体字で例示するものとなる。なお、図11(a)に例示する場合において、先に膨張処理が施された左から一列目の画素PXの画素値は、当該膨張処理が施される前の画素値(図9(b)又は図10(a)左参照)に戻されていることに注意を要する。 Next, the separation unit 4 performs the third process of the separation process using the morphological transformation process. The frame W ( 11(a)) is set again in the second column from the left, and the maximum value of the pixel values of the pixels PX to be included in the frame W (in the case illustrated in FIG. 11(a) ("7") is converted to the pixel value at the center of the frame W (indicated by the dashed arrow in FIG. 11(a)). Next, the separation unit 4 shifts the frame W downward by one pixel in FIG. Perform dilation processing so that the maximum value (“12” in the example shown in FIG. 11A) becomes the pixel value at the center of the frame W (indicated by the dashed-dotted line arrow in FIG. 11A) . Further, the separation unit 4 further shifts the frame W downward by one pixel in FIG. A value (“12” in the example shown in FIG. 11(a)) is converted to a pixel value in the center of the frame W (indicated by a dotted arrow in FIG. 11(a)). Thereafter, the separation unit 4 performs the same dilation processing as described above on all the pixels PX in the second column from the left while sequentially shifting the frame W by one pixel downward. The pixel value of each pixel PX of is illustrated in italics on the right side of FIG. 11(a). In the case of FIG. 11A, the pixel value of the pixel PX in the first column from the left that has undergone the dilation process is the pixel value before the dilation process (FIG. 9B). 10(a) left)).

次に分離部4は、モルフォロジー変換処理を用いた分離処理の第4処理として、図11(b)左に示すように、膨張処理後の左から二列目の画素PXの画素値を、左から三列目の対応する画素PXの画素値に加算する。この結果、左から三列目の画素PXの画素値は、図11(b)右に例示する画素値となる。これにより、膨張処理後の左から二列目の画素値を左から三列目の画素値に反映(拡散)させることになる。なお、図11(b)に例示する状態となった後、左から二列目の画素PXの画素値は、モルフォロジー変換処理を用いた分離処理の第5処理として、図12(a)に例示するように、当該膨張処理が施される直線の画素値(図10(b)右又は図11(a)左参照)に戻されていることに注意を要する。 Next, as the fourth processing of the separation processing using the morphological transformation processing, the separation unit 4 converts the pixel values of the pixels PX in the second column from the left after the dilation processing to the left to the pixel value of the corresponding pixel PX in the third column. As a result, the pixel values of the pixels PX in the third column from the left become the pixel values illustrated on the right side of FIG. 11(b). As a result, the pixel values in the second column from the left after dilation processing are reflected (diffused) in the pixel values in the third column from the left. After the state illustrated in FIG. 11B, the pixel value of the pixel PX in the second column from the left is illustrated in FIG. Note that the pixel values of the straight line to which the dilation processing is applied (see the right side of FIG. 10(b) or the left side of FIG. 11(a)) are restored as shown in FIG.

これ以降、分離部4は、列ごとに上記膨張処理と右隣の対応する画素値への加算処理とを繰り返す。この結果、各画素PXの画素値は、最終的には図12(b)に例示する画素値となる。その後分離部4は、右から一列目の画素PXのうち最も画素値が高い画素PXeを起点として、右から左に向けて、左隣に隣接する列の縦三画素のうち最大の画素値を有する画素PX(図12(b)ハッチング参照)を辿ることで(図12(b)黒矢印参照)、分離処理の結果としての関節分離線SEPを設定する。 Thereafter, the separation unit 4 repeats the expansion processing and the addition processing to the corresponding pixel value on the right for each column. As a result, the pixel value of each pixel PX finally becomes the pixel value illustrated in FIG. 12(b). After that, the separation unit 4 selects the pixel PXe, which has the highest pixel value among the pixels PX in the first column from the right, as a starting point, and from right to left, extracts the largest pixel value among the vertical three pixels in the column adjacent to the left. By tracing the pixels PX (see hatching in FIG. 12B) (see black arrows in FIG. 12B), a joint separation line SEP is set as a result of the separation processing.

以上の溝検出処理及び分離処理を含む実施形態の関節分離処理により、図13(a)に例示する画像Gに対して関節分離線SEPが設定されると、次に分離部4は、図13(b)に例示するように、関節分離線SEPを境に画像Gを分割し、分割した画像Gに対して図13(b)に例示する空白部の調整(黒塗り)処理を施し、最終的に、一方の骨端のみを含む画像GUと、他の骨端のみを含む画像GLと、を生成する(図13(c)参照)。その後、分離部4は、上記生成された画像GU及び画像GLに相当する関節分離データDsepを、実施形態の関節分離処理の結果として変化検出部5に出力する。 When the joint separation line SEP is set for the image G illustrated in FIG. As illustrated in FIG. 13B, the image G is divided along the joint separation line SEP. Specifically, an image GU containing only one epiphysis and an image GL containing only the other epiphysis are generated (see FIG. 13(c)). After that, the separation unit 4 outputs joint separation data Dsep corresponding to the generated image GU and image GL to the change detection unit 5 as a result of the joint separation processing of the embodiment.

(6)上記間隙変化検出処理について
最後に、変化検出部5により実行される上記間隙変化検出処理について、図14乃至図16を用いて説明する。実施形態の間隙変化検出処理は、分離部4からの上記各関節分離データDsep(即ち、時系列に沿って取得された各画像Gに相当する各関節分離データDsep)に基づき、当該各関節分離データDsepに相当する画像に映っている上記各端部間の距離の変化(即ち、上記間隙の長さの変化)を、上記POC法を用いて検出する間隙変化検出処理である。
(6) About the gap change detection process
Finally, the gap change detection process executed by the change detection unit 5 will be described with reference to FIGS. 14 to 16. FIG. The gap change detection process of the embodiment is based on the joint separation data Dsep from the separation unit 4 (that is, each joint separation data Dsep corresponding to each image G acquired along the time series). This is gap change detection processing for detecting, using the POC method, changes in the distances between the ends (that is, changes in the length of the gaps) shown in the image corresponding to the data Dsep.

即ち図14に例示するように、直近に撮像された関節の画像Gnから関節について分離(分割)された画像GUn及び画像GLnが関節分離データDsepとして取得されており、一方で過去に撮像された関節の画像Goから関節について分離(分割)された画像GUo及び画像GLoが関節分離データDsepとして取得されている場合(図14実線参照)、先ず変化検出部5は、画像GUn及び画像GUoを対象としたPOC処理により、画像GUnに映っている骨端の位置と画像GUoに映っている骨端の位置とのずれを示す位相差画像PIU(デルタ関数の画像(上記式(9)参照。以下、同様。))を生成する(図14破線参照)。これと並行して変化検出部5は、画像GLn及び画像GLoを対象としたPOC処理により、画像GLnに映っている骨端の位置と画像GLoに映っている骨端の位置とのずれを示す位相差画像PIL(デルタ関数の画像)を生成する(図14破線参照)。 That is, as exemplified in FIG. 14, an image GUn and an image GLn separated (divided) for the joint from the recently captured joint image Gn are obtained as the joint separation data Dsep, while previously captured images When the image GUo and the image GLo obtained by separating (dividing) the joint from the image Go of the joint are obtained as the joint separation data Dsep (see the solid line in FIG. 14), the change detection unit 5 first detects the image GUn and the image GUo A phase-contrast image PIU (delta function image (see formula (9) above), which indicates the deviation between the position of the epiphysis shown in the image GUn and the position of the epiphysis shown in the image GUo, is obtained by the POC processing described below. , and so on)) (see dashed line in FIG. 14). In parallel with this, the change detection unit 5 performs POC processing on the image GLn and the image GLo to indicate the deviation between the position of the epiphysis shown in the image GLn and the position of the epiphysis shown in the image GLo. A phase difference image PIL (image of delta function) is generated (see dashed line in FIG. 14).

そして変化検出部5は、位相差画像PIUにおけるピーク位置に基づいて、画像GUnに映っている骨端の位置と画像GUoに映っている骨端の位置との上記ずれを、例えば「画像中右方向に1.793画素分、下方向に1.243画素分」のように算出する。また同様に、変化検出部5は、位相差画像PILにおけるピーク位置に基づいて、画像GLnに映っている骨端の位置と画像GLoに映っている骨端の位置との上記ずれを、例えば「画像中右方向に0.634画素分、上方向に0.020画素分」のように算出する。これにより変化検出部5は、図14に例示する状態に対応して図15(a)に例示する画像GUn及び画像GUo並びに画像GLn及び画像GLoに基づいて検出された一方の骨端BUoから骨端BUnへのずれ(図15(b)中右下向き矢印で示す)と、他方の骨端BLoから骨端BLnへのずれ(図15(b)中右上向き矢印で示す)と、に基づき、最終的な上記間隙の長さの変化として、例えば「1.26画素分の減少」といったように上記検出結果データDoutを生成する。そしてこの検出結果データDoutに相当する検出結果は、例えば図16に例示するように、図示しないディスプレイDに表示される。この場合、例えば、「The Result of Detected」として上記指関節検出処理により検出された関節の位置が示された画像Gが表示され、「Line Chart」として上記間隙変化検出処理により検出された間隙の長さが撮像日別に示され、更に「Knuckles」として各関節の画像Gが撮像日別に示されるのが好ましい。 Then, based on the peak position in the phase contrast image PIU, the change detection unit 5 detects the deviation between the position of the epiphysis appearing in the image GUn and the position of the epiphysis appearing in the image GUo. 1.793 pixels in the direction and 1.243 pixels in the downward direction". Similarly, based on the peak position in the phase difference image PIL, the change detection unit 5 detects the deviation between the position of the epiphysis shown in the image GLn and the position of the epiphysis shown in the image GLo, for example, " 0.634 pixels to the right in the image and 0.020 pixels to the top. As a result, the change detection unit 5 detects a bone from one epiphysis BUo detected based on the image GUn and the image GUo illustrated in FIG. 15A and the images GLn and GLo illustrated in FIG. Based on the deviation to the end BUn (indicated by the lower right arrow in FIG. 15(b)) and the deviation from the other epiphysis BLo to the epiphysis BLn (indicated by the upper right arrow in FIG. 15(b)), As the final change in the length of the gap, the detection result data Dout is generated, for example, "decrease by 1.26 pixels". A detection result corresponding to the detection result data Dout is displayed on a display D (not shown) as shown in FIG. 16, for example. In this case, for example, an image G showing the positions of the joints detected by the finger joint detection process is displayed as "The Result of Detected", and the gap detected by the gap change detection process is displayed as "Line Chart". It is preferable that the length is indicated by imaging date, and the image G of each joint is indicated as "Knuckles" by imaging date.

次に、実施形態に対応する実施例について、図17を用い説明する。なお図17は、当該実施例の結果をそれぞれ示す図である。 Next, an example corresponding to the embodiment will be described with reference to FIG. 17 . In addition, FIG. 17 is a figure which shows the result of the said Example, respectively.

即ち実施例として、本発明の発明者は、実施形態の間隙変化検出装置Sにより検出された上記間隙の長さについて、その直線性を実験により確認した。即ち、異なるスケールについて図17(a)及び図17(b)に示すように、直線近似されたデータと、実施形態の間隙変化検出装置Sにより検出された上記間隙の長さのデータについて比較したところ、当該間隙変化検出装置Sにより検出された上記間隙の長さのデータについて良好な線形性があることが判った。このことから、実施形態の間隙変化検出装置Sにより検出された上記間隙の長さについては、その精度が高いことが理解できる。 That is, as an example, the inventor of the present invention experimentally confirmed the linearity of the length of the gap detected by the gap change detection device S of the embodiment. That is, as shown in FIGS. 17(a) and 17(b) for different scales, the linearly approximated data and the gap length data detected by the gap change detection device S of the embodiment were compared. By the way, it was found that the data of the gap length detected by the gap change detector S had good linearity. From this, it can be understood that the accuracy of the length of the gap detected by the gap change detection device S of the embodiment is high.

以上それぞれ説明したように、実施形態に係る間隙変化検出装置Sの動作によれば、複数の骨端及びそれらの間隙が映っている画像Gに相当する画像データDxに基づいて各骨端を分離し(図7乃至図13参照)、当該骨端それぞれについての時系列の位置変化をPOC法を用いて検出し、その検出結果に基づいて間隙の長さの変化を検出するので、当該間隙の長さの変化を、画像データDxから、例えば医師の主観等を介在させることなく、的確且つ定量的に検出することができる。 As described above, according to the operation of the gap change detection device S according to the embodiment, each epiphysis is separated based on the image data Dx corresponding to the image G showing the plurality of epiphyses and their gaps. (see FIGS. 7 to 13), time-series positional changes for each epiphysis are detected using the POC method, and changes in the gap length are detected based on the detection results. The change in length can be accurately and quantitatively detected from the image data Dx, for example, without subjective intervention by a doctor.

また、画像データDxに対するモルフォロジー変換処理による変換結果に基づいて指を検出し(図3参照)、当該検出された指の位置に基づいて骨端を検出して分離するので、より正確に当該骨端を検出して分離することができる。 Further, the finger is detected based on the transformation result of the morphological transformation processing for the image data Dx (see FIG. 3), and the epiphysis is detected and separated based on the position of the detected finger. Edges can be detected and separated.

更に、検出された指について二値識別処理を施して関節を検出し(図4参照)、検出された関節に基づいて骨端を検出して分離するので、更に正確に当該骨端を検出して分離することができる。 Further, the detected finger is subjected to binary identification processing to detect the joint (see FIG. 4), and the epiphysis is detected and separated based on the detected joint, so the epiphysis can be detected more accurately. can be separated by

更にまた、時系列に対応した画像データDx間における位置ずれを、画像Gの全体に対するPOC法を用いて検出し、その検出された位置ずれを除去しつつ時系列の位置変化を検出するので(図5参照)、より正確に当該位置変化を検出することができる。 Furthermore, the positional deviation between the image data Dx corresponding to the time series is detected using the POC method for the entire image G, and the positional change in the time series is detected while removing the detected positional deviation ( 5), the change in position can be detected more accurately.

また、取得した画像データDxに対するモルフォロジー変換処理による変換結果に基づいて骨端を画像Gにおいてそれぞれ分離するので(図9乃至図12参照)、より正確に当該骨端を分離することができる。 Moreover, since the epiphysis is separated from the image G based on the transformation result of the morphological transformation processing for the acquired image data Dx (see FIGS. 9 to 12), the epiphysis can be separated more accurately.

なお上述した実施形態及び実施例では、関節における骨端の間隙の長さの変化を検出対象としたが、これ以外に、画像Gとして撮像し得る物体の間にある間隙の長さの変化の検出に対して、本発明を広く適用することができる。 In the above-described embodiments and examples, the change in the length of the gap between the epiphyses at the joint was used as the object of detection. The present invention can be widely applied to detection.

また、上記指位置検出処理、上記指関節検出処理、上記位置修正処理、上記関節分離処理及び上記間隙変化検出処理のそれぞれに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これを汎用のマイクロコンピュータ等に読み出して実行することにより、当該マイクロコンピュータ等を実施形態に係る間隙変化検出装置Sとして機能させることも可能である。 Further, a program corresponding to each of the finger position detection process, the finger joint detection process, the position correction process, the joint separation process, and the gap change detection process is recorded in a recording medium such as an optical disk or a hard disk, Alternatively, it is possible to obtain the data via a network such as the Internet, read the data to a general-purpose microcomputer or the like, and execute the data, so that the microcomputer or the like functions as the gap change detection device S according to the embodiment. .

以上それぞれ説明したように、本発明は間隙変化検出装置の分野に利用することが可能であり、特に関節リュウマチに関する診断を行う場合における関節内の骨端の間隙の長さの変化を検出する間隙変化検出装置の分野に適用すれば、特に顕著な効果が得られる。 INDUSTRIAL APPLICABILITY As described above, the present invention can be used in the field of gap change detectors, and in particular, the present invention can be used to detect changes in the length of epiphyseal gaps in joints when diagnosing rheumatoid arthritis. If applied to the field of change detection devices, a particularly remarkable effect can be obtained.

1 指位置検出部
2 指関節検出部
3 位置修正部
4 分離部
5 変化検出部
S 間隙変化検出装置
SS 間隙検出システム
SX 撮像装置
EG 骨端
GP 間隙(溝)
SEP 関節分離線
Dx 画像データ
Dout 検出結果データ
Dfng 指位置データ
Djnt 関節データ
Dm 修正関節データ
Dsep 関節分離データ
G、Gn、GUn、GLn、Go、GUo、GLo 画像
PIU、PIL 位相差画像
BUo、BUn、BLo、BLn 骨端
1 finger position detection unit 2 finger joint detection unit 3 position correction unit 4 separation unit 5 change detection unit S gap change detection device SS gap detection system SX imaging device EG epiphysis GP gap (groove)
SEP Joint separation line Dx Image data Dout Detection result data Dfng Finger position data Djnt Joint data Dm Corrected joint data Dsep Joint separation data G, Gn, GUn, GLn, Go, GUo, GLo Image PIU, PIL Phase contrast image BUo, BUn, BLo, BLn Epiphysis

Claims (7)

複数の物体間の間隙の長さの変化を検出する間隙変化検出装置において、
前記複数の物体及び前記間隙が映っている画像に相当する画像情報を取得する取得手段と、
前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離手段と、
前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、位相限定相関法を用いて検出する位置変化検出手段と、
各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記時系列に沿った前記間隙の長さの変化を検出する変化検出手段と、
を備えることを特徴とする間隙変化検出装置。
In a gap change detection device for detecting a change in gap length between a plurality of objects,
Acquisition means for acquiring image information corresponding to an image showing the plurality of objects and the gap;
Separating means for separating, based on the obtained image information, an end portion of each of the objects on the gap side in the image corresponding to the image information;
Position change detection means for detecting time-series position changes, which are changes along the same time series, of the positions of the separated ends using a phase-only correlation method;
change detection means for detecting a change in the length of the gap along the time series based on the time-series position change detected for each of the ends;
A gap change detection device comprising:
請求項1に記載の間隙変化検出装置において、
前記物体は関節を構成する骨であり、前記間隙は当該関節における前記骨間の間隙であり、
前記分離手段は、前記取得した画像情報に対してモルフォロジー変換処理を施す変換手段を備え、
当該分離手段は、前記変換手段による前記画像情報の変換結果に基づいて、前記関節が含まれる身体の部位を前記画像において検出し、当該検出された部位に基づいて前記端部を検出して分離することを特徴とする間隙変化検出装置。
The gap change detection device according to claim 1,
the object is a bone forming a joint, the gap is a gap between the bones in the joint,
The separating means comprises transforming means for performing morphological transformation processing on the acquired image information,
The separating means detects a body part including the joint in the image based on the conversion result of the image information by the converting means, and detects and separates the end based on the detected part. A gap change detection device characterized by:
請求項2に記載の間隙変化検出装置において、
前期分離手段は、機械学習法を用いた二値識別手段が線形に接続されてなる複合識別手段が複数直列に接続されてなる識別手段を更に備え、
当該分離手段は、前記検出された部位について前記識別手段による二値識別処理を施して前記画像における前記関節を検出し、当該検出された関節に基づいて前記端部を検出して分離することを特徴とする間隙変化検出装置。
In the gap change detection device according to claim 2,
The separation means further comprises identification means in which a plurality of composite identification means are connected in series, and a plurality of composite identification means are formed by linearly connecting binary identification means using a machine learning method,
The separating means performs binary identification processing by the identifying means on the detected parts to detect the joints in the image, and detects and separates the ends based on the detected joints. A gap change detection device characterized by:
請求項1から請求項3のいずれか一項に記載の間隙変化検出装置において、
前記位置変化検出手段は、前記時系列に対応した前記画像情報間における前記物体の位置ずれを、前記画像情報に相当する前記画像全体に対する位置限定相関法を用いて検出する位置ずれ検出手段を備え、
当該位置変化検出手段は、当該検出された位置ずれを除去しつつ前記時系列位置変化を検出することを特徴とする間隙変化検出装置。
In the gap change detection device according to any one of claims 1 to 3,
The positional change detection means includes positional deviation detection means for detecting a positional deviation of the object between the image information corresponding to the time series by using a position only correlation method for the entire image corresponding to the image information. ,
The gap change detection device, wherein the position change detection means detects the time-series position change while removing the detected position shift.
請求項1から請求項4のいずれか一項に記載の間隙変化検出装置において、
前記分離手段は、前記取得した画像情報に対してモルフォロジー変換処理を施す変換手段を備え、
当該分離手段は、前記変換手段による前記画像情報の変換結果に基づいて前記端部を前記画像においてそれぞれ分離することを特徴とする間隙変化検出装置。
In the gap change detection device according to any one of claims 1 to 4,
The separating means comprises transforming means for performing morphological transformation processing on the acquired image information,
The gap change detecting device, wherein the separation means separates the ends in the image based on the result of conversion of the image information by the conversion means.
複数の物体間の間隙の長さの変化を検出する間隙変化検出装置であって、取得手段と、分離手段と、位置変化検出手段と、変化検出手段と、を備える間隙変化検出装置において実行される間隙検出方法であって、
前記複数の物体及び前記間隙が映っている画像に相当する画像情報を前記取得手段により取得する取得工程と、
前記分離手段により、前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離工程と、
前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、前記位置変化検出手段により位相限定相関法を用いて検出する位置変化検出工程と、
各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記変化検出手段により前記時系列に沿った前記間隙の長さの変化を検出する変化検出工程と、
を含むことを特徴とする間隙変化検出方法。
A gap change detection apparatus for detecting a change in gap length between a plurality of objects, the gap change detection apparatus comprising an acquisition means, a separation means, a position change detection means, and a change detection means. A gap detection method comprising:
an acquisition step of acquiring image information corresponding to an image showing the plurality of objects and the gap by the acquisition means;
a separating step of separating, by the separating means, an end portion of each of the objects on the gap side in the image corresponding to the acquired image information, based on the acquired image information;
a position change detection step of detecting a time-series position change, which is a change along the same time series, of the positions of the separated ends using a phase-only correlation method by the position change detection means;
a change detection step of detecting a change in the length of the gap along the time series by the change detection means based on the time-series position change detected for each of the ends;
A gap change detection method, comprising:
複数の物体間の間隙の長さの変化を検出する間隙変化検出装置に含まれるコンピュータを、
前記複数の物体及び前記間隙が映っている画像に相当する画像情報を取得する取得手段、
前記取得した画像情報に基づいて、当該画像情報に相当する前記画像における各前記物体の前記間隙側の端部を、当該画像において分離する分離手段、
前記分離された端部それぞれの位置の、同じ時系列に沿った変化である時系列位置変化を、位相限定相関法を用いて検出する位置変化検出手段、及び、
各前記端部についてそれぞれ検出された前記時系列位置変化に基づいて、前記時系列に沿った前記間隙の長さの変化を検出する変化検出手段、
として機能させることを特徴とする間隙変化検出用プログラム。
a computer included in a gap change detection device for detecting a change in gap length between a plurality of objects;
Acquisition means for acquiring image information corresponding to an image showing the plurality of objects and the gap;
Separating means for separating, based on the obtained image information, an end portion of each of the objects on the gap side in the image corresponding to the image information, in the image;
position change detection means for detecting time-series position changes, which are changes along the same time series, of the positions of the separated ends using a phase-only correlation method; and
change detection means for detecting a change in the length of the gap along the time series based on the time-series position change detected for each of the ends;
A gap change detection program characterized by functioning as
JP2019072574A 2019-04-05 2019-04-05 Gap change detection device, gap change detection method, and gap change detection program Active JP7242041B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019072574A JP7242041B2 (en) 2019-04-05 2019-04-05 Gap change detection device, gap change detection method, and gap change detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019072574A JP7242041B2 (en) 2019-04-05 2019-04-05 Gap change detection device, gap change detection method, and gap change detection program

Publications (2)

Publication Number Publication Date
JP2020170429A JP2020170429A (en) 2020-10-15
JP7242041B2 true JP7242041B2 (en) 2023-03-20

Family

ID=72746794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019072574A Active JP7242041B2 (en) 2019-04-05 2019-04-05 Gap change detection device, gap change detection method, and gap change detection program

Country Status (1)

Country Link
JP (1) JP7242041B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009199270A (en) 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Analysis device
JP2010253243A (en) 2008-12-04 2010-11-11 Fujifilm Corp System for measuring joint fissure width, method and program for measuring joint fissure width
JP2016144535A (en) 2015-02-06 2016-08-12 国立大学法人名古屋大学 Interosseous distance measuring device, interosseous distance measuring method, program for causing a computer to function as an interosseous distance measuring device, and a recording medium storing the program
JP2016162096A (en) 2015-02-27 2016-09-05 セコム株式会社 Moving object tracking device
JP2017134634A (en) 2016-01-28 2017-08-03 大日本印刷株式会社 Data integration device, data integration method and program
WO2017134634A1 (en) 2016-02-05 2017-08-10 The Eyelash Trainer Limited An apparatus for practising the application of eyelash extensions
JP2018161397A (en) 2017-03-27 2018-10-18 国立大学法人 東京大学 Diagnostic image processing apparatus, evaluation support method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009199270A (en) 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Analysis device
JP2010253243A (en) 2008-12-04 2010-11-11 Fujifilm Corp System for measuring joint fissure width, method and program for measuring joint fissure width
JP2016144535A (en) 2015-02-06 2016-08-12 国立大学法人名古屋大学 Interosseous distance measuring device, interosseous distance measuring method, program for causing a computer to function as an interosseous distance measuring device, and a recording medium storing the program
JP2016162096A (en) 2015-02-27 2016-09-05 セコム株式会社 Moving object tracking device
JP2017134634A (en) 2016-01-28 2017-08-03 大日本印刷株式会社 Data integration device, data integration method and program
WO2017134634A1 (en) 2016-02-05 2017-08-10 The Eyelash Trainer Limited An apparatus for practising the application of eyelash extensions
JP2018161397A (en) 2017-03-27 2018-10-18 国立大学法人 東京大学 Diagnostic image processing apparatus, evaluation support method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
G. Langs et al.,"Automatic Quantification of Joint Space Narrowing and Erosions in Rheumatoid Arthritis",IEEE Transactions on Medical Imaging,米国,IEEE,2008年08月15日,Vol.28, No.1,pp.151-164
佐々木 慶文、外4名,"位相限定相関法に基づく高精度レジストレーション",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2002年04月11日,Vol.102, No.15,pp.49-54

Also Published As

Publication number Publication date
JP2020170429A (en) 2020-10-15

Similar Documents

Publication Publication Date Title
Miri et al. Retinal image analysis using curvelet transform and multistructure elements morphology by reconstruction
Thomas et al. Artificial neural network for diagnosing autism spectrum disorder
US9569846B2 (en) Ophthalmic reference image selection
US10176614B2 (en) Image processing device, image processing method, and program
CN103593826B (en) Image annular artifact correction method
CN107316047A (en) Image processing apparatus, image processing method and storage medium
Haloi et al. A Gaussian scale space approach for exudates detection, classification and severity prediction
JP2015190776A (en) Image processing apparatus and imaging system
EP3338619B1 (en) Image processing device, image processing method, and image processing program
JP7242041B2 (en) Gap change detection device, gap change detection method, and gap change detection program
JP3913517B2 (en) Defect detection method
Umamageswari et al. A novel approach for classification of diabetics from retinal image using deep learning technique
US20210042885A1 (en) Image processing device, image processing method, and image processing program
JP2018026018A (en) Gait analyzer
Selvathi et al. Detection of retinal blood vessels using curvelet transform
Medhi et al. Automatic detection of fovea using property of vessel free region
JP5176372B2 (en) Sputum Inspection Method, Sputum Inspection Apparatus, and Computer Program
WO2017030058A1 (en) Image processing device, image processing method, and image processing program
JP2015528144A (en) Image processing method and apparatus, and laser scanning type ophthalmoscope having image processing apparatus
Abang et al. Application of blind deconvolution and Lucy-Richardson Deconvolution for image deblurring
TWI419057B (en) Method and system for detecting blur fingerprint images
EP3338620A1 (en) Image processing device, image processing method, and image processing program
JP2005265828A (en) Flaw detection method and apparatus
Boudet et al. Semi-automated image analysis of gel electrophoresis of cerebrospinal fluid for oligoclonal band detection
JP2001235319A (en) Shading correction device, shading correction method, and surface inspection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220303

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R150 Certificate of patent or registration of utility model

Ref document number: 7242041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150