JP7357955B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP7357955B2 JP7357955B2 JP2022007289A JP2022007289A JP7357955B2 JP 7357955 B2 JP7357955 B2 JP 7357955B2 JP 2022007289 A JP2022007289 A JP 2022007289A JP 2022007289 A JP2022007289 A JP 2022007289A JP 7357955 B2 JP7357955 B2 JP 7357955B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- arteriole
- venule
- tip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 95
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000000605 extraction Methods 0.000 claims description 97
- 210000004209 hair Anatomy 0.000 claims description 96
- 210000004088 microvessel Anatomy 0.000 claims description 96
- 239000000284 extract Substances 0.000 claims description 68
- 210000002565 arteriole Anatomy 0.000 claims description 65
- 210000000264 venule Anatomy 0.000 claims description 65
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 description 46
- 238000010586 diagram Methods 0.000 description 27
- 230000013016 learning Effects 0.000 description 26
- 238000000034 method Methods 0.000 description 22
- 238000013527 convolutional neural network Methods 0.000 description 15
- 239000008280 blood Substances 0.000 description 9
- 210000004369 blood Anatomy 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 238000011176 pooling Methods 0.000 description 8
- 210000004204 blood vessel Anatomy 0.000 description 6
- 239000007788 liquid Substances 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000001367 artery Anatomy 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 239000000017 hydrogel Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000031700 light absorption Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000003462 vein Anatomy 0.000 description 2
- KIUKXJAPPMFGSW-DNGZLQJQSA-N (2S,3S,4S,5R,6R)-6-[(2S,3R,4R,5S,6R)-3-Acetamido-2-[(2S,3S,4R,5R,6R)-6-[(2R,3R,4R,5S,6R)-3-acetamido-2,5-dihydroxy-6-(hydroxymethyl)oxan-4-yl]oxy-2-carboxy-4,5-dihydroxyoxan-3-yl]oxy-5-hydroxy-6-(hydroxymethyl)oxan-4-yl]oxy-3,4,5-trihydroxyoxane-2-carboxylic acid Chemical compound CC(=O)N[C@H]1[C@H](O)O[C@H](CO)[C@@H](O)[C@@H]1O[C@H]1[C@H](O)[C@@H](O)[C@H](O[C@H]2[C@@H]([C@@H](O[C@H]3[C@@H]([C@@H](O)[C@H](O)[C@H](O3)C(O)=O)O)[C@H](O)[C@@H](CO)O2)NC(C)=O)[C@@H](C(O)=O)O1 KIUKXJAPPMFGSW-DNGZLQJQSA-N 0.000 description 1
- RGHNJXZEOKUKBD-SQOUGZDYSA-M D-gluconate Chemical compound OC[C@@H](O)[C@@H](O)[C@H](O)[C@@H](O)C([O-])=O RGHNJXZEOKUKBD-SQOUGZDYSA-M 0.000 description 1
- 241000255925 Diptera Species 0.000 description 1
- 238000010241 blood sampling Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 229960003333 chlorhexidine gluconate Drugs 0.000 description 1
- YZIYKJHYYHPJIB-UUPCJSQJSA-N chlorhexidine gluconate Chemical compound OC[C@@H](O)[C@@H](O)[C@H](O)[C@@H](O)C(O)=O.OC[C@@H](O)[C@@H](O)[C@H](O)[C@@H](O)C(O)=O.C1=CC(Cl)=CC=C1NC(=N)NC(=N)NCCCCCCNC(=N)NC(=N)NC1=CC=C(Cl)C=C1 YZIYKJHYYHPJIB-UUPCJSQJSA-N 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000645 desinfectant Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 229940050410 gluconate Drugs 0.000 description 1
- 235000011187 glycerol Nutrition 0.000 description 1
- 229960005150 glycerol Drugs 0.000 description 1
- 210000000003 hoof Anatomy 0.000 description 1
- 229920002674 hyaluronan Polymers 0.000 description 1
- 229960003160 hyaluronic acid Drugs 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.
近年、画像処理を用いた医療機器の開発が盛んに行われている。非特許文献1には、Rec-FCN(Recurrent Fully Convolutional Network)等を用いて、画像から毛細血管を抽出する技術が開示されている。
In recent years, development of medical devices using image processing has been actively conducted. Non-Patent
また、特許文献1には、光音響信号から再構成された三次元画像に含まれる表在血管と体毛との分別精度を向上させる技術が開示されている。
Additionally,
皮膚を撮影した画像には、細静脈、細動脈以外に、体毛やゴミ等が含まれており、細静脈、細動脈と体毛やゴミ等とを識別する必要がある。しかしながら、上述の非特許文献1に開示された技術を用いたとしても、細静脈、細動脈と体毛やゴミ等とを識別することができない可能性がある。
In addition to venules and arterioles, images of skin include body hair, dirt, and the like, and it is necessary to distinguish between venules and arterioles and body hair, dirt, and the like. However, even if the technique disclosed in the above-mentioned Non-Patent
また、特許文献1に開示された技術を用いた場合、表在血管と体毛とを識別することができる。しかしながら、特許文献1に開示された画像処理装置は、三次元画像を撮影する必要があり、画像処理装置を含んだシステムが非常に高価になるといった課題がある。
Furthermore, when the technique disclosed in
本発明の一態様は、二次元画像を用いて微細血管(細静脈、細動脈)を高精度で抽出することが可能な画像処理装置および画像処理方法を提供することを目的とする。 One aspect of the present invention aims to provide an image processing device and an image processing method that can extract microvessels (venules, arterioles) with high precision using a two-dimensional image.
上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から体毛の領域を抽出する第1領域抽出部と、前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備える。 In order to solve the above problems, an image processing device according to one aspect of the present invention includes a first region extraction section that extracts a body hair region from a two-dimensional image, and a first region extraction section that extracts a body hair region from the two-dimensional image. an image identification unit that identifies the body hair area extracted by the image identification unit; and a second area extraction unit that extracts a venule or arteriole area from the image in which the body hair area has been identified by the image identification unit. Be prepared.
また、上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から体毛の領域を抽出する第1領域抽出部と、前記二次元画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える。 Further, in order to solve the above problems, an image processing device according to one aspect of the present invention includes a first region extraction unit that extracts a body hair region from a two-dimensional image, and a first region extraction unit that extracts a body hair region from a two-dimensional image; a second region extracting section that extracts an artery region; and the body hair region extracted by the first region extracting section from an image of the venule or arteriole region extracted by the second region extracting section. and an image identification unit that identifies a region of the venule or the arteriole that is not.
また、上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える。 Further, in order to solve the above problems, an image processing device according to one aspect of the present invention includes a snare portion tip extraction unit that extracts a snare portion tip from a two-dimensional image, and a snare portion tip extracting unit that extracts a snare portion tip from a two-dimensional image; a candidate region extracting section that extracts a candidate region of a vein or an arteriole; and a region of the venule or arteriole based on the snare tip and the candidate region extracted by the snare tip extracting section. and a microvessel determination unit that determines.
また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から体毛の領域を抽出し、前記二次元画像から、抽出された前記体毛の領域を識別し、前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する。 Further, in order to solve the above problems, an image processing method according to one aspect of the present invention extracts a body hair region from a two-dimensional image, and identifies the extracted body hair region from the two-dimensional image. , extracting a venule or arteriole region from the image in which the body hair region has been identified;
また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から体毛の領域を抽出し、前記二次元画像から、細静脈または細動脈の領域を抽出し、抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する。 Furthermore, in order to solve the above problems, an image processing method according to one aspect of the present invention extracts a region of body hair from a two-dimensional image, and extracts a region of venules or arterioles from the two-dimensional image. , identifying a region of the venule or arteriole that is not the extracted body hair region from an image of the extracted region of the venule or arteriole;
また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から、係蹄部先端を抽出し、前記二次元画像から、細静脈または細動脈の候補領域を抽出し、抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する。 Furthermore, in order to solve the above problems, an image processing method according to one aspect of the present invention extracts a snare tip from a two-dimensional image, and extracts a candidate region of a venule or arteriole from the two-dimensional image. is extracted, and the region of the venule or arteriole is determined based on the extracted tip of the snare portion and the candidate region.
本発明の一態様によれば、二次元画像を用いて微細血管(細静脈、細動脈)を高精度で抽出することが可能な画像処理装置および画像処理方法を提供することができる。 According to one aspect of the present invention, it is possible to provide an image processing device and an image processing method that can extract microvessels (venules, arterioles) with high precision using a two-dimensional image.
(実施形態1)
<本発明の背景>
本出願人は、蚊の針が無痛で人間から血液を吸引できる機構に着目し、そのメカニズムを模倣した無痛採血針の研究を行ってきた。この研究の成果として、外径0.09mmという世界最細の針の作製、およびこれを用いた採血に成功した。ただし、この針を用いて従来の採血対象であった血管(直径約数mm)からは採血ができない。これは微細針の折損を防止する観点からその長さを例えば2mmに制限しており、太い血管の外皮を突破できないからである。
(Embodiment 1)
<Background of the present invention>
The applicant has focused on the mechanism by which mosquito needles can suck blood from humans painlessly, and has been conducting research on a painless blood collection needle that imitates this mechanism. As a result of this research, we succeeded in creating the world's thinnest needle with an outer diameter of 0.09 mm and in blood collection using this needle. However, this needle cannot be used to collect blood from a blood vessel (with a diameter of about several mm), which is the conventional target for blood collection. This is because the length of the fine needle is limited to, for example, 2 mm in order to prevent breakage, and it cannot penetrate the outer skin of a large blood vessel.
このため、細い血管(以下、微細血管と呼ぶ。)を穿刺・採血の対象とする必要があるが、これらは肉眼では容易に観察することができない。また、皮膚表面での乱反射が原因となり、通常の顕微鏡を用いて微細血管を視認することができない。そのため、微細血管を可視化する画像撮影装置が必要になる。本明細書においては、皮膚表面付近に分布する細静脈・細動脈と呼ばれる直径0.1mmから0.2mmの微細な血管を、微細血管と呼ぶことにする。 For this reason, it is necessary to puncture and collect blood from small blood vessels (hereinafter referred to as microvessels), but these cannot be easily observed with the naked eye. Furthermore, due to diffused reflection on the skin surface, microvessels cannot be visually recognized using an ordinary microscope. Therefore, an image capturing device that visualizes microvessels is required. In this specification, microscopic blood vessels with a diameter of 0.1 mm to 0.2 mm called venules and arterioles that are distributed near the skin surface will be referred to as microvessels.
通常の光学系を用いて皮膚表面を観察する場合、照射光の大部分が皮膚表面で乱反射する。その結果、照射光が皮膚内部まで透過し難くなり、微細血管の視認性が低下する。この問題を解決するためには、光学的マッチング液が有効である。光学的マッチング液とは、皮膚と近い屈折率を有する液体であり、皮膚表面の凹凸を埋めることにより光の乱反射を抑制する。本出願人が開発したマッチング液は、水、グリセリン、ヒアルロン酸、クロルヘキシジングルコン酸塩を混合した液体(以下、ハイドロゲルと呼ぶ。)であり、ヘキシジングルコン酸塩の効果により皮膚の消毒を同時に行うことが可能である。 When observing the skin surface using a normal optical system, most of the irradiated light is diffusely reflected from the skin surface. As a result, it becomes difficult for the irradiated light to penetrate into the skin, and the visibility of microvessels decreases. Optical matching liquid is effective in solving this problem. The optical matching liquid is a liquid that has a refractive index close to that of the skin, and suppresses diffuse reflection of light by filling in the unevenness of the skin surface. The matching liquid developed by the applicant is a liquid (hereinafter referred to as hydrogel) that is a mixture of water, glycerin, hyaluronic acid, and chlorhexidine gluconate, and simultaneously disinfects the skin due to the effect of hexidine gluconate. It is possible to do so.
また,通常の光学系を用いた場合に、微細血管の視認性が低くなる要因として、微細血管と皮膚組織で白色光の吸収特性の差異が小さいことが挙げられる。これは、白色光は様々な波長の光を含むため、光の吸収特性も平均化されることが原因である。したがって、単色光を照射した方が、微細血管が強調され、視認性が向上する。 Furthermore, when a normal optical system is used, one of the factors that reduces the visibility of microvessels is that there is a small difference in white light absorption characteristics between microvessels and skin tissue. This is because white light includes light of various wavelengths, so the light absorption characteristics are also averaged. Therefore, irradiation with monochromatic light emphasizes microvessels and improves visibility.
<画像撮影装置の構成例>
図1は、本発明の一実施形態に係る画像撮影装置の構成例を示す図である。図1に示すように、微細血管を可視化する画像撮影装置2は、カメラ21と、緑色光源22と、スロット23と、を備えている。
<Example of configuration of image capturing device>
FIG. 1 is a diagram showing an example of the configuration of an image capturing device according to an embodiment of the present invention. As shown in FIG. 1, an image capturing
カメラ21は、ズームマイクロレンズCMOS(Complementary Metal Oxide Semiconductor)カメラ等によって構成される。また、緑色光源22は、緑色LED(Light Emitting Diode)等によって構成される。画像撮影装置2は、微細血管の可視性が高い緑色光源22を用い、消毒液の成分を含むハイドロゲル25を皮膚表面に塗布することにより皮膚表面の乱反射を抑制している。このように、画像撮影装置2は、皮膚の皺が画像に映り込まないようにすることで、高精度な微細血管の二次元画像を撮影することを可能にしている。
The
後述の画像処理装置によって微細血管を抽出し、スロット23を介して、抽出された微細血管から採血が行われるように、図示しない制御装置等によって採血針24の移動等が制御される。
The movement of the
<皮膚表面付近(表皮下)に分布する微細血管の配置>
図1に示すように、皮膚に分布する動脈を細動脈と呼ぶ。ここから毛細血管がループ状に上行し、ループ状の毛細血管の先端において係蹄を構成して細静脈に移行する。細静脈から血液は最終的に皮静脈へ流れる。本明細書においては、図1に示す係蹄の先端部分(最上部:最も皮膚表面に近い部分)を係蹄部先端と呼ぶことにする。
<Arrangement of microvessels distributed near the skin surface (subepidermis)>
As shown in Figure 1, arteries distributed in the skin are called arterioles. From here, capillaries ascend in a loop shape, form a snare at the tip of the loop-shaped capillary, and transition into venules. Blood from the venules eventually flows into the cutaneous veins. In this specification, the tip portion of the snare shown in FIG. 1 (the uppermost portion: the portion closest to the skin surface) will be referred to as the snare tip.
<画像処理システム100の構成例>
図2は、本発明の一実施形態に係る画像処理システム100の構成例を示す図である。図2に示すように、図1に示す画像撮影装置2と、本実施形態に係る画像処理装置1とが、通信ネットワーク3を介して通信可能に接続されている。
<Example of configuration of
FIG. 2 is a diagram illustrating a configuration example of an
画像処理装置1は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得することができる。通信ネットワーク3の一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。
The
<画像処理装置1の構成例>
図3は、本発明の一実施形態に係る画像処理装置1の構成例を示す図である。画像処理装置1は、画像取得部11と、前処理部12と、第1領域抽出部13と、画像識別部14と、第2領域抽出部15と、を備えている。
<Configuration example of
FIG. 3 is a diagram showing a configuration example of an
画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。
The
<前処理部12の動作>
前処理部12は、画像処理により画像の明度等を調整した後、二値化処理で閾値以下の明度の領域を抽出する。画像撮影装置2によって微細血管が可視化された画像は、画像内、または画像毎に明るさ、暗さが一定ではない。前処理部12は、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。
<Operation of
The preprocessing
具体的には、画像撮影装置2は、緑色光源22を利用して微細血管を可視化しているので、前処理部12は、カラー画像をRGBに分割し、Green(グレースケール)のみを使用する。前処理部12は、全ての画像から平均値となる輝度値を決定し、画像内の小領域毎に決定した輝度値を平均値になるようにすることで画像全体の明るさのムラを減らす。本実施形態においては、輝度の平均値を128として説明する。なお、輝度値は、0~255の値である。
Specifically, since the
P(x0,y0)を注目画素とし、周辺小領域P(125×125)の範囲内で平均値P(x,y)を求める。そして、前処理部12は、周辺画素の平均値P(x,y)との輝度の差分Pn(x,y)を次式(式1)および(式2)で求める。
With P(x0, y0) as the pixel of interest, the average value P(x, y) is determined within the peripheral small area P(125×125). Then, the preprocessing
Pn(x,y)=P(x0,y0)-P(x,y) ・・・(式1)
P(x0,y0)=Pn(x,y)×3+128 ・・・(式2)
(式2)のように指定した輝度の平均値128に、注目画素と周辺領域の平均値との差分Pn(x,y)を3倍して加えることで、画像全体の平均値が128となるようにヒストグラムを調整する。
Pn (x, y) = P (x0, y0) - P (x, y) ... (Formula 1)
P(x0,y0)=Pn(x,y)×3+128...(Formula 2)
By adding 3 times the difference Pn(x,y) between the pixel of interest and the average value of the surrounding area to the specified average value of luminance 128 as in (Equation 2), the average value of the entire image becomes 128. Adjust the histogram so that
前処理部12は、正規化処理を行った後の画像に対して、二値化処理で閾値以下の明度の領域を抽出する。図4は、前処理部12によって二値化処理された後の画像の一例を示す図である。図4において、黒い丸い部分が係蹄部先端であり、図1に示す係蹄部先端を上から見たときの形状となっている。また、係蹄部先端と重なっている部分が微細血管である。なお、図4の中央には、体毛の領域が存在している。
The preprocessing
第1領域抽出部13は、例えば、U-Net等によって構成されており、体毛の領域を抽出するように学習されている。また、第2領域抽出部15は、例えば、U-Net等によって構成されており、微細血管の領域を抽出するように学習されている。なお、機械学習はU-Netに限定されず、U-Net++、RNN、CNN、R-CNN、Fast R-CNN、Faster R-CNN、SegNet等であってもよい。
The first
<U-Netによる学習方法>
図5は、U-Netの概要を説明するための図である。U-Netは、深層学習の中でセマンティックセグメンテーションに分類されている。セマンティックセグメンテーションとは、対象物をピクセル単位で複数の領域に分割することである。U-Netは、全結合層のないFCN(Fully Convolution Network)の1つであり、画像を高速かつ正確にセグメンテーションを行うU字型の構造を有する畳み込みニューラルネットワークである。U-Netは、通常のCNNとは違い、FCNやSegNetと同様に全結合層を持たず、畳み込み層で構成される。U-Netは、EncoderとDecoderとで構成されるモデルである。
<Learning method using U-Net>
FIG. 5 is a diagram for explaining the outline of U-Net. U-Net is classified as semantic segmentation in deep learning. Semantic segmentation refers to dividing an object into multiple regions pixel by pixel. U-Net is one of the FCNs (Fully Convolution Networks) without fully connected layers, and is a convolutional neural network with a U-shaped structure that performs high-speed and accurate image segmentation. Unlike a normal CNN, U-Net does not have a fully connected layer like FCN and SegNet, but is composed of convolutional layers. U-Net is a model composed of an encoder and a decoder.
図5に示すように、4ステップの3×3畳み込み層131~134によって、ダウンサンプリングを行うEncoderが構成されており、最大値プーリング後ごとに、畳み込みチャネル数を増加させる。また、最大値プーリング後ごとの特徴マップを、Decoderの同一空間サイズの特徴マップに結合する。
As shown in FIG. 5, an encoder that performs downsampling is configured by four steps of 3×3
また、4ステップの3×3畳み込み層136~139によって、アップサンプリングを行うDecoderが構成されており、スキップ接続で入力したEncoderからの特徴を結合し、畳み込み層136~139ごとにチャネル数を減少させて、入力画像と同じサイズの確率マップ(セグメンテーション・マップ)を作成する。
In addition, a decoder that performs upsampling is configured by 4-
学習する際には、まず、前処理部12によって作成された画像からU-Netの教師データとして使用するマスク画像が作成される。マスク画像は、人間の判断によって画像から微細血管が存在する領域(ピクセル)を塗りつぶすことで作成される。この手法によって作成された26枚のマスク画像に対して、回転処理(2°刻みで360°まで)および反転処理(上下左右)を施すことにより、学習データの数を増やす。これらの処理により、元のマスク画像1枚を360枚に増やすことができるため、最終的に9360枚のデータセットを得ることができる。なお、体毛の領域を抽出するためのマスク画像についても、同様の手法で作成することができる。また、元のマスク画像の枚数は一例であり、この枚数に限定されるものではない。
When learning, first, a mask image to be used as U-Net teacher data is created from an image created by the preprocessing
学習の評価のため、データセットの9割を訓練データとし、1割をテストデータとして分割した後、U-Netによる学習を行う。微細血管の領域抽出の検出精度を確認するために、Dice係数を使用した。Dice係数は、正解画像とU―Netの推測画像の類似度を評価するものであり、正解領域をX、推測領域をYとして次式(式3)で求めることができる。 To evaluate learning, the dataset is divided into 90% training data and 10% test data, and then learning is performed using U-Net. The Dice coefficient was used to confirm the detection accuracy of microvessel region extraction. The Dice coefficient evaluates the degree of similarity between the correct image and the guessed image of U-Net, and can be obtained by the following equation (Formula 3), where X is the correct region and Y is the guessed region.
図6は、学習回数とDice係数との相関を示す学習曲線図である。図6においては、横軸を学習回数、縦軸をDice係数としている。9割の訓練データと、1割のテストデータとの組み合わせを変えながら、学習してゆくことにより、図6に示す学習曲線図が得られた。図6に示すように、20回の学習でDice係数がほぼ飽和することが分かる。この結果から、データセット全てに対して20回の学習を行い、第1領域抽出部13および第2領域抽出部15を作成した。なお、学習方法および学習回数は、これらに限定されるものではない。
FIG. 6 is a learning curve diagram showing the correlation between the number of learning times and the Dice coefficient. In FIG. 6, the horizontal axis represents the number of learning times, and the vertical axis represents the Dice coefficient. By learning while changing the combination of 90% training data and 10% test data, the learning curve diagram shown in FIG. 6 was obtained. As shown in FIG. 6, it can be seen that the Dice coefficient is almost saturated after 20 learnings. Based on this result, learning was performed 20 times for all datasets, and the first
<CNNによる学習方法>
図7は、CNNの概要を説明するための図である。CNNは、深層学習の中で代表的な手法であり、何層にも分かれた深い層を持ち、特に、画像認識の分野で優れた性能を発揮しているネットワークである。CNNは、入力層141と、出力層147と、畳み込み層142~144と、最大プーリング層と、全結合層145~146とで構成されている。
<Learning method using CNN>
FIG. 7 is a diagram for explaining the outline of CNN. CNN is a representative method among deep learning, has many deep layers, and is a network that exhibits excellent performance particularly in the field of image recognition. The CNN is composed of an
CNNの特徴として、学習の際に入力データから自動的に必要な特徴を抽出する。この機能を、畳み込み層142~144と最大プーリング層とで実現している。畳み込み層142~144は、単純型細胞をモデルに考えられたもので、特定の形状に反応して特徴を捉えることが可能であり、画像全体にフィルタをスライドさせながらかけて特徴マップを出力する。最大プーリング層は、畳み込み層で抽出された特徴の次元を削減し、パラメータ数や計算量を減らすことに利用される。
CNN automatically extracts necessary features from input data during learning. This function is realized by the
プーリングは、カーネルサイズ2×2の最大プーリングである。本実施形態においては、60×60に切り出されたオブジェクト画像をCNNに入力し、異なるフィルタの畳み込みと2×2のプーリングを3回繰り返す。 The pooling is maximum pooling with kernel size 2x2. In this embodiment, an object image cut out to 60x60 is input to CNN, and convolution with different filters and 2x2 pooling are repeated three times.
学習する際には、まず、前処理部12によって作成された画像から、人手によってオブジェクトをそれぞれ切出し、体毛、微細血管、係蹄部先端の3種類に分類して学習データとする。本実施形態においては、体毛を154枚、係蹄部先端を242枚、微細血管を159枚に分類した。この状態では、総数が555枚であり、学習データとしては少ないため、過学習の発生や精度が低くなってしまう。そこで、この学習データを回転処理(30°刻みで360°まで)し、合計6660枚を作成して学習データを増やしている。
When learning, first, objects are manually cut out from the image created by the preprocessing
学習の評価のため、データセットの9割を訓練データとし、1割をテストデータとして分割した後、CNNによる学習を30回行った。図8は、オブジェクトのクラス(体毛、係蹄部先端、微細血管)ごとの正答率(適合率、再現率)の一例を示す図である。 To evaluate learning, the dataset was divided into 90% training data and 10% test data, and then CNN learning was performed 30 times. FIG. 8 is a diagram showing an example of the correct answer rate (precision rate, recall rate) for each object class (body hair, snare tip, microvessel).
なお、体毛が微細血管として誤判定されるのを防止するために、後述のように、微細血管と判定されたオブジェクトであっても、係蹄部先端を含まないオブジェクトは体毛であると判定するようにしてもよい。 In addition, in order to prevent body hair from being incorrectly determined as microvessels, as described later, even if an object is determined to be a microvessel, an object that does not include the snare tip is determined to be body hair. You can do it like this.
<第1領域抽出部13、第2領域抽出部15の動作>
第2領域抽出部15が、前処理された後の画像から微細血管を抽出した場合、誤判定で体毛が微細血管として抽出されることがある。そのため、第1領域抽出部13によって体毛を抽出しておき、第2領域抽出部15が、第1領域抽出部13によって抽出された体毛を識別した画像から、微細血管を抽出するようにしている。
<Operations of the first
When the second
第1領域抽出部13は、前処理部12によって前処理された後の画像から、体毛の領域を抽出する。第1領域抽出部13は、上述のようにU-Net、CNN等を用いて体毛の領域を抽出するように学習されている。
The first
画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域ではない微細血管の領域を識別する。例えば、画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を除去するようにしてもよい。また、画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を判別できるように画像を変更するようにしてもよい。例えば、画像識別部14は、前処理部12によって前処理された後の画像において、各領域の色または階調を異ならせることで、微細血管の領域と微細血管の領域以外の領域(体毛の領域を含む)とを識別可能にしてもよい。
The
第2領域抽出部15は、画像識別部14によって体毛の領域が識別された後の画像から、毛細血管の領域を抽出する。第2領域抽出部15は、上述のようにU-Net、CNN等を用いて微細血管の領域を抽出するように学習されている。
The second
<画像処理装置1の処理手順>
図9は、本発明の第1の実施形態に係る画像処理装置1の処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S1)。
<Processing procedure of
FIG. 9 is a flowchart for explaining the processing procedure of the
次に、前処理部12は、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を第1領域抽出部13および画像識別部14に出力する(S2)。
Next, the preprocessing
次に、第1領域抽出部13は、前処理部12によって前処理が行われた後の入力画像から、体毛の領域を抽出する(S3)。そして、画像識別部14は、前処理部12によって前処理が行われた後の入力画像から、第1領域抽出部13によって抽出された体毛の領域を識別する(S4)。
Next, the first
最後に、第2領域抽出部15は、画像識別部14によって体毛の領域が識別された後の画像から、微細血管の領域を抽出する(S5)。
Finally, the second
<画像処理装置1の効果>
以上説明したように、本実施形態に係る画像処理装置1によれば、第2領域抽出部15が、画像識別部14によって体毛の領域が識別された後の画像から、微細血管の領域を抽出する。したがって、第2領域抽出部15は、微細血管を高精度で抽出することが可能となる。
<Effects of
As described above, according to the
また、画像処理装置1は、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。
Furthermore, since the
(実施形態2)
実施形態1に係る画像処理装置1は、体毛の領域が識別された後の画像から、微細血管の領域を抽出するものである。実施形態2に係る画像処理装置1Aは、体毛の領域と微細血管の領域とを別々に抽出し、微細血管として抽出された領域から、体毛として抽出された領域を識別するものである。
(Embodiment 2)
The
図10は、本発明の実施形態2に係る画像処理装置1Aの構成例を示す図である。画像処理装置1Aは、画像取得部11と、前処理部12と、第1領域抽出部13と、画像識別部14Aと、第2領域抽出部15Aと、を備えている。なお、実施形態1において説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
FIG. 10 is a diagram showing a configuration example of an image processing apparatus 1A according to
画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。
The
前処理部12は、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。そして、前処理部12は、正規化処理を行った後の画像に対して、二値化処理で閾値以下の明度の領域を抽出する。
The preprocessing
第1領域抽出部13は、前処理部12によって前処理された後の画像から、体毛の領域を抽出する。第1領域抽出部13は、上述のようにU-Net、CNN等を用いて体毛の領域を抽出するように学習されている。
The first
第2領域抽出部15Aは、前処理部12によって前処理された後の画像から、微細血管の領域を抽出する。第2領域抽出部15Aは、上述のようにU-Net、CNN等を用いて微細血管の領域を抽出するように学習されている。
The second
画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する。この処理は、第2領域抽出部15Aによって体毛が微細血管として誤判定された場合、画像識別部14Aによって微細血管と誤判定された体毛を識別するために行われる。
The
例えば、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を除去するようにしてもよい。また、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を判別できるように画像を変更するようにしてもよい。
For example, the
<画像処理装置1Aの処理手順>
図11は、本発明の第2の実施形態に係る画像処理装置1Aの処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S11)。
<Processing procedure of image processing device 1A>
FIG. 11 is a flowchart for explaining the processing procedure of the image processing apparatus 1A according to the second embodiment of the present invention. First, the
次に、前処理部12は、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を第1領域抽出部13および第2領域抽出部15Aに出力する(S12)。
Next, the preprocessing
次に、第1領域抽出部13は、前処理部12によって前処理が行われた後の入力画像から、体毛の領域を抽出する(S13)。また、第2領域抽出部15Aは、前処理部12によって前処理が行われた後の入力画像から、微細血管の領域を抽出する(S14)。
Next, the first
最後に、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する(S15)。
Finally, the
<画像処理装置1Aの効果>
以上説明したように、本実施形態に係る画像処理装置1Aによれば、画像識別部14Aが、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する。したがって、画像識別部14Aは、微細血管を高精度で抽出することができる。
<Effects of image processing device 1A>
As explained above, according to the image processing device 1A according to the present embodiment, the
また、画像処理装置1Aは、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。
Moreover, since the image processing device 1A extracts microvessels using a two-dimensional image, it is possible to realize an image processing system including the
(実施形態3)
実施形態1に係る画像処理装置1および実施形態2に係る画像処理装置1Aは、U-Net、CNN等の機械学習によって微細血管および体毛を抽出するものである。実施形態3に係る画像処理装置1Bは、画像処理によって係蹄部先端を抽出して微細血管を判定するものである。
(Embodiment 3)
The
図12は、本発明の実施形態3に係る画像処理装置1Bの構成例を示す図である。画像処理装置1Bは、画像取得部11と、前処理部12Bと、領域抽出部16と、画像識別部14Bと、を備えている。なお、実施形態1および2において説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
FIG. 12 is a diagram showing a configuration example of an
画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。
The
前処理部12Bは、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。なお、本実施形態において、二値化処理は、前処理部12Bで行われず、領域抽出部16によって行われる。
The
領域抽出部16は、前処理部12Bによって前処理された後の画像から、微細血管を判定する。そして、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域の画像を識別し、識別後の画像を出力する。
The
例えば、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域以外の画像(オブジェクト)を除去するようにしてもよい。また、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域の画像を判別できるように画像を変更するようにしてもよい。例えば、画像識別部14Bは、前処理部12Bによって前処理された後の画像を二値化した画像において、各領域の色または階調を異ならせることで、微細血管の領域と微細血管の領域以外の領域(体毛の領域を含む)とを識別可能にしてもよい。
For example, the
図13は、領域抽出部16の構成例を示す図である。領域抽出部16は、係蹄部先端抽出部161と、候補領域抽出部162と、微細血管判定部163と、を備えている。
FIG. 13 is a diagram showing an example of the configuration of the
係蹄部先端抽出部161は、前処理部12Bによって前処理された後の画像から、画像処理によって係蹄部先端を抽出する。係蹄部先端抽出部161は、まず、前処理部12Bによって前処理された後の画像から、オブジェクトを検出し、各オブジェクトの座標情報を取得する。そして、係蹄部先端抽出部161は、各オブジェクトの中から黒い丸いオブジェクトを係蹄部先端として抽出し、係蹄部先端の座標情報を取得する。
The snare
具体的には、係蹄部先端抽出部161は、二次元画像を第1閾値で二値化した画像(微細血管および体毛は消えて係蹄部先端が残った画像)から、画像処理によって、係蹄部先端に対応するオブジェクト(点状の円形領域)を抽出する。なお、画像処理は、円形領域を抽出できるものであればよい。
Specifically, the snare
候補領域抽出部162は、二次元画像を第1閾値とは異なる第2閾値で二値化した画像(微細血管および体毛が残った画像)から、実施形態1の第1領域抽出部13と同様に、体毛の領域を抽出する。そして、候補領域抽出部162は、二値化した画像から体毛の領域を除去する。
The candidate
そして、候補領域抽出部162は、体毛の領域を除去した画像から、微細血管の複数の候補領域をオブジェクトとして抽出し、各オブジェクトの座標情報を取得する。候補領域抽出部162は、予め微細血管を抽出するように機械学習されている。
Then, the candidate
微細血管判定部163は、各オブジェクトの座標情報を参照して、微細血管の候補領域のうち、係蹄部先端のオブジェクトを含む(重なっている)候補領域を、微細血管の領域と特定する。
The
なお、第1の実施形態において説明した第2領域抽出部15または第2の実施形態において説明した第2領域抽出部15Aが、領域抽出部16の構成と同様の構成を有しており、係蹄部先端を抽出し、抽出した係蹄部先端に基づいて微細血管を判定するようにしてもよい。
Note that the second
<画像処理装置1Bの処理手順>
図14は、本発明の第3の実施形態に係る画像処理装置1Bの処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S21)。
<Processing procedure of
FIG. 14 is a flowchart for explaining the processing procedure of the
次に、前処理部12Bは、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を領域抽出部16に出力する(S22)。
Next, the
次に、係蹄部先端抽出部161は、前処理部12Bによって前処理が行われた後の入力画像から、係蹄部先端のオブジェクトを抽出する(S23)。そして、候補領域抽出部162は、二次元画像から体毛の領域を除去した後、微細血管の複数の候補領域を抽出する(S24)。
Next, the snare
微細血管判定部163は、微細血管の候補領域のうち、係蹄部先端のオブジェクトを含む(重なっている)候補領域を、微細血管の領域と判定する(S25)。最後に、画像識別部14Bは、微細血管判定部163によって微細血管と判定された領域の画像を識別する(S26)。
The
図15は、領域抽出部16によって体毛と判定された領域を示す図である。図15において、斜線を施した領域が体毛として判定された領域を示している。黒い領域が体毛以外の部分として判定された領域を示している。
FIG. 15 is a diagram showing regions determined to be body hair by the
図16は、画像識別部14Bによって微細血管が識別された後の画像を示す図である。図16において、斜線を施した領域が微細血管として判定された領域を示している。図16に示すように、微細血管と判定された領域が、それ以外の体毛を含む領域と識別可能となっている。
FIG. 16 is a diagram showing an image after microvessels have been identified by the
<画像処理装置1Bの効果>
以上説明したように、本実施形態に係る画像処理装置1Bによれば、領域抽出部16が、前処理部12Bによって前処理された後の画像から体毛の領域を除去した後、係蹄部先端に基づいて微細血管を判定する。そして、画像識別部14Bが、領域抽出部16によって微細血管と判定された領域の画像を識別する。したがって、画像識別部14Bは、微細血管を高精度で抽出することができる。
<Effects of
As described above, according to the
また、画像処理装置1Bは、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。
Furthermore, since the
<ソフトウェアによる実現例>
画像処理装置1、1A、1Bの制御ブロック(特に、前処理部12、第1領域抽出部13、画像識別部14、14A、14B、第2領域抽出部15、15A、領域抽出部16)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
<Example of implementation using software>
The control blocks of the
後者の場合、画像処理装置1、1A、1Bは、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
〔まとめ〕
本発明の態様1に係る画像処理装置は、
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、
前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備える。
〔summary〕
The image processing device according to
a first region extraction unit that extracts a body hair region from the two-dimensional image;
an image identification unit that identifies the body hair region extracted by the first region extraction unit from the two-dimensional image;
a second region extraction section that extracts a venule or arteriole region from the image in which the body hair region has been identified by the image identification section.
上記構成によれば、第2領域抽出部が、画像識別部によって体毛の領域が識別された後の画像から、細静脈または細動脈の領域を抽出するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, the second region extraction section extracts the venule or arteriole region from the image after the body hair region has been identified by the image identification section, so the venule or arteriole can be extracted with high precision. can be extracted.
本発明の態様2に係る画像処理装置は、
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、
前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える。
The image processing device according to
a first region extraction unit that extracts a body hair region from the two-dimensional image;
a second region extraction unit that extracts a region of a venule or an arteriole from the two-dimensional image;
Identifying a region of the venule or arteriole that is not the body hair region extracted by the first region extraction section from an image of the venule or arteriole region extracted by the second region extraction section. and an image identification unit.
上記構成によれば、画像識別部が、第2領域抽出部によって抽出された細静脈または細動脈の領域の画像から、第1領域抽出部によって抽出された体毛の領域の画像を識別するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, the image identification section identifies the image of the body hair region extracted by the first region extraction section from the image of the venule or arteriole region extracted by the second region extraction section. Venules or arterioles can be extracted with high precision.
本発明の態様3に係る画像処理装置は、態様1または2に記載の画像処理装置であって、
前記第2領域抽出部は、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する。
The image processing device according to
The second region extracting unit extracts a tip of the snare portion, and determines a region of the venule or arteriole based on the tip of the snare portion.
上記構成によれば、第2領域抽出部が、細静脈または細動脈をさらに高精度で抽出することができる。 According to the above configuration, the second region extraction section can extract venules or arterioles with even higher precision.
本発明の態様4に係る画像処理装置は、態様1または2に記載の画像処理装置であって、
前記第1領域抽出部は、機械学習によって、前記二次元画像から前記体毛の領域を抽出するように学習されており、
前記第2領域抽出部は、機械学習によって、前記二次元画像から前記細静脈または前記細動脈の領域を抽出するように学習されている。
The image processing device according to aspect 4 of the present invention is the image processing device according to
The first region extraction unit is trained by machine learning to extract the body hair region from the two-dimensional image,
The second region extracting unit is trained by machine learning to extract the region of the venule or the arteriole from the two-dimensional image.
上記構成によれば、第1領域抽出部および第2領域抽出部の学習精度を上げることによって、さらに細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, by increasing the learning accuracy of the first region extracting section and the second region extracting section, venules or arterioles can be extracted with higher precision.
本発明の態様5に係る画像処理装置は、
二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、
前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、
前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える。
The image processing device according to
a snare tip extraction unit that extracts a snare tip from a two-dimensional image;
a candidate region extraction unit that extracts a candidate region of a venule or an arteriole from the two-dimensional image;
A microvessel determination unit that determines a region of the venule or arteriole based on the snare tip and the candidate region extracted by the snare tip extraction unit.
上記構成によれば、微細血管判定部が、係蹄部先端抽出部によって抽出された係蹄部先端と候補領域とに基づいて、細静脈または細動脈の領域を判定するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, the microvessel determination section determines the region of the venule or arteriole based on the snare tip and candidate region extracted by the snare tip extraction section, so Arteries can be extracted with high precision.
本発明の態様6に係る画像処理装置は、態様5に記載の画像処理装置であって、
前記微細血管判定部は、前記係蹄部先端抽出部によって抽出された係蹄部先端を含む前記候補領域を前記細静脈または前記細動脈の領域と判定する。
An image processing device according to
The microvessel determination section determines the candidate region including the snare tip extracted by the snare tip extraction section to be the venule or arteriole region.
上記構成によれば、さらに毛細血管を高精度で抽出することができる。 According to the above configuration, capillaries can be extracted with higher precision.
本発明の態様7に係る画像処理方法は、
二次元画像から体毛の領域を抽出し、
前記二次元画像から、抽出された前記体毛の領域を識別し、
前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する。
The image processing method according to
Extract the body hair region from the two-dimensional image,
identifying the extracted body hair region from the two-dimensional image;
A venule or arteriole region is extracted from the image in which the body hair region has been identified.
上記構成によれば、体毛の領域が識別された後の画像から、細静脈または細動脈の領域を抽出するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, since the venule or arteriole region is extracted from the image after the body hair region has been identified, the venule or arteriole can be extracted with high precision.
本発明の態様8に係る画像処理方法は、
二次元画像から体毛の領域を抽出し、
前記二次元画像から、細静脈または細動脈の領域を抽出し、
抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する。
The image processing method according to aspect 8 of the present invention includes:
Extract the body hair region from the two-dimensional image,
extracting a region of venules or arterioles from the two-dimensional image;
A region of the venule or arteriole that is not the extracted body hair region is identified from an image of the extracted region of the venule or arteriole.
上記構成によれば、抽出された細静脈または細動脈の領域の画像から、抽出された体毛の領域の画像を識別するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, since the image of the extracted body hair region is identified from the image of the extracted venule or arteriole region, the venule or arteriole can be extracted with high precision.
本発明の態様9に係る画像処理方法は、
二次元画像から、係蹄部先端を抽出し、
前記二次元画像から、細静脈または細動脈の候補領域を抽出し、
抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する。
The image processing method according to aspect 9 of the present invention includes:
Extract the snare tip from the two-dimensional image,
extracting candidate regions of venules or arterioles from the two-dimensional image;
The region of the venule or arteriole is determined based on the extracted tip of the snare portion and the candidate region.
上記構成によれば、抽出された係蹄部先端と候補領域とに基づいて、細静脈または細動脈の領域を判定するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, since the region of the venule or arteriole is determined based on the extracted tip of the snare portion and the candidate region, the venule or arteriole can be extracted with high precision.
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Additional notes]
The present invention is not limited to the embodiments described above, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. are also included within the technical scope of the present invention.
1、1A、1B 画像処理装置
2 画像撮影装置
3 通信ネットワーク
11 画像取得部
12、12B 前処理部
13 第1領域抽出部
14、14A、14B 画像識別部
15、15A 第2領域抽出部
16 領域抽出部
21 カメラ
22 緑色光源
23 スロット
24 採血針
25 ハイドロゲル
100 画像処理システム
161 係蹄部先端抽出部
162 候補領域抽出部
163 微細血管判定部
1, 1A, 1B
Claims (8)
前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、
前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備え、
前記第2領域抽出部は、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理装置。 a first region extraction unit that extracts a body hair region from the two-dimensional image;
an image identification unit that identifies the body hair region extracted by the first region extraction unit from the two-dimensional image;
a second area extraction unit that extracts a venule or arteriole area from the image in which the body hair area has been identified by the image identification unit;
The second region extracting unit is an image processing device that extracts a tip of a snare portion and determines a region of the venule or the arteriole based on the tip of the snare portion.
前記二次元画像から、係蹄部先端を抽出し、当該係蹄部先端に基づいて、細静脈または細動脈の領域を判定して、前記細静脈または前記細動脈の領域を抽出する第2領域抽出部と、
前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える画像処理装置。 a first region extraction unit that extracts a body hair region from the two-dimensional image;
A second region for extracting a tip of a snare from the two-dimensional image, determining a region of a venule or an arteriole based on the tip of the snare, and extracting a region of the venule or arteriole. an extraction section;
Identifying a region of the venule or arteriole that is not the body hair region extracted by the first region extraction section from an image of the venule or arteriole region extracted by the second region extraction section. An image processing device comprising: an image identification unit that performs
前記第2領域抽出部は、機械学習によって、前記二次元画像から前記細静脈または前記細動脈の領域を抽出するように学習されている、請求項1または2に記載の画像処理装置。 The first region extraction unit is trained by machine learning to extract the body hair region from the two-dimensional image,
The image processing device according to claim 1 or 2, wherein the second region extraction unit is trained to extract the region of the venule or the arteriole from the two-dimensional image by machine learning.
前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、
前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える画像処理装置。 a snare tip extraction unit that extracts a snare tip from a two-dimensional image;
a candidate region extraction unit that extracts a candidate region of a venule or an arteriole from the two-dimensional image;
An image processing device comprising: a microvessel determining unit that determines a region of the venule or arteriole based on the snare tip and the candidate region extracted by the snare tip extracting unit.
前記二次元画像から、抽出された前記体毛の領域を識別し、
前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出し、
前記細静脈または前記細動脈の領域を抽出する工程において、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理方法。 Extract the body hair region from the two-dimensional image,
identifying the extracted body hair region from the two-dimensional image;
extracting a venule or arteriole region from the image in which the body hair region has been identified;
An image processing method, wherein in the step of extracting a region of the venule or the arteriole, a tip of the snare portion is extracted, and a region of the venule or the arteriole is determined based on the tip of the snare portion.
前記二次元画像から、係蹄部先端を抽出し、当該係蹄部先端に基づいて、細静脈または細動脈の領域を判定して、前記細静脈または前記細動脈の領域を抽出し、
抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する、画像処理方法。 Extract the body hair region from the two-dimensional image,
extracting a tip of the snare from the two-dimensional image, determining a region of a venule or arteriole based on the tip of the snare, and extracting a region of the venule or arteriole;
An image processing method for identifying a region of the venule or arteriole that is not the extracted body hair region from an image of the extracted region of the venule or arteriole.
前記二次元画像から、細静脈または細動脈の候補領域を抽出し、
抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理方法。 Extract the snare tip from the two-dimensional image,
extracting candidate regions of venules or arterioles from the two-dimensional image;
An image processing method, wherein a region of the venule or the arteriole is determined based on the extracted tip of the snare portion and the candidate region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022007289A JP7357955B2 (en) | 2022-01-20 | 2022-01-20 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022007289A JP7357955B2 (en) | 2022-01-20 | 2022-01-20 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023106142A JP2023106142A (en) | 2023-08-01 |
JP7357955B2 true JP7357955B2 (en) | 2023-10-10 |
Family
ID=87473110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022007289A Active JP7357955B2 (en) | 2022-01-20 | 2022-01-20 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7357955B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020130466A (en) * | 2019-02-15 | 2020-08-31 | 株式会社三洋物産 | Game machine |
JP7234741B2 (en) * | 2019-03-28 | 2023-03-08 | 株式会社三洋物産 | game machine |
JP7234740B2 (en) * | 2019-03-28 | 2023-03-08 | 株式会社三洋物産 | game machine |
JP2021186294A (en) * | 2020-05-29 | 2021-12-13 | 株式会社三洋物産 | Game machine |
JP2023063369A (en) * | 2022-01-07 | 2023-05-09 | 株式会社三洋物産 | game machine |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007325656A (en) | 2006-06-06 | 2007-12-20 | Matsushita Electric Ind Co Ltd | Image processing method and image processing device |
JP2015049666A (en) | 2013-08-30 | 2015-03-16 | ポーラ化成工業株式会社 | Image processing method and image processing apparatus |
US20180146912A1 (en) | 2016-11-29 | 2018-05-31 | Stmicroelectronics S.R.L. | Method and system for analyzing skin lesions |
WO2018168071A1 (en) | 2017-03-16 | 2018-09-20 | 富士フイルム株式会社 | Imaging device, image display system, and image display method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2942499B2 (en) * | 1996-04-23 | 1999-08-30 | 財団法人ダム水源地環境整備センター | Image identification method and apparatus |
-
2022
- 2022-01-20 JP JP2022007289A patent/JP7357955B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007325656A (en) | 2006-06-06 | 2007-12-20 | Matsushita Electric Ind Co Ltd | Image processing method and image processing device |
JP2015049666A (en) | 2013-08-30 | 2015-03-16 | ポーラ化成工業株式会社 | Image processing method and image processing apparatus |
US20180146912A1 (en) | 2016-11-29 | 2018-05-31 | Stmicroelectronics S.R.L. | Method and system for analyzing skin lesions |
WO2018168071A1 (en) | 2017-03-16 | 2018-09-20 | 富士フイルム株式会社 | Imaging device, image display system, and image display method |
Non-Patent Citations (2)
Title |
---|
入潮拓樹,外4名,U-Netを用いた微細血管領域の検出,第24回画像の認識・理解シンポジウム,2021年07月27日 |
吉川亮,外4名,半教師あり学習を用いた光超音波画像における体毛領域認識,情報処理学会研究報告 ,2018年05月10日,Vol.2018-CVIM-212, NO.5 |
Also Published As
Publication number | Publication date |
---|---|
JP2023106142A (en) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7357955B2 (en) | Image processing device and image processing method | |
EP3373798B1 (en) | Method and system for classifying optic nerve head | |
CN109377474B (en) | Macular positioning method based on improved Faster R-CNN | |
Abramoff et al. | The automatic detection of the optic disc location in retinal images using optic disc location regression | |
CN110263755B (en) | Eye ground image recognition model training method, eye ground image recognition method and eye ground image recognition device | |
CN112017185B (en) | Focus segmentation method, device and storage medium | |
JP7197708B2 (en) | Preprocessing method and storage device for fundus image quantitative analysis | |
Szymkowski et al. | A novelty approach to retina diagnosing using biometric techniques with SVM and clustering algorithms | |
Singh et al. | A new morphology based approach for blood vessel segmentation in retinal images | |
CN114004969A (en) | Endoscope image focal zone detection method, device, equipment and storage medium | |
Thomas et al. | Automated Detection of Age-Related Macular Degeneration from OCT Images Using Multipath CNN. | |
CN117611824A (en) | Digital retina image segmentation method based on improved UNET | |
Ahmed et al. | Smartphone aided real-time blood vein detection system | |
KR100376415B1 (en) | Pupil acquisition method using eye image | |
Semerád et al. | Retinal vascular characteristics | |
KR101164275B1 (en) | Authentication device, authentication method, recording medium, and authentication information registration device | |
CN112242193B (en) | Automatic blood vessel puncture method based on deep learning | |
CN112869704B (en) | Diabetic retinopathy area automatic segmentation method based on circulation self-adaptive multi-target weighting network | |
Jana et al. | A semi-supervised approach for automatic detection and segmentation of optic disc from retinal fundus image | |
Abdel-Latif et al. | Achieving information security by multi-modal iris-retina biometric approach using improved mask R-CNN | |
Kulkarni et al. | Eye gaze–based optic disc detection system | |
CN114677713A (en) | Near-infrared light-based arm vein blood sampling point identification method and system | |
Le | An effective method for detecting dorsal hand veins utilising near-infrared imaging technology | |
Bansal et al. | An efficient automatic intensity based method for detection of macula in retinal images | |
Nivetha | Retinal Based Pathology Analysis Using Deep Learning Approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7357955 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |