[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7357955B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7357955B2
JP7357955B2 JP2022007289A JP2022007289A JP7357955B2 JP 7357955 B2 JP7357955 B2 JP 7357955B2 JP 2022007289 A JP2022007289 A JP 2022007289A JP 2022007289 A JP2022007289 A JP 2022007289A JP 7357955 B2 JP7357955 B2 JP 7357955B2
Authority
JP
Japan
Prior art keywords
region
image
arteriole
venule
tip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022007289A
Other languages
Japanese (ja)
Other versions
JP2023106142A (en
Inventor
誠司 青柳
昌人 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kansai University
Original Assignee
Kansai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kansai University filed Critical Kansai University
Priority to JP2022007289A priority Critical patent/JP7357955B2/en
Publication of JP2023106142A publication Critical patent/JP2023106142A/en
Application granted granted Critical
Publication of JP7357955B2 publication Critical patent/JP7357955B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.

近年、画像処理を用いた医療機器の開発が盛んに行われている。非特許文献1には、Rec-FCN(Recurrent Fully Convolutional Network)等を用いて、画像から毛細血管を抽出する技術が開示されている。 In recent years, development of medical devices using image processing has been actively conducted. Non-Patent Document 1 discloses a technique for extracting capillaries from an image using Rec-FCN (Recurrent Fully Convolutional Network) or the like.

また、特許文献1には、光音響信号から再構成された三次元画像に含まれる表在血管と体毛との分別精度を向上させる技術が開示されている。 Additionally, Patent Document 1 discloses a technique for improving the accuracy of classifying superficial blood vessels and body hair included in a three-dimensional image reconstructed from photoacoustic signals.

特開2019-025251号公報JP2019-025251A

Alvin I.Chen, Max L.Balter, Timothy J.Maguire and Martin L.Yarmush, 文献名「Deep learning robotic guidance for autonomous vascular access」,p.104-115,2020Alvin I.Chen, Max L.Balter, Timothy J.Maguire and Martin L.Yarmush, Document title "Deep learning robotic guidance for autonomous vascular access", p.104-115, 2020

皮膚を撮影した画像には、細静脈、細動脈以外に、体毛やゴミ等が含まれており、細静脈、細動脈と体毛やゴミ等とを識別する必要がある。しかしながら、上述の非特許文献1に開示された技術を用いたとしても、細静脈、細動脈と体毛やゴミ等とを識別することができない可能性がある。 In addition to venules and arterioles, images of skin include body hair, dirt, and the like, and it is necessary to distinguish between venules and arterioles and body hair, dirt, and the like. However, even if the technique disclosed in the above-mentioned Non-Patent Document 1 is used, there is a possibility that venules and arterioles cannot be distinguished from body hair, dirt, and the like.

また、特許文献1に開示された技術を用いた場合、表在血管と体毛とを識別することができる。しかしながら、特許文献1に開示された画像処理装置は、三次元画像を撮影する必要があり、画像処理装置を含んだシステムが非常に高価になるといった課題がある。 Furthermore, when the technique disclosed in Patent Document 1 is used, superficial blood vessels and body hair can be distinguished. However, the image processing device disclosed in Patent Document 1 needs to take a three-dimensional image, and there is a problem that a system including the image processing device becomes very expensive.

本発明の一態様は、二次元画像を用いて微細血管(細静脈、細動脈)を高精度で抽出することが可能な画像処理装置および画像処理方法を提供することを目的とする。 One aspect of the present invention aims to provide an image processing device and an image processing method that can extract microvessels (venules, arterioles) with high precision using a two-dimensional image.

上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から体毛の領域を抽出する第1領域抽出部と、前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備える。 In order to solve the above problems, an image processing device according to one aspect of the present invention includes a first region extraction section that extracts a body hair region from a two-dimensional image, and a first region extraction section that extracts a body hair region from the two-dimensional image. an image identification unit that identifies the body hair area extracted by the image identification unit; and a second area extraction unit that extracts a venule or arteriole area from the image in which the body hair area has been identified by the image identification unit. Be prepared.

また、上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から体毛の領域を抽出する第1領域抽出部と、前記二次元画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える。 Further, in order to solve the above problems, an image processing device according to one aspect of the present invention includes a first region extraction unit that extracts a body hair region from a two-dimensional image, and a first region extraction unit that extracts a body hair region from a two-dimensional image; a second region extracting section that extracts an artery region; and the body hair region extracted by the first region extracting section from an image of the venule or arteriole region extracted by the second region extracting section. and an image identification unit that identifies a region of the venule or the arteriole that is not.

また、上記の課題を解決するために、本発明の一態様に係る画像処理装置は、二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える。 Further, in order to solve the above problems, an image processing device according to one aspect of the present invention includes a snare portion tip extraction unit that extracts a snare portion tip from a two-dimensional image, and a snare portion tip extracting unit that extracts a snare portion tip from a two-dimensional image; a candidate region extracting section that extracts a candidate region of a vein or an arteriole; and a region of the venule or arteriole based on the snare tip and the candidate region extracted by the snare tip extracting section. and a microvessel determination unit that determines.

また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から体毛の領域を抽出し、前記二次元画像から、抽出された前記体毛の領域を識別し、前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する。 Further, in order to solve the above problems, an image processing method according to one aspect of the present invention extracts a body hair region from a two-dimensional image, and identifies the extracted body hair region from the two-dimensional image. , extracting a venule or arteriole region from the image in which the body hair region has been identified;

また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から体毛の領域を抽出し、前記二次元画像から、細静脈または細動脈の領域を抽出し、抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する。 Furthermore, in order to solve the above problems, an image processing method according to one aspect of the present invention extracts a region of body hair from a two-dimensional image, and extracts a region of venules or arterioles from the two-dimensional image. , identifying a region of the venule or arteriole that is not the extracted body hair region from an image of the extracted region of the venule or arteriole;

また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、二次元画像から、係蹄部先端を抽出し、前記二次元画像から、細静脈または細動脈の候補領域を抽出し、抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する。 Furthermore, in order to solve the above problems, an image processing method according to one aspect of the present invention extracts a snare tip from a two-dimensional image, and extracts a candidate region of a venule or arteriole from the two-dimensional image. is extracted, and the region of the venule or arteriole is determined based on the extracted tip of the snare portion and the candidate region.

本発明の一態様によれば、二次元画像を用いて微細血管(細静脈、細動脈)を高精度で抽出することが可能な画像処理装置および画像処理方法を提供することができる。 According to one aspect of the present invention, it is possible to provide an image processing device and an image processing method that can extract microvessels (venules, arterioles) with high precision using a two-dimensional image.

本発明の第1の実施形態に係る画像撮影装置の構成例を示す図である。1 is a diagram showing a configuration example of an image capturing device according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理システムの構成例を示す図である。1 is a diagram showing a configuration example of an image processing system according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置の構成例を示す図である。1 is a diagram showing a configuration example of an image processing apparatus according to a first embodiment of the present invention. 前処理部によって二値化処理された後の画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image after being binarized by a preprocessing unit. U-Netの概要を説明するための図である。FIG. 2 is a diagram for explaining an overview of U-Net. 学習回数とDice係数との相関を示す学習曲線図である。It is a learning curve diagram showing the correlation between the number of learning times and the Dice coefficient. CNNの概要を説明するための図である。FIG. 2 is a diagram for explaining an overview of CNN. オブジェクトのクラス(体毛、係蹄部先端、微細血管)ごとの正答率の一例を示す図である。FIG. 7 is a diagram showing an example of the correct answer rate for each object class (body hair, snare tip, microvessel). 本発明の第1の実施形態に係る画像処理装置の処理手順を説明するためのフローチャートである。3 is a flowchart for explaining the processing procedure of the image processing apparatus according to the first embodiment of the present invention. 本発明の第2の実施形態に係る画像処理装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of an image processing apparatus according to a second embodiment of the present invention. 本発明の第2の実施形態に係る画像処理装置の処理手順を説明するためのフローチャートである。7 is a flowchart for explaining a processing procedure of an image processing apparatus according to a second embodiment of the present invention. 本発明の第3の実施形態に係る画像処理装置の構成例を示す図である。FIG. 7 is a diagram illustrating a configuration example of an image processing device according to a third embodiment of the present invention. 領域抽出部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a region extracting section. 本発明の第3の実施形態に係る画像処理装置の処理手順を説明するためのフローチャートである。12 is a flowchart for explaining a processing procedure of an image processing apparatus according to a third embodiment of the present invention. 領域抽出部によって体毛と判定された領域を示す図である。FIG. 3 is a diagram showing a region determined to be body hair by a region extraction unit. 画像識別部によって微細血管が識別された後の画像を示す図である。FIG. 7 is a diagram showing an image after microvessels have been identified by an image identifying unit.

(実施形態1)
<本発明の背景>
本出願人は、蚊の針が無痛で人間から血液を吸引できる機構に着目し、そのメカニズムを模倣した無痛採血針の研究を行ってきた。この研究の成果として、外径0.09mmという世界最細の針の作製、およびこれを用いた採血に成功した。ただし、この針を用いて従来の採血対象であった血管(直径約数mm)からは採血ができない。これは微細針の折損を防止する観点からその長さを例えば2mmに制限しており、太い血管の外皮を突破できないからである。
(Embodiment 1)
<Background of the present invention>
The applicant has focused on the mechanism by which mosquito needles can suck blood from humans painlessly, and has been conducting research on a painless blood collection needle that imitates this mechanism. As a result of this research, we succeeded in creating the world's thinnest needle with an outer diameter of 0.09 mm and in blood collection using this needle. However, this needle cannot be used to collect blood from a blood vessel (with a diameter of about several mm), which is the conventional target for blood collection. This is because the length of the fine needle is limited to, for example, 2 mm in order to prevent breakage, and it cannot penetrate the outer skin of a large blood vessel.

このため、細い血管(以下、微細血管と呼ぶ。)を穿刺・採血の対象とする必要があるが、これらは肉眼では容易に観察することができない。また、皮膚表面での乱反射が原因となり、通常の顕微鏡を用いて微細血管を視認することができない。そのため、微細血管を可視化する画像撮影装置が必要になる。本明細書においては、皮膚表面付近に分布する細静脈・細動脈と呼ばれる直径0.1mmから0.2mmの微細な血管を、微細血管と呼ぶことにする。 For this reason, it is necessary to puncture and collect blood from small blood vessels (hereinafter referred to as microvessels), but these cannot be easily observed with the naked eye. Furthermore, due to diffused reflection on the skin surface, microvessels cannot be visually recognized using an ordinary microscope. Therefore, an image capturing device that visualizes microvessels is required. In this specification, microscopic blood vessels with a diameter of 0.1 mm to 0.2 mm called venules and arterioles that are distributed near the skin surface will be referred to as microvessels.

通常の光学系を用いて皮膚表面を観察する場合、照射光の大部分が皮膚表面で乱反射する。その結果、照射光が皮膚内部まで透過し難くなり、微細血管の視認性が低下する。この問題を解決するためには、光学的マッチング液が有効である。光学的マッチング液とは、皮膚と近い屈折率を有する液体であり、皮膚表面の凹凸を埋めることにより光の乱反射を抑制する。本出願人が開発したマッチング液は、水、グリセリン、ヒアルロン酸、クロルヘキシジングルコン酸塩を混合した液体(以下、ハイドロゲルと呼ぶ。)であり、ヘキシジングルコン酸塩の効果により皮膚の消毒を同時に行うことが可能である。 When observing the skin surface using a normal optical system, most of the irradiated light is diffusely reflected from the skin surface. As a result, it becomes difficult for the irradiated light to penetrate into the skin, and the visibility of microvessels decreases. Optical matching liquid is effective in solving this problem. The optical matching liquid is a liquid that has a refractive index close to that of the skin, and suppresses diffuse reflection of light by filling in the unevenness of the skin surface. The matching liquid developed by the applicant is a liquid (hereinafter referred to as hydrogel) that is a mixture of water, glycerin, hyaluronic acid, and chlorhexidine gluconate, and simultaneously disinfects the skin due to the effect of hexidine gluconate. It is possible to do so.

また,通常の光学系を用いた場合に、微細血管の視認性が低くなる要因として、微細血管と皮膚組織で白色光の吸収特性の差異が小さいことが挙げられる。これは、白色光は様々な波長の光を含むため、光の吸収特性も平均化されることが原因である。したがって、単色光を照射した方が、微細血管が強調され、視認性が向上する。 Furthermore, when a normal optical system is used, one of the factors that reduces the visibility of microvessels is that there is a small difference in white light absorption characteristics between microvessels and skin tissue. This is because white light includes light of various wavelengths, so the light absorption characteristics are also averaged. Therefore, irradiation with monochromatic light emphasizes microvessels and improves visibility.

<画像撮影装置の構成例>
図1は、本発明の一実施形態に係る画像撮影装置の構成例を示す図である。図1に示すように、微細血管を可視化する画像撮影装置2は、カメラ21と、緑色光源22と、スロット23と、を備えている。
<Example of configuration of image capturing device>
FIG. 1 is a diagram showing an example of the configuration of an image capturing device according to an embodiment of the present invention. As shown in FIG. 1, an image capturing device 2 for visualizing microvessels includes a camera 21, a green light source 22, and a slot 23.

カメラ21は、ズームマイクロレンズCMOS(Complementary Metal Oxide Semiconductor)カメラ等によって構成される。また、緑色光源22は、緑色LED(Light Emitting Diode)等によって構成される。画像撮影装置2は、微細血管の可視性が高い緑色光源22を用い、消毒液の成分を含むハイドロゲル25を皮膚表面に塗布することにより皮膚表面の乱反射を抑制している。このように、画像撮影装置2は、皮膚の皺が画像に映り込まないようにすることで、高精度な微細血管の二次元画像を撮影することを可能にしている。 The camera 21 is configured by a zoom microlens CMOS (Complementary Metal Oxide Semiconductor) camera or the like. Further, the green light source 22 is constituted by a green LED (Light Emitting Diode) or the like. The image capturing device 2 uses a green light source 22 with high visibility of microvessels, and suppresses diffuse reflection on the skin surface by applying a hydrogel 25 containing a disinfectant component to the skin surface. In this way, the image capturing device 2 makes it possible to capture highly accurate two-dimensional images of microvessels by preventing skin wrinkles from appearing in the image.

後述の画像処理装置によって微細血管を抽出し、スロット23を介して、抽出された微細血管から採血が行われるように、図示しない制御装置等によって採血針24の移動等が制御される。 The movement of the blood sampling needle 24 is controlled by a control device (not shown) or the like so that microvessels are extracted by an image processing device, which will be described later, and blood is collected from the extracted microvessels through the slot 23.

<皮膚表面付近(表皮下)に分布する微細血管の配置>
図1に示すように、皮膚に分布する動脈を細動脈と呼ぶ。ここから毛細血管がループ状に上行し、ループ状の毛細血管の先端において係蹄を構成して細静脈に移行する。細静脈から血液は最終的に皮静脈へ流れる。本明細書においては、図1に示す係蹄の先端部分(最上部:最も皮膚表面に近い部分)を係蹄部先端と呼ぶことにする。
<Arrangement of microvessels distributed near the skin surface (subepidermis)>
As shown in Figure 1, arteries distributed in the skin are called arterioles. From here, capillaries ascend in a loop shape, form a snare at the tip of the loop-shaped capillary, and transition into venules. Blood from the venules eventually flows into the cutaneous veins. In this specification, the tip portion of the snare shown in FIG. 1 (the uppermost portion: the portion closest to the skin surface) will be referred to as the snare tip.

<画像処理システム100の構成例>
図2は、本発明の一実施形態に係る画像処理システム100の構成例を示す図である。図2に示すように、図1に示す画像撮影装置2と、本実施形態に係る画像処理装置1とが、通信ネットワーク3を介して通信可能に接続されている。
<Example of configuration of image processing system 100>
FIG. 2 is a diagram illustrating a configuration example of an image processing system 100 according to an embodiment of the present invention. As shown in FIG. 2, the image capturing device 2 shown in FIG. 1 and the image processing device 1 according to the present embodiment are communicably connected via a communication network 3.

画像処理装置1は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得することができる。通信ネットワーク3の一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。 The image processing device 1 can acquire images including microvessels from the image capturing device 2 via the communication network 3. As an example of the communication network 3, a wireless LAN (Local Area Network), a wired LAN, a WAN (Wide Area Network), a public line network, a mobile data communication network, or a combination of these networks can be used.

<画像処理装置1の構成例>
図3は、本発明の一実施形態に係る画像処理装置1の構成例を示す図である。画像処理装置1は、画像取得部11と、前処理部12と、第1領域抽出部13と、画像識別部14と、第2領域抽出部15と、を備えている。
<Configuration example of image processing device 1>
FIG. 3 is a diagram showing a configuration example of an image processing device 1 according to an embodiment of the present invention. The image processing device 1 includes an image acquisition section 11 , a preprocessing section 12 , a first region extraction section 13 , an image identification section 14 , and a second region extraction section 15 .

画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。 The image acquisition unit 11 acquires an image including microvessels from the image capturing device 2 via the communication network 3. The image acquisition unit 11 outputs the image acquired from the image capturing device 2 to the preprocessing unit 12.

<前処理部12の動作>
前処理部12は、画像処理により画像の明度等を調整した後、二値化処理で閾値以下の明度の領域を抽出する。画像撮影装置2によって微細血管が可視化された画像は、画像内、または画像毎に明るさ、暗さが一定ではない。前処理部12は、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。
<Operation of preprocessing section 12>
The preprocessing unit 12 adjusts the brightness and the like of the image through image processing, and then uses binarization processing to extract a region with brightness below a threshold value. The brightness and darkness of images in which microvessels are visualized by the image capturing device 2 are not constant within the image or from image to image. The preprocessing unit 12 performs normalization processing to equalize brightness values and adjust brightness and darkness in all images.

具体的には、画像撮影装置2は、緑色光源22を利用して微細血管を可視化しているので、前処理部12は、カラー画像をRGBに分割し、Green(グレースケール)のみを使用する。前処理部12は、全ての画像から平均値となる輝度値を決定し、画像内の小領域毎に決定した輝度値を平均値になるようにすることで画像全体の明るさのムラを減らす。本実施形態においては、輝度の平均値を128として説明する。なお、輝度値は、0~255の値である。 Specifically, since the image capturing device 2 visualizes microvessels using the green light source 22, the preprocessing unit 12 divides the color image into RGB and uses only Green (gray scale). . The preprocessing unit 12 determines an average brightness value from all images, and reduces unevenness in brightness of the entire image by making the brightness values determined for each small area in the image become the average value. . In this embodiment, the average value of brightness is assumed to be 128. Note that the brightness value is a value between 0 and 255.

P(x0,y0)を注目画素とし、周辺小領域P(125×125)の範囲内で平均値P(x,y)を求める。そして、前処理部12は、周辺画素の平均値P(x,y)との輝度の差分Pn(x,y)を次式(式1)および(式2)で求める。 With P(x0, y0) as the pixel of interest, the average value P(x, y) is determined within the peripheral small area P(125×125). Then, the preprocessing unit 12 calculates the luminance difference Pn(x,y) from the average value P(x,y) of the surrounding pixels using the following equations (Formula 1) and (Formula 2).

Pn(x,y)=P(x0,y0)-P(x,y) ・・・(式1)
P(x0,y0)=Pn(x,y)×3+128 ・・・(式2)
(式2)のように指定した輝度の平均値128に、注目画素と周辺領域の平均値との差分Pn(x,y)を3倍して加えることで、画像全体の平均値が128となるようにヒストグラムを調整する。
Pn (x, y) = P (x0, y0) - P (x, y) ... (Formula 1)
P(x0,y0)=Pn(x,y)×3+128...(Formula 2)
By adding 3 times the difference Pn(x,y) between the pixel of interest and the average value of the surrounding area to the specified average value of luminance 128 as in (Equation 2), the average value of the entire image becomes 128. Adjust the histogram so that

前処理部12は、正規化処理を行った後の画像に対して、二値化処理で閾値以下の明度の領域を抽出する。図4は、前処理部12によって二値化処理された後の画像の一例を示す図である。図4において、黒い丸い部分が係蹄部先端であり、図1に示す係蹄部先端を上から見たときの形状となっている。また、係蹄部先端と重なっている部分が微細血管である。なお、図4の中央には、体毛の領域が存在している。 The preprocessing unit 12 performs binarization processing on the image after the normalization processing to extract a region having a brightness equal to or less than a threshold value. FIG. 4 is a diagram showing an example of an image after being binarized by the preprocessing unit 12. In FIG. 4, the black round part is the tip of the snare portion, which is the shape of the tip of the snare portion shown in FIG. 1 when viewed from above. Furthermore, the portions that overlap with the tips of the snare portions are microvessels. Note that in the center of FIG. 4, there is a region of body hair.

第1領域抽出部13は、例えば、U-Net等によって構成されており、体毛の領域を抽出するように学習されている。また、第2領域抽出部15は、例えば、U-Net等によって構成されており、微細血管の領域を抽出するように学習されている。なお、機械学習はU-Netに限定されず、U-Net++、RNN、CNN、R-CNN、Fast R-CNN、Faster R-CNN、SegNet等であってもよい。 The first area extraction unit 13 is configured by, for example, U-Net, and is trained to extract areas of body hair. Further, the second area extraction unit 15 is configured by, for example, U-Net, and is trained to extract areas of microvessels. Note that machine learning is not limited to U-Net, and may be U-Net++, RNN, CNN, R-CNN, Fast R-CNN, Faster R-CNN, SegNet, etc.

<U-Netによる学習方法>
図5は、U-Netの概要を説明するための図である。U-Netは、深層学習の中でセマンティックセグメンテーションに分類されている。セマンティックセグメンテーションとは、対象物をピクセル単位で複数の領域に分割することである。U-Netは、全結合層のないFCN(Fully Convolution Network)の1つであり、画像を高速かつ正確にセグメンテーションを行うU字型の構造を有する畳み込みニューラルネットワークである。U-Netは、通常のCNNとは違い、FCNやSegNetと同様に全結合層を持たず、畳み込み層で構成される。U-Netは、EncoderとDecoderとで構成されるモデルである。
<Learning method using U-Net>
FIG. 5 is a diagram for explaining the outline of U-Net. U-Net is classified as semantic segmentation in deep learning. Semantic segmentation refers to dividing an object into multiple regions pixel by pixel. U-Net is one of the FCNs (Fully Convolution Networks) without fully connected layers, and is a convolutional neural network with a U-shaped structure that performs high-speed and accurate image segmentation. Unlike a normal CNN, U-Net does not have a fully connected layer like FCN and SegNet, but is composed of convolutional layers. U-Net is a model composed of an encoder and a decoder.

図5に示すように、4ステップの3×3畳み込み層131~134によって、ダウンサンプリングを行うEncoderが構成されており、最大値プーリング後ごとに、畳み込みチャネル数を増加させる。また、最大値プーリング後ごとの特徴マップを、Decoderの同一空間サイズの特徴マップに結合する。 As shown in FIG. 5, an encoder that performs downsampling is configured by four steps of 3×3 convolutional layers 131 to 134, and the number of convolutional channels is increased every time after maximum value pooling. Also, the feature map after maximum value pooling is combined with the feature map of the same spatial size of the Decoder.

また、4ステップの3×3畳み込み層136~139によって、アップサンプリングを行うDecoderが構成されており、スキップ接続で入力したEncoderからの特徴を結合し、畳み込み層136~139ごとにチャネル数を減少させて、入力画像と同じサイズの確率マップ(セグメンテーション・マップ)を作成する。 In addition, a decoder that performs upsampling is configured by 4-step 3×3 convolutional layers 136 to 139, and the features from the encoder input through skip connections are combined to reduce the number of channels for each convolutional layer 136 to 139. Then, a probability map (segmentation map) of the same size as the input image is created.

学習する際には、まず、前処理部12によって作成された画像からU-Netの教師データとして使用するマスク画像が作成される。マスク画像は、人間の判断によって画像から微細血管が存在する領域(ピクセル)を塗りつぶすことで作成される。この手法によって作成された26枚のマスク画像に対して、回転処理(2°刻みで360°まで)および反転処理(上下左右)を施すことにより、学習データの数を増やす。これらの処理により、元のマスク画像1枚を360枚に増やすことができるため、最終的に9360枚のデータセットを得ることができる。なお、体毛の領域を抽出するためのマスク画像についても、同様の手法で作成することができる。また、元のマスク画像の枚数は一例であり、この枚数に限定されるものではない。 When learning, first, a mask image to be used as U-Net teacher data is created from an image created by the preprocessing unit 12. The mask image is created by filling in areas (pixels) where microvessels exist from the image based on human judgment. The number of learning data is increased by subjecting the 26 mask images created by this method to rotation processing (up to 360° in 2° increments) and inversion processing (up, down, left and right). Through these processes, one original mask image can be increased to 360 images, so a dataset of 9360 images can be finally obtained. Note that a mask image for extracting body hair regions can also be created using a similar method. Further, the number of original mask images is just an example, and is not limited to this number.

学習の評価のため、データセットの9割を訓練データとし、1割をテストデータとして分割した後、U-Netによる学習を行う。微細血管の領域抽出の検出精度を確認するために、Dice係数を使用した。Dice係数は、正解画像とU―Netの推測画像の類似度を評価するものであり、正解領域をX、推測領域をYとして次式(式3)で求めることができる。 To evaluate learning, the dataset is divided into 90% training data and 10% test data, and then learning is performed using U-Net. The Dice coefficient was used to confirm the detection accuracy of microvessel region extraction. The Dice coefficient evaluates the degree of similarity between the correct image and the guessed image of U-Net, and can be obtained by the following equation (Formula 3), where X is the correct region and Y is the guessed region.

Figure 0007357955000001
Figure 0007357955000001

図6は、学習回数とDice係数との相関を示す学習曲線図である。図6においては、横軸を学習回数、縦軸をDice係数としている。9割の訓練データと、1割のテストデータとの組み合わせを変えながら、学習してゆくことにより、図6に示す学習曲線図が得られた。図6に示すように、20回の学習でDice係数がほぼ飽和することが分かる。この結果から、データセット全てに対して20回の学習を行い、第1領域抽出部13および第2領域抽出部15を作成した。なお、学習方法および学習回数は、これらに限定されるものではない。 FIG. 6 is a learning curve diagram showing the correlation between the number of learning times and the Dice coefficient. In FIG. 6, the horizontal axis represents the number of learning times, and the vertical axis represents the Dice coefficient. By learning while changing the combination of 90% training data and 10% test data, the learning curve diagram shown in FIG. 6 was obtained. As shown in FIG. 6, it can be seen that the Dice coefficient is almost saturated after 20 learnings. Based on this result, learning was performed 20 times for all datasets, and the first region extraction section 13 and the second region extraction section 15 were created. Note that the learning method and the number of times of learning are not limited to these.

<CNNによる学習方法>
図7は、CNNの概要を説明するための図である。CNNは、深層学習の中で代表的な手法であり、何層にも分かれた深い層を持ち、特に、画像認識の分野で優れた性能を発揮しているネットワークである。CNNは、入力層141と、出力層147と、畳み込み層142~144と、最大プーリング層と、全結合層145~146とで構成されている。
<Learning method using CNN>
FIG. 7 is a diagram for explaining the outline of CNN. CNN is a representative method among deep learning, has many deep layers, and is a network that exhibits excellent performance particularly in the field of image recognition. The CNN is composed of an input layer 141, an output layer 147, convolution layers 142-144, a maximum pooling layer, and fully connected layers 145-146.

CNNの特徴として、学習の際に入力データから自動的に必要な特徴を抽出する。この機能を、畳み込み層142~144と最大プーリング層とで実現している。畳み込み層142~144は、単純型細胞をモデルに考えられたもので、特定の形状に反応して特徴を捉えることが可能であり、画像全体にフィルタをスライドさせながらかけて特徴マップを出力する。最大プーリング層は、畳み込み層で抽出された特徴の次元を削減し、パラメータ数や計算量を減らすことに利用される。 CNN automatically extracts necessary features from input data during learning. This function is realized by the convolutional layers 142 to 144 and the maximum pooling layer. The convolutional layers 142 to 144 are modeled after simple cells, and are capable of capturing features in response to a specific shape, and output a feature map by sliding a filter over the entire image. . The maximum pooling layer is used to reduce the dimensionality of the features extracted by the convolutional layer, reducing the number of parameters and the amount of calculation.

プーリングは、カーネルサイズ2×2の最大プーリングである。本実施形態においては、60×60に切り出されたオブジェクト画像をCNNに入力し、異なるフィルタの畳み込みと2×2のプーリングを3回繰り返す。 The pooling is maximum pooling with kernel size 2x2. In this embodiment, an object image cut out to 60x60 is input to CNN, and convolution with different filters and 2x2 pooling are repeated three times.

学習する際には、まず、前処理部12によって作成された画像から、人手によってオブジェクトをそれぞれ切出し、体毛、微細血管、係蹄部先端の3種類に分類して学習データとする。本実施形態においては、体毛を154枚、係蹄部先端を242枚、微細血管を159枚に分類した。この状態では、総数が555枚であり、学習データとしては少ないため、過学習の発生や精度が低くなってしまう。そこで、この学習データを回転処理(30°刻みで360°まで)し、合計6660枚を作成して学習データを増やしている。 When learning, first, objects are manually cut out from the image created by the preprocessing unit 12 and classified into three types: body hair, microvessels, and snare tips, and are used as learning data. In this embodiment, body hair was classified into 154 hairs, snare tips were classified into 242 hairs, and microvessels were classified into 159 hairs. In this state, the total number of images is 555, which is a small amount of learning data, resulting in overlearning and low accuracy. Therefore, this learning data was rotated (in 30° increments up to 360°) to create a total of 6,660 images to increase the learning data.

学習の評価のため、データセットの9割を訓練データとし、1割をテストデータとして分割した後、CNNによる学習を30回行った。図8は、オブジェクトのクラス(体毛、係蹄部先端、微細血管)ごとの正答率(適合率、再現率)の一例を示す図である。 To evaluate learning, the dataset was divided into 90% training data and 10% test data, and then CNN learning was performed 30 times. FIG. 8 is a diagram showing an example of the correct answer rate (precision rate, recall rate) for each object class (body hair, snare tip, microvessel).

なお、体毛が微細血管として誤判定されるのを防止するために、後述のように、微細血管と判定されたオブジェクトであっても、係蹄部先端を含まないオブジェクトは体毛であると判定するようにしてもよい。 In addition, in order to prevent body hair from being incorrectly determined as microvessels, as described later, even if an object is determined to be a microvessel, an object that does not include the snare tip is determined to be body hair. You can do it like this.

<第1領域抽出部13、第2領域抽出部15の動作>
第2領域抽出部15が、前処理された後の画像から微細血管を抽出した場合、誤判定で体毛が微細血管として抽出されることがある。そのため、第1領域抽出部13によって体毛を抽出しておき、第2領域抽出部15が、第1領域抽出部13によって抽出された体毛を識別した画像から、微細血管を抽出するようにしている。
<Operations of the first region extracting section 13 and the second region extracting section 15>
When the second area extraction unit 15 extracts microvessels from the preprocessed image, body hair may be extracted as microvessels due to incorrect determination. Therefore, the first region extracting section 13 extracts body hair, and the second region extracting section 15 extracts microvessels from the image in which the body hair extracted by the first region extracting section 13 is identified. .

第1領域抽出部13は、前処理部12によって前処理された後の画像から、体毛の領域を抽出する。第1領域抽出部13は、上述のようにU-Net、CNN等を用いて体毛の領域を抽出するように学習されている。 The first area extraction unit 13 extracts a body hair area from the image that has been preprocessed by the preprocessing unit 12 . The first region extraction unit 13 is trained to extract the body hair region using U-Net, CNN, etc., as described above.

画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域ではない微細血管の領域を識別する。例えば、画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を除去するようにしてもよい。また、画像識別部14は、前処理部12によって前処理された後の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を判別できるように画像を変更するようにしてもよい。例えば、画像識別部14は、前処理部12によって前処理された後の画像において、各領域の色または階調を異ならせることで、微細血管の領域と微細血管の領域以外の領域(体毛の領域を含む)とを識別可能にしてもよい。 The image identification section 14 identifies microvessel regions that are not body hair regions extracted by the first region extraction section 13 from the image preprocessed by the preprocessing section 12 . For example, the image identification section 14 may remove the image of the body hair region extracted by the first region extraction section 13 from the image preprocessed by the preprocessing section 12. Further, the image identification unit 14 may change the image so that the image of the body hair area extracted by the first area extraction unit 13 can be determined from the image preprocessed by the preprocessing unit 12. good. For example, the image identification unit 14 changes the color or gradation of each area in the image preprocessed by the preprocessing unit 12 to determine the area of microvessels and the area other than microvessels (body hair). (including areas) may be made distinguishable.

第2領域抽出部15は、画像識別部14によって体毛の領域が識別された後の画像から、毛細血管の領域を抽出する。第2領域抽出部15は、上述のようにU-Net、CNN等を用いて微細血管の領域を抽出するように学習されている。 The second area extraction unit 15 extracts a capillary area from the image after the body hair area has been identified by the image identification unit 14. The second region extraction unit 15 is trained to extract microvessel regions using U-Net, CNN, etc., as described above.

<画像処理装置1の処理手順>
図9は、本発明の第1の実施形態に係る画像処理装置1の処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S1)。
<Processing procedure of image processing device 1>
FIG. 9 is a flowchart for explaining the processing procedure of the image processing apparatus 1 according to the first embodiment of the present invention. First, the image acquisition unit 11 acquires a two-dimensional image photographed by the image photographing device 2 (S1).

次に、前処理部12は、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を第1領域抽出部13および画像識別部14に出力する(S2)。 Next, the preprocessing unit 12 performs preprocessing on the two-dimensional image acquired by the image acquisition unit 11 and outputs the preprocessed image to the first area extraction unit 13 and the image identification unit 14. (S2).

次に、第1領域抽出部13は、前処理部12によって前処理が行われた後の入力画像から、体毛の領域を抽出する(S3)。そして、画像識別部14は、前処理部12によって前処理が行われた後の入力画像から、第1領域抽出部13によって抽出された体毛の領域を識別する(S4)。 Next, the first region extracting unit 13 extracts a body hair region from the input image that has been preprocessed by the preprocessing unit 12 (S3). Then, the image identifying unit 14 identifies the body hair region extracted by the first region extracting unit 13 from the input image that has been preprocessed by the preprocessing unit 12 (S4).

最後に、第2領域抽出部15は、画像識別部14によって体毛の領域が識別された後の画像から、微細血管の領域を抽出する(S5)。 Finally, the second area extraction unit 15 extracts the microvessel area from the image after the body hair area has been identified by the image identification unit 14 (S5).

<画像処理装置1の効果>
以上説明したように、本実施形態に係る画像処理装置1によれば、第2領域抽出部15が、画像識別部14によって体毛の領域が識別された後の画像から、微細血管の領域を抽出する。したがって、第2領域抽出部15は、微細血管を高精度で抽出することが可能となる。
<Effects of image processing device 1>
As described above, according to the image processing device 1 according to the present embodiment, the second region extraction section 15 extracts the microvessel region from the image after the body hair region has been identified by the image identification section 14. do. Therefore, the second region extraction unit 15 can extract microvessels with high precision.

また、画像処理装置1は、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。 Furthermore, since the image processing device 1 extracts microvessels using a two-dimensional image, it is possible to realize an image processing system including the image capturing device 2 at low cost.

(実施形態2)
実施形態1に係る画像処理装置1は、体毛の領域が識別された後の画像から、微細血管の領域を抽出するものである。実施形態2に係る画像処理装置1Aは、体毛の領域と微細血管の領域とを別々に抽出し、微細血管として抽出された領域から、体毛として抽出された領域を識別するものである。
(Embodiment 2)
The image processing device 1 according to the first embodiment extracts a microvessel region from an image after a body hair region has been identified. The image processing device 1A according to the second embodiment separately extracts a body hair region and a microvessel region, and identifies the region extracted as body hair from the region extracted as microvessels.

図10は、本発明の実施形態2に係る画像処理装置1Aの構成例を示す図である。画像処理装置1Aは、画像取得部11と、前処理部12と、第1領域抽出部13と、画像識別部14Aと、第2領域抽出部15Aと、を備えている。なお、実施形態1において説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。 FIG. 10 is a diagram showing a configuration example of an image processing apparatus 1A according to Embodiment 2 of the present invention. The image processing device 1A includes an image acquisition section 11, a preprocessing section 12, a first region extraction section 13, an image identification section 14A, and a second region extraction section 15A. Note that components having the same functions as those described in Embodiment 1 are given the same reference numerals, and the description thereof will be omitted as appropriate.

画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。 The image acquisition unit 11 acquires an image including microvessels from the image capturing device 2 via the communication network 3. The image acquisition unit 11 outputs the image acquired from the image capturing device 2 to the preprocessing unit 12.

前処理部12は、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。そして、前処理部12は、正規化処理を行った後の画像に対して、二値化処理で閾値以下の明度の領域を抽出する。 The preprocessing unit 12 performs normalization processing to equalize brightness values and adjust brightness and darkness in all images. Then, the preprocessing unit 12 performs binarization processing on the image after performing the normalization processing to extract a region having a brightness equal to or less than a threshold value.

第1領域抽出部13は、前処理部12によって前処理された後の画像から、体毛の領域を抽出する。第1領域抽出部13は、上述のようにU-Net、CNN等を用いて体毛の領域を抽出するように学習されている。 The first area extraction unit 13 extracts a body hair area from the image that has been preprocessed by the preprocessing unit 12 . The first region extraction unit 13 is trained to extract the body hair region using U-Net, CNN, etc., as described above.

第2領域抽出部15Aは、前処理部12によって前処理された後の画像から、微細血管の領域を抽出する。第2領域抽出部15Aは、上述のようにU-Net、CNN等を用いて微細血管の領域を抽出するように学習されている。 The second region extracting section 15A extracts a region of microvessels from the image that has been preprocessed by the preprocessing section 12. The second region extraction unit 15A is trained to extract microvessel regions using U-Net, CNN, etc., as described above.

画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する。この処理は、第2領域抽出部15Aによって体毛が微細血管として誤判定された場合、画像識別部14Aによって微細血管と誤判定された体毛を識別するために行われる。 The image identification section 14A identifies the image of the body hair region extracted by the first region extraction section 13 from the image of the microvessel region extracted by the second region extraction section 15A. This process is performed in order to identify body hair that has been erroneously determined to be a microvessel by the image identification unit 14A when the second region extraction unit 15A has erroneously determined the body hair to be a microvessel.

例えば、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を除去するようにしてもよい。また、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を判別できるように画像を変更するようにしてもよい。 For example, the image identification section 14A may remove the image of the body hair region extracted by the first region extraction section 13 from the image of the microvessel region extracted by the second region extraction section 15A. The image identification unit 14A also changes the image so that the image of the body hair area extracted by the first area extraction unit 13 can be determined from the image of the microvessel area extracted by the second area extraction unit 15A. You can do it like this.

<画像処理装置1Aの処理手順>
図11は、本発明の第2の実施形態に係る画像処理装置1Aの処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S11)。
<Processing procedure of image processing device 1A>
FIG. 11 is a flowchart for explaining the processing procedure of the image processing apparatus 1A according to the second embodiment of the present invention. First, the image acquisition unit 11 acquires a two-dimensional image photographed by the image photographing device 2 (S11).

次に、前処理部12は、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を第1領域抽出部13および第2領域抽出部15Aに出力する(S12)。 Next, the preprocessing unit 12 performs preprocessing on the two-dimensional image acquired by the image acquisition unit 11, and the preprocessed image is transferred to the first area extraction unit 13 and the second area extraction unit 15A. (S12).

次に、第1領域抽出部13は、前処理部12によって前処理が行われた後の入力画像から、体毛の領域を抽出する(S13)。また、第2領域抽出部15Aは、前処理部12によって前処理が行われた後の入力画像から、微細血管の領域を抽出する(S14)。 Next, the first region extracting section 13 extracts a body hair region from the input image that has been preprocessed by the preprocessing section 12 (S13). Furthermore, the second region extracting section 15A extracts a region of microvessels from the input image that has been preprocessed by the preprocessing section 12 (S14).

最後に、画像識別部14Aは、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する(S15)。 Finally, the image identifying section 14A identifies the image of the body hair region extracted by the first region extracting section 13 from the image of the microvessel region extracted by the second region extracting section 15A (S15).

<画像処理装置1Aの効果>
以上説明したように、本実施形態に係る画像処理装置1Aによれば、画像識別部14Aが、第2領域抽出部15Aによって抽出された微細血管の領域の画像から、第1領域抽出部13によって抽出された体毛の領域の画像を識別する。したがって、画像識別部14Aは、微細血管を高精度で抽出することができる。
<Effects of image processing device 1A>
As explained above, according to the image processing device 1A according to the present embodiment, the image identification section 14A uses the first region extraction section 13 from the image of the microvessel region extracted by the second region extraction section 15A. Identify the image of the extracted body hair region. Therefore, the image identification unit 14A can extract microvessels with high precision.

また、画像処理装置1Aは、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。 Moreover, since the image processing device 1A extracts microvessels using a two-dimensional image, it is possible to realize an image processing system including the image capturing device 2 at low cost.

(実施形態3)
実施形態1に係る画像処理装置1および実施形態2に係る画像処理装置1Aは、U-Net、CNN等の機械学習によって微細血管および体毛を抽出するものである。実施形態3に係る画像処理装置1Bは、画像処理によって係蹄部先端を抽出して微細血管を判定するものである。
(Embodiment 3)
The image processing device 1 according to the first embodiment and the image processing device 1A according to the second embodiment extract microvessels and body hair using machine learning such as U-Net and CNN. The image processing device 1B according to the third embodiment extracts the tips of snare portions by image processing and determines microvessels.

図12は、本発明の実施形態3に係る画像処理装置1Bの構成例を示す図である。画像処理装置1Bは、画像取得部11と、前処理部12Bと、領域抽出部16と、画像識別部14Bと、を備えている。なお、実施形態1および2において説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。 FIG. 12 is a diagram showing a configuration example of an image processing apparatus 1B according to Embodiment 3 of the present invention. The image processing device 1B includes an image acquisition section 11, a preprocessing section 12B, a region extraction section 16, and an image identification section 14B. Note that components having the same functions as those described in Embodiments 1 and 2 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

画像取得部11は、通信ネットワーク3を介して、画像撮影装置2から微細血管を含んだ画像を取得する。画像取得部11は、画像撮影装置2から取得した画像を前処理部12に出力する。 The image acquisition unit 11 acquires an image including microvessels from the image capturing device 2 via the communication network 3. The image acquisition unit 11 outputs the image acquired from the image capturing device 2 to the preprocessing unit 12.

前処理部12Bは、全ての画像において輝度値を均一化させ、明暗を調整するための正規化処理を行う。なお、本実施形態において、二値化処理は、前処理部12Bで行われず、領域抽出部16によって行われる。 The preprocessing unit 12B performs normalization processing to equalize brightness values and adjust brightness and darkness in all images. Note that in this embodiment, the binarization process is not performed by the preprocessing unit 12B but by the area extraction unit 16.

領域抽出部16は、前処理部12Bによって前処理された後の画像から、微細血管を判定する。そして、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域の画像を識別し、識別後の画像を出力する。 The area extraction unit 16 determines microvessels from the image preprocessed by the preprocessing unit 12B. Then, the image identifying section 14B identifies the image of the region determined to be a microvessel by the region extracting section 16, and outputs the identified image.

例えば、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域以外の画像(オブジェクト)を除去するようにしてもよい。また、画像識別部14Bは、領域抽出部16によって微細血管と判定された領域の画像を判別できるように画像を変更するようにしてもよい。例えば、画像識別部14Bは、前処理部12Bによって前処理された後の画像を二値化した画像において、各領域の色または階調を異ならせることで、微細血管の領域と微細血管の領域以外の領域(体毛の領域を含む)とを識別可能にしてもよい。 For example, the image identification unit 14B may remove images (objects) other than the areas determined to be microvessels by the area extraction unit 16. Further, the image identifying unit 14B may change the image so that it can identify the image of the area determined by the area extracting unit 16 to be a microvessel. For example, the image identification unit 14B can differentiate microvessel areas and microvessel areas by changing the color or gradation of each area in an image obtained by binarizing the image preprocessed by the preprocessing unit 12B. It may also be possible to make it possible to distinguish between other areas (including areas of body hair).

図13は、領域抽出部16の構成例を示す図である。領域抽出部16は、係蹄部先端抽出部161と、候補領域抽出部162と、微細血管判定部163と、を備えている。 FIG. 13 is a diagram showing an example of the configuration of the area extraction section 16. The region extraction section 16 includes a snare tip extraction section 161, a candidate region extraction section 162, and a microvessel determination section 163.

係蹄部先端抽出部161は、前処理部12Bによって前処理された後の画像から、画像処理によって係蹄部先端を抽出する。係蹄部先端抽出部161は、まず、前処理部12Bによって前処理された後の画像から、オブジェクトを検出し、各オブジェクトの座標情報を取得する。そして、係蹄部先端抽出部161は、各オブジェクトの中から黒い丸いオブジェクトを係蹄部先端として抽出し、係蹄部先端の座標情報を取得する。 The snare tip extraction section 161 extracts the snare tip from the image preprocessed by the preprocessing section 12B by image processing. The snare tip extraction unit 161 first detects objects from the image preprocessed by the preprocessing unit 12B, and obtains coordinate information of each object. Then, the snare tip extracting unit 161 extracts a black round object from each object as the snare tip, and obtains coordinate information of the snare tip.

具体的には、係蹄部先端抽出部161は、二次元画像を第1閾値で二値化した画像(微細血管および体毛は消えて係蹄部先端が残った画像)から、画像処理によって、係蹄部先端に対応するオブジェクト(点状の円形領域)を抽出する。なお、画像処理は、円形領域を抽出できるものであればよい。 Specifically, the snare tip extracting unit 161 performs image processing on an image obtained by binarizing a two-dimensional image using a first threshold value (an image in which microvessels and body hair have disappeared and the snare tip remains). An object (a dotted circular area) corresponding to the tip of the snare is extracted. Note that any image processing may be used as long as it can extract a circular region.

候補領域抽出部162は、二次元画像を第1閾値とは異なる第2閾値で二値化した画像(微細血管および体毛が残った画像)から、実施形態1の第1領域抽出部13と同様に、体毛の領域を抽出する。そして、候補領域抽出部162は、二値化した画像から体毛の領域を除去する。 The candidate region extracting section 162 extracts a binary image (an image in which microvessels and body hair remain) obtained by binarizing the two-dimensional image using a second threshold different from the first threshold, in the same way as the first region extracting section 13 of the first embodiment. Then, extract the body hair region. The candidate region extraction unit 162 then removes the body hair region from the binarized image.

そして、候補領域抽出部162は、体毛の領域を除去した画像から、微細血管の複数の候補領域をオブジェクトとして抽出し、各オブジェクトの座標情報を取得する。候補領域抽出部162は、予め微細血管を抽出するように機械学習されている。 Then, the candidate region extraction unit 162 extracts a plurality of candidate regions of microvessels as objects from the image from which body hair regions have been removed, and obtains coordinate information of each object. The candidate region extraction unit 162 has been machine-learned in advance to extract microvessels.

微細血管判定部163は、各オブジェクトの座標情報を参照して、微細血管の候補領域のうち、係蹄部先端のオブジェクトを含む(重なっている)候補領域を、微細血管の領域と特定する。 The microvessel determination unit 163 refers to the coordinate information of each object and identifies, among the microvessel candidate regions, a candidate region that includes (overlaps) the object at the snare tip as a microvessel region.

なお、第1の実施形態において説明した第2領域抽出部15または第2の実施形態において説明した第2領域抽出部15Aが、領域抽出部16の構成と同様の構成を有しており、係蹄部先端を抽出し、抽出した係蹄部先端に基づいて微細血管を判定するようにしてもよい。 Note that the second region extracting section 15 described in the first embodiment or the second region extracting section 15A described in the second embodiment has a configuration similar to that of the region extracting section 16, and The tip of the hoof may be extracted, and microvessels may be determined based on the extracted tip of the snare.

<画像処理装置1Bの処理手順>
図14は、本発明の第3の実施形態に係る画像処理装置1Bの処理手順を説明するためのフローチャートである。まず、画像取得部11が、画像撮影装置2によって撮影された二次元画像を取得する(S21)。
<Processing procedure of image processing device 1B>
FIG. 14 is a flowchart for explaining the processing procedure of the image processing apparatus 1B according to the third embodiment of the present invention. First, the image acquisition unit 11 acquires a two-dimensional image photographed by the image photographing device 2 (S21).

次に、前処理部12Bは、画像取得部11によって取得された二次元画像に対して前処理を行い、前処理を行った後の画像を領域抽出部16に出力する(S22)。 Next, the preprocessing unit 12B performs preprocessing on the two-dimensional image acquired by the image acquisition unit 11, and outputs the preprocessed image to the area extraction unit 16 (S22).

次に、係蹄部先端抽出部161は、前処理部12Bによって前処理が行われた後の入力画像から、係蹄部先端のオブジェクトを抽出する(S23)。そして、候補領域抽出部162は、二次元画像から体毛の領域を除去した後、微細血管の複数の候補領域を抽出する(S24)。 Next, the snare tip extraction unit 161 extracts the object of the snare tip from the input image that has been preprocessed by the preprocessing unit 12B (S23). After removing the body hair region from the two-dimensional image, the candidate region extraction unit 162 extracts a plurality of candidate regions of microvessels (S24).

微細血管判定部163は、微細血管の候補領域のうち、係蹄部先端のオブジェクトを含む(重なっている)候補領域を、微細血管の領域と判定する(S25)。最後に、画像識別部14Bは、微細血管判定部163によって微細血管と判定された領域の画像を識別する(S26)。 The microvessel determination unit 163 determines, among the microvessel candidate regions, a candidate region that includes (overlaps) the object at the snare tip as a microvessel region (S25). Finally, the image identifying unit 14B identifies the image of the region determined to be a microvessel by the microvessel determining unit 163 (S26).

図15は、領域抽出部16によって体毛と判定された領域を示す図である。図15において、斜線を施した領域が体毛として判定された領域を示している。黒い領域が体毛以外の部分として判定された領域を示している。 FIG. 15 is a diagram showing regions determined to be body hair by the region extraction unit 16. In FIG. 15, the shaded area indicates the area determined as body hair. The black area indicates the area determined to be a part other than body hair.

図16は、画像識別部14Bによって微細血管が識別された後の画像を示す図である。図16において、斜線を施した領域が微細血管として判定された領域を示している。図16に示すように、微細血管と判定された領域が、それ以外の体毛を含む領域と識別可能となっている。 FIG. 16 is a diagram showing an image after microvessels have been identified by the image identifying unit 14B. In FIG. 16, the shaded areas indicate areas determined as microvessels. As shown in FIG. 16, regions determined to be microvessels can be distinguished from other regions containing body hair.

<画像処理装置1Bの効果>
以上説明したように、本実施形態に係る画像処理装置1Bによれば、領域抽出部16が、前処理部12Bによって前処理された後の画像から体毛の領域を除去した後、係蹄部先端に基づいて微細血管を判定する。そして、画像識別部14Bが、領域抽出部16によって微細血管と判定された領域の画像を識別する。したがって、画像識別部14Bは、微細血管を高精度で抽出することができる。
<Effects of image processing device 1B>
As described above, according to the image processing device 1B according to the present embodiment, the area extraction unit 16 removes the body hair area from the image preprocessed by the preprocessing unit 12B, and then Determine microvessels based on Then, the image identifying unit 14B identifies the image of the area determined to be a microvessel by the area extracting unit 16. Therefore, the image identification unit 14B can extract microvessels with high precision.

また、画像処理装置1Bは、二次元画像を用いて微細血管を抽出するので、画像撮影装置2を含んだ画像処理システムを安価で実現することが可能となる。 Furthermore, since the image processing device 1B extracts microvessels using a two-dimensional image, it is possible to realize an image processing system including the image capturing device 2 at low cost.

<ソフトウェアによる実現例>
画像処理装置1、1A、1Bの制御ブロック(特に、前処理部12、第1領域抽出部13、画像識別部14、14A、14B、第2領域抽出部15、15A、領域抽出部16)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
<Example of implementation using software>
The control blocks of the image processing devices 1, 1A, and 1B (in particular, the preprocessing section 12, the first region extraction section 13, the image identification section 14, 14A, 14B, the second region extraction section 15, 15A, and the region extraction section 16) are as follows. , may be realized by a logic circuit (hardware) formed on an integrated circuit (IC chip) or the like, or may be realized by software.

後者の場合、画像処理装置1、1A、1Bは、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the image processing devices 1, 1A, and 1B are equipped with a computer that executes instructions of a program that is software that implements each function. The computer includes, for example, at least one processor and at least one computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes the program, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, in addition to "non-temporary tangible media" such as ROM (Read Only Memory), tapes, disks, cards, semiconductor memories, programmable logic circuits, etc. can be used. Further, the computer may further include a RAM (Random Access Memory) for expanding the above program. Furthermore, the program may be supplied to the computer via any transmission medium (communication network, broadcast waves, etc.) that can transmit the program. Note that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る画像処理装置は、
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、
前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備える。
〔summary〕
The image processing device according to aspect 1 of the present invention includes:
a first region extraction unit that extracts a body hair region from the two-dimensional image;
an image identification unit that identifies the body hair region extracted by the first region extraction unit from the two-dimensional image;
a second region extraction section that extracts a venule or arteriole region from the image in which the body hair region has been identified by the image identification section.

上記構成によれば、第2領域抽出部が、画像識別部によって体毛の領域が識別された後の画像から、細静脈または細動脈の領域を抽出するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, the second region extraction section extracts the venule or arteriole region from the image after the body hair region has been identified by the image identification section, so the venule or arteriole can be extracted with high precision. can be extracted.

本発明の態様2に係る画像処理装置は、
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、
前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える。
The image processing device according to aspect 2 of the present invention includes:
a first region extraction unit that extracts a body hair region from the two-dimensional image;
a second region extraction unit that extracts a region of a venule or an arteriole from the two-dimensional image;
Identifying a region of the venule or arteriole that is not the body hair region extracted by the first region extraction section from an image of the venule or arteriole region extracted by the second region extraction section. and an image identification unit.

上記構成によれば、画像識別部が、第2領域抽出部によって抽出された細静脈または細動脈の領域の画像から、第1領域抽出部によって抽出された体毛の領域の画像を識別するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, the image identification section identifies the image of the body hair region extracted by the first region extraction section from the image of the venule or arteriole region extracted by the second region extraction section. Venules or arterioles can be extracted with high precision.

本発明の態様3に係る画像処理装置は、態様1または2に記載の画像処理装置であって、
前記第2領域抽出部は、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する。
The image processing device according to aspect 3 of the present invention is the image processing device according to aspect 1 or 2, comprising:
The second region extracting unit extracts a tip of the snare portion, and determines a region of the venule or arteriole based on the tip of the snare portion.

上記構成によれば、第2領域抽出部が、細静脈または細動脈をさらに高精度で抽出することができる。 According to the above configuration, the second region extraction section can extract venules or arterioles with even higher precision.

本発明の態様4に係る画像処理装置は、態様1または2に記載の画像処理装置であって、
前記第1領域抽出部は、機械学習によって、前記二次元画像から前記体毛の領域を抽出するように学習されており、
前記第2領域抽出部は、機械学習によって、前記二次元画像から前記細静脈または前記細動脈の領域を抽出するように学習されている。
The image processing device according to aspect 4 of the present invention is the image processing device according to aspect 1 or 2,
The first region extraction unit is trained by machine learning to extract the body hair region from the two-dimensional image,
The second region extracting unit is trained by machine learning to extract the region of the venule or the arteriole from the two-dimensional image.

上記構成によれば、第1領域抽出部および第2領域抽出部の学習精度を上げることによって、さらに細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, by increasing the learning accuracy of the first region extracting section and the second region extracting section, venules or arterioles can be extracted with higher precision.

本発明の態様5に係る画像処理装置は、
二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、
前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、
前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える。
The image processing device according to aspect 5 of the present invention includes:
a snare tip extraction unit that extracts a snare tip from a two-dimensional image;
a candidate region extraction unit that extracts a candidate region of a venule or an arteriole from the two-dimensional image;
A microvessel determination unit that determines a region of the venule or arteriole based on the snare tip and the candidate region extracted by the snare tip extraction unit.

上記構成によれば、微細血管判定部が、係蹄部先端抽出部によって抽出された係蹄部先端と候補領域とに基づいて、細静脈または細動脈の領域を判定するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, the microvessel determination section determines the region of the venule or arteriole based on the snare tip and candidate region extracted by the snare tip extraction section, so Arteries can be extracted with high precision.

本発明の態様6に係る画像処理装置は、態様5に記載の画像処理装置であって、
前記微細血管判定部は、前記係蹄部先端抽出部によって抽出された係蹄部先端を含む前記候補領域を前記細静脈または前記細動脈の領域と判定する。
An image processing device according to aspect 6 of the present invention is the image processing device according to aspect 5, comprising:
The microvessel determination section determines the candidate region including the snare tip extracted by the snare tip extraction section to be the venule or arteriole region.

上記構成によれば、さらに毛細血管を高精度で抽出することができる。 According to the above configuration, capillaries can be extracted with higher precision.

本発明の態様7に係る画像処理方法は、
二次元画像から体毛の領域を抽出し、
前記二次元画像から、抽出された前記体毛の領域を識別し、
前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する。
The image processing method according to aspect 7 of the present invention includes:
Extract the body hair region from the two-dimensional image,
identifying the extracted body hair region from the two-dimensional image;
A venule or arteriole region is extracted from the image in which the body hair region has been identified.

上記構成によれば、体毛の領域が識別された後の画像から、細静脈または細動脈の領域を抽出するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, since the venule or arteriole region is extracted from the image after the body hair region has been identified, the venule or arteriole can be extracted with high precision.

本発明の態様8に係る画像処理方法は、
二次元画像から体毛の領域を抽出し、
前記二次元画像から、細静脈または細動脈の領域を抽出し、
抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する。
The image processing method according to aspect 8 of the present invention includes:
Extract the body hair region from the two-dimensional image,
extracting a region of venules or arterioles from the two-dimensional image;
A region of the venule or arteriole that is not the extracted body hair region is identified from an image of the extracted region of the venule or arteriole.

上記構成によれば、抽出された細静脈または細動脈の領域の画像から、抽出された体毛の領域の画像を識別するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, since the image of the extracted body hair region is identified from the image of the extracted venule or arteriole region, the venule or arteriole can be extracted with high precision.

本発明の態様9に係る画像処理方法は、
二次元画像から、係蹄部先端を抽出し、
前記二次元画像から、細静脈または細動脈の候補領域を抽出し、
抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する。
The image processing method according to aspect 9 of the present invention includes:
Extract the snare tip from the two-dimensional image,
extracting candidate regions of venules or arterioles from the two-dimensional image;
The region of the venule or arteriole is determined based on the extracted tip of the snare portion and the candidate region.

上記構成によれば、抽出された係蹄部先端と候補領域とに基づいて、細静脈または細動脈の領域を判定するので、細静脈または細動脈を高精度で抽出することができる。 According to the above configuration, since the region of the venule or arteriole is determined based on the extracted tip of the snare portion and the candidate region, the venule or arteriole can be extracted with high precision.

〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Additional notes]
The present invention is not limited to the embodiments described above, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. are also included within the technical scope of the present invention.

1、1A、1B 画像処理装置
2 画像撮影装置
3 通信ネットワーク
11 画像取得部
12、12B 前処理部
13 第1領域抽出部
14、14A、14B 画像識別部
15、15A 第2領域抽出部
16 領域抽出部
21 カメラ
22 緑色光源
23 スロット
24 採血針
25 ハイドロゲル
100 画像処理システム
161 係蹄部先端抽出部
162 候補領域抽出部
163 微細血管判定部
1, 1A, 1B Image processing device 2 Image photographing device 3 Communication network 11 Image acquisition section 12, 12B Preprocessing section 13 First region extraction section 14, 14A, 14B Image identification section 15, 15A Second region extraction section 16 Region extraction Part 21 Camera 22 Green light source 23 Slot 24 Blood collection needle 25 Hydrogel 100 Image processing system 161 Snare tip extraction unit 162 Candidate region extraction unit 163 Microvessel determination unit

Claims (8)

二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、前記第1領域抽出部によって抽出された前記体毛の領域を識別する画像識別部と、
前記画像識別部によって前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出する第2領域抽出部と、を備え、
前記第2領域抽出部は、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理装置。
a first region extraction unit that extracts a body hair region from the two-dimensional image;
an image identification unit that identifies the body hair region extracted by the first region extraction unit from the two-dimensional image;
a second area extraction unit that extracts a venule or arteriole area from the image in which the body hair area has been identified by the image identification unit;
The second region extracting unit is an image processing device that extracts a tip of a snare portion and determines a region of the venule or the arteriole based on the tip of the snare portion.
二次元画像から体毛の領域を抽出する第1領域抽出部と、
前記二次元画像から、係蹄部先端を抽出し、当該係蹄部先端に基づいて、細静脈または細動脈の領域を判定して、前記細静脈または前記細動脈の領域を抽出する第2領域抽出部と、
前記第2領域抽出部によって抽出された前記細静脈または前記細動脈の領域の画像から、前記第1領域抽出部によって抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する画像識別部と、を備える画像処理装置。
a first region extraction unit that extracts a body hair region from the two-dimensional image;
A second region for extracting a tip of a snare from the two-dimensional image, determining a region of a venule or an arteriole based on the tip of the snare, and extracting a region of the venule or arteriole. an extraction section;
Identifying a region of the venule or arteriole that is not the body hair region extracted by the first region extraction section from an image of the venule or arteriole region extracted by the second region extraction section. An image processing device comprising: an image identification unit that performs
前記第1領域抽出部は、機械学習によって、前記二次元画像から前記体毛の領域を抽出するように学習されており、
前記第2領域抽出部は、機械学習によって、前記二次元画像から前記細静脈または前記細動脈の領域を抽出するように学習されている、請求項1または2に記載の画像処理装置。
The first region extraction unit is trained by machine learning to extract the body hair region from the two-dimensional image,
The image processing device according to claim 1 or 2, wherein the second region extraction unit is trained to extract the region of the venule or the arteriole from the two-dimensional image by machine learning.
二次元画像から、係蹄部先端を抽出する係蹄部先端抽出部と、
前記二次元画像から、細静脈または細動脈の候補領域を抽出する候補領域抽出部と、
前記係蹄部先端抽出部によって抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する微細血管判定部と、を備える画像処理装置。
a snare tip extraction unit that extracts a snare tip from a two-dimensional image;
a candidate region extraction unit that extracts a candidate region of a venule or an arteriole from the two-dimensional image;
An image processing device comprising: a microvessel determining unit that determines a region of the venule or arteriole based on the snare tip and the candidate region extracted by the snare tip extracting unit.
前記微細血管判定部は、前記係蹄部先端抽出部によって抽出された係蹄部先端を含む前記候補領域を前記細静脈または前記細動脈の領域と判定する、請求項に記載の画像処理装置。 The image processing device according to claim 4 , wherein the microvessel determination unit determines the candidate region including the snare tip extracted by the snare tip extraction unit to be a region of the venule or the arteriole. . 二次元画像から体毛の領域を抽出し、
前記二次元画像から、抽出された前記体毛の領域を識別し、
前記体毛の領域が識別された画像から、細静脈または細動脈の領域を抽出し、
前記細静脈または前記細動脈の領域を抽出する工程において、係蹄部先端を抽出し、当該係蹄部先端に基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理方法。
Extract the body hair region from the two-dimensional image,
identifying the extracted body hair region from the two-dimensional image;
extracting a venule or arteriole region from the image in which the body hair region has been identified;
An image processing method, wherein in the step of extracting a region of the venule or the arteriole, a tip of the snare portion is extracted, and a region of the venule or the arteriole is determined based on the tip of the snare portion.
二次元画像から体毛の領域を抽出し、
前記二次元画像から、係蹄部先端を抽出し、当該係蹄部先端に基づいて、細静脈または細動脈の領域を判定して、前記細静脈または前記細動脈の領域を抽出し、
抽出された前記細静脈または前記細動脈の領域の画像から、抽出された前記体毛の領域ではない前記細静脈または前記細動脈の領域を識別する、画像処理方法。
Extract the body hair region from the two-dimensional image,
extracting a tip of the snare from the two-dimensional image, determining a region of a venule or arteriole based on the tip of the snare, and extracting a region of the venule or arteriole;
An image processing method for identifying a region of the venule or arteriole that is not the extracted body hair region from an image of the extracted region of the venule or arteriole.
二次元画像から、係蹄部先端を抽出し、
前記二次元画像から、細静脈または細動脈の候補領域を抽出し、
抽出された前記係蹄部先端と前記候補領域とに基づいて、前記細静脈または前記細動脈の領域を判定する、画像処理方法。
Extract the snare tip from the two-dimensional image,
extracting candidate regions of venules or arterioles from the two-dimensional image;
An image processing method, wherein a region of the venule or the arteriole is determined based on the extracted tip of the snare portion and the candidate region.
JP2022007289A 2022-01-20 2022-01-20 Image processing device and image processing method Active JP7357955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022007289A JP7357955B2 (en) 2022-01-20 2022-01-20 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022007289A JP7357955B2 (en) 2022-01-20 2022-01-20 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2023106142A JP2023106142A (en) 2023-08-01
JP7357955B2 true JP7357955B2 (en) 2023-10-10

Family

ID=87473110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022007289A Active JP7357955B2 (en) 2022-01-20 2022-01-20 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7357955B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020130466A (en) * 2019-02-15 2020-08-31 株式会社三洋物産 Game machine
JP7234741B2 (en) * 2019-03-28 2023-03-08 株式会社三洋物産 game machine
JP7234740B2 (en) * 2019-03-28 2023-03-08 株式会社三洋物産 game machine
JP2021186294A (en) * 2020-05-29 2021-12-13 株式会社三洋物産 Game machine
JP2023063369A (en) * 2022-01-07 2023-05-09 株式会社三洋物産 game machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325656A (en) 2006-06-06 2007-12-20 Matsushita Electric Ind Co Ltd Image processing method and image processing device
JP2015049666A (en) 2013-08-30 2015-03-16 ポーラ化成工業株式会社 Image processing method and image processing apparatus
US20180146912A1 (en) 2016-11-29 2018-05-31 Stmicroelectronics S.R.L. Method and system for analyzing skin lesions
WO2018168071A1 (en) 2017-03-16 2018-09-20 富士フイルム株式会社 Imaging device, image display system, and image display method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2942499B2 (en) * 1996-04-23 1999-08-30 財団法人ダム水源地環境整備センター Image identification method and apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325656A (en) 2006-06-06 2007-12-20 Matsushita Electric Ind Co Ltd Image processing method and image processing device
JP2015049666A (en) 2013-08-30 2015-03-16 ポーラ化成工業株式会社 Image processing method and image processing apparatus
US20180146912A1 (en) 2016-11-29 2018-05-31 Stmicroelectronics S.R.L. Method and system for analyzing skin lesions
WO2018168071A1 (en) 2017-03-16 2018-09-20 富士フイルム株式会社 Imaging device, image display system, and image display method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
入潮拓樹,外4名,U-Netを用いた微細血管領域の検出,第24回画像の認識・理解シンポジウム,2021年07月27日
吉川亮,外4名,半教師あり学習を用いた光超音波画像における体毛領域認識,情報処理学会研究報告 ,2018年05月10日,Vol.2018-CVIM-212, NO.5

Also Published As

Publication number Publication date
JP2023106142A (en) 2023-08-01

Similar Documents

Publication Publication Date Title
JP7357955B2 (en) Image processing device and image processing method
EP3373798B1 (en) Method and system for classifying optic nerve head
CN109377474B (en) Macular positioning method based on improved Faster R-CNN
Abramoff et al. The automatic detection of the optic disc location in retinal images using optic disc location regression
CN110263755B (en) Eye ground image recognition model training method, eye ground image recognition method and eye ground image recognition device
CN112017185B (en) Focus segmentation method, device and storage medium
JP7197708B2 (en) Preprocessing method and storage device for fundus image quantitative analysis
Szymkowski et al. A novelty approach to retina diagnosing using biometric techniques with SVM and clustering algorithms
Singh et al. A new morphology based approach for blood vessel segmentation in retinal images
CN114004969A (en) Endoscope image focal zone detection method, device, equipment and storage medium
Thomas et al. Automated Detection of Age-Related Macular Degeneration from OCT Images Using Multipath CNN.
CN117611824A (en) Digital retina image segmentation method based on improved UNET
Ahmed et al. Smartphone aided real-time blood vein detection system
KR100376415B1 (en) Pupil acquisition method using eye image
Semerád et al. Retinal vascular characteristics
KR101164275B1 (en) Authentication device, authentication method, recording medium, and authentication information registration device
CN112242193B (en) Automatic blood vessel puncture method based on deep learning
CN112869704B (en) Diabetic retinopathy area automatic segmentation method based on circulation self-adaptive multi-target weighting network
Jana et al. A semi-supervised approach for automatic detection and segmentation of optic disc from retinal fundus image
Abdel-Latif et al. Achieving information security by multi-modal iris-retina biometric approach using improved mask R-CNN
Kulkarni et al. Eye gaze–based optic disc detection system
CN114677713A (en) Near-infrared light-based arm vein blood sampling point identification method and system
Le An effective method for detecting dorsal hand veins utilising near-infrared imaging technology
Bansal et al. An efficient automatic intensity based method for detection of macula in retinal images
Nivetha Retinal Based Pathology Analysis Using Deep Learning Approaches

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7357955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150