JP7570228B2 - Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device - Google Patents
Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device Download PDFInfo
- Publication number
- JP7570228B2 JP7570228B2 JP2020217684A JP2020217684A JP7570228B2 JP 7570228 B2 JP7570228 B2 JP 7570228B2 JP 2020217684 A JP2020217684 A JP 2020217684A JP 2020217684 A JP2020217684 A JP 2020217684A JP 7570228 B2 JP7570228 B2 JP 7570228B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- subject
- inference
- image
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 196
- 208000003556 Dry Eye Syndromes Diseases 0.000 title claims description 181
- 206010013774 Dry eye Diseases 0.000 title claims description 181
- 238000010801 machine learning Methods 0.000 title claims description 164
- 238000012549 training Methods 0.000 claims description 285
- 208000024891 symptom Diseases 0.000 claims description 142
- 230000006870 function Effects 0.000 claims description 139
- 238000005286 illumination Methods 0.000 claims description 129
- 230000005499 meniscus Effects 0.000 claims description 124
- 210000000744 eyelid Anatomy 0.000 claims description 58
- 210000004087 cornea Anatomy 0.000 claims description 38
- 230000002159 abnormal effect Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 17
- 230000000052 comparative effect Effects 0.000 description 16
- 230000004913 activation Effects 0.000 description 13
- 238000013507 mapping Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 11
- 238000010998 test method Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- GNBHRKFJIUUOQI-UHFFFAOYSA-N fluorescein Chemical compound O1C(=O)C2=CC=CC=C2C21C1=CC=C(O)C=C1OC1=CC(O)=CC=C21 GNBHRKFJIUUOQI-UHFFFAOYSA-N 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 239000003153 chemical reaction reagent Substances 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 239000003889 eye drop Substances 0.000 description 2
- 229940012356 eye drops Drugs 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008378 epithelial damage Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 208000030533 eye disease Diseases 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Description
本発明は、機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置に関する。 The present invention relates to a machine learning execution program, a dry eye test program, a machine learning execution device, and a dry eye test device.
現在、特に先進国において、パーソナルコンピュータ、スマーフォン、タブレット等、ディスプレイが搭載されている電子機器が広く普及しているため、目の不調を自覚する人が急激に増加している。更に、インターネットを介したオンラインサービスの増加、テレワークを推進する企業の増加等により、目の不調を自覚する人の数が更に増加していくと予想される。 Currently, especially in developed countries, electronic devices equipped with displays, such as personal computers, smartphones, and tablets, are becoming widespread, and as a result, the number of people who are aware of eye problems is rapidly increasing. Furthermore, due to the increase in online services via the Internet and the increase in companies promoting teleworking, the number of people who are aware of eye problems is expected to increase further.
このような生活習慣により比較的頻繁に引き起こされる目の不調の一例として、涙液層の不安定化を伴うドライアイが挙げられる。例えば、涙液層の安定性の指標となる涙液層破壊時間を調べるためには、眼科医がフルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察している状態で、瞬きをして目を開けた直後から涙液層が破綻するまでの時間を測定する必要がある。或いは、特許文献1に開示されている眼科診断支援装置を使用した診察を受ける必要がある。 One example of an eye disorder that is relatively frequently caused by such lifestyle habits is dry eye, which is accompanied by an instability of the tear film. For example, to examine the tear film breakup time, which is an index of tear film stability, an ophthalmologist must instill a fluorescein dye reagent into the eye and, while observing the eye using a slit lamp, measure the time from immediately after blinking to the breakdown of the tear film. Alternatively, the patient must be examined using the ophthalmic diagnostic support device disclosed in Patent Document 1.
この眼科診断支援装置は、症例データ格納部と、機械学習部と、患者データ取得部と、対比判定部と、結果表示部とを備える。症例データ格納部は、眼科診断画像データと診断結果との組み合わせからなる複数の症例基礎画像データを格納する。機械学習部は、特徴画像要素を抽出するとともに症例基礎画像データを分類する。患者データ取得部は、患者の患者眼科診断画像データを取得する。対比判定部は、患者眼科診断画像データと症例基礎画像データとを対比し、データ同士の類似性判定を実行する。結果表示部は、類似性判定の結果を表示する。 This ophthalmological diagnosis support device includes a case data storage unit, a machine learning unit, a patient data acquisition unit, a comparison judgment unit, and a result display unit. The case data storage unit stores a plurality of case basic image data consisting of a combination of ophthalmological diagnostic image data and diagnosis results. The machine learning unit extracts characteristic image elements and classifies the case basic image data. The patient data acquisition unit acquires patient ophthalmological diagnostic image data of a patient. The comparison judgment unit compares the patient ophthalmological diagnostic image data with the case basic image data and performs a similarity judgment between the data. The result display unit displays the result of the similarity judgment.
しかしながら、上述した眼科診断支援装置は、医療機関で使用される検査機器を使用して眼科診断データを取得する必要があるため、目の不調を自覚している人のドライアイの有無や程度を簡易に検査することができない。 However, the above-mentioned ophthalmic diagnostic support device requires obtaining ophthalmic diagnostic data using testing equipment used in medical institutions, and therefore cannot easily test for the presence or severity of dry eye in people who are aware of eye problems.
本発明は、上述した事情に鑑みてなされたものであり、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置を提供しようとするものである。 The present invention has been made in consideration of the above-mentioned circumstances, and aims to provide a machine learning execution program, a dry eye test program, a machine learning execution device, and a dry eye test device that can predict the results of a test related to dry eye symptoms without actually conducting the test.
本発明の一態様は、学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得機能と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、をコンピュータに実行させる機械学習実行プログラムである。 One aspect of the present invention is a machine learning execution program that causes a computer to execute a teacher data acquisition function that acquires teacher data in which the answer is at least one of the following: training image data showing training images depicting the eyes of a training subject and training eyelid open data showing the maximum eyelid open time, which is the time the training subject was able to continuously open the eye in which the training image was captured; training test image data showing an image depicting the eyes of the training subject when a test for dry eye symptoms is performed on the eyes of the training subject, and training test result data showing the results of the test for dry eye symptoms; and a machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program.
本発明の一態様は、上述した機械学習実行プログラムであって、前記教師データ取得機能が、前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す前記学習用画像データを問題とする前記教師データを取得する。 One aspect of the present invention is the machine learning execution program described above, in which the training data acquisition function acquires the training data based on the training image data showing a training tear meniscus image obtained by cutting out an area depicting the tear meniscus of the training subject from the training image.
本発明の一態様は、上述した機械学習実行プログラムであって、前記教師データ取得機能が、前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用角膜画像を示す前記学習用画像データを問題とする前記教師データを取得する。 One aspect of the present invention is the machine learning execution program described above, in which the training data acquisition function acquires the training data based on training image data showing a training corneal image extracted from the training image to depict an area depicting illumination reflected on the cornea of the training subject.
本発明の一態様は、上述した機械学習実行プログラムであって、前記教師データ取得機能が、前記学習用被検体の目の涙液層破壊時間を調べる検査が実施された際における前記学習用被検体の目を描出している画像を示す前記学習用検査画像データと、前記学習用被検体の目の涙液層破壊時間を調べる検査の結果を示す前記学習用検査結果データとの少なくとも一方を答えとする前記教師データを取得する。 One aspect of the present invention is the machine learning execution program described above, in which the teacher data acquisition function acquires the teacher data with at least one of the learning test image data showing an image depicting the eye of the learning subject when a test is performed to examine the tear film breakup time of the eye of the learning subject, and the learning test result data showing the results of the test to examine the tear film breakup time of the eye of the learning subject as an answer.
本発明の一態様は、推論用被検体の目を描出している推論用画像を示す推論用画像データと、前記推論用画像が撮影された目を前記推論用被検体が連続して開けることができた時間である最大開瞼時間を示す推論用開瞼データとを取得するデータ取得機能と、学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データ及び前記推論用開瞼データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、をコンピュータに実現させるドライアイ検査プログラムである。 One aspect of the present invention concerns a data acquisition function that acquires inference image data showing an inference image depicting the eye of an inference subject and inference eyelid opening data showing the maximum eyelid opening time, which is the time the inference subject can continuously open the eye in which the inference image was captured, and learning image data showing a learning image depicting the eye of a learning subject and learning eyelid opening data showing the maximum eyelid opening time, which is the time the learning subject can continuously open the eye in which the learning image was captured, and the learning image data showing the maximum eyelid opening time, which is the time the learning subject can continuously open the eye in which the learning image was captured, when an examination for dry eye symptoms is performed on the eye of the learning subject. A dry eye testing program that implements in a computer a symptom estimation function that inputs the inference image data and the inference eyelid open data into a machine learning program that has been trained using teacher data that uses as an answer at least one of learning test image data showing an image depicting the eye of a learning subject and learning test result data showing the results of a test regarding dry eye symptoms, causes the machine learning program to estimate the dry eye symptoms present in the eye of the inference subject, and outputs symptom data showing the dry eye symptoms present in the eye of the inference subject.
本発明の一態様は、上述したドライアイ検査プログラムであって、前記データ取得機能が、前記推論用被検体の目の涙液メニスカスを描出している前記推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データを前記推論用画像データとして取得し、前記症状推定機能が、前記学習用被検体の目の涙液メニスカスを描出している前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データを前記学習用画像データとしている前記教師データを使用して学習した前記機械学習プログラムに前記推論用涙液メニスカス画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させる。 One aspect of the present invention is the dry eye test program described above, in which the data acquisition function acquires, as the image data for inference, tear meniscus image data for inference showing an inference tear meniscus image obtained by cutting out an area depicting the tear meniscus of the inference subject's eye from the inference image depicting the tear meniscus of the inference subject's eye, and the symptom estimation function inputs the tear meniscus image data for inference to the machine learning program trained using the teacher data, in which the symptom estimation function uses as the training image data learning tear meniscus image data showing a learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject's eye from the training image depicting the tear meniscus of the learning subject's eye, and causes the machine learning program to estimate the symptoms of dry eye appearing in the eye of the inference subject.
本発明の一態様は、上述したドライアイ検査プログラムであって、前記データ取得機能が、前記推論用被検体の角膜に映り込んでいる照明を描出している前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す前記推論用照明画像データを前記推論用画像データとして取得し、前記症状推定機能が、前記学習用被検体の角膜に映り込んでいる照明を描出している前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを前記学習用画像データとしている前記教師データを使用して学習した前記機械学習プログラムに前記推論用照明画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させる。 One aspect of the present invention is the dry eye test program described above, in which the data acquisition function acquires, as the inference image data, the inference illumination image data showing an inference illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the inference subject from the inference image depicting the illumination reflected on the cornea of the inference subject, and the symptom estimation function inputs the inference illumination image data to the machine learning program trained using the teacher data, and has the machine learning program estimate the symptoms of dry eye appearing in the eyes of the inference subject, in which the data acquisition function acquires, as the inference image data, the inference illumination image data showing an inference illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the learning subject from the learning image depicting the illumination reflected on the cornea of the learning subject, and the symptom estimation function inputs the inference illumination image data to the machine learning program trained using the teacher data, and has the machine learning program estimate the symptoms of dry eye appearing in the eyes of the inference subject.
本発明の一態様は、学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得部と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、を備える機械学習実行装置である。 One aspect of the present invention is a machine learning execution device that has a training data acquisition unit that acquires training data in which training image data showing training images depicting the eyes of a training subject and training eyelid open data showing the maximum eyelid open time, which is the time the training subject was able to continuously open the eye in which the training image was captured, are questions, and the training test image data showing an image depicting the eyes of the training subject when a test for dry eye symptoms is performed on the eyes of the training subject and training test result data showing the results of the test for dry eye symptoms are answers, and a machine learning execution unit that inputs the training data into a machine learning program and trains the machine learning program.
本発明の一態様は、推論用被検体の目を描出している推論用画像を示す推論用画像データと、前記推論用画像が撮影された目を前記推論用被検体が連続して開けることができた時間である最大開瞼時間を示す推論用開瞼データとを取得するデータ取得部と、学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データ及び前記推論用開瞼データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、を備えるドライアイ検査装置である。 One aspect of the present invention concerns a data acquisition unit that acquires inference image data showing an inference image depicting the eye of an inference subject and inference eyelid opening data showing the maximum eyelid opening time, which is the time the inference subject can continuously open the eye in which the inference image is captured, and learning image data showing a learning image depicting the eye of a learning subject and learning eyelid opening data showing the maximum eyelid opening time, which is the time the learning subject can continuously open the eye in which the learning image is captured, when an examination for dry eye symptoms is performed on the eye of the learning subject and a symptom estimation unit that inputs the inference image data and the inference eyelid open data into a machine learning program that has been trained using teacher data that uses as an answer at least one of learning test image data showing an image depicting the eye of the learning subject and learning test result data showing the results of a test regarding dry eye symptoms, causes the machine learning program to estimate the dry eye symptoms present in the eye of the inference subject, and causes the machine learning program to output symptom data showing the dry eye symptoms present in the eye of the inference subject.
本発明の一態様は、学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データの少なくとも一方とを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得機能と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、をコンピュータに実行させる機械学習実行プログラムである。 One aspect of the present invention is a machine learning execution program that causes a computer to execute a teacher data acquisition function that acquires teacher data having as an answer at least one of learning test image data showing an image depicting the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject and learning test result data showing the results of the test for dry eye symptoms, and a machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program, with at least one of learning tear meniscus image data showing a learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject from a learning image depicting the eye of the learning subject and learning illumination image data showing a learning illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the learning subject from the learning image.
本発明の一態様は、推論用被検体の目を描出している推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データ及び前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データの少なくとも一方とを取得するデータ取得機能と、学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データの少なくとも一方とを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用涙液メニスカス画像データ及び前記推論用照明画像データの少なくとも一方とを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、をコンピュータに実現させるドライアイ検査プログラムである。 One aspect of the present invention is a data acquisition function for acquiring at least one of inference tear meniscus image data showing an inference tear meniscus image obtained by cutting out an area depicting the tear meniscus of the inference subject from an inference image depicting the eye of the inference subject, and inference illumination image data showing an inference illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the inference subject from the inference image, and learning tear meniscus image data showing a learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject from a learning image depicting the eye of the learning subject, and learning illumination image data showing a learning illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the learning subject from the learning image. and a symptom estimation function that inputs at least one of the tear meniscus image data for inference and the illumination image data for inference into a machine learning program trained using teacher data that uses as an answer at least one of training test image data showing an image of the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye and training test result data showing the results of the test for dry eye symptoms, causes the machine learning program to estimate the dry eye symptoms appearing in the training subject's eye, and causes the machine learning program to output symptom data showing the dry eye symptoms appearing in the training subject's eye.
本発明の一態様は、学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データの少なくとも一方とを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得部と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、を備える機械学習実行装置である。 One aspect of the present invention is a machine learning execution device that has a teacher data acquisition unit that acquires teacher data in which at least one of learning tear meniscus image data showing a learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject from a learning image depicting the eye of the learning subject and learning illumination image data showing a learning illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the learning subject from the learning image is an answer, and at least one of learning test image data showing an image depicting the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject and learning test result data showing the results of the test for dry eye symptoms, and a machine learning execution unit that inputs the teacher data into a machine learning program and trains the machine learning program.
本発明の一態様は、推論用被検体の目を描出している推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データ及び前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データの少なくとも一方とを取得するデータ取得部と、学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データの少なくとも一方とを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用涙液メニスカス画像データ及び前記推論用照明画像データの少なくとも一方とを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、を備えるドライアイ検査装置である。 One aspect of the present invention includes a data acquisition unit that acquires at least one of inference tear meniscus image data showing an inference tear meniscus image obtained by cutting out an area depicting the tear meniscus of the inference subject from an inference image depicting the eye of the inference subject, and inference illumination image data showing an inference illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the inference subject from the inference image, and a data acquisition unit that acquires at least one of inference tear meniscus image data showing an inference tear meniscus image obtained by cutting out an area depicting illumination reflected on the cornea of the inference subject from the inference image, and a learning illumination image data showing learning tear meniscus image data showing an learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject from a learning image depicting the eye of the learning subject, and a learning illumination image showing an learning illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the learning subject from the learning image. and a symptom estimation unit that inputs at least one of the tear meniscus image data for inference and the illumination image data for inference into a machine learning program that has been trained using teacher data that takes as its answer at least one of learning test image data showing an image of the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject and learning test result data showing the results of the test for dry eye symptoms, causes the machine learning program to estimate the dry eye symptoms appearing in the eye of the learning subject, and causes the machine learning program to output symptom data showing the dry eye symptoms appearing in the eye of the learning subject.
本発明によれば、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。 The present invention makes it possible to predict the results of a test for dry eye symptoms without actually conducting the test.
[第一実施形態]
図1から図3を参照しながら第一実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法の具体例について説明する。
[First embodiment]
Specific examples of the machine learning execution program, the machine learning execution device, and the machine learning execution method according to the first embodiment will be described with reference to FIGS. 1 to 3.
図1は、第一実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。図1に示した機械学習実行装置10aは、後述する機械学習装置700aの学習フェーズにおいて機械学習装置700aに機械学習を実行させる装置である。また、図1に示すように、機械学習実行装置10aは、プロセッサ11aと、主記憶装置12aと、通信インターフェース13aと、補助記憶装置14aと、入出力装置15aと、バス16aとを備える。
Figure 1 is a diagram showing an example of the hardware configuration of a machine learning execution device according to the first embodiment. The machine
プロセッサ11aは、例えば、CPU(Central Processing Unit)であり、後述する機械学習実行プログラム100aを読み出して実行し、機械学習実行プログラム100aが有する各機能を実現させる。また、プロセッサ11aは、機械学習実行プログラム100a以外のプログラムを読み出して実行し、機械学習実行プログラム100aが有する各機能を実現させる上で必要な機能を実現させてもよい。
The
主記憶装置12aは、例えば、RAM(Random Access Memory)であり、プロセッサ11aにより読み出されて実行される機械学習実行プログラム100aその他プログラムを予め記憶している。
The
通信インターフェース13aは、図1に示したネットワークNWを介して、機械学習装置700aその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN(Local Area Network)、イントラネットである。
The
補助記憶装置14aは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、フラッシュメモリ(Flash Memory)、ROM(Read Only Memory)である。
The
入出力装置15aは、例えば、入出力ポート(Input/Output Port)である。入出力装置15aは、例えば、図1に示したキーボード811a、マウス812a、ディスプレイ910aが接続される。キーボード811a及びマウス812aは、例えば、機械学習実行装置10aを操作するために必要なデータを入力する作業に使用される。ディスプレイ910aは、例えば、機械学習実行装置10aのグラフィカルユーザインターフェース(GUI:Graphical User Interface)を表示する。
The input/
バス16aは、プロセッサ11a、主記憶装置12a、通信インターフェース13a、補助記憶装置14a及び入出力装置15aを互いにデータの送受信が可能なように接続している。
The
図2は、第一実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。機械学習実行装置10aは、プロセッサ11aを使用して機械学習実行プログラム100aを読み出して実行し、図2に示した教師データ取得機能101a及び機械学習実行機能102aを実現させる。
Figure 2 is a diagram showing an example of the software configuration of a machine learning execution program according to the first embodiment. The machine
教師データ取得機能101aは、一つの学習用画像データ及び学習用開瞼データを問題とし、一つの学習用検査画像データ及び学習用検査結果データの少なくとも一方を答えとする教師データを取得する。
The teacher
学習用画像データは、教師データの問題の一部を構成しており、学習用被検体の目を描出している学習用画像を示すデータである。学習用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The training image data constitutes part of the training data problem, and is data showing training images depicting the eyes of a training subject. The training images are captured, for example, using a camera mounted on a smartphone.
学習用開瞼データは、教師データの問題の一部を構成しており、学習用画像が撮影された目を学習用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。 The training eyelid-open data constitutes part of the training data problem and indicates the maximum eyelid-open time, which is the time that the training subject was able to continuously open the eye from which the training image was taken.
例えば、学習用開瞼データは、学習用被検体が瞬きをして目を開けた直後から次に瞬きをするまでの間を少なくとも撮影している動画に映し出されている瞼の動きに基づいて算出されている最大開瞼時間を示していてもよい。 For example, the learning eyelid opening data may indicate a maximum eyelid opening time calculated based on eyelid movement captured in a video that captures at least the period from immediately after the learning subject blinks and opens his eyes until the next blink.
或いは、学習用開瞼データは、学習用被検体の自己申告に基づいており、ユーザインターフェースを使用して入力された最大開瞼時間を示していてもよい。当該ユーザインターフェースは、例えば、図1に示したディスプレイ910aに表示される。或いは、当該ユーザインターフェースは、学習用被検体が契約しているスマートフォンに搭載されているタッチパネルディスプレイに表示される。
Alternatively, the learning eyelid-open data may be based on the learning subject's self-reporting and may indicate a maximum eyelid-open time input using a user interface. The user interface may be displayed, for example, on the
学習用検査画像データは、教師データの答えの一部を構成しており、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している学習用検査画像を示すデータである。このような検査としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査が挙げられる。したがって、例えば、学習用検査画像データは、フルオレセインにより染色され、スリットランプを使用して観察されている目を描出している画像又は動画を示すデータとなる。 The learning test image data constitutes part of the answer of the teacher data, and is data showing a learning test image depicting the learning subject's eye when a test for dry eye symptoms is conducted on the learning subject's eye. An example of such a test is a test in which a fluorescein dye reagent is dropped into the eye and the eye is observed using a slit lamp to check the tear film breakup time. Therefore, for example, the learning test image data is data showing an image or video depicting an eye stained with fluorescein and observed using a slit lamp.
学習用検査結果データは、教師データの答えの一部を構成しており、ドライアイの症状に関する検査の結果を示すデータである。このような検査の結果としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査に基づいて涙液層破壊時間の長さを表している0以上1以下の数値が挙げられる。 The learning test result data constitutes part of the answers to the teacher data, and is data showing the results of tests related to dry eye symptoms. Such test results include, for example, a numerical value between 0 and 1 that indicates the length of tear film breakup time based on a test in which a fluorescein dye is dropped into the eye and the eye is observed using a slit lamp to examine the tear film breakup time.
この数値は、0以上0.5未満である場合、涙液層破壊時間が10秒以上であるため、学習用被検体の目が正常であり、眼科医による診察が不要であることを表している。また、この数値は、0.5以上1以下である場合、涙液層破壊時間が10秒未満であるため、学習用被検体の目が異常であり、眼科医による診察が必要であることを表している。 If this value is greater than or equal to 0 and less than 0.5, the tear film breakup time is 10 seconds or more, indicating that the study subject's eyes are normal and no examination by an ophthalmologist is necessary. If this value is greater than or equal to 0.5 and less than or equal to 1, the tear film breakup time is less than 10 seconds, indicating that the study subject's eyes are abnormal and an examination by an ophthalmologist is necessary.
例えば、教師データ取得機能101aは、1280個の教師データを取得する。この場合、1280個の学習用画像データは、それぞれ8名の学習用被検体の2つの目それぞれをスマートフォンに搭載されているカメラを使用して20回撮影する処理を4セット実施することにより取得された1280枚の学習用画像を示している。また、この場合、1280個の学習用開瞼データは、それぞれ学習用被検体の最大開瞼時間を表す値を示している1280個の値を示している。
For example, the teacher
また、この場合、1280個の学習用検査画像データは、それぞれ上述した1280枚の学習用画像それぞれに描出されている学習用被検体の目についてドライアイの症状に関する検査が実施された際に撮影された学習用検査画像を示している。また、1280個の学習用検査結果データは、それぞれ1280枚の学習用検査画像が撮影された際に実施されたドライアイの症状に関する検査の結果を示す0以上1以下の数値1280個を示している。 In this case, the 1,280 pieces of learning test image data each represent a learning test image captured when an examination for dry eye symptoms was performed on the eye of the learning subject depicted in each of the 1,280 learning images described above. The 1,280 pieces of learning test result data each represent 1,280 numerical values between 0 and 1 indicating the results of the examination for dry eye symptoms performed when the 1,280 learning test images were captured.
なお、以下の説明では、1280個の学習用検査結果データが、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している620個の学習用検査結果データと、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している660個の学習用検査結果データとを含んでいる場合を例に挙げて説明する。 In the following explanation, an example will be given in which the 1,280 pieces of learning test result data include 620 pieces of learning test result data showing a value between 0 and less than 0.5, indicating that the learning subject's eyes are normal, and 660 pieces of learning test result data showing a value between 0.5 and 1, indicating that the learning subject's eyes are abnormal.
機械学習実行機能102aは、機械学習装置700aに実装されている機械学習プログラム750aに教師データを入力し、機械学習プログラム750aを学習させる。例えば、機械学習実行機能102aは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を含んでいる機械学習プログラム750aをバックプロパゲーション(Backpropagation)により学習させる。
The machine
例えば、機械学習実行機能102aは、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している学習用検査結果データを含んでいる540個の教師データを機械学習プログラム750aに入力する。この540個の教師データは、上述した8名の中から選択された7名から取得された教師データである。
For example, the machine
また、例えば、機械学習実行機能102aは、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している学習用検査結果データを含んでいる580個の教師データを機械学習プログラム750aに入力する。この580個の教師データは、上述した8名の中から選択された7名から取得された教師データである。
Also, for example, the machine
そして、機械学習実行機能102aは、これら1120個の教師データにより機械学習プログラム750aを学習させる。
Then, the machine
また、例えば、機械学習実行機能102aは、学習用被検体の目が正常であることを表しており、機械学習プログラム750aの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750aに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。
Also, for example, the machine
また、例えば、機械学習実行機能102aは、学習用被検体の目が異常であることを表しており、機械学習プログラム750aの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750aに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。
Also, for example, the machine
これにより、機械学習実行機能102aは、上述した1120個の教師データにより機械学習プログラム750aを学習させることにより得られた機械学習プログラム750aの特性を評価してもよい。
As a result, the machine
なお、機械学習実行機能102aは、テストデータを使用して機械学習プログラム750aの特性を評価する際に、例えば、クラス活性化マッピング(CAM:Class Activation Mapping)を使用してもよい。クラス活性化マッピングは、ニューラルネットワークに入力されたデータのうちニューラルネットワークにより出力された結果の根拠となった部分を明らかにする技術である。クラス活性化マッピングとしては、例えば、勾配加重クラス活性化マッピングが挙げられる。勾配加重クラス活性化マッピングは、畳み込みニューラルネットワークにより実行される畳み込みの特徴に関する分類スコアの勾配を利用し、畳み込みニューラルネットワークに入力された画像のうち分類に一定以上の影響を与えた領域を特定する技術である。
The machine
次に、図3を参照しながら第一実施形態に係る機械学習実行プログラム100aが実行する処理の一例を説明する。図3は、第一実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。機械学習実行プログラム100aは、図3に示した処理を少なくとも一回実行する。
Next, an example of processing executed by the machine
ステップS11において、教師データ取得機能101aは、学習用画像データと、学習用開瞼データとを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。
In step S11, the teacher
ステップS12において、機械学習実行機能102aは、教師データを機械学習プログラム750aに入力し、機械学習プログラム750aを学習させる。
In step S12, the machine
次に、図4から図6を参照しながら第一実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法の具体例について説明する。 Next, specific examples of the dry eye test program, dry eye test device, and dry eye test method according to the first embodiment will be described with reference to Figures 4 to 6.
図4は、第一実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。図4に示したドライアイ検査装置20aは、機械学習実行プログラム100aにより学習済みの機械学習装置700aの推論フェーズにおいて機械学習装置700aを使用して推論用被検体の目に現れているドライアイの症状を推定させる装置である。また、図5に示すように、ドライアイ検査装置20aは、プロセッサ21aと、主記憶装置22aと、通信インターフェース23aと、補助記憶装置24aと、入出力装置25aと、バス26aとを備える。
Figure 4 is a diagram showing an example of the hardware configuration of a dry eye test device according to the first embodiment. The dry
プロセッサ21aは、例えば、CPUであり、後述するドライアイ検査プログラム200aを読み出して実行し、ドライアイ検査プログラム200aが有する各機能を実現させる。また、プロセッサ21aは、ドライアイ検査プログラム200a以外のプログラムを読み出して実行し、ドライアイ検査プログラム200aが有する各機能を実現させる上で必要な機能を実現させてもよい。
The
主記憶装置22aは、例えば、RAMであり、プロセッサ21aにより読み出されて実行されるドライアイ検査プログラム200aその他プログラムを予め記憶している。
The
通信インターフェース23aは、図5に示したネットワークNWを介して、機械学習装置700aその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。
The
補助記憶装置24aは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。
The
入出力装置25aは、例えば、入出力ポートである。入出力装置25aは、例えば、図5に示したキーボード821a、マウス822a、ディスプレイ920aが接続される。キーボード821a及びマウス822aは、例えば、ドライアイ検査装置20aを操作するために必要なデータを入力する作業に使用される。ディスプレイ920aは、例えば、ドライアイ検査装置20aのグラフィカルユーザインターフェースを表示する。
The input/
バス26aは、プロセッサ21a、主記憶装置22a、通信インターフェース23a、補助記憶装置24a及び入出力装置25aを互いにデータの送受信が可能なように接続している。
The
図5は、第一実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。ドライアイ検査装置20aは、プロセッサ21aを使用してドライアイ検査プログラム200aを読み出して実行し、図5に示したデータ取得機能201a及び症状推定機能202aを実現させる。
Figure 5 is a diagram showing an example of the software configuration of a dry eye test program according to the first embodiment. The dry
データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。
The
推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The image data for inference is data showing an image depicting the eye of the subject for inference. The image for inference is captured, for example, using a camera mounted on a smartphone.
推論用開瞼データは、推論用画像が撮影された目を推論用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。 The eyelid opening data for inference is data that indicates the maximum eyelid opening time, which is the time that the subject for inference was able to continuously open the eye from which the inference image was taken.
例えば、推論用開瞼データは、推論用被検体が瞬きをして目を開けた直後から次に瞬きをするまでの間を少なくとも撮影している動画に映し出されている瞼の動きに基づいて算出されている最大開瞼時間を示していてもよい。 For example, the eyelid opening data for inference may indicate a maximum eyelid opening time calculated based on eyelid movement shown in a video that captures at least the period from immediately after the subject for inference blinks and opens his/her eyes until the next blink.
或いは、推論用開瞼データは、推論用被検体の自己申告に基づいており、ユーザインターフェースを使用して入力された最大開瞼時間を示していてもよい。当該ユーザインターフェースは、例えば、図4に示したディスプレイ920aに表示される。或いは、当該ユーザインターフェースは、推論用被検体が契約しているスマートフォンに搭載されているタッチパネルディスプレイに表示される。
Alternatively, the inferred eyelid opening data may be based on the inferred subject's self-reporting and may indicate a maximum eyelid opening time entered using a user interface. The user interface may be displayed, for example, on the
症状推定機能202aは、機械学習実行機能102aにより学習済みの機械学習プログラム750aに推論用画像データ及び推論用開瞼データを入力し、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を推定させる。例えば、症状推定機能202aは、機械学習プログラム750aにこれら二つのデータを入力し、推論用被検体の目の涙液層破壊時間の長さを表す数値を推定させる。
The
そして、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。例えば、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目の涙液層破壊時間の長さを表す数値を示す症状データを出力させる。この場合、症状データは、例えば、自身が示しており、推論用被検体の目の涙液層破壊時間の長さを表す数値をディスプレイ920aに表示するために使用される。
The
次に、図6を参照しながら第一実施形態に係るドライアイ検査プログラム200aが実行する処理の一例を説明する。図6は、第一実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。
Next, an example of processing executed by the dry
ステップS21において、データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。
In step S21, the
ステップS22において、症状推定機能202aは、学習済みの機械学習プログラム750aに、推論用画像データ及び推論用開瞼データを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。
In step S22, the
以上、第一実施形態に係る機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置、ドライアイ検査装置、機械学習実行方法及びドライアイ検査方法について説明した。 The above describes the machine learning execution program, dry eye test program, machine learning execution device, dry eye test device, machine learning execution method, and dry eye test method according to the first embodiment.
機械学習実行プログラム100aは、教師データ取得機能101aと、機械学習実行機能102aとを備える。
The machine
教師データ取得機能101aは、学習用画像データと、学習用開瞼データとを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。学習用画像データは、学習用被検体の目を描出している画像を示すデータである。学習用開瞼データは、学習用画像が撮影された目を学習用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。学習用検査画像データは、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している画像を示すデータである。学習用検査結果データは、ドライアイの症状に関する検査の結果を示すデータである。
The teacher
機械学習実行機能102aは、教師データを機械学習プログラム750aに入力し、機械学習プログラム750aを学習させる。
The machine
これにより、機械学習実行プログラム100aは、学習用画像データ及び学習用開瞼データに基づいてドライアイの症状に関する検査の結果を予測する機械学習プログラム750aを生成することができる。
This allows the machine
また、機械学習実行プログラム100aは、学習用画像データだけではなく、学習用開瞼データを問題として含んでいる教師データを使用して機械学習プログラム750aを学習させる。したがって、機械学習実行プログラム100aは、ドライアイの症状に関する検査の結果を更に精度良く予測することができる機械学習プログラム750aを生成することができる。
In addition, the machine
ドライアイ検査プログラム200aは、データ取得機能201aと、症状推定機能202aとを備える。
The dry
データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用開瞼データは、推論用画像が撮影された目を推論用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。
The
症状推定機能202aは、機械学習実行プログラム100aにより学習済みの機械学習プログラム750aに推論用画像データ及び推論用開瞼データを入力し、推論用被検体の目に現れているドライアイの症状を推定させる。そして、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。
The
これにより、ドライアイ検査プログラム200aは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。
This allows the dry
次に、機械学習プログラム750aを実際に学習させ、ドライアイの症状を推定させた例を挙げて、機械学習実行プログラム100aにより奏される効果の具体例を比較例と第一実施形態に係る実施例とを対比させて説明する。
Next, we will provide an example in which the
この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用開瞼データが除かれているデータを教師データとして機械学習プログラムを学習させた例である。 The comparative example in this case is an example in which a machine learning program is trained using as training data 540 pieces of training data indicating that the eyes of the training subject described above are normal and 580 pieces of training data indicating that the eyes of the training subject are abnormal, with the training eyelid open data removed.
このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータ及び学習用被検体の目が異常であることを表している80個のテストデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。 The machine learning program trained in this way showed a prediction accuracy of 72% and a false negative rate of 28% when its characteristics were evaluated using 80 test data pieces representing normal eyes of the training subjects described above and 80 test data pieces representing abnormal eyes of the training subjects.
一方、機械学習実行プログラム100aにより学習した機械学習プログラム750aは、同じテストデータを使用して特性を評価すると、予測精度80%及び偽陰性率20%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。
On the other hand, when the characteristics of the
なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.
また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.
なお、機械学習実行プログラム100aが有する機能の少なくとも一部は、回路部(circuitry)を含むハードウェアにより実現されてもよい。同様に、ドライアイ検査プログラム200aが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。また、このようなハードウェアは,例えば、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)である。
At least a part of the functions of the machine
また、機械学習実行プログラム100aが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。同様に、ドライアイ検査プログラム200aが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。
In addition, at least some of the functions of the machine
また、第一実施形態では、機械学習実行装置10aと、機械学習装置700aと、ドライアイ検査装置20aとが互いに独立した装置である場合を例に挙げて説明したが、これに限定されない。これらの装置は、一つの装置として実現されていてもよい。
In the first embodiment, the machine
[第二実施形態]
図7から図11を参照しながら第二実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法の具体例について説明する。第二実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法は、第一実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法と異なり、後述する学習用画像データから切り出した学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を問題として含む教師データを使用する。
[Second embodiment]
Specific examples of the machine learning execution program, machine learning execution device, and machine learning execution method according to the second embodiment will be described with reference to Figures 7 to 11. Unlike the machine learning execution program, machine learning execution device, and machine learning execution method according to the first embodiment, the machine learning execution program, machine learning execution device, and machine learning execution method according to the second embodiment use teacher data that includes, as a problem, at least one of learning tear meniscus image data and learning illumination image data cut out from learning image data, which will be described later.
図7は、第二実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。図7に示した機械学習実行装置10bは、後述する機械学習装置700bの学習フェーズにおいて機械学習装置700bに機械学習を実行させる装置である。また、図8に示すように、機械学習実行装置10bは、プロセッサ11bと、主記憶装置12bと、通信インターフェース13bと、補助記憶装置14bと、入出力装置15bと、バス16bとを備える。
Figure 7 is a diagram showing an example of the hardware configuration of a machine learning execution device according to the second embodiment. The machine
プロセッサ11bは、例えば、CPUであり、後述する機械学習実行プログラム100bを読み出して実行し、機械学習実行プログラム100bが有する各機能を実現させる。また、プロセッサ11bは、機械学習実行プログラム100b以外のプログラムを読み出して実行し、機械学習実行プログラム100bが有する各機能を実現させる上で必要な機能を実現させてもよい。
The
主記憶装置12bは、例えば、RAMであり、プロセッサ11bにより読み出されて実行される機械学習実行プログラム100bその他プログラムを予め記憶している。
The
通信インターフェース13bは、図8に示したネットワークNWを介して、機械学習装置700bその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。
The
補助記憶装置14bは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。
The
入出力装置15bは、例えば、入出力ポートである。入出力装置15bは、例えば、図1に示したキーボード811b、マウス812b、ディスプレイ910bが接続される。キーボード811b及びマウス812bは、例えば、機械学習実行装置10bを操作するために必要なデータを入力する作業に使用される。ディスプレイ910bは、例えば、機械学習実行装置10bのグラフィカルユーザインターフェースを表示する。
The input/
バス16bは、プロセッサ11b、主記憶装置12b、通信インターフェース13b、補助記憶装置14b及び入出力装置15bを互いにデータの送受信が可能なように接続している。
The
図8は、第二実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。機械学習実行装置10bは、プロセッサ11bを使用して機械学習実行プログラム100bを読み出して実行し、図8に示した教師データ取得機能101b及び機械学習実行機能102bを実現させる。
Figure 8 is a diagram showing an example of the software configuration of a machine learning execution program according to the second embodiment. The machine
教師データ取得機能101bは、一つの学習用涙液メニスカス画像データ及び一つの学習用照明画像データの少なくとも一方を問題とし、一つの学習用検査画像データ及び学習用検査結果データの少なくとも一方を答えとする教師データを取得する。
The teacher
学習用画像データは、学習用被検体の目を描出している学習用画像を示すデータである。学習用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The training image data is data showing a training image depicting the eye of a training subject. The training image is captured, for example, using a camera mounted on a smartphone.
学習用涙液メニスカス画像データは、学習用被検体の目を描出している学習用画像から学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示すデータであり、学習用画像の一種である。涙液メニスカスは、角膜と下瞼との間に形成される涙の層であり、涙液の量を反映している。涙液メニスカスが低い場合、涙液が少なく、涙液メニスカスが高い場合、涙液が多い。また、学習用涙液メニスカス画像は、例えば、学習用画像のうち涙液メニスカスが描出されている領域を切り出すことにより生成される。図9は、第二実施形態に係る学習用画像から涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像の一例を示す図である。教師データ取得機能101bは、例えば、図9に示した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データを取得する。
The learning tear meniscus image data is data showing a learning tear meniscus image obtained by cutting out an area showing the tear meniscus of the learning subject from a learning image showing the eye of the learning subject, and is a type of learning image. The tear meniscus is a layer of tears formed between the cornea and the lower eyelid, and reflects the amount of tears. When the tear meniscus is low, there is little tear, and when the tear meniscus is high, there is much tear. The learning tear meniscus image is generated, for example, by cutting out an area showing the tear meniscus from the learning image. FIG. 9 is a diagram showing an example of a learning tear meniscus image obtained by cutting out an area showing the tear meniscus from a learning image according to the second embodiment. The teacher
学習用照明画像データは、学習用被検体の目を描出している学習用画像から学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示すデータであり、学習用画像の一種である。このような照明は、例えば、学習用画像が撮影される部屋の天井に設置された蛍光灯である。また、学習用照明画像は、例えば、学習用画像のうち学習用被検体の角膜に映り込んでいる照明が描出されている領域を切り出すことにより生成される。図10は、第二実施形態に係る学習用画像から学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像の一例を示す図である。教師データ取得機能101bは、例えば、図10に示した学習用照明画像を示す学習用照明画像データを取得する。
The learning illumination image data is data showing a learning illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the learning subject from a learning image depicting the eye of the learning subject, and is a type of learning image. Such illumination is, for example, a fluorescent lamp installed on the ceiling of the room in which the learning image is taken. The learning illumination image is generated, for example, by cutting out an area of the learning image depicting the illumination reflected on the cornea of the learning subject. FIG. 10 is a diagram showing an example of a learning illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the learning subject from a learning image according to the second embodiment. The teacher
学習用検査画像データは、教師データの答えの一部を構成しており、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している学習用検査画像を示すデータである。このような検査としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査が挙げられる。したがって、例えば、学習用検査画像データは、フルオレセインにより染色され、スリットランプを使用して観察されている目を描出している画像又は動画を示すデータとなる。 The learning test image data constitutes part of the answer of the teacher data, and is data showing a learning test image depicting the learning subject's eye when a test for dry eye symptoms is conducted on the learning subject's eye. An example of such a test is a test in which a fluorescein dye reagent is dropped into the eye and the eye is observed using a slit lamp to check the tear film breakup time. Therefore, for example, the learning test image data is data showing an image or video depicting an eye stained with fluorescein and observed using a slit lamp.
学習用検査結果データは、教師データの答えの一部を構成しており、ドライアイの症状に関する検査の結果を示すデータである。このような検査の結果としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査に基づいて涙液層破壊時間の長さを表している0以上1以下の数値が挙げられる。 The learning test result data constitutes part of the answers to the teacher data, and is data showing the results of tests related to dry eye symptoms. Such test results include, for example, a numerical value between 0 and 1 that indicates the length of tear film breakup time based on a test in which a fluorescein dye is dropped into the eye and the eye is observed using a slit lamp to examine the tear film breakup time.
この数値は、0以上0.5未満である場合、涙液層破壊時間が10秒以上であるため、学習用被検体の目が正常であり、眼科医による診察が不要であることを表している。また、この数値は、0.5以上1以下である場合、涙液層破壊時間が10秒未満であるため、学習用被検体の目が異常であり、眼科医による診察が必要であることを表している。 If this value is greater than or equal to 0 and less than 0.5, the tear film breakup time is 10 seconds or more, indicating that the study subject's eyes are normal and no examination by an ophthalmologist is necessary. If this value is greater than or equal to 0.5 and less than or equal to 1, the tear film breakup time is less than 10 seconds, indicating that the study subject's eyes are abnormal and an examination by an ophthalmologist is necessary.
例えば、教師データ取得機能101bは、1280個の教師データを取得する。この場合、1280個の学習用涙液メニスカス画像データおよび学習用照明画像データは、それぞれ8名の学習用被検体の2つの目それぞれをスマートフォンに搭載されているカメラを使用して20回撮影する処理を4セット実施することにより取得された1280枚の学習用画像の涙液メニスカスが描出されている領域及び角膜に映りこんでいる照明が描出されている領域を切り出すことにより生成された画像を示している。
For example, the teacher
また、この場合、1280個の学習用検査画像データは、それぞれ上述した1280枚の学習用画像それぞれに描出されている学習用被検体の目についてドライアイの症状に関する検査が実施された際に撮影された学習用検査画像を示している。また、1280個の学習用検査結果データは、それぞれ1280枚の学習用検査画像が撮影された際に実施されたドライアイの症状に関する検査の結果を示す0以上1以下の数値1280個を示している。 In this case, the 1,280 pieces of learning test image data each represent a learning test image captured when an examination for dry eye symptoms was performed on the eye of the learning subject depicted in each of the 1,280 learning images described above. The 1,280 pieces of learning test result data each represent 1,280 numerical values between 0 and 1 indicating the results of the examination for dry eye symptoms performed when the 1,280 learning test images were captured.
なお、以下の説明では、1280個の学習用検査結果データが、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している620個の学習用検査結果データと、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している660個の学習用検査結果データとを含んでいる場合を例に挙げて説明する。 In the following explanation, an example will be given in which the 1,280 pieces of learning test result data include 620 pieces of learning test result data showing a value between 0 and less than 0.5, indicating that the learning subject's eyes are normal, and 660 pieces of learning test result data showing a value between 0.5 and 1, indicating that the learning subject's eyes are abnormal.
機械学習実行機能102bは、機械学習装置700bに実装されている機械学習プログラム750bに教師データを入力し、機械学習プログラム750bを学習させる。例えば、機械学習実行機能102bは、畳み込みニューラルネットワークを含んでいる機械学習プログラム750bをバックプロパゲーションにより学習させる。
The machine
例えば、機械学習実行機能102bは、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している学習用検査結果データを含んでいる540個の教師データを機械学習プログラム750bに入力する。この540個の教師データは、上述した8名の中から選択された7名から取得された教師データである。
For example, the machine
また、例えば、機械学習実行機能102bは、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している学習用検査結果データを含んでいる580個の教師データを機械学習プログラム750bに入力する。この580個の教師データは、上述した8名の中から選択された7名から取得された教師データである。
Also, for example, the machine
そして、機械学習実行機能102bは、これら1120個の教師データにより機械学習プログラム750bを学習させる。
Then, the machine
また、例えば、機械学習実行機能102bは、学習用被検体の目が正常であることを表しており、機械学習プログラム750bの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750bに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。
Also, for example, the machine
また、例えば、機械学習実行機能102bは、学習用被検体の目が異常であることを表しており、機械学習プログラム750bの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750bに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。
Also, for example, the machine
これにより、機械学習実行機能102bは、上述した1120個の教師データにより機械学習プログラム750bを学習させることにより得られた機械学習プログラム750bの特性を評価してもよい。
As a result, the machine
なお、機械学習実行機能102bは、テストデータを使用して機械学習プログラム750bの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。クラス活性化マッピングは、ニューラルネットワークに入力されたデータのうちニューラルネットワークにより出力された結果の根拠となった部分を明らかにする技術である。クラス活性化マッピングとしては、例えば、勾配加重クラス活性化マッピングが挙げられる。勾配加重クラス活性化マッピングは、畳み込みニューラルネットワークにより実行される畳み込みの特徴に関する分類スコアの勾配を利用し、畳み込みニューラルネットワークに入力された画像のうち分類に一定以上の影響を与えた領域を特定する技術である。
The machine
次に、図11を参照しながら第二実施形態に係る機械学習実行プログラム100bが実行する処理の一例を説明する。図11は、第二実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。機械学習実行プログラム100bは、図11に示した処理を少なくとも一回実行する。
Next, an example of processing executed by the machine
ステップS31において、教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。
In step S31, the teacher
ステップS32において、機械学習実行機能102bは、教師データを機械学習プログラム750bに入力し、機械学習プログラム750bを学習させる。
In step S32, the machine
次に、図12から図14を参照しながら第二実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法の具体例について説明する。第二実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、第一実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法と異なり、後述する推論用学習用画像データから切り出した推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方を取得する。 Next, a specific example of a dry eye test program, a dry eye test device, and a dry eye test method according to the second embodiment will be described with reference to Figures 12 to 14. The dry eye test program, the dry eye test device, and the dry eye test method according to the second embodiment differ from the dry eye test program, the dry eye test device, and the dry eye test method according to the first embodiment in that they acquire at least one of tear meniscus image data for inference and illumination image data for inference, which are extracted from learning image data for inference, which will be described later.
図12は、第二実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。図12に示したドライアイ検査装置20bは、機械学習実行プログラム100bにより学習済みの機械学習装置700bの推論フェーズにおいて機械学習装置700bを使用して推論用被検体の目に現れているドライアイの症状を推定させる装置である。また、図12に示すように、ドライアイ検査装置20bは、プロセッサ21bと、主記憶装置22bと、通信インターフェース23bと、補助記憶装置24bと、入出力装置25bと、バス26bとを備える。
Fig. 12 is a diagram showing an example of the hardware configuration of a dry eye test device according to the second embodiment. The dry
プロセッサ21bは、例えば、CPUであり、後述するドライアイ検査プログラム200bを読み出して実行し、ドライアイ検査プログラム200bが有する各機能を実現させる。また、プロセッサ21bは、ドライアイ検査プログラム200b以外のプログラムを読み出して実行し、ドライアイ検査プログラム200bが有する各機能を実現させる上で必要な機能を実現させてもよい。
The
主記憶装置22bは、例えば、RAMであり、プロセッサ21bにより読み出されて実行されるドライアイ検査プログラム200bその他プログラムを予め記憶している。
The
通信インターフェース23bは、図12に示したネットワークNWを介して、機械学習装置700bその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。
The
補助記憶装置24bは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。
The
入出力装置25bは、例えば、入出力ポートである。入出力装置25bは、例えば、図12に示したキーボード821b、マウス822b、ディスプレイ920bが接続される。キーボード821b及びマウス822bは、例えば、ドライアイ検査装置20bを操作するために必要なデータを入力する作業に使用される。ディスプレイ920bは、例えば、ドライアイ検査装置20bのグラフィカルユーザインターフェースを表示する。
The input/
バス26bは、プロセッサ21b、主記憶装置22b、通信インターフェース23b、補助記憶装置24b及び入出力装置25bを互いにデータの送受信が可能なように接続している。
The
図13は、第二実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。ドライアイ検査装置20bは、プロセッサ21bを使用してドライアイ検査プログラム200bを読み出して実行し、図13に示したデータ取得機能201b及び症状推定機能202bを実現させる。
Figure 13 is a diagram showing an example of the software configuration of a dry eye test program according to the second embodiment. The dry
データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。
The
推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The image data for inference is data showing an image depicting the eye of the subject for inference. The image for inference is captured, for example, using a camera mounted on a smartphone.
推論用涙液メニスカス画像データは、推論用被検体の目を描出している推論用画像から推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示すデータである。また、推論用涙液メニスカス画像は、例えば、推論用画像のうち涙液メニスカスが描出されている領域を切り出すことにより生成される。 The inference tear meniscus image data is data showing an inference tear meniscus image obtained by cutting out an area depicting the tear meniscus of the inference subject from an inference image depicting the eye of the inference subject. The inference tear meniscus image is generated, for example, by cutting out an area depicting the tear meniscus from the inference image.
推論用照明画像データは、推論用被検体の目を描出している推論用画像から推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示すデータである。また、推論用照明画像は、例えば、推論用画像のうち推論用被検体の角膜に映り込んでいる照明が描出されている領域を切り出すことにより生成される。 The illumination image data for inference is data showing an illumination image for inference obtained by cutting out an area depicting the illumination reflected on the cornea of the subject for inference from an image for inference depicting the eye of the subject for inference. The illumination image for inference is generated, for example, by cutting out an area from the image for inference depicting the illumination reflected on the cornea of the subject for inference.
症状推定機能202bは、機械学習実行機能102bにより学習済みの機械学習プログラム750bに推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を推定させる。例えば、症状推定機能202bは、機械学習プログラム750bにこれらのデータを入力し、推論用被検体の目の涙液層破壊時間の長さを表す数値を推定させる。
The
そして、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。例えば、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目の涙液層破壊時間の長さを表す数値を示す症状データを出力させる。この場合、症状データは、例えば、自身が示しており、推論用被検体の目の涙液層破壊時間の長さを表す数値をディスプレイ920bに表示するために使用される。
Then, the
次に、図14を参照しながら第二実施形態に係るドライアイ検査プログラム200bが実行する処理の一例を説明する。図14は、第二実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。
Next, an example of processing executed by the dry
ステップS41において、データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。
In step S41, the
ステップS42において、症状推定機能202bは、学習済みの機械学習プログラムに、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、機械学習プログラムに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。
In step S42, the
以上、第二実施形態に係る機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置、ドライアイ検査装置、機械学習実行方法及びドライアイ検査方法について説明した。 The above describes the machine learning execution program, dry eye test program, machine learning execution device, dry eye test device, machine learning execution method, and dry eye test method according to the second embodiment.
機械学習実行プログラム100bは、教師データ取得機能101bと、機械学習実行機能102bとを備える。
The machine
教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。学習用涙液メニスカス画像データは、学習用被検体の涙液メニスカスを描出している学習用涙液メニスカス画像を示すデータである。学習用照明画像データは、学習用被検体の角膜に映り込んでいる照明を描出している学習用照明画像を示すデータである。学習用検査画像データは、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している画像を示すデータである。学習用検査結果データは、ドライアイの症状に関する検査の結果を示すデータである。
The teacher
機械学習実行機能102bは、教師データを機械学習プログラム750bに入力し、機械学習プログラム750bを学習させる。
The machine
これにより、機械学習実行プログラム100bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とに基づいてドライアイの症状に関する検査の結果を予測する機械学習プログラム750bを生成することができる。
As a result, the machine
また、機械学習実行プログラム100bは、学習用画像データから切り出された学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を問題として含んでいる教師データを使用して機械学習プログラム750bを学習させる。したがって、機械学習実行プログラム100bは、ドライアイの症状に関する検査の結果を更に精度良く予測することができる機械学習プログラム750bを生成することができる。
The machine
ドライアイ検査プログラム200bは、データ取得機能201bと、症状推定機能202bとを備える。
The dry
データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。推論用涙液メニスカス画像データは、推論用被検体の涙液メニスカスを描出している推論用涙液メニスカス画像を示すデータである。推論用照明画像データは、推論用被検体の角膜に映り込んでいる照明を描出している推論用照明画像を示すデータである。
The
症状推定機能202bは、機械学習実行プログラム100bにより学習済みの機械学習プログラム750bに推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、推論用被検体の目に現れているドライアイの症状を推定させる。そして、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。
The
これにより、ドライアイ検査プログラム200bは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。
This allows the dry
次に、機械学習プログラム750bを実際に学習させ、ドライアイの症状を推定させた例を挙げて、機械学習実行プログラム100bにより奏される効果の具体例を比較例と第二実施形態に係る実施例とを対比させて説明する。
Next, we will provide an example in which the
この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを教師データとして機械学習プログラムを学習させた例である。 The comparative example in this case is an example in which a machine learning program is trained using as training data data to which training image data has been added, excluding the training tear meniscus image data and the training illumination image data from the 540 training data pieces representing that the training subject's eyes are normal and the 580 training data pieces representing that the training subject's eyes are abnormal.
このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータ及び学習用被検体の目が異常であることを表している80個のテストデータから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。 The machine learning program trained in this way showed a prediction accuracy of 72% and a false negative rate of 28% when its characteristics were evaluated using data in which the training tear meniscus image data and training illumination image data were removed from the 80 test data representing the above-mentioned training subject's eyes being normal and training image data was added, and data in which the training tear meniscus image data and training illumination image data were removed from the 80 test data representing the training subject's eyes being abnormal and training image data was added.
一方、機械学習実行プログラム100bにより学習用涙液メニスカス画像データを使用して学習した機械学習プログラム750bは、学習用涙液メニスカス画像データのみを含むテストデータを使用して特性を評価すると、予測精度77%及び偽陰性率23%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。
On the other hand, when the
また、機械学習実行プログラム100bにより学習用照明画像データを使用して学習した機械学習プログラム750bは、学習用照明画像データのみを含むテストデータを使用して特性を評価すると、予測精度77%及び偽陰性率23%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。
In addition, when the
また、機械学習実行プログラム100bにより学習用涙液メニスカス画像データ及び学習用照明画像データを使用して学習した機械学習プログラム750bは、学習用涙液メニスカス画像データ及び学習用照明画像データを含むテストデータを使用して特性を評価すると、予測精度82%及び偽陰性率18%を示した。この特性は、比較例に係る機械学習プログラムの特性、学習用涙液メニスカス画像データを使用して学習した機械学習プログラム750bの特性及び学習用照明画像データを使用して学習した機械学習プログラム750bの特性を上回っている。
Furthermore, when the
なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.
また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.
なお、機械学習実行プログラム100bが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。同様に、ドライアイ検査プログラム200bが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。また、このようなハードウェアは,例えば、LSI、ASIC、FPGA、GPUである。
At least a part of the functions of the machine
また、機械学習実行プログラム100bが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。同様に、ドライアイ検査プログラム200bが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。
Furthermore, at least some of the functions of the machine
また、第二実施形態では、機械学習実行装置10bと、機械学習装置700bと、ドライアイ検査装置20bとが互いに独立した装置である場合を例に挙げて説明したが、これに限定されない。これらの装置は、一つの装置として実現されていてもよい。
In the second embodiment, the machine
[第三実施形態]
上述した第一実施形態では、教師データ取得機能101aが第二実施形態で説明した学習用涙液メニスカス画像データ及び学習用照明画像データを問題の一部に含まない教師データを取得する場合を例に挙げたが、これに限定されない。教師データ取得機能101aは、学習用開瞼データに加え、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を上述した学習用画像データとしている教師データを取得してもよい。また、この場合、データ取得機能201aは、推論用開瞼データに加え、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方を上述した推論用画像データとして取得する。そして、この場合、症状推定機能202aは、機械学習プログラム750aに、推論用開瞼データに加え、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に基づいて推論用被検体の目に現れているドライアイの症状を推定させる。
[Third embodiment]
In the first embodiment described above, the case where the teacher
また、上述した第二実施形態では、教師データ取得機能101bが第一実施形態で説明した学習用開瞼データを問題の一部に含まない教師データを取得する場合を例に挙げたが、これに限定されない。教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データに加え、学習用開瞼データを問題としている教師データを取得してもよい。また、この場合、データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に加え、更に推論用開瞼データを取得する。そして、この場合、症状推定機能202bは、機械学習プログラム750bに、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に加え、推論用開瞼データに基づいて推論用被検体の目に現れているドライアイの症状を推定させる。
In the second embodiment described above, the teacher
さらに、第三実施形態に係る機械学習実行機能102aは、テストデータを使用して機械学習プログラム750aの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。同様に、第三実施形態に係る機械学習実行機能102bは、テストデータを使用して機械学習プログラム750bの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。
Furthermore, the machine
図15は、第三実施形態に係る機械学習プログラムが涙液層破壊時間を調べる検査の結果を予測する際に学習用被検体の目を描出している学習用画像のうち重点的に考慮した部分の一例を示す図である。例えば、第三実施形態に係る機械学習実行機能102aは、勾配加重クラス活性化マッピングを使用して図15に示した学習用画像のうち楕円C11で囲まれている領域、楕円C12で囲まれている領域及び楕円C2で囲まれている領域が機械学習プログラム750aによる涙液層破壊時間を調べる検査の予測に一定以上の影響を与えていると評価する。また、図15を参照しながら説明した事項は、第三実施形態に係る機械学習実行機能102bについても当てはまる。
Figure 15 is a diagram showing an example of a portion of a training image depicting the eye of a training subject that is considered intensively when a machine learning program according to the third embodiment predicts the results of a test to examine tear film breakup time. For example, the machine
なお、これらの楕円で囲まれている領域に含まれている三段階のグレースケールは、角膜上皮障害に関する検査の結果の予測に影響を与えた度合いを示している。楕円C11で囲まれている領域及び楕円C12で囲まれている領域は、いずれも学習用被検体の涙液メニスカスを描出している領域の上に重ねて表示されている。楕円C2で囲まれている領域は、学習用被検体の角膜に映り込んでいる照明を描出している領域の上に重ねて表示されている。 The three grayscales contained in the areas enclosed by these ellipses indicate the degree to which they influenced the prediction of the test results related to corneal epithelial damage. The areas enclosed by ellipses C11 and C12 are both displayed superimposed on the area depicting the tear meniscus of the learning subject. The area enclosed by ellipse C2 is displayed superimposed on the area depicting the illumination reflected on the cornea of the learning subject.
次に、学習用開瞼データと、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題として含んでいる教師データを使用して学習させ、推論用開瞼データと、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とに基づいて推論用被検体の目に現れているドライアイの症状を推定させる場合に奏される効果の具体例について説明する。また、以下の説明では、教師データ取得機能101aが学習用開瞼データを取得し、データ取得機能201aが推論用開瞼データを取得する場合を例に挙げて説明する。
Next, a specific example of the effect achieved when training is performed using teacher data that includes as problems the learning open eyelid data and at least one of the learning tear meniscus image data and the learning illumination image data, and the symptoms of dry eye appearing in the eye of the inference subject are estimated based on the inference open eyelid data and at least one of the inference tear meniscus image data and the inference illumination image data will be described. In the following explanation, an example will be given in which the teacher
この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを教師データとして機械学習プログラムを学習させた例である。 The comparative example in this case is an example in which a machine learning program is trained using as training data data to which training image data has been added, excluding training eyelid open data, training tear meniscus image data, and training illumination image data from the 540 training data pieces representing that the training subject's eyes are normal and the 580 training data pieces representing that the training subject's eyes are abnormal.
このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータ及び学習用被検体の目が異常であることを表している80個のテストデータから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。 The machine learning program trained in this way showed a prediction accuracy of 72% and a false negative rate of 28% when its characteristics were evaluated using data to which the training image data was added, excluding the training open eye data, training tear meniscus image data, and training illumination image data from 80 test data representing the above-mentioned training subject's eyes being normal, and data to which the training image data was added, excluding the training open eye data, training tear meniscus image data, and training illumination image data from 80 test data representing the training subject's eyes being abnormal.
一方、機械学習実行プログラム100aにより学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを使用して学習した機械学習プログラム750aは、学習用涙液メニスカス画像データ及び学習用照明画像データを含むテストデータを使用して特性を評価すると、予測精度90%及び偽陰性率10%を示した。この特性は、比較例に係る機械学習プログラムの特性、第一実施形態に係る機械学習プログラム750aの特性及び第二実施形態に係る機械学習プログラム750bの特性を上回っている。
On the other hand, the
なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.
また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.
なお、上述したドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、推論用被検体の目にドライアイ点眼薬が点眼される前後で使用されてもよい。上述したドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、このようなタイミングで使用されることにより、推論用被検体が抱えるドライアイの症状に対して当該ドライアイ点眼薬が有している有効性を検証する手段ともなり得る。 The above-mentioned dry eye test program, dry eye test device, and dry eye test method may be used before or after the dry eye eye drops are applied to the eyes of the subject to be inferred. By using the above-mentioned dry eye test program, dry eye test device, and dry eye test method at such timing, they can also serve as a means of verifying the effectiveness of the dry eye eye drops for the dry eye symptoms suffered by the subject to be inferred.
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成は、この実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲内において種々の組み合わせ、変形、置換及び設計変更の少なくとも一つが加えられることがある。 Although an embodiment of the present invention has been described in detail above with reference to the drawings, the specific configuration is not limited to this embodiment, and various combinations, modifications, substitutions, and/or design changes may be made without departing from the spirit of the present invention.
また、上述した本発明の実施形態の効果は、一例として示した効果である。したがって、本発明の実施形態は、上述した効果以外にも上述した実施形態の記載から当業者が認識し得る他の効果も奏し得る。 The effects of the above-described embodiments of the present invention are shown as examples. Therefore, in addition to the effects described above, the embodiments of the present invention may also have other effects that a person skilled in the art may recognize from the description of the above-described embodiments.
10a,10b…機械学習実行装置、100a,100b…機械学習実行プログラム、101a,101b…教師データ取得機能、102a,102b…機械学習実行機能、20a,20b…ドライアイ検査装置、200a,200b…ドライアイ検査プログラム、201a,201b…データ取得機能、202a,202b…症状推定機能、700a,700b…機械学習装置、750a,750b…機械学習プログラム 10a, 10b...machine learning execution device, 100a, 100b...machine learning execution program, 101a, 101b...teaching data acquisition function, 102a, 102b...machine learning execution function, 20a, 20b...dry eye test device, 200a, 200b...dry eye test program, 201a, 201b...data acquisition function, 202a, 202b...symptom estimation function, 700a, 700b...machine learning device, 750a, 750b...machine learning program
Claims (11)
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、
をコンピュータに実行させる機械学習実行プログラム。 a training data acquisition function for acquiring training data having as an answer at least one of training test image data showing an image depicting the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye and training test result data showing the results of the test for dry eye symptoms, the training image data being training illumination image data showing a training illumination image obtained by cutting out a region depicting the illumination reflected on the cornea of the training subject from a training image depicting the eye of the training subject, and training eyelid open data showing a maximum eyelid open time which is the time the training subject was able to continuously open the eye in which the training image was captured;
A machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution program that causes a computer to execute the above.
請求項1に記載の機械学習実行プログラム。 The teacher data acquisition function acquires the teacher data, the teacher data being training image data that indicates a training tear meniscus image obtained by cutting out an area depicting the tear meniscus of the training subject from the training image.
The machine learning execution program according to claim 1 .
請求項1または請求項2に記載の機械学習実行プログラム。 The teacher data acquisition function acquires teacher data having as an answer at least one of the learning test image data showing an image depicting the eye of the learning subject when a test is performed to examine the tear film breakup time of the eye of the learning subject, and the learning test result data showing a result of the test to examine the tear film breakup time of the eye of the learning subject.
The machine learning execution program according to claim 1 or 2 .
学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像であって前記学習用被検体の角膜に映り込んでいる照明を描出している前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データである学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データ及び前記推論用開瞼データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、
をコンピュータに実現させるドライアイ検査プログラム。 a data acquisition function for acquiring inference image data, which is inference illumination image data showing an inference illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the subject for inference from an inference image depicting the eye of the subject for inference, the area depicting the illumination reflected on the cornea of the subject for inference, and inference eyelid opening data showing the maximum eyelid opening time, which is the time the subject for inference could continuously open the eye in which the inference image was captured;
a symptom estimation function for inputting the inference image data and the inference eye-open data into a machine learning program trained using teacher data having as answer at least one of: learning image data showing a learning image depicting the eye of a learning subject, and learning eyelid-open data showing a maximum eyelid-open time, which is the time the learning subject could continuously open the eye in which the learning image was captured; learning test image data being learning illumination image data showing a region depicting illumination reflected on the cornea of the learning subject from the learning image depicting the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject, the learning image showing an image depicting the eye of the learning subject and depicting illumination reflected on the cornea of the learning subject; and learning test result data showing the result of the test for dry eye symptoms; and
A dry eye testing program that enables a computer to achieve this.
前記症状推定機能は、前記学習用被検体の目の涙液メニスカスを描出している前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データを前記学習用画像データとしている前記教師データを使用して学習した前記機械学習プログラムに前記推論用涙液メニスカス画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させる、
請求項4に記載のドライアイ検査プログラム。 The data acquisition function acquires, as the image data for inference, tear meniscus image data for inference showing a tear meniscus image for inference obtained by cutting out a region depicting the tear meniscus of the subject for inference from the image for inference depicting the tear meniscus of the eye of the subject for inference,
the symptom estimation function inputs the inference tear meniscus image data to the machine learning program trained using the teacher data, the training image data being training tear meniscus image data showing a training tear meniscus image obtained by cutting out a region depicting the tear meniscus of the training subject from the training image depicting the tear meniscus of the training subject's eye, and causes the machine learning program to estimate a symptom of dry eye appearing in the eye of the inference subject;
The dry eye test program according to claim 4 .
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、
を備える機械学習実行装置。 a training data acquisition unit that acquires training data having as an answer at least one of training test image data showing an image depicting the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye and training test result data showing the results of the test for dry eye symptoms, and training image data being training illumination image data showing a training illumination image obtained by cutting out a region depicting the illumination reflected on the cornea of the training subject from a training image depicting the eye of the training subject and training eyelid open data showing a maximum eyelid open time which is the time the training subject was able to continuously open the eye in which the training image was captured;
a machine learning execution unit that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution device comprising:
学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像であって前記学習用被検体の角膜に映り込んでいる照明を描出している前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データである学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データ及び前記推論用開瞼データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、
を備えるドライアイ検査装置。 a data acquisition unit that acquires inference image data, which is inference illumination image data showing an inference illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the subject for inference from an inference image depicting the eye of the subject for inference, the area depicting illumination reflected on the cornea of the subject for inference, and inference eyelid opening data showing a maximum eyelid opening time that is the time the subject for inference can continuously open the eye in which the inference image is captured;
a symptom estimation unit that inputs the inference image data and the inference eye-open data into a machine learning program trained using teacher data that has as its answer at least one of: training image data showing a training image depicting the eye of a training subject, and training eyelid-open data showing a maximum eyelid-open time that is the time that the training subject could continuously open the eye in which the training image was captured; training test image data that is training illumination image data showing a region depicting illumination reflected on the cornea of the training subject from the training image depicting the eye of the training subject when a test for dry eye symptoms is performed on the eye of the training subject, the training image showing an image depicting the eye of the training subject and depicting illumination reflected on the cornea of the training subject; and training test result data showing a result of the test for dry eye symptoms; and causes the machine learning program to infer symptoms of dry eye that are present in the eye of the inference subject, and causes the machine learning program to output symptom data showing symptoms of dry eye that are present in the eye of the inference subject.
A dry eye examination device comprising:
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、
をコンピュータに実行させる機械学習実行プログラム。 a training data acquisition function for acquiring training data having training test image data showing an image depicting the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye and training test result data showing the results of the test for dry eye symptoms, as answers, and training test image data showing an image depicting the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye; and
A machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution program that causes a computer to execute the above.
学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとを答えとする教師データを使用して学習した機械学習プログラムに前記推論用涙液メニスカス画像データ及び前記推論用照明画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、
をコンピュータに実現させるドライアイ検査プログラム。 a data acquisition function for acquiring tear meniscus image data for inference showing a tear meniscus image for inference obtained by cutting out an area depicting the tear meniscus of the subject for inference from an image for inference depicting the eye of the subject for inference, and illumination image data for inference showing an illumination image for inference obtained by cutting out an area depicting illumination reflected on the cornea of the subject for inference from the image for inference;
a symptom estimation function that inputs the inference tear meniscus image data and the inference illumination image data into a machine learning program trained using teacher data having as questions training tear meniscus image showing a training tear meniscus image obtained by cutting out a region depicting the tear meniscus of the training subject from a training image depicting the eye of the training subject and training illumination image data showing a region depicting illumination reflected on the cornea of the training subject from the training image, and answers training test image data showing an image depicting the eye of the training subject when a test for dry eye symptoms is performed on the eye of the training subject and training test result data showing the results of the test for dry eye symptoms, causes the machine learning program to estimate a symptom of dry eye appearing in the eye of the inference subject, and causes the machine learning program to output symptom data showing the symptom of dry eye appearing in the eye of the inference subject;
A dry eye testing program that enables a computer to achieve this.
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、
を備える機械学習実行装置。 a training data acquisition unit that acquires training data having training tear meniscus image data showing a training tear meniscus image obtained by cutting out a region depicting the tear meniscus of the training subject from a training image depicting the eye of the training subject and training illumination image data showing a training illumination image obtained by cutting out a region depicting illumination reflected on the cornea of the training subject from the training image, as questions, and has training test image data showing an image depicting the eye of the training subject when a test for dry eye symptoms is performed on the eye of the training subject and training test result data showing the results of the test for dry eye symptoms as answers;
a machine learning execution unit that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution device comprising:
学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとを答えとする教師データを使用して学習した機械学習プログラムに前記推論用涙液メニスカス画像データ及び前記推論用照明画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、
を備えるドライアイ検査装置。 a data acquisition unit that acquires tear meniscus image data for inference showing a tear meniscus image for inference obtained by cutting out an area depicting the tear meniscus of the subject for inference from an image for inference depicting the eye of the subject for inference, and illumination image data for inference showing an illumination image for inference obtained by cutting out an area depicting illumination reflected on the cornea of the subject for inference from the image for inference;
a symptom estimation unit that inputs the inference tear meniscus image data and the inference illumination image data into a machine learning program trained using teacher data having as problems training tear meniscus image showing a training tear meniscus image obtained by cutting out a region depicting the tear meniscus of the training subject from a training image depicting the eye of the training subject and training illumination image data showing a region depicting illumination reflected on the cornea of the training subject from the training image, and answers training test image data showing an image depicting the eye of the training subject when a test for dry eye symptoms is performed on the eye of the training subject and training test result data showing a result of the test for dry eye symptoms, causes the machine learning program to estimate a symptom of dry eye appearing in the eye of the inference subject, and causes the machine learning program to output symptom data showing the symptom of dry eye appearing in the eye of the inference subject;
A dry eye examination device comprising:
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020217684A JP7570228B2 (en) | 2020-12-25 | 2020-12-25 | Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device |
KR1020237003200A KR20230096957A (en) | 2020-10-28 | 2021-10-27 | Inspection method, machine learning implementation method, inspection device, and machine learning implementation method |
PCT/JP2021/039589 WO2022092134A1 (en) | 2020-10-28 | 2021-10-27 | Examination method, machine learning execution method, examination device, and machine learning execution method |
TW110139818A TW202222245A (en) | 2020-10-28 | 2021-10-27 | Examination method, machine learning execution method, examination device, and machine learning execution method |
JP2022072355A JP7094468B1 (en) | 2020-12-25 | 2022-04-26 | Inspection methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020217684A JP7570228B2 (en) | 2020-12-25 | 2020-12-25 | Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022072355A Division JP7094468B1 (en) | 2020-12-25 | 2022-04-26 | Inspection methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022102758A JP2022102758A (en) | 2022-07-07 |
JP7570228B2 true JP7570228B2 (en) | 2024-10-21 |
Family
ID=82273144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020217684A Active JP7570228B2 (en) | 2020-10-28 | 2020-12-25 | Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7570228B2 (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008257292A (en) | 2007-03-30 | 2008-10-23 | Fujifilm Corp | Image diagnosis support apparatus and system |
US20080273171A1 (en) | 2007-05-04 | 2008-11-06 | Advanced Medical Optics, Inc. | Methods and devices for measuring tear film and diagnosing tear disorders |
US20130226008A1 (en) | 2012-02-21 | 2013-08-29 | Massachusetts Eye & Ear Infirmary | Calculating Conjunctival Redness |
JP2013212363A (en) | 2012-03-06 | 2013-10-17 | Kitasato Institute | Method for ophthalmologic measurement, ophthalmologic measuring apparatus, and method for evaluating test piece |
JP2015116319A (en) | 2013-12-18 | 2015-06-25 | パナソニックIpマネジメント株式会社 | Diagnosis support device, diagnosis support method, and diagnosis support program |
US20170188805A1 (en) | 2015-12-31 | 2017-07-06 | Anantha Pradeep | System and method for analyzing eye and contact lens condition |
JP2019025257A (en) | 2017-08-04 | 2019-02-21 | エルライズ株式会社 | Ophthalmologic measurement apparatus and ophthalmologic measurement system |
US20190110753A1 (en) | 2017-10-13 | 2019-04-18 | Ai Technologies Inc. | Deep learning-based diagnosis and referral of ophthalmic diseases and disorders |
WO2019168142A1 (en) | 2018-03-02 | 2019-09-06 | 興和株式会社 | Image classification method, device, and program |
JP2019525923A (en) | 2016-07-18 | 2019-09-12 | リジェンツリー リミテッド ライアビリティ カンパニー | How to treat dry eye syndrome |
CN111700582A (en) | 2020-06-23 | 2020-09-25 | 温州医科大学附属眼视光医院 | Common ocular surface disease diagnosis system based on intelligent terminal |
-
2020
- 2020-12-25 JP JP2020217684A patent/JP7570228B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008257292A (en) | 2007-03-30 | 2008-10-23 | Fujifilm Corp | Image diagnosis support apparatus and system |
US20080273171A1 (en) | 2007-05-04 | 2008-11-06 | Advanced Medical Optics, Inc. | Methods and devices for measuring tear film and diagnosing tear disorders |
US20130226008A1 (en) | 2012-02-21 | 2013-08-29 | Massachusetts Eye & Ear Infirmary | Calculating Conjunctival Redness |
JP2013212363A (en) | 2012-03-06 | 2013-10-17 | Kitasato Institute | Method for ophthalmologic measurement, ophthalmologic measuring apparatus, and method for evaluating test piece |
JP2015116319A (en) | 2013-12-18 | 2015-06-25 | パナソニックIpマネジメント株式会社 | Diagnosis support device, diagnosis support method, and diagnosis support program |
US20170188805A1 (en) | 2015-12-31 | 2017-07-06 | Anantha Pradeep | System and method for analyzing eye and contact lens condition |
JP2019525923A (en) | 2016-07-18 | 2019-09-12 | リジェンツリー リミテッド ライアビリティ カンパニー | How to treat dry eye syndrome |
JP2019025257A (en) | 2017-08-04 | 2019-02-21 | エルライズ株式会社 | Ophthalmologic measurement apparatus and ophthalmologic measurement system |
US20190110753A1 (en) | 2017-10-13 | 2019-04-18 | Ai Technologies Inc. | Deep learning-based diagnosis and referral of ophthalmic diseases and disorders |
WO2019168142A1 (en) | 2018-03-02 | 2019-09-06 | 興和株式会社 | Image classification method, device, and program |
CN111700582A (en) | 2020-06-23 | 2020-09-25 | 温州医科大学附属眼视光医院 | Common ocular surface disease diagnosis system based on intelligent terminal |
Non-Patent Citations (1)
Title |
---|
Tai-Yuan Su et al.,Tear Film Break-Up Time Measurement Using Deep Convolutional Neural Networks for Screening Dry Eye Disease,IEEE SENSORS JOURNAL,2018年08月15日,VOL. 18, NO. 16,pp.6857-6862,DOI: 10.1109/JSEN.2018.2850940 |
Also Published As
Publication number | Publication date |
---|---|
JP2022102758A (en) | 2022-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vujosevic et al. | Screening for diabetic retinopathy: new perspectives and challenges | |
Van Der Heijden et al. | Validation of automated screening for referable diabetic retinopathy with the IDx‐DR device in the Hoorn Diabetes Care System | |
Reid et al. | Artificial intelligence for pediatric ophthalmology | |
Mursch-Edlmayr et al. | Artificial intelligence algorithms to diagnose glaucoma and detect glaucoma progression: translation to clinical practice | |
Rampat et al. | Artificial intelligence in cornea, refractive surgery, and cataract: basic principles, clinical applications, and future directions | |
Ćirković | Evaluation of four artificial intelligence–assisted self-diagnosis apps on three diagnoses: two-year follow-up study | |
Chauhan et al. | Comparison of conventional and high-pass resolution perimetry in a prospective study of patients with glaucoma and healthy controls | |
Prasad et al. | Multiple eye disease detection using Deep Neural Network | |
JP2021507428A (en) | Diagnosis and referral based on deep learning of ophthalmic diseases and disorders | |
Maruoka et al. | Deep neural network-based method for detecting obstructive meibomian gland dysfunction with in vivo laser confocal microscopy | |
Shi et al. | Assessment of image quality on color fundus retinal images using the automatic retinal image analysis | |
Abramovich et al. | FundusQ-Net: A regression quality assessment deep learning algorithm for fundus images quality grading | |
JP2020036835A (en) | Ophthalmologic diagnostic support apparatus, ophthalmologic diagnostic support method, and ophthalmologic diagnostic support program | |
Sun et al. | Impact of glaucoma and dry eye on text-based searching | |
Brandão-de-Resende et al. | Glaucoma and telemedicine | |
Srisuriyajan et al. | Cytomegalovirus retinitis screening using machine learning technology | |
JP7570228B2 (en) | Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device | |
Tabuchi et al. | Developing an iOS application that uses machine learning for the automated diagnosis of blepharoptosis | |
JP7570229B2 (en) | Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device | |
JP7094468B1 (en) | Inspection methods | |
TW202222245A (en) | Examination method, machine learning execution method, examination device, and machine learning execution method | |
Li et al. | Early Detection of Optic Nerve Changes on Optical Coherence Tomography Using Deep Learning for Risk-Stratification of Papilledema and Glaucoma | |
Tabuchi | Understanding required to consider AI applications to the field of ophthalmology | |
JP2022102757A (en) | Machine learning execution program, dry eye inspection program, machine learning execution device and dry eye inspection device | |
Singh | Artificial intelligence in ophthalmology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7570228 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |