[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7570228B2 - Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device - Google Patents

Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device Download PDF

Info

Publication number
JP7570228B2
JP7570228B2 JP2020217684A JP2020217684A JP7570228B2 JP 7570228 B2 JP7570228 B2 JP 7570228B2 JP 2020217684 A JP2020217684 A JP 2020217684A JP 2020217684 A JP2020217684 A JP 2020217684A JP 7570228 B2 JP7570228 B2 JP 7570228B2
Authority
JP
Japan
Prior art keywords
training
subject
inference
image
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020217684A
Other languages
Japanese (ja)
Other versions
JP2022102758A (en
Inventor
雅貴 吉田
汐理 宮崎
誠 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lion Corp
Original Assignee
Lion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lion Corp filed Critical Lion Corp
Priority to JP2020217684A priority Critical patent/JP7570228B2/en
Priority to KR1020237003200A priority patent/KR20230096957A/en
Priority to PCT/JP2021/039589 priority patent/WO2022092134A1/en
Priority to TW110139818A priority patent/TW202222245A/en
Priority to JP2022072355A priority patent/JP7094468B1/en
Publication of JP2022102758A publication Critical patent/JP2022102758A/en
Application granted granted Critical
Publication of JP7570228B2 publication Critical patent/JP7570228B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置に関する。 The present invention relates to a machine learning execution program, a dry eye test program, a machine learning execution device, and a dry eye test device.

現在、特に先進国において、パーソナルコンピュータ、スマーフォン、タブレット等、ディスプレイが搭載されている電子機器が広く普及しているため、目の不調を自覚する人が急激に増加している。更に、インターネットを介したオンラインサービスの増加、テレワークを推進する企業の増加等により、目の不調を自覚する人の数が更に増加していくと予想される。 Currently, especially in developed countries, electronic devices equipped with displays, such as personal computers, smartphones, and tablets, are becoming widespread, and as a result, the number of people who are aware of eye problems is rapidly increasing. Furthermore, due to the increase in online services via the Internet and the increase in companies promoting teleworking, the number of people who are aware of eye problems is expected to increase further.

このような生活習慣により比較的頻繁に引き起こされる目の不調の一例として、涙液層の不安定化を伴うドライアイが挙げられる。例えば、涙液層の安定性の指標となる涙液層破壊時間を調べるためには、眼科医がフルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察している状態で、瞬きをして目を開けた直後から涙液層が破綻するまでの時間を測定する必要がある。或いは、特許文献1に開示されている眼科診断支援装置を使用した診察を受ける必要がある。 One example of an eye disorder that is relatively frequently caused by such lifestyle habits is dry eye, which is accompanied by an instability of the tear film. For example, to examine the tear film breakup time, which is an index of tear film stability, an ophthalmologist must instill a fluorescein dye reagent into the eye and, while observing the eye using a slit lamp, measure the time from immediately after blinking to the breakdown of the tear film. Alternatively, the patient must be examined using the ophthalmic diagnostic support device disclosed in Patent Document 1.

この眼科診断支援装置は、症例データ格納部と、機械学習部と、患者データ取得部と、対比判定部と、結果表示部とを備える。症例データ格納部は、眼科診断画像データと診断結果との組み合わせからなる複数の症例基礎画像データを格納する。機械学習部は、特徴画像要素を抽出するとともに症例基礎画像データを分類する。患者データ取得部は、患者の患者眼科診断画像データを取得する。対比判定部は、患者眼科診断画像データと症例基礎画像データとを対比し、データ同士の類似性判定を実行する。結果表示部は、類似性判定の結果を表示する。 This ophthalmological diagnosis support device includes a case data storage unit, a machine learning unit, a patient data acquisition unit, a comparison judgment unit, and a result display unit. The case data storage unit stores a plurality of case basic image data consisting of a combination of ophthalmological diagnostic image data and diagnosis results. The machine learning unit extracts characteristic image elements and classifies the case basic image data. The patient data acquisition unit acquires patient ophthalmological diagnostic image data of a patient. The comparison judgment unit compares the patient ophthalmological diagnostic image data with the case basic image data and performs a similarity judgment between the data. The result display unit displays the result of the similarity judgment.

特開2020-036835号公報JP 2020-036835 A

しかしながら、上述した眼科診断支援装置は、医療機関で使用される検査機器を使用して眼科診断データを取得する必要があるため、目の不調を自覚している人のドライアイの有無や程度を簡易に検査することができない。 However, the above-mentioned ophthalmic diagnostic support device requires obtaining ophthalmic diagnostic data using testing equipment used in medical institutions, and therefore cannot easily test for the presence or severity of dry eye in people who are aware of eye problems.

本発明は、上述した事情に鑑みてなされたものであり、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置を提供しようとするものである。 The present invention has been made in consideration of the above-mentioned circumstances, and aims to provide a machine learning execution program, a dry eye test program, a machine learning execution device, and a dry eye test device that can predict the results of a test related to dry eye symptoms without actually conducting the test.

本発明の一態様は、学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得機能と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、をコンピュータに実行させる機械学習実行プログラムである。 One aspect of the present invention is a machine learning execution program that causes a computer to execute a teacher data acquisition function that acquires teacher data in which the answer is at least one of the following: training image data showing training images depicting the eyes of a training subject and training eyelid open data showing the maximum eyelid open time, which is the time the training subject was able to continuously open the eye in which the training image was captured; training test image data showing an image depicting the eyes of the training subject when a test for dry eye symptoms is performed on the eyes of the training subject, and training test result data showing the results of the test for dry eye symptoms; and a machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program.

本発明の一態様は、上述した機械学習実行プログラムであって、前記教師データ取得機能が、前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す前記学習用画像データを問題とする前記教師データを取得する。 One aspect of the present invention is the machine learning execution program described above, in which the training data acquisition function acquires the training data based on the training image data showing a training tear meniscus image obtained by cutting out an area depicting the tear meniscus of the training subject from the training image.

本発明の一態様は、上述した機械学習実行プログラムであって、前記教師データ取得機能が、前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用角膜画像を示す前記学習用画像データを問題とする前記教師データを取得する。 One aspect of the present invention is the machine learning execution program described above, in which the training data acquisition function acquires the training data based on training image data showing a training corneal image extracted from the training image to depict an area depicting illumination reflected on the cornea of the training subject.

本発明の一態様は、上述した機械学習実行プログラムであって、前記教師データ取得機能が、前記学習用被検体の目の涙液層破壊時間を調べる検査が実施された際における前記学習用被検体の目を描出している画像を示す前記学習用検査画像データと、前記学習用被検体の目の涙液層破壊時間を調べる検査の結果を示す前記学習用検査結果データとの少なくとも一方を答えとする前記教師データを取得する。 One aspect of the present invention is the machine learning execution program described above, in which the teacher data acquisition function acquires the teacher data with at least one of the learning test image data showing an image depicting the eye of the learning subject when a test is performed to examine the tear film breakup time of the eye of the learning subject, and the learning test result data showing the results of the test to examine the tear film breakup time of the eye of the learning subject as an answer.

本発明の一態様は、推論用被検体の目を描出している推論用画像を示す推論用画像データと、前記推論用画像が撮影された目を前記推論用被検体が連続して開けることができた時間である最大開瞼時間を示す推論用開瞼データとを取得するデータ取得機能と、学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データ及び前記推論用開瞼データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、をコンピュータに実現させるドライアイ検査プログラムである。 One aspect of the present invention concerns a data acquisition function that acquires inference image data showing an inference image depicting the eye of an inference subject and inference eyelid opening data showing the maximum eyelid opening time, which is the time the inference subject can continuously open the eye in which the inference image was captured, and learning image data showing a learning image depicting the eye of a learning subject and learning eyelid opening data showing the maximum eyelid opening time, which is the time the learning subject can continuously open the eye in which the learning image was captured, and the learning image data showing the maximum eyelid opening time, which is the time the learning subject can continuously open the eye in which the learning image was captured, when an examination for dry eye symptoms is performed on the eye of the learning subject. A dry eye testing program that implements in a computer a symptom estimation function that inputs the inference image data and the inference eyelid open data into a machine learning program that has been trained using teacher data that uses as an answer at least one of learning test image data showing an image depicting the eye of a learning subject and learning test result data showing the results of a test regarding dry eye symptoms, causes the machine learning program to estimate the dry eye symptoms present in the eye of the inference subject, and outputs symptom data showing the dry eye symptoms present in the eye of the inference subject.

本発明の一態様は、上述したドライアイ検査プログラムであって、前記データ取得機能が、前記推論用被検体の目の涙液メニスカスを描出している前記推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データを前記推論用画像データとして取得し、前記症状推定機能が、前記学習用被検体の目の涙液メニスカスを描出している前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データを前記学習用画像データとしている前記教師データを使用して学習した前記機械学習プログラムに前記推論用涙液メニスカス画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させる。 One aspect of the present invention is the dry eye test program described above, in which the data acquisition function acquires, as the image data for inference, tear meniscus image data for inference showing an inference tear meniscus image obtained by cutting out an area depicting the tear meniscus of the inference subject's eye from the inference image depicting the tear meniscus of the inference subject's eye, and the symptom estimation function inputs the tear meniscus image data for inference to the machine learning program trained using the teacher data, in which the symptom estimation function uses as the training image data learning tear meniscus image data showing a learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject's eye from the training image depicting the tear meniscus of the learning subject's eye, and causes the machine learning program to estimate the symptoms of dry eye appearing in the eye of the inference subject.

本発明の一態様は、上述したドライアイ検査プログラムであって、前記データ取得機能が、前記推論用被検体の角膜に映り込んでいる照明を描出している前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す前記推論用照明画像データを前記推論用画像データとして取得し、前記症状推定機能が、前記学習用被検体の角膜に映り込んでいる照明を描出している前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを前記学習用画像データとしている前記教師データを使用して学習した前記機械学習プログラムに前記推論用照明画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させる。 One aspect of the present invention is the dry eye test program described above, in which the data acquisition function acquires, as the inference image data, the inference illumination image data showing an inference illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the inference subject from the inference image depicting the illumination reflected on the cornea of the inference subject, and the symptom estimation function inputs the inference illumination image data to the machine learning program trained using the teacher data, and has the machine learning program estimate the symptoms of dry eye appearing in the eyes of the inference subject, in which the data acquisition function acquires, as the inference image data, the inference illumination image data showing an inference illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the learning subject from the learning image depicting the illumination reflected on the cornea of the learning subject, and the symptom estimation function inputs the inference illumination image data to the machine learning program trained using the teacher data, and has the machine learning program estimate the symptoms of dry eye appearing in the eyes of the inference subject.

本発明の一態様は、学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得部と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、を備える機械学習実行装置である。 One aspect of the present invention is a machine learning execution device that has a training data acquisition unit that acquires training data in which training image data showing training images depicting the eyes of a training subject and training eyelid open data showing the maximum eyelid open time, which is the time the training subject was able to continuously open the eye in which the training image was captured, are questions, and the training test image data showing an image depicting the eyes of the training subject when a test for dry eye symptoms is performed on the eyes of the training subject and training test result data showing the results of the test for dry eye symptoms are answers, and a machine learning execution unit that inputs the training data into a machine learning program and trains the machine learning program.

本発明の一態様は、推論用被検体の目を描出している推論用画像を示す推論用画像データと、前記推論用画像が撮影された目を前記推論用被検体が連続して開けることができた時間である最大開瞼時間を示す推論用開瞼データとを取得するデータ取得部と、学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データ及び前記推論用開瞼データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、を備えるドライアイ検査装置である。 One aspect of the present invention concerns a data acquisition unit that acquires inference image data showing an inference image depicting the eye of an inference subject and inference eyelid opening data showing the maximum eyelid opening time, which is the time the inference subject can continuously open the eye in which the inference image is captured, and learning image data showing a learning image depicting the eye of a learning subject and learning eyelid opening data showing the maximum eyelid opening time, which is the time the learning subject can continuously open the eye in which the learning image is captured, when an examination for dry eye symptoms is performed on the eye of the learning subject and a symptom estimation unit that inputs the inference image data and the inference eyelid open data into a machine learning program that has been trained using teacher data that uses as an answer at least one of learning test image data showing an image depicting the eye of the learning subject and learning test result data showing the results of a test regarding dry eye symptoms, causes the machine learning program to estimate the dry eye symptoms present in the eye of the inference subject, and causes the machine learning program to output symptom data showing the dry eye symptoms present in the eye of the inference subject.

本発明の一態様は、学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データの少なくとも一方とを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得機能と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、をコンピュータに実行させる機械学習実行プログラムである。 One aspect of the present invention is a machine learning execution program that causes a computer to execute a teacher data acquisition function that acquires teacher data having as an answer at least one of learning test image data showing an image depicting the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject and learning test result data showing the results of the test for dry eye symptoms, and a machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program, with at least one of learning tear meniscus image data showing a learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject from a learning image depicting the eye of the learning subject and learning illumination image data showing a learning illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the learning subject from the learning image.

本発明の一態様は、推論用被検体の目を描出している推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データ及び前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データの少なくとも一方とを取得するデータ取得機能と、学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データの少なくとも一方とを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用涙液メニスカス画像データ及び前記推論用照明画像データの少なくとも一方とを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、をコンピュータに実現させるドライアイ検査プログラムである。 One aspect of the present invention is a data acquisition function for acquiring at least one of inference tear meniscus image data showing an inference tear meniscus image obtained by cutting out an area depicting the tear meniscus of the inference subject from an inference image depicting the eye of the inference subject, and inference illumination image data showing an inference illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the inference subject from the inference image, and learning tear meniscus image data showing a learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject from a learning image depicting the eye of the learning subject, and learning illumination image data showing a learning illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the learning subject from the learning image. and a symptom estimation function that inputs at least one of the tear meniscus image data for inference and the illumination image data for inference into a machine learning program trained using teacher data that uses as an answer at least one of training test image data showing an image of the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye and training test result data showing the results of the test for dry eye symptoms, causes the machine learning program to estimate the dry eye symptoms appearing in the training subject's eye, and causes the machine learning program to output symptom data showing the dry eye symptoms appearing in the training subject's eye.

本発明の一態様は、学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データの少なくとも一方とを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得部と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、を備える機械学習実行装置である。 One aspect of the present invention is a machine learning execution device that has a teacher data acquisition unit that acquires teacher data in which at least one of learning tear meniscus image data showing a learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject from a learning image depicting the eye of the learning subject and learning illumination image data showing a learning illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the learning subject from the learning image is an answer, and at least one of learning test image data showing an image depicting the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject and learning test result data showing the results of the test for dry eye symptoms, and a machine learning execution unit that inputs the teacher data into a machine learning program and trains the machine learning program.

本発明の一態様は、推論用被検体の目を描出している推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データ及び前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データの少なくとも一方とを取得するデータ取得部と、学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データの少なくとも一方とを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用涙液メニスカス画像データ及び前記推論用照明画像データの少なくとも一方とを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、を備えるドライアイ検査装置である。 One aspect of the present invention includes a data acquisition unit that acquires at least one of inference tear meniscus image data showing an inference tear meniscus image obtained by cutting out an area depicting the tear meniscus of the inference subject from an inference image depicting the eye of the inference subject, and inference illumination image data showing an inference illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the inference subject from the inference image, and a data acquisition unit that acquires at least one of inference tear meniscus image data showing an inference tear meniscus image obtained by cutting out an area depicting illumination reflected on the cornea of the inference subject from the inference image, and a learning illumination image data showing learning tear meniscus image data showing an learning tear meniscus image obtained by cutting out an area depicting the tear meniscus of the learning subject from a learning image depicting the eye of the learning subject, and a learning illumination image showing an learning illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the learning subject from the learning image. and a symptom estimation unit that inputs at least one of the tear meniscus image data for inference and the illumination image data for inference into a machine learning program that has been trained using teacher data that takes as its answer at least one of learning test image data showing an image of the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject and learning test result data showing the results of the test for dry eye symptoms, causes the machine learning program to estimate the dry eye symptoms appearing in the eye of the learning subject, and causes the machine learning program to output symptom data showing the dry eye symptoms appearing in the eye of the learning subject.

本発明によれば、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。 The present invention makes it possible to predict the results of a test for dry eye symptoms without actually conducting the test.

第一実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a machine learning execution device according to the first embodiment. 第一実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a software configuration of a machine learning execution program according to the first embodiment. 第一実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of processing executed by a machine learning execution program according to the first embodiment. 第一実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of a dry eye test apparatus according to a first embodiment. 第一実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。FIG. 4 is a diagram showing an example of a software configuration of a dry eye test program according to the first embodiment. 第一実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。5 is a flowchart showing an example of processing executed by a dry eye test program according to the first embodiment. 第二実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。FIG. 11 is a diagram illustrating an example of a hardware configuration of a machine learning execution device according to a second embodiment. 第二実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。A figure showing an example of the software configuration of a machine learning execution program related to the second embodiment. 第二実施形態に係る学習用画像から涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像の一例を示す図である。FIG. 11 is a diagram showing an example of a learning tear meniscus image obtained by cutting out a region depicting the tear meniscus from a learning image according to the second embodiment. 第二実施形態に係る学習用画像から学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像の一例を示す図である。13 is a diagram showing an example of a learning illumination image obtained by cutting out a region depicting illumination reflected on the cornea of a learning subject from a learning image according to the second embodiment. FIG. 第二実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。11 is a flowchart illustrating an example of processing executed by a machine learning execution program according to the second embodiment. 第二実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。FIG. 11 is a diagram illustrating an example of a hardware configuration of a dry eye test apparatus according to a second embodiment. 第二実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。FIG. 11 is a diagram showing an example of a software configuration of a dry eye test program according to the second embodiment. 第二実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。13 is a flowchart showing an example of processing executed by a dry eye test program according to the second embodiment. 第三実施形態に係る機械学習プログラムが涙液層破壊時間を調べる検査の結果を予測する際に学習用被検体の目を描出している学習用画像のうち重点的に考慮した部分の一例を示す図である。A figure showing an example of a portion of a training image depicting the eye of a training subject that is given priority when a machine learning program according to the third embodiment predicts the results of a test to examine tear film breakup time.

[第一実施形態]
図1から図3を参照しながら第一実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法の具体例について説明する。
[First embodiment]
Specific examples of the machine learning execution program, the machine learning execution device, and the machine learning execution method according to the first embodiment will be described with reference to FIGS. 1 to 3.

図1は、第一実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。図1に示した機械学習実行装置10aは、後述する機械学習装置700aの学習フェーズにおいて機械学習装置700aに機械学習を実行させる装置である。また、図1に示すように、機械学習実行装置10aは、プロセッサ11aと、主記憶装置12aと、通信インターフェース13aと、補助記憶装置14aと、入出力装置15aと、バス16aとを備える。 Figure 1 is a diagram showing an example of the hardware configuration of a machine learning execution device according to the first embodiment. The machine learning execution device 10a shown in Figure 1 is a device that causes the machine learning device 700a to execute machine learning in the learning phase of the machine learning device 700a, which will be described later. As shown in Figure 1, the machine learning execution device 10a also includes a processor 11a, a main memory device 12a, a communication interface 13a, an auxiliary memory device 14a, an input/output device 15a, and a bus 16a.

プロセッサ11aは、例えば、CPU(Central Processing Unit)であり、後述する機械学習実行プログラム100aを読み出して実行し、機械学習実行プログラム100aが有する各機能を実現させる。また、プロセッサ11aは、機械学習実行プログラム100a以外のプログラムを読み出して実行し、機械学習実行プログラム100aが有する各機能を実現させる上で必要な機能を実現させてもよい。 The processor 11a is, for example, a CPU (Central Processing Unit), and reads and executes the machine learning execution program 100a described below to realize each function of the machine learning execution program 100a. The processor 11a may also read and execute programs other than the machine learning execution program 100a to realize functions necessary to realize each function of the machine learning execution program 100a.

主記憶装置12aは、例えば、RAM(Random Access Memory)であり、プロセッサ11aにより読み出されて実行される機械学習実行プログラム100aその他プログラムを予め記憶している。 The main memory device 12a is, for example, a RAM (Random Access Memory), and pre-stores the machine learning execution program 100a and other programs that are read and executed by the processor 11a.

通信インターフェース13aは、図1に示したネットワークNWを介して、機械学習装置700aその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN(Local Area Network)、イントラネットである。 The communication interface 13a is an interface circuit for communicating with the machine learning device 700a and other devices via the network NW shown in FIG. 1. The network NW is, for example, a LAN (Local Area Network) or an intranet.

補助記憶装置14aは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、フラッシュメモリ(Flash Memory)、ROM(Read Only Memory)である。 The auxiliary storage device 14a is, for example, a hard disk drive (HDD), a solid state drive (SSD), a flash memory, or a read only memory (ROM).

入出力装置15aは、例えば、入出力ポート(Input/Output Port)である。入出力装置15aは、例えば、図1に示したキーボード811a、マウス812a、ディスプレイ910aが接続される。キーボード811a及びマウス812aは、例えば、機械学習実行装置10aを操作するために必要なデータを入力する作業に使用される。ディスプレイ910aは、例えば、機械学習実行装置10aのグラフィカルユーザインターフェース(GUI:Graphical User Interface)を表示する。 The input/output device 15a is, for example, an input/output port (Input/Output Port). For example, the keyboard 811a, mouse 812a, and display 910a shown in FIG. 1 are connected to the input/output device 15a. The keyboard 811a and mouse 812a are used, for example, to input data required to operate the machine learning execution device 10a. The display 910a displays, for example, a graphical user interface (GUI) of the machine learning execution device 10a.

バス16aは、プロセッサ11a、主記憶装置12a、通信インターフェース13a、補助記憶装置14a及び入出力装置15aを互いにデータの送受信が可能なように接続している。 The bus 16a connects the processor 11a, the main memory device 12a, the communication interface 13a, the auxiliary memory device 14a, and the input/output device 15a so that they can send and receive data to each other.

図2は、第一実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。機械学習実行装置10aは、プロセッサ11aを使用して機械学習実行プログラム100aを読み出して実行し、図2に示した教師データ取得機能101a及び機械学習実行機能102aを実現させる。 Figure 2 is a diagram showing an example of the software configuration of a machine learning execution program according to the first embodiment. The machine learning execution device 10a reads and executes the machine learning execution program 100a using the processor 11a, and realizes the teacher data acquisition function 101a and the machine learning execution function 102a shown in Figure 2.

教師データ取得機能101aは、一つの学習用画像データ及び学習用開瞼データを問題とし、一つの学習用検査画像データ及び学習用検査結果データの少なくとも一方を答えとする教師データを取得する。 The teacher data acquisition function 101a acquires teacher data in which a piece of learning image data and learning open eyelid data are used as a question, and at least one piece of learning test image data and learning test result data is used as an answer.

学習用画像データは、教師データの問題の一部を構成しており、学習用被検体の目を描出している学習用画像を示すデータである。学習用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The training image data constitutes part of the training data problem, and is data showing training images depicting the eyes of a training subject. The training images are captured, for example, using a camera mounted on a smartphone.

学習用開瞼データは、教師データの問題の一部を構成しており、学習用画像が撮影された目を学習用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。 The training eyelid-open data constitutes part of the training data problem and indicates the maximum eyelid-open time, which is the time that the training subject was able to continuously open the eye from which the training image was taken.

例えば、学習用開瞼データは、学習用被検体が瞬きをして目を開けた直後から次に瞬きをするまでの間を少なくとも撮影している動画に映し出されている瞼の動きに基づいて算出されている最大開瞼時間を示していてもよい。 For example, the learning eyelid opening data may indicate a maximum eyelid opening time calculated based on eyelid movement captured in a video that captures at least the period from immediately after the learning subject blinks and opens his eyes until the next blink.

或いは、学習用開瞼データは、学習用被検体の自己申告に基づいており、ユーザインターフェースを使用して入力された最大開瞼時間を示していてもよい。当該ユーザインターフェースは、例えば、図1に示したディスプレイ910aに表示される。或いは、当該ユーザインターフェースは、学習用被検体が契約しているスマートフォンに搭載されているタッチパネルディスプレイに表示される。 Alternatively, the learning eyelid-open data may be based on the learning subject's self-reporting and may indicate a maximum eyelid-open time input using a user interface. The user interface may be displayed, for example, on the display 910a shown in FIG. 1. Alternatively, the user interface may be displayed on a touch panel display mounted on a smartphone subscribed to by the learning subject.

学習用検査画像データは、教師データの答えの一部を構成しており、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している学習用検査画像を示すデータである。このような検査としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査が挙げられる。したがって、例えば、学習用検査画像データは、フルオレセインにより染色され、スリットランプを使用して観察されている目を描出している画像又は動画を示すデータとなる。 The learning test image data constitutes part of the answer of the teacher data, and is data showing a learning test image depicting the learning subject's eye when a test for dry eye symptoms is conducted on the learning subject's eye. An example of such a test is a test in which a fluorescein dye reagent is dropped into the eye and the eye is observed using a slit lamp to check the tear film breakup time. Therefore, for example, the learning test image data is data showing an image or video depicting an eye stained with fluorescein and observed using a slit lamp.

学習用検査結果データは、教師データの答えの一部を構成しており、ドライアイの症状に関する検査の結果を示すデータである。このような検査の結果としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査に基づいて涙液層破壊時間の長さを表している0以上1以下の数値が挙げられる。 The learning test result data constitutes part of the answers to the teacher data, and is data showing the results of tests related to dry eye symptoms. Such test results include, for example, a numerical value between 0 and 1 that indicates the length of tear film breakup time based on a test in which a fluorescein dye is dropped into the eye and the eye is observed using a slit lamp to examine the tear film breakup time.

この数値は、0以上0.5未満である場合、涙液層破壊時間が10秒以上であるため、学習用被検体の目が正常であり、眼科医による診察が不要であることを表している。また、この数値は、0.5以上1以下である場合、涙液層破壊時間が10秒未満であるため、学習用被検体の目が異常であり、眼科医による診察が必要であることを表している。 If this value is greater than or equal to 0 and less than 0.5, the tear film breakup time is 10 seconds or more, indicating that the study subject's eyes are normal and no examination by an ophthalmologist is necessary. If this value is greater than or equal to 0.5 and less than or equal to 1, the tear film breakup time is less than 10 seconds, indicating that the study subject's eyes are abnormal and an examination by an ophthalmologist is necessary.

例えば、教師データ取得機能101aは、1280個の教師データを取得する。この場合、1280個の学習用画像データは、それぞれ8名の学習用被検体の2つの目それぞれをスマートフォンに搭載されているカメラを使用して20回撮影する処理を4セット実施することにより取得された1280枚の学習用画像を示している。また、この場合、1280個の学習用開瞼データは、それぞれ学習用被検体の最大開瞼時間を表す値を示している1280個の値を示している。 For example, the teacher data acquisition function 101a acquires 1280 pieces of teacher data. In this case, the 1280 pieces of training image data represent 1280 training images acquired by performing four sets of a process in which each of the two eyes of eight training subjects is photographed 20 times using a camera mounted on a smartphone. In addition, in this case, the 1280 pieces of training eyelid opening data represent 1280 values each indicating a value representing the maximum eyelid opening time of the training subject.

また、この場合、1280個の学習用検査画像データは、それぞれ上述した1280枚の学習用画像それぞれに描出されている学習用被検体の目についてドライアイの症状に関する検査が実施された際に撮影された学習用検査画像を示している。また、1280個の学習用検査結果データは、それぞれ1280枚の学習用検査画像が撮影された際に実施されたドライアイの症状に関する検査の結果を示す0以上1以下の数値1280個を示している。 In this case, the 1,280 pieces of learning test image data each represent a learning test image captured when an examination for dry eye symptoms was performed on the eye of the learning subject depicted in each of the 1,280 learning images described above. The 1,280 pieces of learning test result data each represent 1,280 numerical values between 0 and 1 indicating the results of the examination for dry eye symptoms performed when the 1,280 learning test images were captured.

なお、以下の説明では、1280個の学習用検査結果データが、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している620個の学習用検査結果データと、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している660個の学習用検査結果データとを含んでいる場合を例に挙げて説明する。 In the following explanation, an example will be given in which the 1,280 pieces of learning test result data include 620 pieces of learning test result data showing a value between 0 and less than 0.5, indicating that the learning subject's eyes are normal, and 660 pieces of learning test result data showing a value between 0.5 and 1, indicating that the learning subject's eyes are abnormal.

機械学習実行機能102aは、機械学習装置700aに実装されている機械学習プログラム750aに教師データを入力し、機械学習プログラム750aを学習させる。例えば、機械学習実行機能102aは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を含んでいる機械学習プログラム750aをバックプロパゲーション(Backpropagation)により学習させる。 The machine learning execution function 102a inputs training data into the machine learning program 750a implemented in the machine learning device 700a, and trains the machine learning program 750a. For example, the machine learning execution function 102a trains the machine learning program 750a, which includes a convolutional neural network (CNN), by backpropagation.

例えば、機械学習実行機能102aは、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している学習用検査結果データを含んでいる540個の教師データを機械学習プログラム750aに入力する。この540個の教師データは、上述した8名の中から選択された7名から取得された教師データである。 For example, the machine learning execution function 102a inputs 540 pieces of training data, including training test result data showing values between 0 and less than 0.5, indicating that the eyes of the training subject are normal, into the machine learning program 750a. These 540 pieces of training data are training data obtained from seven people selected from the eight people mentioned above.

また、例えば、機械学習実行機能102aは、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している学習用検査結果データを含んでいる580個の教師データを機械学習プログラム750aに入力する。この580個の教師データは、上述した8名の中から選択された7名から取得された教師データである。 Also, for example, the machine learning execution function 102a inputs 580 pieces of training data, including training test result data showing a numerical value between 0.5 and 1, indicating that the eyes of the training subject are abnormal, into the machine learning program 750a. These 580 pieces of training data are training data obtained from seven people selected from the eight people described above.

そして、機械学習実行機能102aは、これら1120個の教師データにより機械学習プログラム750aを学習させる。 Then, the machine learning execution function 102a trains the machine learning program 750a using these 1,120 pieces of training data.

また、例えば、機械学習実行機能102aは、学習用被検体の目が正常であることを表しており、機械学習プログラム750aの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750aに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。 Also, for example, the machine learning execution function 102a may represent that the eyes of the training subject are normal, and 80 pieces of training data that were not used in the training of the machine learning program 750a may be input to the machine learning program 750a as test data. These 80 pieces of training data are training data obtained from one person who was not selected as one of the seven people mentioned above.

また、例えば、機械学習実行機能102aは、学習用被検体の目が異常であることを表しており、機械学習プログラム750aの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750aに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。 Also, for example, the machine learning execution function 102a may indicate that the eyes of the training subject are abnormal, and 80 pieces of training data that were not used in the training of the machine learning program 750a may be input to the machine learning program 750a as test data. These 80 pieces of training data are training data obtained from one person who was not selected as one of the seven people mentioned above.

これにより、機械学習実行機能102aは、上述した1120個の教師データにより機械学習プログラム750aを学習させることにより得られた機械学習プログラム750aの特性を評価してもよい。 As a result, the machine learning execution function 102a may evaluate the characteristics of the machine learning program 750a obtained by training the machine learning program 750a using the above-mentioned 1,120 pieces of teacher data.

なお、機械学習実行機能102aは、テストデータを使用して機械学習プログラム750aの特性を評価する際に、例えば、クラス活性化マッピング(CAM:Class Activation Mapping)を使用してもよい。クラス活性化マッピングは、ニューラルネットワークに入力されたデータのうちニューラルネットワークにより出力された結果の根拠となった部分を明らかにする技術である。クラス活性化マッピングとしては、例えば、勾配加重クラス活性化マッピングが挙げられる。勾配加重クラス活性化マッピングは、畳み込みニューラルネットワークにより実行される畳み込みの特徴に関する分類スコアの勾配を利用し、畳み込みニューラルネットワークに入力された画像のうち分類に一定以上の影響を与えた領域を特定する技術である。 The machine learning execution function 102a may use, for example, class activation mapping (CAM) when using test data to evaluate the characteristics of the machine learning program 750a. Class activation mapping is a technique that clarifies the part of the data input to a neural network that is the basis for the results output by the neural network. An example of class activation mapping is gradient-weighted class activation mapping. Gradient-weighted class activation mapping is a technique that uses the gradient of the classification score related to the features of the convolution executed by the convolutional neural network to identify areas of the image input to the convolutional neural network that have had a certain degree of influence on the classification.

次に、図3を参照しながら第一実施形態に係る機械学習実行プログラム100aが実行する処理の一例を説明する。図3は、第一実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。機械学習実行プログラム100aは、図3に示した処理を少なくとも一回実行する。 Next, an example of processing executed by the machine learning execution program 100a according to the first embodiment will be described with reference to FIG. 3. FIG. 3 is a flowchart showing an example of processing executed by the machine learning execution program according to the first embodiment. The machine learning execution program 100a executes the processing shown in FIG. 3 at least once.

ステップS11において、教師データ取得機能101aは、学習用画像データと、学習用開瞼データとを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。 In step S11, the teacher data acquisition function 101a acquires teacher data in which the questions are learning image data and learning eyelid open data, and the answers are at least one of learning test image data and learning test result data.

ステップS12において、機械学習実行機能102aは、教師データを機械学習プログラム750aに入力し、機械学習プログラム750aを学習させる。 In step S12, the machine learning execution function 102a inputs the training data into the machine learning program 750a and causes the machine learning program 750a to learn.

次に、図4から図6を参照しながら第一実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法の具体例について説明する。 Next, specific examples of the dry eye test program, dry eye test device, and dry eye test method according to the first embodiment will be described with reference to Figures 4 to 6.

図4は、第一実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。図4に示したドライアイ検査装置20aは、機械学習実行プログラム100aにより学習済みの機械学習装置700aの推論フェーズにおいて機械学習装置700aを使用して推論用被検体の目に現れているドライアイの症状を推定させる装置である。また、図5に示すように、ドライアイ検査装置20aは、プロセッサ21aと、主記憶装置22aと、通信インターフェース23aと、補助記憶装置24aと、入出力装置25aと、バス26aとを備える。 Figure 4 is a diagram showing an example of the hardware configuration of a dry eye test device according to the first embodiment. The dry eye test device 20a shown in Figure 4 is a device that estimates dry eye symptoms appearing in the eye of an inference subject using a machine learning device 700a in the inference phase of the machine learning device 700a that has been trained by a machine learning execution program 100a. As shown in Figure 5, the dry eye test device 20a includes a processor 21a, a main memory device 22a, a communication interface 23a, an auxiliary memory device 24a, an input/output device 25a, and a bus 26a.

プロセッサ21aは、例えば、CPUであり、後述するドライアイ検査プログラム200aを読み出して実行し、ドライアイ検査プログラム200aが有する各機能を実現させる。また、プロセッサ21aは、ドライアイ検査プログラム200a以外のプログラムを読み出して実行し、ドライアイ検査プログラム200aが有する各機能を実現させる上で必要な機能を実現させてもよい。 The processor 21a is, for example, a CPU, and reads and executes the dry eye test program 200a described below to realize each function of the dry eye test program 200a. The processor 21a may also read and execute a program other than the dry eye test program 200a to realize functions necessary to realize each function of the dry eye test program 200a.

主記憶装置22aは、例えば、RAMであり、プロセッサ21aにより読み出されて実行されるドライアイ検査プログラム200aその他プログラムを予め記憶している。 The main memory device 22a is, for example, a RAM, and prestores the dry eye test program 200a and other programs that are read and executed by the processor 21a.

通信インターフェース23aは、図5に示したネットワークNWを介して、機械学習装置700aその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。 The communication interface 23a is an interface circuit for communicating with the machine learning device 700a and other devices via the network NW shown in FIG. 5. The network NW is, for example, a LAN or an intranet.

補助記憶装置24aは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。 The auxiliary storage device 24a is, for example, a hard disk drive, a solid state drive, a flash memory, or a ROM.

入出力装置25aは、例えば、入出力ポートである。入出力装置25aは、例えば、図5に示したキーボード821a、マウス822a、ディスプレイ920aが接続される。キーボード821a及びマウス822aは、例えば、ドライアイ検査装置20aを操作するために必要なデータを入力する作業に使用される。ディスプレイ920aは、例えば、ドライアイ検査装置20aのグラフィカルユーザインターフェースを表示する。 The input/output device 25a is, for example, an input/output port. For example, the keyboard 821a, mouse 822a, and display 920a shown in FIG. 5 are connected to the input/output device 25a. The keyboard 821a and mouse 822a are used, for example, to input data required to operate the dry eye test device 20a. The display 920a displays, for example, a graphical user interface of the dry eye test device 20a.

バス26aは、プロセッサ21a、主記憶装置22a、通信インターフェース23a、補助記憶装置24a及び入出力装置25aを互いにデータの送受信が可能なように接続している。 The bus 26a connects the processor 21a, the main memory device 22a, the communication interface 23a, the auxiliary memory device 24a, and the input/output device 25a so that data can be sent and received among them.

図5は、第一実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。ドライアイ検査装置20aは、プロセッサ21aを使用してドライアイ検査プログラム200aを読み出して実行し、図5に示したデータ取得機能201a及び症状推定機能202aを実現させる。 Figure 5 is a diagram showing an example of the software configuration of a dry eye test program according to the first embodiment. The dry eye test device 20a reads and executes the dry eye test program 200a using the processor 21a, and realizes the data acquisition function 201a and the symptom estimation function 202a shown in Figure 5.

データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。 The data acquisition function 201a acquires image data for inference and open eyelid data for inference.

推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The image data for inference is data showing an image depicting the eye of the subject for inference. The image for inference is captured, for example, using a camera mounted on a smartphone.

推論用開瞼データは、推論用画像が撮影された目を推論用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。 The eyelid opening data for inference is data that indicates the maximum eyelid opening time, which is the time that the subject for inference was able to continuously open the eye from which the inference image was taken.

例えば、推論用開瞼データは、推論用被検体が瞬きをして目を開けた直後から次に瞬きをするまでの間を少なくとも撮影している動画に映し出されている瞼の動きに基づいて算出されている最大開瞼時間を示していてもよい。 For example, the eyelid opening data for inference may indicate a maximum eyelid opening time calculated based on eyelid movement shown in a video that captures at least the period from immediately after the subject for inference blinks and opens his/her eyes until the next blink.

或いは、推論用開瞼データは、推論用被検体の自己申告に基づいており、ユーザインターフェースを使用して入力された最大開瞼時間を示していてもよい。当該ユーザインターフェースは、例えば、図4に示したディスプレイ920aに表示される。或いは、当該ユーザインターフェースは、推論用被検体が契約しているスマートフォンに搭載されているタッチパネルディスプレイに表示される。 Alternatively, the inferred eyelid opening data may be based on the inferred subject's self-reporting and may indicate a maximum eyelid opening time entered using a user interface. The user interface may be displayed, for example, on the display 920a shown in FIG. 4. Alternatively, the user interface may be displayed on a touch panel display mounted on a smartphone subscribed to by the inferred subject.

症状推定機能202aは、機械学習実行機能102aにより学習済みの機械学習プログラム750aに推論用画像データ及び推論用開瞼データを入力し、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を推定させる。例えば、症状推定機能202aは、機械学習プログラム750aにこれら二つのデータを入力し、推論用被検体の目の涙液層破壊時間の長さを表す数値を推定させる。 The symptom estimation function 202a inputs the inference image data and inference eyelid open data to the machine learning program 750a that has been trained by the machine learning execution function 102a, and causes the machine learning program 750a to estimate the symptoms of dry eye appearing in the eye of the inference subject. For example, the symptom estimation function 202a inputs these two pieces of data to the machine learning program 750a, and causes it to estimate a numerical value representing the length of tear film breakup time in the eye of the inference subject.

そして、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。例えば、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目の涙液層破壊時間の長さを表す数値を示す症状データを出力させる。この場合、症状データは、例えば、自身が示しており、推論用被検体の目の涙液層破壊時間の長さを表す数値をディスプレイ920aに表示するために使用される。 The symptom estimation function 202a then causes the machine learning program 750a to output symptom data indicating the symptoms of dry eye appearing in the eye of the inference subject. For example, the symptom estimation function 202a causes the machine learning program 750a to output symptom data indicating a numerical value indicating the length of the tear film breakup time of the eye of the inference subject. In this case, the symptom data is, for example, indicated by the function itself and is used to display a numerical value indicating the length of the tear film breakup time of the eye of the inference subject on the display 920a.

次に、図6を参照しながら第一実施形態に係るドライアイ検査プログラム200aが実行する処理の一例を説明する。図6は、第一実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。 Next, an example of processing executed by the dry eye test program 200a according to the first embodiment will be described with reference to FIG. 6. FIG. 6 is a flowchart showing an example of processing executed by the dry eye test program according to the first embodiment.

ステップS21において、データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。 In step S21, the data acquisition function 201a acquires image data for inference and open eyelid data for inference.

ステップS22において、症状推定機能202aは、学習済みの機械学習プログラム750aに、推論用画像データ及び推論用開瞼データを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。 In step S22, the symptom estimation function 202a inputs the inference image data and inference open eyelid data to the trained machine learning program 750a, estimates the symptoms of dry eye appearing in the eyes of the inference subject, and causes the machine learning program 750a to output symptom data indicating the symptoms of dry eye appearing in the eyes of the inference subject.

以上、第一実施形態に係る機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置、ドライアイ検査装置、機械学習実行方法及びドライアイ検査方法について説明した。 The above describes the machine learning execution program, dry eye test program, machine learning execution device, dry eye test device, machine learning execution method, and dry eye test method according to the first embodiment.

機械学習実行プログラム100aは、教師データ取得機能101aと、機械学習実行機能102aとを備える。 The machine learning execution program 100a includes a teacher data acquisition function 101a and a machine learning execution function 102a.

教師データ取得機能101aは、学習用画像データと、学習用開瞼データとを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。学習用画像データは、学習用被検体の目を描出している画像を示すデータである。学習用開瞼データは、学習用画像が撮影された目を学習用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。学習用検査画像データは、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している画像を示すデータである。学習用検査結果データは、ドライアイの症状に関する検査の結果を示すデータである。 The teacher data acquisition function 101a acquires teacher data in which the questions are learning image data and learning eyelid-open data, and the answer is at least one of learning test image data and learning test result data. The learning image data is data showing an image depicting the eye of the learning subject. The learning eyelid-open data is data showing the maximum eyelid-open time, which is the time the learning subject was able to continuously open the eye in which the learning image was captured. The learning test image data is data showing an image depicting the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject. The learning test result data is data showing the results of the test for dry eye symptoms.

機械学習実行機能102aは、教師データを機械学習プログラム750aに入力し、機械学習プログラム750aを学習させる。 The machine learning execution function 102a inputs the training data into the machine learning program 750a and causes the machine learning program 750a to learn.

これにより、機械学習実行プログラム100aは、学習用画像データ及び学習用開瞼データに基づいてドライアイの症状に関する検査の結果を予測する機械学習プログラム750aを生成することができる。 This allows the machine learning execution program 100a to generate a machine learning program 750a that predicts the results of a test regarding dry eye symptoms based on the learning image data and the learning open eyelid data.

また、機械学習実行プログラム100aは、学習用画像データだけではなく、学習用開瞼データを問題として含んでいる教師データを使用して機械学習プログラム750aを学習させる。したがって、機械学習実行プログラム100aは、ドライアイの症状に関する検査の結果を更に精度良く予測することができる機械学習プログラム750aを生成することができる。 In addition, the machine learning execution program 100a trains the machine learning program 750a using training data that includes not only training image data but also training open-eyelid data as a problem. Therefore, the machine learning execution program 100a can generate a machine learning program 750a that can predict the results of tests related to dry eye symptoms with even greater accuracy.

ドライアイ検査プログラム200aは、データ取得機能201aと、症状推定機能202aとを備える。 The dry eye test program 200a includes a data acquisition function 201a and a symptom estimation function 202a.

データ取得機能201aは、推論用画像データと、推論用開瞼データとを取得する。推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用開瞼データは、推論用画像が撮影された目を推論用被検体が連続して開けることができた時間である最大開瞼時間を示すデータである。 The data acquisition function 201a acquires image data for inference and eyelid-open data for inference. Image data for inference is data showing an image depicting the eyes of the subject for inference. Eyelid-open data for inference is data showing the maximum eyelid-open time, which is the time that the subject for inference was able to continuously open the eye in which the image for inference was captured.

症状推定機能202aは、機械学習実行プログラム100aにより学習済みの機械学習プログラム750aに推論用画像データ及び推論用開瞼データを入力し、推論用被検体の目に現れているドライアイの症状を推定させる。そして、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。 The symptom estimation function 202a inputs the inference image data and inference eyelid open data to the machine learning program 750a that has been trained by the machine learning execution program 100a, and causes the machine learning program 750a to estimate the dry eye symptoms present in the eyes of the inference subject. The symptom estimation function 202a then causes the machine learning program 750a to output symptom data indicating the dry eye symptoms present in the eyes of the inference subject.

これにより、ドライアイ検査プログラム200aは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。 This allows the dry eye test program 200a to predict the results of a test regarding dry eye symptoms without actually conducting the test.

次に、機械学習プログラム750aを実際に学習させ、ドライアイの症状を推定させた例を挙げて、機械学習実行プログラム100aにより奏される効果の具体例を比較例と第一実施形態に係る実施例とを対比させて説明する。 Next, we will provide an example in which the machine learning program 750a was actually trained to estimate symptoms of dry eye, and explain specific examples of the effects achieved by the machine learning execution program 100a by comparing a comparative example with an example according to the first embodiment.

この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用開瞼データが除かれているデータを教師データとして機械学習プログラムを学習させた例である。 The comparative example in this case is an example in which a machine learning program is trained using as training data 540 pieces of training data indicating that the eyes of the training subject described above are normal and 580 pieces of training data indicating that the eyes of the training subject are abnormal, with the training eyelid open data removed.

このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータ及び学習用被検体の目が異常であることを表している80個のテストデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。 The machine learning program trained in this way showed a prediction accuracy of 72% and a false negative rate of 28% when its characteristics were evaluated using 80 test data pieces representing normal eyes of the training subjects described above and 80 test data pieces representing abnormal eyes of the training subjects.

一方、機械学習実行プログラム100aにより学習した機械学習プログラム750aは、同じテストデータを使用して特性を評価すると、予測精度80%及び偽陰性率20%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。 On the other hand, when the characteristics of the machine learning program 750a trained by the machine learning execution program 100a were evaluated using the same test data, it showed a prediction accuracy of 80% and a false negative rate of 20%. These characteristics exceed those of the machine learning program according to the comparative example.

なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.

また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.

なお、機械学習実行プログラム100aが有する機能の少なくとも一部は、回路部(circuitry)を含むハードウェアにより実現されてもよい。同様に、ドライアイ検査プログラム200aが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。また、このようなハードウェアは,例えば、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)である。 At least a part of the functions of the machine learning execution program 100a may be realized by hardware including a circuitry. Similarly, at least a part of the functions of the dry eye test program 200a may be realized by hardware including a circuitry. Examples of such hardware include a large scale integration (LSI), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), and a graphics processing unit (GPU).

また、機械学習実行プログラム100aが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。同様に、ドライアイ検査プログラム200aが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。 In addition, at least some of the functions of the machine learning execution program 100a may be realized by a combination of software and hardware. Similarly, at least some of the functions of the dry eye test program 200a may be realized by a combination of software and hardware. In addition, these pieces of hardware may be integrated into one, or may be divided into multiple pieces.

また、第一実施形態では、機械学習実行装置10aと、機械学習装置700aと、ドライアイ検査装置20aとが互いに独立した装置である場合を例に挙げて説明したが、これに限定されない。これらの装置は、一つの装置として実現されていてもよい。 In the first embodiment, the machine learning execution device 10a, the machine learning device 700a, and the dry eye test device 20a are independent devices, but this is not limiting. These devices may be realized as a single device.

[第二実施形態]
図7から図11を参照しながら第二実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法の具体例について説明する。第二実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法は、第一実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法と異なり、後述する学習用画像データから切り出した学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を問題として含む教師データを使用する。
[Second embodiment]
Specific examples of the machine learning execution program, machine learning execution device, and machine learning execution method according to the second embodiment will be described with reference to Figures 7 to 11. Unlike the machine learning execution program, machine learning execution device, and machine learning execution method according to the first embodiment, the machine learning execution program, machine learning execution device, and machine learning execution method according to the second embodiment use teacher data that includes, as a problem, at least one of learning tear meniscus image data and learning illumination image data cut out from learning image data, which will be described later.

図7は、第二実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。図7に示した機械学習実行装置10bは、後述する機械学習装置700bの学習フェーズにおいて機械学習装置700bに機械学習を実行させる装置である。また、図8に示すように、機械学習実行装置10bは、プロセッサ11bと、主記憶装置12bと、通信インターフェース13bと、補助記憶装置14bと、入出力装置15bと、バス16bとを備える。 Figure 7 is a diagram showing an example of the hardware configuration of a machine learning execution device according to the second embodiment. The machine learning execution device 10b shown in Figure 7 is a device that causes the machine learning device 700b to execute machine learning in the learning phase of the machine learning device 700b, which will be described later. As shown in Figure 8, the machine learning execution device 10b includes a processor 11b, a main memory device 12b, a communication interface 13b, an auxiliary memory device 14b, an input/output device 15b, and a bus 16b.

プロセッサ11bは、例えば、CPUであり、後述する機械学習実行プログラム100bを読み出して実行し、機械学習実行プログラム100bが有する各機能を実現させる。また、プロセッサ11bは、機械学習実行プログラム100b以外のプログラムを読み出して実行し、機械学習実行プログラム100bが有する各機能を実現させる上で必要な機能を実現させてもよい。 The processor 11b is, for example, a CPU, and reads and executes the machine learning execution program 100b described below to realize each function of the machine learning execution program 100b. The processor 11b may also read and execute programs other than the machine learning execution program 100b to realize functions necessary to realize each function of the machine learning execution program 100b.

主記憶装置12bは、例えば、RAMであり、プロセッサ11bにより読み出されて実行される機械学習実行プログラム100bその他プログラムを予め記憶している。 The main memory device 12b is, for example, a RAM, and pre-stores the machine learning execution program 100b and other programs that are read and executed by the processor 11b.

通信インターフェース13bは、図8に示したネットワークNWを介して、機械学習装置700bその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。 The communication interface 13b is an interface circuit for communicating with the machine learning device 700b and other devices via the network NW shown in FIG. 8. The network NW is, for example, a LAN or an intranet.

補助記憶装置14bは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。 The auxiliary storage device 14b is, for example, a hard disk drive, a solid state drive, a flash memory, or a ROM.

入出力装置15bは、例えば、入出力ポートである。入出力装置15bは、例えば、図1に示したキーボード811b、マウス812b、ディスプレイ910bが接続される。キーボード811b及びマウス812bは、例えば、機械学習実行装置10bを操作するために必要なデータを入力する作業に使用される。ディスプレイ910bは、例えば、機械学習実行装置10bのグラフィカルユーザインターフェースを表示する。 The input/output device 15b is, for example, an input/output port. For example, the keyboard 811b, mouse 812b, and display 910b shown in FIG. 1 are connected to the input/output device 15b. The keyboard 811b and mouse 812b are used, for example, to input data necessary to operate the machine learning execution device 10b. The display 910b displays, for example, a graphical user interface of the machine learning execution device 10b.

バス16bは、プロセッサ11b、主記憶装置12b、通信インターフェース13b、補助記憶装置14b及び入出力装置15bを互いにデータの送受信が可能なように接続している。 The bus 16b connects the processor 11b, the main memory device 12b, the communication interface 13b, the auxiliary memory device 14b, and the input/output device 15b so that data can be sent and received among them.

図8は、第二実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。機械学習実行装置10bは、プロセッサ11bを使用して機械学習実行プログラム100bを読み出して実行し、図8に示した教師データ取得機能101b及び機械学習実行機能102bを実現させる。 Figure 8 is a diagram showing an example of the software configuration of a machine learning execution program according to the second embodiment. The machine learning execution device 10b reads and executes the machine learning execution program 100b using the processor 11b, and realizes the teacher data acquisition function 101b and the machine learning execution function 102b shown in Figure 8.

教師データ取得機能101bは、一つの学習用涙液メニスカス画像データ及び一つの学習用照明画像データの少なくとも一方を問題とし、一つの学習用検査画像データ及び学習用検査結果データの少なくとも一方を答えとする教師データを取得する。 The teacher data acquisition function 101b acquires teacher data in which at least one of a piece of learning tear meniscus image data and a piece of learning illumination image data is used as a question, and at least one of a piece of learning test image data and a piece of learning test result data is used as an answer.

学習用画像データは、学習用被検体の目を描出している学習用画像を示すデータである。学習用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The training image data is data showing a training image depicting the eye of a training subject. The training image is captured, for example, using a camera mounted on a smartphone.

学習用涙液メニスカス画像データは、学習用被検体の目を描出している学習用画像から学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示すデータであり、学習用画像の一種である。涙液メニスカスは、角膜と下瞼との間に形成される涙の層であり、涙液の量を反映している。涙液メニスカスが低い場合、涙液が少なく、涙液メニスカスが高い場合、涙液が多い。また、学習用涙液メニスカス画像は、例えば、学習用画像のうち涙液メニスカスが描出されている領域を切り出すことにより生成される。図9は、第二実施形態に係る学習用画像から涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像の一例を示す図である。教師データ取得機能101bは、例えば、図9に示した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データを取得する。 The learning tear meniscus image data is data showing a learning tear meniscus image obtained by cutting out an area showing the tear meniscus of the learning subject from a learning image showing the eye of the learning subject, and is a type of learning image. The tear meniscus is a layer of tears formed between the cornea and the lower eyelid, and reflects the amount of tears. When the tear meniscus is low, there is little tear, and when the tear meniscus is high, there is much tear. The learning tear meniscus image is generated, for example, by cutting out an area showing the tear meniscus from the learning image. FIG. 9 is a diagram showing an example of a learning tear meniscus image obtained by cutting out an area showing the tear meniscus from a learning image according to the second embodiment. The teacher data acquisition function 101b acquires, for example, learning tear meniscus image data showing the learning tear meniscus image shown in FIG. 9.

学習用照明画像データは、学習用被検体の目を描出している学習用画像から学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示すデータであり、学習用画像の一種である。このような照明は、例えば、学習用画像が撮影される部屋の天井に設置された蛍光灯である。また、学習用照明画像は、例えば、学習用画像のうち学習用被検体の角膜に映り込んでいる照明が描出されている領域を切り出すことにより生成される。図10は、第二実施形態に係る学習用画像から学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像の一例を示す図である。教師データ取得機能101bは、例えば、図10に示した学習用照明画像を示す学習用照明画像データを取得する。 The learning illumination image data is data showing a learning illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the learning subject from a learning image depicting the eye of the learning subject, and is a type of learning image. Such illumination is, for example, a fluorescent lamp installed on the ceiling of the room in which the learning image is taken. The learning illumination image is generated, for example, by cutting out an area of the learning image depicting the illumination reflected on the cornea of the learning subject. FIG. 10 is a diagram showing an example of a learning illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the learning subject from a learning image according to the second embodiment. The teacher data acquisition function 101b acquires, for example, learning illumination image data showing the learning illumination image shown in FIG. 10.

学習用検査画像データは、教師データの答えの一部を構成しており、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している学習用検査画像を示すデータである。このような検査としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査が挙げられる。したがって、例えば、学習用検査画像データは、フルオレセインにより染色され、スリットランプを使用して観察されている目を描出している画像又は動画を示すデータとなる。 The learning test image data constitutes part of the answer of the teacher data, and is data showing a learning test image depicting the learning subject's eye when a test for dry eye symptoms is conducted on the learning subject's eye. An example of such a test is a test in which a fluorescein dye reagent is dropped into the eye and the eye is observed using a slit lamp to check the tear film breakup time. Therefore, for example, the learning test image data is data showing an image or video depicting an eye stained with fluorescein and observed using a slit lamp.

学習用検査結果データは、教師データの答えの一部を構成しており、ドライアイの症状に関する検査の結果を示すデータである。このような検査の結果としては、例えば、フルオレセイン染色試薬を点眼し、スリットランプを使用して目を観察して涙液層破壊時間を調べる検査に基づいて涙液層破壊時間の長さを表している0以上1以下の数値が挙げられる。 The learning test result data constitutes part of the answers to the teacher data, and is data showing the results of tests related to dry eye symptoms. Such test results include, for example, a numerical value between 0 and 1 that indicates the length of tear film breakup time based on a test in which a fluorescein dye is dropped into the eye and the eye is observed using a slit lamp to examine the tear film breakup time.

この数値は、0以上0.5未満である場合、涙液層破壊時間が10秒以上であるため、学習用被検体の目が正常であり、眼科医による診察が不要であることを表している。また、この数値は、0.5以上1以下である場合、涙液層破壊時間が10秒未満であるため、学習用被検体の目が異常であり、眼科医による診察が必要であることを表している。 If this value is greater than or equal to 0 and less than 0.5, the tear film breakup time is 10 seconds or more, indicating that the study subject's eyes are normal and no examination by an ophthalmologist is necessary. If this value is greater than or equal to 0.5 and less than or equal to 1, the tear film breakup time is less than 10 seconds, indicating that the study subject's eyes are abnormal and an examination by an ophthalmologist is necessary.

例えば、教師データ取得機能101bは、1280個の教師データを取得する。この場合、1280個の学習用涙液メニスカス画像データおよび学習用照明画像データは、それぞれ8名の学習用被検体の2つの目それぞれをスマートフォンに搭載されているカメラを使用して20回撮影する処理を4セット実施することにより取得された1280枚の学習用画像の涙液メニスカスが描出されている領域及び角膜に映りこんでいる照明が描出されている領域を切り出すことにより生成された画像を示している。 For example, the teacher data acquisition function 101b acquires 1280 pieces of teacher data. In this case, the 1280 pieces of learning tear meniscus image data and learning illumination image data represent images generated by cutting out the area in which the tear meniscus is depicted and the area in which the illumination reflected on the cornea is depicted from 1280 learning images acquired by performing four sets of processing in which each of the two eyes of eight learning subjects is photographed 20 times using a camera mounted on a smartphone.

また、この場合、1280個の学習用検査画像データは、それぞれ上述した1280枚の学習用画像それぞれに描出されている学習用被検体の目についてドライアイの症状に関する検査が実施された際に撮影された学習用検査画像を示している。また、1280個の学習用検査結果データは、それぞれ1280枚の学習用検査画像が撮影された際に実施されたドライアイの症状に関する検査の結果を示す0以上1以下の数値1280個を示している。 In this case, the 1,280 pieces of learning test image data each represent a learning test image captured when an examination for dry eye symptoms was performed on the eye of the learning subject depicted in each of the 1,280 learning images described above. The 1,280 pieces of learning test result data each represent 1,280 numerical values between 0 and 1 indicating the results of the examination for dry eye symptoms performed when the 1,280 learning test images were captured.

なお、以下の説明では、1280個の学習用検査結果データが、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している620個の学習用検査結果データと、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している660個の学習用検査結果データとを含んでいる場合を例に挙げて説明する。 In the following explanation, an example will be given in which the 1,280 pieces of learning test result data include 620 pieces of learning test result data showing a value between 0 and less than 0.5, indicating that the learning subject's eyes are normal, and 660 pieces of learning test result data showing a value between 0.5 and 1, indicating that the learning subject's eyes are abnormal.

機械学習実行機能102bは、機械学習装置700bに実装されている機械学習プログラム750bに教師データを入力し、機械学習プログラム750bを学習させる。例えば、機械学習実行機能102bは、畳み込みニューラルネットワークを含んでいる機械学習プログラム750bをバックプロパゲーションにより学習させる。 The machine learning execution function 102b inputs training data to the machine learning program 750b implemented in the machine learning device 700b, and trains the machine learning program 750b. For example, the machine learning execution function 102b trains the machine learning program 750b, which includes a convolutional neural network, by backpropagation.

例えば、機械学習実行機能102bは、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している学習用検査結果データを含んでいる540個の教師データを機械学習プログラム750bに入力する。この540個の教師データは、上述した8名の中から選択された7名から取得された教師データである。 For example, the machine learning execution function 102b inputs 540 pieces of training data, including training test result data showing values between 0 and less than 0.5, indicating that the eyes of the training subject are normal, into the machine learning program 750b. These 540 pieces of training data are training data obtained from seven people selected from the eight people mentioned above.

また、例えば、機械学習実行機能102bは、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している学習用検査結果データを含んでいる580個の教師データを機械学習プログラム750bに入力する。この580個の教師データは、上述した8名の中から選択された7名から取得された教師データである。 Also, for example, the machine learning execution function 102b inputs 580 pieces of training data, including training test result data showing a numerical value between 0.5 and 1, indicating that the eyes of the training subject are abnormal, into the machine learning program 750b. These 580 pieces of training data are training data obtained from seven people selected from the eight people described above.

そして、機械学習実行機能102bは、これら1120個の教師データにより機械学習プログラム750bを学習させる。 Then, the machine learning execution function 102b trains the machine learning program 750b using these 1,120 pieces of training data.

また、例えば、機械学習実行機能102bは、学習用被検体の目が正常であることを表しており、機械学習プログラム750bの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750bに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。 Also, for example, the machine learning execution function 102b may represent that the eyes of the training subject are normal, and 80 pieces of training data that were not used in the training of the machine learning program 750b may be input to the machine learning program 750b as test data. These 80 pieces of training data are training data obtained from one person who was not selected as one of the seven people mentioned above.

また、例えば、機械学習実行機能102bは、学習用被検体の目が異常であることを表しており、機械学習プログラム750bの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750bに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。 Also, for example, the machine learning execution function 102b may indicate that the eyes of the training subject are abnormal, and 80 pieces of training data that were not used in the training of the machine learning program 750b may be input to the machine learning program 750b as test data. These 80 pieces of training data are training data obtained from one person who was not selected as one of the seven people mentioned above.

これにより、機械学習実行機能102bは、上述した1120個の教師データにより機械学習プログラム750bを学習させることにより得られた機械学習プログラム750bの特性を評価してもよい。 As a result, the machine learning execution function 102b may evaluate the characteristics of the machine learning program 750b obtained by training the machine learning program 750b using the above-mentioned 1,120 pieces of teacher data.

なお、機械学習実行機能102bは、テストデータを使用して機械学習プログラム750bの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。クラス活性化マッピングは、ニューラルネットワークに入力されたデータのうちニューラルネットワークにより出力された結果の根拠となった部分を明らかにする技術である。クラス活性化マッピングとしては、例えば、勾配加重クラス活性化マッピングが挙げられる。勾配加重クラス活性化マッピングは、畳み込みニューラルネットワークにより実行される畳み込みの特徴に関する分類スコアの勾配を利用し、畳み込みニューラルネットワークに入力された画像のうち分類に一定以上の影響を与えた領域を特定する技術である。 The machine learning execution function 102b may use, for example, class activation mapping when using test data to evaluate the characteristics of the machine learning program 750b. Class activation mapping is a technique that clarifies the part of the data input to a neural network that is the basis for the results output by the neural network. An example of class activation mapping is gradient-weighted class activation mapping. Gradient-weighted class activation mapping is a technique that uses the gradient of the classification score related to the features of the convolution performed by the convolutional neural network to identify areas of the image input to the convolutional neural network that have had a certain level of influence on the classification.

次に、図11を参照しながら第二実施形態に係る機械学習実行プログラム100bが実行する処理の一例を説明する。図11は、第二実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。機械学習実行プログラム100bは、図11に示した処理を少なくとも一回実行する。 Next, an example of processing executed by the machine learning execution program 100b according to the second embodiment will be described with reference to FIG. 11. FIG. 11 is a flowchart showing an example of processing executed by the machine learning execution program according to the second embodiment. The machine learning execution program 100b executes the processing shown in FIG. 11 at least once.

ステップS31において、教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。 In step S31, the teacher data acquisition function 101b acquires teacher data in which at least one of the learning tear meniscus image data and the learning illumination image data is used as a question, and at least one of the learning test image data and the learning test result data is used as an answer.

ステップS32において、機械学習実行機能102bは、教師データを機械学習プログラム750bに入力し、機械学習プログラム750bを学習させる。 In step S32, the machine learning execution function 102b inputs the training data into the machine learning program 750b and causes the machine learning program 750b to learn.

次に、図12から図14を参照しながら第二実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法の具体例について説明する。第二実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、第一実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法と異なり、後述する推論用学習用画像データから切り出した推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方を取得する。 Next, a specific example of a dry eye test program, a dry eye test device, and a dry eye test method according to the second embodiment will be described with reference to Figures 12 to 14. The dry eye test program, the dry eye test device, and the dry eye test method according to the second embodiment differ from the dry eye test program, the dry eye test device, and the dry eye test method according to the first embodiment in that they acquire at least one of tear meniscus image data for inference and illumination image data for inference, which are extracted from learning image data for inference, which will be described later.

図12は、第二実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。図12に示したドライアイ検査装置20bは、機械学習実行プログラム100bにより学習済みの機械学習装置700bの推論フェーズにおいて機械学習装置700bを使用して推論用被検体の目に現れているドライアイの症状を推定させる装置である。また、図12に示すように、ドライアイ検査装置20bは、プロセッサ21bと、主記憶装置22bと、通信インターフェース23bと、補助記憶装置24bと、入出力装置25bと、バス26bとを備える。 Fig. 12 is a diagram showing an example of the hardware configuration of a dry eye test device according to the second embodiment. The dry eye test device 20b shown in Fig. 12 is a device that estimates dry eye symptoms appearing in the eye of an inference subject using a machine learning device 700b in the inference phase of the machine learning device 700b that has been trained by a machine learning execution program 100b. As shown in Fig. 12, the dry eye test device 20b also includes a processor 21b, a main memory device 22b, a communication interface 23b, an auxiliary memory device 24b, an input/output device 25b, and a bus 26b.

プロセッサ21bは、例えば、CPUであり、後述するドライアイ検査プログラム200bを読み出して実行し、ドライアイ検査プログラム200bが有する各機能を実現させる。また、プロセッサ21bは、ドライアイ検査プログラム200b以外のプログラムを読み出して実行し、ドライアイ検査プログラム200bが有する各機能を実現させる上で必要な機能を実現させてもよい。 The processor 21b is, for example, a CPU, and reads and executes the dry eye test program 200b described below to realize each function of the dry eye test program 200b. The processor 21b may also read and execute a program other than the dry eye test program 200b to realize functions necessary to realize each function of the dry eye test program 200b.

主記憶装置22bは、例えば、RAMであり、プロセッサ21bにより読み出されて実行されるドライアイ検査プログラム200bその他プログラムを予め記憶している。 The main memory device 22b is, for example, a RAM, and prestores the dry eye test program 200b and other programs that are read and executed by the processor 21b.

通信インターフェース23bは、図12に示したネットワークNWを介して、機械学習装置700bその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。 The communication interface 23b is an interface circuit for communicating with the machine learning device 700b and other devices via the network NW shown in FIG. 12. The network NW is, for example, a LAN or an intranet.

補助記憶装置24bは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。 The auxiliary storage device 24b is, for example, a hard disk drive, a solid state drive, a flash memory, or a ROM.

入出力装置25bは、例えば、入出力ポートである。入出力装置25bは、例えば、図12に示したキーボード821b、マウス822b、ディスプレイ920bが接続される。キーボード821b及びマウス822bは、例えば、ドライアイ検査装置20bを操作するために必要なデータを入力する作業に使用される。ディスプレイ920bは、例えば、ドライアイ検査装置20bのグラフィカルユーザインターフェースを表示する。 The input/output device 25b is, for example, an input/output port. For example, the keyboard 821b, mouse 822b, and display 920b shown in FIG. 12 are connected to the input/output device 25b. The keyboard 821b and mouse 822b are used, for example, to input data required to operate the dry eye test device 20b. The display 920b displays, for example, a graphical user interface of the dry eye test device 20b.

バス26bは、プロセッサ21b、主記憶装置22b、通信インターフェース23b、補助記憶装置24b及び入出力装置25bを互いにデータの送受信が可能なように接続している。 The bus 26b connects the processor 21b, the main memory device 22b, the communication interface 23b, the auxiliary memory device 24b, and the input/output device 25b so that data can be sent and received among them.

図13は、第二実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。ドライアイ検査装置20bは、プロセッサ21bを使用してドライアイ検査プログラム200bを読み出して実行し、図13に示したデータ取得機能201b及び症状推定機能202bを実現させる。 Figure 13 is a diagram showing an example of the software configuration of a dry eye test program according to the second embodiment. The dry eye test device 20b reads and executes the dry eye test program 200b using the processor 21b, and realizes the data acquisition function 201b and the symptom estimation function 202b shown in Figure 13.

データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。 The data acquisition function 201b acquires at least one of tear meniscus image data for inference and illumination image data for inference.

推論用画像データは、推論用被検体の目を描出している画像を示すデータである。推論用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The image data for inference is data showing an image depicting the eye of the subject for inference. The image for inference is captured, for example, using a camera mounted on a smartphone.

推論用涙液メニスカス画像データは、推論用被検体の目を描出している推論用画像から推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示すデータである。また、推論用涙液メニスカス画像は、例えば、推論用画像のうち涙液メニスカスが描出されている領域を切り出すことにより生成される。 The inference tear meniscus image data is data showing an inference tear meniscus image obtained by cutting out an area depicting the tear meniscus of the inference subject from an inference image depicting the eye of the inference subject. The inference tear meniscus image is generated, for example, by cutting out an area depicting the tear meniscus from the inference image.

推論用照明画像データは、推論用被検体の目を描出している推論用画像から推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示すデータである。また、推論用照明画像は、例えば、推論用画像のうち推論用被検体の角膜に映り込んでいる照明が描出されている領域を切り出すことにより生成される。 The illumination image data for inference is data showing an illumination image for inference obtained by cutting out an area depicting the illumination reflected on the cornea of the subject for inference from an image for inference depicting the eye of the subject for inference. The illumination image for inference is generated, for example, by cutting out an area from the image for inference depicting the illumination reflected on the cornea of the subject for inference.

症状推定機能202bは、機械学習実行機能102bにより学習済みの機械学習プログラム750bに推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を推定させる。例えば、症状推定機能202bは、機械学習プログラム750bにこれらのデータを入力し、推論用被検体の目の涙液層破壊時間の長さを表す数値を推定させる。 The symptom estimation function 202b inputs at least one of the tear meniscus image data for inference and the illumination image data for inference to the machine learning program 750b that has been trained by the machine learning execution function 102b, and causes the machine learning program 750b to estimate the symptoms of dry eye appearing in the eye of the subject for inference. For example, the symptom estimation function 202b inputs these data to the machine learning program 750b, and causes it to estimate a numerical value representing the length of tear film breakup time in the eye of the subject for inference.

そして、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。例えば、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目の涙液層破壊時間の長さを表す数値を示す症状データを出力させる。この場合、症状データは、例えば、自身が示しており、推論用被検体の目の涙液層破壊時間の長さを表す数値をディスプレイ920bに表示するために使用される。 Then, the symptom estimation function 202b causes the machine learning program 750b to output symptom data indicating the symptoms of dry eye appearing in the eye of the inference subject. For example, the symptom estimation function 202b causes the machine learning program 750b to output symptom data indicating a numerical value indicating the length of the tear film breakup time of the eye of the inference subject. In this case, the symptom data is, for example, indicated by itself and is used to display a numerical value indicating the length of the tear film breakup time of the eye of the inference subject on the display 920b.

次に、図14を参照しながら第二実施形態に係るドライアイ検査プログラム200bが実行する処理の一例を説明する。図14は、第二実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。 Next, an example of processing executed by the dry eye test program 200b according to the second embodiment will be described with reference to FIG. 14. FIG. 14 is a flowchart showing an example of processing executed by the dry eye test program according to the second embodiment.

ステップS41において、データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。 In step S41, the data acquisition function 201b acquires at least one of tear meniscus image data for inference and illumination image data for inference.

ステップS42において、症状推定機能202bは、学習済みの機械学習プログラムに、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、機械学習プログラムに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。 In step S42, the symptom estimation function 202b inputs at least one of the inference tear meniscus image data and the inference illumination image data to the trained machine learning program, estimates the symptoms of dry eye appearing in the eyes of the inference subject, and causes the machine learning program to output symptom data indicating the symptoms of dry eye appearing in the eyes of the inference subject.

以上、第二実施形態に係る機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置、ドライアイ検査装置、機械学習実行方法及びドライアイ検査方法について説明した。 The above describes the machine learning execution program, dry eye test program, machine learning execution device, dry eye test device, machine learning execution method, and dry eye test method according to the second embodiment.

機械学習実行プログラム100bは、教師データ取得機能101bと、機械学習実行機能102bとを備える。 The machine learning execution program 100b includes a teacher data acquisition function 101b and a machine learning execution function 102b.

教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題とし、学習用検査画像データと、学習用検査結果データとの少なくとも一方を答えとする教師データを取得する。学習用涙液メニスカス画像データは、学習用被検体の涙液メニスカスを描出している学習用涙液メニスカス画像を示すデータである。学習用照明画像データは、学習用被検体の角膜に映り込んでいる照明を描出している学習用照明画像を示すデータである。学習用検査画像データは、学習用被検体の目についてドライアイの症状に関する検査が実施された際における学習用被検体の目を描出している画像を示すデータである。学習用検査結果データは、ドライアイの症状に関する検査の結果を示すデータである。 The teacher data acquisition function 101b acquires teacher data in which at least one of learning tear meniscus image data and learning illumination image data is used as a question, and at least one of learning test image data and learning test result data is used as an answer. The learning tear meniscus image data is data showing a learning tear meniscus image depicting the tear meniscus of the learning subject. The learning illumination image data is data showing a learning illumination image depicting illumination reflected on the cornea of the learning subject. The learning test image data is data showing an image depicting the eyes of the learning subject when an examination regarding dry eye symptoms is performed on the eyes of the learning subject. The learning test result data is data showing the results of an examination regarding dry eye symptoms.

機械学習実行機能102bは、教師データを機械学習プログラム750bに入力し、機械学習プログラム750bを学習させる。 The machine learning execution function 102b inputs the training data into the machine learning program 750b and causes the machine learning program 750b to learn.

これにより、機械学習実行プログラム100bは、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とに基づいてドライアイの症状に関する検査の結果を予測する機械学習プログラム750bを生成することができる。 As a result, the machine learning execution program 100b can generate a machine learning program 750b that predicts the results of a test regarding dry eye symptoms based on at least one of the learning tear meniscus image data and the learning illumination image data.

また、機械学習実行プログラム100bは、学習用画像データから切り出された学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を問題として含んでいる教師データを使用して機械学習プログラム750bを学習させる。したがって、機械学習実行プログラム100bは、ドライアイの症状に関する検査の結果を更に精度良く予測することができる機械学習プログラム750bを生成することができる。 The machine learning execution program 100b also trains the machine learning program 750b using training data that includes, as a problem, at least one of the learning tear meniscus image data and the learning illumination image data extracted from the learning image data. Therefore, the machine learning execution program 100b can generate the machine learning program 750b that can predict the results of tests related to dry eye symptoms with even greater accuracy.

ドライアイ検査プログラム200bは、データ取得機能201bと、症状推定機能202bとを備える。 The dry eye test program 200b includes a data acquisition function 201b and a symptom estimation function 202b.

データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを取得する。推論用涙液メニスカス画像データは、推論用被検体の涙液メニスカスを描出している推論用涙液メニスカス画像を示すデータである。推論用照明画像データは、推論用被検体の角膜に映り込んでいる照明を描出している推論用照明画像を示すデータである。 The data acquisition function 201b acquires at least one of inference tear meniscus image data and inference illumination image data. The inference tear meniscus image data is data showing an inference tear meniscus image depicting the tear meniscus of the inference subject. The inference illumination image data is data showing an inference illumination image depicting illumination reflected on the cornea of the inference subject.

症状推定機能202bは、機械学習実行プログラム100bにより学習済みの機械学習プログラム750bに推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とを入力し、推論用被検体の目に現れているドライアイの症状を推定させる。そして、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。 The symptom estimation function 202b inputs at least one of the tear meniscus image data for inference and the illumination image data for inference to the machine learning program 750b that has been trained by the machine learning execution program 100b, and causes the machine learning program 750b to estimate the symptoms of dry eye appearing in the eye of the subject for inference. The symptom estimation function 202b then causes the machine learning program 750b to output symptom data indicating the symptoms of dry eye appearing in the eye of the subject for inference.

これにより、ドライアイ検査プログラム200bは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。 This allows the dry eye test program 200b to predict the results of a test for dry eye symptoms without actually conducting the test.

次に、機械学習プログラム750bを実際に学習させ、ドライアイの症状を推定させた例を挙げて、機械学習実行プログラム100bにより奏される効果の具体例を比較例と第二実施形態に係る実施例とを対比させて説明する。 Next, we will provide an example in which the machine learning program 750b was actually trained to estimate symptoms of dry eye, and explain specific examples of the effects achieved by the machine learning execution program 100b by comparing a comparative example with an example of the second embodiment.

この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを教師データとして機械学習プログラムを学習させた例である。 The comparative example in this case is an example in which a machine learning program is trained using as training data data to which training image data has been added, excluding the training tear meniscus image data and the training illumination image data from the 540 training data pieces representing that the training subject's eyes are normal and the 580 training data pieces representing that the training subject's eyes are abnormal.

このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータ及び学習用被検体の目が異常であることを表している80個のテストデータから学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。 The machine learning program trained in this way showed a prediction accuracy of 72% and a false negative rate of 28% when its characteristics were evaluated using data in which the training tear meniscus image data and training illumination image data were removed from the 80 test data representing the above-mentioned training subject's eyes being normal and training image data was added, and data in which the training tear meniscus image data and training illumination image data were removed from the 80 test data representing the training subject's eyes being abnormal and training image data was added.

一方、機械学習実行プログラム100bにより学習用涙液メニスカス画像データを使用して学習した機械学習プログラム750bは、学習用涙液メニスカス画像データのみを含むテストデータを使用して特性を評価すると、予測精度77%及び偽陰性率23%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。 On the other hand, when the machine learning program 750b, which was trained using the learning tear meniscus image data by the machine learning execution program 100b, was evaluated for its characteristics using test data containing only the learning tear meniscus image data, it showed a prediction accuracy of 77% and a false negative rate of 23%. These characteristics exceed those of the machine learning program according to the comparative example.

また、機械学習実行プログラム100bにより学習用照明画像データを使用して学習した機械学習プログラム750bは、学習用照明画像データのみを含むテストデータを使用して特性を評価すると、予測精度77%及び偽陰性率23%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。 In addition, when the machine learning program 750b, which was trained using the learning illumination image data by the machine learning execution program 100b, was evaluated for its characteristics using test data containing only the learning illumination image data, it showed a prediction accuracy of 77% and a false negative rate of 23%. These characteristics exceed those of the machine learning program according to the comparative example.

また、機械学習実行プログラム100bにより学習用涙液メニスカス画像データ及び学習用照明画像データを使用して学習した機械学習プログラム750bは、学習用涙液メニスカス画像データ及び学習用照明画像データを含むテストデータを使用して特性を評価すると、予測精度82%及び偽陰性率18%を示した。この特性は、比較例に係る機械学習プログラムの特性、学習用涙液メニスカス画像データを使用して学習した機械学習プログラム750bの特性及び学習用照明画像データを使用して学習した機械学習プログラム750bの特性を上回っている。 Furthermore, when the machine learning program 750b trained using the learning tear meniscus image data and the learning illumination image data by the machine learning execution program 100b was evaluated for its characteristics using test data including the learning tear meniscus image data and the learning illumination image data, it showed a prediction accuracy of 82% and a false negative rate of 18%. These characteristics exceed those of the machine learning program according to the comparative example, the characteristics of the machine learning program 750b trained using the learning tear meniscus image data, and the characteristics of the machine learning program 750b trained using the learning illumination image data.

なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.

また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.

なお、機械学習実行プログラム100bが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。同様に、ドライアイ検査プログラム200bが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。また、このようなハードウェアは,例えば、LSI、ASIC、FPGA、GPUである。 At least a part of the functions of the machine learning execution program 100b may be realized by hardware including a circuit unit. Similarly, at least a part of the functions of the dry eye test program 200b may be realized by hardware including a circuit unit. Such hardware may be, for example, an LSI, an ASIC, an FPGA, or a GPU.

また、機械学習実行プログラム100bが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。同様に、ドライアイ検査プログラム200bが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。 Furthermore, at least some of the functions of the machine learning execution program 100b may be realized by a combination of software and hardware. Similarly, at least some of the functions of the dry eye test program 200b may be realized by a combination of software and hardware. Furthermore, these pieces of hardware may be integrated into one, or may be divided into multiple pieces.

また、第二実施形態では、機械学習実行装置10bと、機械学習装置700bと、ドライアイ検査装置20bとが互いに独立した装置である場合を例に挙げて説明したが、これに限定されない。これらの装置は、一つの装置として実現されていてもよい。 In the second embodiment, the machine learning execution device 10b, the machine learning device 700b, and the dry eye test device 20b are independent devices, but this is not limiting. These devices may be realized as a single device.

[第三実施形態]
上述した第一実施形態では、教師データ取得機能101aが第二実施形態で説明した学習用涙液メニスカス画像データ及び学習用照明画像データを問題の一部に含まない教師データを取得する場合を例に挙げたが、これに限定されない。教師データ取得機能101aは、学習用開瞼データに加え、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方を上述した学習用画像データとしている教師データを取得してもよい。また、この場合、データ取得機能201aは、推論用開瞼データに加え、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方を上述した推論用画像データとして取得する。そして、この場合、症状推定機能202aは、機械学習プログラム750aに、推論用開瞼データに加え、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に基づいて推論用被検体の目に現れているドライアイの症状を推定させる。
[Third embodiment]
In the first embodiment described above, the case where the teacher data acquisition function 101a acquires teacher data that does not include the learning tear meniscus image data and the learning illumination image data described in the second embodiment as part of the problem has been exemplified, but is not limited thereto. The teacher data acquisition function 101a may acquire teacher data in which at least one of the learning tear meniscus image data and the learning illumination image data is used as the above-mentioned learning image data in addition to the learning eyelid open data. In this case, the data acquisition function 201a acquires at least one of the inference tear meniscus image data and the inference illumination image data as the above-mentioned inference image data in addition to the inference eyelid open data. In this case, the symptom estimation function 202a causes the machine learning program 750a to estimate the symptoms of dry eye appearing in the eye of the inference subject based on at least one of the inference tear meniscus image data and the inference illumination image data in addition to the inference eyelid open data.

また、上述した第二実施形態では、教師データ取得機能101bが第一実施形態で説明した学習用開瞼データを問題の一部に含まない教師データを取得する場合を例に挙げたが、これに限定されない。教師データ取得機能101bは、学習用涙液メニスカス画像データ及び学習用照明画像データに加え、学習用開瞼データを問題としている教師データを取得してもよい。また、この場合、データ取得機能201bは、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に加え、更に推論用開瞼データを取得する。そして、この場合、症状推定機能202bは、機械学習プログラム750bに、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方に加え、推論用開瞼データに基づいて推論用被検体の目に現れているドライアイの症状を推定させる。 In the second embodiment described above, the teacher data acquisition function 101b acquires teacher data that does not include the learning eyelid open data described in the first embodiment as part of the problem, but this is not limited to this. The teacher data acquisition function 101b may acquire teacher data that has learning eyelid open data as a problem, in addition to learning tear meniscus image data and learning illumination image data. In this case, the data acquisition function 201b acquires inference eyelid open data in addition to at least one of inference tear meniscus image data and inference illumination image data. In this case, the symptom estimation function 202b causes the machine learning program 750b to estimate the symptoms of dry eye appearing in the eye of the inference subject based on the inference eyelid open data in addition to at least one of inference tear meniscus image data and inference illumination image data.

さらに、第三実施形態に係る機械学習実行機能102aは、テストデータを使用して機械学習プログラム750aの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。同様に、第三実施形態に係る機械学習実行機能102bは、テストデータを使用して機械学習プログラム750bの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。 Furthermore, the machine learning execution function 102a according to the third embodiment may use, for example, class activation mapping when using test data to evaluate the characteristics of the machine learning program 750a. Similarly, the machine learning execution function 102b according to the third embodiment may use, for example, class activation mapping when using test data to evaluate the characteristics of the machine learning program 750b.

図15は、第三実施形態に係る機械学習プログラムが涙液層破壊時間を調べる検査の結果を予測する際に学習用被検体の目を描出している学習用画像のうち重点的に考慮した部分の一例を示す図である。例えば、第三実施形態に係る機械学習実行機能102aは、勾配加重クラス活性化マッピングを使用して図15に示した学習用画像のうち楕円C11で囲まれている領域、楕円C12で囲まれている領域及び楕円C2で囲まれている領域が機械学習プログラム750aによる涙液層破壊時間を調べる検査の予測に一定以上の影響を与えていると評価する。また、図15を参照しながら説明した事項は、第三実施形態に係る機械学習実行機能102bについても当てはまる。 Figure 15 is a diagram showing an example of a portion of a training image depicting the eye of a training subject that is considered intensively when a machine learning program according to the third embodiment predicts the results of a test to examine tear film breakup time. For example, the machine learning execution function 102a according to the third embodiment uses gradient-weighted class activation mapping to evaluate that the area surrounded by the ellipse C11, the area surrounded by the ellipse C12, and the area surrounded by the ellipse C2 in the training image shown in Figure 15 have a certain degree of influence on the prediction of the test to examine the tear film breakup time by the machine learning program 750a. The matters described with reference to Figure 15 also apply to the machine learning execution function 102b according to the third embodiment.

なお、これらの楕円で囲まれている領域に含まれている三段階のグレースケールは、角膜上皮障害に関する検査の結果の予測に影響を与えた度合いを示している。楕円C11で囲まれている領域及び楕円C12で囲まれている領域は、いずれも学習用被検体の涙液メニスカスを描出している領域の上に重ねて表示されている。楕円C2で囲まれている領域は、学習用被検体の角膜に映り込んでいる照明を描出している領域の上に重ねて表示されている。 The three grayscales contained in the areas enclosed by these ellipses indicate the degree to which they influenced the prediction of the test results related to corneal epithelial damage. The areas enclosed by ellipses C11 and C12 are both displayed superimposed on the area depicting the tear meniscus of the learning subject. The area enclosed by ellipse C2 is displayed superimposed on the area depicting the illumination reflected on the cornea of the learning subject.

次に、学習用開瞼データと、学習用涙液メニスカス画像データ及び学習用照明画像データの少なくとも一方とを問題として含んでいる教師データを使用して学習させ、推論用開瞼データと、推論用涙液メニスカス画像データ及び推論用照明画像データの少なくとも一方とに基づいて推論用被検体の目に現れているドライアイの症状を推定させる場合に奏される効果の具体例について説明する。また、以下の説明では、教師データ取得機能101aが学習用開瞼データを取得し、データ取得機能201aが推論用開瞼データを取得する場合を例に挙げて説明する。 Next, a specific example of the effect achieved when training is performed using teacher data that includes as problems the learning open eyelid data and at least one of the learning tear meniscus image data and the learning illumination image data, and the symptoms of dry eye appearing in the eye of the inference subject are estimated based on the inference open eyelid data and at least one of the inference tear meniscus image data and the inference illumination image data will be described. In the following explanation, an example will be given in which the teacher data acquisition function 101a acquires the learning open eyelid data, and the data acquisition function 201a acquires the inference open eyelid data.

この場合の比較例は、上述した学習用被検体の目が正常であることを表している540個の教師データ及び学習用被検体の目が異常であることを表している580個の教師データから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを教師データとして機械学習プログラムを学習させた例である。 The comparative example in this case is an example in which a machine learning program is trained using as training data data to which training image data has been added, excluding training eyelid open data, training tear meniscus image data, and training illumination image data from the 540 training data pieces representing that the training subject's eyes are normal and the 580 training data pieces representing that the training subject's eyes are abnormal.

このように学習した機械学習プログラムは、上述した学習用被検体の目が正常であることを表している80個のテストデータから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータ及び学習用被検体の目が異常であることを表している80個のテストデータから学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを除き、学習用画像データが加えられているデータを使用して特性を評価すると、予測精度72%及び偽陰性率28%を示した。 The machine learning program trained in this way showed a prediction accuracy of 72% and a false negative rate of 28% when its characteristics were evaluated using data to which the training image data was added, excluding the training open eye data, training tear meniscus image data, and training illumination image data from 80 test data representing the above-mentioned training subject's eyes being normal, and data to which the training image data was added, excluding the training open eye data, training tear meniscus image data, and training illumination image data from 80 test data representing the training subject's eyes being abnormal.

一方、機械学習実行プログラム100aにより学習用開瞼データ、学習用涙液メニスカス画像データ及び学習用照明画像データを使用して学習した機械学習プログラム750aは、学習用涙液メニスカス画像データ及び学習用照明画像データを含むテストデータを使用して特性を評価すると、予測精度90%及び偽陰性率10%を示した。この特性は、比較例に係る機械学習プログラムの特性、第一実施形態に係る機械学習プログラム750aの特性及び第二実施形態に係る機械学習プログラム750bの特性を上回っている。 On the other hand, the machine learning program 750a, which was trained by the machine learning execution program 100a using training open eyelid data, training tear meniscus image data, and training illumination image data, showed a prediction accuracy of 90% and a false negative rate of 10% when its characteristics were evaluated using test data including training tear meniscus image data and training illumination image data. These characteristics exceed those of the machine learning program according to the comparative example, the machine learning program 750a according to the first embodiment, and the machine learning program 750b according to the second embodiment.

なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.

また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.

なお、上述したドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、推論用被検体の目にドライアイ点眼薬が点眼される前後で使用されてもよい。上述したドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、このようなタイミングで使用されることにより、推論用被検体が抱えるドライアイの症状に対して当該ドライアイ点眼薬が有している有効性を検証する手段ともなり得る。 The above-mentioned dry eye test program, dry eye test device, and dry eye test method may be used before or after the dry eye eye drops are applied to the eyes of the subject to be inferred. By using the above-mentioned dry eye test program, dry eye test device, and dry eye test method at such timing, they can also serve as a means of verifying the effectiveness of the dry eye eye drops for the dry eye symptoms suffered by the subject to be inferred.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成は、この実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲内において種々の組み合わせ、変形、置換及び設計変更の少なくとも一つが加えられることがある。 Although an embodiment of the present invention has been described in detail above with reference to the drawings, the specific configuration is not limited to this embodiment, and various combinations, modifications, substitutions, and/or design changes may be made without departing from the spirit of the present invention.

また、上述した本発明の実施形態の効果は、一例として示した効果である。したがって、本発明の実施形態は、上述した効果以外にも上述した実施形態の記載から当業者が認識し得る他の効果も奏し得る。 The effects of the above-described embodiments of the present invention are shown as examples. Therefore, in addition to the effects described above, the embodiments of the present invention may also have other effects that a person skilled in the art may recognize from the description of the above-described embodiments.

10a,10b…機械学習実行装置、100a,100b…機械学習実行プログラム、101a,101b…教師データ取得機能、102a,102b…機械学習実行機能、20a,20b…ドライアイ検査装置、200a,200b…ドライアイ検査プログラム、201a,201b…データ取得機能、202a,202b…症状推定機能、700a,700b…機械学習装置、750a,750b…機械学習プログラム 10a, 10b...machine learning execution device, 100a, 100b...machine learning execution program, 101a, 101b...teaching data acquisition function, 102a, 102b...machine learning execution function, 20a, 20b...dry eye test device, 200a, 200b...dry eye test program, 201a, 201b...data acquisition function, 202a, 202b...symptom estimation function, 700a, 700b...machine learning device, 750a, 750b...machine learning program

Claims (11)

学習用被検体の目を描出している学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データである学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得機能と、
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、
をコンピュータに実行させる機械学習実行プログラム。
a training data acquisition function for acquiring training data having as an answer at least one of training test image data showing an image depicting the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye and training test result data showing the results of the test for dry eye symptoms, the training image data being training illumination image data showing a training illumination image obtained by cutting out a region depicting the illumination reflected on the cornea of the training subject from a training image depicting the eye of the training subject, and training eyelid open data showing a maximum eyelid open time which is the time the training subject was able to continuously open the eye in which the training image was captured;
A machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution program that causes a computer to execute the above.
前記教師データ取得機能は、前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データを前記学習用画像データとしている前記教師データを取得する、
請求項1に記載の機械学習実行プログラム。
The teacher data acquisition function acquires the teacher data, the teacher data being training image data that indicates a training tear meniscus image obtained by cutting out an area depicting the tear meniscus of the training subject from the training image.
The machine learning execution program according to claim 1 .
前記教師データ取得機能は、前記学習用被検体の目の涙液層破壊時間を調べる検査が実施された際における前記学習用被検体の目を描出している画像を示す前記学習用検査画像データと、前記学習用被検体の目の涙液層破壊時間を調べる検査の結果を示す前記学習用検査結果データとの少なくとも一方を答えとする前記教師データを取得する、
請求項1または請求項2に記載の機械学習実行プログラム。
The teacher data acquisition function acquires teacher data having as an answer at least one of the learning test image data showing an image depicting the eye of the learning subject when a test is performed to examine the tear film breakup time of the eye of the learning subject, and the learning test result data showing a result of the test to examine the tear film breakup time of the eye of the learning subject.
The machine learning execution program according to claim 1 or 2 .
推論用被検体の目を描出している画像であって前記推論用被検体の角膜に映り込んでいる照明を描出している推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データである推論用画像データと、前記推論用画像が撮影された目を前記推論用被検体が連続して開けることができた時間である最大開瞼時間を示す推論用開瞼データとを取得するデータ取得機能と、
学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像であって前記学習用被検体の角膜に映り込んでいる照明を描出している前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データである学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データ及び前記推論用開瞼データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、
をコンピュータに実現させるドライアイ検査プログラム。
a data acquisition function for acquiring inference image data, which is inference illumination image data showing an inference illumination image obtained by cutting out an area depicting the illumination reflected on the cornea of the subject for inference from an inference image depicting the eye of the subject for inference, the area depicting the illumination reflected on the cornea of the subject for inference, and inference eyelid opening data showing the maximum eyelid opening time, which is the time the subject for inference could continuously open the eye in which the inference image was captured;
a symptom estimation function for inputting the inference image data and the inference eye-open data into a machine learning program trained using teacher data having as answer at least one of: learning image data showing a learning image depicting the eye of a learning subject, and learning eyelid-open data showing a maximum eyelid-open time, which is the time the learning subject could continuously open the eye in which the learning image was captured; learning test image data being learning illumination image data showing a region depicting illumination reflected on the cornea of the learning subject from the learning image depicting the eye of the learning subject when a test for dry eye symptoms is performed on the eye of the learning subject, the learning image showing an image depicting the eye of the learning subject and depicting illumination reflected on the cornea of the learning subject; and learning test result data showing the result of the test for dry eye symptoms; and
A dry eye testing program that enables a computer to achieve this.
前記データ取得機能は、前記推論用被検体の目の涙液メニスカスを描出している前記推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データを前記推論用画像データとして取得し、
前記症状推定機能は、前記学習用被検体の目の涙液メニスカスを描出している前記学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データを前記学習用画像データとしている前記教師データを使用して学習した前記機械学習プログラムに前記推論用涙液メニスカス画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させる、
請求項に記載のドライアイ検査プログラム。
The data acquisition function acquires, as the image data for inference, tear meniscus image data for inference showing a tear meniscus image for inference obtained by cutting out a region depicting the tear meniscus of the subject for inference from the image for inference depicting the tear meniscus of the eye of the subject for inference,
the symptom estimation function inputs the inference tear meniscus image data to the machine learning program trained using the teacher data, the training image data being training tear meniscus image data showing a training tear meniscus image obtained by cutting out a region depicting the tear meniscus of the training subject from the training image depicting the tear meniscus of the training subject's eye, and causes the machine learning program to estimate a symptom of dry eye appearing in the eye of the inference subject;
The dry eye test program according to claim 4 .
学習用被検体の目を描出している学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データである学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを取得する教師データ取得部と、
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、
を備える機械学習実行装置。
a training data acquisition unit that acquires training data having as an answer at least one of training test image data showing an image depicting the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye and training test result data showing the results of the test for dry eye symptoms, and training image data being training illumination image data showing a training illumination image obtained by cutting out a region depicting the illumination reflected on the cornea of the training subject from a training image depicting the eye of the training subject and training eyelid open data showing a maximum eyelid open time which is the time the training subject was able to continuously open the eye in which the training image was captured;
a machine learning execution unit that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution device comprising:
推論用被検体の目を描出している画像であって前記推論用被検体の角膜に映り込んでいる照明を描出している推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データである推論用画像データと、前記推論用画像が撮影された目を前記推論用被検体が連続して開けることができた時間である最大開瞼時間を示す推論用開瞼データとを取得するデータ取得部と、
学習用被検体の目を描出している学習用画像を示す学習用画像データと、前記学習用画像が撮影された目を前記学習用被検体が連続して開けることができた時間である最大開瞼時間を示す学習用開瞼データとを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像であって前記学習用被検体の角膜に映り込んでいる照明を描出している前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データである学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとの少なくとも一方を答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データ及び前記推論用開瞼データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、
を備えるドライアイ検査装置。
a data acquisition unit that acquires inference image data, which is inference illumination image data showing an inference illumination image obtained by cutting out an area depicting illumination reflected on the cornea of the subject for inference from an inference image depicting the eye of the subject for inference, the area depicting illumination reflected on the cornea of the subject for inference, and inference eyelid opening data showing a maximum eyelid opening time that is the time the subject for inference can continuously open the eye in which the inference image is captured;
a symptom estimation unit that inputs the inference image data and the inference eye-open data into a machine learning program trained using teacher data that has as its answer at least one of: training image data showing a training image depicting the eye of a training subject, and training eyelid-open data showing a maximum eyelid-open time that is the time that the training subject could continuously open the eye in which the training image was captured; training test image data that is training illumination image data showing a region depicting illumination reflected on the cornea of the training subject from the training image depicting the eye of the training subject when a test for dry eye symptoms is performed on the eye of the training subject, the training image showing an image depicting the eye of the training subject and depicting illumination reflected on the cornea of the training subject; and training test result data showing a result of the test for dry eye symptoms; and causes the machine learning program to infer symptoms of dry eye that are present in the eye of the inference subject, and causes the machine learning program to output symptom data showing symptoms of dry eye that are present in the eye of the inference subject.
A dry eye examination device comprising:
学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとを答えとする教師データを取得する教師データ取得機能と、
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、
をコンピュータに実行させる機械学習実行プログラム。
a training data acquisition function for acquiring training data having training test image data showing an image depicting the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye and training test result data showing the results of the test for dry eye symptoms, as answers, and training test image data showing an image depicting the training subject's eye when a test for dry eye symptoms is performed on the training subject's eye; and
A machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution program that causes a computer to execute the above.
推論用被検体の目を描出している推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データ及び前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データを取得するデータ取得機能と、
学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとを答えとする教師データを使用して学習した機械学習プログラムに前記推論用涙液メニスカス画像データ及び前記推論用照明画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、
をコンピュータに実現させるドライアイ検査プログラム。
a data acquisition function for acquiring tear meniscus image data for inference showing a tear meniscus image for inference obtained by cutting out an area depicting the tear meniscus of the subject for inference from an image for inference depicting the eye of the subject for inference, and illumination image data for inference showing an illumination image for inference obtained by cutting out an area depicting illumination reflected on the cornea of the subject for inference from the image for inference;
a symptom estimation function that inputs the inference tear meniscus image data and the inference illumination image data into a machine learning program trained using teacher data having as questions training tear meniscus image showing a training tear meniscus image obtained by cutting out a region depicting the tear meniscus of the training subject from a training image depicting the eye of the training subject and training illumination image data showing a region depicting illumination reflected on the cornea of the training subject from the training image, and answers training test image data showing an image depicting the eye of the training subject when a test for dry eye symptoms is performed on the eye of the training subject and training test result data showing the results of the test for dry eye symptoms, causes the machine learning program to estimate a symptom of dry eye appearing in the eye of the inference subject, and causes the machine learning program to output symptom data showing the symptom of dry eye appearing in the eye of the inference subject;
A dry eye testing program that enables a computer to achieve this.
学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとを答えとする教師データを取得する教師データ取得部と、
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、
を備える機械学習実行装置。
a training data acquisition unit that acquires training data having training tear meniscus image data showing a training tear meniscus image obtained by cutting out a region depicting the tear meniscus of the training subject from a training image depicting the eye of the training subject and training illumination image data showing a training illumination image obtained by cutting out a region depicting illumination reflected on the cornea of the training subject from the training image, as questions, and has training test image data showing an image depicting the eye of the training subject when a test for dry eye symptoms is performed on the eye of the training subject and training test result data showing the results of the test for dry eye symptoms as answers;
a machine learning execution unit that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution device comprising:
推論用被検体の目を描出している推論用画像から前記推論用被検体の涙液メニスカスを描出している領域を切り出した推論用涙液メニスカス画像を示す推論用涙液メニスカス画像データ及び前記推論用画像から前記推論用被検体の角膜に映り込んでいる照明を描出している領域を切り出した推論用照明画像を示す推論用照明画像データを取得するデータ取得部と、
学習用被検体の目を描出している学習用画像から前記学習用被検体の涙液メニスカスを描出している領域を切り出した学習用涙液メニスカス画像を示す学習用涙液メニスカス画像データ及び前記学習用画像から前記学習用被検体の角膜に映り込んでいる照明を描出している領域を切り出した学習用照明画像を示す学習用照明画像データを問題とし、前記学習用被検体の目についてドライアイの症状に関する検査が実施された際における前記学習用被検体の目を描出している画像を示す学習用検査画像データと、ドライアイの症状に関する検査の結果を示す学習用検査結果データとを答えとする教師データを使用して学習した機械学習プログラムに前記推論用涙液メニスカス画像データ及び前記推論用照明画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、
を備えるドライアイ検査装置。
a data acquisition unit that acquires tear meniscus image data for inference showing a tear meniscus image for inference obtained by cutting out an area depicting the tear meniscus of the subject for inference from an image for inference depicting the eye of the subject for inference, and illumination image data for inference showing an illumination image for inference obtained by cutting out an area depicting illumination reflected on the cornea of the subject for inference from the image for inference;
a symptom estimation unit that inputs the inference tear meniscus image data and the inference illumination image data into a machine learning program trained using teacher data having as problems training tear meniscus image showing a training tear meniscus image obtained by cutting out a region depicting the tear meniscus of the training subject from a training image depicting the eye of the training subject and training illumination image data showing a region depicting illumination reflected on the cornea of the training subject from the training image, and answers training test image data showing an image depicting the eye of the training subject when a test for dry eye symptoms is performed on the eye of the training subject and training test result data showing a result of the test for dry eye symptoms, causes the machine learning program to estimate a symptom of dry eye appearing in the eye of the inference subject, and causes the machine learning program to output symptom data showing the symptom of dry eye appearing in the eye of the inference subject;
A dry eye examination device comprising:
JP2020217684A 2020-10-28 2020-12-25 Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device Active JP7570228B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020217684A JP7570228B2 (en) 2020-12-25 2020-12-25 Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device
KR1020237003200A KR20230096957A (en) 2020-10-28 2021-10-27 Inspection method, machine learning implementation method, inspection device, and machine learning implementation method
PCT/JP2021/039589 WO2022092134A1 (en) 2020-10-28 2021-10-27 Examination method, machine learning execution method, examination device, and machine learning execution method
TW110139818A TW202222245A (en) 2020-10-28 2021-10-27 Examination method, machine learning execution method, examination device, and machine learning execution method
JP2022072355A JP7094468B1 (en) 2020-12-25 2022-04-26 Inspection methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020217684A JP7570228B2 (en) 2020-12-25 2020-12-25 Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022072355A Division JP7094468B1 (en) 2020-12-25 2022-04-26 Inspection methods

Publications (2)

Publication Number Publication Date
JP2022102758A JP2022102758A (en) 2022-07-07
JP7570228B2 true JP7570228B2 (en) 2024-10-21

Family

ID=82273144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020217684A Active JP7570228B2 (en) 2020-10-28 2020-12-25 Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device

Country Status (1)

Country Link
JP (1) JP7570228B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257292A (en) 2007-03-30 2008-10-23 Fujifilm Corp Image diagnosis support apparatus and system
US20080273171A1 (en) 2007-05-04 2008-11-06 Advanced Medical Optics, Inc. Methods and devices for measuring tear film and diagnosing tear disorders
US20130226008A1 (en) 2012-02-21 2013-08-29 Massachusetts Eye & Ear Infirmary Calculating Conjunctival Redness
JP2013212363A (en) 2012-03-06 2013-10-17 Kitasato Institute Method for ophthalmologic measurement, ophthalmologic measuring apparatus, and method for evaluating test piece
JP2015116319A (en) 2013-12-18 2015-06-25 パナソニックIpマネジメント株式会社 Diagnosis support device, diagnosis support method, and diagnosis support program
US20170188805A1 (en) 2015-12-31 2017-07-06 Anantha Pradeep System and method for analyzing eye and contact lens condition
JP2019025257A (en) 2017-08-04 2019-02-21 エルライズ株式会社 Ophthalmologic measurement apparatus and ophthalmologic measurement system
US20190110753A1 (en) 2017-10-13 2019-04-18 Ai Technologies Inc. Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
WO2019168142A1 (en) 2018-03-02 2019-09-06 興和株式会社 Image classification method, device, and program
JP2019525923A (en) 2016-07-18 2019-09-12 リジェンツリー リミテッド ライアビリティ カンパニー How to treat dry eye syndrome
CN111700582A (en) 2020-06-23 2020-09-25 温州医科大学附属眼视光医院 Common ocular surface disease diagnosis system based on intelligent terminal

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257292A (en) 2007-03-30 2008-10-23 Fujifilm Corp Image diagnosis support apparatus and system
US20080273171A1 (en) 2007-05-04 2008-11-06 Advanced Medical Optics, Inc. Methods and devices for measuring tear film and diagnosing tear disorders
US20130226008A1 (en) 2012-02-21 2013-08-29 Massachusetts Eye & Ear Infirmary Calculating Conjunctival Redness
JP2013212363A (en) 2012-03-06 2013-10-17 Kitasato Institute Method for ophthalmologic measurement, ophthalmologic measuring apparatus, and method for evaluating test piece
JP2015116319A (en) 2013-12-18 2015-06-25 パナソニックIpマネジメント株式会社 Diagnosis support device, diagnosis support method, and diagnosis support program
US20170188805A1 (en) 2015-12-31 2017-07-06 Anantha Pradeep System and method for analyzing eye and contact lens condition
JP2019525923A (en) 2016-07-18 2019-09-12 リジェンツリー リミテッド ライアビリティ カンパニー How to treat dry eye syndrome
JP2019025257A (en) 2017-08-04 2019-02-21 エルライズ株式会社 Ophthalmologic measurement apparatus and ophthalmologic measurement system
US20190110753A1 (en) 2017-10-13 2019-04-18 Ai Technologies Inc. Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
WO2019168142A1 (en) 2018-03-02 2019-09-06 興和株式会社 Image classification method, device, and program
CN111700582A (en) 2020-06-23 2020-09-25 温州医科大学附属眼视光医院 Common ocular surface disease diagnosis system based on intelligent terminal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tai-Yuan Su et al.,Tear Film Break-Up Time Measurement Using Deep Convolutional Neural Networks for Screening Dry Eye Disease,IEEE SENSORS JOURNAL,2018年08月15日,VOL. 18, NO. 16,pp.6857-6862,DOI: 10.1109/JSEN.2018.2850940

Also Published As

Publication number Publication date
JP2022102758A (en) 2022-07-07

Similar Documents

Publication Publication Date Title
Vujosevic et al. Screening for diabetic retinopathy: new perspectives and challenges
Van Der Heijden et al. Validation of automated screening for referable diabetic retinopathy with the IDx‐DR device in the Hoorn Diabetes Care System
Reid et al. Artificial intelligence for pediatric ophthalmology
Mursch-Edlmayr et al. Artificial intelligence algorithms to diagnose glaucoma and detect glaucoma progression: translation to clinical practice
Rampat et al. Artificial intelligence in cornea, refractive surgery, and cataract: basic principles, clinical applications, and future directions
Ćirković Evaluation of four artificial intelligence–assisted self-diagnosis apps on three diagnoses: two-year follow-up study
Chauhan et al. Comparison of conventional and high-pass resolution perimetry in a prospective study of patients with glaucoma and healthy controls
Prasad et al. Multiple eye disease detection using Deep Neural Network
JP2021507428A (en) Diagnosis and referral based on deep learning of ophthalmic diseases and disorders
Maruoka et al. Deep neural network-based method for detecting obstructive meibomian gland dysfunction with in vivo laser confocal microscopy
Shi et al. Assessment of image quality on color fundus retinal images using the automatic retinal image analysis
Abramovich et al. FundusQ-Net: A regression quality assessment deep learning algorithm for fundus images quality grading
JP2020036835A (en) Ophthalmologic diagnostic support apparatus, ophthalmologic diagnostic support method, and ophthalmologic diagnostic support program
Sun et al. Impact of glaucoma and dry eye on text-based searching
Brandão-de-Resende et al. Glaucoma and telemedicine
Srisuriyajan et al. Cytomegalovirus retinitis screening using machine learning technology
JP7570228B2 (en) Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device
Tabuchi et al. Developing an iOS application that uses machine learning for the automated diagnosis of blepharoptosis
JP7570229B2 (en) Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device
JP7094468B1 (en) Inspection methods
TW202222245A (en) Examination method, machine learning execution method, examination device, and machine learning execution method
Li et al. Early Detection of Optic Nerve Changes on Optical Coherence Tomography Using Deep Learning for Risk-Stratification of Papilledema and Glaucoma
Tabuchi Understanding required to consider AI applications to the field of ophthalmology
JP2022102757A (en) Machine learning execution program, dry eye inspection program, machine learning execution device and dry eye inspection device
Singh Artificial intelligence in ophthalmology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241008

R150 Certificate of patent or registration of utility model

Ref document number: 7570228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150