[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7570229B2 - Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device - Google Patents

Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device Download PDF

Info

Publication number
JP7570229B2
JP7570229B2 JP2020217685A JP2020217685A JP7570229B2 JP 7570229 B2 JP7570229 B2 JP 7570229B2 JP 2020217685 A JP2020217685 A JP 2020217685A JP 2020217685 A JP2020217685 A JP 2020217685A JP 7570229 B2 JP7570229 B2 JP 7570229B2
Authority
JP
Japan
Prior art keywords
training
subject
machine learning
inference
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020217685A
Other languages
Japanese (ja)
Other versions
JP2022102759A (en
Inventor
雅貴 吉田
汐理 宮崎
誠 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lion Corp
Original Assignee
Lion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lion Corp filed Critical Lion Corp
Priority to JP2020217685A priority Critical patent/JP7570229B2/en
Priority to KR1020237003200A priority patent/KR20230096957A/en
Priority to PCT/JP2021/039589 priority patent/WO2022092134A1/en
Priority to TW110139818A priority patent/TW202222245A/en
Publication of JP2022102759A publication Critical patent/JP2022102759A/en
Application granted granted Critical
Publication of JP7570229B2 publication Critical patent/JP7570229B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置に関する。 The present invention relates to a machine learning execution program, a dry eye test program, a machine learning execution device, and a dry eye test device.

現在、特に先進国において、パーソナルコンピュータ、スマーフォン、タブレット等、ディスプレイが搭載されている電子機器が広く普及しているため、目の不調を自覚する人が急激に増加している。更に、インターネットを介したオンラインサービスの増加、テレワークを推進する企業の増加等により、目の不調を自覚する人の数が更に増加していくと予想される。 Currently, especially in developed countries, electronic devices equipped with displays, such as personal computers, smartphones, and tablets, are becoming widespread, and as a result, the number of people who are aware of eye problems is rapidly increasing. Furthermore, due to the increase in online services via the Internet and the increase in companies promoting teleworking, the number of people who are aware of eye problems is expected to increase further.

このような生活習慣により比較的頻繁に引き起こされる目の不調の一例として、マイボーム腺機能不全に起因するドライアイが挙げられる。また、40歳以上の人の約70%がマイボーム腺機能不全を患っているという研究報告もあり、目の健康を維持する上でマイボーム腺機能不全に対するケアが重要である。 One example of an eye disorder that is relatively frequently caused by such lifestyle habits is dry eye caused by meibomian gland dysfunction. Research has also shown that approximately 70% of people over the age of 40 suffer from meibomian gland dysfunction, making care for meibomian gland dysfunction important in maintaining eye health.

例えば、マイボーム腺機能不全の有無や程度を検査するためには、眼科医が光干渉計を使用して涙液油層の厚みを評価する必要がある。或いは、特許文献1に開示されている眼科診断支援装置を使用した診察を受ける必要がある。 For example, to check for the presence or absence and severity of meibomian gland dysfunction, an ophthalmologist must use an optical interferometer to evaluate the thickness of the tear lipid layer. Alternatively, a patient must be examined using the ophthalmic diagnostic support device disclosed in Patent Document 1.

この眼科診断支援装置は、症例データ格納部と、機械学習部と、患者データ取得部と、対比判定部と、結果表示部とを備える。症例データ格納部は、眼科診断画像データと診断結果との組み合わせからなる複数の症例基礎画像データを格納する。機械学習部は、特徴画像要素を抽出するとともに症例基礎画像データを分類する。患者データ取得部は、患者の患者眼科診断画像データを取得する。対比判定部は、患者眼科診断画像データと症例基礎画像データとを対比し、データ同士の類似性判定を実行する。結果表示部は、類似性判定の結果を表示する。 This ophthalmological diagnosis support device includes a case data storage unit, a machine learning unit, a patient data acquisition unit, a comparison judgment unit, and a result display unit. The case data storage unit stores a plurality of case basic image data consisting of a combination of ophthalmological diagnostic image data and diagnosis results. The machine learning unit extracts characteristic image elements and classifies the case basic image data. The patient data acquisition unit acquires patient ophthalmological diagnostic image data of a patient. The comparison judgment unit compares the patient ophthalmological diagnostic image data with the case basic image data and performs a similarity judgment between the data. The result display unit displays the result of the similarity judgment.

特開2020-036835号公報JP 2020-036835 A

しかしながら、上述した眼科診断支援装置は、医療機関で使用される検査機器を使用して眼科診断データを取得する必要があるため、目の不調を自覚している人のドライアイの有無や程度を簡易に検査することができない。 However, the above-mentioned ophthalmic diagnostic support device requires obtaining ophthalmic diagnostic data using testing equipment used in medical institutions, and therefore cannot easily test for the presence or severity of dry eye in people who are aware of eye problems.

本発明は、上述した事情に鑑みてなされたものであり、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置を提供しようとするものである。 The present invention has been made in consideration of the above-mentioned circumstances, and aims to provide a machine learning execution program, a dry eye test program, a machine learning execution device, and a dry eye test device that can predict the results of a test related to dry eye symptoms without actually conducting the test.

本発明の一態様は、学習用被検体の目を照らしている光よりも色温度が低い光で前記学習用被検体の目が照らされていると仮定した場合における前記学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを取得する教師データ取得機能と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、をコンピュータに実行させる機械学習実行プログラムである。 One aspect of the present invention is a machine learning execution program that causes a computer to execute a teacher data acquisition function that acquires teacher data in which the problem is training image data showing a training image depicting the eyes of a training subject when the eyes of the training subject are assumed to be illuminated with light having a lower color temperature than the light illuminating the eyes of the training subject, and the answer is training test result data showing the results of a test to examine the thickness of the tear lipid layer in the eyes of the training subject, and a machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program.

本発明の一態様は、上述した機械学習実行プログラムであって、前記教師データ取得機能が、前記学習用画像から前記学習用被検体の目の角膜の少なくとも一部を描出している領域を切り出した学習用角膜画像を示す学習用角膜画像データを問題とする前記教師データを取得する。 One aspect of the present invention is the machine learning execution program described above, in which the training data acquisition function acquires the training data in question from training corneal image data showing a training corneal image obtained by cutting out an area depicting at least a portion of the cornea of the eye of the training subject from the training image.

本発明の一態様は、推論用被検体の目を照らしている光よりも色温度が低い光で前記推論用被検体の目が照らされていると仮定した場合における前記推論用被検体の目を描出している推論用画像を示す推論用画像データを取得するデータ取得機能と、学習用被検体の目を照らしている光よりも色温度が低い光で前記学習用被検体の目が照らされていると仮定した場合における前記学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、をコンピュータに実現させるドライアイ検査プログラムである。 One aspect of the present invention is a dry eye testing program that implements in a computer a data acquisition function for acquiring inference image data showing an inference image depicting the eyes of the inference subject when it is assumed that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the inference subject, and a symptom estimation function for inputting the inference image data into a machine learning program trained using teacher data in which training image data showing training images depicting the eyes of the inference subject when it is assumed that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the training subject is used as a question and training test result data showing the results of a test to examine the thickness of the tear lipid layer in the eyes of the training subject is used as an answer, causing the machine learning program to estimate the symptoms of dry eye appearing in the eyes of the inference subject, and causing the machine learning program to output symptom data showing the symptoms of dry eye appearing in the eyes of the inference subject.

本発明の一態様は、上述したドライアイ検査プログラムであって、前記データ取得機能が、記推論用画像から前記推論用被検体の目の角膜の少なくとも一部を描出している領域を切り出した推論用角膜画像を示す推論用角膜画像データを更に取得し、前記症状推定機能が、記学習用画像から前記学習用被検体の目の角膜の少なくとも一部を描出している領域を切り出した学習用角膜画像を示す学習用角膜画像データを問題とする教師データを使用して学習した前記機械学習プログラムに前記推論用角膜画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させる。 One aspect of the present invention is the dry eye testing program described above, in which the data acquisition function further acquires inference corneal image data indicating an inference corneal image obtained by cutting out an area depicting at least a portion of the cornea of the eye of the inference subject from the inference image, and the symptom estimation function inputs the inference corneal image data to the machine learning program that has been trained using teacher data that targets the training corneal image data indicating a training corneal image obtained by cutting out an area depicting at least a portion of the cornea of the eye of the training subject from the training image, and causes the machine learning program to estimate the dry eye symptoms appearing in the eye of the inference subject.

本発明の一態様は、学習用被検体の目を照らしている光よりも色温度が低い光で前記学習用被検体の目が照らされていると仮定した場合における前記学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを取得する教師データ取得部と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、を備える機械学習実行装置である。 One aspect of the present invention is a machine learning execution device that includes a training data acquisition unit that acquires training data in which training image data showing training images depicting the eyes of a training subject when the eyes of the training subject are assumed to be illuminated with light having a lower color temperature than the light illuminating the eyes of the training subject is used as a problem, and training test result data showing the results of a test to examine the thickness of the tear lipid layer in the eyes of the training subject is used as an answer, and a machine learning execution unit that inputs the training data into a machine learning program and trains the machine learning program.

本発明の一態様は、推論用被検体の目を照らしている光よりも色温度が低い光で前記推論用被検体の目が照らされていると仮定した場合における前記推論用被検体の目を描出している推論用画像を示す推論用画像データを取得するデータ取得部と、学習用被検体の目を照らしている光よりも色温度が低い光で前記学習用被検体の目が照らされていると仮定した場合における前記学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、をコンピュータに実現させるドライアイ検査装置である。 One aspect of the present invention is a dry eye testing device that implements in a computer a data acquisition unit that acquires inference image data showing an inference image depicting the eyes of the inference subject when it is assumed that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the inference subject, and a symptom estimation unit that inputs the inference image data into a machine learning program that has been trained using teacher data in which training image data showing training images depicting the eyes of the training subject when it is assumed that the eyes of the training subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the training subject is used as a problem and training test result data showing the results of a test to examine the thickness of the tear lipid layer in the eyes of the training subject is used as an answer, causes the machine learning program to estimate the symptoms of dry eye that are present in the eyes of the inference subject, and causes the machine learning program to output symptom data showing the symptoms of dry eye that are present in the eyes of the inference subject.

本発明の一態様は、学習用被検体の目の角膜の少なくとも一部を描出している学習用角膜画像を示す学習用角膜画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを取得する教師データ取得機能と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、をコンピュータに実行させる機械学習実行プログラムである。 One aspect of the present invention is a machine learning execution program that causes a computer to execute a teacher data acquisition function that acquires teacher data in which training corneal image data showing a training corneal image depicting at least a portion of the cornea of the eye of a training subject is used as a question and training test result data showing the results of a test to examine the thickness of the tear lipid layer of the eye of the training subject is used as an answer, and a machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program.

本発明の一態様は、推論用被検体の目の角膜の少なくとも一部を描出している推論用角膜画像を示す推論用角膜画像データを取得するデータ取得機能と、学習用被検体の目の角膜の少なくとも一部を描出している学習用角膜画像を示す学習用角膜画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用角膜画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、をコンピュータに実現させるドライアイ検査プログラムである。 One aspect of the present invention is a dry eye testing program that implements in a computer a data acquisition function for acquiring corneal image data for inference that shows a corneal image for inference depicting at least a portion of the cornea of the eye of a subject for inference, and a symptom estimation function for inputting the corneal image data for inference into a machine learning program trained using teacher data in which the corneal image data for inference that shows a corneal image for inference depicting at least a portion of the cornea of the eye of a subject for inference is used as a question and the test result data for inference that shows the results of a test to examine the thickness of the tear lipid layer in the eye of the subject for inference is used as an answer, causing the machine learning program to estimate the symptoms of dry eye that are present in the eye of the subject for inference, and causing the machine learning program to output symptom data that shows the symptoms of dry eye that are present in the eye of the subject for inference.

本発明の一態様は、学習用被検体の目の角膜の少なくとも一部を描出している学習用角膜画像を示す学習用角膜画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを取得する教師データ取得部と、前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、を備える機械学習実行装置である。 One aspect of the present invention is a machine learning execution device that includes a training data acquisition unit that acquires training data in which training corneal image data showing a training corneal image depicting at least a portion of the cornea of the eye of a training subject is used as a problem and training test result data showing the results of a test to examine the thickness of the tear lipid layer of the eye of the training subject is used as an answer, and a machine learning execution unit that inputs the training data into a machine learning program and trains the machine learning program.

本発明の一態様は、推論用被検体の目の角膜の少なくとも一部を描出している推論用角膜画像を示す推論用角膜画像データを取得するデータ取得部と、学習用被検体の目の角膜の少なくとも一部を描出している学習用角膜画像を示す学習用角膜画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用角膜画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、を備えるドライアイ検査装置である。 One aspect of the present invention is a dry eye testing device that includes a data acquisition unit that acquires corneal image data for inference that shows a corneal image for inference depicting at least a part of the cornea of the eye of an inference subject, and a symptom estimation unit that inputs the corneal image data for inference into a machine learning program that has been trained using teacher data in which the corneal image data for inference that shows a corneal image for inference depicting at least a part of the cornea of the eye of a learning subject is used as a question and the learning test result data that shows the result of a test to examine the thickness of the tear lipid layer of the eye of the learning subject is used as an answer, causes the machine learning program to estimate the symptoms of dry eye that are present in the eye of the inference subject, and causes the machine learning program to output symptom data that shows the symptoms of dry eye that are present in the eye of the inference subject.

本発明によれば、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。 The present invention makes it possible to predict the results of a test for dry eye symptoms without actually conducting the test.

第一実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a machine learning execution device according to the first embodiment. 第一実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a software configuration of a machine learning execution program according to the first embodiment. 第一実施形態に係る機械学習プログラムが涙液油層の厚みに関する検査の結果を予測する際に学習用被検体の目の画像のうち重点的に考慮した部分の一例を示す図である。A figure showing an example of a part of an image of the eye of a learning subject that is given priority when the machine learning program of the first embodiment predicts the results of a test regarding the thickness of the tear lipid layer. 第一実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of processing executed by a machine learning execution program according to the first embodiment. 第一実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of a dry eye test apparatus according to a first embodiment. 第一実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。FIG. 4 is a diagram showing an example of a software configuration of a dry eye test program according to the first embodiment. 第一実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。5 is a flowchart showing an example of processing executed by a dry eye test program according to the first embodiment. 第二実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。FIG. 11 is a diagram illustrating an example of a hardware configuration of a machine learning execution device according to a second embodiment. 第二実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。A figure showing an example of the software configuration of a machine learning execution program according to the second embodiment. 第二実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。11 is a flowchart illustrating an example of processing executed by a machine learning execution program according to the second embodiment. 第二実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。FIG. 11 is a diagram illustrating an example of a hardware configuration of a dry eye test apparatus according to a second embodiment. 第二実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。FIG. 11 is a diagram showing an example of a software configuration of a dry eye test program according to the second embodiment. 第二実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。13 is a flowchart showing an example of processing executed by a dry eye test program according to the second embodiment.

[第一実施形態]
まず、図1から図4を参照しながら第一実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法の具体例について説明する。
[First embodiment]
First, specific examples of a machine learning execution program, a machine learning execution device, and a machine learning execution method according to the first embodiment will be described with reference to FIGS. 1 to 4.

図1は、第一実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。図1に示した機械学習実行装置10aは、後述する機械学習装置700aの学習フェーズにおいて機械学習装置700aに機械学習を実行させる装置である。また、図1に示すように、機械学習実行装置10aは、プロセッサ11aと、主記憶装置12aと、通信インターフェース13aと、補助記憶装置14aと、入出力装置15aと、バス16aとを備える。 Figure 1 is a diagram showing an example of the hardware configuration of a machine learning execution device according to the first embodiment. The machine learning execution device 10a shown in Figure 1 is a device that causes the machine learning device 700a to execute machine learning in the learning phase of the machine learning device 700a, which will be described later. As shown in Figure 1, the machine learning execution device 10a also includes a processor 11a, a main memory device 12a, a communication interface 13a, an auxiliary memory device 14a, an input/output device 15a, and a bus 16a.

プロセッサ11aは、例えば、CPU(Central Processing Unit)であり、後述する機械学習実行プログラム100aを読み出して実行し、機械学習実行プログラム100aが有する各機能を実現させる。また、プロセッサ11aは、機械学習実行プログラム100a以外のプログラムを読み出して実行し、機械学習実行プログラム100aが有する各機能を実現させる上で必要な機能を実現させてもよい。 The processor 11a is, for example, a CPU (Central Processing Unit), and reads and executes the machine learning execution program 100a described below to realize each function of the machine learning execution program 100a. The processor 11a may also read and execute programs other than the machine learning execution program 100a to realize functions necessary to realize each function of the machine learning execution program 100a.

主記憶装置12aは、例えば、RAM(Random Access Memory)であり、プロセッサ11aにより読み出されて実行される機械学習実行プログラム100aその他プログラムを予め記憶している。 The main memory device 12a is, for example, a RAM (Random Access Memory), and pre-stores the machine learning execution program 100a and other programs that are read and executed by the processor 11a.

通信インターフェース13aは、図1に示したネットワークNWを介して、機械学習装置700aその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN(Local Area Network)、イントラネットである。 The communication interface 13a is an interface circuit for communicating with the machine learning device 700a and other devices via the network NW shown in FIG. 1. The network NW is, for example, a LAN (Local Area Network) or an intranet.

補助記憶装置14aは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、フラッシュメモリ(Flash Memory)、ROM(Read Only Memory)である。 The auxiliary storage device 14a is, for example, a hard disk drive (HDD), a solid state drive (SSD), a flash memory, or a read only memory (ROM).

入出力装置15aは、例えば、入出力ポート(Input/Output Port)である。入出力装置15aは、例えば、図1に示したキーボード811a、マウス812a、ディスプレイ910aが接続される。キーボード811a及びマウス812aは、例えば、機械学習実行装置10aを操作するために必要なデータを入力する作業に使用される。ディスプレイ910aは、例えば、機械学習実行装置10aのグラフィカルユーザインターフェース(GUI:Graphical User Interface)を表示する。 The input/output device 15a is, for example, an input/output port (Input/Output Port). For example, the keyboard 811a, mouse 812a, and display 910a shown in FIG. 1 are connected to the input/output device 15a. The keyboard 811a and mouse 812a are used, for example, to input data required to operate the machine learning execution device 10a. The display 910a displays, for example, a graphical user interface (GUI) of the machine learning execution device 10a.

バス16aは、プロセッサ11a、主記憶装置12a、通信インターフェース13a、補助記憶装置14a及び入出力装置15aを互いにデータの送受信が可能なように接続している。 The bus 16a connects the processor 11a, the main memory device 12a, the communication interface 13a, the auxiliary memory device 14a, and the input/output device 15a so that they can send and receive data to each other.

図2は、第一実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。機械学習実行装置10aは、プロセッサ11aを使用して機械学習実行プログラム100aを読み出して実行し、図2に示した教師データ取得機能101a及び機械学習実行機能102aを実現させる。 Figure 2 is a diagram showing an example of the software configuration of a machine learning execution program according to the first embodiment. The machine learning execution device 10a reads and executes the machine learning execution program 100a using the processor 11a, and realizes the teacher data acquisition function 101a and the machine learning execution function 102a shown in Figure 2.

教師データ取得機能101aは、一つの学習用画像データを問題とし、一つの学習用検査結果データを答えとする教師データを取得する。 The teacher data acquisition function 101a acquires teacher data that uses one learning image data as the question and one learning test result data as the answer.

学習用画像データは、学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の目を描出している学習用画像を示すデータである。このような学習用画像は、例えば、実際には色温度4000Kを有する光で照らされている学習用被検体の目を描出している画像のホワイトバランスを調整することにより生成され、色温度3000Kを有する光で照らされている当該目を擬似的に描出している画像である。また、学習用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The learning image data is data showing a learning image depicting the eyes of a learning subject when the eyes of the learning subject are assumed to be illuminated with light having a lower color temperature than the light illuminating the eyes of the learning subject. Such a learning image is generated, for example, by adjusting the white balance of an image depicting the eyes of a learning subject that is actually illuminated with light having a color temperature of 4000 K, and is an image that simulates the eyes being illuminated with light having a color temperature of 3000 K. In addition, the learning image is captured, for example, using a camera mounted on a smartphone.

学習用検査結果データは、教師データの答えの一部を構成しており、ドライアイの症状に関する検査の結果を示すデータである。このような検査の結果としては、例えば、光干渉計を使用して涙液油層の厚みを評価する検査に基づいて涙液油層の厚みを表している0以上1以下の数値が挙げられる。 The learning test result data constitutes part of the answers to the training data, and is data showing the results of tests related to dry eye symptoms. Such test results include, for example, a numerical value between 0 and 1 that represents the thickness of the tear lipid layer based on a test that uses an optical interferometer to evaluate the thickness of the tear lipid layer.

この数値は、0以上0.5未満である場合、光干渉計を使用して評価された涙液油層の厚みが75μm未満であるため、学習用被検体の目が正常であり、眼科医による診察が不要であることを表している。また、この数値は、0.5以上1以下である場合、光干渉計を使用して評価された涙液油層の厚みが75μm以上であるため、学習用被検体の目が異常であり、眼科医による診察が必要であることを表している。 If this value is greater than or equal to 0 and less than 0.5, the tear lipid layer thickness evaluated using the optical interferometer is less than 75 μm, indicating that the study subject's eyes are normal and no examination by an ophthalmologist is necessary. If this value is greater than or equal to 0.5 and less than or equal to 1, the tear lipid layer thickness evaluated using the optical interferometer is 75 μm or more, indicating that the study subject's eyes are abnormal and no examination by an ophthalmologist is necessary.

例えば、教師データ取得機能101aは、1280個の教師データを取得する。この場合、1280個の学習用画像データは、それぞれ8名の学習用被検体の2つの目それぞれをスマートフォンに搭載されているカメラを使用して20回撮影する処理を4セット実施することにより取得された1280枚の学習用画像を示している。また、この場合、1280個の学習用検査結果データは、それぞれ光干渉計を使用して評価された涙液油層の厚みを示す0以上1以下の数値1280個を示している。 For example, the teacher data acquisition function 101a acquires 1280 pieces of teacher data. In this case, the 1280 pieces of training image data represent 1280 training images acquired by performing 4 sets of processing in which each of the two eyes of eight training subjects is photographed 20 times using a camera mounted on a smartphone. Also, in this case, the 1280 pieces of training test result data represent 1280 numerical values between 0 and 1 indicating the thickness of the tear lipid layer evaluated using an optical interferometer.

なお、以下の説明では、1280個の学習用検査結果データが、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している600個の学習用検査結果データと、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している680個の学習用検査結果データとを含んでいる場合を例に挙げて説明する。 In the following explanation, an example will be given in which the 1,280 pieces of learning test result data include 600 pieces of learning test result data showing a value between 0 and less than 0.5, indicating that the learning subject's eyes are normal, and 680 pieces of learning test result data showing a value between 0.5 and 1, indicating that the learning subject's eyes are abnormal.

機械学習実行機能102aは、機械学習装置700aに実装されている機械学習プログラム750aに教師データを入力し、機械学習プログラム750aを学習させる。例えば、機械学習実行機能102aは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を含んでいる機械学習プログラム750aをバックプロパゲーション(Backpropagation)により学習させる。 The machine learning execution function 102a inputs training data into the machine learning program 750a implemented in the machine learning device 700a, and trains the machine learning program 750a. For example, the machine learning execution function 102a trains the machine learning program 750a, which includes a convolutional neural network (CNN), by backpropagation.

例えば、機械学習実行機能102aは、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している学習用検査結果データを含んでいる520個の教師データを機械学習プログラム750aに入力する。この520個の教師データは、上述した8名の中から選択された7名から取得された教師データである。 For example, the machine learning execution function 102a inputs 520 pieces of training data, including training test result data showing values between 0 and less than 0.5, indicating that the eyes of the training subject are normal, into the machine learning program 750a. These 520 pieces of training data are training data obtained from seven people selected from the eight people mentioned above.

また、例えば、機械学習実行機能102aは、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している学習用検査結果データを含んでいる600個の教師データを機械学習プログラム750aに入力する。この600個の教師データは、上述した8名の中から選択された7名から取得された教師データである。 Also, for example, the machine learning execution function 102a inputs 600 pieces of training data, including training test result data showing a numerical value between 0.5 and 1, indicating that the training subject's eyes are abnormal, into the machine learning program 750a. These 600 pieces of training data are training data obtained from seven people selected from the eight people described above.

そして、機械学習実行機能102aは、これら1120個の教師データにより機械学習プログラム750aを学習させる。 Then, the machine learning execution function 102a trains the machine learning program 750a using these 1,120 pieces of training data.

また、例えば、機械学習実行機能102aは、学習用被検体の目が正常であることを表しており、機械学習プログラム750aの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750aに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。 Also, for example, the machine learning execution function 102a may represent that the eyes of the training subject are normal, and 80 pieces of training data that were not used in the training of the machine learning program 750a may be input to the machine learning program 750a as test data. These 80 pieces of training data are training data obtained from one person who was not selected as one of the seven people mentioned above.

また、例えば、機械学習実行機能102aは、学習用被検体の目が異常であることを表しており、機械学習プログラム750aの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750aに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。 Also, for example, the machine learning execution function 102a may indicate that the eyes of the training subject are abnormal, and 80 pieces of training data that were not used in the training of the machine learning program 750a may be input to the machine learning program 750a as test data. These 80 pieces of training data are training data obtained from one person who was not selected as one of the seven people mentioned above.

これにより、機械学習実行機能102aは、上述した1080個の教師データにより機械学習プログラム750aを学習させることにより得られた機械学習プログラム750aの特性を評価してもよい。 As a result, the machine learning execution function 102a may evaluate the characteristics of the machine learning program 750a obtained by training the machine learning program 750a using the above-mentioned 1,080 pieces of teacher data.

なお、機械学習実行機能102aは、テストデータを使用して機械学習プログラム750aの特性を評価する際に、例えば、クラス活性化マッピング(CAM:Class Activation Mapping)を使用してもよい。クラス活性化マッピングは、ニューラルネットワークに入力されたデータのうちニューラルネットワークにより出力された結果の根拠となった部分を明らかにする技術である。クラス活性化マッピングとしては、例えば、勾配加重クラス活性化マッピングが挙げられる。勾配加重クラス活性化マッピングは、畳み込みニューラルネットワークにより実行される畳み込みの特徴に関する分類スコアの勾配を利用し、畳み込みニューラルネットワークに入力された画像のうち分類に一定以上の影響を与えた領域を特定する技術である。 The machine learning execution function 102a may use, for example, class activation mapping (CAM) when using test data to evaluate the characteristics of the machine learning program 750a. Class activation mapping is a technique that clarifies the part of the data input to a neural network that is the basis for the results output by the neural network. An example of class activation mapping is gradient-weighted class activation mapping. Gradient-weighted class activation mapping is a technique that uses the gradient of the classification score related to the features of the convolution executed by the convolutional neural network to identify areas of the image input to the convolutional neural network that have had a certain degree of influence on the classification.

図3は、第一実施形態に係る機械学習プログラムが涙液油層の厚みに関する検査の結果を予測する際に学習用被検体の目の画像のうち重点的に考慮した部分の一例を示す図である。例えば、機械学習実行機能102aは、勾配加重クラス活性化マッピングを使用して図3に示した学習用画像のうち図3に示した楕円Cで囲まれている領域が機械学習プログラム750aによる涙液油層の厚みに関する検査の結果の予測に一定以上の影響を与えていると評価する。また、図3に示した楕円Cで囲まれている領域に含まれている三段階のグレースケールは、涙液油層の厚みに関する検査の結果の予測に影響を与えた度合いを示しており、学習用被検体の目の角膜の下瞼に近い部分を描出している領域の上に重ねて表示されている。さらに、このグレースケールは、学習用被検体の目の角膜のうち下瞼側の約半分の上に重なっている。 3 is a diagram showing an example of a portion of the image of the eye of the training subject that is considered intensively when the machine learning program according to the first embodiment predicts the results of the test on the thickness of the tear film lipid layer. For example, the machine learning execution function 102a uses gradient-weighted class activation mapping to evaluate that the area surrounded by the ellipse C in FIG. 3 in the training image shown in FIG. 3 has a certain degree of influence on the prediction of the results of the test on the thickness of the tear film lipid layer by the machine learning program 750a. In addition, the three-level grayscale included in the area surrounded by the ellipse C in FIG. 3 indicates the degree of influence on the prediction of the results of the test on the thickness of the tear film lipid layer, and is displayed superimposed on the area depicting the part of the cornea of the training subject's eye close to the lower eyelid. Furthermore, this grayscale is superimposed on approximately half of the cornea of the training subject's eye on the lower eyelid side.

次に、図4を参照しながら第一実施形態に係る機械学習実行プログラム100aが実行する処理の一例を説明する。図4は、第一実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。機械学習実行プログラム100aは、図4に示した処理を少なくとも一回実行する。 Next, an example of processing executed by the machine learning execution program 100a according to the first embodiment will be described with reference to FIG. 4. FIG. 4 is a flowchart showing an example of processing executed by the machine learning execution program according to the first embodiment. The machine learning execution program 100a executes the processing shown in FIG. 4 at least once.

ステップS11において、教師データ取得機能101aは、学習用画像データを問題とし、学習用検査結果データとを答えとする教師データを取得する。 In step S11, the teacher data acquisition function 101a acquires teacher data in which the learning image data is the question and the learning test result data is the answer.

ステップS12において、機械学習実行機能102aは、教師データを機械学習プログラム750aに入力し、機械学習プログラム750aを学習させる。 In step S12, the machine learning execution function 102a inputs the training data into the machine learning program 750a and causes the machine learning program 750a to learn.

次に、図5から図7を参照しながら第一実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法の具体例について説明する。 Next, specific examples of the dry eye test program, dry eye test device, and dry eye test method according to the first embodiment will be described with reference to Figures 5 to 7.

図5は、第一実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。図5に示したドライアイ検査装置20aは、機械学習実行プログラム100aにより学習済みの機械学習装置700aの推論フェーズにおいて機械学習装置700aを使用して推論用被検体の目に現れているドライアイの症状を推定させる装置である。また、図5に示すように、ドライアイ検査装置20aは、プロセッサ21aと、主記憶装置22aと、通信インターフェース23aと、補助記憶装置24aと、入出力装置25aと、バス26aとを備える。 Figure 5 is a diagram showing an example of the hardware configuration of a dry eye test device according to the first embodiment. The dry eye test device 20a shown in Figure 5 is a device that estimates dry eye symptoms appearing in the eye of an inference subject using a machine learning device 700a in the inference phase of the machine learning device 700a that has been trained by a machine learning execution program 100a. As shown in Figure 5, the dry eye test device 20a also includes a processor 21a, a main memory device 22a, a communication interface 23a, an auxiliary memory device 24a, an input/output device 25a, and a bus 26a.

プロセッサ21aは、例えば、CPUであり、後述するドライアイ検査プログラム200aを読み出して実行し、ドライアイ検査プログラム200aが有する各機能を実現させる。また、プロセッサ21aは、ドライアイ検査プログラム200a以外のプログラムを読み出して実行し、ドライアイ検査プログラム200aが有する各機能を実現させる上で必要な機能を実現させてもよい。 The processor 21a is, for example, a CPU, and reads and executes the dry eye test program 200a described below to realize each function of the dry eye test program 200a. The processor 21a may also read and execute a program other than the dry eye test program 200a to realize functions necessary to realize each function of the dry eye test program 200a.

主記憶装置22aは、例えば、RAMであり、プロセッサ21aにより読み出されて実行されるドライアイ検査プログラム200aその他プログラムを予め記憶している。 The main memory device 22a is, for example, a RAM, and prestores the dry eye test program 200a and other programs that are read and executed by the processor 21a.

通信インターフェース23aは、図5に示したネットワークNWを介して、機械学習装置700aその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。 The communication interface 23a is an interface circuit for communicating with the machine learning device 700a and other devices via the network NW shown in FIG. 5. The network NW is, for example, a LAN or an intranet.

補助記憶装置24aは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。 The auxiliary storage device 24a is, for example, a hard disk drive, a solid state drive, a flash memory, or a ROM.

入出力装置25aは、例えば、入出力ポートである。入出力装置25aは、例えば、図5に示したキーボード821a、マウス822a、ディスプレイ920aが接続される。キーボード821a及びマウス822aは、例えば、ドライアイ検査装置20aを操作するために必要なデータを入力する作業に使用される。ディスプレイ920aは、例えば、ドライアイ検査装置20aのグラフィカルユーザインターフェースを表示する。 The input/output device 25a is, for example, an input/output port. For example, the keyboard 821a, mouse 822a, and display 920a shown in FIG. 5 are connected to the input/output device 25a. The keyboard 821a and mouse 822a are used, for example, to input data required to operate the dry eye test device 20a. The display 920a displays, for example, a graphical user interface of the dry eye test device 20a.

バス26aは、プロセッサ21a、主記憶装置22a、通信インターフェース23a、補助記憶装置24a及び入出力装置25aを互いにデータの送受信が可能なように接続している。 The bus 26a connects the processor 21a, the main memory device 22a, the communication interface 23a, the auxiliary memory device 24a, and the input/output device 25a so that data can be sent and received among them.

図6は、第一実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。ドライアイ検査装置20aは、プロセッサ21aを使用してドライアイ検査プログラム200aを読み出して実行し、図6に示したデータ取得機能201a及び症状推定機能202aを実現させる。 Figure 6 is a diagram showing an example of the software configuration of a dry eye test program according to the first embodiment. The dry eye test device 20a reads and executes the dry eye test program 200a using the processor 21a, and realizes the data acquisition function 201a and the symptom estimation function 202a shown in Figure 6.

データ取得機能201aは、推論用画像データを取得する。推論用画像データは、推論用被検体の目を照らしている光よりも色温度が低い光で推論用被検体の目が照らされていると仮定した場合における推論用被検体の目を描出している推論用画像を示すデータである。このような推論用画像は、例えば、実際には色温度4000Kを有する光で照らされている推論用被検体の目を描出している画像のホワイトバランスを調整することにより生成され、色温度3000Kを有する光で照らされている当該目を擬似的に描出している画像である。また、推論用画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 The data acquisition function 201a acquires image data for inference. The image data for inference is data showing an image for inference depicting the eyes of the subject for inference when it is assumed that the eyes of the subject for inference are illuminated with light having a lower color temperature than the light illuminating the eyes of the subject for inference. Such an image for inference is generated, for example, by adjusting the white balance of an image depicting the eyes of the subject for inference that are actually illuminated with light having a color temperature of 4000 K, and is an image that simulates the eyes illuminated with light having a color temperature of 3000 K. The image for inference is also captured, for example, using a camera mounted on a smartphone.

症状推定機能202aは、機械学習実行機能102aにより学習済みの機械学習プログラム750aに推論用画像データを入力し、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を推定させる。例えば、症状推定機能202aは、機械学習プログラム750aに推論用画像データを入力し、推論用被検体の目の涙液油層の厚みを表す数値を推定させる。 The symptom estimation function 202a inputs image data for inference to the machine learning program 750a that has been trained by the machine learning execution function 102a, and causes the machine learning program 750a to estimate the symptoms of dry eye appearing in the eye of the subject for inference. For example, the symptom estimation function 202a inputs image data for inference to the machine learning program 750a, and causes the program to estimate a numerical value representing the thickness of the tear lipid layer in the eye of the subject for inference.

そして、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。例えば、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目の涙液油層の厚みを表す数値を示す症状データを出力させる。この場合、症状データは、例えば、自身が示しており、推論用被検体の目の涙液油層の厚みを表す数値をディスプレイ920aに表示するために使用される。 The symptom estimation function 202a then causes the machine learning program 750a to output symptom data indicating the symptoms of dry eye appearing in the eye of the subject to be inferred. For example, the symptom estimation function 202a causes the machine learning program 750a to output symptom data indicating a numerical value indicating the thickness of the tear lipid layer in the eye of the subject to be inferred. In this case, the symptom data is, for example, indicated by the function itself, and is used to display a numerical value indicating the thickness of the tear lipid layer in the eye of the subject to be inferred on the display 920a.

次に、図7を参照しながら第一実施形態に係るドライアイ検査プログラム200aが実行する処理の一例を説明する。図7は、第一実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。 Next, an example of processing executed by the dry eye test program 200a according to the first embodiment will be described with reference to FIG. 7. FIG. 7 is a flowchart showing an example of processing executed by the dry eye test program according to the first embodiment.

ステップS21において、データ取得機能201aは、推論用画像データを取得する。 In step S21, the data acquisition function 201a acquires image data for inference.

ステップS22において、症状推定機能202aは、学習済みの機械学習プログラム750aに、推論用画像データを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。 In step S22, the symptom estimation function 202a inputs the inference image data to the trained machine learning program 750a, estimates the symptoms of dry eye appearing in the eyes of the inference subject, and causes the machine learning program 750a to output symptom data indicating the symptoms of dry eye appearing in the eyes of the inference subject.

以上、第一実施形態に係る機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置、ドライアイ検査装置、機械学習実行方法及びドライアイ検査方法について説明した。 The above describes the machine learning execution program, dry eye test program, machine learning execution device, dry eye test device, machine learning execution method, and dry eye test method according to the first embodiment.

機械学習実行プログラム100aは、教師データ取得機能101aと、機械学習実行機能102aとを備える。 The machine learning execution program 100a includes a teacher data acquisition function 101a and a machine learning execution function 102a.

教師データ取得機能101aは、学習用画像データを問題とし、学習用検査結果データを答えとする教師データを取得する。学習用画像データは、学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の目を描出している学習用画像を示すデータである。学習用検査結果データは、学習用被検体の目の涙液油層の厚みを調べる検査の結果を示すデータである。 The teacher data acquisition function 101a acquires teacher data in which the training image data is the question and the training test result data is the answer. The training image data is data showing a training image depicting the training subject's eyes when it is assumed that the training subject's eyes are illuminated with light having a lower color temperature than the light illuminating the training subject's eyes. The training test result data is data showing the results of a test to examine the thickness of the tear lipid layer in the training subject's eyes.

機械学習実行機能102aは、教師データを機械学習プログラム750aに入力し、機械学習プログラム750aを学習させる。 The machine learning execution function 102a inputs the training data into the machine learning program 750a and causes the machine learning program 750a to learn.

これにより、機械学習実行プログラム100aは、学習用画像データに基づいてドライアイの症状に関する検査の結果を予測する機械学習プログラム750aを生成することができる。 This allows the machine learning execution program 100a to generate a machine learning program 750a that predicts the results of a test regarding dry eye symptoms based on the learning image data.

ドライアイ検査プログラム200aは、データ取得機能201aと、症状推定機能202aとを備える。 The dry eye test program 200a includes a data acquisition function 201a and a symptom estimation function 202a.

データ取得機能201aは、推論用画像データを取得する。推論用画像データは、推論用被検体の目を照らしている光よりも色温度が低い光で推論用被検体の目が照らされていると仮定した場合における推論用被検体の目を描出している推論用画像を示すデータである。 The data acquisition function 201a acquires image data for inference. The image data for inference is data showing an image for inference depicting the eyes of the subject for inference when it is assumed that the eyes of the subject for inference are illuminated with light having a lower color temperature than the light illuminating the eyes of the subject for inference.

症状推定機能202aは、機械学習実行プログラム100aにより学習済みの機械学習プログラム750aに推論用画像データを入力し、推論用被検体の目に現れているドライアイの症状を推定させる。そして、症状推定機能202aは、機械学習プログラム750aに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。 The symptom estimation function 202a inputs image data for inference to the machine learning program 750a that has been trained by the machine learning execution program 100a, and estimates the symptoms of dry eye appearing in the eyes of the subject for inference. The symptom estimation function 202a then causes the machine learning program 750a to output symptom data indicating the symptoms of dry eye appearing in the eyes of the subject for inference.

これにより、ドライアイ検査プログラム200aは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。 This allows the dry eye test program 200a to predict the results of a test regarding dry eye symptoms without actually conducting the test.

次に、機械学習プログラム750aを実際に学習させ、ドライアイの症状を推定させた例を挙げて、機械学習実行プログラム100aにより奏される効果の具体例を比較例と第一実施形態に係る実施例とを対比させて説明する。 Next, we will provide an example in which the machine learning program 750a was actually trained to estimate symptoms of dry eye, and explain specific examples of the effects achieved by the machine learning execution program 100a by comparing a comparative example with an example according to the first embodiment.

この場合の比較例では、学習用画像データではなく、学習用被検体の目を照らしている光と色温度が等しい光で学習用被検体の目が照らされている場合における学習用被検体の目を描出している画像を示す画像データが教師データに含まれる問題となる。また、この場合の比較例では、上述した学習用被検体の目が正常であることを表している520個の教師データ及び学習用被検体の目が異常であることを表している600個の教師データを使用して機械学習プログラムを学習させた例である。 In this comparative example, the problem is that the training data contains not training image data, but image data showing an image depicting the training subject's eyes when the training subject's eyes are illuminated with light having the same color temperature as the light illuminating the training subject's eyes. Also, in this comparative example, a machine learning program is trained using 520 pieces of training data representing that the training subject's eyes are normal and 600 pieces of training data representing that the training subject's eyes are abnormal.

このように学習した機械学習プログラムは、上述した画像データを含んでおり、学習用被検体の目が正常であることを表している80個のテストデータ及び上述した画像データを含んでおり、学習用被検体の目が異常であることを表している80個のテストデータを使用して特性を評価すると、予測精度50%及び偽陰性率50%を示した。 The machine learning program trained in this way showed a prediction accuracy of 50% and a false negative rate of 50% when its characteristics were evaluated using 80 test data sets that included the image data described above and indicated that the eyes of the training subjects were normal, and 80 test data sets that included the image data described above and indicated that the eyes of the training subjects were abnormal.

一方、機械学習実行プログラム100aにより学習した機械学習プログラム750aは、学習用画像データを含んでいるテストデータを使用して特性を評価すると、予測精度74%及び偽陰性率26%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。 On the other hand, when the characteristics of the machine learning program 750a trained by the machine learning execution program 100a were evaluated using test data containing learning image data, the prediction accuracy was 74% and the false negative rate was 26%. These characteristics exceed those of the machine learning program according to the comparative example.

なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.

また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.

なお、機械学習実行プログラム100aが有する機能の少なくとも一部は、回路部(circuitry)を含むハードウェアにより実現されてもよい。同様に、ドライアイ検査プログラム200aが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。また、このようなハードウェアは,例えば、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)である。 At least a part of the functions of the machine learning execution program 100a may be realized by hardware including a circuitry. Similarly, at least a part of the functions of the dry eye test program 200a may be realized by hardware including a circuitry. Examples of such hardware include a large scale integration (LSI), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), and a graphics processing unit (GPU).

また、機械学習実行プログラム100aが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。同様に、ドライアイ検査プログラム200aが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。 In addition, at least some of the functions of the machine learning execution program 100a may be realized by a combination of software and hardware. Similarly, at least some of the functions of the dry eye test program 200a may be realized by a combination of software and hardware. In addition, these pieces of hardware may be integrated into one, or may be divided into multiple pieces.

また、第一実施形態では、機械学習実行装置10aと、機械学習装置700aと、ドライアイ検査装置20aとが互いに独立した装置である場合を例に挙げて説明したが、これに限定されない。これらの装置は、一つの装置として実現されていてもよい。 In the first embodiment, the machine learning execution device 10a, the machine learning device 700a, and the dry eye test device 20a are independent devices, but this is not limiting. These devices may be realized as a single device.

[第二実施形態]
まず、図8から図10を参照しながら第二実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法の具体例について説明する。第二実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法は、第一実施形態に係る機械学習実行プログラム、機械学習実行装置及び機械学習実行方法と異なり、学習用画像データではなく、後述する学習用角膜画像データを問題として含む教師データを使用する。
[Second embodiment]
First, specific examples of a machine learning execution program, a machine learning execution device, and a machine learning execution method according to the second embodiment will be described with reference to Figures 8 to 10. Unlike the machine learning execution program, the machine learning execution device, and the machine learning execution method according to the first embodiment, the machine learning execution program, the machine learning execution device, and the machine learning execution method according to the second embodiment use teacher data including corneal image data for learning, which will be described later, as a problem, instead of image data for learning.

図8は、第二実施形態に係る機械学習実行装置のハードウェア構成の一例を示す図である。図8に示した機械学習実行装置10bは、後述する機械学習装置700bの学習フェーズにおいて機械学習装置700bに機械学習を実行させる装置である。また、図8に示すように、機械学習実行装置10bは、プロセッサ11bと、主記憶装置12bと、通信インターフェース13bと、補助記憶装置14bと、入出力装置15bと、バス16bとを備える。 Figure 8 is a diagram showing an example of the hardware configuration of a machine learning execution device according to the second embodiment. The machine learning execution device 10b shown in Figure 8 is a device that causes the machine learning device 700b to execute machine learning in the learning phase of the machine learning device 700b, which will be described later. As shown in Figure 8, the machine learning execution device 10b also includes a processor 11b, a main memory device 12b, a communication interface 13b, an auxiliary memory device 14b, an input/output device 15b, and a bus 16b.

プロセッサ11bは、例えば、CPUであり、後述する機械学習実行プログラム100bを読み出して実行し、機械学習実行プログラム100bが有する各機能を実現させる。また、プロセッサ11bは、機械学習実行プログラム100b以外のプログラムを読み出して実行し、機械学習実行プログラム100bが有する各機能を実現させる上で必要な機能を実現させてもよい。 The processor 11b is, for example, a CPU, and reads and executes the machine learning execution program 100b described below to realize each function of the machine learning execution program 100b. The processor 11b may also read and execute programs other than the machine learning execution program 100b to realize functions necessary to realize each function of the machine learning execution program 100b.

主記憶装置12bは、例えば、RAMであり、プロセッサ11bにより読み出されて実行される機械学習実行プログラム100bその他プログラムを予め記憶している。 The main memory device 12b is, for example, a RAM, and pre-stores the machine learning execution program 100b and other programs that are read and executed by the processor 11b.

通信インターフェース13bは、図8に示したネットワークNWを介して、機械学習装置700bその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。 The communication interface 13b is an interface circuit for communicating with the machine learning device 700b and other devices via the network NW shown in FIG. 8. The network NW is, for example, a LAN or an intranet.

補助記憶装置14bは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。 The auxiliary storage device 14b is, for example, a hard disk drive, a solid state drive, a flash memory, or a ROM.

入出力装置15bは、例えば、入出力ポートである。入出力装置15bは、例えば、図1に示したキーボード811b、マウス812b、ディスプレイ910bが接続される。キーボード811b及びマウス812bは、例えば、機械学習実行装置10bを操作するために必要なデータを入力する作業に使用される。ディスプレイ910bは、例えば、機械学習実行装置10bのグラフィカルユーザインターフェースを表示する。 The input/output device 15b is, for example, an input/output port. For example, the keyboard 811b, mouse 812b, and display 910b shown in FIG. 1 are connected to the input/output device 15b. The keyboard 811b and mouse 812b are used, for example, to input data necessary to operate the machine learning execution device 10b. The display 910b displays, for example, a graphical user interface of the machine learning execution device 10b.

バス16bは、プロセッサ11b、主記憶装置12b、通信インターフェース13b、補助記憶装置14b及び入出力装置15bを互いにデータの送受信が可能なように接続している。 The bus 16b connects the processor 11b, the main memory device 12b, the communication interface 13b, the auxiliary memory device 14b, and the input/output device 15b so that data can be sent and received among them.

図9は、第二実施形態に係る機械学習実行プログラムのソフトウェア構成の一例を示す図である。機械学習実行装置10bは、プロセッサ11bを使用して機械学習実行プログラム100bを読み出して実行し、図9に示した教師データ取得機能101b及び機械学習実行機能102bを実現させる。 Figure 9 is a diagram showing an example of the software configuration of a machine learning execution program according to the second embodiment. The machine learning execution device 10b reads and executes the machine learning execution program 100b using the processor 11b, and realizes the teacher data acquisition function 101b and the machine learning execution function 102b shown in Figure 9.

教師データ取得機能101bは、一つの学習用角膜画像データを問題とし、一つの学習用検査結果データを答えとする教師データを取得する。 The teacher data acquisition function 101b acquires teacher data that uses one piece of learning corneal image data as the question and one piece of learning test result data as the answer.

学習用角膜画像データは、学習用被検体の目の角膜の少なくとも一部を描出している学習用角膜画像を示すデータである。学習用角膜画像は、学習用被検体の目の角膜の少なくとも一部のみを描出している画像であってもよいし、学習用被検体の目の角膜以外の部分も描出している画像であってもよい。また、学習用角膜画像は、学習用被検体の目を描写している学習用画像から学習用被検体の目の角膜の少なくとも一部を描出している領域を切り出した画像であってもよい。 The training corneal image data is data showing a training corneal image depicting at least a portion of the cornea of the training subject's eye. The training corneal image may be an image depicting only at least a portion of the cornea of the training subject's eye, or an image depicting parts of the training subject's eye other than the cornea. The training corneal image may also be an image obtained by cutting out an area depicting at least a portion of the cornea of the training subject's eye from a training image depicting the training subject's eye.

また、学習用角膜画像は、学習用被検体の目の角膜のうち学習用被検体の上瞼に近い部分及び下瞼に近い部分の両方を描出している場合よりも学習用被検体の下瞼に近い部分のみを描出している場合の方が機械学習プログラム750bの予測精度を向上させ得る。例えば、学習用角膜画像は、学習用被検体の目の角膜のうち下瞼側の半分の部分のみを描出している場合、機械学習プログラム750bを使用したドライアイの症状の予測精度を更に向上させ得る。なお、学習用角膜画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 Furthermore, the prediction accuracy of the machine learning program 750b may be improved when the training corneal image depicts only the portion of the cornea of the training subject's eye close to the lower eyelid, rather than depicting both the portion of the cornea of the training subject's eye close to the upper eyelid and the portion close to the lower eyelid. For example, when the training corneal image depicts only the half of the cornea of the training subject's eye on the lower eyelid side, the prediction accuracy of dry eye symptoms using the machine learning program 750b may be further improved. Note that the training corneal image is captured, for example, using a camera mounted on a smartphone.

学習用検査結果データは、教師データの答えの一部を構成しており、ドライアイの症状に関する検査の結果を示すデータである。このような検査の結果としては、例えば、光干渉計を使用して涙液油層の厚みを評価する検査に基づいて涙液油層の厚みを表している0以上1以下の数値が挙げられる。 The learning test result data constitutes part of the answers to the training data, and is data showing the results of tests related to dry eye symptoms. Such test results include, for example, a numerical value between 0 and 1 that represents the thickness of the tear lipid layer based on a test that uses an optical interferometer to evaluate the thickness of the tear lipid layer.

この数値は、0以上0.5未満である場合、光干渉計を使用して評価された涙液油層の厚みが75μm未満であるため、学習用被検体の目が正常であり、眼科医による診察が不要であることを表している。また、この数値は、0.5以上1以下である場合、光干渉計を使用して評価された涙液油層の厚みが75μm以上であるため、学習用被検体の目が異常であり、眼科医による診察が必要であることを表している。 If this value is greater than or equal to 0 and less than 0.5, the tear lipid layer thickness evaluated using the optical interferometer is less than 75 μm, indicating that the study subject's eyes are normal and no examination by an ophthalmologist is necessary. If this value is greater than or equal to 0.5 and less than or equal to 1, the tear lipid layer thickness evaluated using the optical interferometer is 75 μm or more, indicating that the study subject's eyes are abnormal and no examination by an ophthalmologist is necessary.

例えば、教師データ取得機能101bは、1280個の教師データを取得する。この場合、1280個の学習用角膜画像データは、それぞれ8名の学習用被検体の2つの目それぞれをスマートフォンに搭載されているカメラを使用して20回撮影する処理を4セット実施することにより取得された1280枚の学習用画像を示している。また、この場合、1280個の学習用検査結果データは、それぞれ光干渉計を使用して評価された涙液油層の厚みを示す0以上1以下の数値1280個を示している。 For example, the teacher data acquisition function 101b acquires 1280 pieces of teacher data. In this case, the 1280 pieces of training corneal image data represent 1280 training images acquired by performing four sets of processing in which each of the two eyes of eight training subjects is photographed 20 times using a camera mounted on a smartphone. Also, in this case, the 1280 pieces of training test result data represent 1280 numerical values between 0 and 1 indicating the thickness of the tear lipid layer evaluated using an optical interferometer.

なお、以下の説明では、1280個の学習用検査結果データが、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している600個の学習用検査結果データと、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している680個の学習用検査結果データとを含んでいる場合を例に挙げて説明する。 In the following explanation, an example will be given in which the 1,280 pieces of learning test result data include 600 pieces of learning test result data showing a value between 0 and less than 0.5, indicating that the learning subject's eyes are normal, and 680 pieces of learning test result data showing a value between 0.5 and 1, indicating that the learning subject's eyes are abnormal.

機械学習実行機能102bは、機械学習装置700bに実装されている機械学習プログラム750bに教師データを入力し、機械学習プログラム750bを学習させる。例えば、機械学習実行機能102bは、畳み込みニューラルネットワークを含んでいる機械学習プログラム750bをバックプロパゲーションにより学習させる。 The machine learning execution function 102b inputs training data to the machine learning program 750b implemented in the machine learning device 700b, and trains the machine learning program 750b. For example, the machine learning execution function 102b trains the machine learning program 750b, which includes a convolutional neural network, by backpropagation.

例えば、機械学習実行機能102bは、学習用被検体の目が正常であることを表す0以上0.5未満の数値を示している学習用検査結果データを含んでいる520個の教師データを機械学習プログラム750bに入力する。この520個の教師データは、上述した8名の中から選択された7名から取得された教師データである。 For example, the machine learning execution function 102b inputs 520 pieces of training data including training test result data showing a value between 0 and less than 0.5, indicating that the eyes of the training subject are normal, into the machine learning program 750b. These 520 pieces of training data are training data obtained from seven people selected from the eight people mentioned above.

また、例えば、機械学習実行機能102bは、学習用被検体の目が異常であることを表す0.5以上1以下の数値を示している学習用検査結果データを含んでいる600個の教師データを機械学習プログラム750bに入力する。この600個の教師データは、上述した8名の中から選択された7名から取得された教師データである。 Also, for example, the machine learning execution function 102b inputs 600 pieces of training data, including training test result data showing a numerical value between 0.5 and 1, indicating that the training subject's eyes are abnormal, into the machine learning program 750b. These 600 pieces of training data are training data obtained from seven people selected from the eight people described above.

そして、機械学習実行機能102bは、これら1120個の教師データにより機械学習プログラム750bを学習させる。 Then, the machine learning execution function 102b trains the machine learning program 750b using these 1,120 pieces of training data.

また、機械学習実行機能102bは、学習用被検体の目の角膜のうち学習用被検体の下瞼に近い部分を描出している学習用角膜画像を示す学習用角膜画像データを含んでいる教師データである程、機械学習プログラムに優先的に入力してもよい。これは、上述した通り、学習用角膜画像が学習用被検体の目の角膜のうち学習用被検体の上瞼に近い部分及び下瞼に近い部分の両方を描出している場合よりも学習用被検体の下瞼に近い部分のみを描出している場合の方が機械学習プログラム750bの予測精度を向上させ得るからである。 The machine learning execution function 102b may also preferentially input to the machine learning program training data that includes training corneal image data showing a training corneal image depicting a portion of the cornea of the training subject's eye that is closer to the training subject's lower eyelid. This is because, as described above, the prediction accuracy of the machine learning program 750b can be improved when the training corneal image depicts only a portion of the cornea of the training subject that is closer to the lower eyelid than when the training corneal image depicts both a portion of the cornea of the training subject's eye that is closer to the training subject's upper eyelid and a portion of the cornea of the training subject that is closer to the lower eyelid.

また、例えば、機械学習実行機能102bは、学習用被検体の目が正常であることを表しており、機械学習プログラム750bの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750bに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。 Also, for example, the machine learning execution function 102b may represent that the eyes of the training subject are normal, and 80 pieces of training data that were not used in the training of the machine learning program 750b may be input to the machine learning program 750b as test data. These 80 pieces of training data are training data obtained from one person who was not selected as one of the seven people mentioned above.

また、例えば、機械学習実行機能102bは、学習用被検体の目が異常であることを表しており、機械学習プログラム750bの学習に使用されなかった80個の教師データをテストデータとして機械学習プログラム750bに入力してもよい。この80個の教師データは、上述した7名として選択されなかった1名から取得された教師データである。 Also, for example, the machine learning execution function 102b may indicate that the eyes of the training subject are abnormal, and 80 pieces of training data that were not used in the training of the machine learning program 750b may be input to the machine learning program 750b as test data. These 80 pieces of training data are training data obtained from one person who was not selected as one of the seven people mentioned above.

これにより、機械学習実行機能102bは、上述した1080個の教師データにより機械学習プログラム750bを学習させることにより得られた機械学習プログラム750bの特性を評価してもよい。 As a result, the machine learning execution function 102b may evaluate the characteristics of the machine learning program 750b obtained by training the machine learning program 750b using the above-mentioned 1,080 pieces of teacher data.

なお、機械学習実行機能102bは、テストデータを使用して機械学習プログラム750bの特性を評価する際に、例えば、クラス活性化マッピングを使用してもよい。クラス活性化マッピングは、ニューラルネットワークに入力されたデータのうちニューラルネットワークにより出力された結果の根拠となった部分を明らかにする技術である。クラス活性化マッピングとしては、例えば、勾配加重クラス活性化マッピングが挙げられる。勾配加重クラス活性化マッピングは、畳み込みニューラルネットワークにより実行される畳み込みの特徴に関する分類スコアの勾配を利用し、畳み込みニューラルネットワークに入力された画像のうち分類に一定以上の影響を与えた領域を特定する技術である。 The machine learning execution function 102b may use, for example, class activation mapping when using test data to evaluate the characteristics of the machine learning program 750b. Class activation mapping is a technique that clarifies the part of the data input to a neural network that is the basis for the results output by the neural network. An example of class activation mapping is gradient-weighted class activation mapping. Gradient-weighted class activation mapping is a technique that uses the gradient of the classification score related to the features of the convolution performed by the convolutional neural network to identify areas of the image input to the convolutional neural network that have had a certain level of influence on the classification.

次に、図10を参照しながら第二実施形態に係る機械学習実行プログラム100bが実行する処理の一例を説明する。図10は、第二実施形態に係る機械学習実行プログラムにより実行される処理の一例を示すフローチャートである。機械学習実行プログラム100bは、図10に示した処理を少なくとも一回実行する。 Next, an example of processing executed by the machine learning execution program 100b according to the second embodiment will be described with reference to FIG. 10. FIG. 10 is a flowchart showing an example of processing executed by the machine learning execution program according to the second embodiment. The machine learning execution program 100b executes the processing shown in FIG. 10 at least once.

ステップS31において、教師データ取得機能101bは、学習用角膜画像データを問題とし、学習用検査結果データを答えとする教師データを取得する。 In step S31, the teacher data acquisition function 101b acquires teacher data in which the learning corneal image data is the question and the learning test result data is the answer.

ステップS32において、機械学習実行機能102bは、教師データを機械学習プログラム750bに入力し、機械学習プログラム750bを学習させる。 In step S32, the machine learning execution function 102b inputs the training data into the machine learning program 750b and causes the machine learning program 750b to learn.

次に、図11から図13を参照しながら第二実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法の具体例について説明する。第二実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、第一実施形態に係るドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法と異なり、推論用画像データではなく、後述する推論用角膜画像データを取得する。 Next, a specific example of a dry eye testing program, a dry eye testing device, and a dry eye testing method according to the second embodiment will be described with reference to Figures 11 to 13. Unlike the dry eye testing program, the dry eye testing device, and the dry eye testing method according to the first embodiment, the dry eye testing program, the dry eye testing device, and the dry eye testing method according to the second embodiment acquires corneal image data for inference, which will be described later, instead of image data for inference.

図11は、第二実施形態に係るドライアイ検査装置のハードウェア構成の一例を示す図である。図11に示したドライアイ検査装置20bは、機械学習実行プログラム100bにより学習済みの機械学習装置700bの推論フェーズにおいて機械学習装置700bを使用して推論用被検体の目に現れているドライアイの症状を推定させる装置である。また、図11に示すように、ドライアイ検査装置20bは、プロセッサ21bと、主記憶装置22bと、通信インターフェース23bと、補助記憶装置24bと、入出力装置25bと、バス26bとを備える。 Fig. 11 is a diagram showing an example of the hardware configuration of a dry eye test device according to the second embodiment. The dry eye test device 20b shown in Fig. 11 is a device that estimates dry eye symptoms appearing in the eye of an inference subject using a machine learning device 700b in the inference phase of the machine learning device 700b that has been trained by a machine learning execution program 100b. As shown in Fig. 11, the dry eye test device 20b also includes a processor 21b, a main memory device 22b, a communication interface 23b, an auxiliary memory device 24b, an input/output device 25b, and a bus 26b.

プロセッサ21bは、例えば、CPUであり、後述するドライアイ検査プログラム200bを読み出して実行し、ドライアイ検査プログラム200bが有する各機能を実現させる。また、プロセッサ21bは、ドライアイ検査プログラム200b以外のプログラムを読み出して実行し、ドライアイ検査プログラム200bが有する各機能を実現させる上で必要な機能を実現させてもよい。 The processor 21b is, for example, a CPU, and reads and executes the dry eye test program 200b described below to realize each function of the dry eye test program 200b. The processor 21b may also read and execute a program other than the dry eye test program 200b to realize functions necessary to realize each function of the dry eye test program 200b.

主記憶装置22bは、例えば、RAMであり、プロセッサ21bにより読み出されて実行されるドライアイ検査プログラム200bその他プログラムを予め記憶している。 The main memory device 22b is, for example, a RAM, and prestores the dry eye test program 200b and other programs that are read and executed by the processor 21b.

通信インターフェース23bは、図11に示したネットワークNWを介して、機械学習装置700bその他の機器と通信を実行するためのインターフェース回路である。また、ネットワークNWは、例えば、LAN、イントラネットである。 The communication interface 23b is an interface circuit for communicating with the machine learning device 700b and other devices via the network NW shown in FIG. 11. The network NW is, for example, a LAN or an intranet.

補助記憶装置24bは、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ、ROMである。 The auxiliary storage device 24b is, for example, a hard disk drive, a solid state drive, a flash memory, or a ROM.

入出力装置25bは、例えば、入出力ポートである。入出力装置25bは、例えば、図11に示したキーボード821b、マウス822b、ディスプレイ920bが接続される。キーボード821b及びマウス822bは、例えば、ドライアイ検査装置20bを操作するために必要なデータを入力する作業に使用される。ディスプレイ920bは、例えば、ドライアイ検査装置20bのグラフィカルユーザインターフェースを表示する。 The input/output device 25b is, for example, an input/output port. For example, the keyboard 821b, mouse 822b, and display 920b shown in FIG. 11 are connected to the input/output device 25b. The keyboard 821b and mouse 822b are used, for example, to input data required to operate the dry eye test device 20b. The display 920b displays, for example, a graphical user interface of the dry eye test device 20b.

バス26bは、プロセッサ21b、主記憶装置22b、通信インターフェース23b、補助記憶装置24b及び入出力装置25bを互いにデータの送受信が可能なように接続している。 The bus 26b connects the processor 21b, the main memory device 22b, the communication interface 23b, the auxiliary memory device 24b, and the input/output device 25b so that data can be sent and received among them.

図12は、第二実施形態に係るドライアイ検査プログラムのソフトウェア構成の一例を示す図である。ドライアイ検査装置20bは、プロセッサ21bを使用してドライアイ検査プログラム200bを読み出して実行し、図12に示したデータ取得機能201b及び症状推定機能202bを実現させる。 Figure 12 is a diagram showing an example of the software configuration of a dry eye test program according to the second embodiment. The dry eye test device 20b reads and executes the dry eye test program 200b using the processor 21b, and realizes the data acquisition function 201b and the symptom estimation function 202b shown in Figure 12.

データ取得機能201bは、推論用角膜画像データを取得する。推論用角膜画像データは、推論用被検体の目の角膜の少なくとも一部を描出している推論用角膜画像を示すデータである。推論用角膜画像は、推論用被検体の目の角膜の少なくとも一部のみを描出している画像であってもよいし、推論用被検体の目の角膜以外の部分も描出している画像であってもよい。また、推論用角膜画像は、推論用被検体の目を描写している推論用画像から推論用被検体の目の角膜の少なくとも一部を描出している領域を切り出した画像であってもよい。 The data acquisition function 201b acquires corneal image data for inference. The corneal image data for inference is data showing an inference corneal image depicting at least a portion of the cornea of the eye of the subject for inference. The corneal image for inference may be an image depicting only at least a portion of the cornea of the eye of the subject for inference, or an image depicting parts of the eye of the subject for inference other than the cornea. The corneal image for inference may also be an image cut out of an area depicting at least a portion of the cornea of the eye of the subject for inference from an inference image depicting the eye of the subject for inference.

また、推論用角膜画像は、機械学習プログラム750bが学習用被検体の下瞼に近い部分のみを描出している学習用角膜画像を示す学習用角膜画像データを問題とする教師データを使用して学習している場合、推論用被検体の下瞼に近い部分のみを描出していることが好ましい。これにより、ドライアイ検査プログラム200aは、機械学習プログラム750bを使用して推論用被検体のドライアイの症状を更に高い精度で予測することが可能となる。例えば、推論用角膜画像は、推論用被検体の目の角膜のうち下瞼側の半分の部分のみを描出している場合、機械学習プログラム750bを使用したドライアイの症状の予測精度を更に向上させ得る。なお、推論用角膜画像は、例えば、スマートフォンに搭載されているカメラを使用して撮影される。 In addition, when the machine learning program 750b learns using training data that has as its problem training corneal image data showing a training corneal image depicting only a portion close to the lower eyelid of the training subject, it is preferable that the inference corneal image depict only a portion close to the lower eyelid of the training subject. This enables the dry eye test program 200a to predict the dry eye symptoms of the inference subject with even higher accuracy using the machine learning program 750b. For example, when the inference corneal image depicts only the half of the cornea of the inference subject's eye on the lower eyelid side, the prediction accuracy of the dry eye symptoms using the machine learning program 750b can be further improved. Note that the inference corneal image is captured, for example, using a camera mounted on a smartphone.

症状推定機能202bは、機械学習実行機能102bにより学習済みの機械学習プログラム750bに推論用角膜画像データを入力し、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を推定させる。例えば、症状推定機能202bは、機械学習プログラム750bに推論用角膜画像データを入力し、推論用被検体の目の涙液油層の厚みを表す数値を推定させる。 The symptom estimation function 202b inputs the corneal image data for inference to the machine learning program 750b that has been trained by the machine learning execution function 102b, and causes the machine learning program 750b to estimate the symptoms of dry eye appearing in the eye of the subject for inference. For example, the symptom estimation function 202b inputs the corneal image data for inference to the machine learning program 750b, and causes the program to estimate a numerical value representing the thickness of the tear lipid layer in the eye of the subject for inference.

また、症状推定機能202bは、学習用被検体の目の角膜のうち学習用被検体の下瞼に近い部分を描出している学習用角膜画像を示す学習用角膜画像データを含んでいる教師データである程、優先的に入力された機械学習プログラムに推論用角膜画像データを入力してもよい。 The symptom estimation function 202b may also input the inference corneal image data to the machine learning program, which is given higher priority when the training data includes training corneal image data showing a training corneal image depicting a portion of the cornea of the training subject's eye that is closer to the training subject's lower eyelid.

そして、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。例えば、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目の涙液油層の厚みを示す数値を示す症状データを出力させる。この場合、症状データは、例えば、自身が示しており、推論用被検体の目の涙液油層の厚みを表す数値をディスプレイ920bに表示するために使用される。 Then, the symptom estimation function 202b causes the machine learning program 750b to output symptom data indicating the symptoms of dry eye appearing in the eye of the subject to be inferred. For example, the symptom estimation function 202b causes the machine learning program 750b to output symptom data indicating a numerical value indicating the thickness of the tear lipid layer in the eye of the subject to be inferred. In this case, the symptom data is, for example, indicated by itself and is used to display a numerical value indicating the thickness of the tear lipid layer in the eye of the subject to be inferred on the display 920b.

次に、図13を参照しながら第二実施形態に係るドライアイ検査プログラム200bが実行する処理の一例を説明する。図13は、第二実施形態に係るドライアイ検査プログラムにより実行される処理の一例を示すフローチャートである。 Next, an example of processing executed by the dry eye test program 200b according to the second embodiment will be described with reference to FIG. 13. FIG. 13 is a flowchart showing an example of processing executed by the dry eye test program according to the second embodiment.

ステップS41において、データ取得機能201bは、推論用角膜画像データを取得する。 In step S41, the data acquisition function 201b acquires corneal image data for inference.

ステップS42において、症状推定機能202bは、学習済みの機械学習プログラム750bに、推論用角膜画像データを入力し、推論用被検体の目に現れているドライアイの症状を推定させ、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。 In step S42, the symptom estimation function 202b inputs the corneal image data for inference into the trained machine learning program 750b, estimates the symptoms of dry eye appearing in the eye of the inference subject, and causes the machine learning program 750b to output symptom data indicating the symptoms of dry eye appearing in the eye of the inference subject.

以上、第二実施形態に係る機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置、ドライアイ検査装置、機械学習実行方法及びドライアイ検査方法について説明した。 The above describes the machine learning execution program, dry eye test program, machine learning execution device, dry eye test device, machine learning execution method, and dry eye test method according to the second embodiment.

機械学習実行プログラム100bは、教師データ取得機能101bと、機械学習実行機能102bとを備える。 The machine learning execution program 100b includes a teacher data acquisition function 101b and a machine learning execution function 102b.

教師データ取得機能101bは、学習用角膜画像データを問題とし、学習用検査結果データを答えとする教師データを取得する。学習用角膜画像データは、学習用被検体の目の角膜の少なくとも一部を描出している学習用角膜画像を示すデータである。学習用検査結果データは、学習用被検体の目の涙液油層の厚みを調べる検査の結果を示すデータである。 The teacher data acquisition function 101b acquires teacher data in which the training corneal image data is the question and the training test result data is the answer. The training corneal image data is data showing a training corneal image depicting at least a portion of the cornea of the training subject's eye. The training test result data is data showing the results of a test to examine the thickness of the tear lipid layer of the training subject's eye.

機械学習実行機能102bは、教師データを機械学習プログラム750bに入力し、機械学習プログラム750bを学習させる。 The machine learning execution function 102b inputs the training data into the machine learning program 750b and causes the machine learning program 750b to learn.

これにより、機械学習実行プログラム100bは、学習用角膜画像データに基づいてドライアイの症状に関する検査の結果を予測する機械学習プログラム750bを生成することができる。 This allows the machine learning execution program 100b to generate a machine learning program 750b that predicts the results of a test regarding dry eye symptoms based on the training corneal image data.

また、機械学習実行プログラム100bは、学習用被検体の目の角膜のうち学習用被検体の下瞼に近い部分を描出している学習用角膜画像を示す学習用角膜画像データを含んでいる教師データである程、機械学習プログラムに優先的に入力してもよい。 In addition, the machine learning execution program 100b may input to the machine learning program with a higher priority the more training data it contains, such as training corneal image data that shows a training corneal image depicting a portion of the cornea of the training subject's eye that is closer to the training subject's lower eyelid.

これにより、機械学習実行プログラム100bは、学習用角膜画像データに基づいてドライアイの症状に関する検査の結果を更に精度良く予測する機械学習プログラム750bを生成することができる。 This enables the machine learning execution program 100b to generate a machine learning program 750b that predicts the results of tests related to dry eye symptoms with greater accuracy based on the training corneal image data.

ドライアイ検査プログラム200bは、データ取得機能201bと、症状推定機能202bとを備える。 The dry eye test program 200b includes a data acquisition function 201b and a symptom estimation function 202b.

データ取得機能201bは、推論用角膜画像データを取得する。推論用角膜画像データは、推論用被検体の目の角膜の少なくとも一部を描出している推論用角膜画像を示すデータである。 The data acquisition function 201b acquires inference corneal image data. The inference corneal image data is data that represents an inference corneal image depicting at least a portion of the cornea of the eye of the inference subject.

症状推定機能202bは、機械学習実行プログラム100bにより学習済みの機械学習プログラム750bに推論用角膜画像データを入力し、推論用被検体の目に現れているドライアイの症状を推定させる。そして、症状推定機能202bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる。 The symptom estimation function 202b inputs the inference corneal image data to the machine learning program 750b that has been trained by the machine learning execution program 100b, and estimates the symptoms of dry eye appearing in the eye of the inference subject. The symptom estimation function 202b then causes the machine learning program 750b to output symptom data indicating the symptoms of dry eye appearing in the eye of the inference subject.

これにより、ドライアイ検査プログラム200bは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を予測することができる。 This allows the dry eye test program 200b to predict the results of a test for dry eye symptoms without actually conducting the test.

また、ドライアイ検査プログラム200bは、学習用被検体の目の角膜のうち学習用被検体の下瞼に近い部分を描出している学習用角膜画像を示す学習用角膜画像データを含んでいる教師データである程、優先的に入力された機械学習プログラム750bに推論用角膜画像データを入力する。そして、ドライアイ検査プログラム200bは、機械学習プログラム750bに推論用被検体の目に現れているドライアイの症状を推定させる。 The dry eye test program 200b inputs the inference corneal image data to the machine learning program 750b, which is input with a higher priority, if the teacher data includes learning corneal image data showing a learning corneal image depicting a portion of the cornea of the learning subject's eye that is closer to the learning subject's lower eyelid.The dry eye test program 200b then causes the machine learning program 750b to estimate the dry eye symptoms appearing in the inference subject's eye.

これにより、ドライアイ検査プログラム200bは、ドライアイの症状に関する検査を実際に実施することなく、ドライアイの症状に関する検査の結果を更に精度良く予測することができる。 This allows the dry eye test program 200b to more accurately predict the results of a test regarding dry eye symptoms without actually conducting the test.

次に、機械学習プログラム750bを実際に学習させ、ドライアイの症状を推定させた例を挙げて、機械学習実行プログラム100bにより奏される効果の具体例を比較例と第二実施形態に係る実施例とを対比させて説明する。 Next, we will provide an example in which the machine learning program 750b is actually trained to estimate symptoms of dry eye, and explain specific examples of the effects achieved by the machine learning execution program 100b by comparing a comparative example with an example of the second embodiment.

この場合の比較例では、学習用角膜画像データではなく、学習用被検体の目を描出している画像を示す画像データが教師データに含まれる問題となる。また、この場合の比較例では、上述した学習用被検体の目が正常であることを表している520個の教師データ及び学習用被検体の目が異常であることを表している600個の教師データを使用して機械学習プログラムを学習させた例である。 In this comparative example, the problem is that the training data contains image data showing an image depicting the training subject's eye, rather than the training corneal image data. Also, in this comparative example, a machine learning program is trained using 520 pieces of training data representing that the training subject's eye is normal and 600 pieces of training data representing that the training subject's eye is abnormal.

このように学習した機械学習プログラムは、上述した画像データを含んでおり、学習用被検体の目が正常であることを表している80個のテストデータ及び上述した画像データを含んでおり、学習用被検体の目が異常であることを表している80個のテストデータを使用して特性を評価すると、予測精度50%及び偽陰性率50%を示した。 The machine learning program trained in this way showed a prediction accuracy of 50% and a false negative rate of 50% when its characteristics were evaluated using 80 test data sets that included the image data described above and indicated that the eyes of the training subjects were normal, and 80 test data sets that included the image data described above and indicated that the eyes of the training subjects were abnormal.

一方、機械学習実行プログラム100bが学習用被検体の目の角膜全体のみを描出している学習用角膜画像データのみを使用して学習させた機械学習プログラム750bは、同様の学習用角膜画像データを含んでいるテストデータを使用して特性を評価すると、予測精度69%及び偽陰性率31%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。 On the other hand, the machine learning program 750b, which was trained by the machine learning execution program 100b using only training corneal image data depicting only the entire cornea of the training subject's eye, showed a prediction accuracy of 69% and a false negative rate of 31% when its characteristics were evaluated using test data containing similar training corneal image data. These characteristics exceed those of the machine learning program according to the comparative example.

また、機械学習実行プログラム100bが学習用被検体の目の角膜のうち下瞼側の半分のみを描出している学習用角膜画像データのみを使用して学習させた機械学習プログラム750bは、同様の学習用角膜画像データを含んでいるテストデータを使用して特性を評価すると、予測精度78%及び偽陰性率22%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。 Furthermore, the machine learning program 750b, which was trained by the machine learning execution program 100b using only training corneal image data depicting only the lower eyelid half of the cornea of the training subject's eye, showed a prediction accuracy of 78% and a false negative rate of 22% when its characteristics were evaluated using test data containing similar training corneal image data. These characteristics exceed those of the machine learning program according to the comparative example.

なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.

また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.

なお、機械学習実行プログラム100bが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。同様に、ドライアイ検査プログラム200bが有する機能の少なくとも一部は、回路部を含むハードウェアにより実現されてもよい。また、このようなハードウェアは、例えば、LSI、ASIC、FPGA、GPUである。 At least a part of the functions of the machine learning execution program 100b may be realized by hardware including a circuit unit. Similarly, at least a part of the functions of the dry eye test program 200b may be realized by hardware including a circuit unit. Such hardware may be, for example, an LSI, an ASIC, an FPGA, or a GPU.

また、機械学習実行プログラム100bが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。同様に、ドライアイ検査プログラム200bが有する機能の少なくとも一部は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。 Furthermore, at least some of the functions of the machine learning execution program 100b may be realized by a combination of software and hardware. Similarly, at least some of the functions of the dry eye test program 200b may be realized by a combination of software and hardware. Furthermore, these pieces of hardware may be integrated into one, or may be divided into multiple pieces.

また、第二実施形態では、機械学習実行装置10bと、機械学習装置700bと、ドライアイ検査装置20bとが互いに独立した装置である場合を例に挙げて説明したが、これに限定されない。これらの装置は、一つの装置として実現されていてもよい。 In the second embodiment, the machine learning execution device 10b, the machine learning device 700b, and the dry eye test device 20b are independent devices, but this is not limiting. These devices may be realized as a single device.

[第三実施形態]
上述した第一実施形態では、教師データ取得機能101aが第二実施形態で説明した学習用角膜画像データを問題に含まない教師データを取得する場合を例に挙げたが、これに限定されない。教師データ取得機能101aは、学習用画像データに代わり、学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の角膜を描出している学習用角膜画像データを問題として含んでいる教師データを取得してもよい。また、この場合、データ取得機能201aは、推論用画像データに代わり、推論用被検体の目を照らしている光よりも色温度が低い光で推論用被検体の目が照らされていると仮定した場合における推論用被検体の角膜を描出している推論用角膜画像データを取得する。そして、この場合、症状推定機能202aは、機械学習プログラム750aに、推論用画像データに代わり、推論用被検体の目を照らしている光よりも色温度が低い光で推論用被検体の目が照らされていると仮定した場合における推論用被検体の角膜を描出している推論用角膜画像データに基づいて推論用被検体の目に現れているドライアイの症状を推定させる。
[Third embodiment]
In the first embodiment described above, the case where the teacher data acquisition function 101a acquires teacher data that does not include the learning corneal image data described in the second embodiment as a problem has been exemplified, but the present invention is not limited to this. Instead of the learning image data, the teacher data acquisition function 101a may acquire teacher data that includes, as a problem, learning corneal image data depicting the cornea of the learning subject when it is assumed that the eyes of the learning subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the learning subject. In this case, the data acquisition function 201a acquires, instead of the inference image data, inference corneal image data depicting the cornea of the inference subject when it is assumed that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the inference subject. In this case, the symptom estimation function 202a causes the machine learning program 750a to estimate the symptoms of dry eye appearing in the eyes of the inference subject based on inference corneal image data, which depicts the cornea of the inference subject under the assumption that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the inference subject, instead of the inference image data.

また、上述した第二実施形態では、教師データ取得機能101bが第一実施形態で説明した学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の目を描出している学習用画像データを問題に含まない教師データを取得する場合を例に挙げたが、これに限定されない。教師データ取得機能101bは、学習用角膜画像データに代わり、学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の角膜を描出している学習用角膜画像データを問題として含んでいる教師データを取得してもよい。また、この場合、データ取得機能201bは、推論用被検体の目を照らしている光よりも色温度が低い光で推論用被検体の目が照らされていると仮定した場合における推論用被検体の角膜を描出している推論用角膜画像データを取得する。そして、この場合、症状推定機能202bは、機械学習プログラム750bに、推論用被検体の目を照らしている光よりも色温度が低い光で推論用被検体の目が照らされていると仮定した場合における推論用被検体の角膜を描出している推論用角膜画像データに基づいて推論用被検体の目に現れているドライアイの症状を推定させる。 In the second embodiment described above, the teacher data acquisition function 101b acquires teacher data that does not include as a problem the learning image data depicting the eyes of the learning subject when it is assumed that the eyes of the learning subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the learning subject described in the first embodiment, but is not limited to this. Instead of the learning corneal image data, the teacher data acquisition function 101b may acquire teacher data that includes as a problem the learning corneal image data depicting the cornea of the learning subject when it is assumed that the eyes of the learning subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the learning subject. In this case, the data acquisition function 201b acquires the inference corneal image data depicting the cornea of the inference subject when it is assumed that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the inference subject. In this case, the symptom estimation function 202b causes the machine learning program 750b to estimate the symptoms of dry eye appearing in the eyes of the inference subject based on the inference corneal image data depicting the cornea of the inference subject when it is assumed that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the inference subject.

次に、学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の角膜を描出している学習用角膜画像データを問題として含んでいる教師データを使用して学習させ、推論用被検体の目を照らしている光よりも色温度が低い光で推論用被検体の目が照らされていると仮定した場合における推論用被検体の角膜を描出している推論用角膜画像データに基づいて推論用被検体の目に現れているドライアイの症状を推定させる場合に奏される効果の具体例について説明する。また、以下の説明では、教師データ取得機能101aが学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の角膜を描出している学習用角膜画像データを取得し、データ取得機能201aが推論用被検体の目を照らしている光よりも色温度が低い光で推論用被検体の目が照らされていると仮定した場合における推論用被検体の角膜を描出している推論用角膜画像データを取得する場合を例に挙げて説明する。 Next, we will explain a specific example of the effect achieved when training using teacher data that includes as a problem training corneal image data depicting the cornea of the training subject when it is assumed that the eyes of the training subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the training subject, and estimating the symptoms of dry eye appearing in the eyes of the inference subject based on the inference corneal image data depicting the cornea of the inference subject when it is assumed that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the inference subject. In the following explanation, an example is given in which the teacher data acquisition function 101a acquires learning corneal image data depicting the cornea of the learning subject when it is assumed that the eyes of the learning subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the learning subject, and the data acquisition function 201a acquires inference corneal image data depicting the cornea of the inference subject when it is assumed that the eyes of the inference subject are illuminated with light having a lower color temperature than the light illuminating the eyes of the inference subject.

この場合の比較例では、学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の角膜を描出している学習用角膜画像データではなく、学習用被検体の目を照らしている光と色温度が等しい光で学習用被検体の目が照らされている場合における学習用被検体の角膜を描出している画像を示す画像データが教師データに含まれる問題となる。また、この場合の比較例では、上述した学習用被検体の目が正常であることを表している520個の教師データ及び学習用被検体の目が異常であることを表している600個の教師データを使用して機械学習プログラムを学習させた例である。 In this comparative example, the problem is that the training data contains image data showing an image depicting the cornea of the training subject when the training subject's eyes are illuminated with light having the same color temperature as the light illuminating the training subject's eyes, rather than training corneal image data depicting the cornea of the training subject when the training subject's eyes are illuminated with light having a lower color temperature than the light illuminating the training subject's eyes. Also, in this comparative example, a machine learning program is trained using 520 pieces of training data representing that the training subject's eyes are normal and 600 pieces of training data representing that the training subject's eyes are abnormal.

このように学習した機械学習プログラムは、上述した画像データを含んでおり、学習用被検体の目が正常であることを表している80個のテストデータ及び述した画像データを含んでおり、学習用被検体の目が異常であることを表している80個のテストデータを使用して特性を評価すると、予測精度50%及び偽陰性率50%を示した。 The machine learning program trained in this way showed a prediction accuracy of 50% and a false negative rate of 50% when its characteristics were evaluated using 80 test data sets that included the image data described above and indicated that the eyes of the training subjects were normal, and 80 test data sets that included the image data described above and indicated that the eyes of the training subjects were abnormal.

一方、機械学習実行プログラム100aが学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の目の角膜全体のみを描出している学習用角膜画像データを使用して学習させた機械学習プログラム750aは、同様の学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の角膜を描出している学習用角膜画像データを含んでいるテストデータを使用して特性を評価すると、予測精度81%及び偽陰性率15%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。 On the other hand, the machine learning program 750a, trained using training corneal image data depicting only the entire cornea of the training subject's eye when the training subject's eye is assumed to be illuminated with light having a lower color temperature than the light illuminating the training subject's eye, showed a prediction accuracy of 81% and a false negative rate of 15% when its characteristics were evaluated using test data including training corneal image data depicting the cornea of the training subject when the training subject's eye is assumed to be illuminated with light having a lower color temperature than the light illuminating the training subject's eye. This characteristic exceeds the characteristics of the machine learning program according to the comparative example.

また、機械学習実行プログラム100aが学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の目の角膜のうち下瞼側の半分のみを描出している学習用角膜画像データを使用して学習させた機械学習プログラム750aは、同様の学習用被検体の目を照らしている光よりも色温度が低い光で学習用被検体の目が照らされていると仮定した場合における学習用被検体の角膜を描出している学習用角膜画像データを含んでいるテストデータを使用して特性を評価すると、予測精度89%及び偽陰性率5%を示した。この特性は、比較例に係る機械学習プログラムの特性を上回っている。 Furthermore, the machine learning execution program 100a was trained using training corneal image data depicting only the lower eyelid side half of the cornea of the training subject's eye when it is assumed that the training subject's eye is illuminated with light having a lower color temperature than the light illuminating the training subject's eye. When the characteristics of the machine learning program 750a were evaluated using test data including training corneal image data depicting the cornea of the training subject when it is assumed that the training subject's eye is illuminated with light having a lower color temperature than the light illuminating the training subject's eye, the program showed a prediction accuracy of 89% and a false negative rate of 5%. These characteristics exceed those of the machine learning program according to the comparative example.

なお、予測精度は、異常群に含まれる学習用画像のうち機械学習プログラムにより異常と予測された枚数X及び正常群に含まれる学習用画像うち機械学習プログラムにより正常と予測された枚数Yの合計X+Yのテストデータの総数に対する割合である。したがって、この比較例の場合、予測精度は、((X+Y)/160)×100で算出される。 The prediction accuracy is the ratio of the total number X+Y of the training images in the abnormal group that were predicted to be abnormal by the machine learning program and the number Y of the training images in the normal group that were predicted to be normal by the machine learning program to the total number of test data. Therefore, in this comparative example, the prediction accuracy is calculated as ((X+Y)/160)×100.

また、偽陰性率は、異常群に含まれる学習用画像のうち機械学習プログラムにより正常と予測された枚数の異常群に含まれる学習用画像の合計に対する割合である。したがって、この比較例の場合、偽陰性率は、((80-X)/80)×100で算出される。 The false negative rate is the ratio of the number of training images in the abnormal group that are predicted to be normal by the machine learning program to the total number of training images in the abnormal group. Therefore, in this comparative example, the false negative rate is calculated as ((80-X)/80) x 100.

なお、上述したドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、推論用被検体の目にドライアイ点眼薬が点眼される前後で使用されてもよい。上述したドライアイ検査プログラム、ドライアイ検査装置及びドライアイ検査方法は、このようなタイミングで使用されることにより、推論用被検体が抱えるドライアイの症状に対して当該ドライアイ点眼薬が有している有効性を検証する手段ともなり得る。 The above-mentioned dry eye test program, dry eye test device, and dry eye test method may be used before or after the dry eye eye drops are applied to the eyes of the subject to be inferred. By using the above-mentioned dry eye test program, dry eye test device, and dry eye test method at such timing, they can also serve as a means of verifying the effectiveness of the dry eye eye drops for the dry eye symptoms suffered by the subject to be inferred.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成は、この実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲内において種々の組み合わせ、変形、置換及び設計変更の少なくとも一つが加えられることがある。 Although an embodiment of the present invention has been described above in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and various combinations, modifications, substitutions, and/or design changes may be made without departing from the spirit of the present invention.

また、上述した本発明の実施形態の効果は、一例として示した効果である。したがって、本発明の実施形態は、上述した効果以外にも上述した実施形態の記載から当業者が認識し得る他の効果も奏し得る。 The effects of the above-described embodiments of the present invention are shown as examples. Therefore, in addition to the effects described above, the embodiments of the present invention may also have other effects that a person skilled in the art may recognize from the description of the above-described embodiments.

10a,10b…機械学習実行装置、100a,100b…機械学習実行プログラム、101a,101b…教師データ取得機能、102a,102b…機械学習実行機能、20a,20b…ドライアイ検査装置、200a,200b…ドライアイ検査プログラム、201a,201b…データ取得機能、202a,202b…症状推定機能、700a,700b…機械学習装置、750a,750b…機械学習プログラム 10a, 10b...machine learning execution device, 100a, 100b...machine learning execution program, 101a, 101b...teaching data acquisition function, 102a, 102b...machine learning execution function, 20a, 20b...dry eye test device, 200a, 200b...dry eye test program, 201a, 201b...data acquisition function, 202a, 202b...symptom estimation function, 700a, 700b...machine learning device, 750a, 750b...machine learning program

Claims (10)

学習用被検体の目を照らしている光よりも色温度が低い光で前記学習用被検体の目が照らされていると仮定した場合における前記学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを取得する教師データ取得機能と、
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、
をコンピュータに実行させる機械学習実行プログラム。
A training data acquisition function for acquiring training data in which training image data showing a training image depicting the training subject's eyes when it is assumed that the training subject's eyes are illuminated with light having a lower color temperature than the light illuminating the training subject's eyes is used as a question, and training test result data showing the results of a test to examine the thickness of the tear lipid layer in the training subject's eyes is used as an answer;
A machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution program that causes a computer to execute the above.
前記教師データ取得機能は、前記学習用画像から前記学習用被検体の目の角膜の少なくとも一部を描出している領域を切り出した学習用角膜画像を示す学習用角膜画像データを問題とする前記教師データを取得する、
請求項1に記載の機械学習実行プログラム。
The training data acquisition function acquires the training data based on training corneal image data showing a training corneal image obtained by cutting out an area depicting at least a part of the cornea of the eye of the training subject from the training image.
The machine learning execution program according to claim 1 .
推論用被検体の目を照らしている光よりも色温度が低い光で前記推論用被検体の目が照らされていると仮定した場合における前記推論用被検体の目を描出している推論用画像を示す推論用画像データを取得するデータ取得機能と、
学習用被検体の目を照らしている光よりも色温度が低い光で前記学習用被検体の目が照らされていると仮定した場合における前記学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、
をコンピュータに実現させるドライアイ検査プログラム。
A data acquisition function for acquiring image data for inference showing an image for inference depicting the eye of the subject for inference when it is assumed that the eye of the subject for inference is illuminated with light having a lower color temperature than the light illuminating the eye of the subject for inference;
a symptom estimation function that inputs the inference image data into a machine learning program trained using teacher data in which learning image data showing a learning image depicting the eyes of the learning subject when the eyes of the learning subject are assumed to be illuminated with light having a lower color temperature than the light illuminating the eyes of the learning subject is used as a problem, and learning test result data showing the results of a test to examine the thickness of the tear lipid layer in the eyes of the learning subject is used as an answer, causes the machine learning program to estimate symptoms of dry eye appearing in the eyes of the inference subject, and causes the machine learning program to output symptom data showing symptoms of dry eye appearing in the eyes of the inference subject;
A dry eye testing program that enables a computer to achieve this.
前記データ取得機能は、前記推論用画像から前記推論用被検体の目の角膜の少なくとも一部を描出している領域を切り出した推論用角膜画像を示す推論用角膜画像データを更に取得し、
前記症状推定機能は、前記学習用画像から前記学習用被検体の目の角膜の少なくとも一部を描出している領域を切り出した学習用角膜画像を示す学習用角膜画像データを問題とする教師データを使用して学習した前記機械学習プログラムに前記推論用角膜画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させる、
請求項3に記載のドライアイ検査プログラム。
The data acquisition function further acquires inference corneal image data showing an inference corneal image obtained by cutting out an area depicting at least a part of the cornea of the eye of the inference subject from the inference image;
The symptom estimation function inputs the inference corneal image data to the machine learning program trained using training data that has as its problem training corneal image data, the training corneal image being an area cut out from the training image that depicts at least a portion of the cornea of the eye of the training subject, and causes the machine learning program to estimate a symptom of dry eye appearing in the eye of the inference subject.
The dry eye test program according to claim 3.
学習用被検体の目を照らしている光よりも色温度が低い光で前記学習用被検体の目が照らされていると仮定した場合における前記学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを取得する教師データ取得部と、
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、
を備える機械学習実行装置。
a training data acquisition unit that acquires training data having training image data showing training images depicting the training subject's eyes when the training subject's eyes are assumed to be illuminated with light having a lower color temperature than the light illuminating the training subject's eyes, and training test result data showing the results of a test to examine the thickness of the tear lipid layer in the training subject's eyes as an answer,
a machine learning execution unit that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution device comprising:
推論用被検体の目を照らしている光よりも色温度が低い光で前記推論用被検体の目が照らされていると仮定した場合における前記推論用被検体の目を描出している推論用画像を示す推論用画像データを取得するデータ取得部と、
学習用被検体の目を照らしている光よりも色温度が低い光で前記学習用被検体の目が照らされていると仮定した場合における前記学習用被検体の目を描出している学習用画像を示す学習用画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、
をコンピュータに実現させるドライアイ検査装置。
a data acquisition unit that acquires image data for inference showing an image for inference depicting the eye of the subject for inference when it is assumed that the eye of the subject for inference is illuminated with light having a lower color temperature than the light illuminating the eye of the subject for inference;
a symptom estimation unit that inputs the inference image data into a machine learning program trained using teacher data in which learning image data showing a learning image depicting the eyes of the learning subject when the eyes of the learning subject are assumed to be illuminated with light having a lower color temperature than the light illuminating the eyes of the learning subject is used as a problem, and learning test result data showing the results of a test to examine the thickness of the tear lipid layer in the eyes of the learning subject is used as an answer, causes the machine learning program to infer symptoms of dry eye appearing in the eyes of the inference subject, and causes the machine learning program to output symptom data showing the symptoms of dry eye appearing in the eyes of the inference subject;
A dry eye testing device that uses a computer to achieve this.
学習用被検体の目の角膜のうち下瞼側の半分の部分のみを描出している学習用角膜画像を示す学習用角膜画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを取得する教師データ取得機能と、
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行機能と、
をコンピュータに実行させる機械学習実行プログラム。
A training data acquisition function for acquiring training data in which training corneal image data showing a training corneal image depicting only a half portion of the cornea of the training subject's eye on the lower eyelid side is used as a question, and training test result data showing the results of a test to examine the thickness of the tear lipid layer of the training subject's eye is used as an answer.
A machine learning execution function that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution program that causes a computer to execute the above.
推論用被検体の目の角膜のうち下瞼側の半分の部分のみを描出している推論用角膜画像を示す推論用角膜画像データを取得するデータ取得機能と、
学習用被検体の目の角膜のうち下瞼側の半分の部分のみを描出している学習用角膜画像を示す学習用角膜画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用角膜画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定機能と、
をコンピュータに実現させるドライアイ検査プログラム。
A data acquisition function for acquiring corneal image data for inference showing a corneal image for inference depicting only a half portion of the cornea of the eye of the subject for inference on the lower eyelid side ;
a symptom estimation function that inputs the inference corneal image data into a machine learning program trained using teacher data in which learning corneal image data showing a learning corneal image depicting only the lower eyelid half of the cornea of the eye of the learning subject is used as a problem and learning test result data showing the results of a test to examine the thickness of the tear lipid layer of the eye of the learning subject is used as an answer, causes the machine learning program to estimate symptoms of dry eye appearing in the eye of the inference subject, and causes the machine learning program to output symptom data showing symptoms of dry eye appearing in the eye of the inference subject;
A dry eye testing program that enables a computer to achieve this.
学習用被検体の目の角膜のうち下瞼側の半分の部分のみを描出している学習用角膜画像を示す学習用角膜画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを取得する教師データ取得部と、
前記教師データを機械学習プログラムに入力し、前記機械学習プログラムを学習させる機械学習実行部と、
を備える機械学習実行装置。
A training data acquisition unit acquires training data in which training corneal image data showing a training corneal image depicting only a half portion of the cornea of the training subject's eye on the lower eyelid side is used as a question, and training test result data showing the results of a test to examine the thickness of the tear lipid layer of the training subject's eye is used as an answer.
a machine learning execution unit that inputs the teacher data into a machine learning program and trains the machine learning program;
A machine learning execution device comprising:
推論用被検体の目の角膜のうち下瞼側の半分の部分のみを描出している推論用角膜画像を示す推論用角膜画像データを取得するデータ取得部と、
学習用被検体の目の角膜のうち下瞼側の半分の部分のみを描出している学習用角膜画像を示す学習用角膜画像データを問題とし、前記学習用被検体の目の涙液油層の厚みを調べる検査の結果を示す学習用検査結果データを答えとする教師データを使用して学習した機械学習プログラムに前記推論用角膜画像データを入力し、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を推定させ、前記機械学習プログラムに前記推論用被検体の目に現れているドライアイの症状を示す症状データを出力させる症状推定部と、
を備えるドライアイ検査装置。
a data acquisition unit that acquires corneal image data for inference that shows a corneal image for inference depicting only a half portion of the cornea of the eye of the subject for inference on the lower eyelid side ;
a symptom estimation unit that inputs the inference corneal image data into a machine learning program trained using teacher data in which learning corneal image data showing a learning corneal image depicting only the lower eyelid half of the cornea of the eye of the learning subject is used as a problem and learning test result data showing the results of a test to examine the thickness of the tear lipid layer of the eye of the learning subject is used as an answer, causes the machine learning program to estimate a symptom of dry eye appearing in the eye of the inference subject, and causes the machine learning program to output symptom data showing the symptom of dry eye appearing in the eye of the inference subject;
A dry eye examination device comprising:
JP2020217685A 2020-10-28 2020-12-25 Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device Active JP7570229B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020217685A JP7570229B2 (en) 2020-12-25 2020-12-25 Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device
KR1020237003200A KR20230096957A (en) 2020-10-28 2021-10-27 Inspection method, machine learning implementation method, inspection device, and machine learning implementation method
PCT/JP2021/039589 WO2022092134A1 (en) 2020-10-28 2021-10-27 Examination method, machine learning execution method, examination device, and machine learning execution method
TW110139818A TW202222245A (en) 2020-10-28 2021-10-27 Examination method, machine learning execution method, examination device, and machine learning execution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020217685A JP7570229B2 (en) 2020-12-25 2020-12-25 Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device

Publications (2)

Publication Number Publication Date
JP2022102759A JP2022102759A (en) 2022-07-07
JP7570229B2 true JP7570229B2 (en) 2024-10-21

Family

ID=82273152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020217685A Active JP7570229B2 (en) 2020-10-28 2020-12-25 Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device

Country Status (1)

Country Link
JP (1) JP7570229B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257292A (en) 2007-03-30 2008-10-23 Fujifilm Corp Image diagnosis support apparatus and system
US20130226008A1 (en) 2012-02-21 2013-08-29 Massachusetts Eye & Ear Infirmary Calculating Conjunctival Redness
JP2013212363A (en) 2012-03-06 2013-10-17 Kitasato Institute Method for ophthalmologic measurement, ophthalmologic measuring apparatus, and method for evaluating test piece
JP2015116319A (en) 2013-12-18 2015-06-25 パナソニックIpマネジメント株式会社 Diagnosis support device, diagnosis support method, and diagnosis support program
US20170188805A1 (en) 2015-12-31 2017-07-06 Anantha Pradeep System and method for analyzing eye and contact lens condition
JP2019025257A (en) 2017-08-04 2019-02-21 エルライズ株式会社 Ophthalmologic measurement apparatus and ophthalmologic measurement system
US20190110753A1 (en) 2017-10-13 2019-04-18 Ai Technologies Inc. Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
WO2019168142A1 (en) 2018-03-02 2019-09-06 興和株式会社 Image classification method, device, and program
JP2019525923A (en) 2016-07-18 2019-09-12 リジェンツリー リミテッド ライアビリティ カンパニー How to treat dry eye syndrome
JP2019155011A (en) 2018-03-16 2019-09-19 株式会社トプコン Portable terminal and method of controlling portable terminal
CN111700582A (en) 2020-06-23 2020-09-25 温州医科大学附属眼视光医院 Common ocular surface disease diagnosis system based on intelligent terminal

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257292A (en) 2007-03-30 2008-10-23 Fujifilm Corp Image diagnosis support apparatus and system
US20130226008A1 (en) 2012-02-21 2013-08-29 Massachusetts Eye & Ear Infirmary Calculating Conjunctival Redness
JP2013212363A (en) 2012-03-06 2013-10-17 Kitasato Institute Method for ophthalmologic measurement, ophthalmologic measuring apparatus, and method for evaluating test piece
JP2015116319A (en) 2013-12-18 2015-06-25 パナソニックIpマネジメント株式会社 Diagnosis support device, diagnosis support method, and diagnosis support program
US20170188805A1 (en) 2015-12-31 2017-07-06 Anantha Pradeep System and method for analyzing eye and contact lens condition
JP2019525923A (en) 2016-07-18 2019-09-12 リジェンツリー リミテッド ライアビリティ カンパニー How to treat dry eye syndrome
JP2019025257A (en) 2017-08-04 2019-02-21 エルライズ株式会社 Ophthalmologic measurement apparatus and ophthalmologic measurement system
US20190110753A1 (en) 2017-10-13 2019-04-18 Ai Technologies Inc. Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
WO2019168142A1 (en) 2018-03-02 2019-09-06 興和株式会社 Image classification method, device, and program
JP2019155011A (en) 2018-03-16 2019-09-19 株式会社トプコン Portable terminal and method of controlling portable terminal
CN111700582A (en) 2020-06-23 2020-09-25 温州医科大学附属眼视光医院 Common ocular surface disease diagnosis system based on intelligent terminal

Also Published As

Publication number Publication date
JP2022102759A (en) 2022-07-07

Similar Documents

Publication Publication Date Title
Vujosevic et al. Screening for diabetic retinopathy: new perspectives and challenges
Keel et al. Development and validation of a deep‐learning algorithm for the detection of neovascular age‐related macular degeneration from colour fundus photographs
Reid et al. Artificial intelligence for pediatric ophthalmology
Van Der Heijden et al. Validation of automated screening for referable diabetic retinopathy with the IDx‐DR device in the Hoorn Diabetes Care System
Armstrong et al. A (eye): a review of current applications of artificial intelligence and machine learning in ophthalmology
De Fauw et al. Clinically applicable deep learning for diagnosis and referral in retinal disease
Richter et al. Telemedicine for retinopathy of prematurity diagnosis: evaluation and challenges
Ćirković Evaluation of four artificial intelligence–assisted self-diagnosis apps on three diagnoses: two-year follow-up study
JP2021507428A (en) Diagnosis and referral based on deep learning of ophthalmic diseases and disorders
Wang et al. Feasibility assessment of infectious keratitis depicted on slit-lamp and smartphone photographs using deep learning
Shi et al. Assessment of image quality on color fundus retinal images using the automatic retinal image analysis
Honavar Artificial intelligence in ophthalmology-Machines think!
JP2020036835A (en) Ophthalmologic diagnostic support apparatus, ophthalmologic diagnostic support method, and ophthalmologic diagnostic support program
Kawamleh Against explainability requirements for ethical artificial intelligence in health care
Chen et al. A deep learning model for screening multiple abnormal findings in ophthalmic ultrasonography (with video)
Brandão-de-Resende et al. Glaucoma and telemedicine
Tabuchi et al. Developing an iOS application that uses machine learning for the automated diagnosis of blepharoptosis
Shao et al. Artificial intelligence-based detection of epimacular membrane from color fundus photographs
JP7570229B2 (en) Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device
JP7570228B2 (en) Machine learning execution program, dry eye test program, machine learning execution device, and dry eye test device
TW202222245A (en) Examination method, machine learning execution method, examination device, and machine learning execution method
JP7094468B1 (en) Inspection methods
Li et al. Early Detection of Optic Nerve Changes on Optical Coherence Tomography Using Deep Learning for Risk-Stratification of Papilledema and Glaucoma
JP2022102757A (en) Machine learning execution program, dry eye inspection program, machine learning execution device and dry eye inspection device
Singh Artificial intelligence in ophthalmology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241008

R150 Certificate of patent or registration of utility model

Ref document number: 7570229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150