[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021135304A - Image projection device, image projection method and program - Google Patents

Image projection device, image projection method and program Download PDF

Info

Publication number
JP2021135304A
JP2021135304A JP2020028582A JP2020028582A JP2021135304A JP 2021135304 A JP2021135304 A JP 2021135304A JP 2020028582 A JP2020028582 A JP 2020028582A JP 2020028582 A JP2020028582 A JP 2020028582A JP 2021135304 A JP2021135304 A JP 2021135304A
Authority
JP
Japan
Prior art keywords
image
image data
unit
width
projection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020028582A
Other languages
Japanese (ja)
Other versions
JP7427237B2 (en
Inventor
誠 鈴木
Makoto Suzuki
誠 鈴木
英昭 足利
Hideaki Ashikaga
英昭 足利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
QD Laser Inc
Original Assignee
QD Laser Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by QD Laser Inc filed Critical QD Laser Inc
Priority to JP2020028582A priority Critical patent/JP7427237B2/en
Publication of JP2021135304A publication Critical patent/JP2021135304A/en
Application granted granted Critical
Publication of JP7427237B2 publication Critical patent/JP7427237B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

To assist a vision function with respect to users with retina diseases.SOLUTION: An image projection device has: a storage unit that stores input image data; a control unit that, with respect to the image data, divides an image the image data shows into an area with a width at equal intervals from a reference position in a state where an angle of view of the image is maintained, and makes corrections of the image so that the width of the area monotonically reduces or increases as getting apart from the reference position; and a laser irradiation unit that has a light source unit emitting a laser light beam, scans the laser light beam two-dimensionally on the basis of post-corrected image data by the control unit, and projects an image the post-corrected image data shows onto a retina of a user.SELECTED DRAWING: Figure 7

Description

本発明は、画像投影装置、画像投影方法、プログラムに関する。 The present invention relates to an image projection device, an image projection method, and a program.

網膜投影型の画像投影装置では、入力された画像データに基づくレーザ光で利用者の網膜を走査し、利用者の網膜に画像を投影することで、前眼部の屈折機能等に依存せずに、利用者に画像を視認させる。このため、網膜投影型の画像投影装置は、円錐角膜等の前眼部疾患を有する利用者に対しての視機能の支援に効果的である。 The retinal projection type image projection device scans the user's retina with a laser beam based on the input image data and projects the image on the user's retina, so that it does not depend on the refraction function of the anterior segment of the eye. In addition, let the user visually recognize the image. Therefore, the retinal projection type image projection device is effective in supporting the visual function of a user having an anterior ocular disease such as keratoconus.

視機能を低下させる他の疾患としては、網膜疾患がある。網膜疾患の場合は、網膜の機能が欠損している欠損領域に照射されたレーザ光は感知されない。このため、網膜疾患を有する利用者に対しては、網膜のうち、欠損領域以外の領域にレーザ光を照射する方法が提案されている。 Another disease that impairs visual function is retinal disease. In the case of retinal disease, the laser beam radiated to the defective area where the retinal function is defective is not detected. Therefore, for users with retinal diseases, a method of irradiating a region other than the defective region of the retina with laser light has been proposed.

特開2016−134668号公報Japanese Unexamined Patent Publication No. 2016-134668

しかしながら、網膜疾患は、中心・部分暗点や視野狭窄等、多種多様であり、視野の欠損領域の大きさや位置も、人それぞれ異なる。このため、各利用者の疾患の態様に合わせてカスタマイズした画像投影装置を提供することは困難である。 However, retinal diseases are diverse, such as central / partial scotoma and narrowing of the visual field, and the size and position of the defective region of the visual field also differ from person to person. Therefore, it is difficult to provide an image projection device customized according to the mode of the disease of each user.

また、例えば、カスタマイズの手法の1つとして、利用者が視認する画像の部分的な歪曲を補正することが考えられるが、この場合には、得られる画像の対称性が損なわれ、違和感が大きくなる可能性がある。このように、従来の網膜走査型の画像投影装置では、網膜疾患を有する利用者に対しては、視機能の支援が不十分であった。 Further, for example, as one of the customization methods, it is conceivable to correct the partial distortion of the image visually recognized by the user, but in this case, the symmetry of the obtained image is impaired and the feeling of discomfort is large. There is a possibility of becoming. As described above, the conventional retinal scanning type image projection device has insufficient support for visual function for a user having a retinal disease.

開示の技術は、上述した事情に鑑みて成されたものであり、網膜疾患を有する利用者に対する視機能を支援すること目的としている。 The disclosed technique was developed in view of the above circumstances, and aims to support the visual function of a user having a retinal disease.

開示の技術は、入力された画像データを記憶する記憶部と、前記画像データに対し、前記画像データが示す画像を、前記画像の画角を維持した状態で、基準位置から等間隔の幅の領域に分割し、前記基準位置から離れるにしたがって前記領域の幅が単調に減少又は増加するように、補正を行う制御部と、レーザ光線を出射する光源部を有し、前記制御部による補正後の画像データに基づき、前記レーザ光線を2次元に走査し、利用者の網膜に前記補正後の画像データが示す画像を投影するレーザ照射部と、を有する画像投影装置である。 The disclosed technique is a storage unit that stores input image data, and an image indicated by the image data with respect to the image data, with a width of equal intervals from a reference position while maintaining the angle of view of the image. It is divided into regions, and has a control unit that makes corrections so that the width of the region monotonously decreases or increases as the distance from the reference position increases, and a light source unit that emits a laser beam. This is an image projection device including a laser irradiation unit that scans the laser beam in two dimensions based on the image data of the above and projects the image shown by the corrected image data on the user's retina.

網膜疾患を有する利用者に対する視機能を支援できる。 It can support visual function for users with retinal diseases.

第一の実施形態の画像投影装置のハードウェア構成を説明する図である。It is a figure explaining the hardware structure of the image projection apparatus of 1st Embodiment. 第一の実施形態の制御部の機能を説明する図である。It is a figure explaining the function of the control part of the 1st Embodiment. 第一の実施形態の画像投影装置の動作を説明するフローチャートである。It is a flowchart explaining the operation of the image projection apparatus of 1st Embodiment. 第一の実施形態における画像の補正を説明するフローチャートである。It is a flowchart explaining the correction of an image in 1st Embodiment. 第一の実施形態における画像の補正を説明する第一の図である。It is a 1st figure explaining the correction of an image in 1st Embodiment. 第一の実施形態における画像の補正を説明する第二の図である。It is a 2nd figure explaining the correction of an image in 1st Embodiment. 投影用画像データの一例を示す図である。It is a figure which shows an example of the image data for projection. 第二の実施形態の制御部の機能を説明する図である。It is a figure explaining the function of the control part of the 2nd Embodiment. 第二の実施形態の基準位置の設定を説明する図である。It is a figure explaining the setting of the reference position of the 2nd Embodiment. 第二の実施形態の画像投影装置の動作を説明するフローチャートである。It is a flowchart explaining operation of the image projection apparatus of 2nd Embodiment. 第三の実施形態の画像投影装置を説明する図である。It is a figure explaining the image projection apparatus of the 3rd Embodiment. 第二の実施形態の画像投影装置のハードウェア構成を説明する図である。It is a figure explaining the hardware structure of the image projection apparatus of the 2nd Embodiment. 第四の実施形態の画像投影装置を説明する図である。It is a figure explaining the image projection apparatus of 4th Embodiment. 第四の実施形態の画像投影システムに含まれる各装置のハードウェア構成を説明する図である。It is a figure explaining the hardware configuration of each apparatus included in the image projection system of 4th Embodiment. 第四の実施形態の端末装置の機能構成を説明する図である。It is a figure explaining the functional structure of the terminal apparatus of 4th Embodiment. 端末装置の表示例を示す図である。It is a figure which shows the display example of a terminal device. 第五の実施形態の画像投影装置を説明する図である。It is a figure explaining the image projection apparatus of the 5th Embodiment. 第五の実施形態の画像投影装置のハードウェア構成を示す図である。It is a figure which shows the hardware composition of the image projection apparatus of the 5th Embodiment.

(第一の実施形態)
以下に図面を参照して、第一の実施形態について説明する。図1は、第一の実施形態の画像投影装置のハードウェア構成を説明する図である。
(First Embodiment)
The first embodiment will be described below with reference to the drawings. FIG. 1 is a diagram illustrating a hardware configuration of the image projection device of the first embodiment.

本実施形態の画像投影装置100は、マクスウェル視を利用した網膜投影型ヘッドマウントディスプレイである。マクスウェル視を利用して、利用者の網膜に画像を投影するものである。マクスウェル視とは、画像データに基づく画像用光線を一旦瞳孔の中心で収束させてから網膜上に投影することで、人の水晶体の調節機能に影響されずに、人に画像データが示す画像を視認させることができる方法である。 The image projection device 100 of the present embodiment is a retinal projection type head-mounted display using Maxwell vision. An image is projected onto the user's retina using Maxwell vision. Maxwell vision is the process of converging an image ray based on image data at the center of the pupil and then projecting it onto the retina, so that the image shown by the image data to a person is displayed without being affected by the accommodation function of the human crystalline lens. This is a method that can be visually recognized.

また、本実施形態の画像投影装置100は、例えば、一般的な眼鏡のような形状としたフレームを有するものであっても良いし、利用者の両眼を覆うゴーグルのような形状であっても良い。 Further, the image projection device 100 of the present embodiment may have a frame shaped like general eyeglasses, or may have a shape like goggles covering both eyes of the user. Is also good.

本実施形態の画像投影装置100は、通信部20、制御部30、記憶部40、レーザ出力制御部(光線出力制御部)50、レーザ照射部60、画像入力部70、操作入力部80を有する。 The image projection device 100 of the present embodiment includes a communication unit 20, a control unit 30, a storage unit 40, a laser output control unit (ray output control unit) 50, a laser irradiation unit 60, an image input unit 70, and an operation input unit 80. ..

通信部20は、画像投影装置100と、外部装置との通信を行うための通信装置である。具体的には、例えば、通信部20は、ネットワーク等を介して、外部装置から画像投影装置100に投影させる画像の画像データを取得しても良い。通信部20による通信の方式は、画像投影装置100と外部装置とが通信を行うことができれば、どのような方式であっても良い。 The communication unit 20 is a communication device for communicating between the image projection device 100 and the external device. Specifically, for example, the communication unit 20 may acquire image data of an image to be projected on the image projection device 100 from an external device via a network or the like. The communication method by the communication unit 20 may be any method as long as the image projection device 100 and the external device can communicate with each other.

制御部30は、例えば、演算処理装置等であり、本実施形態の画像投影装置100の動作の全体を制御する。具体的には、制御部30は、通信部20から入力された画像データや、記憶部40に格納された画像データや、画像入力部70から入力された画像データに対して、補正を行い、補正後の画像データをレーザ出力制御部50へ出力する。 The control unit 30 is, for example, an arithmetic processing unit or the like, and controls the entire operation of the image projection device 100 of the present embodiment. Specifically, the control unit 30 corrects the image data input from the communication unit 20, the image data stored in the storage unit 40, and the image data input from the image input unit 70. The corrected image data is output to the laser output control unit 50.

より具体的には、本実施形態の制御部30は、画像データが示す画像のサイズ(画角)を変えずに、この画像に対し、中心部分を拡大し周辺部分を縮小する、又は、中心部分を縮小し周辺部分を拡大するように、画像データを補正する。この補正は、操作入力部80の操作に応じて行われる。制御部30は、補正後の画像データをレーザ出力制御部50へ出力する。制御部30による画像の補正の詳細は後述する。 More specifically, the control unit 30 of the present embodiment enlarges the central portion and reduces the peripheral portion or the center of the image without changing the size (angle of view) of the image indicated by the image data. The image data is corrected so that the portion is reduced and the peripheral portion is enlarged. This correction is performed according to the operation of the operation input unit 80. The control unit 30 outputs the corrected image data to the laser output control unit 50. Details of image correction by the control unit 30 will be described later.

記憶部40は、制御部30により実行されるプログラムや、演算により取得された各種の値等を格納する。また、記憶部40は、通信部20、画像入力部70等によって入力された画像データを保持する。さらに、記憶部40は、制御部30により補正された補正後の画像データが格納されても良い。 The storage unit 40 stores a program executed by the control unit 30, various values acquired by calculation, and the like. Further, the storage unit 40 holds the image data input by the communication unit 20, the image input unit 70, and the like. Further, the storage unit 40 may store the corrected image data corrected by the control unit 30.

レーザ出力制御部50は、レーザ照射部60を制御するための演算処理装置等であっても良く、例えば、記憶部40に格納された補正後の画像データに基づくレーザ光を、予め設定された光量で、レーザ照射部60から照射させる。 The laser output control unit 50 may be an arithmetic processing device or the like for controlling the laser irradiation unit 60, and for example, a laser beam based on the corrected image data stored in the storage unit 40 is set in advance. The laser irradiation unit 60 irradiates the laser with the amount of light.

レーザ照射部60は、レーザ光を照射する光源部を有し、補正後の画像データに基づくレーザ光を2次元に走査して、予め設定された光量で利用者の眼球(網膜)160に照射することによって、画像を網膜へ投影する。 The laser irradiation unit 60 has a light source unit that irradiates the laser light, scans the laser light based on the corrected image data in two dimensions, and irradiates the user's eyeball (retinal) 160 with a preset amount of light. By doing so, the image is projected onto the retina.

画像入力部70は、画像投影装置100に画像データを入力するためのものである。本実施形態の画像入力部70は、例えば、カメラ等の撮像装置であっても良く、この撮像装置により撮像された画像データは、記憶部40に格納されても良い。 The image input unit 70 is for inputting image data to the image projection device 100. The image input unit 70 of the present embodiment may be, for example, an image pickup device such as a camera, and the image data captured by this image pickup device may be stored in the storage unit 40.

また、画像入力部70は外部装置からの画像データ、動画像データをDVI(Digital Visual Interface)、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)などのインタフェースを用いて入力することもできる。 Further, the image input unit 70 uses an interface such as DVI (Digital Visual Interface), USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface) for image data and moving image data from an external device. You can also enter it.

操作入力部80は、画像投影装置100の利用者による、画像データの補正を指示する操作を受け付ける。操作入力部80が受け付けた操作は、制御部30に対する画像データの補正の指示となる。 The operation input unit 80 receives an operation instructing the user of the image projection device 100 to correct the image data. The operation received by the operation input unit 80 is an instruction for the control unit 30 to correct the image data.

本実施形態の操作入力部80は、具体的には、例えば、画像データの中心部分を拡大し周辺部分を縮小する操作、又は、中心部分を縮小し周辺部分を拡大する操作を行うための操作部材であって良い。 Specifically, the operation input unit 80 of the present embodiment is an operation for enlarging the central portion of the image data and reducing the peripheral portion, or an operation for reducing the central portion and enlarging the peripheral portion. It may be a member.

また、本実施形態では、操作入力部80の操作によって、連続的に画像データの中心部分の拡大の度合い及び周辺部分の縮小の度合いが変更されても良い。同様に、本実施形態では、操作入力部80の操作によって、連続的に画像データの周辺部分の拡大の度合い及び中心部分の縮小の度合いが変更されても良い。 Further, in the present embodiment, the degree of enlargement of the central portion and the degree of reduction of the peripheral portion of the image data may be continuously changed by the operation of the operation input unit 80. Similarly, in the present embodiment, the degree of enlargement of the peripheral portion and the degree of reduction of the central portion of the image data may be continuously changed by the operation of the operation input unit 80.

本実施形態では、このように、画像投影装置100の利用者の操作に応じて、画像の中心部分が拡大された補正後の画像データが示す画像、又は、画像の周辺部分が拡大された補正後の画像データが示す画像が利用者の網膜に投影される。 In the present embodiment, in this way, the image indicated by the corrected image data in which the central portion of the image is enlarged or the peripheral portion of the image is enlarged in accordance with the operation of the user of the image projection device 100. The image shown by the later image data is projected on the user's retina.

さらに、本実施形態では、操作に応じて、連続的に、画像データの中心部分と周辺部分の拡大又は縮小/縮小又は拡大の度合いを変更することができる。 Further, in the present embodiment, the degree of enlargement / reduction / reduction or enlargement of the central portion and the peripheral portion of the image data can be continuously changed according to the operation.

したがって、本実施形態によれば、例えば、利用者が網膜疾患を有する場合であっても、利用者が自身で、画像を視認しやすい状態に画像データを補正させることができ、網膜疾患を有する利用者に対する視機能を支援することができる。 Therefore, according to the present embodiment, for example, even when the user has a retinal disease, the user can correct the image data so that the image can be easily visually recognized, and the user has the retinal disease. It is possible to support the visual function for the user.

また、本実施形態では、画角を変えないように画像データを補正するため、利用者に網膜に投影される画像の大きさは維持される。言い換えれば、本実施形態によれば、画像の全体を利用者に視認させつつ、利用者にとっての見え方をより良くすることができる。 Further, in the present embodiment, since the image data is corrected so as not to change the angle of view, the size of the image projected on the retina by the user is maintained. In other words, according to the present embodiment, it is possible to improve the appearance for the user while allowing the user to visually recognize the entire image.

尚、図1では、画像投影装置100が各部を有する構成としたが、これに限定されない。例えば、通信部20、制御部30、記憶部40等は、画像投影装置100と接続されて画像投影装置100を制御する制御用端末等に設けられていても良い。この場合、画像投影装置100には、少なくとも、レーザ出力制御部50、レーザ照射部60が設けられていれば良い。 In FIG. 1, the image projection device 100 has each part, but the present invention is not limited to this. For example, the communication unit 20, the control unit 30, the storage unit 40, and the like may be provided in a control terminal or the like that is connected to the image projection device 100 and controls the image projection device 100. In this case, the image projection device 100 may be provided with at least a laser output control unit 50 and a laser irradiation unit 60.

次に、本実施形態の画像投影装置100の制御部の機能について説明する。図2は、第一の実施形態の制御部の機能を説明する図である。 Next, the function of the control unit of the image projection device 100 of the present embodiment will be described. FIG. 2 is a diagram illustrating a function of the control unit of the first embodiment.

本実施形態の制御部30は、画像データ取得部31、操作値取得部32、画像補正部33、画像データ出力部34を有する。 The control unit 30 of the present embodiment includes an image data acquisition unit 31, an operation value acquisition unit 32, an image correction unit 33, and an image data output unit 34.

画像データ取得部31は、記憶部40に格納された画像データを読み出して取得する。また、画像データ取得部31は、通信部20が受信した画像データを取得する。 The image data acquisition unit 31 reads and acquires the image data stored in the storage unit 40. Further, the image data acquisition unit 31 acquires the image data received by the communication unit 20.

操作値取得部32は、操作入力部80が受け付けた操作に応じた値を取得し、画像補正部33へ通知する。 The operation value acquisition unit 32 acquires a value corresponding to the operation received by the operation input unit 80 and notifies the image correction unit 33 of the value.

画像補正部33は、画像データ取得部31が取得した画像データを補正する。具体的には、本実施形態では、画像データ取得部31が取得した画像データが示す画像のサイズ(画角)を変えずに、操作値取得部32から通知された値に応じて、この画像の中心部分の拡大と周辺部分の縮小、又は、この画像の中心部分の縮小と周辺部分の拡大を行う。画像補正部33の詳細は後述する。 The image correction unit 33 corrects the image data acquired by the image data acquisition unit 31. Specifically, in the present embodiment, this image is obtained according to the value notified from the operation value acquisition unit 32 without changing the size (angle of view) of the image indicated by the image data acquired by the image data acquisition unit 31. The central part of the image is enlarged and the peripheral part is reduced, or the central part of this image is reduced and the peripheral part is enlarged. The details of the image correction unit 33 will be described later.

画像データ出力部34は、画像補正部33により補正された補正後の画像データをレーザ出力制御部50へ出力する。以下の説明では、画像補正部33による補正が行われた後の画像データを投影用画像データと呼ぶ。 The image data output unit 34 outputs the corrected image data corrected by the image correction unit 33 to the laser output control unit 50. In the following description, the image data after the correction by the image correction unit 33 is referred to as projection image data.

次に、図3を参照して、本実施形態の画像投影装置100の動作について説明する。図3は、第一の実施形態の画像投影装置の動作を説明するフローチャートである。 Next, the operation of the image projection device 100 of the present embodiment will be described with reference to FIG. FIG. 3 is a flowchart illustrating the operation of the image projection device of the first embodiment.

本実施形態の画像投影装置100の制御部30は、画像データ取得部31により、画像データを取得し、この画像データを利用者の網膜に投影させる(ステップS31)。具体的には、制御部30は、取得した画像データをレーザ出力制御部50へ出力し、レーザ出力制御部50によってレーザ照射部60を制御して、画像データに応じたレーザ光線を照射させ、画像(補正前の画像)を利用者の網膜に投影させる。 The control unit 30 of the image projection device 100 of the present embodiment acquires image data by the image data acquisition unit 31 and projects the image data on the user's retina (step S31). Specifically, the control unit 30 outputs the acquired image data to the laser output control unit 50, controls the laser irradiation unit 60 by the laser output control unit 50, and irradiates the laser beam according to the image data. The image (image before correction) is projected onto the user's retina.

尚、本実施形態では、例えば、制御部30において、画像データ取得部31により取得する画像データが予め設定されていても良い。具体的には、例えば、画像データ取得部31には、記憶部40に格納された画像データを取得するのか、又は、通信部20が受信した画像データを取得するのか、が予め設定されていても良い。 In the present embodiment, for example, the image data acquired by the image data acquisition unit 31 may be set in advance in the control unit 30. Specifically, for example, the image data acquisition unit 31 is preset to determine whether to acquire the image data stored in the storage unit 40 or the image data received by the communication unit 20. Is also good.

また、本実施形態では、画像データ取得部31は、通信部20が画像データを受信している場合には、受信している画像データを優先的に取得し、通信部20が画像データを受信していない場合には、記憶部40に格納された画像データを取得するようにしても良い。 Further, in the present embodiment, when the communication unit 20 receives the image data, the image data acquisition unit 31 preferentially acquires the received image data, and the communication unit 20 receives the image data. If not, the image data stored in the storage unit 40 may be acquired.

続いて、制御部30は、操作値取得部32により、画像の補正を指示する操作を受け付けたか否かを判定する(ステップS32)。具体的には、制御部30は、操作値取得部32が、操作入力部80の操作に応じた値を取得したか否かを判定する。 Subsequently, the control unit 30 determines whether or not the operation value acquisition unit 32 has accepted the operation for instructing the image correction (step S32). Specifically, the control unit 30 determines whether or not the operation value acquisition unit 32 has acquired the value corresponding to the operation of the operation input unit 80.

ステップS32において、操作を受け付けない場合、制御部30は、操作を受け付けるまで待機する。 If the operation is not accepted in step S32, the control unit 30 waits until the operation is accepted.

ステップS32において、操作を受け付けると、制御部30は、画像補正部33により、取得した画像データを補正する(ステップS33)。ステップS33の詳細は、後述する。 When the operation is accepted in step S32, the control unit 30 corrects the acquired image data by the image correction unit 33 (step S33). Details of step S33 will be described later.

続いて、制御部30は、画像補正部33から出力される投影用画像データを取得し、レーザ出力制御部50へ出力する(ステップS34)。 Subsequently, the control unit 30 acquires the projection image data output from the image correction unit 33 and outputs it to the laser output control unit 50 (step S34).

続いて、レーザ出力制御部50は投影用画像データを取得すると、レーザ照射部60を制御して、投影用画像データに応じたレーザ光線を照射させ、投影用画像(補正後の画像)を利用者の網膜に投影させる(ステップS35)。 Subsequently, when the laser output control unit 50 acquires the projection image data, the laser output control unit 50 controls the laser irradiation unit 60 to irradiate the laser beam according to the projection image data, and uses the projection image (corrected image). It is projected onto a person's retina (step S35).

投影する画像データが、カメラからの動画や、外部装置で再生された動画像(映像)ソースであれば、上記処理を繰り返し実行し、補正された動画像をリアルタイムに利用者の網膜に投影させることができる。 If the image data to be projected is a moving image from a camera or a moving image (video) source reproduced by an external device, the above processing is repeatedly executed to project the corrected moving image onto the user's retina in real time. be able to.

尚、図3の例では、始めに、補正する前の画像データを、利用者の網膜に投影させるものとしたが、これに限定されない。補正する前の画像データは、利用者の網膜に投影されなくても良く、補正後の投影用画像データが利用者の網膜に投影されても良い。 In the example of FIG. 3, first, the image data before correction is projected onto the retina of the user, but the present invention is not limited to this. The image data before correction does not have to be projected on the retina of the user, and the image data for projection after correction may be projected on the retina of the user.

次に、図4を参照して、本実施形態の画像補正部33による画像の補正について説明する。図4は、第一の実施形態における画像の補正を説明するフローチャートである。図4は、図3に示すステップS33の詳細を示している。 Next, with reference to FIG. 4, the image correction by the image correction unit 33 of the present embodiment will be described. FIG. 4 is a flowchart illustrating image correction in the first embodiment. FIG. 4 shows the details of step S33 shown in FIG.

本実施形態の画像投影装置100において、制御部30の画像補正部33は、画像データ取得部31が取得した画像データが示す画像を等間隔に分割する(ステップS41)。尚、分割する方向は、縦方向と横方向の両方を等間隔に分割することが好ましいが、縦方向又は横方向の何れか一方に対して、等間隔への分割を行っても良い。 In the image projection device 100 of the present embodiment, the image correction unit 33 of the control unit 30 divides the image indicated by the image data acquired by the image data acquisition unit 31 at equal intervals (step S41). As for the dividing direction, it is preferable to divide both the vertical direction and the horizontal direction at equal intervals, but the division may be performed at equal intervals in either the vertical direction or the horizontal direction.

続いて、画像補正部33は、操作値取得部32により、操作入力部80の操作に応じた値を取得する(ステップS42)。以下の説明では、操作値取得部32により取得される値を操作値と呼ぶ。 Subsequently, the image correction unit 33 acquires the value corresponding to the operation of the operation input unit 80 by the operation value acquisition unit 32 (step S42). In the following description, the value acquired by the operation value acquisition unit 32 is referred to as an operation value.

以下に、例えば、操作入力部80が物理的な操作ボタン等であった場合について説明する。この場合、操作値取得部32は、例えば、操作ボタンが押下された回数や、操作ボタンが押下されていた時間等を操作値としても良い。また、操作入力部80が、ダイヤル等であった場合には、操作値取得部32は、ダイヤルの回転量等を操作値としても良い。 Hereinafter, for example, a case where the operation input unit 80 is a physical operation button or the like will be described. In this case, the operation value acquisition unit 32 may use, for example, the number of times the operation button is pressed, the time during which the operation button is pressed, or the like as the operation value. When the operation input unit 80 is a dial or the like, the operation value acquisition unit 32 may use the rotation amount of the dial or the like as the operation value.

続いて、画像補正部33は、等間隔に分割した領域の幅が、ステップS42で取得した操作値を公比とする等比数列となるように、各領域の幅を算出する(ステップS43)。 Subsequently, the image correction unit 33 calculates the width of each region so that the width of the regions divided at equal intervals is a geometric progression having the operation value acquired in step S42 as a common ratio (step S43). ..

続いて、画像補正部33は、等間隔に分割した領域の高さの値が、操作値を公比とする等比数列となるように、各領域の高さを算出する(ステップS44)。 Subsequently, the image correction unit 33 calculates the height of each region so that the value of the height of the regions divided at equal intervals becomes a geometric progression with the operation value as a common ratio (step S44).

続いて、画像補正部33は、算出され各領域の幅と高さに基づき、各領域の幅と高さを変更し、投影用画像データを作成する(ステップS45)。 Subsequently, the image correction unit 33 changes the width and height of each region based on the calculated width and height of each region, and creates projection image data (step S45).

以下に、図5、図6を参照して、本実施形態の画像補正部33による画像の補正についてさらに説明する。図5は、第一の実施形態における画像の補正を説明する第一の図である。図6は、第一の実施形態における画像の補正を説明する第二の図である。 Hereinafter, image correction by the image correction unit 33 of the present embodiment will be further described with reference to FIGS. 5 and 6. FIG. 5 is a first diagram illustrating image correction in the first embodiment. FIG. 6 is a second diagram illustrating image correction in the first embodiment.

図5は、補正を行う前の画像51の例を示し、図6は、補正を行った後の補正後の画像51A、51Bの例を示す。尚、図5、図6では、説明の便宜上、一色の画像としている。また、図5、図6の例では、画像を横方向に対し、等間隔に分割するものとしている。 FIG. 5 shows an example of the image 51 before the correction, and FIG. 6 shows an example of the corrected images 51A and 51B after the correction. Note that, in FIGS. 5 and 6, for convenience of explanation, a one-color image is used. Further, in the examples of FIGS. 5 and 6, the image is divided into equal intervals in the horizontal direction.

画像51は、画像データ取得部31が取得した画像データが示す画像である。画像補正部33は、この画像51における中心点Pを通り、且つ、画像51を2等分する線Sを特定する。尚、中心点Pは、例えば、画像51が示す長方形の重心である。次に、画像補正部33は、線Sによって分割された領域の数が左右で同数となるように、画像51を等間隔に分割する。 The image 51 is an image indicated by the image data acquired by the image data acquisition unit 31. The image correction unit 33 identifies a line S that passes through the center point P in the image 51 and divides the image 51 into two equal parts. The center point P is, for example, the center of gravity of the rectangle shown in the image 51. Next, the image correction unit 33 divides the image 51 at equal intervals so that the number of regions divided by the line S is the same on the left and right.

図5の例では、画像補正部33は、線Sを中心(基準)に、右側の領域と左側の領域とを、それぞれ5の領域L1〜L5に分割している。したがって、図5の例では、中心部分の領域とは、線Sの両側に位置する2つの領域L1である。 In the example of FIG. 5, the image correction unit 33 divides the right side region and the left side region into 5 regions L1 to L5, respectively, with the line S as the center (reference). Therefore, in the example of FIG. 5, the region of the central portion is two regions L1 located on both sides of the line S.

ここで、線Sを基準に、右側の領域の幅と左側の領域の幅とをWtとし、右側の領域と左側の領域とを分割する数をnとし、分割された中心部分の領域の幅をWmとした場合、本実施形態では、幅Wtと幅Wmの関係は、以下の式で示される。 Here, with respect to the line S, the width of the right region and the width of the left region are Wt, the number of divisions between the right region and the left region is n, and the width of the divided central region is defined as n. In the present embodiment, the relationship between the width Wt and the width Wm is expressed by the following equation.

Wt=Wm(1+a+a+・・・+a(n−1)) 式(1)
ここで、aは公比である。言い換えれば、aは、操作入力部80が受け付けた操作に応じて取得される操作値である。図5の例では、n=5である。また、本実施形態において、例えば、Wt=1、a=1.2とした場合、
Wm=Wt/(1+a+a+a+a)=0.1344
となる。
Wt = Wm (1 + a + a 2 + ... + a (n-1) ) Equation (1)
Here, a is a common ratio. In other words, a is an operation value acquired in response to the operation received by the operation input unit 80. In the example of FIG. 5, n = 5. Further, in the present embodiment, for example, when Wt = 1 and a = 1.2,
Wm = Wt / (1 + a + a 2 + a 3 + a 4 ) = 0.1344
Will be.

次に、画像補正部33は公比a=1.2として、各領域Wnの幅を補正する。具体的には、図6(A)に示す補正後の画像51Aでは、補正後の領域L1′の幅W、補正後の領域L2′の幅W、補正後の領域L3′の幅W、補正後の領域L4′の幅Wが、公比a=1.2として、式(1)を用いて算出された状態を示している。 Next, the image correction unit 33 corrects the width of each region Wn with the common ratio a = 1.2. Specifically, in the corrected image 51A shown in FIG. 6A, the width W 1 of the corrected region L1', the width W 2 of the corrected region L2', and the width W of the corrected region L3' 3, the width W 4 of the corrected region L4 ', as common ratio a = 1.2, and shows a state that is calculated using equation (1).

図6(A)では、公比aが1よりも大きい値であるため、画像を横方向に等間隔に分割し、中心部分の分割幅を最も狭くし、中心部分から遠ざかるにつれて、分割幅が単調に増加していくように、画像が補正される。 In FIG. 6A, since the common ratio a is a value larger than 1, the image is divided at equal intervals in the horizontal direction, the division width of the central portion is made the narrowest, and the division width becomes larger as the distance from the central portion increases. The image is corrected so that it increases monotonically.

言い換えれば、本実施形態では、画像の画角を変えずに、画像を、基準位置を中心として等間隔の幅の領域に分割し、基準位置から遠ざかるにしたがって、領域の幅が等比級数的に増加していくように、補正する。 In other words, in the present embodiment, the image is divided into regions having a width of equal intervals centered on the reference position without changing the angle of view of the image, and the width of the regions is geometric progression as the distance from the reference position increases. Correct so that it increases to.

本実施形態では、この補正により、補正前の画像のサイズ(画角)を維持したまま、画像の中心部分を縮小し、周辺部分に向かって画像を拡大させることができる。 In the present embodiment, by this correction, the central portion of the image can be reduced and the image can be enlarged toward the peripheral portion while maintaining the size (angle of view) of the image before the correction.

図6(B)では、公比を1未満の値として、画像51を補正した補正後の画像51Bを示している。図6(B)に示す補正後の画像51Bでは、公比aが1未満の値であるため、画像を横方向に等間隔に分割し、中心部分の分割幅を最も広くし、中心部分から遠ざかるにつれて、分割幅が単調に減少していくように、画像が補正される。 FIG. 6B shows the corrected image 51B obtained by correcting the image 51 with the common ratio set to a value less than 1. In the corrected image 51B shown in FIG. 6B, since the common ratio a is less than 1, the image is divided at equal intervals in the horizontal direction, the division width of the central portion is widest, and the division width is widened from the central portion. The image is corrected so that the division width decreases monotonically as the distance increases.

言い換えれば、本実施形態では、画像の画角を変えずに、画像を、基準位置を中心として等間隔の幅の領域に分割し、基準位置から遠ざかるにしたがって、領域の幅が等比級数的に減少していくように、補正する。 In other words, in the present embodiment, the image is divided into regions having a width of equal intervals centered on the reference position without changing the angle of view of the image, and the width of the regions is geometric progression as the distance from the reference position increases. Correct so that it decreases to.

本実施形態では、この補正により、補正前の画像のサイズ(画角)を維持したまま、画像の中心部分を拡大し、周辺部分に向かって画像を縮小させることができる。 In the present embodiment, by this correction, the central portion of the image can be enlarged and the image can be reduced toward the peripheral portion while maintaining the size (angle of view) of the image before the correction.

このとき、公比aの範囲は、例えば、0.7<a<1.3程度であることが好ましいが、公比aの範囲は、予め設定されていればよく、この範囲に限定されない。 At this time, the range of the common ratio a is preferably, for example, about 0.7 <a <1.3, but the range of the common ratio a may be set in advance and is not limited to this range.

また、本実施形態では、操作値取得部32が取得した操作値に応じて、公比aが決まる。このため、本実施形態では、操作入力部80に対する操作に応じて、領域の幅が等比級数的に減少又は増加する度合いが変更される。 Further, in the present embodiment, the common ratio a is determined according to the operation value acquired by the operation value acquisition unit 32. Therefore, in the present embodiment, the degree to which the width of the region is geometrically decreased or increased is changed according to the operation on the operation input unit 80.

図5と図6では分割された領域の横方向の幅が補正された場合を示したが、本実施形態では、分割された領域の縦方向の高さも同様に補正される。 5 and 6 show a case where the width of the divided region in the horizontal direction is corrected, but in the present embodiment, the height of the divided region in the vertical direction is also corrected in the same manner.

また、図5と図6の例では、画像補正部33は、分割された領域の幅と高さが等比数列となるように補正するものとしたが、これに限定されない。画像補正部33は、分割された領域の幅と高さが等差数列となるように補正しても良い。この場合、操作値取得部32が取得する操作値は、公差となる。 Further, in the examples of FIGS. 5 and 6, the image correction unit 33 corrects the divided regions so that the width and height of the divided regions are geometric progressions, but the present invention is not limited to this. The image correction unit 33 may correct the width and height of the divided regions so that they are arithmetic progressions. In this case, the operation value acquired by the operation value acquisition unit 32 is a tolerance.

具体的には、この場合、図5に示す画像51の幅Wtと各領域の幅Wmの関係は、以下の式(2)のようになる。 Specifically, in this case, the relationship between the width Wt of the image 51 shown in FIG. 5 and the width Wm of each region is as shown in the following equation (2).

Wt=Wm×(n/2)+(b+2b+3b+4b) 式(2)
ここで、例えば、Wt=1、n=10、b=0.05とした場合、幅Wmは、以下のようになる。
Wt = Wm × (n / 2) + (b + 2b + 3b + 4b) Equation (2)
Here, for example, when Wt = 1, n = 10, and b = 0.05, the width Wm is as follows.

Wm=(2×(Lt−(10×b))/n=0.1
この場合、幅Wmの値が負になることはあり得ないため、公差bの範囲は、例えば、−0.05<b<0.05となることが好ましいが、公比bの範囲は、予め設定されていれば良く、この範囲に限定されない。
Wm = (2 × (Lt− (10 × b)) / n = 0.1
In this case, since the value of the width Wm cannot be negative, the range of the tolerance b is preferably -0.05 <b <0.05, for example, but the range of the tolerance b is It may be set in advance and is not limited to this range.

本実施形態では、公差bが0より大きい値であれば、画像51は、中心部分の分割幅を最も狭くし、中心部分から遠ざかるにつれて、分割幅が単調に増加していくように、画像が補正される。本実施形態では、公差bが0より小さい値であれば、画像51は、中心部分の分割幅を最も広くし、中心部分から遠ざかるにつれて、分割幅が単調に減少していくように、画像が補正される。 In the present embodiment, if the tolerance b is a value larger than 0, the image 51 has the narrowest division width of the central portion, and the image has a monotonically increasing division width as the distance from the central portion increases. It will be corrected. In the present embodiment, if the tolerance b is a value smaller than 0, the image 51 has the widest division width of the central portion, and the image has a monotonically decreasing division width as the distance from the central portion increases. It will be corrected.

図7は、投影用画像データの一例を示す図である。図7(A)に示す画像71は、画像データ取得部31が取得した画像データが示す画像の一例である。画像71では、中央部分に配置された円形画像71aと、周辺部分に配置された円形画像71b、71c、71d、71eを含む。 FIG. 7 is a diagram showing an example of projection image data. The image 71 shown in FIG. 7A is an example of an image shown by the image data acquired by the image data acquisition unit 31. The image 71 includes a circular image 71a arranged in the central portion and circular images 71b, 71c, 71d, 71e arranged in the peripheral portion.

図7(B)に示す画像72は、画像補正部33により、画像71を示す画像データを補正した後の投影用画像データが示す画像の一例である。 The image 72 shown in FIG. 7B is an example of an image shown by the projection image data after the image data showing the image 71 is corrected by the image correction unit 33.

画像72では、画像71と比較して、中央部分が縮小されており、周辺部分が拡大されている。したがって、画像72を示す投影用画像データは、操作値に応じた公比を1より大きい値として、画像71を示す画像データを補正したものである。 In the image 72, the central portion is reduced and the peripheral portion is enlarged as compared with the image 71. Therefore, the projection image data showing the image 72 is obtained by correcting the image data showing the image 71 with the common ratio according to the operation value set to a value larger than 1.

画像72では、画像71の中央部分を縮小することで、画像71の円形画像71aに対応する画像72aは中央部分に向かって縮められ、画像71の円形画像71b、71c、71d、71eに対応する画像72b、72c、72d、72eは、中央部分に向かって引き伸ばされる。 In the image 72, by reducing the central portion of the image 71, the image 72a corresponding to the circular image 71a of the image 71 is shrunk toward the central portion, and corresponds to the circular images 71b, 71c, 71d, 71e of the image 71. Images 72b, 72c, 72d, 72e are stretched towards the central portion.

このため、例えば、網膜疾患によって、画像71の円形画像71bと対応する領域の視野が欠損している利用者の網膜に対し、画像72を投影させた場合には、円形画像71bに対応する画像72bの視認が可能となる場合がある。 Therefore, for example, when the image 72 is projected onto the retina of a user whose visual field in the region corresponding to the circular image 71b of the image 71 is lost due to a retinal disease, the image corresponding to the circular image 71b is projected. It may be possible to visually recognize 72b.

図7(C)に示す画像73は、画像補正部33により、画像73を示す画像データを補正した後の投影用画像データが示す画像の一例である。 The image 73 shown in FIG. 7C is an example of an image shown by the projection image data after the image data indicating the image 73 is corrected by the image correction unit 33.

画像73では、画像71と比較して、中央部分が拡大されており、周辺部分が縮小されている。したがって、画像73を示す投影用画像データは、操作値に応じた公比を1未満の値として、画像71を示す画像データを補正したものである。 In the image 73, the central portion is enlarged and the peripheral portion is reduced as compared with the image 71. Therefore, the projection image data showing the image 73 is obtained by correcting the image data showing the image 71 with the common ratio according to the operation value set to a value of less than 1.

画像73では、画像71の中央部分を拡大することで、画像71の円形画像71aに対応する画像73aは周辺部分に向かって引き伸ばされ、画像71の円形画像71b、71c、71d、71eに対応する画像73b、73c、73d、73eは、周辺部分に向かって縮められる。 In the image 73, by enlarging the central portion of the image 71, the image 73a corresponding to the circular image 71a of the image 71 is stretched toward the peripheral portion, and corresponds to the circular images 71b, 71c, 71d, 71e of the image 71. The images 73b, 73c, 73d, 73e are shrunk toward the peripheral portion.

このため、例えば、網膜疾患によって、画像71の円形画像71aと対応する領域の視野が欠損している利用者の網膜に対し、画像73を投影させた場合には、円形画像71aに対応する画像73aの視認が可能となる場合がある。 Therefore, for example, when the image 73 is projected onto the retina of a user whose visual field in the region corresponding to the circular image 71a of the image 71 is lost due to a retinal disease, the image corresponding to the circular image 71a is projected. The 73a may be visible.

また、本実施形態では、操作入力部80に対する操作に応じて、画像71が画像72又は画像73まで連続的に変化しても良い。この場合、画像投影装置100は、利用者に対して、操作入力部80に応じて画像71が画像72へ変化していく様子を動画として投影させても良い。また、本実施形態では、画像72から画像73までの変化、画像73から画像72までの変化のそれぞれについても、動画として利用者の網膜に投影させても良い。 Further, in the present embodiment, the image 71 may be continuously changed to the image 72 or the image 73 according to the operation on the operation input unit 80. In this case, the image projection device 100 may cause the user to project as a moving image how the image 71 changes to the image 72 according to the operation input unit 80. Further, in the present embodiment, each of the change from the image 72 to the image 73 and the change from the image 73 to the image 72 may be projected on the user's retina as a moving image.

本実施形態では、このように、利用者の操作に応じて、画像の対称性を維持しながら、
自由に拡大と縮小を行うことができる。
In this embodiment, in this way, while maintaining the symmetry of the image according to the operation of the user,
It can be expanded and contracted freely.

このため、本実施形態によれば、中心・部分暗点や視野狭窄等の網膜疾患を有する利用者が、自身の疾患の態様に合わせて、利用者自身が見やすいように、自由に画像を補正することができる。したがって、本実施形態によれば、網膜疾患を有する利用者に対する視機能の支援を効果的に行うことができる。 Therefore, according to the present embodiment, a user having a retinal disease such as a central / partial scotoma or a narrowed visual field can freely correct an image so that the user can easily see the image according to the mode of the disease. can do. Therefore, according to the present embodiment, it is possible to effectively support the visual function of a user having a retinal disease.

また、本実施形態では、画角を変えないように画像データを補正するため、利用者に網膜に投影される画像の大きさは維持される。このため、本実施形態では、画像の全体を利用者に視認させつつ、中心部分又は周辺部分の見え方をより良くすることができる。 Further, in the present embodiment, since the image data is corrected so as not to change the angle of view, the size of the image projected on the retina by the user is maintained. Therefore, in the present embodiment, it is possible to improve the appearance of the central portion or the peripheral portion while allowing the user to visually recognize the entire image.

(第二の実施形態)
以下に図面を参照して第二の実施形態について説明する。第二の実施形態では、補正前の画像を分割する際に、基準となる位置を設定できる点が、第一の実施形態と相違する。よって、以下の第二の実施形態の説明では、第一の実施形態との相違点について説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
(Second embodiment)
The second embodiment will be described below with reference to the drawings. The second embodiment differs from the first embodiment in that a reference position can be set when the image before correction is divided. Therefore, in the following description of the second embodiment, the differences from the first embodiment will be described, and those having the same functional configuration as the first embodiment will be described in the description of the first embodiment. A code similar to the code used will be assigned, and the description thereof will be omitted.

図8は、第二の実施形態の制御部の機能を説明する図である。本実施形態の制御部30Aは、画像データ取得部31、操作値取得部32、画像補正部33、画像データ出力部34、基準位置設定部35を有する。 FIG. 8 is a diagram illustrating a function of the control unit of the second embodiment. The control unit 30A of the present embodiment includes an image data acquisition unit 31, an operation value acquisition unit 32, an image correction unit 33, an image data output unit 34, and a reference position setting unit 35.

本実施形態の基準位置設定部35は、補正前の画像において、画像を等間隔に分割する際の基準位置を設定する。 The reference position setting unit 35 of the present embodiment sets the reference position when the image is divided into equal intervals in the image before correction.

以下に、図9を参照して、基準位置について説明する。図9は、第二の実施形態の基準位置の設定を説明する図である。 The reference position will be described below with reference to FIG. FIG. 9 is a diagram illustrating the setting of the reference position of the second embodiment.

図9では、画像51において、線S1が基準として設定された場合を示している。図9の例では、線S1が画像を等間隔に分割する際の基準となるため、線S1を挟んで隣接する2つの領域L11が、中心の領域となる。 FIG. 9 shows a case where the line S1 is set as a reference in the image 51. In the example of FIG. 9, since the line S1 serves as a reference when dividing the image at equal intervals, the two regions L11 adjacent to each other with the line S1 in between are the central regions.

つまり、本実施形態では、線S1を中心とした領域が、画像補正部33によって拡大又は縮小されることになる。 That is, in the present embodiment, the region centered on the line S1 is enlarged or reduced by the image correction unit 33.

尚、図9の例では、基準位置として、線S1を設定するものとしたが、これに限定されない。基準位置は、点であっても良い。基準位置として、点が設定された場合には、その点を中心にして、画像51の縦方向と横方向について、それぞれ等間隔に分割し、点を介して縦方向に隣接する領域と、点を介して横方向に隣接する領域とを中心の領域とすれば良い。 In the example of FIG. 9, the line S1 is set as the reference position, but the reference position is not limited to this. The reference position may be a point. When a point is set as the reference position, the image 51 is divided into the vertical direction and the horizontal direction at equal intervals around the point, and the area adjacent to the vertical direction via the point and the point. The area adjacent to each other in the lateral direction may be set as the central area.

また、基準位置が点である場合には、この点を中心とした同心円のうち、最も半径が短い円の領域と、この円と、次に半径が短い円とが重ならない領域と、を隣接する領域としても良い。 When the reference position is a point, the area of the circle with the shortest radius among the concentric circles centered on this point and the area where this circle and the circle with the next shortest radius do not overlap are adjacent to each other. It may be an area to be used.

次に、図10を参照して、本実施形態の制御部30Aの動作について説明する。図10は、第二の実施形態の画像投影装置の動作を説明するフローチャートである。 Next, the operation of the control unit 30A of the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating the operation of the image projection device of the second embodiment.

本実施形態の制御部30Aは、画像データ取得部31により、画像データを取得し、この画像データを利用者の網膜に投影させる(ステップS1001)。 The control unit 30A of the present embodiment acquires image data by the image data acquisition unit 31 and projects the image data onto the user's retina (step S1001).

続いて、制御部30Aは、基準位置設定部35により、画像補正部33による補正の基準となる位置を決定する(ステップS1002)。 Subsequently, the control unit 30A determines a position that serves as a reference for correction by the image correction unit 33 by the reference position setting unit 35 (step S1002).

図10のステップS1003からステップS1005までの処理は、図3のステップS33からステップS35までの処理と同様であるから、説明を省略する。 Since the processing from step S1003 to step S1005 in FIG. 10 is the same as the processing from step S33 to step S35 in FIG. 3, the description thereof will be omitted.

本実施形態では、このように、画像補正部33による補正の基準位置を任意に設定できるため、利用者の要望に応じて、利用者の網膜に投影する画像の任意の領域を拡大又は縮小させることができる。 In the present embodiment, since the reference position for correction by the image correction unit 33 can be arbitrarily set in this way, an arbitrary region of the image projected on the user's retina is enlarged or reduced according to the user's request. be able to.

(第三の実施形態)
以下に図面を参照して第三の実施形態について説明する。第三の実施形態では、画像投影装置をアイウェア型とした点が、第一の実施形態と相違する。よって、以下の第三の実施形態の説明では、第一の実施形態との相違点について説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
(Third embodiment)
The third embodiment will be described below with reference to the drawings. The third embodiment differs from the first embodiment in that the image projection device is an eyewear type. Therefore, in the following description of the third embodiment, the differences from the first embodiment will be described, and those having the same functional configuration as the first embodiment will be described in the description of the first embodiment. A code similar to the code used will be assigned, and the description thereof will be omitted.

図11は、第三の実施形態の画像投影装置を説明する図である。 FIG. 11 is a diagram illustrating an image projection device according to a third embodiment.

本実施形態の画像投影装置100Aは、眼鏡型のフレーム110と、レーザ照射部60A、操作入力部80A、光学投影部90、カメラ95、ケーブル120と、制御装置130と、を含む。 The image projection device 100A of the present embodiment includes a spectacle-shaped frame 110, a laser irradiation unit 60A, an operation input unit 80A, an optical projection unit 90, a camera 95, a cable 120, and a control device 130.

レーザ照射部60A、光学投影部90、カメラ95は、フレーム110に取り付けられる。レーザ照射部60Aは、ケーブル120を介して制御装置130と接続される。また、レーザ照射部60Aには、操作入力部80Aが設けられる。 The laser irradiation unit 60A, the optical projection unit 90, and the camera 95 are attached to the frame 110. The laser irradiation unit 60A is connected to the control device 130 via the cable 120. Further, the laser irradiation unit 60A is provided with an operation input unit 80A.

尚、図11の例では、画像投影装置100Aは、眼鏡型のフレーム110を含む形態としたが、画像投影装置100Aは、利用者の両眼を覆うゴーグルのような形状であってもよい。 In the example of FIG. 11, the image projection device 100A has a form including a spectacle-shaped frame 110, but the image projection device 100A may have a shape like goggles covering both eyes of the user.

また、本実施形態の画像投影装置100Aは、ケーブル210を介して画像再生機器200と接続される。 Further, the image projection device 100A of the present embodiment is connected to the image reproduction device 200 via a cable 210.

画像再生機器200は、例えば、タブレットコンピュータ、スマートフォン、DVD(Digital Versatile Disk)プレーヤ、カメラ、ビデオカメラ等の画像を再生して出力する機器である。 The image reproduction device 200 is, for example, a device that reproduces and outputs an image of a tablet computer, a smartphone, a DVD (Digital Versatile Disk) player, a camera, a video camera, or the like.

画像投影装置100Aにおいて、制御装置130は、画像再生機器200とケーブル210でデータ通信ができるように接続されることによって画像データが入力され、入力された画像データに対して所定の処理を行ない、処理された画像データを出力する。尚、制御装置130は、画像再生機器200と無線でデータ通信ができるように接続されていてもよい。 In the image projection device 100A, the control device 130 is connected to the image reproduction device 200 by a cable 210 so that data communication is possible, so that image data is input, and the input image data is subjected to predetermined processing. Output the processed image data. The control device 130 may be connected to the image reproduction device 200 so that data communication can be performed wirelessly.

以下に、図12を参照して、本実施形態の画像投影装置100Aのハードウェア構成について説明する。図12は、第二の実施形態の画像投影装置のハードウェア構成を説明する図である。 Hereinafter, the hardware configuration of the image projection device 100A of the present embodiment will be described with reference to FIG. FIG. 12 is a diagram illustrating a hardware configuration of the image projection device of the second embodiment.

本実施形態の画像投影装置100Aは、制御装置130と、アイウェア部140と、を含む。 The image projection device 100A of the present embodiment includes a control device 130 and an eyewear unit 140.

制御装置130は、制御部30、記憶部40、レーザ出力制御部50、画像入力部70Aを有する。画像入力部70Aは、ケーブル210を介して画像再生機器200から画像データが入力される。本実施形態の画像入力部70Aは、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)コネクタ等であっても良い。 The control device 130 includes a control unit 30, a storage unit 40, a laser output control unit 50, and an image input unit 70A. Image data is input from the image reproduction device 200 to the image input unit 70A via the cable 210. The image input unit 70A of the present embodiment may be, for example, an HDMI (registered trademark) (High-Definition Multimedia Interface) connector or the like.

本実施形態のアイウェア部140は、レーザ照射部60A、光学投影部90、カメラ95、操作入力部80Aを有する。 The eyewear unit 140 of the present embodiment includes a laser irradiation unit 60A, an optical projection unit 90, a camera 95, and an operation input unit 80A.

光学投影部90は、例えば、レーザ照射部60Aから照射されるレーザ光を利用者の眼球に向けて反射する固定式のミラーである。 The optical projection unit 90 is, for example, a fixed mirror that reflects the laser light emitted from the laser irradiation unit 60A toward the user's eyeball.

カメラ95は、画像入力部の一部であり、アイウェア部140を装着している利用者の視界の画像を撮像する。尚、本実施形態では、画像投影装置100Aは、カメラ95を有するものとしたが、画像投影装置100Aは、カメラ95を有さなくても良い。 The camera 95 is a part of the image input unit and captures an image of the field of view of the user wearing the eyewear unit 140. In the present embodiment, the image projection device 100A has the camera 95, but the image projection device 100A does not have to have the camera 95.

操作入力部80Aは、例えば、タッチセンサ等である。本実施形態では、例えば、タッチセンサの一端が操作されると、公比の値が1より大きい値から増大し、他端が操作されると、公比が1未満の値から減少するようにしても良い。 The operation input unit 80A is, for example, a touch sensor or the like. In the present embodiment, for example, when one end of the touch sensor is operated, the common ratio value increases from a value larger than 1, and when the other end is operated, the common ratio value decreases from a value less than 1. You may.

本実施形態では、このように、構成することで、画像投影装置100Aの利用者は、画像再生機器200で再生している画像を視認している状態で、操作入力部80Aを操作することができる。したがって、本実施形態によれば、画像投影装置100Aの利用者は、画像再生機器200から出力される画像を視認しながら、画像データを自身が見やすい画像データに補正することができる。 In the present embodiment, by configuring in this way, the user of the image projection device 100A can operate the operation input unit 80A while visually recognizing the image being reproduced by the image reproduction device 200. can. Therefore, according to the present embodiment, the user of the image projection device 100A can correct the image data into image data that is easy for him / her to see while visually recognizing the image output from the image reproduction device 200.

(第四の実施形態)
以下に図面を参照して第四の実施形態について説明する。第四の実施形態では、画像再生機器200の代わりに端末装置300を用い、端末装置300で補正の指示の受付及び画像データの補正を行う点が、第三の実施形態と相違する。よって、以下の第四の実施形態の説明では、第三の実施形態との相違点について説明し、第三の実施形態と同様の機能構成を有するものには、第三の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
(Fourth Embodiment)
The fourth embodiment will be described below with reference to the drawings. The fourth embodiment is different from the third embodiment in that the terminal device 300 is used instead of the image reproduction device 200, and the terminal device 300 receives the correction instruction and corrects the image data. Therefore, in the following description of the fourth embodiment, the differences from the third embodiment will be described, and those having the same functional configuration as the third embodiment will be described in the third embodiment. A code similar to the code used will be assigned, and the description thereof will be omitted.

図13は、第四の実施形態の画像投影装置を説明する図である。 FIG. 13 is a diagram illustrating an image projection device according to a fourth embodiment.

本実施形態の画像投影装置100Bは、眼鏡型のフレーム110と、レーザ照射部60A、光学投影部90、カメラ95、ケーブル120と、制御装置130Aと、を含む。 The image projection device 100B of the present embodiment includes a spectacle-shaped frame 110, a laser irradiation unit 60A, an optical projection unit 90, a camera 95, a cable 120, and a control device 130A.

また、本実施形態の画像投影装置100Bにおいて、制御装置130Aは、ケーブル120を介して、ディスプレイ310を有する端末装置300と接続される。端末装置300は、例えば、タブレットコンピュータ、スマートフォン等である。尚、制御装置130Aは、端末装置300と無線で通信を行っても良い。 Further, in the image projection device 100B of the present embodiment, the control device 130A is connected to the terminal device 300 having the display 310 via the cable 120. The terminal device 300 is, for example, a tablet computer, a smartphone, or the like. The control device 130A may wirelessly communicate with the terminal device 300.

本実施形態の画像投影装置100Bは、端末装置300とは、画像投影システム500に含まれても良い。本実施形態の画像投影システム500では、端末装置300において、画像データの補正を指示する操作の受け付けや画像データの補正を行う。 The image projection device 100B of the present embodiment may be included in the image projection system 500 together with the terminal device 300. In the image projection system 500 of the present embodiment, the terminal device 300 accepts an operation instructing the correction of the image data and corrects the image data.

図14は、第四の実施形態の画像投影システムに含まれる各装置のハードウェア構成を説明する図である。 FIG. 14 is a diagram illustrating a hardware configuration of each device included in the image projection system of the fourth embodiment.

画像投影装置100Bは、制御装置130Aとアイウェア部140Aとを有する。制御装置130Aは、制御部30、記憶部40、レーザ出力制御部50、通信部75を有する。 The image projection device 100B has a control device 130A and an eyewear unit 140A. The control device 130A includes a control unit 30, a storage unit 40, a laser output control unit 50, and a communication unit 75.

本実施形態の通信部75は、例えば、端末装置300と通信を行うためのUSB(Universal Serial Bus)コネクタ等であっても良い。また、通信部75は、端末装置300と無線通信を行っても良い。 The communication unit 75 of the present embodiment may be, for example, a USB (Universal Serial Bus) connector for communicating with the terminal device 300 or the like. Further, the communication unit 75 may perform wireless communication with the terminal device 300.

本実施形態のアイウェア部140Aは、レーザ照射部60A、光学投影部90、カメラ95を有する。 The eyewear unit 140A of the present embodiment includes a laser irradiation unit 60A, an optical projection unit 90, and a camera 95.

本実施形態の端末装置300は、入力部301、出力部302、演算処理部303、記憶部304等を有する。 The terminal device 300 of the present embodiment includes an input unit 301, an output unit 302, an arithmetic processing unit 303, a storage unit 304, and the like.

入力部301は、例えば、端末装置300に対する情報を入力するためタッチパネルや操作ボタン等である。出力部302は、例えば、端末装置300から情報を出力するためものであり、ディスプレイ310等により実現される。 The input unit 301 is, for example, a touch panel, an operation button, or the like for inputting information for the terminal device 300. The output unit 302 is for outputting information from the terminal device 300, for example, and is realized by a display 310 or the like.

演算処理部303は、例えば、CPU(Central Processing Unit)等であり、各種の演算を行う。記憶部304であり、演算処理部303によって読み出されて実行されるプログラムや、演算処理部303による演算によって生成されたデータ等が格納される。 The arithmetic processing unit 303 is, for example, a CPU (Central Processing Unit) or the like, and performs various arithmetic operations. The storage unit 304 stores a program read and executed by the arithmetic processing unit 303, data generated by an arithmetic operation by the arithmetic processing unit 303, and the like.

本実施形態の画像投影システム500では、端末装置300において、画像データの補正を行い、補正後の画像データを画像投影装置100Bに出力する。 In the image projection system 500 of the present embodiment, the terminal device 300 corrects the image data, and the corrected image data is output to the image projection device 100B.

以下に、図15を参照して、本実施形態の端末装置300の機能について説明する。図15は、第四の実施形態の端末装置の機能構成を説明する図である。 Hereinafter, the function of the terminal device 300 of the present embodiment will be described with reference to FIG. FIG. 15 is a diagram illustrating a functional configuration of the terminal device of the fourth embodiment.

本実施形態の端末装置300は、第一の実施形態の制御部30の有する機能に加え、画像の補正の指示を行うための操作画面を表示させる。 The terminal device 300 of the present embodiment displays an operation screen for instructing image correction in addition to the functions of the control unit 30 of the first embodiment.

本実施形態の端末装置300は、補正処理部320を有する。補正処理部320は、記憶部304に格納されたプログラムを演算処理部303が読み出して実行することで実現される。 The terminal device 300 of the present embodiment has a correction processing unit 320. The correction processing unit 320 is realized by the arithmetic processing unit 303 reading and executing the program stored in the storage unit 304.

本実施形態の補正処理部320は、画像データ取得部31、操作値取得部32、画像補正部33、画像データ出力部34、表示制御部36を有する。 The correction processing unit 320 of the present embodiment includes an image data acquisition unit 31, an operation value acquisition unit 32, an image correction unit 33, an image data output unit 34, and a display control unit 36.

本実施形態の表示制御部36は、操作値を入力するための入力画面をディスプレイ(表示部)310に表示させる。尚、入力画面で入力される操作値は、公比a又は公差bそのものであっても良い。 The display control unit 36 of the present embodiment displays an input screen for inputting an operation value on the display (display unit) 310. The operation value input on the input screen may be the tolerance a or the tolerance b itself.

図16は、端末装置の表示例を示す図である。図16に示す画面311には、操作ボタン312、313、314が表示される。 FIG. 16 is a diagram showing a display example of the terminal device. On the screen 311 shown in FIG. 16, operation buttons 312, 313, and 314 are displayed.

操作ボタン312は、画像の中央部分を拡大させ、周辺部分を縮小させるための操作を行うためのものであり、操作ボタン312a、312bを含む。より具体的には、操作ボタン312は、図7の画像71を画像73のようにするための操作ボタンである。 The operation button 312 is for performing an operation for enlarging the central portion of the image and reducing the peripheral portion, and includes the operation buttons 312a and 312b. More specifically, the operation button 312 is an operation button for making the image 71 of FIG. 7 look like the image 73.

言い換えれば、操作ボタン312は、式(1)における公比aの値を、1より大きい値から最大値までの間で変更させるための操作ボタンである。さらに言い換えれば、操作ボタン312は、式(2)における公差bの値を、0より大きい値から最大値までの間で変更させるための操作ボタンである。 In other words, the operation button 312 is an operation button for changing the value of the common ratio a in the equation (1) from a value larger than 1 to a maximum value. In other words, the operation button 312 is an operation button for changing the value of the tolerance b in the equation (2) from a value larger than 0 to a maximum value.

本実施形態では、画像補正部33による補正において、等比数列を用いる場合には、操作ボタン312aが操作されると、公比aの値は、現在の値よりも大きい値となり、操作ボタン312bが操作されると、公比aの値は、現在の値よりも小さい値となる。また、画像補正部33による補正において、等差数列を用いる場合には、操作ボタン312aが操作されると、公差bの値は、現在の値よりも大きい値となり、操作ボタン312bが操作されると、公差bの値は、現在の値よりも小さい値となる。 In the present embodiment, when the geometric progression is used in the correction by the image correction unit 33, when the operation button 312a is operated, the value of the common ratio a becomes a value larger than the current value, and the operation button 312b When is manipulated, the value of the geometric ratio a becomes smaller than the current value. Further, when the arithmetic progression is used in the correction by the image correction unit 33, when the operation button 312a is operated, the value of the tolerance b becomes a value larger than the current value, and the operation button 312b is operated. Then, the value of the tolerance b is smaller than the current value.

操作ボタン313は、画像の周辺部分を拡大させ、中央部分を縮小させるための操作を行うためのものであり、操作ボタン313a、313bを含む。より具体的には、操作ボタン313は、図7の画像71を画像72のようにするための操作ボタンである。 The operation button 313 is for performing an operation for enlarging the peripheral portion of the image and reducing the central portion, and includes the operation buttons 313a and 313b. More specifically, the operation button 313 is an operation button for making the image 71 of FIG. 7 look like the image 72.

言い換えれば、操作ボタン312は、式(1)における公比aの値を、1未満の値から最小値までの間で変更させるための操作ボタンである。さらに言い換えれば、操作ボタン312は、式(2)における公差bの値を、0未満の値から最小値までの間で変更させるための操作ボタンである。 In other words, the operation button 312 is an operation button for changing the value of the common ratio a in the equation (1) from a value less than 1 to a minimum value. In other words, the operation button 312 is an operation button for changing the value of the tolerance b in the equation (2) from a value less than 0 to a minimum value.

ここで、中央部分を拡大、縮小させる操作ボタン312a、312bと、周辺部分を拡大、縮小させる操作ボタン313a、313bとを別々に設けるのではなく、操作ボタン312a、312bのみを設け、312aを操作したときは中心部分を拡大するとともに、周辺部は中心部の拡大率に応じて縮小されるようにしても良い。 Here, instead of separately providing the operation buttons 312a and 312b for enlarging and reducing the central portion and the operation buttons 313a and 313b for enlarging and reducing the peripheral portion, only the operation buttons 312a and 312b are provided and the 312a is operated. When this happens, the central portion may be enlarged and the peripheral portion may be reduced according to the enlargement ratio of the central portion.

本実施形態では、画像補正部33による補正において、等比数列を用いる場合には、操作ボタン313aが操作されると、公比aの値は、現在の値よりも大きい値となり、操作ボタン313bが操作されると、公比aの値は、現在の値よりも小さい値となる。また、画像補正部33による補正において、等差数列を用いる場合には、操作ボタン312aが操作されると、公差bの値は、現在の値よりも大きい値となり、操作ボタン312bが操作されると、公差bの値は、現在の値よりも小さい値となる。 In the present embodiment, when the geometric progression is used in the correction by the image correction unit 33, when the operation button 313a is operated, the value of the common ratio a becomes a value larger than the current value, and the operation button 313b When is manipulated, the value of the geometric ratio a becomes smaller than the current value. Further, when the arithmetic progression is used in the correction by the image correction unit 33, when the operation button 312a is operated, the value of the tolerance b becomes a value larger than the current value, and the operation button 312b is operated. Then, the value of the tolerance b is smaller than the current value.

操作ボタン314は、操作ボタン312、313によって補正した補正後の画像を、補正前の状態(初期状態)に戻すための操作ボタンである。具体的には、操作ボタン314は、図7の画像72や画像73を画像71に戻すための操作ボタンである。 The operation button 314 is an operation button for returning the corrected image corrected by the operation buttons 312 and 313 to the state before the correction (initial state). Specifically, the operation button 314 is an operation button for returning the image 72 or the image 73 of FIG. 7 to the image 71.

尚、図16に示す画面は、一例である。公比aや公差bを変更する手段は、例えば、操作ボタン312、313の代わりに、タッチパネル上に所定の領域を設け、この領域内でピンチアウト操作/ピンチイン操作を行うことで、公比aや公差bを変更する手段を実現しても良い。 The screen shown in FIG. 16 is an example. As a means for changing the tolerance a and the tolerance b, for example, instead of the operation buttons 312 and 313, a predetermined area is provided on the touch panel, and a pinch-out operation / pinch-in operation is performed in this area to change the tolerance a. Or a means of changing the tolerance b may be realized.

また、公比aや公差bを変更する手段は、例えば、端末装置300に設けられたハードウェアスイッチで実現しても良い。具体的には、例えば、端末装置300が有する音量調整用のハードウェアスイッチ等を用いても良い。 Further, the means for changing the tolerance a and the tolerance b may be realized by, for example, a hardware switch provided in the terminal device 300. Specifically, for example, a hardware switch for adjusting the volume of the terminal device 300 or the like may be used.

本実施形態では、このように、端末装置300で画像データの補正を行うことで、画像投影装置100Bの処理負荷を軽減できる。また、画像投影装置100Bに、画像データの補正を指示するための操作部材を設ける必要がなく、画像投影装置100Bの構成を簡素化できる。 In the present embodiment, the processing load of the image projection device 100B can be reduced by correcting the image data in the terminal device 300 in this way. Further, it is not necessary to provide the image projection device 100B with an operating member for instructing the correction of the image data, and the configuration of the image projection device 100B can be simplified.

(第五の実施形態)
以下に図面を参照して、第五の実施形態について説明する。第五の実施形態では、端末装置がレーザ照射部を有する点が、第四の実施形態と相違する。よって、以下の第五の実施形態の説明では、第四の実施形態との相違点について説明し、第四の実施形態と同様の機能構成を有するものには、第四の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
(Fifth Embodiment)
The fifth embodiment will be described below with reference to the drawings. The fifth embodiment differs from the fourth embodiment in that the terminal device has a laser irradiation unit. Therefore, in the following description of the fifth embodiment, the differences from the fourth embodiment will be described, and those having the same functional configuration as the fourth embodiment will be described in the fourth embodiment. A code similar to the code used will be assigned, and the description thereof will be omitted.

図17は、第五の実施形態の画像投影装置を説明する図である。本実施形態の画像投影装置100Cは、端末装置300Aと、ケース400と、光学投影部90Aとを有し、端末装置300Aに光学投影部90Aが取り付けられている。端末装置300Aは、例えば、スマートフォンである。 FIG. 17 is a diagram illustrating an image projection device according to a fifth embodiment. The image projection device 100C of the present embodiment has a terminal device 300A, a case 400, and an optical projection unit 90A, and the optical projection unit 90A is attached to the terminal device 300A. The terminal device 300A is, for example, a smartphone.

端末装置300Aは、筐体330、ディスプレイ(表示部)310、ホームボタン350、及びレーザ照射部60(図18参照)を含む。筐体330は、端末装置300Aの外表面のうちディスプレイ310以外の部分に存在する。ディスプレイ310は、XY平面に平行な+Z側の面にタッチパネルと重ね合わせた状態で設けられている。ホームボタン350は、ディスプレイ310の中の−Y方向側の端部でX方向の中央に設けられている。 The terminal device 300A includes a housing 330, a display (display unit) 310, a home button 350, and a laser irradiation unit 60 (see FIG. 18). The housing 330 exists on a portion of the outer surface of the terminal device 300A other than the display 310. The display 310 is provided on the + Z side surface parallel to the XY plane in a state of being superposed on the touch panel. The home button 350 is provided at the end of the display 310 on the −Y direction side and in the center of the X direction.

以下では、端末装置300Aの外表面のうち、ディスプレイ310がある+Z方向側でXY平面に平行な面と、ディスプレイ310とは反対側の−Z方向側でXY平面に平行な面とを除いた面を端末装置300Aの側面と称す。 In the following, among the outer surfaces of the terminal device 300A, the surface parallel to the XY plane on the + Z direction side where the display 310 is located and the surface parallel to the XY plane on the −Z direction side opposite to the display 310 are excluded. The surface is referred to as a side surface of the terminal device 300A.

レーザ照射部60は、端末装置300Aの筐体330の+Y方向側の側面に設けられた開口部から+Y方向にレーザ光を出射する。レーザ照射部60が出射するレーザ光は、画像を投影可能なレーザ光である。 The laser irradiation unit 60 emits laser light in the + Y direction from an opening provided on the side surface of the housing 330 of the terminal device 300A on the + Y direction side. The laser beam emitted by the laser irradiation unit 60 is a laser beam capable of projecting an image.

レーザ照射部60は、プロジェクタ(ピコプロジェクタ)の照射部として端末装置300Aに内蔵されており、端末装置300Aの+Y方向の側面をスクリーン等に向けた状態でレーザ照射部60からレーザ光を出射し、スクリーン等に画像を投影する。 The laser irradiation unit 60 is built in the terminal device 300A as an irradiation unit of a projector (pico projector), and emits laser light from the laser irradiation unit 60 with the + Y direction side surface of the terminal device 300A facing the screen or the like. , Project an image on a screen or the like.

また、本実施形態の端末装置300Aには、ディスプレイ310以外の部分を覆うケース400が取り付けられている。ケース400は、所謂ジャケットであり、一例として樹脂製である。ケース400の+Y方向側の端部には、ホルダ450が設けられている。 Further, the terminal device 300A of the present embodiment is attached with a case 400 that covers a portion other than the display 310. The case 400 is a so-called jacket, and is made of resin as an example. A holder 450 is provided at the end of the case 400 on the + Y direction side.

ケース400は、切欠部410、420、430を有する。切欠部410は、端末装置300Aの+Y方向側の側面に対応する部分に設けられている。切欠部410は、ケース400が端末装置300Aの+Y方向側の側面を覆わないように切り欠かれた部分であり、端末装置300Aの開口部を覆わないようにした部分である。 The case 400 has notches 410, 420, 430. The cutout portion 410 is provided in a portion corresponding to the side surface of the terminal device 300A on the + Y direction side. The cutout portion 410 is a portion cut out so that the case 400 does not cover the side surface of the terminal device 300A on the + Y direction side, and is a portion that does not cover the opening of the terminal device 300A.

ホルダ450は、一例としてケース400と一体成型されており、切欠部410の縁から+Y方向に立ち上がるように延在している。 The holder 450 is integrally molded with the case 400 as an example, and extends so as to rise from the edge of the notch 410 in the + Y direction.

切欠部420は、ディスプレイ310の上を覆わないように切り欠かれた部分であり、切欠部410に連通している。また、切欠部430は、端末装置300Aの−Y方向側の側面に対応する部分に設けられており、切欠部420に連通している。 The cutout portion 420 is a portion cut out so as not to cover the display 310 and communicates with the cutout portion 410. Further, the cutout portion 430 is provided in a portion corresponding to the side surface of the terminal device 300A on the −Y direction side, and communicates with the cutout portion 420.

図18は、第五の実施形態の画像投影装置のハードウェア構成を示す図である。 FIG. 18 is a diagram showing a hardware configuration of the image projection device according to the fifth embodiment.

本実施形態の画像投影装置100Cは、制御部30B、記憶部40、レーザ出力制御部50、レーザ照射部60、画像入力部70、操作入力部80Bを有する。 The image projection device 100C of the present embodiment includes a control unit 30B, a storage unit 40, a laser output control unit 50, a laser irradiation unit 60, an image input unit 70, and an operation input unit 80B.

操作入力部80Bは、端末装置300Aの有するタッチパネルである。また、本実施形態では、レーザ照射部60から照射されるレーザ光を利用者の眼球に向けて反射するミラーを含む光学投影部90Aを有する。 The operation input unit 80B is a touch panel included in the terminal device 300A. Further, in the present embodiment, the optical projection unit 90A includes an optical projection unit 90A including a mirror that reflects the laser light emitted from the laser irradiation unit 60 toward the user's eyeball.

本実施形態の制御部30Bは、画像を投影させるためのレーザ出力制御部50の制御に加え、補正処理部320の機能を有する。 The control unit 30B of the present embodiment has the function of the correction processing unit 320 in addition to the control of the laser output control unit 50 for projecting an image.

言い換えれば、本実施形態の画像投影装置100Cは、表示部に、画像を等間隔で分割した際の領域の幅の減少又は増加の度合いを示す値を入力させる入力画面を表示させる表示制御部36を有する。 In other words, the image projection device 100C of the present embodiment displays an input screen for causing the display unit to input a value indicating the degree of decrease or increase in the width of the region when the image is divided at equal intervals. Has.

したがって、本実施形態では、端末装置300Aのディスプレイ310に、図16で示した画面311が表示されても良い。 Therefore, in the present embodiment, the screen 311 shown in FIG. 16 may be displayed on the display 310 of the terminal device 300A.

本実施形態では、このように、画像投影装置100Cを、小型化することで、例えば、医療機関での待ち時間等の空いた時間に、利用者に画像投影装置100Cを貸し出すことができる。利用者は、画像投影装置100Cを用いて、利用者自身が見えやすい画像を探すことができる。 In the present embodiment, by reducing the size of the image projection device 100C in this way, the image projection device 100C can be rented out to the user during a free time such as waiting time at a medical institution. The user can use the image projection device 100C to search for an image that is easy for the user to see.

以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態にあげた構成、その他の要素との組み合わせなど、ここで示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 Although the present invention has been described above based on each embodiment, the present invention is not limited to the requirements shown here, such as the configuration described in the above embodiment and the combination with other elements. With respect to these points, the gist of the present invention can be changed without impairing the gist of the present invention, and can be appropriately determined according to the application form thereof.

30、30A、30B 制御部
31 画像データ取得部
32 操作値取得部
33 画像補正部
34 画像データ出力部
35 基準位置決定部
36 表示制御部
40 記憶部
50 レーザ出力制御部
60、60A レーザ照射部
70、70A 画像入力部
80、80A、80B 操作入力部
90、90A 光学投影部
100、100A〜100C 画像投影装置
300、300A 端末装置
30, 30A, 30B Control unit 31 Image data acquisition unit 32 Operation value acquisition unit 33 Image correction unit 34 Image data output unit 35 Reference position determination unit 36 Display control unit 40 Storage unit 50 Laser output control unit 60, 60A Laser irradiation unit 70 , 70A Image input unit 80, 80A, 80B Operation input unit 90, 90A Optical projection unit 100, 100A to 100C Image projection device 300, 300A Terminal device

Claims (8)

入力された画像データを記憶する記憶部と、
前記画像データに対し、前記画像データが示す画像を、前記画像の画角を維持した状態で、基準位置から等間隔の幅の領域に分割し、前記基準位置から離れるにしたがって前記領域の幅が単調に減少又は増加するように、補正を行う制御部と、
レーザ光線を出射する光源部を有し、前記制御部による補正後の画像データに基づき、前記レーザ光線を2次元に走査し、利用者の網膜に前記補正後の画像データが示す画像を投影するレーザ照射部と、を有する画像投影装置。
A storage unit that stores the input image data,
With respect to the image data, the image indicated by the image data is divided into regions having a width equal to each other from the reference position while maintaining the angle of view of the image, and the width of the region increases as the distance from the reference position increases. A control unit that makes corrections so that it decreases or increases monotonously,
It has a light source unit that emits a laser beam, scans the laser beam in two dimensions based on the image data corrected by the control unit, and projects the image indicated by the corrected image data on the user's retina. An image projection device including a laser irradiation unit.
前記制御部は、
前記基準位置から最も近い領域の幅を、前記等間隔の幅よりも広くし、前記基準位置から離れるにしたがって前記領域の幅を等比級数的に減少又は増加させる、請求項1記載の画像投影装置。
The control unit
The image projection according to claim 1, wherein the width of the region closest to the reference position is made wider than the width of the equidistant interval, and the width of the region is geometrically decreased or increased as the distance from the reference position increases. Device.
前記基準位置は、
前記画像データが示す画像の中心点を含む直線が示す位置である、請求項1又は2記載の画像投影装置。
The reference position is
The image projection device according to claim 1 or 2, wherein the position indicated by a straight line including the center point of the image indicated by the image data.
前記補正の指示を受け付ける操作受付部を有し、
前記制御部は、
前記操作受付部が受け付けた指示に応じて、前記領域の幅を単調に減少又は増加させる、請求項1乃至3の何れか一項に記載の画像投影装置。
It has an operation reception unit that receives the correction instruction.
The control unit
The image projection device according to any one of claims 1 to 3, wherein the width of the region is monotonically decreased or increased in response to an instruction received by the operation receiving unit.
前記制御部は、
前記操作受付部が受け付けた操作に応じた値を取得する操作値取得部を有し、
前記操作値取得部が取得した値に応じて、前記領域の幅の減少又は増加の度合いを変更する、請求項4記載の画像投影装置。
The control unit
It has an operation value acquisition unit that acquires a value according to the operation received by the operation reception unit.
The image projection device according to claim 4, wherein the degree of decrease or increase in the width of the region is changed according to the value acquired by the operation value acquisition unit.
表示部と、
前記表示部に、前記領域の幅の減少又は増加の度合いを示す値を入力させる入力画面を表示させる表示制御部と、を有する請求項1乃至5の何れか一項に記載の画像投影装置。
Display and
The image projection device according to any one of claims 1 to 5, further comprising a display control unit for displaying an input screen for inputting a value indicating the degree of decrease or increase in the width of the area to the display unit.
画像投影装置による画像投影方法であって、前記画像投影装置が、
入力された画像データを記憶部に記憶する手順と、
前記画像データに対し、前記画像データが示す画像を、前記画像の画角を維持した状態で、基準位置から等間隔の幅の領域に分割し、前記基準位置から離れるにしたがって前記領域の幅が単調又は等比級数的に、減少又は増加するように、補正を行う手順と、
レーザ光線を出射する光源部を有し、補正後の前記画像データに基づき、前記レーザ光線を2次元に走査し、利用者の網膜に前記補正後の画像データが示す画像を投影する手順と、を有する画像投影方法。
An image projection method using an image projection device, wherein the image projection device
The procedure for storing the input image data in the storage unit and
With respect to the image data, the image indicated by the image data is divided into regions having a width equal to each other from the reference position while maintaining the angle of view of the image, and the width of the region increases as the distance from the reference position increases. Procedures for making corrections to decrease or increase monotonically or geometrically, and
A procedure of having a light source unit that emits a laser beam, scanning the laser beam in two dimensions based on the corrected image data, and projecting the image indicated by the corrected image data on the user's retina. Image projection method having.
入力された画像データを記憶部に格納し、
前記画像データに対し、前記画像データが示す画像を、前記画像の画角を維持した状態で、基準位置から等間隔の幅の領域に分割し、前記基準位置から離れるにしたがって前記領域の幅が単調又は等比級数的に、に減少又は増加するように、補正を行い、
補正後の画像データを、網膜走査型の画像投影装置に対して出力する、処理をコンピュータに実行させるプログラム。
The input image data is stored in the storage unit,
With respect to the image data, the image indicated by the image data is divided into regions having a width equal to each other from the reference position while maintaining the angle of view of the image, and the width of the region increases as the distance from the reference position increases. Make corrections to decrease or increase monotonically or geometrically.
A program that causes a computer to execute a process that outputs the corrected image data to a retinal scanning type image projection device.
JP2020028582A 2020-02-21 2020-02-21 Image projection device, image projection method, program Active JP7427237B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020028582A JP7427237B2 (en) 2020-02-21 2020-02-21 Image projection device, image projection method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020028582A JP7427237B2 (en) 2020-02-21 2020-02-21 Image projection device, image projection method, program

Publications (2)

Publication Number Publication Date
JP2021135304A true JP2021135304A (en) 2021-09-13
JP7427237B2 JP7427237B2 (en) 2024-02-05

Family

ID=77661050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020028582A Active JP7427237B2 (en) 2020-02-21 2020-02-21 Image projection device, image projection method, program

Country Status (1)

Country Link
JP (1) JP7427237B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6167180A (en) * 1984-09-11 1986-04-07 Fujitsu Ltd Displaying system of reduced image
JPH10105153A (en) * 1996-06-13 1998-04-24 Fujitsu Ltd Information processor and its enlargement display method, and storage medium
US20020167461A1 (en) * 2001-05-09 2002-11-14 Barry Bronson Wearable display and method of displaying images using a wearable display
JP2005107871A (en) * 2003-09-30 2005-04-21 Nec Corp Image display method and device, program by the same method and recording medium with its program stored
JP2007199593A (en) * 2006-01-30 2007-08-09 Konica Minolta Photo Imaging Inc Video display device
JP2011112678A (en) * 2009-11-24 2011-06-09 Nec Casio Mobile Communications Ltd Display control device, display control method, and program
JP2017223943A (en) * 2016-06-09 2017-12-21 株式会社Qdレーザ Image projection system, image projection device, image projection method, image projection program, and server device
JP2018013566A (en) * 2016-07-20 2018-01-25 株式会社Qdレーザ Image projection device, image projection system, server, image projection method and image projection program
WO2018122902A1 (en) * 2016-12-26 2018-07-05 マクセル株式会社 Image display device and image display method
JP2019174663A (en) * 2018-03-28 2019-10-10 株式会社Qdレーザ Image projection device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016149536A1 (en) 2015-03-17 2016-09-22 Ocutrx Vision Technologies, Llc. Correction of vision defects using a visual display

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6167180A (en) * 1984-09-11 1986-04-07 Fujitsu Ltd Displaying system of reduced image
JPH10105153A (en) * 1996-06-13 1998-04-24 Fujitsu Ltd Information processor and its enlargement display method, and storage medium
US20020167461A1 (en) * 2001-05-09 2002-11-14 Barry Bronson Wearable display and method of displaying images using a wearable display
JP2005107871A (en) * 2003-09-30 2005-04-21 Nec Corp Image display method and device, program by the same method and recording medium with its program stored
JP2007199593A (en) * 2006-01-30 2007-08-09 Konica Minolta Photo Imaging Inc Video display device
JP2011112678A (en) * 2009-11-24 2011-06-09 Nec Casio Mobile Communications Ltd Display control device, display control method, and program
JP2017223943A (en) * 2016-06-09 2017-12-21 株式会社Qdレーザ Image projection system, image projection device, image projection method, image projection program, and server device
JP2018013566A (en) * 2016-07-20 2018-01-25 株式会社Qdレーザ Image projection device, image projection system, server, image projection method and image projection program
WO2018122902A1 (en) * 2016-12-26 2018-07-05 マクセル株式会社 Image display device and image display method
JP2019174663A (en) * 2018-03-28 2019-10-10 株式会社Qdレーザ Image projection device

Also Published As

Publication number Publication date
JP7427237B2 (en) 2024-02-05

Similar Documents

Publication Publication Date Title
US9191658B2 (en) Head-mounted display and position gap adjustment method
KR102291658B1 (en) Dynamic Field of View Varifocal Display System
JP5355208B2 (en) Three-dimensional display device and digital zoom correction method
JP2023027369A (en) Steerable foveal display
US11372479B2 (en) Multi-modal vision enhancement system
US11803061B2 (en) Hybrid see through augmented reality systems and methods for low vision users
KR20170104463A (en) System and method for improved display
JP6231585B2 (en) Image projection device
JP6231545B2 (en) Image projection device
JPWO2018008577A1 (en) Head-mounted display device
JP2016202716A (en) Program and recording medium
JP2020515090A (en) Display device and display method using image renderer and optical combiner
US11483531B2 (en) Generation of three-dimensional images with digital magnification
JP2010148738A (en) Visual acuity improvement training apparatus and visual acuity improvement training control program
JP2018010497A (en) Image processing apparatus
JP7427237B2 (en) Image projection device, image projection method, program
KR20230029782A (en) visual aid
JP2019118548A (en) Cornea reflection position detection device, visual line detection device, and cornea reflection position detection method
JP7086392B2 (en) Image projection device and image projection method
JP7133163B2 (en) Retinal scanning image projection device, Retinal scanning image projection method, Retinal scanning image projection system
JP4102410B2 (en) 3D image display device
JP2006123102A (en) Eyeball control device, eyeball control method and eyeball control program
JP2000171751A (en) Binocular display
JP7052471B2 (en) Evaluation device, evaluation method and evaluation program
KR102704952B1 (en) Ar device-based vision improvement system and method for improving vision of patients with macular degeneration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240117

R150 Certificate of patent or registration of utility model

Ref document number: 7427237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150