[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2018110038A1 - 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム - Google Patents

投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム Download PDF

Info

Publication number
WO2018110038A1
WO2018110038A1 PCT/JP2017/035837 JP2017035837W WO2018110038A1 WO 2018110038 A1 WO2018110038 A1 WO 2018110038A1 JP 2017035837 W JP2017035837 W JP 2017035837W WO 2018110038 A1 WO2018110038 A1 WO 2018110038A1
Authority
WO
WIPO (PCT)
Prior art keywords
cover
light
projection
image
display device
Prior art date
Application number
PCT/JP2017/035837
Other languages
English (en)
French (fr)
Inventor
広大 藤田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201780076420.XA priority Critical patent/CN110062911B/zh
Priority to JP2018556202A priority patent/JP6550544B2/ja
Publication of WO2018110038A1 publication Critical patent/WO2018110038A1/ja
Priority to US16/417,665 priority patent/US10761413B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0006Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/206Control of light source other than position or intensity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7416Projection arrangements for image reproduction, e.g. using eidophor involving the use of a spatial light modulator, e.g. a light valve, controlled by a video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/60Structural details of dashboards or instruments
    • B60K2360/68Features of instruments
    • B60K2360/693Cover plate features

Definitions

  • the present invention relates to a projection display device, a projection display device control method, and a projection display device control program.
  • a windshield of a vehicle such as an automobile, train, ship, heavy machinery, construction equipment, aircraft, or agricultural machine, or a combiner placed near the windshield is used as a screen, and light is projected onto this to project an image.
  • a vehicle HUD Head-up Display
  • an image based on light projected from the HUD can be viewed by the driver as a real image on the screen or as a virtual image in front of the screen.
  • Patent Document 1 describes a HUD equipped with an object removal mechanism that removes an object attached to an emission surface of image light projected onto a windshield. This object removal mechanism operates in conjunction with the on / off of the ignition switch of the vehicle or the on / off of the display of the HUD.
  • Patent Document 2 even when an image is being displayed, if an object adheres to the exit surface of the image light projected onto the windshield and information visibility deteriorates, object removal is performed.
  • a HUD that can operate the mechanism according to the user's intention is described.
  • JP 2015-113088 A Japanese Patent Laying-Open No. 2005-075230
  • the exit surface is The surface is rubbed by a brush, a blade, or the like, and the display surface may be deteriorated due to wear of the emission surface. For this reason, it is preferable to minimize the number of times of cleaning the exit surface.
  • Patent Document 2 discloses a configuration in which cleaning of the exit surface can be started by a user operation during image display.
  • cleaning of the exit surface can be started by a user operation during image display.
  • information lost due to the dirt is displayed as a transparent image, so that it is difficult for the user to notice the dirt. Therefore, when cleaning is performed by a user operation, there is a possibility that appropriate cleaning is not performed.
  • the present invention has been made in view of the above circumstances, and can provide a projection display device, a projection display device control method, and a projection display device that can appropriately maintain the display quality by properly cleaning the emission surface of the image light.
  • An object of the present invention is to provide a control program for a type display device.
  • a projection display device includes a light modulation unit that spatially modulates light emitted from a light source based on input image information, and projects the spatially modulated image light onto a projection surface of a vehicle.
  • a projection display unit that displays an image based on the image light, a housing that houses the projection display unit and has an opening from which the image light is emitted, a cover that closes the opening, and a surface of the cover
  • An object removal mechanism that removes the adhered object by rubbing the surface of the cover, an area detection unit that detects an object adhesion area where the object adheres to the cover, and an object removal that controls the operation of the object removal mechanism
  • a control unit, and the object removal control unit includes a predetermined display content included in a portion of the image light that is blocked by the object adhesion region detected by the region detection unit. It is intended to operate the serial object removal mechanism.
  • a control method for a projection display apparatus includes a light modulation unit that spatially modulates light emitted from a light source based on input image information, and the spatially modulated image light is applied to a projection surface of a vehicle.
  • a projection display unit that projects and displays an image based on the image light, a housing that houses the projection display unit and has an opening from which the image light is emitted, a cover that closes the opening, and the cover
  • An object removal mechanism that removes an object attached to the surface of the cover by rubbing the surface of the cover, and detects an object attachment region where the object is attached to the cover A region detection step; and an object removal control step for controlling the operation of the object removal mechanism.
  • the object removal control step the object detected by the region detection step of the image light. If included display content predetermined in the portion blocked by the adhesion area, in which to operate the object removal mechanism.
  • a control program for a projection display apparatus includes a light modulation unit that spatially modulates light emitted from a light source based on input image information, and uses the spatially modulated image light on a projection surface of a vehicle.
  • a projection display unit that projects and displays an image based on the image light, a housing that houses the projection display unit and has an opening from which the image light is emitted, a cover that closes the opening, and the cover
  • An object removal mechanism for rubbing and removing an object attached to the surface of the cover by rubbing the surface of the cover, and detecting an object attachment region where the object is attached to the cover
  • a program for causing a computer to execute a region detection step and an object removal control step for controlling the operation of the object removal mechanism.
  • the image If included display contents determined in advance in part intercepted by the detected the object attachment region by the region detecting step of, in which to operate the object removal mechanism.
  • a projection display apparatus capable of appropriately maintaining the display quality by properly cleaning the image light emission surface. be able to.
  • FIG. 6 is a schematic diagram for explaining an object removal operation by the object removal mechanism 11.
  • FIG. 6 is a schematic diagram for explaining an object removal operation by the object removal mechanism 11.
  • FIG. 6 is a schematic diagram for explaining an object removal operation by the object removal mechanism 11. It is a flowchart for demonstrating operation
  • FIG. 1 is a diagram showing a schematic configuration of a HUD 100 which is an embodiment of a projection display device of the present invention.
  • the HUD 100 is mounted on the automobile 1 and uses a partial area of the windshield 2 of the automobile 1 as a projection plane, and enables a driver of the automobile 1 to visually recognize a virtual image or a real image by image light projected on the projection plane. It is.
  • the HUD 100 can be used by being mounted on a vehicle such as a train, a heavy machine, a construction machine, an aircraft, a ship, or an agricultural machine in addition to the automobile.
  • a vehicle such as a train, a heavy machine, a construction machine, an aircraft, a ship, or an agricultural machine in addition to the automobile.
  • the HUD 100 is partly exposed and built in the dashboard 4 of the automobile 1.
  • the dashboard 4 is a member that incorporates interior components including instruments for notifying information necessary for travel such as a speedometer, tachometer, fuel meter, water temperature meter, or distance meter of the automobile 1.
  • the HUD 100 includes a control unit 5 including a light source and a light modulation unit that spatially modulates light emitted from the light source based on image information, and projects the image light spatially modulated by the light modulation unit onto the windshield 2.
  • a box-shaped casing 3 that accommodates the diffusing member 6 and the concave mirror 7 constituting the projection optical system, a cylindrical connecting section 8 that connects the casing 3 and the opening of the dashboard 4, and an imaging section 10. And an object removal mechanism 11.
  • the configuration of the projection optical system is an example and is not limited to that shown in FIG.
  • An opening K is formed in the housing 3, and a portion around the opening K of the housing 3 and the opening of the dashboard 4 are connected by a connecting portion 8.
  • the diffusion member 6 is a member that diffuses the image light spatially modulated by the light modulation unit of the control unit 5 to form a surface light source.
  • a micro mirror array having a fine structure on the surface a diffusing mirror, an MLA (Microlens-Array) diffuser, a reflective holographic diffuser, or the like is used.
  • the concave mirror 7 enlarges the image light diffused by the diffusing member 6 and reflects it toward the projection surface of the windshield 2.
  • the image light reflected at 7 by the concave mirror is projected toward the projection surface of the windshield 2 through the opening K of the housing 3 and the hollow portion of the connecting portion 8.
  • the windshield 2 is processed so that the image light projected through the opening K and the hollow portion of the connecting portion 8 is reflected in the direction of the driver's eye E.
  • the image light is reflected by the windshield 2.
  • the light is reflected and enters the driver's eye E.
  • the driver can visually recognize an image (virtual image or real image) based on the image light.
  • the opening K of the housing 3 is closed by a cover 9 made of resin or glass that can transmit image light.
  • the opening K is an emission window for emitting the image light reflected by the concave mirror 7 through the housing 3, and the cover 9 has dust, dust, liquid, or the like in the housing 3 through the opening K. Prevents contamination.
  • the imaging unit 10 includes an imaging device and an image processing unit that processes captured image signals obtained by imaging with the imaging device and generates captured image data.
  • the imaging unit 10 is fixed to a position above the cover 9 on the inner wall of the coupling unit 8, and is arranged so as to be able to image the surface of the cover 9 (the surface opposite to the inner side of the housing 3). Captured image data obtained by imaging by the imaging unit 10 is transferred to a system control unit 47 (to be described later) of the control unit 5.
  • the object removing mechanism 11 is a mechanism for removing an object attached to the surface of the cover 9 by rubbing the surface. As will be described in detail later, the object removing mechanism 11 moves a movable part including a brush T for rubbing the surface of a brush or a blade along the surface of the cover 9, and the object is illustrated by the brush T. By discharging to an omitted dust box, an object attached to the surface of the cover 9 is removed.
  • the HUD 100 employs a method of projecting image light onto the windshield 2, but a method of projecting image light onto a combiner (not shown) disposed in the vicinity of the windshield 2 may be employed.
  • the combiner constitutes the projection plane.
  • FIG. 2 is a diagram showing the appearance of the connecting portion 8 shown in FIG.
  • the connecting portion 8 has a substantially rectangular parallelepiped hollow portion, and the planar shape of the cover 9 at the base end of the connecting portion 8 viewed from the direction in which the image light is emitted is the same as that of the automobile 1.
  • a direction X in which the driver's seat and the passenger's seat are arranged is a rectangle having a longitudinal direction.
  • the cover 9 since the cover 9 has a long shape in the direction X, an image can be displayed in a wide range of the windshield 2.
  • the automobile 1 has a configuration in which a driver's seat is arranged at a position facing the steering wheel H shown in FIG. 2, and a passenger's seat is arranged on the left side or the right side of the driver's seat (example is the left side).
  • a direction X in which the driver's seat and the passenger seat of the automobile 1 are arranged is synonymous with a direction substantially orthogonal to the traveling direction of the automobile 1 when the automobile 1 goes straight.
  • the two directions being substantially orthogonal means that the angle formed by the two directions is in the range of 70 degrees to 110 degrees.
  • FIG. 3 is a schematic diagram showing an example of the internal configuration of the control unit 5 housed in the housing 3 of the HUD 100 shown in FIG.
  • the control unit 5 of the HUD 100 includes a light source unit 40, a light modulation element 44, a drive unit 45 that drives the light modulation element 44, and a system control unit 47 that performs overall control of the HUD 100.
  • the projection optical system 48 shown in FIG. 3 includes the diffusing member 6 and the concave mirror 7 shown in FIG.
  • the system control unit 47 includes a processor, a ROM (Read Only Memory) storing a program executed by the processor, and a RAM (Random Access Memory) functioning as a work memory of the processor.
  • the program stored in the ROM includes a control program for the HUD 100.
  • the light source unit 40 includes a light source controller 46, an R light source 41r that is a red light source that emits red light, a G light source 41g that is a green light source that emits green light, and a B light source that is a blue light source that emits blue light. 41b, dichroic prism 43, collimator lens 42r provided between R light source 41r and dichroic prism 43, collimator lens 42g provided between G light source 41g and dichroic prism 43, B light source 41b and dichroic prism 43, a collimator lens 42b provided between the two.
  • the R light source 41r, the G light source 41g, and the B light source 41b constitute a light source of the HUD 100.
  • the dichroic prism 43 is an optical member for guiding light emitted from each of the R light source 41r, the G light source 41g, and the B light source 41b to the same optical path.
  • the dichroic prism 43 transmits the red light collimated by the collimator lens 42 r and emits the red light to the light modulation element 44.
  • the dichroic prism 43 reflects the green light that has been collimated by the collimator lens 42 g and emits it to the light modulation element 44. Further, the dichroic prism 43 reflects the blue light that has been collimated by the collimator lens 42 b and emits it to the light modulation element 44.
  • the optical member having such a function is not limited to the dichroic prism. For example, a cross dichroic mirror may be used.
  • Each of the R light source 41r, the G light source 41g, and the B light source 41b uses a light emitting element such as a laser or an LED (Light Emitting Diode).
  • the light source of the HUD 100 is not limited to three examples of the R light source 41r, the G light source 41g, and the B light source 41b, and may be configured by one light source, two light sources, or four or more light sources.
  • the light source control unit 46 controls each of the R light source 41r, the G light source 41g, and the B light source 41b, and performs control to emit light from the R light source 41r, the G light source 41g, and the B light source 41b.
  • the light modulation element 44 spatially modulates the light emitted from the R light source 41r, the G light source 41g, and the B light source 41b and emitted from the dichroic prism 43 based on image information input by the system control unit 47.
  • LCOS Liquid crystal on silicon
  • DMD Digital Micromirror Device
  • MEMS Micro Electro Mechanical Systems
  • a liquid crystal display element for example, LCOS (Liquid crystal on silicon), DMD (Digital Micromirror Device), MEMS (Micro Electro Mechanical Systems) element, or a liquid crystal display element can be used.
  • the drive unit 45 drives the light modulation element 44 based on the image information input from the system control unit 47, and the image light (red image light, blue image light, and green color) spatially modulated based on the image information. Image light) is emitted from the light modulation element 44 to the diffusion member 6 of the projection optical system 48.
  • the light modulation element 44 and the drive unit 45 constitute a light modulation unit of the HUD 100.
  • the projection optical system 48 including the diffusing member 6 and the concave mirror 7 shown in FIG. 1 makes it possible for the driver to visually recognize an image based on the image light projected on the windshield 2 as a virtual image at a position in front of the windshield 2.
  • the optical design is made to become.
  • the optical design of the projection optical system 48 may be made so that an image based on this image light is visible to the driver as a real image on the windshield 2.
  • the system control unit 47 controls the light source control unit 46 and the driving unit 45 to cause the diffusion member 6 to emit image light that is spatially modulated based on the image information.
  • the projection display unit 49 is configured by the projection optical system 48, the light modulation unit including the light modulation element 44 and the drive unit 45, and the light source unit 40.
  • FIG. 4 is a schematic diagram showing a detailed configuration example of the object removal mechanism 11 in the HUD 100 shown in FIG.
  • FIG. 4 shows a state in which the connecting portion 8 of the HUD 100 is viewed from a direction perpendicular to the surface of the cover 9.
  • FIG. 5 is a diagram showing a display image of an image by the HUD 100 shown in FIG.
  • the light emission range 90 is a range in which image light that has passed through the projection optical system 48 is emitted.
  • the light emission range 90 is rectangular in the example of FIG. 4, and the width in the direction X is larger than the width in the direction Y orthogonal to the direction X.
  • the direction Y constitutes the first direction, and the direction X constitutes the second direction.
  • the image light emitted through the light emission range 90 is projected onto the windshield 2 so that an image based on the image light is visually recognized by the driver as shown in FIG.
  • images 20 a, 20 b, and 20 c that are visually recognized by a driver sitting in the driver's seat of the automobile 1, and a displayable range 20 that indicates the maximum range in which an image can be displayed by the projection display unit 49, It is shown.
  • the image information input to the drive unit 45 includes information corresponding to the three images 20 a, 20 b, and 20 c, and is obtained by spatial modulation using this image information. Based on the image light, an image 20a, an image 20b, and an image 20c are displayed in the displayable range 20. In the displayable range 20, areas other than the images 20a, 20b, and 20c are transparent, and the scenery in front of the windshield 2 can be confirmed.
  • the image 20 a shown in FIG. 5 is a character indicating the traveling speed of the automobile 1.
  • the image 20b is a character and an arrow indicating route guidance.
  • the image 20c is an icon for giving a warning.
  • the object removing mechanism 11 includes a movable part 11A that can move in a direction X that rubs the surface of the cover 9 and a direction Y that is orthogonal to the direction X, a rail 11B that extends in the direction X, and a connecting part.
  • 8 includes a pair of rails 11 ⁇ / b> C extending in the direction Y fixed to the side wall of the 8 and dust boxes 11 ⁇ / b> D and 11 ⁇ / b> E configured by holes provided in a part of the housing 3.
  • the movable portion 11 ⁇ / b> A, the rail 11 ⁇ / b> B, and the rail 11 ⁇ / b> C are provided above the cover 9 in the hollow portion of the connecting portion 8.
  • the movable portion 11A is supported by the rail 11B so as to be movable in the direction X.
  • the object removal mechanism 11 includes a first drive motor (not shown) for moving the movable portion 11A in the direction X on the rail 11B, and the first drive motor is controlled by the system control unit 47.
  • the rail 11B is supported so as to be movable in the direction Y by a pair of rails 11C.
  • the object removal mechanism 11 includes a second drive motor (not shown) for moving the rail 11B in the direction Y on the pair of rails 11C.
  • the second drive motor is controlled by the system control unit 47.
  • the dust boxes 11D and 11E are each configured by a hole portion that does not penetrate through the inside of the housing 3 formed in a part of the portion of the housing 3 exposed in the hollow portion of the connecting portion 8.
  • the dust box 11 ⁇ / b> D is provided adjacent to one end in the direction Y of the cover 9.
  • the dust box 11 ⁇ / b> E is provided adjacent to the other end in the direction Y of the cover 9.
  • the movable range of the rail 11B is between a position where the movable part 11A is above the dust box 11D and a position where the movable part 11A is above the dust box 11E.
  • a brush T (see FIG. 1) such as a brush or a blade is provided.
  • the brush T is a part that can come into contact with the surface of the cover 9 in the movable part 11 ⁇ / b> A, and the width in the direction X of this part is larger than the width in the direction X of the light emission range 90.
  • the object removing mechanism 11 moves the rail 11B in the direction Y and moves the movable portion 11A to above the dust box 10D with the movable portion 11A in an arbitrary position in the direction X as shown in FIG.
  • the brush T of the movable portion 11A moves in the direction Y while rubbing the surface of the cover 9, so that the object attached to the area rubbed by the brush T is wiped by the brush T. It is taken out, discharged to the dust box 11D, and removed.
  • the object removing mechanism 11 is movable in the direction Y along the surface of the cover 9 and the direction X orthogonal thereto, and moves the movable portion 11A that moves in the direction Y and rubs the surface of the cover 9. It is the composition which has.
  • FIG. 6 is a functional block diagram of the system control unit 47 shown in FIG.
  • the system control unit 47 includes an area detection unit 47A, a display control unit 47B, and an object removal control unit 47C.
  • the area detection unit 47A, the display control unit 47B, and the object removal control unit 47C are functional blocks that are formed when the processor of the system control unit 47 executes a program including a control program stored in the ROM.
  • the area detection unit 47A analyzes the captured image data input from the imaging unit 10, and an area where an object is attached on the surface of the cover 9 (specifically, the light emission range 90) (hereinafter referred to as an object attachment area). ) Is detected.
  • the object refers to dust, dust, dust, liquid, or sebum that is large enough to affect the display quality of the HUD 100.
  • reference captured image data obtained by imaging the surface of the cover 9 in a clean state with no object attached by the imaging unit 10 is stored in the ROM of the system control unit 47, and the area detection unit 47A The object adhesion region is detected by comparing the reference captured image data with the captured image data input from the imaging unit 10.
  • the region detection unit 47A compares the reference captured image data with the captured image data input from the image capturing unit 10 and compares the reference captured image data in the captured image data input from the image capture unit 10 with a lighter shade. A change area where a large change is detected. Then, the region detection unit 47A detects, as an object attachment region, a change region whose area is equal to or larger than the threshold value among the change regions.
  • the area detection unit 47A determines that the area including the plurality of change areas is an object attachment area if there are a plurality of change areas in the vicinity. You may detect as.
  • the display control unit 47B controls image information input to the drive unit 45 and controls an image to be displayed by the projection display unit 49.
  • the object removal control unit 47C controls the operation of the object removal mechanism 11.
  • the object removal control unit 47C includes a predetermined display content in a portion that is blocked by the object adhesion region detected by the region detection unit 47A in the image light projected toward the windshield 2 through the cover 9.
  • a command is issued to the first drive motor and the second drive motor to operate the object removal mechanism 11.
  • each of a plurality of display contents that can be displayed by the projection display unit 49 is set in advance with an importance (safety importance) from the viewpoint of ensuring safety.
  • the importance of the display content is set to a higher value as the relevance with safety is higher.
  • warning information that prompts an action for ensuring safety such as information for notifying an obstacle such as a person or other vehicle that attention is required, is set to the highest degree of importance.
  • the information for performing route guidance, the information related to the state of the instruments of the vehicle 1, the information related to the current time that is not directly related to the vehicle 1, and the like are set to be less important than the warning information.
  • the above-described predetermined display content is display content whose importance is equal to or higher than a threshold value.
  • a threshold value for example, the maximum value of the importance levels may be set.
  • the image light projected through the cover 9 includes, as display contents, an image 20 a indicating traveling speed information, an image 20 b indicating route guidance information, and an image 20 c indicating warning information. Think about the case.
  • the object removal control unit 47C operates the object removal mechanism 11 to remove the object on the object adhesion region.
  • the object removal control unit 47C does not operate the object removal mechanism 11.
  • FIGS. 7 to 9 are schematic diagrams for explaining the object removing operation by the object removing mechanism 11.
  • the object removal control unit 47C first controls the first drive motor and is detected by the region detection unit 47A as shown in FIG. The position in the direction X of the object attachment region where the object 91 is attached is aligned with the position in the direction X of the brush T of the movable portion 11A.
  • the object removal control unit 47C controls the second drive motor to move the rail 11B from above the dust box 11E in a direction approaching the dust box 11D, and finally in FIG. As shown, the rail 11B is moved above the dust box 11D. In the process of moving the rail 11B, the object 91 is discharged to the dust box 11D by the brush T of the movable portion 11A, and the object 91 is removed from the surface of the cover 9.
  • FIG. 10 is a flowchart for explaining the operation of the HUD 100 shown in FIG.
  • the HUD 100 is activated and the projection display unit 49 starts displaying an image, the flow shown in FIG. 10 is started.
  • the object removal control unit 47C determines whether or not an object adhesion region is detected by the region detection unit 47A (step S1).
  • step S1 determines whether or not to perform (step S2).
  • the relationship between the position of each pixel of the image information input to the drive unit 45 and the light passing position corresponding to each pixel in the light emission range 90 is known in advance. Therefore, based on the relationship between the position of the display content and the position of the object attachment region in the image information, it can be determined whether or not there is display content blocked by the object attachment region in the image light.
  • step S2 determines whether the determination in step S2 is NO, the process returns to step S1.
  • the object removal control unit 47C confirms the importance of the display content blocked by the object adhesion region, and determines whether the importance is equal to or higher than the threshold (step S3). ).
  • step S1 If the importance is less than the threshold, the process returns to step S1. If the degree of importance is equal to or greater than the threshold, the object removal control unit 47C operates the object removal mechanism 11 to remove an object at a position that blocks the display content (step S4, object removal control step). After the object is removed, the process returns to step S1. The above operation is repeated while the image is displayed.
  • the object removal mechanism 11 operates only when the importance of the display content blocked by the object is equal to or greater than the threshold value. Is removed. For this reason, the opportunity for the object removal mechanism 11 to operate can be reduced, and the frequency with which the brush T rubs the surface of the cover 9 can be reduced to prevent the cover 9 from being worn.
  • the object removal mechanism 11 can remove an object by rubbing only a necessary portion of the light emission range 90 with the brush T whose width in the direction X is smaller than that of the light emission range 90. . For this reason, it is possible to prevent the cover 9 from being worn as compared with the case where the entire light emitting range 90 is rubbed to remove the object attached to the light emitting range 90.
  • the width of the brush T in the direction X is small, the range in which the image light is blocked by the brush T can be reduced even when the brush T is moving on the surface of the cover 9. . For this reason, it is possible to prevent deterioration in the quality of the display image when the object removal mechanism 11 is operating.
  • the imaging unit 10 is provided above the cover 9, but the imaging unit 10 may be disposed inside the housing 3 so that the object adhesion region can be detected.
  • the cover 9 is configured to be fitted into the opening K
  • the cover 9 may be configured to be able to close the opening K.
  • the cover 9 may be fixed to the outer peripheral surface of the housing 3, and the opening K may be closed by covering the entire opening K with the back surface of the cover 9.
  • the width of the brush T of the object removing mechanism 11 in the direction X is equal to or larger than the width of the light emission range 90, and the entire light emission range 90 is cleaned by the movement of the rail 11B. Good. Even with this configuration, it is possible to obtain an effect of reducing the frequency with which the surface of the cover 9 is rubbed.
  • the importance of each of the plurality of display contents that can be displayed by the projection display unit 49 may be set manually. For example, a user who places importance on speed display can prevent the display of speed information from being hidden by setting the importance of speed information to the highest value. Note that it is preferable to prohibit the change of the importance of the plurality of display contents having the highest relevance to safety.
  • the object removal mechanism 11 may be configured to control the movement start position by moving the movable portion 11A in the direction Y and move the movable portion 11A in the direction X in this state to remove the object.
  • the movable portion 11A is Since the time for moving on the light emission range 90 can be shortened, it is possible to prevent the display quality from being deteriorated during the operation of the object removal mechanism 11.
  • An image based on the image light that includes a light modulation unit that spatially modulates light emitted from the light source based on input image information, and projects the spatially modulated image light on a projection surface of a vehicle.
  • a projection display unit that displays the image, a housing that contains the projection display unit and has an opening through which the image light is emitted, a cover that closes the opening, and an object attached to the surface of the cover, An object removal mechanism that rubs and removes the surface of the cover; an area detection unit that detects an object adhesion region where an object is adhered to the cover; and an object removal control unit that controls the operation of the object removal mechanism.
  • the object removal control unit moves the object removal mechanism when a predetermined display content is included in a portion of the image light that is blocked by the object adhesion region detected by the region detection unit.
  • An image based on the image light that includes a light modulation unit that spatially modulates the light emitted from the light source based on input image information, and projects the spatially modulated image light on the projection surface of the vehicle.
  • a projection display unit that displays the image, a housing that contains the projection display unit and has an opening through which the image light is emitted, a cover that closes the opening, and an object attached to the surface of the cover, An object removal mechanism for rubbing and removing the surface of a cover, a method for controlling a projection display device, comprising: an area detection step for detecting an object adhesion area where an object is adhered to the cover; and the object removal mechanism An object removal control step for controlling the operation of the object, wherein in the object removal control step, a portion of the image light that is blocked by the object adhesion region detected by the region detection step When containing the predetermined display content, the control method of a projection display device for operating said object removal mechanism.
  • the position of the object adhesion region detected in the region detection step in the second direction A control method for a projection display device, wherein the movable portion is moved in the first direction in a state where the positions of the movable portions in the second direction are matched to remove an object attached to the object attachment region.
  • An image based on the image light that includes a light modulation unit that spatially modulates the light emitted from the light source based on input image information, and projects the spatially modulated image light on the projection surface of the vehicle.
  • a projection display unit that displays the image, a housing that contains the projection display unit and has an opening through which the image light is emitted, a cover that closes the opening, and an object attached to the surface of the cover,
  • An object removal mechanism for rubbing and removing the surface of a cover a control program for a projection display device, comprising: an area detection step for detecting an object attachment area where an object is attached to the cover; and the object removal mechanism
  • a program for causing a computer to execute an object removal control step for controlling the operation of the image, and in the object removal control step, the region detection step of the image light is performed by the region detection step. If included display content predetermined in part intercepted by the detected the object attachment region, a control program of the projection display device for operating said object removal mechanism.
  • a projection display device capable of maintaining display quality by minimizing the cleaning of the image light exit surface. can do.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

画像光の出射面の清掃を適切に行って表示品質を保つことのできる投写型表示装置、投写型表示装置の制御方法、及び、投写型表示装置の制御プログラムを提供する。HUD100は、光源から出射される光を画像情報に基づいて空間変調し、空間変調された画像光をウインドシールド2に投写して画像を表示する投写表示部49と、投写表示部を収容し、画像光が出射される開口部Kを有する筐体3と、開口部を塞ぐカバー9の表面に付着した物体をカバーの表面を擦って除去する物体除去機構11と、カバーにおいて物体が付着している物体付着領域を検出する領域検出部47Aと、画像光のうちの物体付着領域によって遮られる部分に重要な表示コンテンツが含まれる場合に物体除去機構を動作させる物体除去制御部47Cと、を備える。

Description

投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム
 本発明は、投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラムに関する。
 自動車、電車、船舶、重機、建機、航空機、又は、農作用機械等の乗り物のウインドシールド、又は、ウインドシールドの付近に配置されるコンバイナをスクリーンとして用い、これに光を投写して画像を表示させる乗り物用のHUD(Head-up Display)が知られている。このHUDを用いれば、HUDから投写された光に基づく画像を、スクリーン上で実像として、又は、スクリーン前方において虚像として、運転者に視認させることができる。
 特許文献1には、ウインドシールドに投写される画像光の出射面に付着した物体を除去する物体除去機構を搭載するHUDが記載されている。この物体除去機構は、車両のイグニッションスイッチのオンオフ、又は、HUDの表示のオンオフに連動して動作するようになっている。
 特許文献2には、画像の表示中であっても、ウインドシールドに投写される画像光の出射面に物体が付着して情報の視認性が悪化した場合には、この物体を除去する物体除去機構をユーザの意思によって動作させることのできるHUDが記載されている。
特開2015-113088号公報 特開2005-075230号公報
 特許文献1,2に記載されているように、画像光の出射面をブラシ又はブレード等によって拭うことによって出射面に付着した物体を除去する構成では、物体除去機構が動作するたびに出射面がブラシ又はブレード等によって擦られることになり、出射面が摩耗して表示品質が低下する可能性がある。このため、出射面の清掃の回数は必要最小限とするのが好ましい。
 特許文献1に記載のHUDは、車両のイグニッションスイッチのオンオフ、又は、HUDの表示のオンオフに連動して物体除去機構が動作するため、画像光の出射面の清掃の頻度が高く、出射面が摩耗して表示品質に影響を与える可能性がある。
 特許文献2には、画像の表示中にユーザ操作によって出射面の清掃を開始できる構成が開示されている。しかし、出射面に汚れが付着している場合、この汚れによって欠落する情報は透明な画像として表示されることになるため、ユーザが汚れの付着に気付くことは難しい。したがって、ユーザ操作によって清掃を行う場合には、適切な清掃が行われない可能性がある。
 本発明は、上記事情に鑑みてなされたものであり、画像光の出射面の清掃を適切に行って表示品質を保つことのできる投写型表示装置、投写型表示装置の制御方法、及び、投写型表示装置の制御プログラムを提供することを目的とする。
 本発明の投写型表示装置は、光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、上記空間変調された画像光を乗り物の投写面に投写して上記画像光に基づく画像を表示する投写表示部と、上記投写表示部を収容し、上記画像光が出射される開口部を有する筐体と、上記開口部を塞ぐカバーと、上記カバーの表面に付着した物体を、上記カバーの表面を擦って除去する物体除去機構と、上記カバーにおいて物体が付着している物体付着領域を検出する領域検出部と、上記物体除去機構の動作を制御する物体除去制御部と、を備え、上記物体除去制御部は、上記画像光のうちの上記領域検出部によって検出された上記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、上記物体除去機構を動作させるものである。
 本発明の投写型表示装置の制御方法は、光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、上記空間変調された画像光を乗り物の投写面に投写して上記画像光に基づく画像を表示する投写表示部と、上記投写表示部を収容し、上記画像光が出射される開口部を有する筐体と、上記開口部を塞ぐカバーと、上記カバーの表面に付着した物体を、上記カバーの表面を擦って除去する物体除去機構と、を有する投写型表示装置の制御方法であって、上記カバーにおいて物体が付着している物体付着領域を検出する領域検出ステップと、上記物体除去機構の動作を制御する物体除去制御ステップと、を備え、上記物体除去制御ステップでは、上記画像光のうちの上記領域検出ステップによって検出された上記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、上記物体除去機構を動作させるものである。
 本発明の投写型表示装置の制御プログラムは、光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、上記空間変調された画像光を乗り物の投写面に投写して上記画像光に基づく画像を表示する投写表示部と、上記投写表示部を収容し、上記画像光が出射される開口部を有する筐体と、上記開口部を塞ぐカバーと、上記カバーの表面に付着した物体を、上記カバーの表面を擦って除去する物体除去機構と、を有する投写型表示装置の制御プログラムであって、上記カバーにおいて物体が付着している物体付着領域を検出する領域検出ステップと、上記物体除去機構の動作を制御する物体除去制御ステップと、をコンピュータに実行させるためのプログラムであり、上記物体除去制御ステップでは、上記画像光のうちの上記領域検出ステップによって検出された上記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、上記物体除去機構を動作させるものである。
 本発明を用いれば、画像光の出射面の清掃を適切に行って表示品質を保つことのできる投写型表示装置、投写型表示装置の制御方法、及び、投写型表示装置の制御プログラムを提供することができる。
本発明の投写型表示装置の一実施形態であるHUD100の概略構成を示す図である。 図1に示す連結部8の外観を示す図である。 図1に示すHUD100の筐体3に収容された制御ユニット5の内部構成例を示す模式図である。 図1に示すHUD100における物体除去機構11の詳細構成例を示す模式図である。 図1に示すHUD100による画像の表示イメージを示す図である。 図3に示すシステム制御部47の機能ブロック図である。 物体除去機構11による物体の除去動作を説明するための模式図である。 物体除去機構11による物体の除去動作を説明するための模式図である。 物体除去機構11による物体の除去動作を説明するための模式図である。 図1に示すHUD100の動作を説明するためのフローチャートである。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の投写型表示装置の一実施形態であるHUD100の概略構成を示す図である。
 HUD100は、自動車1に搭載され、自動車1のウインドシールド2の一部の範囲を投写面とし、投写面に投写される画像光により、自動車1の運転者によって虚像又は実像を視認可能にするものである。
 HUD100は、自動車以外にも、例えば電車、重機、建機、航空機、船舶、又は、農作機械等の乗り物に搭載して用いることができる。
 HUD100は、自動車1のダッシュボード4に一部が露出し内蔵されている。ダッシュボード4は、自動車1のスピードメータ、タコメータ、燃料計、水温計、又は、距離計等の走行に必要な情報を通知するための計器類等を含む内装部品を内蔵する部材である。
 HUD100は、光源及びこの光源から出射される光を画像情報に基づいて空間変調する光変調部を含む制御ユニット5と、光変調部により空間変調された画像光をウインドシールド2に投写するための投写光学系を構成する拡散部材6及び凹面鏡7と、を収容する箱状の筐体3と、筐体3とダッシュボード4の開口部とを連結する筒状の連結部8と、撮像部10と、物体除去機構11と、を備える。投写光学系の構成は一例であり、図1に示すものに限定されない。
 筐体3には開口部Kが形成されており、筐体3の開口部Kの周囲の部分と、ダッシュボード4の開口部とが連結部8によって連結されている。
 拡散部材6は、制御ユニット5の光変調部により空間変調された画像光を拡散させて面光源化する部材である。拡散部材6は、表面に微細構造を有するマイクロミラーアレイ、拡散ミラー、MLA(Microlens-Array)ディフューザー、又は、反射ホログラフィクディフューザー等が用いられる。
 凹面鏡7は、拡散部材6によって拡散された画像光を拡大してウインドシールド2の投写面に向けて反射する。凹面鏡によって7で反射された画像光は、筐体3の開口部K及び連結部8の中空部を通ってウインドシールド2の投写面に向けて投写される。
 ウインドシールド2には、開口部K及び連結部8の中空部を通して投写された画像光が運転者の眼Eの方向に反射されるような加工がなされており、この画像光はウインドシールド2によって反射されて運転者の眼Eに入射される。これにより、運転者は画像光に基づく画像(虚像又は実像)を視認可能となる。
 筐体3の開口部Kは、画像光を透過可能な樹脂又はガラス等のカバー9によって塞がれている。開口部Kは、凹面鏡7によって反射された画像光を筐体3通して出射させるための出射窓であり、カバー9は、開口部Kを通して筐体3内に塵、埃、又は、液体等が混入するのを防いでいる。
 撮像部10は、撮像素子と、撮像素子によって撮像して得られる撮像画像信号を処理して撮像画像データを生成する画像処理部とを含む。撮像部10は、連結部8の内壁においてカバー9よりも上方の位置に固定されており、カバー9の表面(筐体3の内部側とは反対の面)を撮像可能に配置されている。撮像部10によって撮像して得られた撮像画像データは、制御ユニット5の後述するシステム制御部47に転送される。
 物体除去機構11は、カバー9の表面に付着した物体を、この表面を擦って除去する機構である。物体除去機構11は、詳細は後述するが、ブラシ又はブレード等の表面を擦るための刷掃子Tを含む可動部をカバー9の表面に沿って移動させ、この刷掃子Tによって物体を図示省略のダストボックスに排出することで、カバー9の表面に付着した物体を除去する。
 HUD100は、ウインドシールド2に対して画像光を投写する方式を採用しているが、ウインドシールド2の付近に配置したコンバイナ(図示せず)に画像光を投写する方式を採用してもよい。この場合は、コンバイナが投写面を構成する。
 図2は、図1に示す連結部8の外観を示す図である。
 図2に示すように、連結部8は、中空部が略直方体となっており、画像光の出射される方向から見た連結部8の基端にあるカバー9の平面形状は、自動車1の運転席と助手席の並ぶ方向Xが長手方向となる矩形となっている。このように、カバー9が方向Xに長い形状となっていることによって、ウインドシールド2の広範囲にて画像の表示が可能となる。
 自動車1は、図2に示したハンドルHと対向する位置に運転席が配置され、この運転席の左隣または右隣(例は左隣である)に助手席が配置される構成である。自動車1の運転席と助手席の並ぶ方向Xは、自動車1が直進する場合の自動車1の進行方向と略直交する方向と同義である。2つの方向が略直交するとは、この2つの方向のなす角度が70度~110度の範囲にあることを言う。
 図3は、図1に示すHUD100の筐体3に収容された制御ユニット5の内部構成例を示す模式図である。
 図3に示すように、HUD100の制御ユニット5は、光源ユニット40と、光変調素子44と、光変調素子44を駆動する駆動部45と、HUD100全体を統括制御するシステム制御部47と、を備える。図3に示す投写光学系48は、図1に示す拡散部材6及び凹面鏡7によって構成される。
 システム制御部47は、プロセッサと、このプロセッサの実行するプログラム等が記憶されるROM(Read Only Memory)と、このプロセッサのワークメモリとして機能するRAM(Random Access Memory)と、を含む。このROMに記憶されるプログラムは、HUD100の制御プログラムを含む。
 光源ユニット40は、光源制御部46と、赤色光を出射する赤色光源であるR光源41rと、緑色光を出射する緑色光源であるG光源41gと、青色光を出射する青色光源であるB光源41bと、ダイクロイックプリズム43と、R光源41rとダイクロイックプリズム43の間に設けられたコリメータレンズ42rと、G光源41gとダイクロイックプリズム43の間に設けられたコリメータレンズ42gと、B光源41bとダイクロイックプリズム43の間に設けられたコリメータレンズ42bと、を備える。R光源41rとG光源41gとB光源41bはHUD100の光源を構成する。
 ダイクロイックプリズム43は、R光源41r、G光源41g、及び、B光源41bの各々から出射される光を同一光路に導くための光学部材である。ダイクロイックプリズム43は、コリメータレンズ42rによって平行光化された赤色光を透過させて光変調素子44に出射する。また、ダイクロイックプリズム43は、コリメータレンズ42gによって平行光化された緑色光を反射させて光変調素子44に出射する。さらに、ダイクロイックプリズム43は、コリメータレンズ42bによって平行光化された青色光を反射させて光変調素子44に出射する。このような機能を持つ光学部材としては、ダイクロイックプリズムに限らない。例えば、クロスダイクロイックミラーを用いてもよい。
 R光源41r、G光源41g、及び、B光源41bは、それぞれ、レーザ又はLED(Light Emitting Diode)等の発光素子が用いられる。HUD100の光源は、R光源41rとG光源41gとB光源41bの3つの例に限らず、1つの光源、2つの光源、又は、4つ以上の光源によって構成されていてもよい。
 光源制御部46は、R光源41r、G光源41g、及び、B光源41bの各々を制御し、R光源41r、G光源41g、及び、B光源41bから光を出射させる制御を行う。
 光変調素子44は、R光源41r、G光源41g、及び、B光源41bから出射され、ダイクロイックプリズム43から出射された光を、システム制御部47により入力される画像情報に基づいて空間変調する。
 光変調素子44としては、例えば、LCOS(Liquid crystal on silicon)、DMD(Digital Micromirror Device)、MEMS(Micro Electro Mechanical Systems)素子、又は、液晶表示素子等を用いることができる。
 駆動部45は、システム制御部47から入力される画像情報に基づいて光変調素子44を駆動し、この画像情報に基づいて空間変調された画像光(赤色画像光、青色画像光、及び、緑色画像光)を、光変調素子44から投写光学系48の拡散部材6に出射させる。光変調素子44と駆動部45はHUD100の光変調部を構成する。
 図1に示した拡散部材6及び凹面鏡7より構成される投写光学系48は、ウインドシールド2に投写された画像光に基づく画像が、ウインドシールド2前方の位置において虚像として運転者に視認可能となるように光学設計がなされている。この画像光に基づく画像が、ウインドシールド2において実像として運転者に視認可能となるように投写光学系48の光学設計がなされていてもよい。
 システム制御部47は、光源制御部46及び駆動部45を制御して、画像情報に基づいて空間変調された画像光を拡散部材6に出射させる。
 投写光学系48と、光変調素子44及び駆動部45より構成される光変調部と、光源ユニット40とにより、投写表示部49が構成されている。
 図4は、図1に示すHUD100における物体除去機構11の詳細構成例を示す模式図である。図4は、カバー9の表面に垂直な方向からHUD100の連結部8を見た状態を示している。図5は、図1に示すHUD100による画像の表示イメージを示す図である。
 図4に示すように、カバー9の表面には、投写光学系48を通った画像光が出射される範囲である光出射範囲90が存在する。光出射範囲90は、図4の例では矩形となっており、方向Xの幅が、方向Xに直交する方向Yの幅よりも大きくなっている。方向Yは第一方向を構成し、方向Xは第二方向を構成する。
 この光出射範囲90を通して出射された画像光がウインドシールド2に投写されることによって、図5に示すように、運転者によりこの画像光に基づく画像が視認される。
 図5には、自動車1の運転席に着座する運転者により視認される画像20a,20b,20cと、投写表示部49によって画像を表示させることのできる最大の範囲を示す表示可能範囲20と、が示されている。
 図5の例では、駆動部45に入力される画像情報が、画像20a、画像20b、及び、画像20cの3つの画像に対応する情報を含んでおり、この画像情報によって空間変調して得られる画像光に基づいて、表示可能範囲20には画像20a、画像20b、及び、画像20cが表示される。表示可能範囲20において、画像20a、画像20b、及び、画像20c以外の領域は透明となっており、ウインドシールド2前方の景色が確認可能となっている。
 なお、図5に示される画像20aは、自動車1の走行速度を示す文字である。また、画像20bは、経路案内を示す文字及び矢印である。また、画像20cは、警告を行うためのアイコンである。
 図4に示すように、物体除去機構11は、カバー9の表面を擦るための方向Xおよび方向Xに直交する方向Yに移動可能な可動部11Aと、方向Xに伸びるレール11Bと、連結部8の側壁に固定された方向Yに伸びる一対のレール11Cと、筐体3の一部に設けられた孔部により構成されるダストボックス11D及び11Eと、を備える。可動部11A、レール11B、及び、レール11Cは、それぞれ、連結部8の中空部内においてカバー9よりも上方に設けられている。
 可動部11Aは、レール11Bによって方向Xに移動自在に支持されている。物体除去機構11は、レール11B上で可動部11Aを方向Xに移動させるための図示しない第一の駆動モータを備えており、該当第一の駆動モータはシステム制御部47によって制御される。
 レール11Bは、一対のレール11Cによって方向Yに移動自在に支持されている。物体除去機構11は、一対のレール11C上でレール11Bを方向Yに移動させるための図示しない第二の駆動モータを備えており、この第二の駆動モータはシステム制御部47によって制御される。
 ダストボックス11D及び11Eは、それぞれ、筐体3における連結部8の中空部に露出する部分の一部に形成された筐体3内部には貫通しない孔部により構成されている。ダストボックス11Dは、カバー9の方向Yにおける一端に隣接して設けられている。ダストボックス11Eは、カバー9の方向Yにおける他端に隣接して設けられている。
 レール11Bの可動範囲は、可動部11Aがダストボックス11D上方にある位置と、可動部11Aがダストボックス11E上方にある位置との間となっている。
 可動部11Aの筐体3と対向する面には、レール11Bが第二の駆動モータによって方向Yに移動されて可動部11Aがカバー9の上方に位置する状態において、カバー9の表面に接触するブラシ又はブレード等の刷掃子T(図1参照)が設けられている。
 刷掃子Tは、可動部11Aにおけるカバー9の表面と接触可能な部位であり、この部位の方向Xの幅は、光出射範囲90の方向Xの幅よりも大きくなっている。
 物体除去機構11では、図4に示すように可動部11Aが方向Xにおいて任意の位置にある状態で、レール11Bを方向Yに移動させて可動部11Aをダストボックス10D上方まで移動させる。この動作により、可動部11Aの刷掃子Tがカバー9の表面を擦りながら方向Yに移動するため、刷掃子Tによって擦られた領域に付着している物体は、刷掃子Tによって拭き取られ、ダストボックス11Dへと排出され、除去される。
 このように、物体除去機構11は、カバー9の表面に沿う方向Yとこれに直交する方向Xとに移動可能であり、かつ、方向Yに移動してカバー9の表面を擦る可動部11Aを有する構成である。
 図6は、図3に示すシステム制御部47の機能ブロック図である。
 システム制御部47は、領域検出部47Aと、表示制御部47Bと、物体除去制御部47Cと、を備える。領域検出部47Aと、表示制御部47Bと、物体除去制御部47Cは、システム制御部47のプロセッサがROMに記憶される制御プログラムを含むプログラムを実行することにより形成される機能ブロックである。
 領域検出部47Aは、撮像部10から入力される撮像画像データを解析して、カバー9の表面(具体的には光出射範囲90)において物体が付着している領域(以下、物体付着領域という)を検出する。物体とは、HUD100の表示品質に影響を与える程度に大きなゴミ、埃、塵、液体、又は、皮脂等のことを言う。
 例えば、物体が全く付着していない綺麗な状態のカバー9の表面を撮像部10により撮像して得られた基準撮像画像データをシステム制御部47のROMに記憶しておき、領域検出部47Aは、この基準撮像画像データと、撮像部10から入力される撮像画像データとの比較により物体付着領域を検出する。
 具体的には、領域検出部47Aは、基準撮像画像データと撮像部10から入力される撮像画像データとを比較して、撮像部10から入力される撮像画像データにおいて基準撮像画像データに対し濃淡の変化が大きい変化領域を検出する。そして、領域検出部47Aは、この変化領域のうち、面積が閾値以上となる変化領域を物体付着領域として検出する。
 領域検出部47Aは、面積が閾値未満となる変化領域しか存在しない場合でも、この変化領域が複数個近傍に存在している場合には、この複数個の変化領域を包含する領域を物体付着領域として検出してもよい。
 表示制御部47Bは、駆動部45に入力する画像情報を制御して、投写表示部49により表示させる画像を制御する。
 物体除去制御部47Cは、物体除去機構11の動作を制御する。物体除去制御部47Cは、カバー9を通してウインドシールド2に向けて投写される画像光のうちの領域検出部47Aによって検出された物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、第一の駆動モータ及び第二の駆動モータに指令を出して物体除去機構11を動作させる。
 HUD100では、投写表示部49によって表示可能な複数の表示コンテンツのそれぞれに、安全確保の観点での重要度(安全に関する重要度)が予め設定されている。具体的には、表示コンテンツの重要度は、安全との関連性が高いものほど高い値が設定される。
 例えば、人物又は他車両等の障害物に注意が必要なことを通知するための情報等、安全確保のための行動をとるよう促す警告情報については重要度が最も高く設定される。一方、経路案内を行うための情報、自動車1の計器類の状態に関する情報、又は、自動車1とは直接関係のない現在時刻に関する情報等については、警告情報よりも重要度が低く設定される。
 上述した予め決められた表示コンテンツとは、この重要度が閾値以上となる表示コンテンツである。この閾値としては、例えば、重要度のうちの最大値が設定されてもよい。
 例えば、図5に示すように、カバー9を通して投写される画像光に、表示コンテンツとして、走行速度情報を示す画像20a、経路案内情報を示す画像20b、及び、警告情報を示す画像20cが含まれる場合を考える。
 画像20cを表示するための光の光路上に物体付着領域が存在する場合には、カバー9を通して投写される画像光のうち、この物体付着領域によって遮られる部分には警告情報を示す表示コンテンツが含まれることになる。警告情報は重要度が閾値以上であるため、この場合には、物体除去制御部47Cは、物体除去機構11を動作させて、物体付着領域上にある物体の除去を行う。
 一方、画像20a又は画像20bを表示するための光の光路上に物体付着領域が存在する場合には、カバー9を通して投写される画像光のうち、この物体付着領域によって遮られる部分には重要度が閾値以上となる表示コンテンツは含まれない。したがって、この場合には、物体除去制御部47Cは、物体除去機構11を動作させない。
 図7~図9は、物体除去機構11による物体の除去動作を説明するための模式図である。
 光出射範囲90に付着した物体91を除去する場合には、物体除去制御部47Cは、まず、第一の駆動モータを制御して、図7に示すように、領域検出部47Aによって検出された物体91の付着している物体付着領域の方向Xの位置と、可動部11Aの刷掃子Tの方向Xの位置を合わせる。
 次に、物体除去制御部47Cは、図8に示すように、第二の駆動モータを制御して、レール11Bをダストボックス11E上方からダストボックス11Dに近づく方向に移動させ、最終的に、図9に示すように、レール11Bをダストボックス11D上方に移動させる。このレール11Bの移動過程において、可動部11Aの刷掃子Tにより、物体91がダストボックス11Dに排出され、物体91がカバー9の表面から除去される。
 図10は、図1に示すHUD100の動作を説明するためのフローチャートである。HUD100が起動し、投写表示部49によって画像の表示が開始されると図10に示すフローが開始される。
 まず、物体除去制御部47Cは、領域検出部47Aによって物体付着領域が検出されたか否かを判定する(ステップS1)。
 ステップS1の判定がNOの場合にはステップS1の処理が繰り返される。ステップS1の判定がYESの場合には、物体除去制御部47Cは、カバー9を通してウインドシールド2に向けて投写されている画像光の中に、検出された物体付着領域によって遮られる表示コンテンツが存在するか否かを判定する(ステップS2)。
 駆動部45に入力される画像情報の各画素の位置と、光出射範囲90におけるこの各画素に対応する光の通過位置との関係は予め分かっている。このため、画像情報における表示コンテンツの位置と物体付着領域の位置との関係に基づいて、画像光の中に、物体付着領域によって遮られる表示コンテンツが存在するか否かを判定することができる。
 ステップS2の判定がNOの場合にはステップS1に処理が戻る。ステップS2の判定がYESの場合には、物体除去制御部47Cは、物体付着領域によって遮られる表示コンテンツの重要度を確認し、その重要度が閾値以上となるか否かを判定する(ステップS3)。
 重要度が閾値未満である場合にはステップS1に処理が戻る。重要度が閾値以上であった場合には、物体除去制御部47Cは、物体除去機構11を作動して、表示コンテンツを遮る位置にある物体の除去を行う(ステップS4、物体除去制御ステップ)。物体の除去が行われた後はステップS1に処理が戻る。以上の動作が画像の表示中は繰り返し行われる。
 以上のように、HUD100によれば、カバー9に物体が付着した場合であっても、この物体によって遮られる表示コンテンツの重要度が閾値以上の場合にだけ、物体除去機構11が動作して物体の除去が行われる。このため、物体除去機構11が動作する機会を減らすことができ、刷掃子Tがカバー9の表面を擦る頻度を減らして、カバー9の摩耗を防ぐことができる。
 また、HUD100によれば、物体除去機構11が、方向Xの幅が光出射範囲90よりも小さい刷掃子Tによって、光出射範囲90の必要な箇所だけを擦って物体を除去することができる。このため、光出射範囲90に付着した物体を除去するために光出射範囲90の全体を擦る場合と比較すると、カバー9の摩耗を防ぐことができる。
 また、刷掃子Tの方向Xの幅が小さいことで、刷掃子Tがカバー9の表面を移動中であっても、刷掃子Tによって画像光が遮られる範囲を小さくすることができる。このため、物体除去機構11が動作しているときの表示画像の品質低下を防ぐことができる。
 以上の説明では、撮像部10がカバー9の上方に設けられているが、筐体3の内部に撮像部10を配置して物体付着領域を検出できるようにしてもよい。
 また、カバー9が開口部Kに嵌め込まれる構成としたが、カバー9は開口部Kを塞ぐことができる構成であればよい。例えば、カバー9を筐体3の外周面に固定し、カバー9の裏面で開口部K全体を覆うことで、開口部Kを塞ぐ構成としてもよい。
 また、物体除去機構11の刷掃子Tの方向Xの幅を光出射範囲90の幅と同じかそれ以上とし、レール11Bの移動によって光出射範囲90の全てが清掃される構成であってもよい。この構成であっても、カバー9の表面が擦られる頻度を減らす効果を得ることは可能である。
 また、投写表示部49によって表示可能な複数の表示コンテンツの各々の重要度をマニュアルで設定できるようにしてもよい。例えば、速度表示を重視するユーザであれば、速度情報の重要度を最高値に設定することで、速度情報の表示が隠れるのを防ぐことができる。なお、複数の表示コンテンツのうち、安全との関連性が最も高いものについては、重要度の変更を禁止することが好ましい。
 また、物体除去機構11は、可動部11Aを方向Yに移動させることで移動開始位置を制御し、その状態で可動部11Aを方向Xに移動させて物体を除去する構成としてもよい。上述してきた構成(可動部11Aを方向Xに移動させることで移動開始位置を制御し、その状態で可動部11Aを方向Yに移動させて物体を除去する構成)によれば、可動部11Aが光出射範囲90上を移動する時間を短くすることができるため、物体除去機構11の動作中の表示品質の低下を防ぐことができる。
 以上説明してきたように、本明細書には以下の事項が開示されている。
(1) 光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、上記空間変調された画像光を乗り物の投写面に投写して上記画像光に基づく画像を表示する投写表示部と、上記投写表示部を収容し、上記画像光が出射される開口部を有する筐体と、上記開口部を塞ぐカバーと、上記カバーの表面に付着した物体を、上記カバーの表面を擦って除去する物体除去機構と、上記カバーにおいて物体が付着している物体付着領域を検出する領域検出部と、上記物体除去機構の動作を制御する物体除去制御部と、を備え、上記物体除去制御部は、上記画像光のうちの上記領域検出部によって検出された上記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、上記物体除去機構を動作させる投写型表示装置。
(2) (1)記載の投写型表示装置であって、上記物体除去機構は、上記カバーの表面に沿う第一方向と上記第一方向に直交する第二方向とに移動可能かつ上記第一方向に移動して上記カバーの表面を擦る可動部を有し、上記カバーの表面と接触可能な上記可動部における部位の上記第二方向の幅は、上記カバーの表面のうちの上記画像光が出射される光出射範囲の上記第二方向の幅よりも小さくなっており、上記物体除去制御部は、上記領域検出部によって検出された上記物体付着領域の上記第二方向の位置と上記可動部の上記第二方向の位置を合わせた状態において上記可動部を上記第一方向に移動させて上記物体付着領域に付着した物体を除去する投写型表示装置。
(3) (1)又は(2)記載の投写型表示装置であって、上記投写表示部によって表示可能な複数の表示コンテンツには安全に関する重要度が設定されており、上記予め決められた表示コンテンツは、上記重要度が閾値以上となる表示コンテンツである投写型表示装置。
(4) 光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、上記空間変調された画像光を乗り物の投写面に投写して上記画像光に基づく画像を表示する投写表示部と、上記投写表示部を収容し、上記画像光が出射される開口部を有する筐体と、上記開口部を塞ぐカバーと、上記カバーの表面に付着した物体を、上記カバーの表面を擦って除去する物体除去機構と、を有する投写型表示装置の制御方法であって、上記カバーにおいて物体が付着している物体付着領域を検出する領域検出ステップと、上記物体除去機構の動作を制御する物体除去制御ステップと、を備え、上記物体除去制御ステップでは、上記画像光のうちの上記領域検出ステップによって検出された上記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、上記物体除去機構を動作させる投写型表示装置の制御方法。
(5) (4)記載の投写型表示装置の制御方法であって、上記物体除去機構は、上記カバーの表面に沿う第一方向と上記第一方向に直交する第二方向とに移動可能かつ上記第一方向に移動して上記カバーの表面を擦る可動部を有し、上記カバーの表面と接触可能な上記可動部における部位の上記第二方向の幅は、上記カバーの表面のうちの上記画像光が出射される光出射範囲の上記第二方向の幅よりも小さくなっており、上記物体除去制御ステップでは、上記領域検出ステップによって検出された上記物体付着領域の上記第二方向の位置と上記可動部の上記第二方向の位置を合わせた状態において上記可動部を上記第一方向に移動させて上記物体付着領域に付着した物体を除去する投写型表示装置の制御方法。
(6) (4)又は(5)記載の投写型表示装置の制御方法であって、上記投写表示部によって表示可能な複数の表示コンテンツには安全に関する重要度が設定されており、上記予め決められた表示コンテンツは、上記重要度が閾値以上となる表示コンテンツである投写型表示装置の制御方法。
(7) 光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、上記空間変調された画像光を乗り物の投写面に投写して上記画像光に基づく画像を表示する投写表示部と、上記投写表示部を収容し、上記画像光が出射される開口部を有する筐体と、上記開口部を塞ぐカバーと、上記カバーの表面に付着した物体を、上記カバーの表面を擦って除去する物体除去機構と、を有する投写型表示装置の制御プログラムであって、上記カバーにおいて物体が付着している物体付着領域を検出する領域検出ステップと、上記物体除去機構の動作を制御する物体除去制御ステップと、をコンピュータに実行させるためのプログラムであり、上記物体除去制御ステップでは、上記画像光のうちの上記領域検出ステップによって検出された上記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、上記物体除去機構を動作させる投写型表示装置の制御プログラム。
 本発明によれば、画像光の出射面の清掃を必要最小限にして表示品質を保つことのできる投写型表示装置、投写型表示装置の制御方法、及び、投写型表示装置の制御プログラムを提供することができる。
100 HUD
1 自動車
2 ウインドシールド
3 筐体
4 ダッシュボード
5 制御ユニット
6 拡散部材
7 凹面鏡
8 連結部
9 カバー
10 撮像部
11 物体除去機構
11A 可動部
11B,11C レール
11D,11E ダストボックス
T 刷掃子
20 表示可能範囲
20a,20b,20c 画像
40 光源ユニット
41r R光源
41g G光源
41b B光源
42r、42g、42b コリメータレンズ
43 ダイクロイックプリズム
44 光変調素子
45 駆動部
46 光源制御部
47 システム制御部
47A 領域検出部
47B 表示制御部
47C 物体除去制御部
48 投写光学系
49 投写表示部
90 光出射範囲
91 物体
H ハンドル
K 開口部
E 眼
X、Y 方向

Claims (7)

  1.  光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、前記空間変調された画像光を乗り物の投写面に投写して前記画像光に基づく画像を表示する投写表示部と、
     前記投写表示部を収容し、前記画像光が出射される開口部を有する筐体と、
     前記開口部を塞ぐカバーと、
     前記カバーの表面に付着した物体を、前記カバーの表面を擦って除去する物体除去機構と、
     前記カバーにおいて物体が付着している物体付着領域を検出する領域検出部と、
     前記物体除去機構の動作を制御する物体除去制御部と、を備え、
     前記物体除去制御部は、前記画像光のうちの前記領域検出部によって検出された前記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、前記物体除去機構を動作させる投写型表示装置。
  2.  請求項1記載の投写型表示装置であって、
     前記物体除去機構は、前記カバーの表面に沿う第一方向と前記第一方向に直交する第二方向とに移動可能かつ前記第一方向に移動して前記カバーの表面を擦る可動部を有し、
     前記カバーの表面と接触可能な前記可動部における部位の前記第二方向の幅は、前記カバーの表面のうちの前記画像光が出射される光出射範囲の前記第二方向の幅よりも小さくなっており、
     前記物体除去制御部は、前記領域検出部によって検出された前記物体付着領域の前記第二方向の位置と前記可動部の前記第二方向の位置を合わせた状態において前記可動部を前記第一方向に移動させて前記物体付着領域に付着した物体を除去する投写型表示装置。
  3.  請求項1又は2記載の投写型表示装置であって、
     前記投写表示部によって表示可能な複数の表示コンテンツには安全に関する重要度が設定されており、
     前記予め決められた表示コンテンツは、前記重要度が閾値以上となる表示コンテンツである投写型表示装置。
  4.  光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、前記空間変調された画像光を乗り物の投写面に投写して前記画像光に基づく画像を表示する投写表示部と、前記投写表示部を収容し、前記画像光が出射される開口部を有する筐体と、前記開口部を塞ぐカバーと、前記カバーの表面に付着した物体を、前記カバーの表面を擦って除去する物体除去機構と、を有する投写型表示装置の制御方法であって、
     前記カバーにおいて物体が付着している物体付着領域を検出する領域検出ステップと、
     前記物体除去機構の動作を制御する物体除去制御ステップと、を備え、
     前記物体除去制御ステップでは、前記画像光のうちの前記領域検出ステップによって検出された前記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、前記物体除去機構を動作させる投写型表示装置の制御方法。
  5.  請求項4記載の投写型表示装置の制御方法であって、
     前記物体除去機構は、前記カバーの表面に沿う第一方向と前記第一方向に直交する第二方向とに移動可能かつ前記第一方向に移動して前記カバーの表面を擦る可動部を有し、
     前記カバーの表面と接触可能な前記可動部における部位の前記第二方向の幅は、前記カバーの表面のうちの前記画像光が出射される光出射範囲の前記第二方向の幅よりも小さくなっており、
     前記物体除去制御ステップでは、前記領域検出ステップによって検出された前記物体付着領域の前記第二方向の位置と前記可動部の前記第二方向の位置を合わせた状態において前記可動部を前記第一方向に移動させて前記物体付着領域に付着した物体を除去する投写型表示装置の制御方法。
  6.  請求項4又は5記載の投写型表示装置の制御方法であって、
     前記投写表示部によって表示可能な複数の表示コンテンツには安全に関する重要度が設定されており、
     前記予め決められた表示コンテンツは、前記重要度が閾値以上となる表示コンテンツである投写型表示装置の制御方法。
  7.  光源から出射される光を、入力される画像情報に基づいて空間変調する光変調部を含み、前記空間変調された画像光を乗り物の投写面に投写して前記画像光に基づく画像を表示する投写表示部と、前記投写表示部を収容し、前記画像光が出射される開口部を有する筐体と、前記開口部を塞ぐカバーと、前記カバーの表面に付着した物体を、前記カバーの表面を擦って除去する物体除去機構と、を有する投写型表示装置の制御プログラムであって、
     前記カバーにおいて物体が付着している物体付着領域を検出する領域検出ステップと、
     前記物体除去機構の動作を制御する物体除去制御ステップと、をコンピュータに実行させるためのプログラムであり、
     前記物体除去制御ステップでは、前記画像光のうちの前記領域検出ステップによって検出された前記物体付着領域によって遮られる部分に予め決められた表示コンテンツが含まれる場合に、前記物体除去機構を動作させる投写型表示装置の制御プログラム。
PCT/JP2017/035837 2016-12-12 2017-10-02 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム WO2018110038A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780076420.XA CN110062911B (zh) 2016-12-12 2017-10-02 投影型显示装置、投影型显示装置的控制方法、存储投影型显示装置的控制程序的存储介质
JP2018556202A JP6550544B2 (ja) 2016-12-12 2017-10-02 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム
US16/417,665 US10761413B2 (en) 2016-12-12 2019-05-21 Projection display device, control method for projection display device, and control program for projection display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-240502 2016-12-12
JP2016240502 2016-12-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/417,665 Continuation US10761413B2 (en) 2016-12-12 2019-05-21 Projection display device, control method for projection display device, and control program for projection display device

Publications (1)

Publication Number Publication Date
WO2018110038A1 true WO2018110038A1 (ja) 2018-06-21

Family

ID=62558385

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/035837 WO2018110038A1 (ja) 2016-12-12 2017-10-02 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム

Country Status (4)

Country Link
US (1) US10761413B2 (ja)
JP (1) JP6550544B2 (ja)
CN (1) CN110062911B (ja)
WO (1) WO2018110038A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250739A1 (ja) * 2019-06-14 2020-12-17 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11119315B2 (en) * 2015-10-15 2021-09-14 Maxell, Ltd. Information display apparatus
DE102021112096A1 (de) * 2021-05-10 2022-11-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Frontscheiben-Anzeigesystems mit einer Abdeckerkennung sowie Frontscheiben-Anzeigesystem

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55105531U (ja) * 1979-01-18 1980-07-23
JPS63145726U (ja) * 1987-03-18 1988-09-26
JP2005075230A (ja) * 2003-09-02 2005-03-24 Nissan Motor Co Ltd 車両用ヘッドアップディスプレイ装置
JP2006011122A (ja) * 2004-06-28 2006-01-12 Nippon Seiki Co Ltd 車両用ヘッドアップディスプレイ装置
JP2008068767A (ja) * 2006-09-14 2008-03-27 Denso Corp ヘッドアップディスプレイ装置
JP2010188870A (ja) * 2009-02-18 2010-09-02 Honda Motor Co Ltd 車両用ヘッドアップディスプレイ装置
JP2014068328A (ja) * 2012-09-27 2014-04-17 Mitsubishi Electric Corp カメラ付着物検出装置
JP2015113088A (ja) * 2013-12-13 2015-06-22 トヨタ自動車株式会社 ヘッドアップディスプレイ装置
JP2015535206A (ja) * 2012-11-08 2015-12-10 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 自動車のインナーパネル部の検出領域において物体を検出する検出装置、自動車およびその検出方法
JP2016141272A (ja) * 2015-02-02 2016-08-08 カルソニックカンセイ株式会社 ヘッドアップディスプレイ設置構造

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60105531A (ja) 1983-11-14 1985-06-11 三晃金属工業株式会社 積層断熱板
JPS60105531U (ja) * 1983-12-25 1985-07-18 トヨタ自動車株式会社 車両用ヘツドアツプデイスプレイ装置
JPS63156833U (ja) * 1987-04-03 1988-10-14
JPS63145726A (ja) 1987-11-06 1988-06-17 Mitsubishi Metal Corp 切削工具用立方晶窒化硼素基超高圧焼結材料の製造法
JP5080763B2 (ja) * 2006-08-04 2012-11-21 矢崎総業株式会社 ヘッドアップディスプレイ用カバー及び車両用表示ユニット
CN101178533A (zh) * 2006-09-08 2008-05-14 马丁专业公司 无声的活动头部投影机
JP2010033222A (ja) * 2008-07-28 2010-02-12 Seiko Epson Corp ディスプレイを有する電子機器
CN102121900A (zh) * 2010-01-07 2011-07-13 泰怡凯电器(苏州)有限公司 灰尘传感器污染的判断方法和擦拭系统及其清洁机器人
JP2012026857A (ja) * 2010-07-23 2012-02-09 Fujitsu Ltd 清掃作業支援装置
US9170474B2 (en) * 2012-06-21 2015-10-27 Qualcomm Mems Technologies, Inc. Efficient spatially modulated illumination system
US8888295B2 (en) * 2012-07-02 2014-11-18 Disney Enterprises, Inc. Reflective surface tensioning and cleaning system for pepper's ghost illusion
CN103438809A (zh) * 2013-09-03 2013-12-11 天津大学 基于面阵/线阵相机的车辆宽度尺寸测量方法和装置
CN105811880A (zh) * 2016-05-16 2016-07-27 安徽思普瑞德新能源科技有限公司 基于无人机搭载的光伏组件实时监测系统
KR101949438B1 (ko) * 2016-10-05 2019-02-19 엘지전자 주식회사 차량용 디스플레이 장치 및 이를 포함하는 차량

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55105531U (ja) * 1979-01-18 1980-07-23
JPS63145726U (ja) * 1987-03-18 1988-09-26
JP2005075230A (ja) * 2003-09-02 2005-03-24 Nissan Motor Co Ltd 車両用ヘッドアップディスプレイ装置
JP2006011122A (ja) * 2004-06-28 2006-01-12 Nippon Seiki Co Ltd 車両用ヘッドアップディスプレイ装置
JP2008068767A (ja) * 2006-09-14 2008-03-27 Denso Corp ヘッドアップディスプレイ装置
JP2010188870A (ja) * 2009-02-18 2010-09-02 Honda Motor Co Ltd 車両用ヘッドアップディスプレイ装置
JP2014068328A (ja) * 2012-09-27 2014-04-17 Mitsubishi Electric Corp カメラ付着物検出装置
JP2015535206A (ja) * 2012-11-08 2015-12-10 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 自動車のインナーパネル部の検出領域において物体を検出する検出装置、自動車およびその検出方法
JP2015113088A (ja) * 2013-12-13 2015-06-22 トヨタ自動車株式会社 ヘッドアップディスプレイ装置
JP2016141272A (ja) * 2015-02-02 2016-08-08 カルソニックカンセイ株式会社 ヘッドアップディスプレイ設置構造

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250739A1 (ja) * 2019-06-14 2020-12-17 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム

Also Published As

Publication number Publication date
JP6550544B2 (ja) 2019-07-24
JPWO2018110038A1 (ja) 2019-10-24
CN110062911A (zh) 2019-07-26
US20190271905A1 (en) 2019-09-05
CN110062911B (zh) 2021-12-03
US10761413B2 (en) 2020-09-01

Similar Documents

Publication Publication Date Title
JP6462194B2 (ja) 投写型表示装置、投写表示方法、及び、投写表示プログラム
US10746988B2 (en) Projection display device, projection control method, and non-transitory computer readable medium storing projection control program
CN110115029B (zh) 投影型显示装置、投影型显示装置的控制方法、记录介质
US10630946B2 (en) Projection type display device, display control method of projection type display device, and program
US10823957B2 (en) Projection display device, and operation method and operation program for projection display device
JP6446595B2 (ja) 投写型表示装置、投写表示方法、及び、投写表示プログラム
JP6531226B2 (ja) 投写型表示装置、投写型表示装置の作動方法及び作動プログラム
JP6582140B2 (ja) 投写型表示装置
WO2018110038A1 (ja) 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム
US10746992B2 (en) Projection display device with light blocking region detection, and control method and control program for projection display device with light blocking region detection
WO2017145565A1 (ja) 投写型表示装置、投写表示方法、及び、投写表示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17880024

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018556202

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17880024

Country of ref document: EP

Kind code of ref document: A1