[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2017122396A1 - 制御装置、制御方法及びプログラム - Google Patents

制御装置、制御方法及びプログラム Download PDF

Info

Publication number
WO2017122396A1
WO2017122396A1 PCT/JP2016/079543 JP2016079543W WO2017122396A1 WO 2017122396 A1 WO2017122396 A1 WO 2017122396A1 JP 2016079543 W JP2016079543 W JP 2016079543W WO 2017122396 A1 WO2017122396 A1 WO 2017122396A1
Authority
WO
WIPO (PCT)
Prior art keywords
visible light
image
light image
region
unit
Prior art date
Application number
PCT/JP2016/079543
Other languages
English (en)
French (fr)
Inventor
厚史 伊藤
祐基 明壁
小柳津 秀紀
真備 中村
横山 正幸
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2017122396A1 publication Critical patent/WO2017122396A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof

Definitions

  • the present disclosure relates to a control device, a control method, and a program.
  • far-infrared images have been used for the purpose of detecting the temperature of an object.
  • a far-infrared image is produced
  • a target region such as a living body region from such a far-infrared image
  • region is proposed.
  • Patent Document 1 an animal image is cut out from a far-infrared image, an image part corresponding to the contour shape or coordinate value is specified in a visible light image, and the position and size of the image part in the visible light image are specified. Accordingly, there is disclosed a technique for instructing a control driving device provided in a visible light camera to perform any of pan / tilt, zoom in, and zoom out so that the image of the image portion has a predetermined form.
  • the present disclosure proposes a new and improved control device, control method, and program capable of improving the image quality of a visible light image.
  • an extraction unit that extracts a target region from a far-infrared image, and a visible light based on a corresponding region corresponding to the target region in a visible light image showing a subject that is common to the far-infrared image.
  • a control unit that controls the image quality of the image.
  • the target region is extracted from the far-infrared image, and the corresponding region corresponding to the target region is displayed in the visible light image showing the subject common to the far-infrared image by the control device. Based on this, a control method is provided that includes controlling the image quality of a visible light image.
  • the computer is provided with an extraction unit that extracts a target region from a far-infrared image, and a corresponding region corresponding to the target region in a visible light image showing a subject that is common to the far-infrared image. Based on this, a program for causing the control unit to function as a control unit that controls the image quality of a visible light image is provided.
  • FIG. 1 is an explanatory diagram for explaining various uses of an infrared image depending on a wavelength.
  • the horizontal direction in FIG. 1 corresponds to the wavelength of infrared rays, and the wavelength increases from left to right.
  • Light having a wavelength of 0.7 ⁇ m or less is visible light, and human vision senses this visible light.
  • the wavelength region adjacent to the visible light region is a near infrared (NIR) region, and infrared rays belonging to the NIR region are referred to as near infrared rays.
  • NIR near infrared
  • the upper limit of the wavelength in the NIR region varies depending on the definition, it is often assumed to be between 2.5 ⁇ m and 4.0 ⁇ m.
  • the relatively long wavelength portion of the NIR region is sometimes called the short wavelength infrared (SWIR) region.
  • Near-infrared light can be used, for example, for night vision, fluoroscopy, optical communication and ranging.
  • a camera that captures a near-infrared image usually irradiates infrared rays in the vicinity and captures the reflected light.
  • a wavelength region adjacent to the NIR region on the long wavelength side is a far infrared (FIR) region, and infrared rays belonging to the FIR region are called far infrared rays.
  • a portion having a relatively short wavelength in the FIR region may be referred to as a mid-wavelength infrared (MWIR) region.
  • MWIR mid-wavelength infrared
  • the medium wavelength infrared can be used for identification of the substance.
  • Far infrared can be utilized for night vision, thermography and heating. Infrared rays emitted by black body radiation from an object correspond to far infrared rays. Therefore, a night vision apparatus using far infrared rays can generate a far infrared image by capturing blackbody radiation from an object without irradiating infrared rays.
  • the far-infrared image generated by receiving the far-infrared light has a plurality of objects reflected in the far-infrared image.
  • a temperature difference can be detected.
  • the target area in which the specific object is reflected can be extracted from the far-infrared image separately from the other areas.
  • the temperature of the living body reflected in the far-infrared image is generally higher than the temperature of the surrounding object of the living body.
  • a living body region can be extracted from an image.
  • the image quality of the visible light image can be improved by adjusting the image quality of the visible light image so that the image quality of a specific region in the visible light image is improved.
  • the image quality of the visible light image can be improved by adjusting the luminance of the visible light image so that the luminance of the region in which a person appears in the visible light image is within an appropriate range.
  • by extracting the target region from the far-infrared image it may be possible to identify a specific region in the visible light image that is difficult to extract directly from the visible light image.
  • the image quality of the visible light image refers to the quality of the visible light image related to the arrangement of the image part in the visible light image and the shutter timing in the imaging of the visible light image (the imaging angle rather than the image content). Or quality evaluated by external factors such as timing), blur, brightness, color temperature, noise, contrast, etc., that is, the image quality (quality that can be evaluated from the pixel value) of the visible light image related to the image content Shall mean.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of the control device 10 according to the first embodiment.
  • the control device 10 includes an infrared camera 102, a visible light camera 104, an input interface 106, a memory 108, a display 110, a communication interface 112, a storage 114, a processor 116, And a bus 118.
  • the infrared camera 102 is an imaging module that performs imaging using infrared and obtains an infrared image that is a non-color image. Specifically, the infrared camera 102 has an array of imaging elements that sense far infrared rays having a wavelength belonging to the FIR region, and takes a far infrared image. The infrared camera 102 may capture far-infrared images at regular frame intervals. A series of far-infrared images obtained by the infrared camera 102 may constitute a video.
  • the visible light camera 104 is an imaging module that performs imaging using visible light and obtains a visible light image.
  • the visible light camera 104 has an array of image sensors that sense visible light having different wavelengths.
  • the visible light camera 104 may have an array of image pickup devices each having a sensitivity range in a red range, a green range, and a blue range.
  • the visible light camera 104 may capture a visible light image in each frame.
  • the series of visible light images obtained by the visible light camera 104 may constitute a video.
  • the angles of view of the infrared camera 102 and the visible light camera 104 are configured to overlap at least partially.
  • the infrared camera 102 and the visible light camera 104 can respectively capture a far-infrared image and a visible light image that reflect the subject B10 that is common to each other.
  • the description of the hardware configuration of the control device 10 will be continued.
  • the input interface 106 is used by a user to operate the control device 10 or input information to the control device 10.
  • the input interface 106 may include an input device such as a touch sensor, a keyboard, a keypad, a button, or a switch.
  • the input interface 106 may include a microphone for voice input and a voice recognition module.
  • the input interface 106 may also include a remote control module that receives commands selected by the user from the remote device.
  • the memory 108 is a storage medium that may include a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory 108 is coupled to the processor 116 and stores programs and data for processing executed by the processor 116.
  • the display 110 is a display module having a screen for displaying an image.
  • the display 110 may be an LCD (Liquid Crystal Display), an OLED (Organic light-Emitting Diode), or a CRT (Cathode Ray Tube).
  • the communication interface 112 is a module that mediates communication between the control device 10 and other devices.
  • the communication interface 112 establishes a communication connection according to any wireless communication protocol or wired communication protocol.
  • the storage 114 is a storage device that stores image data that can include an infrared image and a visible light image, or stores a database used in infrared image processing.
  • the storage 114 contains a storage medium such as a semiconductor memory or a hard disk. Note that the program and data described in this specification may be acquired from a data source external to the control device 10 (for example, a data server, a network storage, or an external memory).
  • the processor 116 is a processing module such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).
  • the processor 116 operates a function for improving the image quality of a visible light image by executing a program stored in the memory 108 or another storage medium.
  • the bus 118 interconnects the infrared camera 102, the visible light camera 104, the input interface 106, the memory 108, the display 110, the communication interface 112, the storage 114, and the processor 116.
  • FIG. 4 is a block diagram illustrating an example of a functional configuration that is realized when the components of the control device 10 illustrated in FIG. 2 are linked to each other.
  • the control device 10 includes an infrared image acquisition unit 152, a visible light image acquisition unit 154, a storage unit 156, an extraction unit 158, and a control unit 160.
  • the infrared image acquisition unit 152 acquires a far infrared image and outputs the acquired far infrared image to the extraction unit 158.
  • the infrared image acquisition unit 152 may acquire a far infrared image obtained by the infrared camera 102.
  • the infrared image acquisition unit 152 may be the infrared camera 102 itself.
  • the infrared image acquisition unit 152 may acquire a far infrared image stored in the storage unit 156.
  • the infrared image acquisition unit 152 may acquire a far infrared image obtained from another device via the communication interface 112.
  • the far-infrared image acquired by the infrared image acquisition unit 152 may be an image that has undergone preliminary processing such as signal amplification and noise removal. Further, the infrared image acquisition unit 152 may decode the far-infrared image from the encoded stream that has been compression-encoded.
  • the infrared image acquisition unit 152 may acquire a far infrared image in each frame. Specifically, when the current frame is an imaging frame in which a far-infrared image is captured by the infrared camera 102, the infrared image acquisition unit 152 obtains a far-infrared image obtained by the infrared camera 102 in the current frame. To get. On the other hand, when the current frame is a frame in which a far-infrared image is not captured by the infrared camera 102, the infrared image acquisition unit 152 acquires a far-infrared image obtained by the infrared camera 102 in the latest imaging frame.
  • the visible light image acquisition unit 154 acquires a visible light image and outputs the acquired visible light image to the control unit 160. Specifically, the visible light image acquisition unit 154 acquires a visible light image showing a subject common to the far-infrared image acquired by the infrared image acquisition unit 152. The visible light image acquisition unit 154 may acquire a visible light image obtained by the visible light camera 104, for example. The visible light image acquisition unit 154 may be the visible light camera 104 itself. The visible light image acquisition unit 154 may acquire a visible light image stored in the storage unit 156. The visible light image acquisition unit 154 may acquire a visible light image obtained from another device via the communication interface 112.
  • the visible light image acquired by the visible light image acquisition unit 154 may be an image that has undergone preliminary processing such as signal amplification and noise removal. Further, the visible light image acquisition unit 154 may decode the visible light image from the encoded stream that has been compression-encoded.
  • the angle of view of the visible light image acquired by the visible light image acquisition unit 154 is calibrated so as to overlap (ideally match) the angle of view of the infrared image acquired by the infrared image acquisition unit 152. To do.
  • the visible light image acquisition unit 154 acquires a visible light image obtained by the visible light camera 104 for the current frame in each frame.
  • the storage unit 156 stores data referred to for the target region extraction processing performed by the extraction unit 158 and the imaging condition setting processing performed by the control unit 160.
  • the storage unit 156 stores a far-infrared image in each imaging frame obtained by the infrared camera 102 and a visible light image in each frame obtained by the visible light camera 104.
  • the extraction unit 158 extracts a target region from the far infrared image. Specifically, the extraction unit 158 extracts a target region from the far-infrared image acquired by the infrared image acquisition unit 152 and outputs the extraction result to the control unit 160. For example, in the far-infrared image, the extraction unit 158 extracts a region having a pixel value corresponding to a temperature within a predetermined temperature range as a target region.
  • the predetermined temperature range can be appropriately set according to the type of the target area.
  • the target area may be a living body area where a living body including a person is reflected, or a sky area where a sky is reflected.
  • 5 and 6 are explanatory diagrams for explaining an example of a far-infrared image and a visible light image obtained by the infrared camera 102 and the visible light camera 104, respectively.
  • far-right images conceptually shown by the infrared camera 102 are conceptually shown in the diagrams on the right side, and the shades of hatching given for each area indicate the difference in pixel values. The darker the hatched area is, the lower the pixel value, and the lower the temperature of the subject in the area.
  • a visible light image obtained by the visible light camera 104 is conceptually shown, and the shades of hatching given for each area indicate the difference in the luminance component of the pixel value.
  • FIG. 10 The darker the hatched area is, the lower the brightness is.
  • FIG. 10 FIG. 11, FIG. 13, FIG. 17 and FIG. 19, which will be described later, the visible light image obtained by the visible light camera 104 is conceptually shown in the same manner as the left side of FIG.
  • the shades of hatching assigned to each area indicate the difference in the luminance component of the pixel value.
  • the person B20 is reflected in the visible light image and the far-infrared image as the subject.
  • the extraction unit 158 extracts a region having a pixel value corresponding to a temperature within a temperature range near 35 ° C. as a human region C20 that is a target region where the human B20 is reflected. Since the temperature of the person B20 is higher than the temperature of the object around the person B20, as shown in FIG. 5, in the far-infrared image, the pixel value of the person area C20 in which the person B20 appears and other areas A difference from the pixel value occurs.
  • the region in which the person B20 appears in the visible light image is extracted directly from the visible light image by comparing the pixel value of each region in the visible light image. It may be difficult to do.
  • the extraction unit 158 uses the difference between the pixel value of the human region C20 and the pixel value of the other region in the far-infrared image described above, so that the person B20 is reflected from the far-infrared image.
  • the human area C20 can be extracted. Therefore, it is possible to identify a region where the person B20 is reflected in the visible light image that is difficult to extract directly from the visible light image as the corresponding region D20 corresponding to the human region C20.
  • sky B30 is reflected in the visible light image and the far-infrared image as the subject.
  • the extraction unit 158 extracts a region having a pixel value corresponding to a temperature in the temperature range near ⁇ 20 ° C. as a sky region C30 that is a target region in which the sky B30 is reflected. Since the temperature of the sky B30 is lower than the temperature of the object around the sky B30, as shown in FIG. 6, in the far-infrared image, the pixel value of the sky region C30 in which the sky B30 is reflected and other regions A difference from the pixel value occurs.
  • the region where the sky B30 in the visible light image is directly extracted from the visible light image by comparing the pixel value of each region in the visible light image. It may be difficult to do.
  • the extraction unit 158 uses the difference between the pixel value of the sky region C30 and the pixel value of the other region in the far-infrared image described above to display the sky B30 from the far-infrared image.
  • the empty area C30 can be extracted. Therefore, it is possible to identify the region in which the sky B30 in the visible light image that is difficult to extract directly from the visible light image is reflected as the corresponding region D30 corresponding to the sky region C30.
  • the control unit 160 controls the image quality of the visible light image based on the corresponding region corresponding to the target region extracted by the extraction unit 158 in the visible light image showing the subject common to the far-infrared image. Specifically, the control unit 160 controls the image quality of the visible light image based on the corresponding region corresponding to the target region extracted by the extraction unit 158 in the visible light image acquired by the visible light image acquisition unit 154. . Thereby, according to the control device according to the present disclosure, the image quality of the visible light image can be adjusted so that the image quality of a specific region in the visible light image is improved as described below. Therefore, the image quality of the visible light image can be improved.
  • the control unit 160 controls the image quality of the visible light image by setting the imaging condition of the visible light image by the visible light camera 104 based on the corresponding region.
  • the visible light camera 104 is configured to capture a visible light image based on the imaging conditions set by the control unit 160. For example, when an operation instruction is output from the control unit 160 to the visible light camera 104, imaging of a visible light image based on the imaging conditions set by the control unit 160 may be realized.
  • the operation of the visible light camera 104 is controlled by a device different from the control device 10
  • visible light based on the imaging conditions set by the control unit 160 is output by outputting an operation instruction from the control unit 160 to the device. Imaging of an image may be realized.
  • the control unit 160 may perform the setting process of the imaging condition of the visible light image in each frame.
  • the control unit 160 includes a determination unit 162 and an imaging condition setting unit 164.
  • the determination unit 162 determines whether or not to perform the imaging condition setting process for the visible light image based on the corresponding region, and outputs the determination result to the imaging condition setting unit 164.
  • the imaging condition setting unit 164 performs imaging condition setting processing for a visible light image based on the determination result from the determination unit 162.
  • the control unit 160 sets, for example, the focal length of the visible light camera 104 as an imaging condition based on the degree of focus in the corresponding region.
  • the degree of focus is a value indicating the degree of focus.
  • the determination unit 162 calculates a blur amount index value that is an index value related to the blur amount as the degree of focus in the corresponding region.
  • the determination unit 162 determines whether to perform the imaging condition setting process for the visible light image according to whether the blur amount index value in the corresponding region is smaller than a predetermined value.
  • the determination unit 162 determines that the imaging condition setting process for the visible light image is performed, and the determination result is sent to the imaging condition setting unit 164. Output.
  • the blur amount index value is a value related to the degree of blur, and for example, the determination unit 162 calculates, for each pair of adjacent pixels in the corresponding region, a difference in pixel values of pixels constituting the pair. The total value of the pixel value differences may be calculated as the blur amount index value in the corresponding region. In this case, the higher the degree of focus, the smaller the blur amount index value.
  • the imaging condition setting unit 164 sets the focal length of the visible light camera 104 based on the blur amount index value when the determination unit 162 determines that the imaging condition setting processing for the visible light image is performed. In other words, the imaging condition setting unit 164 sets the focal length of the visible light camera 104 based on the blur amount index value when the blur amount index value in the corresponding region is not smaller than a predetermined value.
  • the predetermined value is set to a value with which it can be determined whether or not the blur is appropriately suppressed in the corresponding area.
  • the imaging condition setting unit 164 may calculate the change amount and the change direction of the focal length according to the calculated blur amount index value in the corresponding region.
  • the imaging condition setting unit 164 may calculate the amount of change in focal length according to the difference between the blur amount index value in the calculated corresponding region and the predetermined value. Further, when the blur amount index value is reduced by the focal length setting process performed in the frame one frame before, the imaging condition setting unit 164 has the same direction as the focal length change direction in the setting process for the frame one frame before. The direction may be calculated as the change direction of the focal length of the current frame. On the other hand, when the blur amount index value is increased by the focal length setting process performed in the previous frame, the imaging condition setting unit 164 is opposite to the focal length change direction in the setting process of the previous frame. The direction may be calculated as the change direction of the focal length of the current frame.
  • control unit 160 may set at least one of the shutter speed and the aperture value of the visible light camera 104 as the imaging condition based on the luminance in the corresponding region.
  • the determination unit 162 calculates a luminance index value related to the luminance as a value indicating the degree of exposure in the corresponding region.
  • the determination unit 162 determines whether to perform the imaging condition setting process for the visible light image depending on whether the luminance index value in the corresponding region is a value within a predetermined range. Specifically, when the luminance index value in the corresponding region is not within a predetermined range, the determination unit 162 determines that the visible light image capturing condition setting process is performed, and the determination result is sent to the imaging condition setting unit 164. Output.
  • the determination unit 162 calculates the maximum value of the luminance component of the pixel value of each pixel in the corresponding area as the luminance index value in the corresponding area. Further, the determination unit 162 may calculate an average value of luminance components of pixel values of each pixel in the corresponding area as a luminance index value in the corresponding area.
  • the imaging condition setting unit 164 determines at least one of the shutter speed and the aperture value of the visible light camera 104 when the determination unit 162 determines that the imaging condition setting process for the visible light image is performed. To set. In other words, the imaging condition setting unit 164 sets at least one of the shutter speed and the aperture value of the visible light camera 104 based on the luminance index value when the luminance index value in the corresponding region is not within a predetermined range. To do.
  • the predetermined range is set to a value range in which it can be determined whether or not the luminance is appropriately adjusted in the corresponding region.
  • the imaging condition setting unit 164 may calculate at least one of the shutter speed and the aperture value according to the calculated brightness index value in the corresponding region. Specifically, the imaging condition setting unit 164 determines at least one of the shutter speed and the aperture value according to the difference between the average value of the upper limit value and the lower limit value in the predetermined range and the calculated brightness index value in the corresponding region. May be calculated.
  • FIG. 7 is a flowchart illustrating an example of a flow of processing performed by the control device 10 according to the first embodiment.
  • the visible light image acquisition unit 154 acquires a visible light image (step S202).
  • the infrared image acquisition part 152 acquires a far-infrared image (step S300).
  • the extraction unit 158 extracts the human region C20 illustrated in FIG. 5 as a target region from the far-infrared image acquired by the infrared image acquisition unit 152 (step S204).
  • the control unit 160 sets the imaging condition of the visible light image by the visible light camera 104 based on the corresponding region D20 corresponding to the target region C20 in the visible light image (step S400), and the processing illustrated in FIG. finish.
  • FIG. 8 is a flowchart illustrating an example of the flow of the far-infrared image acquisition process (the process of step S300 in FIG. 7) performed by the control device 10 according to the first embodiment.
  • the infrared image acquisition unit 152 determines whether the current frame is an imaging frame that is a frame in which a far-infrared image is captured by the infrared camera 102. It is determined whether or not (step S302).
  • the infrared image acquisition unit 152 acquires a far-infrared image obtained by the infrared camera 102 in the current frame (step S304). The process shown in FIG. On the other hand, when it is not determined that the current frame is an imaging frame (step S302 / NO), the infrared image acquisition unit 152 acquires a far-infrared image obtained by the infrared camera 102 in the latest imaging frame ( Step S306), the process shown in FIG.
  • FIG. 9 is a flowchart illustrating a flow of a first example of setting processing of imaging conditions for a visible light image performed by the control device 10 according to the first embodiment.
  • the determination unit 162 first determines the blur amount index value in the corresponding area D20 corresponding to the human area C20 shown in FIG. Is calculated (step S412). Then, the determination unit 162 determines whether or not to perform the imaging condition setting process for the visible light image depending on whether or not the blur amount index value in the corresponding region D20 is smaller than a predetermined value (step S414).
  • the determination unit 162 determines not to perform the setting process of the imaging condition of the visible light image (step S414 / YES), and the process illustrated in FIG. finish.
  • the determination unit 162 determines to perform the imaging condition setting process for the visible light image (NO in step S414), and the imaging condition setting unit 164. Calculates the change amount and change direction of the focal length of the visible light camera 104 according to the calculated blur amount index value in the corresponding region D20 (step S416). Then, the imaging condition setting unit 164 sets the focal length of the visible light camera 104 (step S418), and the process illustrated in FIG. 9 ends.
  • the focal length may be set so that the object B22 different from the person B20 is in focus.
  • the focus degree of the image showing the person B20 may be lowered due to the difference in distance between the visible light camera 104 and the person B20 and the object B22.
  • the control unit 160 sets the focal length of the visible light camera 104 based on the degree of focus in the corresponding region D20 corresponding to the human region C20. Since the setting is performed, for example, as illustrated in FIG. 11, blur can be suppressed in the corresponding region D ⁇ b> 20. Therefore, it is possible to improve the image quality related to the blurring of the corresponding area D20, which is the area where the person B20 appears in the visible light image. Therefore, the image quality of the visible light image can be improved.
  • FIG. 12 is a flowchart illustrating a flow of a second example of the setting process of the imaging condition of the visible light image performed by the control device 10 according to the first embodiment.
  • the determination unit 162 calculates the luminance index value in the corresponding area D20 corresponding to the human area C20 shown in FIG. Calculate (step S422). Then, the determination unit 162 determines whether or not to perform the imaging condition setting process for the visible light image depending on whether or not the luminance index value in the corresponding region D20 is a value within a predetermined range (step S424). ).
  • the determination unit 162 determines not to perform the setting process of the imaging condition of the visible light image (step S424 / YES), and is illustrated in FIG. The process ends.
  • the determination unit 162 determines to perform the imaging condition setting process for the visible light image (step S424 / NO), and the imaging condition setting unit 164.
  • the imaging condition setting unit 164 sets at least one of the shutter speed and the aperture value of the visible light camera 104 (step S428), and the process illustrated in FIG. 12 ends.
  • the brightness of the visible light image can change throughout the image.
  • the visible light image shown in FIG. 13 obtained by imaging using setting values different from the setting values in the imaging of the visible light image shown in FIG. 5 as the setting values of the shutter speed and the aperture value
  • the values shown in FIG. Compared with the visible light image, the brightness of the entire image is high.
  • the brightness of the area where the object B22 different from the person B20 is reflected is within an appropriate range, but the brightness of the area where the person B20 is reflected may exceed the appropriate range and become excessively high.
  • the control unit 160 sets at least one of the shutter speed and the aperture value of the visible light camera 104 to the corresponding area D20 corresponding to the human area C20. Therefore, the brightness can be appropriately adjusted in the corresponding area D20. Therefore, it is possible to improve the image quality related to the luminance of the corresponding area D20, which is an area where the person B20 is reflected in the visible light image. Therefore, the image quality of the visible light image can be improved.
  • the control unit 160 sets the imaging condition of the visible light image based on the corresponding region, so that the visible light image acquisition unit 154 is set. To control the image quality of the visible light image acquired by. Thereby, it is possible to set the imaging condition of the visible light image so that the image quality of a specific region in the visible light image is improved. Therefore, the image quality of the visible light image can be improved.
  • Second Embodiment> In the above description, the example in which the image quality of the visible light image acquired by the visible light image acquisition unit 154 is controlled by setting the imaging condition of the visible light image by the visible light camera 104 based on the corresponding region has been described. Below, 2nd Embodiment which controls the image quality of the said visible light image by performing image processing with respect to the visible light image acquired by the visible light image acquisition part 154 based on a corresponding
  • FIG. 14 is a block diagram illustrating an example of a functional configuration of the control device 12 according to the second embodiment.
  • the control unit 260 includes a determination unit 262 and an image processing unit 264, unlike the control device 10 according to the first embodiment. Including.
  • the control unit 260 controls the image quality of the visible light image by performing image processing on the visible light image based on the corresponding region. Specifically, the control unit 260 according to the second embodiment performs image processing on the visible light image acquired by the visible light image acquisition unit 154 based on the corresponding region, thereby the visible light. Control the image quality. For example, the control unit 260 rewrites a visible light image stored in the storage unit 156 before the image processing is performed into a visible light image after the image processing is performed, so that the visible light image acquisition unit 154 is performed. The image quality of the visible light image acquired by the above may be controlled. The control unit 260 may perform image processing on the visible light image in each frame. Note that data referred to for image processing on the visible light image performed by the control unit 260 can be stored in the storage unit 156.
  • the determination unit 262 determines whether or not to perform image processing on the visible light image based on the corresponding region, and outputs the determination result to the image processing unit 264.
  • the image processing unit 264 performs image processing on the visible light image based on the determination result from the determination unit 262.
  • the control unit 260 performs image processing for adjusting the white balance of the visible light image acquired by the visible light image acquisition unit 154 based on the color temperature in the corresponding region, for example.
  • the color temperature is a value that represents the color as a temperature, and can be calculated according to the R component, G component, and B component of the pixel value.
  • the determination unit 262 calculates a color temperature index value related to the color temperature in the corresponding region. The determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the color temperature index value in the corresponding region is a value within a predetermined range.
  • the determination unit 262 determines to perform image processing on the visible light image, and outputs the determination result to the image processing unit 264. For example, the determination unit 262 calculates the average value of the color temperatures of the pixels in the corresponding area as the color temperature index value in the corresponding area.
  • the image processing unit 264 calculates the white balance of the visible light image acquired by the visible light image acquisition unit 154 based on the color temperature index value. Image processing to be adjusted. In other words, when the color temperature index value in the corresponding region is not within the predetermined range, the image processing unit 264 calculates the white balance of the visible light image acquired by the visible light image acquisition unit 154 as the color temperature index value. The image processing to be adjusted is performed based on the above.
  • the predetermined range is set to a value range in which it can be determined whether or not the color temperature is appropriately adjusted in the corresponding region.
  • the image processing unit 264 calculates correction gain values of the R component, the G component, and the B component according to the calculated color temperature index value in the corresponding region, and uses the correction gain values as the R component of the pixel value, You may adjust white balance by performing the white balance process which multiplies each of G component and B component. Specifically, when the corresponding region is a region that reflects a person, the image processing unit 264 has the pixel value R so that the color temperature index value in the corresponding region becomes a color temperature corresponding to the color of the human skin. Correction gains for the component, G component, and B component may be calculated.
  • control unit 260 may perform image processing for suppressing noise in the visible light image acquired by the visible light image acquisition unit 154 based on the amount of noise in the corresponding region.
  • the determination unit 262 calculates a noise amount index value related to the noise amount in the corresponding region.
  • the determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the noise amount index value in the corresponding region is smaller than a predetermined value. Specifically, when the noise amount index value in the corresponding region is not smaller than a predetermined value, the determination unit 262 determines to perform image processing on the visible light image, and outputs the determination result to the image processing unit 264.
  • the determination unit 262 performs high-pass filter processing on each pixel in the corresponding region, and calculates an average value of the pixel values after the high-pass filter processing in the corresponding region as a noise amount index value in the corresponding region.
  • the image processing unit 264 calculates the noise of the visible light image acquired by the visible light image acquisition unit 154 based on the noise amount index value.
  • the image processing to suppress is performed.
  • the image processing unit 264 uses the noise of the visible light image acquired by the visible light image acquisition unit 154 based on the noise amount index value. And suppressing image processing.
  • the predetermined value is set to a value by which it can be determined whether or not noise is appropriately suppressed in the corresponding region.
  • the image processing unit 264 calculates at least one of a filter tap and a filter coefficient as a noise reduction strength parameter that defines the strength of noise suppression according to the calculated noise amount index value in the corresponding region, and sets the parameter as the noise reduction strength parameter.
  • Noise may be suppressed by performing a noise reduction process that is a filtering process using a low-pass filter including the filter.
  • the image processing unit 264 sets the filter tap and the filter coefficient so that the noise amount index value in the corresponding region becomes an appropriate value as a region showing a person. At least one may be calculated.
  • control unit 260 may perform image processing for reducing or enhancing the blur of the visible light image acquired by the visible light image acquisition unit 154 based on the blur amount in the corresponding region.
  • the determination unit 262 calculates a blur amount index value related to the blur amount in the corresponding region.
  • the determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the blur amount index value in the corresponding region is smaller than a predetermined value. Specifically, when the blur amount index value in the corresponding region is not smaller than a predetermined value, the determination unit 262 determines to perform image processing on the visible light image, and outputs the determination result to the image processing unit 264.
  • the determination unit 262 calculates, for each pair of adjacent pixels in the corresponding area, the difference between the pixel values of the pixels constituting the pair, and determines the total difference between the pixel values as the blur amount index value in the corresponding area. May be calculated.
  • the image processing unit 264 determines the blur of the visible light image acquired by the visible light image acquisition unit 154 based on the blur amount index value. , Reduce or enhance image processing. In other words, when the blur amount index value in the corresponding region is not smaller than the predetermined value, the image processing unit 264 determines the blur of the visible light image acquired by the visible light image acquisition unit 154 based on the blur amount index value. Then, image processing for reducing or enhancing is performed.
  • the predetermined value is set to a value with which it can be determined whether or not the blur is appropriately reduced or emphasized in the corresponding region.
  • the image processing unit 264 calculates an inverse function of the PSF, which is a correction coefficient, as a blur suppression strength parameter that defines the blur suppression strength according to the calculated blur amount index value in the corresponding region.
  • the blur may be reduced or enhanced by performing a deblurring process that is a filtering process used.
  • the image processing unit 264 calculates an inverse function of the PSF so that the blur in the corresponding area is appropriately reduced or emphasized as the area that reflects the person when the corresponding area is an area that reflects the person. May be.
  • control unit 260 may perform image processing for adjusting the luminance dynamic range of the visible light image acquired by the visible light image acquisition unit 154 based on the luminance in the corresponding region.
  • the determination unit 262 calculates a luminance index value related to the luminance in the corresponding region.
  • the determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the luminance index value in the corresponding region is a value within a predetermined range. Specifically, when the brightness index value in the corresponding region is not within a predetermined range, the determination unit 262 determines to perform image processing on the visible light image, and outputs the determination result to the image processing unit 264.
  • the determination unit 262 calculates the maximum value of the luminance component of the pixel value of each pixel in the corresponding area as the luminance index value in the corresponding area.
  • the determination unit 262 may calculate the average value of the luminance components of the pixel values of each pixel in the corresponding area as the luminance index value in the corresponding area.
  • the image processing unit 264 uses the luminance dynamic range of the visible light image acquired by the visible light image acquisition unit 154 based on the luminance index value. Image processing to be adjusted. In other words, when the luminance index value in the corresponding region is not within a predetermined range, the image processing unit 264 uses the luminance dynamic range of the visible light image acquired by the visible light image acquisition unit 154 as the luminance index value. Based on this, image processing to be adjusted is performed.
  • the predetermined range can be set to a range of values from which it can be determined whether or not the luminance is appropriately adjusted in the corresponding region.
  • the image processing unit 264 calculates, for example, a tone map curve that defines the relationship between values before and after conversion for each value of the luminance component of the pixel value in accordance with the calculated luminance index value in the corresponding region.
  • the luminance dynamic range may be adjusted by performing tone mapping processing, which is luminance component conversion processing based on the map curve.
  • the image processing unit 264 may calculate the tone map curve so that the luminance in the corresponding region is appropriately adjusted as the region that reflects the person when the corresponding region is the region that reflects the person. .
  • control unit 260 may perform image processing that enhances the contrast of the visible light image acquired by the visible light image acquisition unit 154 based on the contrast in the corresponding region.
  • the determination unit 262 calculates a contrast index value related to the contrast in the corresponding region.
  • the determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the contrast index value in the corresponding region is greater than a predetermined value. Specifically, when the contrast index value in the corresponding region is not greater than a predetermined value, the determination unit 262 determines that image processing is performed on the visible light image, and outputs the determination result to the image processing unit 264. For example, the determination unit 262 calculates the difference between the minimum value and the maximum value of the luminance components of each pixel in the corresponding area as the contrast index value in the corresponding area.
  • the image processing unit 264 calculates the contrast of the visible light image acquired by the visible light image acquisition unit 154 based on the contrast index value. Perform image processing for emphasis. In other words, when the contrast index value in the corresponding region is not larger than the predetermined value, the image processing unit 264 calculates the contrast of the visible light image acquired by the visible light image acquisition unit 154 based on the contrast index value. Perform image processing for emphasis.
  • the predetermined value is set to a value with which it can be determined whether or not the contrast is appropriately enhanced in the corresponding region.
  • the image processing unit 264 calculates a gain value as a contrast intensity parameter that defines the intensity of contrast enhancement according to the calculated contrast index value in the corresponding region, and multiplies the luminance value of each pixel by the gain value.
  • the contrast may be enhanced by performing a contrast enhancement process.
  • the image processing unit 264 may calculate the gain value so that the contrast in the corresponding region is appropriately emphasized as the region that shows a person when the corresponding region is a region that shows a person.
  • control unit 260 may perform image processing on the corresponding region of the visible light image acquired by the visible light image acquisition unit and other regions under different processing conditions. For example, when a plurality of target regions are extracted by the extraction unit 158, the control unit 260 performs processing conditions that are different from each other for a plurality of corresponding regions that respectively correspond to the plurality of target regions in the visible light image. Image processing may be performed. Specifically, when the extraction unit 158 extracts the living body region in which the extracted living body is reflected and the sky region in which the sky is reflected as the target region, the control unit 260 includes the corresponding region corresponding to the living body region, and the empty region. For the corresponding area corresponding to, image processing may be performed under different processing conditions.
  • FIG. 15 is a flowchart illustrating an example of a flow of processing performed by the control device 12 according to the second embodiment.
  • the process after the extraction process (step S204) of the human area C20 is different.
  • the control unit 260 performs image processing on the visible light image acquired by the visible light image acquisition unit 154 based on the corresponding region. (Step S500), and the process shown in FIG.
  • FIG. 16 is a flowchart showing a flow of a first example of image processing for a visible light image performed by the control device 12 according to the second embodiment.
  • the determination unit 262 calculates the color temperature index value in the corresponding region D20 corresponding to the human region C20 shown in FIG. (Step S512). Then, the determination unit 262 determines whether or not to perform image processing on the visible light image according to whether or not the color temperature index value in the corresponding region D20 is a value within a predetermined range (step S514).
  • the determination unit 262 determines not to perform image processing on the visible light image (step S514 / YES), and the processing illustrated in FIG. finish.
  • the determination unit 262 determines to perform image processing on the visible light image (step S514 / NO), and the image processing unit 264 calculates.
  • the correction gain values of the R component, the G component, and the B component are calculated (step S516).
  • the image processing unit 264 performs white balance processing that multiplies each correction gain value by each of the R component, G component, and B component of the pixel value (step S518), and the processing illustrated in FIG. 16 ends.
  • FIG. 17 shows an example of a visible light image obtained by performing white balance processing on the visible light image shown in FIG.
  • the color temperature is excessively decreased over the entire screen as compared with the visible light image shown in FIG.
  • the difference between the color temperature in the corresponding region D20, which is the region that reflects the person B20, and the color temperature corresponding to the color of the person's skin can be excessively large.
  • the control unit 260 sets the white balance of the visible light image acquired by the visible light image acquisition unit 154 in the corresponding region D20 corresponding to the human region C20. Since the image processing that is adjusted based on the color temperature is performed, the color temperature can be appropriately adjusted in the corresponding region D20. Therefore, it is possible to improve the image quality related to the color temperature of the corresponding region D20, which is the region where the person B20 is reflected in the visible light image. Therefore, the image quality of the visible light image can be improved.
  • control unit 260 performs white balance based on different correction gain values for a plurality of corresponding regions respectively corresponding to the plurality of target regions in the visible light image. Processing may be performed.
  • FIG. 18 is a flowchart illustrating a flow of a second example of image processing for a visible light image performed by the control device 12 according to the second embodiment.
  • the determination unit 262 calculates a noise amount index value in the corresponding area D20 corresponding to the human area C20 shown in FIG. (Step S522). Then, the determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the noise amount index value in the corresponding region D20 is smaller than a predetermined value (step S524).
  • the determination unit 262 determines not to perform image processing on the visible light image (step S524 / YES), and the processing illustrated in FIG. 18 ends.
  • the determination unit 262 determines to perform image processing on the visible light image (step S524 / NO), and the image processing unit 264 calculates.
  • the noise reduction intensity parameter is calculated according to the noise amount index value in the corresponding region D20 (step S526). Then, the image processing unit 264 performs noise reduction processing based on the parameter (step S528), and the processing illustrated in FIG. 18 ends.
  • noise reduction processing is performed on a visible light image
  • blurring of the visible light image can be enhanced as a whole by suppressing noise in the visible light image.
  • the control unit 260 converts the noise of the visible light image acquired by the visible light image acquisition unit 154 into the noise in the corresponding region D20 corresponding to the human region C20.
  • the image processing to be suppressed based on the amount is performed, noise can be appropriately suppressed in the corresponding region D20. Therefore, it is possible to improve the image quality related to the blurring of the corresponding area D20, which is the area where the person B20 appears in the visible light image. Therefore, the image quality of the visible light image can be improved.
  • the control unit 260 performs noise reduction based on different noise reduction intensity parameters for a plurality of corresponding regions respectively corresponding to the plurality of target regions in the visible light image. Processing may be performed.
  • the control unit 260 performs a noise reduction process based on a noise reduction intensity parameter that has a weak noise suppression strength for a corresponding area in which a person is reflected compared to a corresponding area in which the sky is reflected. Blur in the reflected area can be suppressed.
  • FIG. 20 is a flowchart illustrating a flow of a third example of image processing for a visible light image performed by the control device 12 according to the second embodiment.
  • the determination unit 262 calculates the blur amount index value in the corresponding area D20 corresponding to the human area C20 shown in FIG. (Step S532). Then, the determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the blur amount index value in the corresponding region D20 is smaller than a predetermined value (step S534).
  • the determination unit 262 determines not to perform image processing on the visible light image (step S534 / YES), and the processing illustrated in FIG.
  • the determination unit 262 determines to perform image processing on the visible light image (step S534 / NO), and the image processing unit 264 calculates.
  • the blur suppression intensity parameter is calculated according to the blur amount index value in the corresponding region D20 (step S536). Then, the image processing unit 264 performs deblurring processing based on the parameter (step S538), and the processing illustrated in FIG.
  • blur may occur in a region where the subject of the obtained visible light image is projected.
  • the region where the person B20 in the visible light image is projected may be blurred.
  • the degree of image deterioration increases as the blur suppression intensity increases. Therefore, in the case where the blur in the corresponding area D20, which is the area in which the person B20 of the visible light image shown in FIG.
  • the control unit 260 blurs the visible light image acquired by the visible light image acquisition unit 154 in the corresponding region D20 corresponding to the human region C20. Since image processing to reduce or enhance based on the amount is performed, it is possible to appropriately reduce or enhance the blur in the corresponding region D20. Therefore, it is possible to improve the image quality related to the blurring of the corresponding area D20, which is the area where the person B20 appears in the visible light image. Therefore, the image quality of the visible light image can be improved.
  • the control unit 260 may perform deblurring processing based on different blur suppression intensity parameters for the corresponding region of the visible light image and other regions. For example, the control unit 260 performs a deblurring process based on a blur suppression intensity parameter having a weak blur suppression intensity compared to other areas in the corresponding area in which a human is reflected, thereby generating a region in which a person is reflected in a visible light image. Image degradation can be suppressed.
  • FIG. 21 is a flowchart illustrating a flow of a fourth example of image processing performed on a visible light image performed by the control device 12 according to the second embodiment.
  • the determination unit 262 calculates a luminance index value in the corresponding region D20 corresponding to the human region C20 shown in FIG. Step S542). Then, the determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the luminance index value in the corresponding region D20 is a value within a predetermined range (step S544).
  • the determination unit 262 determines not to perform image processing on the visible light image (step S544 / YES), and the processing illustrated in FIG. To do.
  • the determination unit 262 determines to perform image processing on the visible light image (step S544 / NO), and the image processing unit 264 calculates.
  • a tone map curve is calculated according to the brightness index value in the corresponding area D20 (step S546). Then, the image processing unit 264 performs tone mapping processing based on the tone map curve (step S548), and the processing illustrated in FIG.
  • tone mapping processing which is image processing for adjusting the luminance dynamic range
  • the control unit 260 sets the luminance dynamic range of the visible light image acquired by the visible light image acquisition unit 154 to the corresponding region D20 corresponding to the human region C20.
  • the luminance can be appropriately adjusted in the corresponding region D20. Therefore, it is possible to improve the image quality related to the luminance of the corresponding area D20, which is an area where the person B20 is reflected in the visible light image. Therefore, the image quality of the visible light image can be improved.
  • control unit 260 performs tone mapping based on different tone map curves for a plurality of corresponding regions respectively corresponding to the plurality of target regions in the visible light image. Processing may be performed.
  • FIG. 22 is a flowchart showing a flow of a fifth example of image processing for a visible light image performed by the control device 12 according to the second embodiment.
  • the determination unit 262 first calculates the contrast index value in the corresponding region D20 corresponding to the human region C20 shown in FIG. Step S552). Then, the determination unit 262 determines whether or not to perform image processing on the visible light image depending on whether or not the contrast index value in the corresponding region D20 is larger than a predetermined value (step S554).
  • the determination unit 262 determines not to perform image processing on the visible light image (step S554 / YES), and the processing illustrated in FIG.
  • the determination unit 262 determines that image processing is performed on the visible light image (step S554 / NO), and the image processing unit 264 calculates the calculated value.
  • a contrast intensity parameter is calculated according to the contrast index value in the corresponding area D20 (step S556). Then, the image processing unit 264 performs contrast enhancement processing based on the contrast intensity parameter (step S558), and the processing illustrated in FIG. 22 ends.
  • the image quality of the visible light image can be improved by enhancing the contrast of a specific region in the visible light image.
  • the contrast in the corresponding region D20 which is the region in which the visible light image shown in FIG. 5 shows the person B20
  • the control unit 260 determines the contrast of the visible light image acquired by the visible light image acquisition unit 154 based on the contrast in the corresponding region D20 corresponding to the human region C20. Therefore, the contrast can be appropriately enhanced in the corresponding region D20. Therefore, it is possible to improve the image quality related to the contrast of the corresponding area D20, which is the area where the person B20 appears in the visible light image. Therefore, the image quality of the visible light image can be improved.
  • control unit 260 performs contrast enhancement based on different contrast intensity parameters for a plurality of corresponding regions respectively corresponding to the plurality of target regions in the visible light image. Processing may be performed.
  • the control unit 260 performs image processing on the visible light image acquired by the visible light image acquisition unit 154 based on the corresponding region.
  • the image quality of the visible light image is controlled.
  • FIG. 23 is a block diagram illustrating an example of a functional configuration of the control device 14 according to the third embodiment.
  • the extraction unit 458 is different from the control device 10 according to the first embodiment in that the visible light image acquisition unit 154 extracts the target region. Obtain supplementary information.
  • the visible light image acquisition unit 154 outputs the acquired visible light image to the control unit 160 and the extraction unit 458.
  • the extraction unit 458 according to the third embodiment extracts a target region by supplementarily using the visible light image acquired by the visible light image acquisition unit 154 and outputs the extraction result to the control unit 160. It should be noted that the data referenced for the target region extraction processing performed by the extraction unit 458 can be stored in the storage unit 156.
  • the extraction unit 458 detects a region having a pixel value corresponding to a temperature within a predetermined temperature range as a target region candidate, and the color difference of the pixel value in the visible light image is detected from the target region candidate.
  • the target area may be extracted based on the information.
  • the extraction unit 458 detects a region having a pixel value corresponding to a temperature within a temperature range near ⁇ 20 ° C. as a target region candidate in which the sky is reflected, and turns blue in the visible light image among the target region candidates. You may extract the area
  • the extraction unit 458 detects a region having a pixel value corresponding to a temperature within a temperature range lower than that of an animal as a candidate for a target region in which a plant is reflected, and among the target region candidates, a green color is detected in a visible light image.
  • a region having a pixel value of a color difference corresponding to a color close to may be extracted as a target region where a plant appears.
  • the extraction unit 458 identifies areas having pixel values having substantially the same color difference in the visible light image and having pixel values corresponding to different temperatures in the far-infrared image as shade areas and sunny areas.
  • the shade area and the sunny area may be extracted as target areas.
  • the target region is extracted by supplementarily using the visible light image in addition to the far-infrared image.
  • the target region can be extracted with higher accuracy than when the target region is extracted only from the far-infrared image.
  • a more diverse target area can be extracted by supplementarily using a visible light image. Therefore, based on the more diverse target area, It is possible to set the imaging condition of the visible light image by the visible light camera 104.
  • FIG. 24 is a block diagram illustrating an example of a functional configuration of a control device 14a in which such an extraction unit 458 is applied to the control device 12 according to the second embodiment illustrated in FIG.
  • the control device 14a it is possible to perform image processing on the visible light image acquired by the visible light image acquisition unit 154 based on more various target regions.
  • the control device 14a for example, it is possible to adjust the white balance more appropriately after identifying the shaded area and the sunny area.
  • a computer program for realizing each function of the control device according to each embodiment of the present disclosure as described above can be produced and mounted on a PC or the like.
  • the control device according to each embodiment may correspond to a computer according to the present disclosure.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • Each function of the control device according to each embodiment may be divided by a plurality of computers. In that case, each function of the plurality of computers may be realized by the above computer program.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of mobile body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. May be.
  • FIG. 25 is a block diagram illustrating a schematic configuration example of a vehicle control system 2000 that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 2000 includes a plurality of electronic control units connected via a communication network 2010.
  • the vehicle control system 2000 includes a drive system control unit 2100, a body system control unit 2200, a battery control unit 2300, an out-vehicle information detection unit 2400, an in-vehicle information detection unit 2500, and an integrated control unit 2600. .
  • the communication network 2010 that connects these multiple control units conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and a drive circuit that drives various devices to be controlled. Is provided.
  • Each control unit includes a network I / F for performing communication with other control units via the communication network 2010, and wired or wireless communication with devices or sensors inside and outside the vehicle. A communication I / F for performing communication is provided. In FIG.
  • a microcomputer 2610 As a functional configuration of the integrated control unit 2600, a microcomputer 2610, a general-purpose communication I / F 2620, a dedicated communication I / F 2630, a positioning unit 2640, a beacon receiving unit 2650, an in-vehicle device I / F 2660, an audio image output unit 2670, An in-vehicle network I / F 2680 and a storage unit 2690 are illustrated.
  • other control units include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 2100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 2100 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the drive system control unit 2100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection unit 2110 is connected to the drive system control unit 2100.
  • the vehicle state detection unit 2110 includes, for example, a gyro sensor that detects the angular velocity of the axial rotation of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, or an operation amount of an accelerator pedal, an operation amount of a brake pedal, and steering of a steering wheel. At least one of sensors for detecting an angle, an engine speed, a rotational speed of a wheel, or the like is included.
  • the drive system control unit 2100 performs arithmetic processing using a signal input from the vehicle state detection unit 2110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, or the like.
  • the body system control unit 2200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 2200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 2200 can be input with radio waves transmitted from a portable device that substitutes for a key or signals of various switches.
  • the body system control unit 2200 receives the input of these radio waves or signals, and controls the vehicle door lock device, power window device, lamp, and the like.
  • the battery control unit 2300 controls the secondary battery 2310 that is a power supply source of the drive motor according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 2300 from a battery device including the secondary battery 2310. The battery control unit 2300 performs arithmetic processing using these signals, and controls the temperature adjustment control of the secondary battery 2310 or the cooling device provided in the battery device.
  • the outside information detection unit 2400 detects information outside the vehicle on which the vehicle control system 2000 is mounted.
  • the vehicle exterior information detection unit 2400 is connected to at least one of the imaging unit 2410 and the vehicle exterior information detection unit 2420.
  • the imaging unit 2410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the outside information detection unit 2420 detects, for example, current weather or an environmental sensor for detecting weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle on which the vehicle control system 2000 is mounted. At least one of the surrounding information detection sensors.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 2410 and the outside information detection unit 2420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 26 shows an example of installation positions of the imaging unit 2410 and the vehicle outside information detection unit 2420.
  • the imaging units 2910, 2912, 2914, 2916, and 2918 are provided at, for example, at least one position among a front nose, a side mirror, a rear bumper, a back door, and an upper portion of a windshield in the vehicle interior of the vehicle 2900.
  • An imaging unit 2910 provided in the front nose and an imaging unit 2918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 2900.
  • the imaging units 2912 and 2914 provided in the side mirror mainly acquire an image on the side of the vehicle 2900.
  • An imaging unit 2916 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 2900.
  • An imaging unit 2918 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 26 shows an example of shooting ranges of the respective imaging units 2910, 2912, 2914, and 2916.
  • the imaging range a indicates the imaging range of the imaging unit 2910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 2912 and 2914 provided in the side mirrors, respectively
  • the imaging range d The imaging range of the imaging unit 2916 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 2910, 2912, 2914, and 2916, an overhead image when the vehicle 2900 is viewed from above is obtained.
  • the vehicle outside information detection units 2920, 2922, 2924, 2926, 2928, 2930 provided on the front, rear, side, corner, and upper windshield of the vehicle 2900 may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle outside information detection units 2920, 2926, and 2930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the vehicle 2900 may be, for example, LIDAR devices.
  • These vehicle outside information detection units 2920 to 2930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, and the like.
  • the vehicle outside information detection unit 2400 causes the imaging unit 2410 to capture an image outside the vehicle and receives the captured image data.
  • the vehicle exterior information detection unit 2400 receives detection information from the vehicle exterior information detection unit 2420 connected thereto.
  • the vehicle outside information detection unit 2420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the vehicle outside information detection unit 2400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the outside information detection unit 2400 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle outside information detection unit 2400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle outside information detection unit 2400 may calculate a distance to an object outside the vehicle based on the received information.
  • the outside information detection unit 2400 may perform image recognition processing or distance detection processing for recognizing a person, a vehicle, an obstacle, a sign, a character on a road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 2400 performs processing such as distortion correction or alignment on the received image data, and combines the image data captured by the different imaging units 2410 to generate an overhead image or a panoramic image. Also good.
  • the vehicle exterior information detection unit 2400 may perform viewpoint conversion processing using image data captured by different imaging units 2410.
  • the in-vehicle information detection unit 2500 detects in-vehicle information.
  • a driver state detection unit 2510 that detects the driver's state is connected to the in-vehicle information detection unit 2500.
  • the driver state detection unit 2510 may include a camera that captures an image of the driver, a biological sensor that detects biological information of the driver, a microphone that collects sound in the passenger compartment, and the like.
  • the biometric sensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of an occupant sitting on the seat or a driver holding the steering wheel.
  • the vehicle interior information detection unit 2500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 2510, and determines whether the driver is asleep. May be.
  • the vehicle interior information detection unit 2500 may perform a process such as a noise canceling process on the collected audio signal.
  • the integrated control unit 2600 controls the overall operation in the vehicle control system 2000 according to various programs.
  • An input unit 2800 is connected to the integrated control unit 2600.
  • the input unit 2800 is realized by a device that can be input by a passenger, such as a touch panel, a button, a microphone, a switch, or a lever.
  • the integrated control unit 2600 may be inputted with data obtained by recognizing voice inputted by a microphone.
  • the input unit 2800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 2000. May be.
  • the input unit 2800 may be, for example, a camera.
  • the passenger can input information using a gesture.
  • data obtained by detecting the movement of the wearable device worn by the passenger may be input.
  • the input unit 2800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 2800 and outputs the input signal to the integrated control unit 2600.
  • a passenger or the like operates the input unit 2800 to input various data or instruct a processing operation to the vehicle control system 2000.
  • the storage unit 2690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like.
  • the storage unit 2690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • General-purpose communication I / F 2620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 2750.
  • the general-purpose communication I / F 2620 is a cellular communication protocol such as GSM (Global System of Mobile communications) (registered trademark), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), or a wireless LAN (Wi-Fi). (Also referred to as (registered trademark)) and other wireless communication protocols such as Bluetooth (registered trademark) may be implemented.
  • the general-purpose communication I / F 2620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via, for example, a base station or an access point. May be.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network, or an operator-specific network
  • the general-purpose communication I / F 2620 uses, for example, a P2P (Peer To Peer) technology, a terminal (for example, a driver, a pedestrian, a store terminal, or an MTC (Machine Type Communication) terminal) that exists in the vicinity of the vehicle. You may connect with.
  • P2P Peer To Peer
  • a terminal for example, a driver, a pedestrian, a store terminal, or an MTC (Machine Type Communication) terminal
  • the dedicated communication I / F 2630 is a communication I / F that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication I / F 2630 is a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609. May be implemented.
  • the dedicated communication I / F 2630 typically includes vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) Perform V2X communication, which is a concept that includes one or more of the communications.
  • the positioning unit 2640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), performs positioning, and performs latitude, longitude, and altitude of the vehicle.
  • the position information including is generated.
  • the positioning unit 2640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 2650 receives, for example, radio waves or electromagnetic waves transmitted from radio stations installed on the road, and acquires information such as the current position, traffic jams, closed roads, or required time. Note that the function of the beacon receiving unit 2650 may be included in the dedicated communication I / F 2630 described above.
  • the in-vehicle device I / F 2660 is a communication interface that mediates connection between the microcomputer 2610 and various in-vehicle devices 2760 existing in the vehicle.
  • the in-vehicle device I / F 2660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I / F 2660 is connected to a USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), or MHL (Mobile) via a connection terminal (and a cable if necessary). Wired connection such as High-definition Link) may be established.
  • the in-vehicle device 2760 may include, for example, at least one of a mobile device or a wearable device that a passenger has, or an information device that is carried in or attached to the vehicle.
  • the in-vehicle device 2760 may include a navigation device that searches for a route to an arbitrary destination.
  • the in-vehicle device I / F 2660 exchanges control signals or data signals with these in-vehicle devices 2760.
  • the in-vehicle network I / F 2680 is an interface that mediates communication between the microcomputer 2610 and the communication network 2010.
  • the in-vehicle network I / F 2680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 2010.
  • the microcomputer 2610 of the integrated control unit 2600 is connected via at least one of a general-purpose communication I / F 2620, a dedicated communication I / F 2630, a positioning unit 2640, a beacon receiving unit 2650, an in-vehicle device I / F 2660, and an in-vehicle network I / F 2680.
  • the vehicle control system 2000 is controlled according to various programs.
  • the microcomputer 2610 calculates a control target value of the driving force generation device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 2100. Also good.
  • the microcomputer 2610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up traveling based on inter-vehicle distance, vehicle speed maintenance traveling, vehicle collision warning, or vehicle lane departure warning. You may perform the cooperative control for the purpose. Further, the microcomputer 2610 controls the driving force generation device, the steering mechanism, the braking device, or the like based on the acquired information on the surroundings of the vehicle, thereby automatically driving the vehicle independently of the driver's operation. You may perform the cooperative control for the purpose of driving.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 2610 is information acquired via at least one of the general-purpose communication I / F 2620, the dedicated communication I / F 2630, the positioning unit 2640, the beacon receiving unit 2650, the in-vehicle device I / F 2660, and the in-vehicle network I / F 2680.
  • the three-dimensional distance information between the vehicle and the surrounding structure or an object such as a person may be generated based on the above and local map information including the peripheral information of the current position of the vehicle may be created.
  • the microcomputer 2610 may generate a warning signal by predicting a danger such as collision of a vehicle, approach of a pedestrian or the like or approach to a closed road based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the sound image output unit 2670 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or outside the vehicle.
  • an audio speaker 2710, a display unit 2720, and an instrument panel 2730 are illustrated as output devices.
  • the display unit 2720 may include at least one of an on-board display and a head-up display, for example.
  • the display unit 2720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as glasses-type displays worn by passengers, projectors, and lamps.
  • the display device can display the results obtained by various processes performed by the microcomputer 2610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually. Further, when the output device is an audio output device, the audio output device converts an audio signal made up of reproduced audio data or acoustic data into an analog signal and outputs it aurally.
  • At least two control units connected via the communication network 2010 may be integrated as one control unit.
  • each control unit may be configured by a plurality of control units.
  • the vehicle control system 2000 may include another control unit not shown.
  • some or all of the functions of any of the control units may be given to other control units.
  • the predetermined arithmetic processing may be performed by any one of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may transmit / receive detection information to / from each other via the communication network 2010. .
  • control device 10 in the vehicle control system 2000 described above, the control device 10 according to the first embodiment of the present disclosure described using FIG. 4 can be applied to the integrated control unit 2600 of the application example illustrated in FIG.
  • the control unit 160 and the extraction unit 158 of the control device 10 correspond to the microcomputer 2610 of the integrated control unit 2600
  • the storage unit 156 of the control device 10 corresponds to the storage unit 2690 of the integrated control unit 2600.
  • Ten infrared image acquisition units 152 and visible light image acquisition units 154 correspond to the in-vehicle network I / F 2680 of the integrated control unit 2600.
  • the microcomputer 2610 of the integrated control unit 2600 extracts the target area from the far-infrared image acquired by the in-vehicle network I / F 2680 and corresponds to the target area in the visible light image acquired by the in-vehicle network I / F 2680.
  • the image quality of the visible light image can be improved by controlling the image quality of the visible light image based on the corresponding region.
  • the control device 12 according to the second embodiment of the present disclosure described with reference to FIG. 14 and the control device 14 according to the third embodiment of the present disclosure described with reference to FIG. The present invention can be applied to the integrated control unit 2600 of the application example shown.
  • control device 10 for example, an integrated circuit module configured by one die
  • the control apparatus 10 demonstrated using FIG. 4 may be implement
  • a computer program for realizing each function of the control device 10 described with reference to FIG. 4 can be installed in any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.
  • the technology according to the present disclosure may be realized as a medical observation apparatus such as an endoscope or a microscope.
  • a medical observation apparatus such as an endoscope or a microscope.
  • various operations for surgery are performed while observing an affected area or surgical instrument through an image captured by a camera and displayed on a monitor. .
  • FIG. 27 shows a visible light image 3100 that can be captured by a medical endoscope as an example.
  • the visible light image 3100 shows a forceps 3111 and a gauze 3113 in addition to an organ 3103 including the affected part 3101.
  • a lens barrel 3121 of a medical endoscope is shown at the peripheral edge of the rectangular visible light image 3100.
  • the surgeon may desire to clearly observe the affected area 3101 and the vicinity thereof.
  • the exposure control of the camera is performed based on, for example, the degree of exposure of the forceps 3111 or the gauze 3113, the exposure of the affected part 3101 may not be optimal, and the brightness of the affected part 3101 may be excessive or insufficient. is there.
  • the autofocus control of the camera is performed based on the degree of focus of the forceps 3111 or the gauze 3113, the affected area 3101 may not be focused and the image of the affected area 3101 may be blurred.
  • the region corresponding to the organ 3103 in the visible light image 3100 is a living body region. Therefore, according to the technology according to the present disclosure, this living body region can be extracted as a target region in the far-infrared image. Then, by controlling the imaging condition of the visible light image based on the corresponding region in the visible light image 3100 corresponding to the extracted target region, the image of the affected area is unclear due to the presence of non-living objects such as forceps. Can be prevented.
  • FIG. 28 shows an example of a target region that can be extracted from the far-infrared image in relation to the visible light image 3100 shown in FIG.
  • the entire image region is divided into a first partial region 3210, a second partial region 3220, a third partial region 3230, and a fourth partial region 3240.
  • the first partial region 3210 is a living body region.
  • the second partial region 3220, the third partial region 3230, and the fourth partial region 3240 are non-biological regions.
  • the control device 10 according to the first embodiment, the control device 12 according to the second embodiment, or the control device 14 according to the third embodiment uses a threshold related to the organ temperature range to
  • the first partial region 3210 can be extracted from the outer image.
  • the second partial region 3220, the third partial region 3230, and the fourth partial region 3240 may be individually distinguished using other threshold values, or may not be distinguished.
  • the fourth partial region 3240 corresponding to the lens barrel 3121 may be excluded from the processing target prior to image processing.
  • the control device 10, 12 or 14 controls the imaging conditions of the endoscope such as the degree of exposure or the degree of focus based on the corresponding region corresponding to the first partial region 3210 in the visible light image 3100.
  • a clear image of the affected area can be reliably provided to the operator.
  • target image processing such as white balance adjustment, noise suppression, blur reduction, dynamic range adjustment, or contrast enhancement is applied to the corresponding region described above for the image captured by the endoscope. May be performed on the basis.
  • not a living body region but a non-living region may be extracted as a target region.
  • which of the biological region and the non-biological region is treated as the target region may be dynamically switched depending on a user input (for example, which can be input during surgery by the operator).
  • an infrared camera and a visible light camera, and a processor that performs camera control and image processing are signal lines such as a camera head and a camera control unit. May be mounted on physically separate casings interconnected via each other.
  • a target region is extracted from a far-infrared image, and a corresponding region corresponding to the target region in a visible light image showing a subject common to the far-infrared image Based on this, the image quality of the visible light image is controlled. Thereby, the image quality of the visible light image can be adjusted so that the image quality of a specific region in the visible light image is improved. Therefore, the image quality of the visible light image can be improved.
  • a far-infrared image is captured by the infrared camera 102 and a visible light image is captured by the visible light camera 104
  • the technical scope of the present disclosure is not limited to such an example.
  • a far-infrared image and a visible light image may be captured by a camera having an array including both an image sensor that senses infrared light and an image sensor that senses visible light.
  • a series of control processing by each device described in this specification may be realized using any of software, hardware, and a combination of software and hardware.
  • the program constituting the software is stored in advance in a storage medium (non-transitory medium) provided inside or outside each device.
  • Each program is read into a RAM at the time of execution, for example, and executed by a processor such as a CPU.
  • processing described using the flowchart in this specification does not necessarily have to be executed in the order shown in the flowchart. Some processing steps may be performed in parallel. Further, additional processing steps may be employed, and some processing steps may be omitted.
  • An extraction unit for extracting a target region from a far-infrared image A control unit for controlling the image quality of the visible light image based on a corresponding region corresponding to the target region in the visible light image showing a subject common to the far-infrared image; A control device comprising: (2) The control device according to (1), wherein the control unit controls the image quality of the visible light image by setting an imaging condition of the visible light image based on the corresponding region. (3) The control device according to (1), wherein the control unit controls image quality of the visible light image by performing image processing on the visible light image based on the corresponding region.
  • control unit sets a focal length as the imaging condition based on a degree of focus in the corresponding region.
  • control unit sets at least one of a shutter speed and an aperture value as the imaging condition based on luminance in the corresponding region.
  • control unit performs image processing for adjusting a white balance of a visible light image based on a color temperature in the corresponding region.
  • control unit performs image processing that suppresses noise of a visible light image based on a noise amount in the corresponding region.
  • control device performs image processing for reducing or enhancing a blur of a visible light image based on a blur amount in the corresponding region.
  • control unit performs image processing for adjusting a luminance dynamic range of a visible light image based on luminance in the corresponding region.
  • control unit performs image processing for enhancing a contrast of a visible light image based on a contrast in the corresponding region.
  • control unit performs image processing on the corresponding region and the other region of the visible light image under different processing conditions.
  • Control device 102 Infrared camera 104 Visible light camera 106 Input interface 108 Memory 110 Display 112 Communication interface 114 Storage 116 Processor 118 Bus 152 Infrared image acquisition unit 154 Visible light image acquisition unit 156 Storage unit 158, 458 Extraction unit 160 260 Control unit 162, 262 Determination unit 164 Imaging condition setting unit 264 Image processing unit 2000 Vehicle control system 2010 Communication network 2100 Drive system control unit 2110 Vehicle state detection unit 2200 Body system control unit 2300 Battery control unit 2310 Secondary battery 2400 Outside the vehicle Information detection unit 2410 Imaging unit 2420 Outside information detection unit 2500 In-car information detection unit 2510 Driver state detection unit 2600 Integrated control unit 26 10 Microcomputer 2640 Positioning unit 2650 Beacon receiving unit 2670 Audio image output unit 2690 Storage unit 2710 Audio speaker 2720 Display unit 2730 Instrument panel 2750 External environment 2760 In-vehicle device 2800 Input unit 2900 Vehicles 2910, 2912, 2914, 2916, 2918 Imaging unit 2920, 2922, 2924, 2926,

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Studio Devices (AREA)

Abstract

【課題】可視光画像の画質を向上させることが可能な、新規かつ改良された制御装置、制御方法及びプログラムを提案する。 【解決手段】遠赤外画像から対象領域を抽出する抽出部と、前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する制御部と、を備える、制御装置を提供する。

Description

制御装置、制御方法及びプログラム
 本開示は、制御装置、制御方法及びプログラムに関する。
 近年、物体の温度を検出する等の目的で、遠赤外画像が利用されている。遠赤外画像は、物体からの黒体放射によって発せられる遠赤外線を撮像素子により捕捉することによって生成される。このような遠赤外画像から生体領域等の対象領域を抽出することによって、可視光画像から直接的に抽出することが困難な当該可視光画像における特定の領域を識別することができる場合がある。そして、遠赤外画像から対象領域を抽出し、抽出した対象領域を活用する技術が提案されている。
 例えば、特許文献1では、遠赤外画像から動物の画像を切り出し、可視光画像において当該輪郭形状又は座標値に対応する画像部位を特定し、当該画像部位の可視光画像中での位置及びサイズに応じて当該画像部位の画像が所定形態となるべく、可視光線カメラが備える制御用駆動装置にパンチルト、ズームイン及びズームアウトのいずれかの処理を指示する技術が開示されている。
特開2004-219277号公報
 上記の特許文献1に開示された技術によれば、可視光画像における画像部位の配置を調整することにより、可視光画像の品質として視認性を向上させ得ることが考えられる。ところで、可視光画像の品質を向上させるための技術分野において、可視光画像の品質として画質の向上を実現することも望まれている。具体的には、ボケ、輝度、色温度、ノイズ又はコントラスト等に関連する可視光画像の画質を向上させることが望まれている。
 そこで、本開示では、可視光画像の画質を向上させることが可能な、新規かつ改良された制御装置、制御方法及びプログラムを提案する。
 本開示によれば、遠赤外画像から対象領域を抽出する抽出部と、前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する制御部と、を備える、制御装置が提供される。
 また、本開示によれば、遠赤外画像から対象領域を抽出することと、制御装置によって、前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御することと、を含む制御方法が提供される。
 また、本開示によれば、コンピュータを、遠赤外画像から対象領域を抽出する抽出部と、前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する制御部と、として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、可視光画像の画質を向上させることが可能である。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果又は本明細書から把握され得る他の効果が奏されてもよい。
波長に依存する赤外線画像の多様な用途について説明するための説明図である。 第1の実施形態に係る制御装置のハードウェア構成の一例を示すブロック図である。 可視光線カメラ及び赤外線カメラによる被写体の撮像について説明するための説明図である。 同実施形態に係る制御装置の機能構成の一例を示すブロック図である。 赤外線カメラ及び可視光線カメラによってそれぞれ得られる遠赤外画像及び可視光画像の一例について説明するための説明図である。 赤外線カメラ及び可視光線カメラによってそれぞれ得られる遠赤外画像及び可視光画像の他の例について説明するための説明図である。 同実施形態に係る制御装置が行う処理の流れの一例を示すフローチャートである。 同実施形態に係る制御装置が行う遠赤外画像の取得処理の流れの一例を示すフローチャートである。 同実施形態に係る制御装置が行う可視光画像の撮像条件の設定処理の第1の例の流れを示すフローチャートである。 可視光線カメラによって得られる可視光画像の一例について説明するための説明図である。 可視光線カメラによって得られる可視光画像の一例について説明するための説明図である。 同実施形態に係る制御装置が行う可視光画像の撮像条件の設定処理の第2の例の流れを示すフローチャートである。 可視光線カメラによって得られる可視光画像の一例について説明するための説明図である。 第2の実施形態に係る制御装置の機能構成の一例を示すブロック図である。 同実施形態に係る制御装置が行う処理の流れの一例を示すフローチャートである。 同実施形態に係る制御装置が行う可視光画像に対する画像処理の第1の例の流れを示すフローチャートである。 ホワイトバランス処理が行われた可視光画像の一例について説明するための説明図である。 同実施形態に係る制御装置が行う可視光画像に対する画像処理の第2の例の流れを示すフローチャートである。 ノイズリダクション処理が行われた可視光画像の一例について説明するための説明図である。 同実施形態に係る制御装置が行う可視光画像に対する画像処理の第3の例の流れを示すフローチャートである。 同実施形態に係る制御装置が行う可視光画像に対する画像処理の第4の例の流れを示すフローチャートである。 同実施形態に係る制御装置が行う可視光画像に対する画像処理の第5の例の流れを示すフローチャートである。 第3の実施形態に係る制御装置の機能構成の一例を示すブロック図である。 第3の実施形態に係る制御装置の機能構成の他の例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 医療用内視鏡により撮像され得る可視光画像の一例を示す説明図である。 図27に示した可視光画像に関連して遠赤外画像から抽出され得る対象領域の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.赤外線の多様な用途
 2.第1の実施形態
  2-1.ハードウェア構成
  2-2.機能構成
  2-3.動作
 3.第2の実施形態
  3-1.機能構成
  3-2.動作
 4.第3の実施形態
 5.応用例
  5-1.第1の応用例
  5-2.第2の応用例
 6.まとめ
 <1.赤外線の多様な用途>
 図1は、波長に依存する赤外線画の多様な用途について説明するための説明図である。図1の水平方向は赤外線の波長に対応し、左から右へと波長は長くなる。0.7μm以下の波長を有する光線は可視光線であり、人間の視覚はこの可視光線を感知する。可視光領域に隣接する波長領域は近赤外(NIR)領域であり、NIR領域に属する赤外線を近赤外線という。NIR領域の波長の上限は、定義に依存して異なるものの、2.5μmから4.0μmの間にあるとされることが多い。NIR領域のうち相対的に波長の長い部分は、短波長赤外(SWIR)領域と呼ばれることもある。近赤外線は、例えば、暗視(night vision)、透視、光通信及び測距のために利用され得る。近赤外画像を撮像するカメラは、通常、まず近傍に赤外線を照射し、その反射光を捕捉する。NIR領域に長波長側で隣接する波長領域は遠赤外(FIR)領域であり、FIR領域に属する赤外線を遠赤外線という。FIR領域のうち相対的に波長の短い部分は、中波長赤外(MWIR)領域と呼ばれることもある。中波長赤外線の波長範囲では物質固有の吸収スペクトルが現れることから、中波長赤外線は、物質の同定のために利用され得る。遠赤外線は、暗視、サーモグラフィ及び加熱のために利用され得る。物体からの黒体放射によって発せられる赤外線は、遠赤外線に相当する。そのため、遠赤外線を用いた暗視装置は、赤外線を照射せずとも、物体からの黒体放射を捕捉することにより遠赤外画像を生成することができる。
 物体から放射される遠赤外線のエネルギと当該物体の温度とは相関関係を有するので、当該遠赤外線を受光することによって生成された遠赤外画像から、当該遠赤外画像に映る複数の物体の温度差を検出することができる。それにより、遠赤外画像から特定の物体が映る対象領域を、他の領域と区別して抽出することができる。例えば、遠赤外画像に映る生体の温度は、当該生体の周囲の物体の温度と比較して、一般的に高いので、当該生体と周囲の物体の温度差を検出することによって、遠赤外画像から生体領域を抽出することができる。
 ここで、可視光画像における特定の領域の画質が向上するように可視光画像の画質を調整することによって、当該可視光画像の画質を向上させることができる場合がある。例えば、可視光画像において人が映る領域の輝度が適正な範囲内となるように可視光画像の輝度を調整することによって、当該可視光画像の画質を向上させ得る。上述したように、遠赤外画像から対象領域を抽出することによって、可視光画像から直接的に抽出することが困難な当該可視光画像における特定の領域を識別することができる場合がある。ゆえに、可視光画像における特定の領域の画質が向上するような可視光画像の画質の調整を、遠赤外画像から抽出した対象領域を用いることにより、実現し得ることが考えられる。そこで、本明細書では、遠赤外画像から抽出した対象領域を用いることにより、可視光画像の画質の向上を可能とするいくつかの実施形態について説明する。なお、本明細書において、可視光画像の画質という場合、可視光画像における画像部位の配置及び可視光画像の撮像におけるシャッタータイミングに関連する可視光画像の品質(画像の内容よりもむしろ撮像のアングル又はタイミングといった外的要因により評価される品質)を含まず、ボケ、輝度、色温度、ノイズ、コントラスト等、即ち画像の内容に関連する可視光画像の画質(画素値から評価可能な品質)を意味するものとする。
 <2.第1の実施形態>
 まず、本開示の第1の実施形態に係る制御装置10について説明する。
  [2-1.ハードウェア構成]
 図2は、第1の実施形態に係る制御装置10のハードウェア構成の一例を示すブロック図である。図2に示したように、制御装置10は、赤外線カメラ102と、可視光線カメラ104と、入力インタフェース106と、メモリ108と、ディスプレイ110と、通信インタフェース112と、ストレージ114と、プロセッサ116と、バス118と、を備える。
   (赤外線カメラ)
 赤外線カメラ102は、赤外線を利用した撮像を行い、非カラー画像である赤外線画像を得る撮像モジュールである。具体的には、赤外線カメラ102は、FIR領域に属する波長を有する遠赤外線を感知する撮像素子の配列を有しており、遠赤外画像を撮像する。赤外線カメラ102は、一定フレーム間隔で遠赤外画像を撮像してもよい。また、赤外線カメラ102により得られる一連の遠赤外画像は、映像を構成してもよい。
   (可視光線カメラ)
 可視光線カメラ104は、可視光線を利用した撮像を行い、可視光画像を得る撮像モジュールである。可視光線カメラ104は、互いに異なる波長の可視光線を感知する撮像素子の配列を有する。例えば、可視光線カメラ104は、赤色域、緑色域及び青色域にそれぞれ感度域を持つ撮像素子の配列を有してもよい。可視光線カメラ104は、各フレームにおいて可視光画像を撮像してもよい。また、可視光線カメラ104により得られる一連の可視光画像は、映像を構成してもよい。
 赤外線カメラ102及び可視光線カメラ104の画角は、図3に示したように、少なくとも一部が重複するように構成される。それにより、赤外線カメラ102及び可視光線カメラ104は、互いに共通する被写体B10を映す遠赤外画像及び可視光画像をそれぞれ撮像可能である。以下、図2に戻り、制御装置10のハードウェア構成の説明を続ける。
   (入力インタフェース)
 入力インタフェース106は、ユーザが制御装置10を操作し又は制御装置10へ情報を入力するために使用される。例えば、入力インタフェース106は、タッチセンサ、キーボード、キーパッド、ボタン又はスイッチなどの入力デバイスを含んでもよい。また、入力インタフェース106は、音声入力用のマイクロフォン及び音声認識モジュールを含んでもよい。また、入力インタフェース106は、ユーザにより選択される命令をリモートデバイスから受信する遠隔制御モジュールを含んでもよい。
   (メモリ)
 メモリ108は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み得る記憶媒体である。メモリ108は、プロセッサ116に連結され、プロセッサ116により実行される処理のためのプログラム及びデータを記憶する。
   (ディスプレイ)
 ディスプレイ110は、画像を表示する画面を有する表示モジュールである。例えば、ディスプレイ110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などであってもよい。
   (通信インタフェース)
 通信インタフェース112は、制御装置10と他の装置との間の通信を仲介するモジュールである。通信インタフェース112は、任意の無線通信プロトコル又は有線通信プロトコルに従って、通信接続を確立する。
   (ストレージ)
 ストレージ114は、赤外線画像及び可視光画像を含み得る画像データを蓄積し又は赤外線画像処理において利用されるデータベースを記憶する記憶デバイスである。ストレージ114は、半導体メモリ又はハードディスクなどの記憶媒体を内蔵する。なお、本明細書で説明するプログラム及びデータは、制御装置10の外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
   (プロセッサ)
 プロセッサ116は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などの処理モジュールである。プロセッサ116は、メモリ108又は他の記憶媒体に記憶されるプログラムを実行することにより、可視光画像の画質を向上させるための機能を動作させる。
   (バス)
 バス118は、赤外線カメラ102、可視光線カメラ104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112、ストレージ114及びプロセッサ116を相互に接続する。
  [2-2.機能構成]
 続いて、図4を参照して、第1の実施形態に係る制御装置10の機能構成について説明する。
 図4は、図2に示した制御装置10の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。図4に示したように、制御装置10は、赤外線画像取得部152と、可視光画像取得部154と、記憶部156と、抽出部158と、制御部160と、を備える。
   (赤外線画像取得部)
 赤外線画像取得部152は、遠赤外画像を取得し、取得した遠赤外画像を抽出部158へ出力する。例えば、赤外線画像取得部152は、赤外線カメラ102により得られた遠赤外画像を取得してもよい。なお、赤外線画像取得部152は、赤外線カメラ102そのものであってもよい。また、赤外線画像取得部152は、記憶部156に記憶されている遠赤外画像を取得してもよい。また、赤外線画像取得部152は、通信インタフェース112を介して他の装置から得られる遠赤外画像を取得してもよい。赤外線画像取得部152により取得される遠赤外画像は、信号の増幅及びノイズ除去などの予備的な処理を経た画像であってもよい。また、赤外線画像取得部152は、圧縮符号化された符号化ストリームから遠赤外画像を復号してもよい。
 赤外線画像取得部152は、各フレームにおいて、遠赤外画像を取得してもよい。具体的には、赤外線画像取得部152は、現在のフレームが赤外線カメラ102により遠赤外線画像が撮像されるフレームである撮像フレームである場合、現在のフレームにおいて赤外線カメラ102により得られる遠赤外画像を取得する。一方、赤外線画像取得部152は、現在のフレームが赤外線カメラ102により遠赤外画像が撮像されないフレームである場合、直近の撮像フレームにおいて赤外線カメラ102により得られた遠赤外画像を取得する。
   (可視光画像取得部)
 可視光画像取得部154は、可視光画像を取得し、取得した可視光画像を制御部160へ出力する。具体的には、可視光画像取得部154は、赤外線画像取得部152により取得される遠赤外画像と共通する被写体を映した可視光画像を取得する。可視光画像取得部154は、例えば、可視光線カメラ104により得られた可視光画像を取得してもよい。なお、可視光画像取得部154は、可視光線カメラ104そのものであってもよい。また、可視光画像取得部154は、記憶部156に記憶されている可視光画像を取得してもよい。また、可視光画像取得部154は、通信インタフェース112を介して他の装置から得られる可視光画像を取得してもよい。可視光画像取得部154により取得される可視光画像は、信号の増幅及びノイズ除去などの予備的な処理を経た画像であってもよい。また、可視光画像取得部154は、圧縮符号化された符号化ストリームから可視光画像を復号してもよい。可視光画像取得部154により取得される可視光画像の画角は、赤外線画像取得部152により取得される赤外線画像の画角と重なる(理想的には一致する)ように校正されているものとする。
 可視光画像取得部154は、各フレームにおいて、現在のフレームについて可視光線カメラ104により得られる可視光画像を取得する。
   (記憶部)
 記憶部156は、抽出部158が行う対象領域の抽出処理及び制御部160が行う撮像条件の設定処理のために参照されるデータを記憶する。例えば、記憶部156は、赤外線カメラ102により得られた各撮像フレームにおける遠赤外画像及び可視光線カメラ104により得られた各フレームにおける可視光画像を記憶する。
   (抽出部)
 抽出部158は、遠赤外画像から対象領域を抽出する。具体的には、抽出部158は、赤外線画像取得部152により取得された遠赤外画像から対象領域を抽出し、抽出結果を制御部160へ出力する。抽出部158は、例えば、遠赤外画像において、所定の温度範囲内の温度に対応する画素値を有する領域を対象領域として抽出する。所定の温度範囲は、対象領域の種類に応じて適宜設定され得る。対象領域は、具体的には、人を含む生体が映る生体領域であってもよく、空が映る空領域であってもよい。図5及び図6は、赤外線カメラ102及び可視光線カメラ104によってそれぞれ得られる遠赤外画像及び可視光画像の一例について説明するための説明図である。図5及び図6において、右側の図では、赤外線カメラ102によって得られる遠赤外画像が概念的に示されており、区域ごとに付されたハッチングの濃淡は画素値の異同を示す。当該ハッチングが濃い区域ほど、画素値が低い区域であるので、当該区域に映る被写体の温度は低い。一方、左側の図では、可視光線カメラ104によって得られる可視光画像が概念的に示されており、区域ごとに付されたハッチングの濃淡は画素値の輝度成分の異同を示す。当該ハッチングが濃い区域ほど、輝度が低い区域である。なお、後述する図10、図11、図13、図17及び図19において、図5及び図6の左側の図と同様に、可視光線カメラ104によって得られる可視光画像が概念的に示され、区域ごとに付されたハッチングの濃淡は画素値の輝度成分の異同を示す。
 図5では、被写体として人B20が可視光画像及び遠赤外画像に映っている。抽出部158は、例えば、遠赤外画像において、35℃近傍の温度範囲内の温度に対応する画素値を有する領域を人B20が映る対象領域である人領域C20として抽出する。人B20の温度は、人B20の周囲の物体の温度と比較して高いので、図5に示したように、遠赤外画像において、人B20が映る人領域C20の画素値と他の領域の画素値との差が生じる。一方、可視光画像における画素値は被写体の有する色に依存するので、可視光画像における各領域の画素値の比較によって、可視光画像から直接的に当該可視光画像における人B20が映る領域を抽出することが困難な場合がある。
 第1の実施形態では、抽出部158は、上述した遠赤外画像における人領域C20の画素値と他の領域の画素値との差を利用することによって、遠赤外画像から人B20が映る人領域C20を抽出することができる。ゆえに、可視光画像から直接的に抽出することが困難な当該可視光画像における人B20が映る領域を、人領域C20に対応する対応領域D20として識別することができる。
 また、図6では、被写体として空B30が可視光画像及び遠赤外画像に映っている。抽出部158は、例えば、遠赤外画像において、-20℃近傍の温度範囲内の温度に対応する画素値を有する領域を空B30が映る対象領域である空領域C30として抽出する。空B30の温度は、空B30の周囲の物体の温度と比較して低いので、図6に示したように、遠赤外画像において、空B30が映る空領域C30の画素値と他の領域の画素値との差が生じる。一方、可視光画像における画素値は被写体の有する色に依存するので、可視光画像における各領域の画素値の比較によって、可視光画像から直接的に当該可視光画像における空B30が映る領域を抽出することが困難な場合がある。
 第1の実施形態では、抽出部158は、上述した遠赤外画像における空領域C30の画素値と他の領域の画素値との差を利用することによって、遠赤外画像から空B30が映る空領域C30を抽出することができる。ゆえに、可視光画像から直接的に抽出することが困難な当該可視光画像における空B30が映る領域を、空領域C30に対応する対応領域D30として識別することができる。
   (制御部)
 制御部160は、遠赤外画像と共通する被写体を映した可視光画像において抽出部158により抽出された対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する。具体的には、制御部160は、可視光画像取得部154により取得された可視光画像において抽出部158により抽出された対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する。それにより、本開示に係る制御装置によれば、以下で説明するように、可視光画像における特定の領域の画質が向上するように可視光画像の画質を調整することができる。ゆえに、可視光画像の画質を向上させることができる。
 第1の実施形態に係る制御部160は、具体的には、可視光線カメラ104による可視光画像の撮像条件を、対応領域に基づいて設定することによって、当該可視光画像の画質を制御する。可視光線カメラ104は、制御部160によって設定された撮像条件に基づいて、可視光画像の撮像を行うように構成される。例えば、制御部160から可視光線カメラ104へ動作指示が出力されることによって、制御部160により設定された撮像条件に基づく可視光画像の撮像が実現されてもよい。また、制御装置10と異なる装置によって可視光線カメラ104の動作が制御される場合、制御部160から当該装置へ動作指示が出力されることによって、制御部160により設定された撮像条件に基づく可視光画像の撮像が実現されてもよい。制御部160は、可視光画像の撮像条件の設定処理を各フレームにおいて行ってもよい。
 図4に示したように、制御部160は、判定部162と、撮像条件設定部164と、を含む。判定部162は、可視光画像の撮像条件の設定処理を行うか否かを、対応領域に基づいて、判定し、判定結果を撮像条件設定部164へ出力する。撮像条件設定部164は、判定部162からの判定結果に基づいて、可視光画像の撮像条件の設定処理を行う。
 制御部160は、例えば、撮像条件として可視光線カメラ104の焦点距離を、対応領域における合焦度に基づいて設定する。ここで、合焦度は、合焦している度合いを示す値である。この場合に、判定部162は、例えば、対応領域における合焦度として、ボケ量に関連する指標値であるボケ量指標値を算出する。判定部162は、対応領域におけるボケ量指標値が所定の値より小さいか否かに応じて、可視光画像の撮像条件の設定処理を行うか否かを判定する。具体的には、判定部162は、対応領域におけるボケ量指標値が所定の値より小さくない場合、可視光画像の撮像条件の設定処理を行うと判定し、判定結果を撮像条件設定部164へ出力する。ボケ量指標値は、ボケの度合いと関連する値であり、判定部162は、例えば、対応領域内において隣接する画素のペアのそれぞれについて、当該ペアを構成する画素の画素値の差を算出し、当該画素値の差の合計値を、対応領域におけるボケ量指標値として、算出してもよい。この場合、合焦度が高いほど当該ボケ量指標値は小さくなる。
 撮像条件設定部164は、判定部162により可視光画像の撮像条件の設定処理を行うと判定された場合に、可視光線カメラ104の焦点距離を当該ボケ量指標値に基づいて設定する。換言すると、撮像条件設定部164は、対応領域におけるボケ量指標値が所定の値より小さくない場合に、可視光線カメラ104の焦点距離を当該ボケ量指標値に基づいて設定する。当該所定の値は、対応領域においてボケが適切に抑制されたか否かを判断し得る値に設定される。撮像条件設定部164は、例えば、算出された対応領域におけるボケ量指標値に応じて、焦点距離の変更量及び変更方向を算出してもよい。具体的には、撮像条件設定部164は、算出された対応領域におけるボケ量指標値と当該所定の値との差に応じて焦点距離の変更量を算出してもよい。また、撮像条件設定部164は、1フレーム前のフレームにおいて行った焦点距離の設定処理によってボケ量指標値が減少した場合、1フレーム前のフレームの当該設定処理における焦点距離の変更方向と同一の方向を現在のフレームの焦点距離の変更方向として算出してもよい。一方、撮像条件設定部164は、1フレーム前のフレームにおいて行った焦点距離の設定処理によってボケ量指標値が増大した場合、1フレーム前のフレームの当該設定処理における焦点距離の変更方向と逆の方向を現在のフレームの焦点距離の変更方向として算出してもよい。
 また、制御部160は、撮像条件として可視光線カメラ104のシャッタ速度及び絞り値の少なくとも1つを、対応領域における輝度に基づいて設定してもよい。この場合に、判定部162は、対応領域における露出の度合いを示す値として輝度に関連する輝度指標値を算出する。判定部162は、対応領域における輝度指標値が所定の範囲内の値であるか否かに応じて、可視光画像の撮像条件の設定処理を行うか否かを判定する。具体的には、判定部162は、対応領域における輝度指標値が所定の範囲内の値でない場合、可視光画像の撮像条件の設定処理を行うと判定し、判定結果を撮像条件設定部164へ出力する。判定部162は、例えば、対応領域における各画素の画素値の輝度成分の最大値を対応領域における輝度指標値として算出する。また、判定部162は、対応領域における各画素の画素値の輝度成分の平均値を対応領域における輝度指標値として算出してもよい。
 撮像条件設定部164は、判定部162により可視光画像の撮像条件の設定処理を行うと判定された場合に、可視光線カメラ104のシャッタ速度及び絞り値の少なくとも1つを当該輝度指標値に基づいて設定する。換言すると、撮像条件設定部164は、対応領域における輝度指標値が所定の範囲内の値でない場合に、可視光線カメラ104のシャッタ速度及び絞り値の少なくとも1つを当該輝度指標値に基づいて設定する。当該所定の範囲は、対応領域において輝度が適切に調整されたか否かを判断し得る値の範囲に設定される。撮像条件設定部164は、例えば、算出された対応領域における輝度指標値に応じてシャッタ速度及び絞り値の少なくとも1つを算出してもよい。具体的には、撮像条件設定部164は、当該所定の範囲における上限値及び下限値の平均値と算出された対応領域における輝度指標値との差に応じてシャッタ速度及び絞り値の少なくとも1つを算出してもよい。
  [2-3.動作]
 続いて、第1の実施形態に係る制御装置10が行う処理の流れについて説明する。以下では、一例として、図5に示した遠赤外画像及び可視光画像が赤外線画像取得部152及び可視光画像取得部154によりそれぞれ取得された場合の処理の流れの一例について説明する。
 図7は、第1の実施形態に係る制御装置10が行う処理の流れの一例を示すフローチャートである。図7に示したように、まず、可視光画像取得部154は、可視光画像を取得する(ステップS202)。そして、赤外線画像取得部152は、遠赤外画像を取得する(ステップS300)。次に、抽出部158は、赤外線画像取得部152により取得された遠赤外画像から、図5に示した人領域C20を対象領域として抽出する(ステップS204)。そして、制御部160は、可視光線カメラ104による可視光画像の撮像条件を、可視光画像において対象領域C20に対応する対応領域D20に基づいて設定し(ステップS400)、図7に示した処理は終了する。
 図8は、第1の実施形態に係る制御装置10が行う遠赤外画像の取得処理(図7におけるステップS300の処理)の流れの一例を示すフローチャートである。図8に示したように、遠赤外画像の取得処理では、まず、赤外線画像取得部152は、現在のフレームが赤外線カメラ102により遠赤外画像が撮像されるフレームである撮像フレームであるか否かについて判定する(ステップS302)。現在のフレームが撮像フレームであると判定された場合(ステップS302/YES)、赤外線画像取得部152は、現在のフレームにおいて赤外線カメラ102により得られる遠赤外画像を取得し(ステップS304)、図8に示した処理は終了する。一方、現在のフレームが撮像フレームであると判定されなかった場合(ステップS302/NO)、赤外線画像取得部152は、直近の撮像フレームにおいて赤外線カメラ102により得られた遠赤外画像を取得し(ステップS306)、図8に示した処理は終了する。
 続いて、第1の実施形態に係る制御装置10が行う可視光画像の撮像条件の設定処理(図7におけるステップS400の処理)の流れについてより詳細に説明する。
 図9は、第1の実施形態に係る制御装置10が行う可視光画像の撮像条件の設定処理の第1の例の流れを示すフローチャートである。図9に示したように、可視光画像の撮像条件の設定処理の第1の例では、まず、判定部162は、図5に示した人領域C20に対応する対応領域D20におけるボケ量指標値を算出する(ステップS412)。そして、判定部162は、対応領域D20におけるボケ量指標値が所定の値より小さいか否かに応じて、可視光画像の撮像条件の設定処理を行うか否かを判定する(ステップS414)。対応領域D20におけるボケ量指標値が所定の値より小さい場合、判定部162は、可視光画像の撮像条件の設定処理を行わないと判定し(ステップS414/YES)、図9に示した処理は終了する。一方、対応領域D20におけるボケ量指標値が所定の値より小さくない場合、判定部162は、可視光画像の撮像条件の設定処理を行うと判定し(ステップS414/NO)、撮像条件設定部164は、算出された対応領域D20におけるボケ量指標値に応じて、可視光線カメラ104の焦点距離の変更量及び変更方向を算出する(ステップS416)。そして、撮像条件設定部164は、可視光線カメラ104の焦点距離を設定し(ステップS418)、図9に示した処理は終了する。
 図5に示した被写体を可視光線カメラ104によって撮像する場合において、人B20と異なるオブジェクトB22に焦点が合うように焦点距離が設定される場合がある。このような場合において、可視光線カメラ104から人B20及びオブジェクトB22までのそれぞれの距離の差に起因して、図10に示したように、人B20を示す画像の合焦度が低下し得る。一方、可視光画像の撮像条件の設定処理の第1の例によれば、制御部160は、可視光線カメラ104の焦点距離を、人領域C20に対応する対応領域D20における合焦度に基づいて設定するので、例えば、図11に示したように、対応領域D20においてボケを抑制することができる。ゆえに、可視光画像において人B20が映る領域である対応領域D20のボケに関連する画質を向上させることができる。従って、可視光画像の画質を向上させることができる。
 図12は、第1の実施形態に係る制御装置10が行う可視光画像の撮像条件の設定処理の第2の例の流れを示すフローチャートである。図12に示したように、可視光画像の撮像条件の設定処理の第2の例では、まず、判定部162は、図5に示した人領域C20に対応する対応領域D20における輝度指標値を算出する(ステップS422)。そして、判定部162は、対応領域D20における輝度指標値が所定の範囲内の値であるか否かに応じて、可視光画像の撮像条件の設定処理を行うか否かを判定する(ステップS424)。対応領域D20における輝度指標値が所定の範囲内の値である場合、判定部162は、可視光画像の撮像条件の設定処理を行わないと判定し(ステップS424/YES)、図12に示した処理は終了する。一方、対応領域D20における輝度指標値が所定の範囲内の値でない場合、判定部162は、可視光画像の撮像条件の設定処理を行うと判定し(ステップS424/NO)、撮像条件設定部164は、算出された対応領域D20における輝度指標値に応じて、可視光線カメラ104のシャッタ速度及び絞り値の少なくとも1つを算出する(ステップS426)。そして、撮像条件設定部164は、可視光線カメラ104のシャッタ速度及び絞り値の少なくとも1つを設定し(ステップS428)、図12に示した処理は終了する。
 可視光線カメラ104のシャッタ速度及び絞り値の設定値に応じて、可視光画像の輝度は画像全体で変化し得る。例えば、シャッタ速度及び絞り値の設定値として、図5に示した可視光画像の撮像における設定値と異なる設定値を用いた撮像により得られた図13に示す可視光画像では、図5に示した可視光画像と比較して、画像全体で輝度が高い。このような場合において、人B20と異なるオブジェクトB22が映る領域の輝度は適切な範囲内であるが、人B20が映る領域の輝度が適切な範囲を超えて過度に高くなる場合がある。なお、人B20が映る領域の輝度が適切な範囲を超えて過度に低くなる場合も同様に考えられる。一方、可視光画像の撮像条件の設定処理の第2の例によれば、制御部160は、可視光線カメラ104のシャッタ速度及び絞り値の少なくとも1つを、人領域C20に対応する対応領域D20における輝度に基づいて設定するので、対応領域D20において輝度を適切に調整することができる。ゆえに、可視光画像において人B20が映る領域である対応領域D20の輝度に関連する画質を向上させることができる。従って、可視光画像の画質を向上させることができる。
 以上、説明したように、第1の実施形態に係る制御装置10によれば、制御部160は、可視光画像の撮像条件を、対応領域に基づいて設定することによって、可視光画像取得部154により取得される可視光画像の画質を制御する。それにより、可視光画像における特定の領域の画質が向上するように可視光画像の撮像条件を設定することが可能である。ゆえに、可視光画像の画質を向上させることができる。
 <3.第2の実施形態>
 上述では、可視光線カメラ104による可視光画像の撮像条件を、対応領域に基づいて設定することによって、可視光画像取得部154により取得される可視光画像の画質を制御する例について説明した。以下では、可視光画像取得部154により取得された可視光画像に対して、対応領域に基づいて、画像処理を行うことにより、当該可視光画像の画質を制御する第2の実施形態について説明する。
  [3-1.機能構成]
 第2の実施形態に係る制御装置12のハードウェア構成は、図2を参照して説明した制御装置10のハードウェア構成と同様であってもよい。図14は、第2の実施形態に係る制御装置12の機能構成の一例を示すブロック図である。図14に示したように、第2の実施形態に係る制御装置12において、制御部260は、第1の実施形態に係る制御装置10と異なり、判定部262と、画像処理部264と、を含む。
 第2の実施形態に係る制御部260は、可視光画像に対して、対応領域に基づいて、画像処理を行うことにより、当該可視光画像の画質を制御する。具体的には、第2の実施形態に係る制御部260は、可視光画像取得部154により取得された可視光画像に対して、対応領域に基づいて、画像処理を行うことにより、当該可視光画像の画質を制御する。例えば、制御部260は、記憶部156に記憶されている当該画像処理が行われる前の可視光画像を当該画像処理が行われた後の可視光画像へ書き換えることによって、可視光画像取得部154により取得された可視光画像の画質を制御してもよい。制御部260は、可視光画像に対する画像処理を各フレームにおいて行ってもよい。なお、制御部260が行う可視光画像に対する画像処理のために参照されるデータは記憶部156に記憶され得る。
 判定部262は、可視光画像に対する画像処理を行うか否かを、対応領域に基づいて、判定し、判定結果を画像処理部264へ出力する。画像処理部264は、判定部262からの判定結果に基づいて、可視光画像に対する画像処理を行う。
 制御部260は、例えば、対応領域における色温度に基づいて、可視光画像取得部154により取得された可視光画像のホワイトバランスを調整する画像処理を行う。ここで、色温度は、色を温度として例えて表現した値であり、画素値のR成分、G成分及びB成分に応じて算出され得る。この場合に、判定部262は、対応領域における色温度に関連する色温度指標値を算出する。判定部262は、対応領域における色温度指標値が所定の範囲内の値であるか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する。具体的には、判定部262は、対応領域における色温度指標値が所定の範囲内の値でない場合、可視光画像に対する画像処理を行うと判定し、判定結果を画像処理部264へ出力する。判定部262は、例えば、対応領域における各画素の色温度の平均値を対応領域における色温度指標値として算出する。
 画像処理部264は、判定部262により可視光画像に対する画像処理を行うと判定された場合に、可視光画像取得部154により取得された可視光画像のホワイトバランスを、当該色温度指標値に基づいて、調整する画像処理を行う。換言すると、画像処理部264は、対応領域における色温度指標値が所定の範囲内の値でない場合に、可視光画像取得部154により取得された可視光画像のホワイトバランスを、当該色温度指標値に基づいて、調整する画像処理を行う。当該所定の範囲は、対応領域において色温度が適切に調整されたか否かを判断し得る値の範囲に設定される。画像処理部264は、例えば、算出された対応領域における色温度指標値に応じて、R成分、G成分及びB成分の補正ゲイン値を算出し、当該各補正ゲイン値を画素値のR成分、G成分及びB成分の各々に乗じるホワイトバランス処理を行うことによって、ホワイトバランスを調整してもよい。画像処理部264は、具体的には、対応領域が人を映す領域である場合に、対応領域における色温度指標値が人の肌の色に対応する色温度となるように、画素値のR成分、G成分及びB成分の補正ゲインを算出してもよい。
 また、制御部260は、対応領域におけるノイズ量に基づいて、可視光画像取得部154により取得された可視光画像のノイズを抑制する画像処理を行ってもよい。この場合に、判定部262は、対応領域におけるノイズ量に関連するノイズ量指標値を算出する。判定部262は、対応領域におけるノイズ量指標値が所定の値より小さいか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する。具体的には、判定部262は、対応領域におけるノイズ量指標値が所定の値より小さくない場合、可視光画像に対する画像処理を行うと判定し、判定結果を画像処理部264へ出力する。判定部262は、例えば、対応領域における各画素に対してハイパスフィルタ処理を行い、ハイパスフィルタ処理後の画素値の対応領域における平均値を対応領域におけるノイズ量指標値として算出する。
 画像処理部264は、判定部262により可視光画像に対する画像処理を行うと判定された場合に、可視光画像取得部154により取得された可視光画像のノイズを、当該ノイズ量指標値に基づいて、抑制する画像処理を行う。換言すると、画像処理部264は、対応領域におけるノイズ量指標値が所定の値より小さくない場合に、可視光画像取得部154により取得された可視光画像のノイズを、当該ノイズ量指標値に基づいて、抑制する画像処理を行う。当該所定の値は、対応領域においてノイズが適切に抑制されたか否かを判断し得る値に設定される。画像処理部264は、例えば、算出された対応領域におけるノイズ量指標値に応じて、ノイズ抑制の強度を規定するノイズリダクション強度パラメータとしてフィルタタップ及びフィルタ係数の少なくとも1つを算出し、当該パラメータを含むローパスフィルタを用いたフィルタリング処理であるノイズリダクション処理を行うことによって、ノイズを抑制してもよい。画像処理部264は、具体的には、対応領域が人を映す領域である場合に、対応領域におけるノイズ量指標値が人を映す領域として適切な値となるように、フィルタタップ及びフィルタ係数の少なくとも1つを算出してもよい。
 また、制御部260は、対応領域におけるボケ量に基づいて、可視光画像取得部154により取得された可視光画像のボケを低減し又は強調する画像処理を行ってもよい。この場合に、判定部262は、対応領域におけるボケ量に関連するボケ量指標値を算出する。判定部262は、対応領域におけるボケ量指標値が所定の値より小さいか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する。具体的には、判定部262は、対応領域におけるボケ量指標値が所定の値より小さくない場合、可視光画像に対する画像処理を行うと判定し、判定結果を画像処理部264へ出力する。判定部262は、対応領域内において隣接する画素のペアのそれぞれについて、当該ペアを構成する画素の画素値の差を算出し、当該画素値の差の合計値を、対応領域におけるボケ量指標値として、算出してもよい。
 画像処理部264は、判定部262により可視光画像に対する画像処理を行うと判定された場合に、可視光画像取得部154により取得された可視光画像のボケを、当該ボケ量指標値に基づいて、低減し又は強調する画像処理を行う。換言すると、画像処理部264は、対応領域におけるボケ量指標値が所定の値より小さくない場合に、可視光画像取得部154により取得された可視光画像のボケを、当該ボケ量指標値に基づいて、低減し又は強調する画像処理を行う。当該所定の値は、対応領域においてボケが適切に低減又は強調されたか否かを判断し得る値に設定される。画像処理部264は、例えば、算出された対応領域におけるボケ量指標値に応じて、ボケ抑制の強度を規定するボケ抑制強度パラメータとして補正係数であるPSFの逆関数を算出し、当該逆関数を用いたフィルタリング処理であるデブラー処理を行うことによって、ボケを低減又は強調してもよい。画像処理部264は、具体的には、対応領域が人を映す領域である場合に、対応領域におけるボケが人を映す領域として適切に低減又は強調されるように、PSFの逆関数を算出してもよい。
 また、制御部260は、対応領域における輝度に基づいて、可視光画像取得部154により取得された可視光画像の輝度ダイナミックレンジを調整する画像処理を行ってもよい。この場合に、判定部262は、対応領域における輝度に関連する輝度指標値を算出する。判定部262は、対応領域における輝度指標値が所定の範囲内の値であるか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する。具体的には、判定部262は、対応領域における輝度指標値が所定の範囲内の値でない場合、可視光画像に対する画像処理を行うと判定し、判定結果を画像処理部264へ出力する。判定部262は、例えば、対応領域における各画素の画素値の輝度成分の最大値を対応領域における輝度指標値として算出する。また、判定部262は、対応領域における各画素の画素値の輝度成分の平均値を対応領域における輝度指標値として算出してもよい。
 画像処理部264は、判定部262により可視光画像に対する画像処理を行うと判定された場合に、可視光画像取得部154により取得された可視光画像の輝度ダイナミックレンジを、当該輝度指標値に基づいて、調整する画像処理を行う。換言すると、画像処理部264は、対応領域における輝度指標値が所定の範囲内の値でない場合に、可視光画像取得部154により取得された可視光画像の輝度ダイナミックレンジを、当該輝度指標値に基づいて、調整する画像処理を行う。当該所定の範囲は、対応領域において輝度が適切に調整されたか否かを判断し得る値の範囲に設定され得る。画像処理部264は、例えば、算出された対応領域における輝度指標値に応じて、画素値の輝度成分の各値についての変換前後の値の関係性を規定するトーンマップ曲線を算出し、当該トーンマップ曲線に基づく輝度成分の変換処理であるトーンマッピング処理を行うことによって、輝度ダイナミックレンジを調整してもよい。画像処理部264は、具体的には、対応領域が人を映す領域である場合に、対応領域における輝度が人を映す領域として適切に調整されるように、トーンマップ曲線を算出してもよい。
 また、制御部260は、対応領域におけるコントラストに基づいて、可視光画像取得部154により取得された可視光画像のコントラストを強調する画像処理を行ってもよい。この場合に、判定部262は、対応領域におけるコントラストに関連するコントラスト指標値を算出する。判定部262は、対応領域におけるコントラスト指標値が所定の値より大きいか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する。具体的には、判定部262は、対応領域におけるコントラスト指標値が所定の値より大きくない場合、可視光画像に対する画像処理を行うと判定し、判定結果を画像処理部264へ出力する。判定部262は、例えば、対応領域における各画素の輝度成分のうち、最小の値と最大の値との差を対応領域におけるコントラスト指標値として算出する。
 画像処理部264は、判定部262により可視光画像に対する画像処理を行うと判定された場合に、可視光画像取得部154により取得された可視光画像のコントラストを、当該コントラスト指標値に基づいて、強調する画像処理を行う。換言すると、画像処理部264は、対応領域におけるコントラスト指標値が所定の値より大きくない場合に、可視光画像取得部154により取得された可視光画像のコントラストを、当該コントラスト指標値に基づいて、強調する画像処理を行う。当該所定の値は、対応領域においてコントラストが適切に強調されたか否かを判断し得る値に設定される。画像処理部264は、例えば、算出された対応領域におけるコントラスト指標値に応じて、コントラスト強調の強度を規定するコントラスト強度パラメータとしてゲイン値を算出し、当該ゲイン値を各画素の輝度成分に乗じる処理であるコントラスト強調処理を行うことによって、コントラストを強調してもよい。画像処理部264は、具体的には、対応領域が人を映す領域である場合に、対応領域におけるコントラストが人を映す領域として適切に強調されるように、ゲイン値を算出してもよい。
 また、制御部260は、可視光画像取得部により取得された可視光画像の対応領域及び他の領域に対して、互いに異なる処理条件で、画像処理を行ってもよい。例えば、抽出部158によって、複数の対象領域が抽出された場合に、制御部260は、可視光画像において当該複数の対象領域にそれぞれ対応する複数の対応領域に対して、互いに異なる処理条件で、画像処理を行ってもよい。具体的には、抽出部158によって、抽出された生体が映る生体領域及び空が映る空領域が対象領域として抽出された場合に、制御部260は、生体領域に対応する対応領域と、空領域に対応する対応領域について、互いに異なる処理条件で、画像処理を行ってもよい。
  [3-2.動作]
 続いて、第2の実施形態に係る制御装置12が行う処理の流れについて説明する。以下では、一例として、図5に示した遠赤外画像及び可視光画像が赤外線画像取得部152及び可視光画像取得部154によりそれぞれ取得された場合の処理の流れについて説明する。
 図15は、第2の実施形態に係る制御装置12が行う処理の流れの一例を示すフローチャートである。図7を参照して説明した第1の実施形態に係る制御装置10が行う処理の流れと比較して、人領域C20の抽出処理(ステップS204)の後の処理が異なる。図15に示したように、第2の実施形態では、ステップS204の後、制御部260は、可視光画像取得部154により取得された可視光画像に対して、対応領域に基づいて、画像処理を行い(ステップS500)、図15に示した処理は終了する。
 続いて、第2の実施形態に係る制御装置12が行う可視光画像に対する画像処理(図15におけるステップS500の処理)の流れについてより詳細に説明する。
 図16は、第2の実施形態に係る制御装置12が行う可視光画像に対する画像処理の第1の例の流れを示すフローチャートである。図16に示したように、可視光画像に対する画像処理の第1の例では、まず、判定部262は、図5に示した人領域C20に対応する対応領域D20における色温度指標値を算出する(ステップS512)。そして、判定部262は、対応領域D20における色温度指標値が所定の範囲内の値であるか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する(ステップS514)。対応領域D20における色温度指標値が所定の範囲内の値である場合、判定部262は、可視光画像に対する画像処理を行わないと判定し(ステップS514/YES)、図16に示した処理は終了する。一方、対応領域D20における色温度指標値が所定の範囲内の値でない場合、判定部262は、可視光画像に対する画像処理を行うと判定し(ステップS514/NO)、画像処理部264は、算出された対応領域D20における色温度指標値に応じて、R成分、G成分及びB成分の補正ゲイン値を算出する(ステップS516)。そして、画像処理部264は、当該各補正ゲイン値を画素値のR成分、G成分及びB成分の各々に乗じるホワイトバランス処理を行い(ステップS518)、図16に示した処理は終了する。
 可視光画像に対してホワイトバランス処理を行う場合において、ホワイトバランスの設定に応じて、可視光画像の色温度は画面全体で変化し得る。図17は、図5に示した可視光画像に対してホワイトバランス処理を行うことにより得られた可視光画像の一例を示す。図17における可視光画像では、図5に示した可視光画像と比較して、色温度が画面全体で過度に低下したことが、輝度を示すハッチングの濃淡の変化により示されている。このような場合において、人B20を映す領域である対応領域D20における色温度と人の肌の色に対応する色温度との差が過度に大きくなり得る。一方、可視光画像に対する画像処理の第1の例によれば、制御部260は、可視光画像取得部154により取得された可視光画像のホワイトバランスを、人領域C20に対応する対応領域D20における色温度に基づいて調整する画像処理を行うので、対応領域D20において色温度を適切に調整することができる。ゆえに、可視光画像において人B20が映る領域である対応領域D20の色温度に関連する画質を向上させることができる。従って、可視光画像の画質を向上させることができる。
 また、可視光画像に対する画像処理の第1の例では、制御部260は、可視光画像において該複数の対象領域にそれぞれ対応する複数の対応領域に対して、互いに異なる補正ゲイン値に基づくホワイトバランス処理を行ってもよい。
 図18は、第2の実施形態に係る制御装置12が行う可視光画像に対する画像処理の第2の例の流れを示すフローチャートである。図18に示したように、可視光画像に対する画像処理の第2の例では、まず、判定部262は、図5に示した人領域C20に対応する対応領域D20におけるノイズ量指標値を算出する(ステップS522)。そして、判定部262は、対応領域D20におけるノイズ量指標値が所定の値より小さいか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する(ステップS524)。対応領域D20におけるノイズ量指標値が所定の値より小さい場合、判定部262は、可視光画像に対する画像処理を行わないと判定し(ステップS524/YES)、図18に示した処理は終了する。一方、対応領域D20におけるノイズ量指標値が所定の値より小さくない場合、判定部262は、可視光画像に対する画像処理を行うと判定し(ステップS524/NO)、画像処理部264は、算出された対応領域D20におけるノイズ量指標値に応じて、ノイズリダクション強度パラメータを算出する(ステップS526)。そして、画像処理部264は、当該パラメータに基づくノイズリダクション処理を行い(ステップS528)、図18に示した処理は終了する。
 可視光画像に対してノイズリダクション処理を行う場合において、可視光画像のノイズが抑制されることによって、可視光画像のボケが全体的に強調され得る。例えば、図5に示した可視光画像に対してノイズリダクション処理を行った場合において、図19に示すように、図5に示した可視光画像と比較して、可視光画像のボケが全体的に強調され得る。それにより、人B20を映す領域である対応領域D20におけるボケが強調され得る。一方、可視光画像に対する画像処理の第2の例によれば、制御部260は、可視光画像取得部154により取得された可視光画像のノイズを、人領域C20に対応する対応領域D20におけるノイズ量に基づいて抑制する画像処理を行うので、対応領域D20においてノイズを適切に抑制することができる。ゆえに、可視光画像において人B20が映る領域である対応領域D20のボケに関連する画質を向上させることができる。従って、可視光画像の画質を向上させることができる。
 また、可視光画像に対する画像処理の第2の例では、制御部260は、可視光画像において複数の対象領域にそれぞれ対応する複数の対応領域に対して、互いに異なるノイズリダクション強度パラメータに基づくノイズリダクション処理を行ってもよい。例えば、制御部260は、人が映る対応領域について、空が映る対応領域と比較して、ノイズ抑制の強度が弱いノイズリダクション強度パラメータに基づくノイズリダクション処理を行うことによって、可視光画像において人が映る領域のボケを抑制することができる。
 図20は、第2の実施形態に係る制御装置12が行う可視光画像に対する画像処理の第3の例の流れを示すフローチャートである。図20に示したように、可視光画像に対する画像処理の第3の例では、まず、判定部262は、図5に示した人領域C20に対応する対応領域D20におけるボケ量指標値を算出する(ステップS532)。そして、判定部262は、対応領域D20におけるボケ量指標値が所定の値より小さいか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する(ステップS534)。対応領域D20におけるボケ量指標値が所定の値より小さい場合、判定部262は、可視光画像に対する画像処理を行わないと判定し(ステップS534/YES)、図20に示した処理は終了する。一方、対応領域D20におけるボケ量指標値が所定の値より小さくない場合、判定部262は、可視光画像に対する画像処理を行うと判定し(ステップS534/NO)、画像処理部264は、算出された対応領域D20におけるボケ量指標値に応じて、ボケ抑制強度パラメータを算出する(ステップS536)。そして、画像処理部264は、当該パラメータに基づくデブラー処理を行い(ステップS538)、図20に示した処理は終了する。
 可視光線カメラ104による可視光画像の撮像において、被写体及び可視光線カメラ104の少なくとも1つが移動している場合、得られる可視光画像の被写体を映す領域にボケが生じ得る。例えば、図10に示したように、人B20及び可視光線カメラ104の少なくとも1つが移動している場合、可視光画像の人B20を映す領域にボケが生じ得る。ここで、可視光画像のボケを画像処理によって低減する場合において、ボケ抑制の強度が大きいほど、画像劣化の度合いが大きくなる。ゆえに、図10に示した可視光画像の人B20を映す領域である対応領域D20におけるボケを画像処理によって低減させる場合において、対応領域D20における画像が劣化することにより可視光画像の画質が低減し得る。一方、可視光画像に対する画像処理の第3の例によれば、制御部260は、可視光画像取得部154により取得された可視光画像のボケを、人領域C20に対応する対応領域D20におけるボケ量に基づいて低減し又は強調する画像処理を行うので、対応領域D20においてボケを適切に低減又は強調することができる。ゆえに、可視光画像において人B20が映る領域である対応領域D20のボケに関連する画質を向上させることができる。従って、可視光画像の画質を向上させることができる。
 また、可視光画像に対する画像処理の第3の例では、制御部260は、可視光画像の対応領域及び他の領域に対して、互いに異なるボケ抑制強度パラメータに基づくデブラー処理を行ってもよい。例えば、制御部260は、人が映る対応領域について、他の領域と比較して、ボケ抑制の強度が弱いボケ抑制強度パラメータに基づくデブラー処理を行うことによって、可視光画像において人が映る領域の画像劣化を抑制することができる。
 図21は、第2の実施形態に係る制御装置12が行う可視光画像に対する画像処理の第4の例の流れを示すフローチャートである。図21に示したように、可視光画像に対する画像処理の第4の例では、まず、判定部262は、図5に示した人領域C20に対応する対応領域D20における輝度指標値を算出する(ステップS542)。そして、判定部262は、対応領域D20における輝度指標値が所定の範囲内の値であるか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する(ステップS544)。対応領域D20における輝度指標値が所定の範囲内の値である場合、判定部262は、可視光画像に対する画像処理を行わないと判定し(ステップS544/YES)、図21に示した処理は終了する。一方、対応領域D20における輝度指標値が所定の範囲内の値でない場合、判定部262は、可視光画像に対する画像処理を行うと判定し(ステップS544/NO)、画像処理部264は、算出された対応領域D20における輝度指標値に応じて、トーンマップ曲線を算出する(ステップS546)。そして、画像処理部264は、当該トーンマップ曲線に基づくトーンマッピング処理を行い(ステップS548)、図21に示した処理は終了する。
 可視光画像において、輝度を調整する処理として、輝度ダイナミックレンジを調整する画像処理であるトーンマッピング処理を行う場合が考えられる。このような場合に、例えば、図5に示した可視光画像について特定のトーンマップ曲線を用いてトーンマッピング処理を行った場合、人B20を映す領域である対応領域D20における輝度が過度に高く又は過度に低くなり得る。一方、可視光画像に対する画像処理の第4の例によれば、制御部260は、可視光画像取得部154により取得された可視光画像の輝度ダイナミックレンジを、人領域C20に対応する対応領域D20における輝度に基づいて調整する画像処理を行うので、対応領域D20において輝度を適切に調整することができる。ゆえに、可視光画像において人B20が映る領域である対応領域D20の輝度に関連する画質を向上させることができる。従って、可視光画像の画質を向上させることができる。
 また、可視光画像に対する画像処理の第4の例では、制御部260は、可視光画像において該複数の対象領域にそれぞれ対応する複数の対応領域に対して、互いに異なるトーンマップ曲線に基づくトーンマッピング処理を行ってもよい。
 図22は、第2の実施形態に係る制御装置12が行う可視光画像に対する画像処理の第5の例の流れを示すフローチャートである。図22に示したように、可視光画像に対する画像処理の第5の例では、まず、判定部262は、図5に示した人領域C20に対応する対応領域D20におけるコントラスト指標値を算出する(ステップS552)。そして、判定部262は、対応領域D20におけるコントラスト指標値が所定の値より大きいか否かに応じて、可視光画像に対する画像処理を行うか否かを判定する(ステップS554)。対応領域D20におけるコントラスト指標値が所定の値より大きい場合、判定部262は、可視光画像に対する画像処理を行わないと判定し(ステップS554/YES)、図22に示した処理は終了する。一方、対応領域D20におけるコントラスト指標値が所定の値より大きくない場合、判定部262は、可視光画像に対する画像処理を行うと判定し(ステップS554/NO)、画像処理部264は、算出された対応領域D20におけるコントラスト指標値に応じて、コントラスト強度パラメータを算出する(ステップS556)。そして、画像処理部264は、当該コントラスト強度パラメータに基づくコントラスト強調処理を行い(ステップS558)、図22に示した処理は終了する。
 可視光画像における特定の領域のコントラストを強調することによって、当該可視光画像の画質を向上させることができる場合が考えられる。例えば、図5に示した可視光画像の人B20を映す領域である対応領域D20におけるコントラストが過度に低い場合に、対応領域D20のコントラストを強調することによって、当該可視光画像の画質を向上させ得る。可視光画像に対する画像処理の第5の例によれば、制御部260は、可視光画像取得部154により取得された可視光画像のコントラストを、人領域C20に対応する対応領域D20におけるコントラストに基づいて強調する画像処理を行うので、対応領域D20においてコントラストを適切に強調することができる。ゆえに、可視光画像において人B20が映る領域である対応領域D20のコントラストに関連する画質を向上させることができる。従って、可視光画像の画質を向上させることができる。
 また、可視光画像に対する画像処理の第5の例では、制御部260は、可視光画像において該複数の対象領域にそれぞれ対応する複数の対応領域に対して、互いに異なるコントラスト強度パラメータに基づくコントラスト強調処理を行ってもよい。
 以上、説明したように、第2の実施形態に係る制御装置12によれば、制御部260は、可視光画像取得部154により取得された可視光画像に対して、対応領域に基づいて、画像処理を行うことにより、当該可視光画像の画質を制御する。それにより、可視光画像における特定の領域の画質が向上するように可視光画像取得部154により取得された可視光画像に対して画像処理を行うことが可能である。ゆえに、可視光画像の画質を向上させることができる。
 <4.第3の実施形態>
 上述では、赤外線画像取得部152により取得された遠赤外画像から対象領域を抽出する例について説明した。以下では、可視光画像取得部154により取得された可視光画像を補足的に用いることにより、対象領域を抽出する第3の実施形態について説明する。
 第3の実施形態に係る制御装置14のハードウェア構成は、図2を参照して説明した制御装置10のハードウェア構成と同様であってもよい。図23は、第3の実施形態に係る制御装置14の機能構成の一例を示すブロック図である。図23に示したように、第3の実施形態に係る制御装置14において、抽出部458は、第1の実施形態に係る制御装置10と異なり、可視光画像取得部154から対象領域の抽出に補足的に用いる情報を取得する。
 第3の実施形態では、可視光画像取得部154は、取得した可視光画像を制御部160及び抽出部458へ出力する。第3の実施形態に係る抽出部458は、可視光画像取得部154により取得された可視光画像を補足的に用いることにより、対象領域を抽出し、抽出結果を制御部160へ出力する。なお、抽出部458が行う対象領域の抽出処理のために参照されるデータは記憶部156に記憶され得る。
 抽出部458は、遠赤外画像において、所定の温度範囲内の温度に対応する画素値を有する領域を対象領域の候補として検出し、当該対象領域の候補から、可視光画像における画素値の色差情報に基づいて、対象領域を抽出してもよい。例えば、抽出部458は、-20℃近傍の温度範囲内の温度に対応する画素値を有する領域を空が映る対象領域の候補として検出し、当該対象領域の候補のうち可視光画像において青色に近い色に対応する色差の画素値を有する領域を空が映る対象領域として抽出してもよい。また、抽出部458は、動物と比較して低い温度範囲内の温度に対応する画素値を有する領域を植物が映る対象領域の候補として検出し、当該対象領域の候補のうち可視光画像において緑色に近い色に対応する色差の画素値を有する領域を植物が映る対象領域として抽出してもよい。
 また、抽出部458は、可視光画像において略同一の色差の画素値を有する領域であって、遠赤外画像において互いに異なる温度に対応する画素値を有する領域を日陰領域及び日向領域として識別し、当該日陰領域及び日向領域をそれぞれ対象領域として抽出してもよい。
 第3の実施形態では、遠赤外画像に加えて、可視光画像を補足的に用いることにより、対象領域が抽出される。それにより、遠赤外画像のみから対象領域を抽出する場合と比較して、より精度良く対象領域を抽出することができる。また、第3の実施形態では、遠赤外画像に加えて、可視光画像を補足的に用いることにより、より多様な対象領域を抽出することができるので、より多様な対象領域に基づいて、可視光線カメラ104による可視光画像の撮像条件を設定することが可能である。
 上記では、可視光画像取得部154により取得された可視光画像を補足的に用いることにより、対象領域を抽出する抽出部458を、図4に示した第1の実施形態に係る制御装置10に対して適用した例について説明したが、このような抽出部458は、図14に示した第2の実施形態に係る制御装置12に対しても適用され得る。図24は、このような抽出部458を、図14に示した第2の実施形態に係る制御装置12に対して適用した制御装置14aの機能構成の一例を示すブロック図である。制御装置14aによれば、より多様な対象領域に基づいて、可視光画像取得部154により取得された可視光画像に対して画像処理を行うことができる。それにより、制御装置14aによれば、例えば、日陰領域及び日向領域を識別した上で、より適切にホワイトバランスの調整を行うことができる。
 なお、上述のような本開示の各実施形態に係る制御装置の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。各実施形態に係る制御装置は、本開示に係るコンピュータに相当し得る。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。また、各実施形態に係る制御装置の各機能は複数のコンピュータにより分割されてもよく、その場合、当該複数のコンピュータが有する各機能は、上記のコンピュータプログラムにより実現され得る。
 <5.応用例>
  [5-1.第1の応用例]
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボットなどのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図25は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム2000の概略的な構成例を示すブロック図である。車両制御システム2000は、通信ネットワーク2010を介して接続された複数の電子制御ユニットを備える。図25に示した例では、車両制御システム2000は、駆動系制御ユニット2100、ボディ系制御ユニット2200、バッテリ制御ユニット2300、車外情報検出ユニット2400、車内情報検出ユニット2500、及び統合制御ユニット2600を備える。これらの複数の制御ユニットを接続する通信ネットワーク2010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク2010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図25では、統合制御ユニット2600の機能構成として、マイクロコンピュータ2610、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660、音声画像出力部2670、車載ネットワークI/F2680及び記憶部2690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット2100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット2100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット2100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット2100には、車両状態検出部2110が接続される。車両状態検出部2110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット2100は、車両状態検出部2110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット2200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット2200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット2200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット2200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット2300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池2310を制御する。例えば、バッテリ制御ユニット2300には、二次電池2310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット2300は、これらの信号を用いて演算処理を行い、二次電池2310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット2400は、車両制御システム2000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット2400には、撮像部2410及び車外情報検出部2420のうちの少なくとも一方が接続される。撮像部2410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部2420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム2000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部2410及び車外情報検出部2420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図26は、撮像部2410及び車外情報検出部2420の設置位置の例を示す。撮像部2910,2912,2914,2916,2918は、例えば、車両2900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部2910及び車室内のフロントガラスの上部に備えられる撮像部2918は、主として車両2900の前方の画像を取得する。サイドミラーに備えられる撮像部2912,2914は、主として車両2900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部2916は、主として車両2900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部2918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図26には、それぞれの撮像部2910,2912,2914,2916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部2910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部2912,2914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部2916の撮像範囲を示す。例えば、撮像部2910,2912,2914,2916で撮像された画像データが重ね合わせられることにより、車両2900を上方から見た俯瞰画像が得られる。
 車両2900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2922,2924,2926,2928,2930は、例えば超音波センサ又はレーダ装置であってよい。車両2900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2926,2930は、例えばLIDAR装置であってよい。これらの車外情報検出部2920~2930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図25に戻って説明を続ける。車外情報検出ユニット2400は、撮像部2410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット2400は、接続されている車外情報検出部2420から検出情報を受信する。車外情報検出部2420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット2400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット2400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット2400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット2400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット2400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット2400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部2410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット2400は、異なる撮像部2410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット2500は、車内の情報を検出する。車内情報検出ユニット2500には、例えば、運転者の状態を検出する運転者状態検出部2510が接続される。運転者状態検出部2510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット2500は、運転者状態検出部2510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット2500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット2600は、各種プログラムにしたがって車両制御システム2000内の動作全般を制御する。統合制御ユニット2600には、入力部2800が接続されている。入力部2800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット2600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部2800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム2000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部2800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部2800は、例えば、上記の入力部2800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット2600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部2800を操作することにより、車両制御システム2000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部2690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部2690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F2620は、外部環境2750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F2620は、GSM(Global System of Mobile communications)(登録商標)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F2620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F2620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F2630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F2630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F2630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部2640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部2640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部2650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部2650の機能は、上述した専用通信I/F2630に含まれてもよい。
 車内機器I/F2660は、マイクロコンピュータ2610と車内に存在する様々な車内機器2760との間の接続を仲介する通信インタフェースである。車内機器I/F2660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F2660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器2760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器2760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F2660は、これらの車内機器2760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F2680は、マイクロコンピュータ2610と通信ネットワーク2010との間の通信を仲介するインタフェースである。車載ネットワークI/F2680は、通信ネットワーク2010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット2600のマイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム2000を制御する。例えば、マイクロコンピュータ2610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット2100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ2610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ2610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ2610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部2670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図25の例では、出力装置として、オーディオスピーカ2710、表示部2720及びインストルメントパネル2730が例示されている。表示部2720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部2720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ2610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図25に示した例において、通信ネットワーク2010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム2000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク2010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク2010を介して相互に検出情報を送受信してもよい。
 以上説明した車両制御システム2000において、図4を用いて説明した本開示の第1の実施形態に係る制御装置10は、図25に示した応用例の統合制御ユニット2600に適用することができる。例えば、制御装置10の制御部160及び抽出部158は、統合制御ユニット2600のマイクロコンピュータ2610に相当し、制御装置10の記憶部156は、統合制御ユニット2600の記憶部2690に相当し、制御装置10の赤外線画像取得部152及び可視光画像取得部154は、統合制御ユニット2600の車載ネットワークI/F2680に相当する。例えば、統合制御ユニット2600のマイクロコンピュータ2610が、車載ネットワークI/F2680により取得された遠赤外画像から対象領域を抽出し、車載ネットワークI/F2680により取得された可視光画像において当該対象領域に対応する対応領域に基づいて、可視光画像の画質を制御することによって、可視光画像の画質を向上させることができる。なお、図14を用いて説明した本開示の第2の実施形態に係る制御装置12及び図24を用いて説明した本開示の第3の実施形態に係る制御装置14も同様に、図25に示した応用例の統合制御ユニット2600に適用することができる。
 また、図4を用いて説明した制御装置10の少なくとも一部の構成要素は、図24に示した統合制御ユニット2600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図4を用いて説明した制御装置10が、図25に示した車両制御システム2000の複数の制御ユニットによって実現されてもよい。
 なお、図4を用いて説明した制御装置10の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
  [5-2.第2の応用例]
 本開示に係る技術は、内視鏡又は顕微鏡といった医療用観察装置として実現されてもよい。例えば、内視鏡下手術又は顕微鏡下手術(所謂、マイクロサージャリー)では、カメラにより撮像されモニタ上に表示される画像を通じて患部又は手術器具を観察しながら、手術のための様々な作業が行われる。
 図27は、医療用内視鏡により撮像され得る可視光画像3100を一例として示している。可視光画像3100には、患部3101を含む臓器3103に加えて、鉗子3111及びガーゼ3113が映っている。また、矩形の可視光画像3100の周縁部には、医療用内視鏡の鏡筒3121が映っている。このような可視光画像3100において、術者は、患部3101及びその近傍の様子を鮮明に観察することを望み得る。しかし、カメラの露出制御が例えば鉗子3111又はガーゼ3113の露出の度合いに基づいて行われた場合、患部3101について露出が最適にならず、患部3101の明るさが過剰となり又は不十分となることがある。また、カメラのオートフォーカス制御が同様に鉗子3111又はガーゼ3113の合焦度に基づいて行われた場合、患部3101に焦点が合わず患部3101の画像がボケてしまうことがある。
 ここで、可視光画像3100における臓器3103に対応する領域は、生体領域である。よって、本開示に係る技術に従い、この生体領域を、遠赤外画像において対象領域として抽出することができる。そして、抽出した対象領域に対応する、可視光画像3100における対応領域に基づいて可視光画像の撮像条件を制御することで、鉗子などの非生体物の存在に起因して患部の画像が不鮮明となることを防止することができる。
 図28は、図27に示した可視光画像3100に関連して遠赤外画像から抽出され得る対象領域の一例を示している。図28を参照すると、領域抽出結果3200において、画像領域の全体は、第1の部分領域3210、第2の部分領域3220、第3の部分領域3230及び第4の部分領域3240へと区分されている。第1の部分領域3210は、生体領域である。第2の部分領域3220、第3の部分領域3230及び第4の部分領域3240は、非生体領域である。例えば、第1の実施形態に係る制御装置10、第2の実施形態に係る制御装置12又は第3の実施形態に係る制御装置14は、臓器の温度範囲に関連する閾値を用いて、遠赤外画像から第1の部分領域3210を抽出し得る。第2の部分領域3220、第3の部分領域3230及び第4の部分領域3240は、他の閾値を用いて個々に区別されてもよく、又は区別されなくてもよい。鏡筒3121に対応する第4の部分領域3240は、画像処理に先立って処理対象から除外されてもよい。
 制御装置10、12又は14は、可視光画像3100における第1の部分領域3210に対応する対応領域に基づいて、露出の度合い又は合焦度などの内視鏡の撮像条件を制御することで、鮮明な患部の画像を確実に術者へ提供することができる。内視鏡の撮像条件を制御する代わりに、ホワイトバランス調整、ノイズ抑制、ボケ低減、ダイナミックレンジ調整又はコントラスト強調といった目的の画像処理が、内視鏡により撮像される画像について、上述した対応領域に基づいて行われてもよい。また、生体領域ではなく非生体領域(例えば、鉗子3111に対応する第2の部分領域3220)が、対象領域として抽出されてもよい。さらに、生体領域及び非生体領域のいずれを対象領域として扱うのかが、(例えば、術者により手術中に入力され得る)ユーザ入力に依存して動的に切り替えられてもよい。
 なお、本開示に係る技術が医療用観察装置として実現される場合、赤外線カメラ及び可視光線カメラと、カメラの制御及び画像処理を実行するプロセッサとは、例えばカメラヘッド及びカメラコントロールユニットといった、信号線を介して相互接続される物理的に別個の筐体にそれぞれ搭載されてもよい。
 <6.まとめ>
 以上説明したように、本開示の実施形態によれば、遠赤外画像から対象領域が抽出され、当該遠赤外画像と共通する被写体を映した可視光画像において当該対象領域に対応する対応領域に基づいて、可視光画像の画質が制御される。それにより、可視光画像における特定の領域の画質が向上するように可視光画像の画質を調整することができる。ゆえに、可視光画像の画質を向上させることが可能である。
 以上では、赤外線カメラ102により遠赤外画像が撮像され、可視光線カメラ104により可視光画像が撮像される例について説明したが、本開示の技術的範囲は、係る例に限定されない。例えば、赤外線を感知する撮像素子及び可視光線を感知する撮像素子の双方を含む配列を有するカメラを用いて、当該カメラによって遠赤外画像及び可視光画像が撮像されてもよい。
 なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。
 また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲は係る例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 遠赤外画像から対象領域を抽出する抽出部と、
 前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する制御部と、
 を備える、制御装置。
(2)
 前記制御部は、可視光画像の撮像条件を、前記対応領域に基づいて設定することによって、当該可視光画像の画質を制御する、前記(1)に記載の制御装置。
(3)
 前記制御部は、可視光画像に対して、前記対応領域に基づいて、画像処理を行うことにより、当該可視光画像の画質を制御する、前記(1)に記載の制御装置。
(4)
 前記制御部は、前記撮像条件として焦点距離を、前記対応領域における合焦度に基づいて設定する、前記(2)に記載の制御装置。
(5)
 前記制御部は、前記撮像条件としてシャッタ速度及び絞り値の少なくとも1つを、前記対応領域における輝度に基づいて設定する、前記(2)に記載の制御装置。
(6)
 前記制御部は、前記対応領域における色温度に基づいて、可視光画像のホワイトバランスを調整する画像処理を行う、前記(3)に記載の制御装置。
(7)
 前記制御部は、前記対応領域におけるノイズ量に基づいて、可視光画像のノイズを抑制する画像処理を行う、前記(3)に記載の制御装置。
(8)
 前記制御部は、前記対応領域におけるボケ量に基づいて、可視光画像のボケを低減し又は強調する画像処理を行う、前記(3)に記載の制御装置。
(9)
 前記制御部は、前記対応領域における輝度に基づいて、可視光画像の輝度ダイナミックレンジを調整する画像処理を行う、前記(3)に記載の制御装置。
(10)
 前記制御部は、前記対応領域におけるコントラストに基づいて、可視光画像のコントラストを強調する画像処理を行う、前記(3)に記載の制御装置。
(11)
 前記制御部は、可視光画像の前記対応領域及び他の領域に対して、互いに異なる処理条件で、画像処理を行う、前記(3)に記載の制御装置。
(12)
 前記抽出部は、可視光画像を補足的に用いることにより、前記対象領域を抽出する、前記(1)から(11)のいずれか一項に記載の制御装置。
(13)
 前記対象領域は、生体が映る生体領域である、前記(1)から(12)のいずれか一項に記載の制御装置。
(14)
 前記対象領域は、空が映る空領域である、前記(1)から(12)のいずれか一項に記載の制御装置。
(15)
 遠赤外画像から対象領域を抽出することと、
 制御装置によって、前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御することと、
 を含む制御方法。
(16)
 コンピュータを、
 遠赤外画像から対象領域を抽出する抽出部と、
 前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する制御部と、
 として機能させるためのプログラム。
10、12、14 制御装置
102 赤外線カメラ
104 可視光線カメラ
106 入力インタフェース
108 メモリ
110 ディスプレイ
112 通信インタフェース
114 ストレージ
116 プロセッサ
118 バス
152 赤外線画像取得部
154 可視光画像取得部
156 記憶部
158、458 抽出部
160、260 制御部
162、262 判定部
164 撮像条件設定部
264 画像処理部
2000 車両制御システム
2010 通信ネットワーク
2100 駆動系制御ユニット
2110 車両状態検出部
2200 ボディ系制御ユニット
2300 バッテリ制御ユニット
2310 二次電池
2400 車外情報検出ユニット
2410 撮像部
2420 車外情報検出部
2500 車内情報検出ユニット
2510 運転者状態検出部
2600 統合制御ユニット
2610 マイクロコンピュータ
2640 測位部
2650 ビーコン受信部
2670 音声画像出力部
2690 記憶部
2710 オーディオスピーカ
2720 表示部
2730 インストルメントパネル
2750 外部環境
2760 車内機器
2800 入力部
2900 車両
2910,2912,2914,2916,2918 撮像部
2920,2922,2924,2926,2928,2930 車外情報検出部

Claims (16)

  1.  遠赤外画像から対象領域を抽出する抽出部と、
     前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する制御部と、
     を備える、制御装置。
  2.  前記制御部は、可視光画像の撮像条件を、前記対応領域に基づいて設定することによって、当該可視光画像の画質を制御する、請求項1に記載の制御装置。
  3.  前記制御部は、可視光画像に対して、前記対応領域に基づいて、画像処理を行うことにより、当該可視光画像の画質を制御する、請求項1に記載の制御装置。
  4.  前記制御部は、前記撮像条件として焦点距離を、前記対応領域における合焦度に基づいて設定する、請求項2に記載の制御装置。
  5.  前記制御部は、前記撮像条件としてシャッタ速度及び絞り値の少なくとも1つを、前記対応領域における輝度に基づいて設定する、請求項2に記載の制御装置。
  6.  前記制御部は、前記対応領域における色温度に基づいて、可視光画像のホワイトバランスを調整する画像処理を行う、請求項3に記載の制御装置。
  7.  前記制御部は、前記対応領域におけるノイズ量に基づいて、可視光画像のノイズを抑制する画像処理を行う、請求項3に記載の制御装置。
  8.  前記制御部は、前記対応領域におけるボケ量に基づいて、可視光画像のボケを低減し又は強調する画像処理を行う、請求項3に記載の制御装置。
  9.  前記制御部は、前記対応領域における輝度に基づいて、可視光画像の輝度ダイナミックレンジを調整する画像処理を行う、請求項3に記載の制御装置。
  10.  前記制御部は、前記対応領域におけるコントラストに基づいて、可視光画像のコントラストを強調する画像処理を行う、請求項3に記載の制御装置。
  11.  前記制御部は、可視光画像の前記対応領域及び他の領域に対して、互いに異なる処理条件で、画像処理を行う、請求項3に記載の制御装置。
  12.  前記抽出部は、可視光画像を補足的に用いることにより、前記対象領域を抽出する、請求項1に記載の制御装置。
  13.  前記対象領域は、生体が映る生体領域である、請求項1に記載の制御装置。
  14.  前記対象領域は、空が映る空領域である、請求項1に記載の制御装置。
  15.  遠赤外画像から対象領域を抽出することと、
     制御装置によって、前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御することと、
     を含む制御方法。
  16.  コンピュータを、
     遠赤外画像から対象領域を抽出する抽出部と、
     前記遠赤外画像と共通する被写体を映した可視光画像において前記対象領域に対応する対応領域に基づいて、可視光画像の画質を制御する制御部と、
     として機能させるためのプログラム。
PCT/JP2016/079543 2016-01-15 2016-10-04 制御装置、制御方法及びプログラム WO2017122396A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016006363 2016-01-15
JP2016-006363 2016-01-15

Publications (1)

Publication Number Publication Date
WO2017122396A1 true WO2017122396A1 (ja) 2017-07-20

Family

ID=59311155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/079543 WO2017122396A1 (ja) 2016-01-15 2016-10-04 制御装置、制御方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2017122396A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111186377A (zh) * 2018-11-14 2020-05-22 株式会社小糸制作所 红外线相机系统、红外线相机模块以及车辆
JP2021004024A (ja) * 2019-06-26 2021-01-14 ダイキョーニシカワ株式会社 車両用距離センサの取付構造
CN116723412A (zh) * 2023-08-10 2023-09-08 四川玉米星球科技有限公司 一种照片中背景光影均化方法及文本拍摄扫描系统
WO2023176116A1 (ja) * 2022-03-16 2023-09-21 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2024203228A1 (ja) * 2023-03-29 2024-10-03 富士フイルム株式会社 焦点制御装置及び方法、並びに撮像装置、プログラム及び記録媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005197914A (ja) * 2004-01-06 2005-07-21 Fuji Photo Film Co Ltd 顔画像認識装置及びそれを備えたデジタルカメラ
JP2005354130A (ja) * 2004-06-08 2005-12-22 Olympus Corp 撮像処理システム、プログラム及び記憶媒体
JP2007325145A (ja) * 2006-06-05 2007-12-13 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2008052428A (ja) * 2006-08-23 2008-03-06 Nikon Corp 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP2009134383A (ja) * 2007-11-29 2009-06-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2009239903A (ja) * 2008-03-05 2009-10-15 Semiconductor Energy Lab Co Ltd 画像処理方法、画像処理システム、およびコンピュータプログラム
JP2015022716A (ja) * 2013-07-23 2015-02-02 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005197914A (ja) * 2004-01-06 2005-07-21 Fuji Photo Film Co Ltd 顔画像認識装置及びそれを備えたデジタルカメラ
JP2005354130A (ja) * 2004-06-08 2005-12-22 Olympus Corp 撮像処理システム、プログラム及び記憶媒体
JP2007325145A (ja) * 2006-06-05 2007-12-13 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2008052428A (ja) * 2006-08-23 2008-03-06 Nikon Corp 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP2009134383A (ja) * 2007-11-29 2009-06-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2009239903A (ja) * 2008-03-05 2009-10-15 Semiconductor Energy Lab Co Ltd 画像処理方法、画像処理システム、およびコンピュータプログラム
JP2015022716A (ja) * 2013-07-23 2015-02-02 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111186377A (zh) * 2018-11-14 2020-05-22 株式会社小糸制作所 红外线相机系统、红外线相机模块以及车辆
WO2020100656A1 (ja) * 2018-11-14 2020-05-22 株式会社小糸製作所 赤外線カメラシステム、赤外線カメラモジュール及び車両
JPWO2020100656A1 (ja) * 2018-11-14 2021-10-07 株式会社小糸製作所 赤外線カメラシステム、赤外線カメラモジュール及び車両
JP2021004024A (ja) * 2019-06-26 2021-01-14 ダイキョーニシカワ株式会社 車両用距離センサの取付構造
JP7356286B2 (ja) 2019-06-26 2023-10-04 ダイキョーニシカワ株式会社 車両用距離センサの取付構造
WO2023176116A1 (ja) * 2022-03-16 2023-09-21 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2024203228A1 (ja) * 2023-03-29 2024-10-03 富士フイルム株式会社 焦点制御装置及び方法、並びに撮像装置、プログラム及び記録媒体
CN116723412A (zh) * 2023-08-10 2023-09-08 四川玉米星球科技有限公司 一种照片中背景光影均化方法及文本拍摄扫描系统
CN116723412B (zh) * 2023-08-10 2023-11-10 四川玉米星球科技有限公司 一种照片中背景光影均化方法及文本拍摄扫描系统

Similar Documents

Publication Publication Date Title
JP7014218B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7147562B2 (ja) 測光装置、測光方法、プログラムおよび撮像装置
US20200344421A1 (en) Image pickup apparatus, image pickup control method, and program
JP7024782B2 (ja) 画像処理装置と画像処理方法および撮像装置
JP2018117309A (ja) 撮像装置、画像処理方法および画像処理システム
JP7020434B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20210350570A1 (en) Image processing device, image processing method, and program
WO2017122396A1 (ja) 制御装置、制御方法及びプログラム
US11119633B2 (en) Information processing device and method
WO2018003245A1 (ja) 信号処理装置、撮像装置、及び信号処理方法
WO2020202965A1 (ja) 撮像レンズおよび撮像装置
US11272113B2 (en) Control apparatus and control method for exposure adjustment
WO2018100992A1 (ja) 撮像光学系、カメラモジュール、及び、電子機器
JP6981416B2 (ja) 画像処理装置と画像処理方法
WO2019111529A1 (ja) 画像処理装置および画像処理方法
WO2021117497A1 (ja) 撮像レンズおよび撮像装置
US11470295B2 (en) Signal processing device, signal processing method, and imaging device
US10791287B2 (en) Imaging control apparatus and method, and vehicle
KR20200119790A (ko) 인식 장치와 인식 방법 그리고 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16884999

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16884999

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP