WO2017209089A1 - 機器制御装置及び機器制御方法 - Google Patents
機器制御装置及び機器制御方法 Download PDFInfo
- Publication number
- WO2017209089A1 WO2017209089A1 PCT/JP2017/020000 JP2017020000W WO2017209089A1 WO 2017209089 A1 WO2017209089 A1 WO 2017209089A1 JP 2017020000 W JP2017020000 W JP 2017020000W WO 2017209089 A1 WO2017209089 A1 WO 2017209089A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- human
- region
- unit
- device control
- thermal image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 96
- 238000001514 detection method Methods 0.000 claims abstract description 148
- 230000004060 metabolic process Effects 0.000 claims abstract description 47
- 230000036760 body temperature Effects 0.000 claims description 53
- 238000004891 communication Methods 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 25
- 210000000577 adipose tissue Anatomy 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 16
- 230000001815 facial effect Effects 0.000 description 16
- 230000037323 metabolic rate Effects 0.000 description 10
- 230000037396 body weight Effects 0.000 description 8
- 210000003128 head Anatomy 0.000 description 8
- 238000001931 thermography Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 6
- 238000004378 air conditioning Methods 0.000 description 4
- 230000012447 hatching Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24F—AIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
- F24F11/00—Control or safety arrangements
- F24F11/30—Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24F—AIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
- F24F11/00—Control or safety arrangements
- F24F11/62—Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
- A61B5/015—By temperature mapping of body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4866—Evaluating metabolism
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4869—Determining body composition
- A61B5/4872—Body fat
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/0022—Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
- G01J5/0025—Living bodies
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/02—Constructional details
- G01J5/025—Interfacing a pyrometer to an external device or network; User interface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D23/00—Control of temperature
- G05D23/19—Control of temperature characterised by the use of electric means
- G05D23/1917—Control of temperature characterised by the use of electric means using digital means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/12—Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24F—AIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
- F24F2120/00—Control inputs relating to users or occupants
- F24F2120/10—Occupancy
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J2005/0077—Imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Definitions
- the present invention relates to a device control device and a device control method for detecting a human feature and controlling the device according to the detected feature.
- Patent Document 1 calculates a basal metabolic rate of a user at the time of air conditioning based on the weight of the user and a date at the time of air conditioning, and detecting means for detecting the calculated basal metabolic rate and the state of the air-conditioned space Describes an air conditioner that includes a control unit that calculates a comfort index based on the detection result from the sensor and performs control based on the calculated comfort index.
- Patent Document 2 is a vending machine equipped with a camera, a thermography, a temperature sensor, and a watch.
- the gender and age group of the purchaser are obtained based on the face image taken by the camera, and the thermography is used.
- the body temperature is obtained based on the measured purchaser's face temperature and the ambient temperature measured by the temperature sensor, and the season and time zone are obtained based on the time obtained from the clock, and the purchaser's gender, age group, body temperature and
- a vending machine is described that preferentially displays products to be displayed according to the external environment and purchaser's individual condition, by determining products for displaying images on a display device based on seasons and time zones.
- Patent Document 3 extracts the moving object in the image by comparing the initial image in the elevator with the current image, and determines the crowd of the number of people and the place from the size and number of the moving object mass.
- An elevator operation control device that identifies and efficiently controls an elevator based on the information is described.
- Patent Document 4 obtains a body center of gravity by performing distance conversion on a human region obtained by photographing a human body with an infrared camera and thresholding a thermal image with an image processing device. After obtaining the upper body tilt angle from the upper body principal axis of the upper part, the human body's top, hand, and toe features are obtained, and the position of the elbow and knee is learned using a genetic algorithm. Describes the method.
- Patent Document 5 discloses a method for estimating a three-dimensional posture of a person by creating a binary image from a plurality of color images captured from different directions by a plurality of color cameras and detecting feature points based on the binary image. Is described.
- JP-A-7-103544 for example, paragraph 0006
- JP 2011-203952 A for example, paragraphs 0007-0012
- JP-A-5-155539 for example, paragraphs 0005-0006
- Japanese Patent Laid-Open No. 10-258044 for example, paragraphs 0006-0008
- Japanese Patent Laid-Open No. 2001-5993 for example, paragraph 0006
- the air conditioner described in Patent Document 1 inputs the body weight and calculates the basal metabolism from only the body weight, the basal metabolism cannot be accurately calculated, and the device cannot be optimally controlled by the user. was there.
- the vending machine described in Patent Document 2 has a problem that when the body temperature is obtained from thermography, the user needs to stand at a position where the user's face is reflected in a size larger than a specific size.
- the elevator operation control device described in Patent Document 3 has a problem that it requires a large amount of calculation and memory in order to compare the initial image and the image at the time of control.
- the human body posture estimation method described in Patent Document 4 has a problem in that it requires a large amount of calculation and memory because it sequentially estimates body parts in order to extract a human region.
- the method for estimating the three-dimensional posture of a person described in Patent Document 5 requires a plurality of cameras for photographing from different directions with a plurality of color cameras, and uses a plurality of color images, so that a large amount of calculation is required. In addition, there is a problem of requiring memory.
- the present invention has been made to solve the above-described problems, and an apparatus control device capable of improving the detection accuracy while reducing the amount of calculation and the storage capacity required for the memory, and An object is to provide a device control method.
- An apparatus control apparatus is provided with a human region detection unit that receives a thermal image corresponding to an object to be photographed and detects a human region that is a region occupied by a person in the thermal image, and the human region in the thermal image.
- a human feature detection unit that calculates a basal metabolism of a person from a thermal image portion; and a first device control unit that controls a device based on the basal metabolism of the person detected by the human feature detection unit.
- the apparatus control method includes a human region detection step of detecting a human region, which is a region occupied by a person in the thermal image, by inputting a thermal image corresponding to an object to be photographed, and the human region in the thermal image.
- a human feature detection step for calculating a human basal metabolism from the thermal image portion; and a device control step for controlling the device based on the human basal metabolism detected by the human feature detection step.
- the device control apparatus and the device control method according to the present invention it is possible to obtain the effect of improving the detection accuracy while reducing the amount of calculation and the storage capacity required for the memory.
- FIG. 1 It is a block diagram which shows the structure of the apparatus control apparatus which concerns on Embodiment 1 of this invention.
- A is a figure which shows the face candidate area
- (b) is a body temperature area
- (c) is the human area which the human area
- D is a figure which shows the information which a human area extraction part outputs to a human feature detection part in the thermal image produced
- FIG. 3 is a flowchart showing an operation of a human region detection unit in the first embodiment. It is a block diagram which shows the structure of the apparatus control apparatus which concerns on Embodiment 2 of this invention.
- 10 is a flowchart showing the operation of the human feature detection unit in the second embodiment.
- FIG. 10 is a diagram for illustrating an operation of a posture estimation unit in the second embodiment.
- 10 is a flowchart showing an operation of a height and weight estimation unit in the second embodiment.
- FIG. 11 is a diagram for illustrating an operation of a clothing amount estimation unit in the second embodiment.
- FIG. It is a block diagram which shows the structure of the apparatus control apparatus which concerns on Embodiment 3 of this invention.
- It is a hardware block diagram which shows the structure of the modification of the apparatus control apparatus which concerns on Embodiment 1-3.
- the device control apparatus detects a region of a predetermined part of a human body from a visible light image acquired by a visible light camera.
- the predetermined portion is described as a “face”, but the predetermined portion is not limited to this, and the head, that is, a portion above the neck, and a portion where the skin is not exposed, such as hair. It may be a part of a person's body including or a hand. Further, it may be a non-human animal such as a pet. However, in the case of a pet, calculation of basal metabolism, which will be described later, needs to specify the type of animal that is a pet from a visible light image and use the basal metabolism calculation formula of the animal.
- FIG. 1 is a block diagram showing a configuration of device control apparatus 100 according to Embodiment 1 of the present invention.
- the device control apparatus 100 includes a thermal image camera 1, a visible light camera 2, a human region detection unit 3, a human feature detection unit 4, and a first device.
- a device control unit 5 as a control unit.
- the human region detection unit 3 includes a body temperature region detection unit 31, a face detection unit 32 as a predetermined part detection unit, a face coordinate conversion unit 33 as a predetermined part coordinate conversion unit, and a human region extraction unit 34.
- the thermal image camera 1 captures an object to be photographed, generates a thermal image (thermal image data) D1 corresponding to the object to be photographed, and outputs the thermal image to the human region detection unit 3.
- the visible light camera 2 captures an object to be photographed, generates a visible light image (visible light image data) D2 corresponding to the object to be photographed, and outputs the visible light image D2 to the human region detection unit 3.
- the human region detection unit 3 detects a person from the thermal image D1 input from the thermal image camera 1 and the visible light image D2 input from the visible light camera 2, and a thermal image of the human region that is a region where the person exists.
- D34, the face coordinates C34 as the predetermined part coordinates in the thermal image D1, and the face image (face image data) D32 of the visible light image D2 are output to the human feature detection unit 4.
- the thermal image D1 generated by the thermal image camera 1 is input to the body temperature region detection unit 31 of the human region detection unit 3, and the visible light image D2 generated by the visible light camera 2 is the face detection of the human region detection unit 3. Input to the unit 32.
- the body temperature region detection unit 31 detects the face candidate region D31a and the human candidate region D31b as predetermined region candidate regions from the temperature distribution in the thermal image D1 input from the thermal image camera 1, and outputs them to the human region extraction unit 34.
- the face candidate area D31a is an area that is a candidate for an area occupied by a human face in the thermal image D1.
- the person candidate area D31b is an area that is a candidate for an area occupied by a person in the thermal image D1.
- the face detection unit 32 detects a face from the visible light image D2 input from the visible light camera 2, outputs face coordinates C32 indicating the detected face position to the face coordinate conversion unit 33, and also from the visible light image D2.
- the face image D32 obtained by cutting out only the detected face area is output to the human feature detection unit 4.
- the face coordinate conversion unit 33 uses the stored coordinate conversion formula or conversion table or the like to store the facial coordinate C32 in the visible light image D2 input from the face detection unit 32 using the thermal image camera 1.
- the face image C1 is converted into face coordinates C34 in the acquired thermal image D1, and output to the human area extraction unit 34 as face area information.
- the human region extraction unit 34 extracts a human region in the thermal image D1 from the human candidate region D31b and the face candidate region D31a input from the body temperature region detection unit 31 and the face coordinates C34 input from the face coordinate conversion unit 33. Then, the thermal image D34 of the human region is cut out and output to the human feature detection unit 4, and the face coordinates C34 in the thermal image D1 are output to the human feature detection unit 4.
- the human feature detection unit 4 detects a human feature from the face image D32 of the visible light image D2 input from the human region detection unit 3, the thermal image D34 of the human region, and the facial coordinates C34 in the thermal image D1,
- the human characteristic value D4 is output to the device control unit 5.
- the device control unit 5 determines a control method for the device to be controlled based on the human feature value D4 input from the human feature detection unit 4, and outputs a control signal for controlling the device.
- the thermal image camera 1 and the visible light camera 2 are installed in a device provided in a room, for example, and are arranged at a position where a space such as a room where a user of the device is present can be taken from the same direction.
- the thermal image camera 1 includes a sensor for detecting heat, such as an infrared sensor, and generates a thermal image D1 indicating the temperature distribution of the photographed space.
- the visible light camera 2 includes a sensor that senses visible light, such as a CCD (Charge-Coupled Device) sensor, and captures a visible light image D2 by photographing the same space as that captured by the thermal image camera 1. Generate.
- the thermal image D1 generated by the thermal image camera 1 and the visible light image D2 generated by the visible light camera 2 are input to the human region detection unit 3.
- the thermal imaging camera 1 and the visible light camera 2 have the same timing.
- an error in the photographing timing is allowed for a time (for example, about 1 second) that does not significantly change the orientation and position of the person who is the object to be photographed.
- FIG. 2A is a diagram showing a face candidate region D31a detected by the body temperature region detection unit 31 in the thermal image D1 generated by the thermal image camera 1.
- FIG. 2B is a diagram showing a candidate human region D31b detected by the body temperature region detection unit 31 in the thermal image D1 generated by the thermal image camera 1.
- the hatching in the figure represents the temperature of the object to be photographed. The higher the temperature, the thinner the hatched area (the area close to white), and the lower the temperature, the darker the hatched area (the area close to black). .
- the areas a1, a2, a3, and a4 in FIG. 2A indicate the face candidate area D31a detected by the body temperature area detection unit 31 from the thermal image D1.
- the face candidate area D31a is an area that is a candidate for an area occupied by a human face in the thermal image D1.
- the area a1 is an area occupied by illumination (lighting equipment) provided on the ceiling
- the areas a2, a3, and a4 are areas occupied by human faces. That is, in the example shown in FIG. 2A, the regions that are correctly detected as the face candidate region D31a by the body temperature region detection unit 31 are the regions a2, a3, and a4.
- regions b1, b2, b3, b4, and b5 indicate human candidate regions D31b detected by the body temperature region detection unit 31.
- the person candidate area D31b is an area that is a candidate for an area occupied by a person in the thermal image D1.
- the area b1 is an area occupied by lighting provided on the ceiling
- the areas b2, b4, and b5 are areas occupied by people
- the area b3 is an area occupied by windows. It is. That is, in FIG. 2B, the regions correctly detected as the human candidate region D31b by the body temperature region detection unit 31 are the regions b2, b4, and b5.
- FIG. 2C is a diagram showing the face area indicated by the face area information and the human area extracted by the human area extracting unit 34 in the thermal image D1 generated by the thermal image camera 1.
- Areas c1, c2, and c3 indicated by broken lines in FIG. 2C are face areas indicated by face area information (face coordinates C34) input from the face coordinate conversion unit 33.
- Regions d1, d2, and d3 indicated by solid lines in FIG. 2C are thermal images D34 of the human region extracted by the human region extraction unit 34.
- the human area extracting unit 34 inputs the face area (area c1, c2, c3), the face candidate area D31a (area a1, a2, a3, a4), and the human candidate area D31b (area b1, b2, b3, b4). Based on b5), the human regions shown in the regions d1, d2, and d3 in FIG. 2C are extracted. As shown in FIG. 2 (c), the face candidate area D31a and the human candidate area D31b detected in FIGS. 2 (a) and 2 (b), which are areas that are not correctly detected (the above-mentioned a1, b1, b3) ) Is not detected as a human area.
- FIG. 2 (d) is a diagram showing information that the human region extraction unit 34 outputs to the human feature detection unit 4 in the thermal image D ⁇ b> 1 generated by the thermal image camera 1.
- Regions d1, d2, and d3 in FIG. 2D are the same as the regions d1, d2, and d3 in FIG. 2C, and indicate the human regions extracted by the human region extraction unit 34.
- e1, e2, e3 indicate the face areas specified by the human area extracting unit 34.
- the human area extracting unit 34 specifies the face area in the human area using the face candidate area D31a.
- the human region extraction unit 34 uses the identified thermal image of the human region and the facial region and information (face coordinates C34) indicating the position of the facial region, for example, the upper right and lower left corner coordinates of the facial region. Output to 4.
- FIG. 3 is a flowchart showing the operation of the human area detection unit 3 in the first embodiment.
- the operation of the human region detection unit 3 will be described with reference to FIG.
- the visible light image D2 generated by the visible light camera 2 is input to the face detection unit 32, and the face detection unit 32 detects the human face region from the visible light image D2.
- the face detection unit 32 detects face coordinates C32 (for example, the upper left corner of the face area) indicating the position of the face area in which the circumscribed rectangle (the broken line rectangle in FIG. 2C) including the face is detected from the visible light image D2.
- step S1 the face detection unit 32 outputs information indicating that the face coordinate C32 does not exist to the face coordinate conversion unit 33, or outputs nothing.
- the face coordinate conversion unit 33 checks whether or not there is an input of the face coordinate C32 of the visible light image D2 (step S2). If the input of face coordinate C32 of visible light image D2 is confirmed (YES in step S2), the process proceeds to step S3, and the input of face coordinate C32 of visible light image D2 is not confirmed (NO in step S2). The process proceeds to step S4. In step S3, the face coordinate conversion unit 33 converts the face coordinates C32 of the visible light image D2 into the face coordinates C34 of the thermal image D1, and the process proceeds to step S4.
- the face coordinate conversion unit 33 holds in advance information on the imaging range of the thermal image camera 1 and the imaging range of the visible light camera 2, and each pixel of the visible light image D2 obtained by capturing the visible light image D2 is a thermal image. It can be calculated which pixel of the thermal image D1 photographed by the camera 1 corresponds.
- the body temperature region detection unit 31 detects the face candidate region D31a and the human candidate region D31b from the thermal image D1 input from the thermal image camera 1.
- the human body surface temperature varies somewhat with room temperature, but is within a certain range.
- the center of the body is almost constant at 37 degrees, the temperature of the body surface (body surface) is slightly lower than that of the center of the body, and the surface of the face is 30 ° C. to 37 ° C.
- the temperature at the end of the limb with the lowest body surface temperature is about 28 ° C.
- the room temperature is high, the temperature difference between the body surface temperature and the temperature at the center of the body is small, and when the room temperature is low, the temperature difference is large.
- the body temperature region detection unit 31 detects the temperature range from 30 ° C. to 37 ° C. as the face candidate region D 31 a. In addition, the body temperature region detection unit 31 detects a region having a temperature (for example, 20 ° C. to 37 ° C.) in consideration of the surface temperature lowered by the clothing as the body surface temperature from 28 ° C. to 37 ° C. as the human candidate region D31b.
- the body temperature region detection unit 31 performs processing on the detected face candidate region D31a in the order of expansion processing and contraction processing (step S5). Thereby, it is possible to prevent the detection accuracy of the face area from being lowered due to the influence of an object mounted on the face such as glasses or uneven temperature of the face surface. Furthermore, the body temperature region detection unit 31 excludes a shape that is clearly not a face from the face candidate region D31a in step S6. When the face shape is reflected in the thermal image D1 so that both eyes can be seen, the shape is round. Using this, the body temperature region detection unit 31 determines that the face candidate region D31a that is not round is not a face.
- Whether or not the shape of the face shown in the face candidate area D31a detected from the thermal image D1 is round is determined by, for example, the method described below. That is, the ratio of the region indicating the face temperature (30 ° C. to 37 ° C.) to the area of the circumscribed rectangle including the face candidate region D31a is 75% or more, and the aspect ratio of the circumscribed rectangle is 1: 2 to 2: 1. If it is within the range, it is determined to be round, and otherwise it is not round. In addition, the numerical value used for determining whether it is round is only an example, and it is not limited to this as long as it does not deviate significantly from these values.
- the determination that the face shape is round may be made from the unevenness of the face contour shape.
- the body temperature area detecting unit 31 performs the expansion process and the contraction process on the human candidate area D31b in the order of the expansion process and the contraction process (step S7).
- the human candidate area D31b to be processed at this time is limited to the human candidate area D31b including the face candidate area D31a after the process of step S6.
- the human region extraction unit 34 extracts a human region in the thermal image D1 from the human candidate region D31b and the face candidate region D31a input from the body temperature region detection unit 31 and the face coordinate C34 input from the face coordinate conversion unit 33. Then, the thermal image D34 of the human region cut out from the thermal image D1 and the face coordinates C34 in the thermal image are output to the human feature detection unit 4 (from step S8 to step S11). The processing from step S8 to step S11 is performed one by one for all the human candidate regions input from the body temperature region detection unit 31.
- the human area extracting unit 34 determines whether or not there is an area indicating the human candidate area D31b and the face area information (face coordinates C34) in step S8. If there is a person candidate area D31b and an area indicating face area information (YES in step S8), the human area extraction unit 34 determines that the person candidate area D31b may be a person showing a face. Then, the process proceeds to step S9. When there is no person candidate area D31b and no area indicating face area information (NO in step S8), the human area extraction unit 34 cannot detect a face from the visible light image D2, but the human candidate area D31b is human-capable. The process proceeds to step S11.
- the face area information is information obtained by converting information on the position of the face area detected from the visible light image D2 into information on the position of the face area in the thermal image D1, for example, the upper right corner of the circumscribed rectangle including the face.
- the information related to the position of the face area may be the coordinates of one corner of the circumscribed rectangle including the face, and the vertical and horizontal lengths.
- step S9 the human region extraction unit 34 determines whether the face candidate region D31a in the human candidate region D31b matches the position of the face detected from the visible light image D2, and thus the face candidate region D31a and the face region. It is determined whether there is an area indicating information.
- the human area extracting unit 34 determines that the human candidate area D31b is a person who has a face and performs the process in step S10. Proceed to
- the human area extracting unit 34 When the face candidate area D31a and the area indicating the face area information do not exist (NO in step S9), the human area extracting unit 34 has an object in the shape of a human face, but the body temperature is the temperature of the human face. Therefore, it is determined that the person is not a person, and the process proceeds to step S12.
- the case where the face is detected from the visible light image D2 and the face candidate area D31a is not detected from the thermal image D1 is a doll. If the face is similar to the face and the face is detected incorrectly, most of the face is covered. For example, the face candidate region D31a may not be detected from the thermal image D1 with a hat, goggles, and a mask.
- the human area extraction unit 34 selects the face candidate area D31a detected from the thermal image D1 in step S11. It is determined whether the person is a person from the person candidate area D31b. Therefore, the human region extraction unit 34 uses the area ratio of the face candidate region D31a in the human candidate region D31b. The ratio of the face size to the body size of the person including the face is included in a certain range.
- the human region extraction unit 34 indicates that the human candidate region D31b is a region where a person exists. And the process proceeds to step S10.
- the human area extracting unit 34 determines that the human candidate area D31b is a person. It is determined that the area does not exist, and the process proceeds to step S12.
- the numerical value given as the area ratio between the human candidate region D31b and the facial candidate region D31a is merely an example, and other numerical ranges are adopted as the ratio of the face size to the human body size including the face. Also good.
- the human region extraction unit 34 uses the human candidate region D31b determined to be a region where a person exists in steps S9 and S11 as a human region, cuts out the human region from the thermal image D1, and cuts out the human region Is output to the human feature detection unit 4, and the face candidate region D 31 a is set as the face region, and information indicating the face region is output to the human feature detection unit 4.
- the information indicating the face area is information indicating the position of a circumscribed rectangle that includes the face area. For example, the face coordinates of the upper right corner and the lower left corner of the circumscribed rectangle are used. Further, the coordinates of one corner of the circumscribed rectangle and the vertical and horizontal lengths of the circumscribed rectangle may be used.
- step S12 the human region extraction unit 34 determines whether there is a human candidate region D31b in which the processing from step S8 to step S11 has not been completed, and if there is an unprocessed human candidate region D31b (step S12). In step S8, the process returns to step S8. If there is no unprocessed human candidate region D31b (NO in step S12), the operation of the human region detection unit 3 is completed, and the human region detection unit 3 determines that the next thermal image D1 and visible light image D2 are Wait for input.
- the human feature detection unit 4 detects the human feature using the thermal image D34 of the human region output from the human region detection unit 3, the information indicating the facial region, and the facial image D32 of the visible light image D2.
- the characteristics of a person are, for example, sex, age, basal metabolism, body fat percentage, posture, body temperature, and amount of clothes. These feature values are input to the device control unit 5.
- the device control unit 5 determines a device control method based on the human characteristics input from the human feature detection unit 4 and controls the device according to the control method.
- the visible camera and the thermal image camera are images obtained by respectively obtaining images in which the vertical direction is perpendicular to the ground and the horizontal direction is horizontal to the ground.
- the image and the thermal image camera are installed in the position and the direction in which the image shown in FIG.
- an image may be acquired with a lens capable of photographing a wide angle, for example, a fisheye lens.
- a lens capable of photographing a wide angle for example, a fisheye lens.
- the way the face is reflected is different from the case described in the first embodiment.
- ⁇ 1-3 Effect According to the device control apparatus 100 and the device control method according to the first embodiment, since a person is detected using one thermal image and one visible light image D2, the thermal image D1 Compared with the case where a person is detected from only one of the visible light image D2 and the amount of calculation required for detection can be reduced, and the memory capacity for storing thermal image data and visible light image data is reduced. The effect that a small thing can be used is acquired.
- the face candidate region D31a detected from the thermal image D1 using the face temperature characteristic and the face region detected from the visible light image D2 are used. Therefore, since the human area is detected, an effect that the area occupied by the person in the thermal image D1 can be accurately detected is obtained.
- FIG. 4 is a block diagram showing a configuration of device control apparatus 200 according to Embodiment 2 of the present invention. 4, components that are the same as or correspond to the components shown in FIG. 1 (Embodiment 1) are assigned the same reference numerals as those shown in FIG.
- the device control apparatus 200 according to the second embodiment is different from the device control apparatus 100 according to the first embodiment in the configuration of the human feature detection unit 4a.
- the device control apparatus 200 includes a thermal image camera 1, a visible light camera 2, a human region detection unit 3, a human feature detection unit 4 a, and a device control unit 5.
- the human feature detection unit 4a includes a posture estimation unit 41, a height and weight estimation unit 42, a gender age estimation unit 43, a basal metabolism calculation unit 44, a body fat percentage estimation unit 45, a clothing amount estimation unit 46, and a body temperature.
- An estimation unit 47 and a human feature management unit 48 are provided.
- the thermal image camera 1 captures an object to be photographed, generates a thermal image D1 corresponding to the object to be photographed, and outputs the thermal image D1 to the human region detection unit 3.
- the visible light camera 2 captures an object to be photographed, generates a visible light image D2 corresponding to the object to be photographed, and outputs the visible light image D2 to the human region detection unit 3.
- the human region detection unit 3 detects a human region that is a region occupied by a person in the thermal image D1, based on the thermal image D1 input from the thermal image camera 1 and the visible light image D2 input from the visible light camera 2. Then, the thermal image D34 of the human region, information indicating the position of the facial region (face coordinates C34), and the facial image D32 of the visible light image D2 are input to the human feature detection unit 4a.
- the human region thermal image D34 and the facial coordinates C34 output from the human region detection unit 3 are the posture estimation unit 41, the height / weight estimation unit 42, the basal metabolism calculation unit 44, and the body fat percentage estimation unit 45 of the human feature detection unit 4a. Are input to the clothing amount estimation unit 46 and the body temperature estimation unit 47.
- the face image D32 of the visible light image D2 output from the human region detection unit 3 is input to the gender age estimation unit 43 of the human feature detection unit 4a.
- the posture estimation unit 41 estimates the posture based on the thermal image D34 of the human region and the face coordinates C34 in the thermal image, and the posture D41 that is the estimation result is used for the height / weight estimation unit 42, the clothing amount estimation unit 46, and the body temperature estimation unit 47. And to the human feature management unit 48.
- the height / weight estimation unit 42 is input from the human region thermal image D 34 input from the human region detection unit 3, facial coordinates C 34 in the thermal image, posture D 41 input from the posture estimation unit 41, and gender age estimation unit 43. Based on the sex and age D43, the height and weight are estimated, and the height and weight D42 are output to the body fat percentage estimation unit 45 and the basal metabolism calculation unit 44.
- the gender age estimation unit 43 estimates gender and age from the face image D32 of the visible light image D2, and outputs the estimated gender and age D43 to the height weight estimation unit 42, the basal metabolism calculation unit 44, and the human feature management unit 48. To do.
- the basal metabolism calculation unit 44 calculates the basal metabolism D44 using the gender and age D43 input from the gender age estimation unit 43 and the height and weight D42 input from the height and weight estimation unit 42, and calculates the calculated basal metabolism.
- the amount D44 is output to the human feature manager 48.
- the body fat percentage estimation unit 45 calculates the body fat percentage D45 from the height and weight D42 input from the height weight estimation section 42, and outputs the body fat percentage D45 to the human feature management section 48.
- the clothing amount estimation unit 46 estimates the clothing amount D46 based on the input thermal image D34 of the human region, the face coordinates C34 in the thermal image, and the posture D41 input from the posture estimation unit 41, and determines the clothing amount D46.
- the data is output to the human feature management unit 48.
- the body temperature estimation unit 47 estimates the body temperature D47 on the basis of the input thermal image D34 of the human region, the face coordinates C34 in the thermal image, and the posture D41 input from the posture estimation unit 41, and the body temperature D47 is subjected to human feature management. To the unit 48.
- the human feature management unit 48 includes a posture D41 input from the posture estimation unit 41, a gender and age D43 input from the gender age estimation unit 43, a basal metabolism D44 input from the basal metabolism calculation unit 44, The body fat percentage D45 input from the fat percentage estimation unit 45, the clothing amount D46 input from the clothing amount estimation unit 46, and the body temperature D47 input from the body temperature estimation unit 47 are used as a human feature D5, and the device control unit Enter 5.
- the device control unit 5 determines a device control method based on the human feature D5 input from the human feature detection unit 4a, and controls the device.
- FIG. 5 is a flowchart showing the operation of the human feature detection unit 4a in the second embodiment.
- the operation of the human feature detection unit 4a will be described with reference to the flowchart of FIG.
- the same operations as those of the human feature detection unit 4 of the first embodiment are not described in the second embodiment.
- the gender age estimation unit 43 estimates the posture of the person from the thermal image D34 of the human region and the face coordinates C34 (step S22). Details of the posture estimation method will be described later with reference to FIG.
- the height and weight estimation unit 42 estimates the height and weight using the thermal image D34 of the human region, the face coordinates C34, the posture D41 estimated by the posture estimation unit 41, and the age estimated by the gender age estimation unit 43. (Step S23). Details of the height and weight estimation methods will be described later using the flowchart of FIG.
- the basal metabolism calculation unit 44 calculates the basal metabolism D44 using the gender and age D43 estimated in step S21 and the height and weight D42 estimated in step S23 (step S24).
- a generally known basal metabolism calculation formula is used. For example, the Harris Benedict equation is used.
- Basal metabolism depends not only on body weight but also on height, age and gender.
- the basal metabolic rate cannot be accurately calculated. For example, even if the body weight is the same 60 kg, the height of 175 cm, age 20 years, male basal metabolism is 1618 kcal, the height of 155 cm, age 60 years, female basal metabolism is 1222 kcal. This difference of about 400 kcal is the same as the difference in basal metabolic rate of a person whose weight is 30 kg different if the male is the same in height, age, and gender. Therefore, it is necessary to use not only body weight but also height, age, and gender for calculation of basal metabolism.
- the body fat percentage estimation unit 45 calculates the body fat percentage D45 using the height and weight D42 estimated in step S23 (step S25).
- a generally known calculation formula is also used to calculate the body fat percentage D45.
- a BMI calculation formula is used.
- the clothing amount estimation unit 46 estimates the clothing amount D46 from the thermal image D34 of the human region, the face coordinates C34, and the posture D41 estimated by the posture estimation unit 41 (step S26). The details of the clothing amount estimation method will be described later with reference to FIG.
- the body temperature estimation unit 47 estimates the body temperature D47 from the thermal image D34 of the human region, the face coordinates C34, and the posture D41 estimated by the posture estimation unit 41 (step S27).
- the body temperature estimation unit 47 estimates the highest temperature among the regions indicated by the face coordinates C34 in the thermal image D34 of the human region as the human body temperature.
- the estimation of the body temperature is not limited to this, and may be the average temperature of the region indicated by the face coordinates C34 in the thermal image D34 of the human region.
- the processing from step S24 to step S27 may be performed in any order.
- step S28 the estimated posture D41, body temperature D47, and clothing amount D46 are used as dynamic features, and body fat percentage D45, basal metabolic rate D44, sex and age D43, and height and weight D42 are used as static features.
- body fat percentage D45, basal metabolic rate D44, sex and age D43, and height and weight D42 are used as static features.
- FIG. 6 is a diagram for illustrating the operation of the posture estimation unit 41.
- the operation of the posture estimation unit 41 will be described with reference to FIG.
- FIG. 6 shows an example of a thermal image D34 of the human area input from the human area detection unit 3 to the human feature detection unit 4a.
- What is indicated by reference numeral f1 is a circumscribed square that includes the human area
- the point indicated by reference numeral f2 is the upper left corner of the circumscribed square f1
- the point indicated by reference numeral f3 is the lower right corner of the circumscribed square f1. It is a corner.
- the human region detection unit 3 inputs the thermal image of the circumscribed rectangle f1 as the thermal image D34 of the human region and the coordinates of the point f5 and the coordinates of the point f6 as the facial coordinates C34 to the human feature detection unit 4a, and the posture estimation unit 41 Is input.
- the posture estimation unit 41 calculates the aspect ratio of the circumscribed rectangle f1. If the aspect ratio (height / width) of the circumscribed rectangle f1 is less than 1/2, the sleeping posture is assumed. If the circumscribed square f1 has an aspect ratio of 1 ⁇ 2 or more and less than 2, the sitting posture is set. If the aspect ratio of the circumscribed rectangle f1 is 2 or more, the standing posture is set.
- L 1 and L 2 may be other values.
- the position of the face in the human area can be known, The direction can be determined.
- FIG. 7 is a flowchart showing the operation of the height and weight estimation unit 42 in the second embodiment.
- the operation of the height / weight estimation unit 42 will be described with reference to the flowchart of FIG.
- the human body region thermal image D ⁇ b> 34 and the face coordinates C ⁇ b> 34 are input to the height and weight estimation unit 42 from the human region detection unit 3.
- the height and weight estimation unit 42 is input from the position of the lower end of the human area, that is, the y coordinate of the point f3 in FIG. 6 (where the horizontal direction of the image is the x direction and the vertical direction of the image is the y direction).
- the length per pixel of the thermal image D34 of the human area is calculated (step S31).
- the height / weight estimation unit 42 holds an expression that can calculate the relationship between the position in the acquired image of the thermal image camera 1 and the actual length in advance.
- the position of the lower end of the human area corresponds to a position where the person is in contact with the ground. If the vertical position in the acquired image is determined by the angle of view and the installation position of the thermal image camera 1 and the orientation of the thermal image camera 1, The distance to the object reflected at the position is determined, and the actual length per pixel at that position is determined.
- step S32 the number of pixels of the human body surface temperature is counted from the thermal image D34 of the human area (step S32). Then, based on the length per pixel obtained in step S31, the area calculated in step S32 is converted into an area occupied by a person (step S33). Subsequently, it is determined whether the posture is a standing posture, a sleeping posture, or a sitting posture (step S34). If it is a standing posture or a sleeping posture (YES in step S34), the process proceeds to step S35, and if it is a sitting position (NO in step S34), the process proceeds to step S36.
- step S35 the length of the long side of the human area is calculated, and a value obtained by multiplying the length of the long side calculated in step S31 by the length of the long side is defined as the height.
- step S36 the sum of the lengths of the long side and the short side of the human region is calculated, and a value obtained by multiplying the length of each long side calculated in step S31 by the calculated length of the long side is defined as the height. If the height is estimated in step S35 and step S36, the process proceeds to step S37.
- step S36 the height is obtained from the sum of the lengths of the long side and the short side of the human area. This is because the person stretches his / her back in the direction perpendicular to the ground in a sitting state, and Height when stretched horizontally.
- the ratio of the human body surface temperature area to the human area may be calculated, and the height estimation method may be changed according to the ratio. The larger the ratio of the human body surface temperature area to the human area, the more the knee is bent or the back is rounded.
- the long side length (pixel) of the human region is L
- the short side length (pixel) is S
- the ratio of the human body surface temperature region to the human region is R
- the height H (cm)
- the height estimation method is not limited to these, and the following method may be used.
- the center of gravity of the human area is calculated.
- the farthest points are obtained from the center of gravity in the four directions, up, down, left, and right of the image, and the sum of the distances between the two points far from the center of gravity and the center of gravity is defined as the height.
- step S37 the weight is estimated from the area obtained in step S33 and the height estimated in steps S35 and S36.
- the volume of a person is calculated.
- the volume is calculated as an ellipsoid whose cross-sectional area is the area obtained in step S33 and whose major axis is the estimated height. Using the fact that the specific gravity of a person is 1, the body weight is obtained from the volume.
- step S38 the standard height and standard weight in age are used. It is determined whether the estimated height is N 10 % higher than the standard height, that is, (N 1 ⁇ 100)% or higher, or N 10 % or higher, and the estimated weight is N higher than the standard weight. It is judged whether it is 20% or more heavier or N 20 % or more lighter.
- the estimation result of the height / weight estimation unit 42 sets the height as the standard height of the age and the weight as the standard weight of the age (step S39).
- the estimated height and estimated weight greatly deviate from the standard height and standard weight of the age.
- step S40 the process proceeds to step S40.
- step S ⁇ b> 40 the height and weight estimation unit 42 outputs the estimated height and weight to the basal metabolism calculation unit 44 and the body fat percentage estimation unit 45.
- the age is not input from the gender age estimator 43 to the height / weight estimator 42 for the human area determined not to be detected from the visible light image D2 but from the thermal image D1 as the step. S38 and step S39 cannot be processed. In this case, the height and weight D42 estimated from the thermal image D1 are used as the estimation results.
- FIG. 8A shows an example of a thermal image D34 of a human region in a standing posture
- FIG. 8B shows an example of a thermal image D34 of a human region in a sitting posture
- FIG. 8C shows a human in a sleeping posture.
- An example of the thermal image D34 of the area is shown.
- a region g1 indicates a head region
- a region g2 indicates a torso region
- a region g3 indicates a foot region
- a region g4 indicates a torso and foot region.
- the regions g1, g2, g3, and g4 in each posture are determined from the position of the face region in the human region.
- the hatching in the figure represents the temperature of the object to be photographed. The higher the temperature, the thinner the hatching, and the lower the temperature, the darker the hatching.
- the lower end of the head area is the boundary between the head and the torso.
- the side where the human region is located is defined as the boundary between the body and the torso of the right and left ends of the head region. Since the boundary between the torso and the foot is not clear in the sitting posture, the human region is divided into a head region g1 and a torso and foot region g4.
- the position that bisects the boundary between the head and torso to the end of the person region is defined as the boundary between the torso and the foot, and thus the human region is the head region g1 and the torso region. Divide into g2 and foot region g3.
- the clothing amount estimation unit 46 estimates the clothing amount for each divided region (regions g1, g2, g3, g4). In general, the greater the amount of clothing worn, the lower the temperature acquired in the thermal image D1.
- the human body surface temperature is 28 ° C to 37 ° C. When the skin is exposed, such as short sleeves and short breads, the temperature of the thermal image D1 is the human body surface temperature itself. In the case of light clothing, the body temperature is transmitted to the surface of the clothing and falls slightly below the body surface temperature. When wearing thick clothes, body temperature is not easily transmitted to the surface of clothing, and the difference from body surface temperature is large. However, it is not the same as the ambient temperature.
- the amount of clothing is estimated from the distribution of the thermal image D1 for each of the torso region g2, the foot region g3, and the torso and foot region g4.
- the thickness and shape of the garment are estimated according to the percentage of how many regions in each region.
- the shape of clothing is short sleeves or long sleeves in the case of the torso region, and short breads or long pants in the case of the foot region.
- the ratio is 20%.
- the thickness of the clothing is assumed to be thicker as the temperature is lower. For example, it is assumed that it is thin when it is 28 degrees, slightly thick when it is 25 degrees, and very thick when it is 22 degrees.
- the human feature management unit 48 performs a posture estimation unit 41, a height weight estimation unit 42, a gender age estimation unit 43, a basal metabolism calculation unit 44, a body fat percentage estimation unit 45, a clothing amount for each thermal image D34 of each person region.
- a numerical value D5 related to the human characteristics estimated by the estimation unit 46 and the body temperature estimation unit 47 is output to the device control unit 5.
- FIG. 9 is another example of a block diagram showing the configuration of the device control apparatus 200 according to the second embodiment.
- the human recognition information C31 is input from the outside to the human region detection unit 3a.
- the person recognition information C31 is information such as a place where a person can exist in a shooting target area of the thermal image camera 1 and a place where a person is likely to exist.
- the person recognition information C31 may be registered in advance in the human area detection unit 3a.
- the face detection unit 32 and the face coordinate conversion unit 33 are not included in the functions of the human area detection unit 3 shown in FIG. 1, and the human recognition information C 31 is input to the human area extraction unit 34. Further, the human face extraction unit 34 calculates a human face coordinate C34.
- the face candidate region D31a and the human candidate region D31b detected by the body temperature region detection unit 31 are compared with the human recognition information C31, and the object existing in the human candidate region D31b To determine if is a person.
- the human region extraction unit 34 calculates the face coordinates C34 and the thermal image D34 of the human region from the face candidate region D31a and the human candidate region D31b for the candidate determined to be a person, and outputs it to the human feature detection unit 4.
- the gender and age are estimated from the face image D32 of the visible light image D2, but the gender and age D43 are input to the human feature detection unit 4a from the outside without using the visible light image D2. May be. Gender and age D43 may be registered in the human feature detection unit 4a in advance. Moreover, you may input from the remote control of the apparatus used as control object. The entered gender and age D43 are input to the height and weight estimation unit 42, the basal metabolism calculation unit 44, and the human feature management unit 48.
- the height and weight estimation unit 42 is based on the thermal image D34 of the human region input from the human region detection unit 3a, the facial coordinates C34 in the thermal image, the posture D41 input from the posture estimation unit 41, and the gender and age D43.
- the height and weight are estimated, and the height and weight D42 are output to the body fat percentage estimation unit 45 and the basal metabolism calculation unit 44.
- the basal metabolism calculation unit 44 calculates the basal metabolism D44 using the gender and age D43 and the height and weight D42 input from the height and weight estimation unit 42, and the calculated basal metabolism D44 to the human feature management unit 48. Output.
- the human feature management unit 48 receives the posture D41 input from the posture estimation unit 41, the gender and age D43, the basal metabolism D44 input from the basal metabolism calculation unit 44, and the body fat rate estimation unit 45.
- the body fat percentage D45, the clothing amount D46 input from the clothing amount estimation unit 46, and the body temperature D47 input from the body temperature estimation unit 47 are input to the device control unit 5 as a human feature D5.
- the device control unit 5 determines a device control method based on the human feature D5 input from the human feature detection unit 4a, and controls the device.
- ⁇ 2-3 Effects According to the device control apparatus 200 according to the second embodiment, the following effects are obtained in addition to the effects obtained by the device control apparatus 100 according to the first embodiment. That is, since the posture D41 such as the standing posture, the sitting posture, or the sleeping posture is estimated, an effect that the device can be controlled according to the posture of the person can be obtained.
- the gender and age D43 and the basal metabolic rate D44 are calculated, so that the person's hot and cold tendency, resistance to heat and cold from the basal metabolic rate D44. It is possible to understand the constitution and to control the device according to gender, age and constitution.
- the device control apparatus 200 since the clothing amount D46 and the body fat percentage D45 are estimated, the heat retention resistance of the person can be understood, and in particular, the device can be comfortably controlled by the user in the air conditioning control. can get.
- the device control apparatus 200 since the body temperature D47 is estimated, it is possible to estimate the physical condition of a person and to obtain an effect that the device can be controlled in accordance with the physical condition.
- the device control apparatus 200 since the device control method is determined based on the human feature D5, an effect that the device can be comfortably controlled by the user can be obtained.
- FIG. 10 is a block diagram showing a configuration of device control apparatus 300 according to Embodiment 3 of the present invention.
- 10, components that are the same as or correspond to the components shown in FIG. 1 (Embodiment 1) are assigned the same reference numerals as those shown in FIG.
- the device control apparatus 300 according to Embodiment 3 does not perform the process of determining the device control method from the point that the device control unit 5a refers to the past control history and the characteristics of the person, and the cloud 8 (cloud This is different from the device control apparatus 100 according to the first embodiment in that it is executed by a server.
- the device control apparatus 300 includes a first device 10, a second device 11 as another device, a network 7, and a cloud 8.
- the first device 10 includes a thermal imaging camera 1, a visible light camera 2, a human region detection unit 3, a human feature detection unit 4, a device control unit 5a as a first device control unit, and a first device A communication unit 6 as a communication unit is provided.
- the 2nd apparatus 11 is provided with the apparatus control part 12 as a 2nd apparatus control part, and the communication part 13 as a 2nd communication part.
- the thermal imaging camera 1 of the first device 10 generates a thermal image D1 and outputs it to the human region detection unit 3 of the first device 10.
- the visible light camera 2 of the first device 10 generates a visible light image D2 and outputs it to the human region detection unit 3 of the first device 10.
- the human region detection unit 3 of the first device 10 includes a thermal image D1 input from the thermal image camera 1 of the first device 10 and a visible light image D2 input from the visible light camera 2 of the first device 10. The person is detected and the human image thermal image D34, the facial coordinate C34 in the thermal image, and the facial image D32 of the visible light image D2 are output to the human feature detection unit 4 of the first device 10.
- the human feature detection unit 4 of the first device 10 detects the person from the thermal image D34 of the human region input from the human region detection unit 3 of the first device 10, the face coordinates C34, and the face image D32 of the visible light image D2. And the value of the human feature is output to the device control unit 5a of the first device 10.
- the device control unit 5a of the first device 10 includes a device control method and a first device for a human feature input from the human feature detection unit 4 of the first device 10 and a human feature input from the communication unit 6.
- the control method of the first device 10 and the control method of the other device are determined based on any one or more of the past control histories accumulated in the device control unit 5a of the ten devices. Is output to the communication unit 6 of the first device 10.
- the communication unit 6 of the first device 10 transmits the characteristics of the person input from the device control unit 5a of the first device 10 to the cloud 8 via the network 7, and the device calculated by the cloud 8 from the cloud 8
- the control method is received, and the device control method is output to the device control unit 5a of the first device 10.
- the communication unit 6 of the first device 10 includes the control method of the second device 11 and the control method of the first device 10 among the control methods of other devices input from the device control unit 5 a of the first device 10.
- the characteristics of the person input from the device control unit 5a are transmitted to the communication unit 13 of the second device 11 via the network 7, and the second device 11 actually transmits the communication from the communication unit 13 of the second device 11.
- the performed device control method is received, and the device control method is output to the device control unit 5 a of the first device 10.
- the cloud 8 calculates the optimum device control method for the value of the feature based on the feature of the person received from the communication unit 6 of the first device 10, and the optimum device control method is obtained via the network 7 as the first device. 10 communication units 6.
- the communication unit 13 of the second device 11 outputs the characteristics of the person received from the communication unit 6 of the first device 10 and the control method of the second device 11 to the device control unit 12 of the second device 11.
- the device control method actually performed by the second device 11 is input from the device control unit 12 of the second device 11, and the device control method actually performed by the second device 11 is transmitted via the network 7 to the first device control unit 12. To the communication unit 6 of the device 10.
- the device control unit 12 of the second device 11 receives the human characteristics and the device control method of the second device 11 from the communication unit 13 of the second device 11, and uses the device control method of the second device 11. The device control method is determined, and the actually performed device control method is output to the communication unit 13 of the second device 11.
- the thermal image camera 1 of the first device 10 the visible light camera 2 of the first device 10, the human area detection unit 3 of the first device 10, and the first
- the human feature detection unit 4 of the device 10 performs the same operations as the thermal image camera 1, the visible light camera 2, the human region detection unit 3, and the human feature detection unit 4, which are components in the first embodiment. Therefore, the description is omitted in the third embodiment.
- the device control unit 5a of the first device 10 determines a device control method in accordance with the human feature input from the human feature detection unit 4 of the first device 10. At that time, a control method that is optimized for the device with respect to human characteristics (one or a plurality of combinations) is calculated. For example, with respect to the feature of basal metabolism, people who have a basal metabolism above a predetermined value are hot, and people who have a basal metabolism below a predetermined value are cold. The air direction is controlled so that the cold air is directly applied during cooling, and the air direction is controlled so that the warm air is directly applied to a cold person during heating.
- the volume of the television is lowered to a predetermined value or lower and the display luminance is lowered to a predetermined value.
- the volume of the television is set to a predetermined value or more for the feature of a man over 60 years old.
- the control method to calculate is limited to the apparatus which can control related to a characteristic.
- the device control unit 5 a of the first device 10 may adopt a device control method calculated by the cloud 8 and input from the communication unit 6.
- the device control unit 5a of the first device 10 refers to the past control history (personal characteristics and device control method history) stored in the device control unit 5a (storage unit) of the first device 10.
- the most frequent device control method may be adopted among the device control methods having the same human characteristics.
- the device control method determined by the device control unit 5a of the first device 10 is not limited to the control method of the first device 10, and determines the control method of other devices (for example, the second device 11). May be.
- the device control unit 5a of the first device 10 also determines the control method of another device, for example, the second device 11, the communication unit 6 of the first device 10 changes to the communication unit 13 of the second device 11.
- the control method and the characteristics of the person who becomes the reference of the control method are transmitted, and the device control unit 12 of the second device 11 controls the characteristics of the person and the second device 11 from the communication unit 13 of the second device 11.
- the method is received, and the second device 11 is controlled by the control method.
- ⁇ 3-3 Effects According to the device control apparatus 300 according to the third embodiment, in addition to the effects obtained by the device control apparatus 100 according to the first embodiment, the following effects can be obtained. In other words, since the process for determining the device control method from the human characteristics is not performed inside the device but is executed in the cloud 8, a device control method based on the human characteristics using the latest knowledge can be determined, and more comfortable devices The effect that control becomes possible is acquired.
- the device control apparatus 300 when a device control method is determined based on human characteristics, a past control history is referred to, and thus device control that matches the user's preference is possible. An effect is obtained.
- the device control apparatus 300 even if the device does not include the thermal image camera and the visible light camera, the human image obtained from the thermal image camera and the visible light camera included in the other devices can be obtained. By receiving the device control method based on the characteristics, an effect of enabling control can be obtained.
- FIG. 11 is a hardware configuration diagram illustrating a configuration of a modified example of the device control apparatus according to the first to third embodiments.
- the human area detection unit 3, the human feature detection unit 4, and the device control unit 5 of the device control apparatus shown in FIG. 1 can be configured by a semiconductor integrated circuit, but store a program as software.
- a processor 92 as an information processing unit that executes a program stored in the memory 91 (for example, by a computer).
- a part of the human area detection unit 3, the human feature detection unit 4, and the device control unit 5 of the device control apparatus shown in FIG. 1 is constituted by a memory 91 shown in FIG. 11 and a processor 92 that executes a program. It may be realized.
- the device control apparatus includes the thermal image camera 1 and the visible light camera 2
- thermal image data is obtained from the existing thermal image camera and the existing visible light camera.
- the visible light image data can be acquired, the device control apparatus can not include the thermal image camera 1 and the visible light camera 2. Cost reduction is possible when using existing equipment.
- the device control apparatus acquires thermal image data and visible light image data from one thermal image camera and one visible light camera 2
- the number of thermal image cameras may be two or more, and the number of visible light cameras 2 may be two or more. By using multiple cameras, the detection accuracy is improved.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Artificial Intelligence (AREA)
- Fuzzy Systems (AREA)
- Automation & Control Theory (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Obesity (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
機器制御装置100は、被撮影物に対応する熱画像が入力され、熱画像において人が占める領域である人領域を検出する人領域検出部3と、熱画像における人領域の熱画像部分から人の基礎代謝を算出する人特徴検出部4と、人特徴検出部4により検出された人の基礎代謝に基づいて機器を制御する機器制御部5と、を備える。
Description
本発明は、人の特徴を検出し、検出された特徴に合わせて機器を制御する機器制御装置及び機器制御方法に関する。
機器を使用する使用者を検知し、使用者の特徴を検出して、使用者にとって快適な状態を提供するように各種の機器を制御する機器制御装置が知られている。特許文献1は、使用者の体重と空気調和時の日付とに基づいて、空気調和時における使用者の基礎代謝量を算出し、算出した基礎代謝量と、空調空間の状態を検知する検知手段からの検知結果とに基づいて、快適指標を算出し、算出した快適指標に基づいて制御を行う制御手段を含む空気調和機を記載している。
また、特許文献2は、カメラと、サーモグラフィと、温度センサと、時計とを備えた自動販売機であって、カメラで撮影した顔画像を基に購入者の性別と年齢層を求め、サーモグラフィで測定した購入者の顔温度と温度センサで測定した周囲の環境温度とを基に体温を求め、時計から取得した時刻を基に季節と時間帯を求め、購入者の性別と年齢層と体温及び季節と時間帯に基づいて表示装置に画像を表示する商品を割り出し、外的環境と購入者個々の状態に応じてアピールしたい商品を優先的に表示する自動販売機を記載している。
また、特許文献3は、エレベータ内の初期画像と現時点の画像とを比較することによって画像中の動体を抽出し、動体の塊の大きさ及び数から、人の数及びその場所の混みぐあいを識別し、その情報に基づいてエレベータを効率的に運転制御するエレベータの運転制御装置を記載している。
また、特許文献4は、赤外線カメラで人体を撮影し、画像処理装置によって熱画像をしきい値処理して得られた人物領域に距離変換を施して身体重心を求め、求めた身体重心よりも上部分の上半身主軸により上半身の傾き角を得た後、人体の頭頂,手先,足先の特徴部位を求め、遺伝的アルゴリズムを用いて肘と膝の位置を学習的に推定する人体姿勢の推定方法を記載している。
また、特許文献5は、複数のカラーカメラでそれぞれ異なった方向から撮像した複数のカラー画像から2値画像を作成し、その2値画像に基づいて特徴点を検出する人物の3次元姿勢推定方法を記載している。
しかしながら、特許文献1に記載の空気調和機は、体重を入力して体重のみから基礎代謝量を算出するため、基礎代謝量を正確に算出できず、使用者に最適な機器制御ができないという課題があった。また、特許文献2に記載の自動販売機は、サーモグラフィから体温を求める場合、使用者の顔が特定のサイズ以上の大きさに映る位置に使用者が立つ必要がある、という課題があった。
また、特許文献3に記載のエレベータの運転制御装置は、初期画像と制御を行う時点の画像とを比較するため、多くの演算量及びメモリを要するという課題があった。特許文献4に記載の人体姿勢の推定方法は、人領域を抽出するために、体の部位を順に推定することから多くの演算量及びメモリを要するという課題があった。特許文献5に記載の人物の3次元姿勢推定方法は、複数のカラーカメラでそれぞれ異なった方向から撮影するためカメラが複数台必要であり、また、複数のカラー画像を使用するため多くの演算量及びメモリを要するという課題があった。
本発明は、上述のような課題を解決するためになされたものであり、演算量を削減し、メモリに要求される記憶容量を低減しつつ、検出精度を向上することのできる機器制御装置及び機器制御方法を提供することを目的とする。
本発明に係る機器制御装置は、被撮影物に対応する熱画像が入力され、前記熱画像において人が占める領域である人領域を検出する人領域検出部と、前記熱画像における前記人領域の熱画像部分から人の基礎代謝を算出する人特徴検出部と、前記人特徴検出部により検出された前記人の基礎代謝に基づいて機器を制御する第1の機器制御部と、を備える。
本発明に係る機器制御方法は、被撮影物に対応する熱画像が入力され、前記熱画像において人が占める領域である人領域を検出する人領域検出ステップと、前記熱画像における前記人領域の熱画像部分から人の基礎代謝を算出する人特徴検出ステップと、前記人特徴検出ステップにより検出された前記人の基礎代謝に基づいて機器を制御する機器制御ステップと、を備える。
本発明に係る機器制御装置及び機器制御方法によれば、演算量を削減し、メモリに要求される記憶容量を低減しつつ、検出精度を向上するという効果を得ることができる。
以下、図面を参照しながら本発明の実施の形態に係る機器制御装置について説明する。なお、以下に記載する実施の形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格のものではない。また、以下に記載する各実施の形態の内容は適宜組み合わせることが可能である。さらに、以下で説明する本発明の実施の形態は、機器制御方法の実施の形態として捉えることも可能である。
さらに、本発明の実施の形態に係る機器制御装置は、可視光カメラが取得した可視光画像から人の体の所定部位の領域を検出する。以下に記載する各実施の形態では、その所定部位を「顔」として説明するが、これに限らず、頭、すなわち、首から上の部位であり、かつ、髪の毛など肌が露出していない部分を含む人の体の部位であってもいいし、手であってもいい。また、ペットなど人ではない動物であってもよい。ただし、ペットの場合は、後に説明する基礎代謝の算出は、可視光画像からペットである動物の種類を特定し、その動物の基礎代謝算出式を用いる必要がある。
《1》実施の形態1
《1-1》構成
まず、構成について説明する。図1は、本発明の実施の形態1に係る機器制御装置100の構成を示すブロック図である。図1に示されるように、実施の形態1に係る機器制御装置100は、熱画像カメラ1と、可視光カメラ2と、人領域検出部3と、人特徴検出部4と、第1の機器制御部としての機器制御部5とを備える。人領域検出部3は、体温領域検出部31と、所定部位検出部としての顔検出部32と、所定部位座標変換部としての顔座標変換部33と、人領域抽出部34とを備える。
《1-1》構成
まず、構成について説明する。図1は、本発明の実施の形態1に係る機器制御装置100の構成を示すブロック図である。図1に示されるように、実施の形態1に係る機器制御装置100は、熱画像カメラ1と、可視光カメラ2と、人領域検出部3と、人特徴検出部4と、第1の機器制御部としての機器制御部5とを備える。人領域検出部3は、体温領域検出部31と、所定部位検出部としての顔検出部32と、所定部位座標変換部としての顔座標変換部33と、人領域抽出部34とを備える。
図1に示されるように、熱画像カメラ1は、被撮影物を撮影して、この被撮影物に対応する熱画像(熱画像データ)D1を生成して人領域検出部3へ出力する。可視光カメラ2は、被撮影物を撮影して、この被撮影物に対応する可視光画像(可視光画像データ)D2を生成して人領域検出部3へ出力する。人領域検出部3は、熱画像カメラ1から入力された熱画像D1と可視光カメラ2から入力された可視光画像D2とから人を検出し、人が存在する領域である人領域の熱画像D34と、熱画像D1における所定部位座標としての顔座標C34と、可視光画像D2の顔画像(顔画像データ)D32とを人特徴検出部4へ出力する。
熱画像カメラ1で生成された熱画像D1は、人領域検出部3の体温領域検出部31に入力され、可視光カメラ2で生成された可視光画像D2は、人領域検出部3の顔検出部32に入力される。
体温領域検出部31は、熱画像カメラ1から入力された熱画像D1における温度分布から、所定部位候補領域としての顔候補領域D31aと人候補領域D31bとを検出して人領域抽出部34へ出力する。顔候補領域D31aとは、熱画像D1において人の顔が占める領域の候補となる領域である。人候補領域D31bとは、熱画像D1において人が占める領域の候補となる領域である。顔検出部32は、可視光カメラ2から入力された可視光画像D2から顔を検出し、検出した顔の位置を示す顔座標C32を顔座標変換部33へ出力するとともに、可視光画像D2から検出した顔の領域のみを切り出した顔画像D32を人特徴検出部4へ出力する。
顔座標変換部33は、予め記憶している座標変換用の演算式又は変換テーブルなどを利用して、顔検出部32から入力された可視光画像D2における顔座標C32を、熱画像カメラ1が取得した熱画像D1における顔座標C34に変換し、顔領域情報として人領域抽出部34へ出力する。人領域抽出部34は、体温領域検出部31から入力された人候補領域D31b及び顔候補領域D31aと、顔座標変換部33から入力された顔座標C34とから、熱画像D1における人領域を抽出し、人領域の熱画像D34を切り出して人特徴検出部4へ出力するとともに、熱画像D1における顔座標C34を人特徴検出部4へ出力する。
人特徴検出部4は、人領域検出部3から入力された可視光画像D2の顔画像D32と、人領域の熱画像D34と、熱画像D1における顔座標C34とから人の特徴を検出し、人の特徴の値D4を機器制御部5へ出力する。機器制御部5は、人特徴検出部4から入力された人の特徴の値D4に基づき、制御対象となる機器の制御方法を決定し、この機器を制御するための制御信号を出力する。
《1-2》動作
次に、動作について説明する。熱画像カメラ1と可視光カメラ2は、例えば、部屋に備えられている機器に設置され、この機器の使用者がいる部屋などの空間を、同じ向きから撮影できる位置に配置されている。熱画像カメラ1は、赤外線センサなどのような熱を感知するセンサを具備し、撮影した空間の温度分布を示す熱画像D1を生成する。一方、可視光カメラ2は、CCD(Charge-Coupled Device)センサなどのような可視光を感知するセンサを具備し、熱画像カメラ1が撮影する空間と同じ空間を撮影して可視光画像D2を生成する。熱画像カメラ1で生成された熱画像D1と可視光カメラ2で生成された可視光画像D2は、人領域検出部3に入力される。
次に、動作について説明する。熱画像カメラ1と可視光カメラ2は、例えば、部屋に備えられている機器に設置され、この機器の使用者がいる部屋などの空間を、同じ向きから撮影できる位置に配置されている。熱画像カメラ1は、赤外線センサなどのような熱を感知するセンサを具備し、撮影した空間の温度分布を示す熱画像D1を生成する。一方、可視光カメラ2は、CCD(Charge-Coupled Device)センサなどのような可視光を感知するセンサを具備し、熱画像カメラ1が撮影する空間と同じ空間を撮影して可視光画像D2を生成する。熱画像カメラ1で生成された熱画像D1と可視光カメラ2で生成された可視光画像D2は、人領域検出部3に入力される。
ここで、熱画像カメラ1と可視光カメラ2が撮影するタイミングは、同じであることが望ましい。しかし、被撮影物である人の向き及び位置が大きく変化しない程度の時間(例えば、1秒程度)の撮影タイミングの誤差は許容される。
熱画像D1と可視光画像D2から人領域を検出する人領域検出部3の動作を図2(a)から(d)及び図3を用いて説明する。図2(a)は、熱画像カメラ1により生成された熱画像D1において、体温領域検出部31が検出した顔候補領域D31aを示す図である。図2(b)は、熱画像カメラ1により生成された熱画像D1において、体温領域検出部31が検出した人候補領域D31bを示す図である。なお、図中のハッチングは被撮影物の温度を表し、温度が高いほどハッチングが薄い領域(白に近い領域)として、温度が低いほどハッチングが濃い領域(黒に近い領域)として表現されている。
図2(a)の領域a1,a2,a3,a4は、体温領域検出部31が熱画像D1から検出した顔候補領域D31aを示している。顔候補領域D31aとは、熱画像D1において人の顔が占める領域の候補となる領域である。図2(a)に示されるように、領域a1は、天井に備えられた照明(照明機器)の占める領域であり、領域a2,a3,a4は、人の顔が占める領域である。つまり、図2(a)で示す例において、体温領域検出部31により顔候補領域D31aとして正しく検出されている領域は、領域a2,a3,a4である。
図2(b)の領域b1,b2,b3,b4,b5は、体温領域検出部31が検出した人候補領域D31bを示している。人候補領域D31bとは、熱画像D1において人が占める領域の候補となる領域である。図2(b)に示されるように、領域b1は、天井に備えられた照明の占める領域であり、領域b2,b4,b5は、人の占める領域であり、領域b3は、窓の占める領域である。つまり、図2(b)において体温領域検出部31により人候補領域D31bとして正しく検出されている領域は、領域b2,b4,b5である。
図2(c)は、熱画像カメラ1により生成された熱画像D1において、顔領域情報によって示された顔領域及び人領域抽出部34が抽出した人領域を示す図である。図2(c)の破線で示された領域c1,c2,c3は、顔座標変換部33から入力された顔領域情報(顔座標C34)によって示された顔領域である。図2(c)の実線で示された領域d1,d2,d3は、人領域抽出部34が抽出した人領域の熱画像D34である。人領域抽出部34は、入力された顔領域(領域c1,c2,c3)と顔候補領域D31a(領域a1,a2,a3,a4)と人候補領域D31b(領域b1,b2,b3,b4,b5)とに基づき、図2(c)の領域d1,d2,d3に示される人領域を抽出する。図2(c)に示されるように、図2(a)及び(b)で検出された顔候補領域D31a及び人候補領域D31bであって、正しく検出されなかった領域(上記a1,b1,b3)は、人領域としては検出されていない。
図2(d)は、熱画像カメラ1により生成された熱画像D1において、人領域抽出部34が人特徴検出部4へ出力する情報を示す図である。図2(d)の領域d1,d2,d3は、図2(c)の領域d1,d2,d3と同一であり、人領域抽出部34が抽出した人領域を示している。図2(d)のe1,e2,e3は人領域抽出部34により特定された顔領域を示している。人領域抽出部34は、人領域を抽出した後、顔候補領域D31aを用いて人領域内の顔領域を特定する。人領域抽出部34は、特定した人領域及び顔領域の熱画像と、顔領域の位置を示す情報(顔座標C34)、例えば、顔領域の右上と左下の角部座標とを人特徴検出部4へ出力する。
図3は、実施の形態1における人領域検出部3の動作を示すフローチャートである。図3を用いて人領域検出部3の動作について説明する。人領域検出部3の動作が開始されると、顔検出部32に可視光カメラ2により生成された可視光画像D2が入力され、顔検出部32は、可視光画像D2から人の顔領域を検出する。可視光画像D2から人の顔を検出するアルゴリズムは、公知の方法を用いることができる。そして、顔検出部32は、顔を包含する外接四角形(図2(c)における破線四角形)を可視光画像D2から検出した顔領域の位置を示す顔座標C32(例えば、顔領域の左上の角部と右下の角部の座標)を顔座標変換部33へ出力する(ステップS1)。ステップS1において、顔の領域を検出しなかった場合は、顔検出部32は、顔座標C32がないことを示す情報を顔座標変換部33へ出力する、もしくは、何も出力しない。
次に、顔座標変換部33は、可視光画像D2の顔座標C32の入力があるか否かを確認する(ステップS2)。可視光画像D2の顔座標C32の入力が確認された場合(ステップS2においてYES)は、処理はステップS3に進み、可視光画像D2の顔座標C32の入力が確認されない場合(ステップS2においてNO)は、処理はステップS4に進む。ステップS3では、顔座標変換部33は、可視光画像D2の顔座標C32を、熱画像D1の顔座標C34に変換し、処理をステップS4に進める。顔座標変換部33は、予め熱画像カメラ1の撮影範囲及び可視光カメラ2の撮影範囲の情報を保持しており、可視光画像D2が撮影された可視光画像D2の各画素が、熱画像カメラ1で撮影された熱画像D1のいずれの画素に対応しているかを計算できる。
続いて、ステップS4で体温領域検出部31が、熱画像カメラ1から入力された熱画像D1から、顔候補領域D31aと人候補領域D31bとを検出する。人の体表温度は室温によって多少変化するが、ある一定の範囲内である。体の中心部は、37度でほぼ一定であり、体の表面(体表)は体の中心部よりも少し温度が下がり、顔の表面は30℃から37℃である。体表温度が最も低い手足の末端の温度は約28℃である。室温が高いと、体表温度と体の中心部の温度との温度差が小さく、室温が低いと、この温度差が大きくなる。また、これらの体表温度は、衣類をまとっていない場合の温度であって、熱画像カメラ1が取得できる熱画像D1は衣類を着た状態の人の表面温度である。衣類を身にまとうと、衣類の量が多い程、衣類で覆われている場所の体表温度(衣類の表面の温度)は下がる傾向にある。これは、衣類の量が多い程、体温が衣類の表面まで伝わり難いためである。体温領域検出部31は、30℃から37℃を顔温度として、この温度の領域を顔候補領域D31aとして検出する。また、体温領域検出部31は、28℃から37℃を体表温度として、衣類によって下がった表面温度を考慮した温度(例えば、20℃から37℃)の領域を人候補領域D31bとして検出する。
次に、体温領域検出部31は、検出した顔候補領域D31aについて、膨張処理、収縮処理の順に処理を施す(ステップS5)。これにより、メガネなど顔に装置した物又は顔表面の温度むらなどの影響により、顔領域の検出精度が低下することを防ぐ。さらに、体温領域検出部31は、ステップS6で顔候補領域D31aから明らかに顔ではない形状のものを排除する。顔の形状は、両目が見える程度、正面を向いて熱画像D1に映っている場合、その形状は丸い。このことを利用し、体温領域検出部31は、丸くない顔候補領域D31aは顔ではないと判断する。熱画像D1から検出した顔候補領域D31aに示された顔の形状が丸いか否かは、例えば、以下に記載する方法で判断する。すなわち、顔候補領域D31aを含む外接四角形の面積に対する顔温度(30℃から37℃)を示す領域の割合が75%以上であり、かつ、外接四角形のアスペクト比が1:2から2:1の範囲内である場合に、丸いと判断し、これ以外の場合は丸くないとする。なお、丸いか否かを判断するために用いた数値は一例に過ぎず、これらの値から大きく外れなければ、これに限らない。
なお、顔の形状が丸いことを判断するため、外接四角形のアスペクト比と外接四角形に対する顔候補領域D31aの面積比を用いた場合を説明したが、判断方法はこれに限らず、丸いか否かを判断できれば他の基準を用いてもよい。例えば、顔の形状が丸いことの判断は、顔の輪郭形状の凹凸から判断してもよい。
続いて、体温領域検出部31は、人候補領域D31bについても顔候補領域D31aと同様に、膨張処理と収縮処理を、膨張処理、収縮処理の順に施す(ステップS7)。ただし、このときに処理対象とする人候補領域D31bは、ステップS6の処理後の顔候補領域D31aを含む人候補領域D31bに限る。
人領域抽出部34は、体温領域検出部31から入力された人候補領域D31bと顔候補領域D31aと、顔座標変換部33から入力された顔座標C34とから、熱画像D1における人領域を抽出し、熱画像D1から切り出した人領域の熱画像D34と熱画像における顔座標C34とを人特徴検出部4へ出力する(ステップS8からステップS11)。ステップS8からステップS11までの処理は体温領域検出部31から入力された全ての人候補領域に対し、1つずつ行う。
まず、人領域抽出部34は、ステップS8で人候補領域D31bかつ顔領域情報(顔座標C34)を示す領域があるか否かを判断する。人候補領域D31bかつ顔領域情報を示す領域がある場合(ステップS8においてYES)は、人領域抽出部34は、人候補領域D31bは顔が映っている人である可能性があると判断して、処理をステップS9に進める。人候補領域D31bかつ顔領域情報を示す領域がない場合(ステップS8においてNO)は、人領域抽出部34は、可視光画像D2から顔を検出できなかったが、人候補領域D31bは人の可能性があると判断して、処理をステップS11に進める。ここで、顔領域情報とは、可視光画像D2から検出した顔領域の位置に関する情報を熱画像D1における顔領域の位置に関する情報に変換したものであり、例えば、顔を含む外接四角形の右上の角部と左下の角部の顔座標である。顔領域の位置に関する情報は、顔を含む外接四角形の1つの角部の座標と、縦及び横の長さであってもいい。
ステップS9では、人領域抽出部34は、人候補領域D31b内の顔候補領域D31aが可視光画像D2から検出した顔の位置と一致するか否かを判断するため、顔候補領域D31aかつ顔領域情報を示す領域が存在するか否かを判断する。人領域抽出部34は、顔候補領域D31aかつ顔領域情報を示す領域が存在する場合(ステップS9においてYES)、人候補領域D31bは顔が映っている人であると判断し、処理をステップS10に進める。
顔候補領域D31aかつ顔領域情報を示す領域が存在しない場合(ステップS9においてNO)、人領域抽出部34は、人の顔の形状をした物体は存在するが、体温が人の顔の温度ではないため、人ではないと判断し、処理をステップS12に進める。可視光画像D2から顔が検出され、熱画像D1から顔候補領域D31aが検出されないケースは、人形である場合、形状が顔に似ていて顔検出を誤った場合、顔の大部分が覆われている場合、例えば、帽子とゴーグルとマスクをしていて熱画像D1から顔候補領域D31aが検出されない場合などがある。
一方、ステップS8において人候補領域D31bかつ顔領域情報が示す領域がなく、処理がステップS11に進んだ場合、人領域抽出部34は、ステップS11で、熱画像D1から検出した顔候補領域D31aと人候補領域D31bから人であるか否かを判定する。そのために、人領域抽出部34は、人候補領域D31bにおける顔候補領域D31aの面積比を用いる。顔を含む人の体の大きさに対する顔の大きさの割合は、ある範囲に含まれる。例えば、人候補領域D31bと顔候補領域D31aの面積比が4:1から16:1の場合(ステップS11においてYES)、人領域抽出部34は、人候補領域D31bは人が存在する領域であると判断し、処理をステップS10に進める。検出された人候補領域D31bと顔候補領域D31aの面積比が4:1から16:1の範囲外である場合(ステップS11においてNO)、人領域抽出部34は、人候補領域D31bは人が存在する領域ではないと判断し、処理をステップS12に進める。なお、人候補領域D31bと顔候補領域D31aの面積比として挙げた数値は一例に過ぎず、顔を含む人の体の大きさに対する顔の大きさの割合として、他の数値範囲を採用してもよい。
ステップS10では、人領域抽出部34は、ステップS9及びステップS11で人が存在する領域であると判断された人候補領域D31bを人領域とし、熱画像D1から人領域を切り出し、切り出した人領域の熱画像D34を人特徴検出部4へ出力するとともに、顔候補領域D31aを顔領域とし、顔領域を示す情報を人特徴検出部4へ出力する。顔領域を示す情報は、顔領域を包含する外接四角形の位置を示す情報とする。例えば、外接四角形の右上の角部と左下の角部の顔座標とする。また、外接四角形の1つの角部の座標及び外接四角形の縦及び横の長さであってもいい。
ステップS12では、人領域抽出部34は、ステップS8からステップS11の処理がまだ終わっていない人候補領域D31bがあるか否かを判断し、未処理の人候補領域D31bが存在すれば(ステップS12においてYES)、処理をステップS8に戻す。未処理の人候補領域D31bが存在しなければ(ステップS12においてNO)、人領域検出部3の動作は全て終了し、人領域検出部3は、次の熱画像D1と可視光画像D2とが入力されるのを待つ。
人領域検出部3から出力された人領域の熱画像D34と顔領域を示す情報と可視光画像D2の顔画像D32を用いて、人特徴検出部4は人の特徴を検出する。人の特徴は、例えば、性別、年齢、基礎代謝、体脂肪率、姿勢、体温、着衣量である。これらの特徴の値は、機器制御部5へ入力される。機器制御部5は、人特徴検出部4から入力された人の特徴に基づき、機器の制御方法を決定し、その制御方法に従って機器を制御する。
なお、本実施の形態1においては、可視カメラと熱画像カメラとは、それぞれから取得される画像の縦方向が地面に垂直な向き、横方向が地面に水平な向きとなる画像、例えば、図2に示すような画像が得られる位置と向きに設置された場合で説明したが、可視カメラと熱画像カメラの設置位置や向きはこれに限らない。可視カメラと熱画像カメラを空調機器などの家電機器の横の位置で、部屋内を俯瞰する向きに設置してもよい。また、可視カメラと熱画像カメラを天井の位置で、床を見下ろす向きに設置してもよい。
また、可視カメラと熱画像カメラの台数を削減するため、広角を撮影可能なレンズ、たとえば魚眼レンズを付けて画像を取得してもよい。これらの場合、顔の映り方が、実施の形態1で説明した場合と異なる。顔の領域を検出する際、可視カメラと熱画像カメラの設置位置と、設置向きによる顔領域の形状の変化を予め算出し、顔領域の検出の際に、変化量を加味する必要がある。例えば、天井から撮影した場合、熱画像に顔が丸い形状で映ることは少なく、半円もしくは楕円になる。顔、髪の毛、手足の露出部分、着衣領域、人以外の周辺領域の順に温度が下がることに変わりはない。
《1-3》効果
実施の形態1に係る機器制御装置100及び機器制御方法によれば、1枚の熱画像と1枚の可視光画像D2とを用いて人を検出するため、熱画像D1と可視光画像D2のいずれか一方のみから人を検出する場合と比較して、検出に要する演算量を削減でき、また、熱画像データ及び可視光画像データを記憶するためのメモリとして記憶容量の小さなものを使用することができるという効果が得られる。
実施の形態1に係る機器制御装置100及び機器制御方法によれば、1枚の熱画像と1枚の可視光画像D2とを用いて人を検出するため、熱画像D1と可視光画像D2のいずれか一方のみから人を検出する場合と比較して、検出に要する演算量を削減でき、また、熱画像データ及び可視光画像データを記憶するためのメモリとして記憶容量の小さなものを使用することができるという効果が得られる。
実施の形態1に係る機器制御装置100及び機器制御方法によれば、熱画像D1から顔の温度の特性を用いて検出した顔候補領域D31aと可視光画像D2から検出した顔の領域とを用いて人領域を検出するため、熱画像D1において人の占める領域を正確に検出できるという効果が得られる。
《2》実施の形態2
《2-1》構成
図4は、本発明の実施の形態2に係る機器制御装置200の構成を示すブロック図である。図4において、図1(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。実施の形態2に係る機器制御装置200は、人特徴検出部4aの構成において実施の形態1に係る機器制御装置100と異なる。
《2-1》構成
図4は、本発明の実施の形態2に係る機器制御装置200の構成を示すブロック図である。図4において、図1(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。実施の形態2に係る機器制御装置200は、人特徴検出部4aの構成において実施の形態1に係る機器制御装置100と異なる。
まず、構成について説明する。図4に示されるように、実施の形態2に係る機器制御装置200は、熱画像カメラ1と、可視光カメラ2と、人領域検出部3と、人特徴検出部4aと、機器制御部5とを備える。人特徴検出部4aは、姿勢推定部41と、身長体重推定部42と、性別年齢推定部43と、基礎代謝算出部44と、体脂肪率推定部45と、着衣量推定部46と、体温推定部47と、人特徴管理部48とを備える。
熱画像カメラ1は、被撮影物を撮影し、被撮影物に対応する熱画像D1を生成して人領域検出部3へ出力する。可視光カメラ2は、被撮影物を撮影し、被撮影物に対応する可視光画像D2を生成して人領域検出部3へ出力する。人領域検出部3は、熱画像カメラ1から入力された熱画像D1と可視光カメラ2から入力された可視光画像D2とに基づき、熱画像D1における人が占める領域である人領域を検出し、人領域の熱画像D34と顔領域の位置を示す情報(顔座標C34)と可視光画像D2の顔画像D32とを人特徴検出部4aへ入力する。
人領域検出部3から出力された人領域の熱画像D34と顔座標C34は、人特徴検出部4aの姿勢推定部41、身長体重推定部42、基礎代謝算出部44、体脂肪率推定部45、着衣量推定部46、及び体温推定部47に入力される。また、人領域検出部3から出力された可視光画像D2の顔画像D32は、人特徴検出部4aの性別年齢推定部43に入力される。
姿勢推定部41は、人領域の熱画像D34と熱画像における顔座標C34に基づいて姿勢を推定し、推定結果である姿勢D41を身長体重推定部42と着衣量推定部46と体温推定部47と人特徴管理部48とへ出力する。身長体重推定部42は、人領域検出部3から入力された人領域の熱画像D34と熱画像における顔座標C34と、姿勢推定部41から入力された姿勢D41と、性別年齢推定部43から入力された性別及び年齢D43とに基づき、身長と体重とを推定し、身長及び体重D42を体脂肪率推定部45と基礎代謝算出部44とに出力する。
性別年齢推定部43は、可視光画像D2の顔画像D32から性別と年齢を推定し、推定した性別及び年齢D43を身長体重推定部42と基礎代謝算出部44と人特徴管理部48とへ出力する。基礎代謝算出部44は、性別年齢推定部43から入力された性別及び年齢D43と身長体重推定部42から入力された身長及び体重D42とを用いて基礎代謝量D44を算出し、算出した基礎代謝量D44を人特徴管理部48へ出力する。
体脂肪率推定部45は、身長体重推定部42から入力された身長及び体重D42から体脂肪率D45を算出し、体脂肪率D45を人特徴管理部48へ出力する。着衣量推定部46は、入力された人領域の熱画像D34と熱画像における顔座標C34と、姿勢推定部41から入力された姿勢D41とに基づき、着衣量D46を推定し、着衣量D46を人特徴管理部48へ出力する。体温推定部47は、入力された人領域の熱画像D34と熱画像における顔座標C34と、姿勢推定部41から入力された姿勢D41とに基づき、体温D47を推定し、体温D47を人特徴管理部48へ出力する。
人特徴管理部48は、姿勢推定部41から入力された姿勢D41と、性別年齢推定部43から入力された性別及び年齢D43と、基礎代謝算出部44から入力された基礎代謝量D44と、体脂肪率推定部45から入力された体脂肪率D45と、着衣量推定部46から入力された着衣量D46と、体温推定部47から入力された体温D47とを人の特徴D5として、機器制御部5に入力する。機器制御部5は、人特徴検出部4aから入力された人の特徴D5に基づき、機器の制御方法を決定し、機器を制御する。
《2-2》動作
次に、動作について説明する。図5は、実施の形態2における人特徴検出部4aの動作を示すフローチャートである。以下、人特徴検出部4aの動作を図5のフローチャートを用いて説明する。なお、実施の形態1の人特徴検出部4と同じ動作については、実施の形態2では説明を省略する。
次に、動作について説明する。図5は、実施の形態2における人特徴検出部4aの動作を示すフローチャートである。以下、人特徴検出部4aの動作を図5のフローチャートを用いて説明する。なお、実施の形態1の人特徴検出部4と同じ動作については、実施の形態2では説明を省略する。
人領域の熱画像D34と顔座標C34と可視光画像D2の顔画像D32が、人領域検出部3から人特徴検出部4aの性別年齢推定部43に入力されると、性別年齢推定部43は、入力された可視光画像D2の顔画像D32から公知の方法を用いて性別と年齢を推定する(ステップS21)。次に、姿勢推定部41が人領域の熱画像D34と顔座標C34とから人の姿勢を推定する(ステップS22)。姿勢推定方法については、後で図6を用いて詳細を説明する。
そして、身長体重推定部42が、人領域の熱画像D34と顔座標C34と姿勢推定部41が推定した姿勢D41と性別年齢推定部43が推定した年齢とを用いて、身長と体重を推定する(ステップS23)。身長及び体重の推定方法の詳細については、後で図7のフローチャートを用いて詳細を説明する。
続いて、基礎代謝算出部44が、ステップS21で推定した性別及び年齢D43とステップS23で推定した身長及び体重D42とを用いて、基礎代謝量D44を算出する(ステップS24)。基礎代謝の算出には一般に知られている基礎代謝算出式を用いる。例えば、ハリスベネディクト方程式を用いる。体重(kg)をW、身長(cm)をH、年齢(歳)をA、男性の基礎代謝量(kcal)をM1、女性の基礎代謝量(kcal)をM2とし、基礎代謝量M1、M2は、
M1= 13.397×W+4.7999×H-5.677×A+88.362
M2= 9.247×W+3.098 ×H-4.33 ×A+447.593
で求められる。
M1= 13.397×W+4.7999×H-5.677×A+88.362
M2= 9.247×W+3.098 ×H-4.33 ×A+447.593
で求められる。
基礎代謝量は体重だけでなく、身長と年齢と性別にも依存する。先行文献1のように体重しか用いない場合は基礎代謝量を正確に算出できない。例えば、体重が同じ60kgでも、身長175cm、年齢20歳、男性の基礎代謝量は1618kcalであり、身長155cm、年齢60歳、女性の基礎代謝量は1222kcalである。この約400kcalの差は、身長と年齢と性別が同じ男性であれば体重が30kg異なる人の基礎代謝量の差と同じである。したがって、基礎代謝量の算出には、体重のみならず、身長と年齢と性別も用いる必要がある。
次に、体脂肪率推定部45がステップS23で推定した身長及び体重D42を用いて、体脂肪率D45を算出する(ステップS25)。体脂肪率D45の算出にも一般に知られている算出式を用いる。例えば、BMIの算出式を用いる。次に、着衣量推定部46が、人領域の熱画像D34と顔座標C34と姿勢推定部41が推定した姿勢D41から着衣量D46を推定する(ステップS26)。着衣量推定方法については、後に図8を用いて詳細を説明する。次に、体温推定部47が人領域の熱画像D34と顔座標C34と姿勢推定部41が推定した姿勢D41から体温D47を推定する(ステップS27)。
体温推定部47は、人領域の熱画像D34における顔座標C34が示す領域のうち、最も高い温度を人の体温と推定する。ただし、体温の推定はこれに限らず、人領域の熱画像D34における顔座標C34が示す領域の平均温度としてもいい。また、人領域の熱画像と姿勢推定部41が推定した姿勢D41から、人領域のうち人の胴体にあたる領域のうち最も高い温度としてもよい。また、ステップS24からステップS27の処理はいずれの順であっても構わない。最後に、ステップS28において、推定された姿勢D41、体温D47、着衣量D46を動的特徴として、また、体脂肪率D45、基礎代謝量D44、性別及び年齢D43、身長及び体重D42を静的特徴として機器制御部5に出力する。
図6は、姿勢推定部41の動作を示すための図である。図6を用いて、姿勢推定部41の動作を説明する。図6は、人領域検出部3から人特徴検出部4aに入力される人領域の熱画像D34の一例を示している。符号f1で示されるのは、人領域を包含する外接四角形であり、符号f2で示される点は外接四角形f1の左上の角部であり、符号f3で示される点は外接四角形f1の右下の角部である。また、符号f4で示されるのは、顔領域を包含する外接四角形であり、符号f5で示される点は外接四角形f4の左上の角部であり、符号f6で示される点は外接四角形f4の右下の角部である。人領域検出部3から、人領域の熱画像D34として外接四角形f1の熱画像が、顔座標C34として点f5の座標と点f6の座標が、人特徴検出部4aに入力され、姿勢推定部41に入力される。
姿勢推定部41は、外接四角形f1のアスペクト比を算出する。外接四角形f1のアスペクト比(高さ/幅)が1/2未満であれば、寝姿勢とする。外接四角形f1のアスペクト比が1/2以上、かつ、2未満であれば、座り姿勢とする。外接四角形f1のアスペクト比が2以上であれば、立ち姿勢とする。
なお、姿勢の判定に用いたアスペクト比の閾値は一例に過ぎず、寝姿勢と座り姿勢の閾値をL1とし、座り姿勢と寝姿勢の閾値をL2として、L1<1<L2であれば、L1とL2は他の値でもよい。
なお、外接四角形f1のアスペクト比から姿勢を求めたあと、点f2の座標と点f3の座標と、点f5の座標と点f6の座標を用いると、人領域における顔の位置が分かり、人の向きを求めることができる。
図7は、実施の形態2における身長体重推定部42の動作を示すフローチャートである。以下、図7のフローチャートを用いて、身長体重推定部42の動作を説明する。身長体重推定部42には、姿勢推定部41と同様に、人領域検出部3から人領域の熱画像D34と顔座標C34が入力される。身長体重推定部42は、人領域の下端の位置、すなわち、図6の点f3のy座標(ただし、画像の横方向をx方向とし、画像の縦方向をy方向とする)から、入力された人領域の熱画像D34の1画素あたりの長さを算出する(ステップS31)。
身長体重推定部42は、予め熱画像カメラ1の取得画像における位置と実際の長さとの関係を算出できる式を保持しているものとする。人領域の下端の位置は、人が地面と接地している位置にあたり、熱画像カメラ1の画角と設置位置及び熱画像カメラ1の向きにより、取得画像における縦方向の位置が決まれば、その位置に映る物体までの距離が求まり、その位置での1画素あたり実際の長さが決まる。
次に、人領域の熱画像D34から人の体表温度の画素数を計数する(ステップS32)。そして、ステップS31で求めた1画素あたりの長さに基づき、ステップS32で算出した面積を人の占める面積に換算する(ステップS33)。続いて、姿勢が立ち姿勢又は寝姿勢、もしくは、座り姿勢であるかを判定する(ステップS34)。立ち姿勢又は寝姿勢であれば(ステップS34においてYES)、ステップS35に進み、座り姿勢であれば(ステップS34においてNO)、ステップS36に進む。
ステップS35では、人領域の長辺の長さを算出し、ステップS31で算出した1画素あたりの長さを算出した長辺の長さに乗じた値を身長とする。ステップS36では、人領域の長辺と短辺の長さの和を算出し、ステップS31で算出した1画素あたりの長さを算出した長辺の長さに乗じた値を身長とする。ステップS35及びステップS36で身長を推定したら、ステップS37に進む。
なお、ステップS36では人領域の長辺と短辺の長さの和から身長を求めているが、これは、人が座った状態で地面と垂直方向に背中を伸ばし、かつ、足を地面と水平方向に伸ばした場合の身長である。より正確に身長を算出するために、人領域に対する人の体表温度の領域の割合を算出し、その割合に応じて身長の推定方法を変更してもよい。人領域に対する人の体表温度の領域の割合が大きい程、膝を曲げたり、背中を丸めたりしている状態である。例えば、人領域の長辺の長さ(画素)をL、短辺の長さ(画素)をS、人領域に対する人の体表温度の領域の割合をR、身長をH(cm)、1画素あたりの長さ(cm)をpとして、
0<R<0.4のとき、 H=(L+S)×p
0.4≦R<0.7のとき、 H=(L+S×√2)×p
0.7≦R<1のとき、 H=(L+S×2)×p
としてもよい。
0<R<0.4のとき、 H=(L+S)×p
0.4≦R<0.7のとき、 H=(L+S×√2)×p
0.7≦R<1のとき、 H=(L+S×2)×p
としてもよい。
なお、身長の推定方法はこれらに限らず、次の方法を用いても良い。まず人領域の重心を算出する。人領域のうち、重心から画像の上下左右の4方向について、それぞれ最も遠い点を求め、そのうち重心からの距離が遠い2点と重心との各距離の和を身長とする。
ステップS37では、ステップS33で求めた面積とステップS35及びステップS36で推定した身長から体重を推定する。まず人の体積を算出する。例えば、断面積がステップS33で求めた面積であり、かつ、長軸が推定身長である楕円体として体積を算出する。人の比重が1であることを利用して、体積から体重を求める。
なお、1方向から撮影された可視光画像1枚ではなく、異なる2方向から撮影された可視光画像2枚を用いると、楕円体ではなくより正確に人の形状を求めることが可能になり、体重をより正しく推定することができる。
そして、性別年齢推定部43が推定した年齢を用いて、ステップS37までに推定した身長及び体重が妥当かどうかを確認する(ステップS38)。この確認には、年齢における標準身長と標準体重を用いる。推定された身長が標準身長よりもN1割、すなわち、(N1×100)%以上高い、もしくは、N1割以上低いか否かを判定するとともに、推定された体重が標準体重よりもN2割以上重い、もしくは、N2割以上軽いか否かを判定する。N1とN2の値は、例えば、N1=2、N2=5とする。ただし、これに限らない。N1及びN2の値を年齢によって変更してもよい。
推定された身長が標準身長よりもN1割以上高い、もしくは、N1割以上低い、かつ、推定された体重が標準体重よりもN2割以上重い、もしくは、N2割以上軽い場合(ステップS38においてYES)、推定された身長及び体重は妥当ではないと判断し、身長体重推定部42の推定結果は、身長を年齢の標準身長とし、体重を年齢の標準体重とする(ステップS39)。体の一部が物体に隠れて熱画像D1に映っていない場合などが、推定身長ならびに推定体重が年齢の標準身長ならびに標準体重と大きくずれが生じる。
ステップS38の判定で条件に該当しない場合(ステップS38においてNO)、ステップS40に進む。またステップS39のあと、ステップS40に進む。ステップS40では、身長体重推定部42は、推定した身長及び体重を、基礎代謝算出部44及び体脂肪率推定部45へ出力する。
なお、可視光画像D2から顔が検出されなかったが、熱画像D1から人であると判断された人領域については、性別年齢推定部43から身長体重推定部42に年齢が入力されないため、ステップS38及びステップS39の処理ができない。この場合は熱画像D1から推定した身長及び体重D42を推定結果とする。
図8(a)から(c)を用いて、着衣量推定部46の動作を説明する。図8(a)は立ち姿勢の人領域の熱画像D34の一例を示し、図8(b)は座り姿勢の人領域の熱画像D34の一例を示し、図8(c)は寝姿勢の人領域の熱画像D34の一例を示している。図中の領域g1は頭の領域を示し、領域g2は胴体の領域を示し、領域g3は足の領域を示し、領域g4は胴体及び足の領域を示す。各姿勢における領域g1,g2,g3,g4は、人領域における顔領域の位置より決定する。なお、図中のハッチングは被撮影物の温度を表し、温度が高いほどハッチングが薄く、温度が低いほどハッチングが濃く表現している。
立ち姿勢及び座り姿勢の場合、頭の領域の下端を、頭と胴体との境界とする。寝姿勢の場合、頭の領域の右端ないし左端のうち、人領域がある側を体と胴体との境界とする。胴体と足との境界は、座り姿勢の場合、明確ではないため、人領域は頭の領域g1と胴体及び足の領域g4に分割する。立ち姿勢及び寝姿勢の場合、頭と胴体との境界から人領域の終端までを2等分する位置を胴体と足との境界とし、このようにして人領域を頭の領域g1と胴体の領域g2と足の領域g3とに分割する。
着衣量推定部46は、分割した人領域の領域(領域g1,g2,g3,g4)毎に着衣量を推定する。一般的に、身にまとう衣類の量が多い程、熱画像D1で取得される温度は下がる。人の体表温度は28℃から37℃である。半袖及び短パンなど、肌が露出している場合、熱画像D1の温度は人の体表温度そのものである。薄着の場合は体温が衣類の表面まで伝わり、体表温度より少し下がる。厚着をしている場合、体温は衣類の表面まで伝わりにくく、体表温度との差は大きい。ただし、周辺気温と同じになる程ではない。
着衣量は、胴体の領域g2と足の領域g3と胴体及び足の領域g4のそれぞれについて、熱画像D1の分布によって推定する。各領域において何度の領域が何パーセントを占めるかにより、衣類の厚さと形状を推定する。例えば、衣類の形状は、胴体の領域の場合は半袖もしくは長袖とし、足の領域の場合は短パンもしくは長ズボンとする。30度に近い温度の領域の割合が大きいほど、肌が露出していると判断して、胴体の領域の場合は半袖とし、足の領域の場合は短パンとする。割合は例えば20%とする。また、衣類の厚さは、温度が低い程分厚いとする。例えば、28度のときは薄手、25度のときは少し厚め、22度のときは非常に厚手であるとする。
最後に人特徴管理部48は、各人領域の熱画像D34ごとに姿勢推定部41、身長体重推定部42、性別年齢推定部43、基礎代謝算出部44、体脂肪率推定部45、着衣量推定部46、体温推定部47で推定した人の特徴に関する数値D5を、機器制御部5へ出力する。
本実施の形態では、可視光カメラ2から入力された可視光画像D2を用いて、熱画像D1における人が占める領域である人領域を検出していたが、可視光画像D2を用いずに人領域を検出することもできる。図9は、実施の形態2に係る機器制御装置200の構成を示すブロック図の他の例である。人認識情報C31を外部から人領域検出部3aへ入力する。人認識情報C31は、熱画像カメラ1の撮影対象エリアにおいて人が存在できる場所、人が存在しそうな場所等の情報である。人認識情報C31を人領域検出部3aに予め登録しておいてもよい。人領域検出部3aでは、図1に示した人領域検出部3の機能のうち、顔検出部32と顔座標変換部33が無く、人認識情報C31が人領域抽出部34に入力される。また、人領域抽出部34において、人の顔座標C34が算出される。
人領域検出部3aの人領域抽出部34において、体温領域検出部31で検出された顔候補領域D31aおよび人候補領域D31bと人認識情報C31とを照らし合わせて、人候補領域D31bに存在する物体が人であるかどうかを判断する。人領域抽出部34は、人であると判断した候補を対象として顔候補領域D31aおよび人候補領域D31bから顔座標C34、人領域の熱画像D34を算出し、人特徴検出部4へ出力する。
また、本実施の形態では、可視光画像D2の顔画像D32から性別と年齢を推定しているが、可視光画像D2を用いずに外部から性別及び年齢D43を人特徴検出部4aに入力してもよい。性別及び年齢D43を予め人特徴検出部4aに登録しておいても良い。また、制御対象となる機器のリモコンから入力しても良い。入力された性別及び年齢D43を身長体重推定部42と基礎代謝算出部44と人特徴管理部48とへ入力する。
身長体重推定部42は、人領域検出部3aから入力された人領域の熱画像D34と熱画像における顔座標C34と、姿勢推定部41から入力された姿勢D41と、性別及び年齢D43とに基づき、身長と体重とを推定し、身長及び体重D42を体脂肪率推定部45と基礎代謝算出部44とに出力する。基礎代謝算出部44は、性別及び年齢D43と身長体重推定部42から入力された身長及び体重D42とを用いて基礎代謝量D44を算出し、算出した基礎代謝量D44を人特徴管理部48へ出力する。
人特徴管理部48は、姿勢推定部41から入力された姿勢D41と、性別及び年齢D43と、基礎代謝算出部44から入力された基礎代謝量D44と、体脂肪率推定部45から入力された体脂肪率D45と、着衣量推定部46から入力された着衣量D46と、体温推定部47から入力された体温D47とを人の特徴D5として、機器制御部5に入力する。機器制御部5は、人特徴検出部4aから入力された人の特徴D5に基づき、機器の制御方法を決定し、機器を制御する。
《2-3》効果
実施の形態2に係る機器制御装置200によれば、実施の形態1に係る機器制御装置100により得られる効果に加えて以下の効果が得られる。すなわち、立ち姿勢か座り姿勢か寝姿勢かといった姿勢D41を推定するため、人の姿勢に合わせた機器制御ができるという効果が得られる。
実施の形態2に係る機器制御装置200によれば、実施の形態1に係る機器制御装置100により得られる効果に加えて以下の効果が得られる。すなわち、立ち姿勢か座り姿勢か寝姿勢かといった姿勢D41を推定するため、人の姿勢に合わせた機器制御ができるという効果が得られる。
実施の形態2に係る機器制御装置200によれば、性別及び年齢D43と基礎代謝量D44を算出するため、基礎代謝量D44からその人の暑がり及び寒がりの傾向、暑さ及び寒さへの耐性といった体質が分かり、性別と年齢と体質に合わせた機器制御ができるという効果が得られる。
実施の形態2に係る機器制御装置200によれば、着衣量D46と体脂肪率D45を推定するため、人の保温耐性が分かり、特に空調制御において使用者に快適な機器制御ができるという効果が得られる。
実施の形態2に係る機器制御装置200によれば、体温D47を推定するため、人の体調が推測でき、体調に合わせた機器制御ができるという効果が得られる。
実施の形態2に係る機器制御装置200によれば、人の特徴D5に基づき機器制御方法を決定するため、使用者に快適な機器制御ができるという効果が得られる。
《3》実施の形態3
《3-1》構成
図10は、本発明の実施の形態3に係る機器制御装置300の構成を示すブロック図である。図10において、図1(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。実施の形態3に係る機器制御装置300は、機器制御部5aが過去の制御履歴を参照する点、及び、人の特徴から機器制御方法を決定する処理を機器内部で行わず、クラウド8(クラウドサーバ)で実行する点において実施の形態1に係る機器制御装置100と異なる。
《3-1》構成
図10は、本発明の実施の形態3に係る機器制御装置300の構成を示すブロック図である。図10において、図1(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。実施の形態3に係る機器制御装置300は、機器制御部5aが過去の制御履歴を参照する点、及び、人の特徴から機器制御方法を決定する処理を機器内部で行わず、クラウド8(クラウドサーバ)で実行する点において実施の形態1に係る機器制御装置100と異なる。
まず、構成について説明する。図10に示されるように、実施の形態3に係る機器制御装置300は、第1の機器10と、他の機器としての第2の機器11と、ネットワーク7と、クラウド8とを備える。第1の機器10は、熱画像カメラ1と、可視光カメラ2と、人領域検出部3と、人特徴検出部4と、第1の機器制御部としての機器制御部5aと、第1の通信部としての通信部6を備える。第2の機器11は、第2の機器制御部としての機器制御部12と、第2の通信部としての通信部13とを備える。
第1の機器10の熱画像カメラ1は、熱画像D1を生成して第1の機器10の人領域検出部3へ出力する。第1の機器10の可視光カメラ2は、可視光画像D2を生成して第1の機器10の人領域検出部3へ出力する。第1の機器10の人領域検出部3は、第1の機器10の熱画像カメラ1から入力された熱画像D1と第1の機器10の可視光カメラ2から入力された可視光画像D2とに基づき、人を検出し、人領域の熱画像D34と熱画像における顔座標C34と可視光画像D2の顔画像D32とを第1の機器10の人特徴検出部4へ出力する。
第1の機器10の人特徴検出部4は、第1の機器10の人領域検出部3から入力された人領域の熱画像D34と顔座標C34と可視光画像D2の顔画像D32とから人の特徴を検出し、人の特徴の値を第1の機器10の機器制御部5aへ出力する。第1の機器10の機器制御部5aは、第1の機器10の人特徴検出部4から入力された人の特徴と通信部6から入力される人の特徴に対する機器制御方法と第1の機器10の機器制御部5aの内部に蓄積した過去の制御履歴のいずれか1つないし複数に基づき、第1の機器10の制御方法と他の機器の制御方法とを決定し、人の特徴と他の機器の制御方法を第1の機器10の通信部6へ出力する。
第1の機器10の通信部6は、第1の機器10の機器制御部5aから入力された人の特徴を、ネットワーク7を介してクラウド8へ送信し、クラウド8からクラウド8が算出した機器制御方法を受信し、機器制御方法を第1の機器10の機器制御部5aへ出力する。また、第1の機器10の通信部6は、第1の機器10の機器制御部5aから入力された他の機器の制御方法のうち第2の機器11の制御方法と第1の機器10の機器制御部5aから入力された人の特徴とを、ネットワーク7を介して第2の機器11の通信部13へ送信し、第2の機器11の通信部13から第2の機器11が実際に行った機器制御方法を受信して、機器制御方法を第1の機器10の機器制御部5aへ出力する。
クラウド8は第1の機器10の通信部6から受信した人の特徴に基づき、その特徴の値に最適な機器制御方法を算出し、ネットワーク7を介して最適な機器制御方法を第1の機器10の通信部6へ送信する。第2の機器11の通信部13は、第1の機器10の通信部6から受信した人の特徴と第2の機器11の制御方法とを第2の機器11の機器制御部12へ出力し、第2の機器11の機器制御部12から第2の機器11が実際に行った機器制御方法が入力され、第2の機器11が実際に行った機器制御方法をネットワーク7を介して第1の機器10の通信部6に送信する。第2の機器11の機器制御部12は、第2の機器11の通信部13から人の特徴と第2の機器11の機器制御方法が入力され、第2の機器11の機器制御方法を用いて、機器制御方法を決定し、実際に行った機器制御方法を第2の機器11の通信部13へ出力する。
《3-2》動作
次に、動作について説明する。本実施の形態における構成要素のうち、第1の機器10の熱画像カメラ1と、第1の機器10の可視光カメラ2と、第1の機器10の人領域検出部3と、第1の機器10の人特徴検出部4とは、実施の形態1における構成要素である熱画像カメラ1と、可視光カメラ2と、人領域検出部3と、人特徴検出部4とそれぞれ同様の動作をするため、実施の形態3では説明を省略する。
次に、動作について説明する。本実施の形態における構成要素のうち、第1の機器10の熱画像カメラ1と、第1の機器10の可視光カメラ2と、第1の機器10の人領域検出部3と、第1の機器10の人特徴検出部4とは、実施の形態1における構成要素である熱画像カメラ1と、可視光カメラ2と、人領域検出部3と、人特徴検出部4とそれぞれ同様の動作をするため、実施の形態3では説明を省略する。
第1の機器10の機器制御部5aは、第1の機器10の人特徴検出部4から入力された人の特徴に合わせた機器制御方法を決定する。その際、人の特徴(1つ、もしくは、複数の組合せ)に対する機器の最適とされる制御方法を計算する。例えば、基礎代謝量という特徴に対して、基礎代謝が所定の値以上の人は暑がりであるとし、基礎代謝が所定の値未満の人は寒がりであるとして、空調機器を暑がりの人には冷房時に冷風が直接あたるように風向を制御し、寒がりの人には暖房時に温風が直接あたるように風向を制御する。例えば、被撮影物である人が、10歳未満の子供であるという特徴に対して、テレビの音量を所定値以下及び表示輝度を所定値に下げる。また、例えば、60歳以上の男性という特徴に対して、テレビの音量を所定値以上にする。また、例えば、室内に乳幼児だけがいる場合、洗濯機の扉、ドア、及び窓をロックする。なお、計算する制御方法は特徴に関連する制御ができる機器に限定する。
また、第1の機器10の機器制御部5aは、クラウド8で計算され、通信部6から入力された機器制御方法を採用してもよい。また、第1の機器10の機器制御部5aは、第1の機器10の機器制御部5aの内部(蓄積部)に蓄積した過去の制御履歴(人の特徴と機器制御方法の履歴)を参照し、人の特徴が同じである機器制御方法のうち最も頻度の高い機器制御方法を採用してもよい。
また、第1の機器10の機器制御部5aが決定した機器制御方法は、第1の機器10の制御方法に限らず、他の機器(例えば、第2の機器11)の制御方法を決定してもよい。第1の機器10の機器制御部5aが他の機器、例えば第2の機器11の制御方法も決定する場合は、第1の機器10の通信部6から第2の機器11の通信部13にその制御方法ならびに制御方法の基準となった人の特徴を送信し、第2の機器11の機器制御部12は第2の機器11の通信部13から人の特徴と第2の機器11の制御方法を受け取り、その制御方法で第2の機器11の制御を行う。
《3-3》効果
実施の形態3に係る機器制御装置300によれば、実施の形態1に係る機器制御装置100により得られる効果に加えて以下の効果が得られる。すなわち、人の特徴から機器制御方法を決定する処理を、機器内部で行わず、クラウド8で実行するため、最新の知見を用いた人の特徴に基づく機器制御方法を決定でき、より快適な機器制御が可能となる効果が得られる。
実施の形態3に係る機器制御装置300によれば、実施の形態1に係る機器制御装置100により得られる効果に加えて以下の効果が得られる。すなわち、人の特徴から機器制御方法を決定する処理を、機器内部で行わず、クラウド8で実行するため、最新の知見を用いた人の特徴に基づく機器制御方法を決定でき、より快適な機器制御が可能となる効果が得られる。
実施の形態3に係る機器制御装置300によれば、人の特徴から機器制御方法を決定する際に、過去の制御履歴を参照するため、より使用者の嗜好に合わせた機器制御が可能となる効果が得られる。
実施の形態3に係る機器制御装置300によれば、熱画像カメラと可視光カメラを備えない機器であっても、他の機器に備えられた熱画像カメラと可視光カメラから得られた人の特徴に基づいた機器制御方法を受信することで制御が可能となる効果が得られる。
《4》変形例
図11は、上記実施の形態1から3に係る機器制御装置の変形例の構成を示すハードウェア構成図である。図1に示される機器制御装置の人領域検出部3、人特徴検出部4、及び機器制御部5は、半導体集積回路によって構成することが可能であるが、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを用いて(例えば、コンピュータにより)実現してもよい。なお、図1に示される機器制御装置の人領域検出部3、人特徴検出部4、及び機器制御部5の一部を、図11に示されるメモリ91と、プログラムを実行するプロセッサ92とによって実現してもよい。
図11は、上記実施の形態1から3に係る機器制御装置の変形例の構成を示すハードウェア構成図である。図1に示される機器制御装置の人領域検出部3、人特徴検出部4、及び機器制御部5は、半導体集積回路によって構成することが可能であるが、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを用いて(例えば、コンピュータにより)実現してもよい。なお、図1に示される機器制御装置の人領域検出部3、人特徴検出部4、及び機器制御部5の一部を、図11に示されるメモリ91と、プログラムを実行するプロセッサ92とによって実現してもよい。
また、上記実施の形態1から3においては、機器制御装置が熱画像カメラ1と可視光カメラ2とを含む場合を説明したが、既存の熱画像カメラと既存の可視光カメラとから熱画像データと可視光画像データとを取得可能な場合には、機器制御装置は、熱画像カメラ1と可視光カメラ2とを含まないことができる。既存の設備を利用する場合には、コスト削減が可能になる。
また、上記実施の形態1から3においては、機器制御装置が1台の熱画像カメラと1台の可視光カメラ2とから熱画像データと可視光画像データとを取得する場合を説明したが、熱画像カメラの台数は2台以上であってもよく、また、可視光カメラ2の台数は2台以上であってもよい。複数台のカメラを使用することで、検知精度が向上する。
1 熱画像カメラ、 2 可視光カメラ、 3 人領域検出部、 4 人特徴検出部、 5 機器制御部、 5a 第1の機器の機器制御部、 6 第1の機器の通信部、 7 ネットワーク、 8 クラウド、 10 第1の機器、 11 第2の機器、 12 第2の機器の機器制御部、 13 第2の機器の通信部、 31 体温領域検出部、 32 顔検出部、 33 顔座標変換部、 34 人領域抽出部、 41 姿勢推定部、 42 身長体重推定部、 43 性別年齢推定部、 44 基礎代謝算出部、 45 体脂肪率推定部、 46 着衣量推定部、 47 体温推定部、 48 人特徴管理部、 100,200,300 機器制御装置。
Claims (13)
- 被撮影物に対応する熱画像が入力され、前記熱画像において人が占める領域である人領域を検出する人領域検出部と、
前記熱画像における前記人領域の熱画像部分から人の基礎代謝を算出する人特徴検出部と、
前記人特徴検出部により検出された前記人の基礎代謝に基づいて機器を制御する第1の機器制御部と、
を備える機器制御装置。 - 前記被撮影物を撮影して、前記被撮影物に対応する前記熱画像を生成する熱画像カメラと、
前記被撮影物を撮影して、前記被撮影物に対応する可視光画像を生成する可視光カメラと、
をさらに備え、
前記人領域検出部は、前記可視光画像から検出された人の体における所定部位の領域と前記熱画像とに基づき前記人領域を検出する
ことを特徴とする請求項1に記載の機器制御装置。 - 前記人領域検出部は、
前記熱画像における温度分布から人の領域の候補である人候補領域と人の体における所定部位の領域の候補である所定部位候補領域とを検出する体温領域検出部と、
前記可視光画像における前記所定部位の領域の位置を示す座標を検出する所定部位検出部と、
前記座標を、前記熱画像における前記所定部位の領域の位置を示す所定部位座標に変換する所定部位座標変換部と、
前記人候補領域と前記所定部位候補領域と前記所定部位座標とに基づき、前記人領域を抽出する人領域抽出部と、
を有することを特徴とする請求項2に記載の機器制御装置。 - 前記所定部位は、顔であることを特徴とする請求項2又は3に記載の機器制御装置。
- 前記人特徴検出部は、
前記人領域におけるアスペクト比から前記人領域を占める人の姿勢を推定する姿勢推定部を有すること
を特徴とする請求項3に記載の機器制御装置。 - 前記人特徴検出部は、
前記可視光画像から、前記人領域を占める人の性別及び年齢を推定する性別年齢推定部と、
前記人領域と、前記所定部位座標と、前記姿勢推定部が推定した前記姿勢と、前記性別年齢推定部から入力された前記性別及び年齢から、前記人領域を占める人の身長及び体重を推定する身長体重推定部と、を更に備え、
前記性別年齢推定部が推定した前記性別及び年齢と、前記身長体重推定部が推定した前記身長及び体重とから、前記人領域を占める前記人の基礎代謝を算出すること
を特徴とする請求項5に記載の機器制御装置。 - 前記人特徴検出部は、
前記人領域及び前記所定部位座標から、前記人領域を占める人の着衣量を推定する着衣量推定部と、
前記身長体重推定部が推定した前記身長及び体重から、前記人領域を占める人の体脂肪率を推定する体脂肪率推定部とを更に有すること
を特徴とする請求項6に記載の機器制御装置。 - 前記人特徴検出部は、
前記人領域及び前記所定部位座標から、前記人領域を占める人の体温を推定する体温推定部を更に有すること
を特徴とする請求項5又は6に記載の機器制御装置。 - 前記人特徴検出部は、
人の性別及び年齢と、人の身長及び体重とから、前記人の基礎代謝を算出すること
を特徴とする請求項1から5のいずれか1項に記載の機器制御装置。 - 前記第1の機器制御部は、過去に行った制御及び制御時の人の特徴を制御履歴として蓄積して記録する蓄積部を更に備え、
前記第1の機器制御部は、機器の制御方法を決定する際に前記制御履歴を用いること
を特徴とする請求項1から9のいずれか1項に記載の機器制御装置。 - 前記人の特徴を、ネットワークを介してクラウドサーバに送信し、前記クラウドサーバが算出した機器制御方法を受信し、受信した前記機器制御方法を前記第1の機器制御部に出力する第1の通信部を更に備え、
前記第1の機器制御部は、前記第1の通信部から入力された前記機器制御方法に従って機器を制御すること
を特徴とする請求項1から10のいずれか1項に記載の機器制御装置。 - 前記第1の通信部は、前記ネットワークを介して、前記ネットワークに接続された他の機器の第2の通信部に、前記第1の機器制御部が算出した前記機器制御方法を送信し、
前記他の機器の第2の機器制御部は、前記第2の通信部が受信した前記機器制御方法に基づき、機器を制御すること
を特徴とする請求項11に記載の機器制御装置。 - 被撮影物に対応する熱画像が入力され、前記熱画像において人が占める領域である人領域を検出する人領域検出ステップと、
前記熱画像における前記人領域の熱画像部分から人の基礎代謝を算出する人特徴検出ステップと、
前記人特徴検出ステップにより検出された前記人の基礎代謝に基づいて機器を制御する機器制御ステップと、
を備えた機器制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/091,806 US10982871B2 (en) | 2016-06-03 | 2017-05-30 | Equipment control device and method, utilizing basal metabolism data calculated from estimated characteristics of a person based on detected visible light image data and corresponding thermal image data |
CN201780032995.1A CN109196516B (zh) | 2016-06-03 | 2017-05-30 | 设备控制装置和设备控制方法 |
DE112017002805.1T DE112017002805T5 (de) | 2016-06-03 | 2017-05-30 | Ausrüstungssteuerungseinrichtung und Ausrüstungssteuerungsverfahren |
JP2017553447A JP6333486B2 (ja) | 2016-06-03 | 2017-05-30 | 機器制御装置及び機器制御方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016111529 | 2016-06-03 | ||
JP2016-111529 | 2016-06-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017209089A1 true WO2017209089A1 (ja) | 2017-12-07 |
Family
ID=60478509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/020000 WO2017209089A1 (ja) | 2016-06-03 | 2017-05-30 | 機器制御装置及び機器制御方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10982871B2 (ja) |
JP (1) | JP6333486B2 (ja) |
CN (1) | CN109196516B (ja) |
DE (1) | DE112017002805T5 (ja) |
WO (1) | WO2017209089A1 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020084777A1 (ja) * | 2018-10-26 | 2020-04-30 | 三菱電機株式会社 | 推定装置、空調システム及び推定方法 |
JP2021089082A (ja) * | 2019-12-02 | 2021-06-10 | シャープ株式会社 | 空気調和システム、サーバ、および空気調和機 |
JP2022046326A (ja) * | 2020-09-10 | 2022-03-23 | ソフトバンク株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
WO2022070301A1 (ja) * | 2020-09-30 | 2022-04-07 | 日本電気株式会社 | 生体判定システム、生体判定方法、及びコンピュータプログラム |
JP2022081282A (ja) * | 2020-11-19 | 2022-05-31 | ソフトバンク株式会社 | 情報処理装置、情報処理プログラム及び情報処理システム |
WO2022176411A1 (ja) * | 2021-02-17 | 2022-08-25 | パナソニックIpマネジメント株式会社 | 温冷感推定装置、空調装置、空調システム、温冷感推定方法及びプログラム |
WO2022190590A1 (ja) * | 2021-03-11 | 2022-09-15 | パナソニックIpマネジメント株式会社 | 温冷感推定装置、空調装置、チャイルドシート、温冷感推定方法及びプログラム |
US11521422B2 (en) | 2020-03-10 | 2022-12-06 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for detecting body temperature, electronic apparatus and storage medium |
WO2023068106A1 (ja) * | 2021-10-21 | 2023-04-27 | パナソニックIpマネジメント株式会社 | 人体領域検知システム、人体領域検知方法およびプログラム |
JP7448762B2 (ja) | 2020-06-17 | 2024-03-13 | 株式会社ネツミル | 温度監視システム、温度監視制御装置、温度監視端末装置、温度監視方法、及び温度監視プログラム |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6627680B2 (ja) * | 2016-07-27 | 2020-01-08 | 株式会社Jvcケンウッド | 人物検出装置、人物検出システム、人物検出方法及び人物検出プログラム |
US10768682B2 (en) * | 2017-01-20 | 2020-09-08 | Flir Systems, Inc. | Detection-based wakeup of detection devices |
US11836984B2 (en) * | 2018-06-29 | 2023-12-05 | Logistics and Supply Chain MultiTech R&D Centre Limited | Electronic device and method for counting objects |
US20200372743A1 (en) * | 2019-05-20 | 2020-11-26 | Popid, Inc. | Face based door entry |
JP7150190B2 (ja) * | 2019-10-31 | 2022-10-07 | 三菱電機株式会社 | 空気調和機 |
WO2021184071A1 (en) * | 2020-03-17 | 2021-09-23 | Elenium Automation Pty Ltd | "self-service station having thermal imaging camera" |
US20230081256A1 (en) * | 2020-03-25 | 2023-03-16 | Nec Corporation | Video display system and video display method |
US20210344852A1 (en) * | 2020-05-04 | 2021-11-04 | Rebellion Photonics, Inc. | Apparatuses, systems, and methods for thermal imaging |
CN111784894B (zh) * | 2020-06-02 | 2022-05-10 | 广州跨行网络科技有限公司 | 一种门禁数据处理方法和装置及介质 |
CN111914761A (zh) * | 2020-08-04 | 2020-11-10 | 南京华图信息技术有限公司 | 一种热红外人脸识别的方法及系统 |
TW202207867A (zh) * | 2020-08-24 | 2022-03-01 | 禾企電子股份有限公司 | 體溫異常個體快篩系統 |
KR102494633B1 (ko) * | 2020-11-27 | 2023-02-07 | (주)메쉬 | 발열검사기의 실화상과 열화상의 최적 자동 매핑 방법 및 그 방법을 적용한 발열검사기 |
US20220327838A1 (en) * | 2021-04-08 | 2022-10-13 | Universal City Studios Llc | Guest measurement systems and methods |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05149725A (ja) * | 1991-11-29 | 1993-06-15 | Matsushita Electric Ind Co Ltd | 姿勢判別装置とその応用機器 |
JP2003173375A (ja) * | 2001-09-28 | 2003-06-20 | Toshiba Corp | 生活管理端末装置、生活管理方法並びに生活管理システム |
JP2010136223A (ja) * | 2008-12-05 | 2010-06-17 | Sony Corp | 撮像装置及び撮像方法 |
JP2015017728A (ja) * | 2013-07-10 | 2015-01-29 | 日立アプライアンス株式会社 | 空気調和機 |
JP2015078802A (ja) * | 2013-10-18 | 2015-04-23 | 日立アプライアンス株式会社 | 空気調和機の室内機及び空気調和機 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5155539A (ja) | 1974-11-08 | 1976-05-15 | Ichikoh Industries Ltd | Koshikyotoritsukesochi |
JPH05155539A (ja) | 1991-12-09 | 1993-06-22 | Matsushita Electric Ind Co Ltd | エレベータの運転制御装置 |
JPH07103544A (ja) | 1993-10-07 | 1995-04-18 | Sharp Corp | 空気調和機 |
JPH083544A (ja) | 1994-06-20 | 1996-01-09 | Nippon Telegr & Teleph Corp <Ntt> | はっ水性処理剤および表面はっ水性処理部材 |
JP2952208B2 (ja) | 1997-03-18 | 1999-09-20 | 株式会社エイ・ティ・アール知能映像通信研究所 | 人体姿勢の推定方法 |
JP2001005973A (ja) | 1999-04-20 | 2001-01-12 | Atr Media Integration & Communications Res Lab | カラー画像による人物の3次元姿勢推定方法および装置 |
CA2517869C (en) * | 2003-02-26 | 2013-09-10 | Marcio Marc Aurelio Martins Abreu | Apparatus and method for measuring biologic parameters |
US7138905B2 (en) * | 2004-11-18 | 2006-11-21 | Honeywell International Inc. | Controlled environment thermal image detection system and methods regarding same |
US7457441B2 (en) * | 2005-02-25 | 2008-11-25 | Aptina Imaging Corporation | System and method for detecting thermal anomalies |
US20090204008A1 (en) * | 2008-02-08 | 2009-08-13 | Daniel Beilin | Whole body infrared thermography systems and methods |
US20090318773A1 (en) * | 2008-06-24 | 2009-12-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Involuntary-response-dependent consequences |
US7924312B2 (en) * | 2008-08-22 | 2011-04-12 | Fluke Corporation | Infrared and visible-light image registration |
JP5111445B2 (ja) * | 2008-09-10 | 2013-01-09 | 三菱電機株式会社 | 空気調和機 |
US9342594B2 (en) * | 2008-10-29 | 2016-05-17 | International Business Machines Corporation | Indexing and searching according to attributes of a person |
EP2271073B1 (en) * | 2009-07-01 | 2018-03-07 | Fluke Corporation | Thermography methods |
JP2011203952A (ja) | 2010-03-25 | 2011-10-13 | Hitachi Solutions Ltd | 自動販売機 |
US9031706B2 (en) * | 2010-07-28 | 2015-05-12 | Lg Electronics Inc. | Air conditioner and method for controlling the same |
JP5489915B2 (ja) | 2010-08-19 | 2014-05-14 | 三菱電機株式会社 | 空気調和機 |
US8638364B2 (en) * | 2010-09-23 | 2014-01-28 | Sony Computer Entertainment Inc. | User interface system and method using thermal imaging |
JP2012173118A (ja) * | 2011-02-21 | 2012-09-10 | Fujitsu Ltd | 温度計測システムおよび温度計測方法 |
JP5851105B2 (ja) | 2011-03-15 | 2016-02-03 | 株式会社東芝 | エネルギー需要予測装置及びプログラム |
US9633320B2 (en) | 2011-03-15 | 2017-04-25 | Kabushiki Kaisha Toshiba | Energy demand prediction apparatus and method |
JP5923723B2 (ja) * | 2011-06-02 | 2016-05-25 | パナソニックIpマネジメント株式会社 | 人物属性推定システム、人物属性推定装置、及び人物属性推定方法 |
DE102011077522A1 (de) * | 2011-06-15 | 2012-12-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zur Erfassung der thermischen Behaglichkeit |
KR101247497B1 (ko) * | 2012-02-29 | 2013-03-27 | 주식회사 슈프리마 | 환경 적응형 얼굴 인식장치 및 그 방법 |
US9292250B2 (en) * | 2012-09-27 | 2016-03-22 | Intel Corporation | Devices, methods, and systems for providing interactivity with digital signs |
JP6348763B2 (ja) * | 2014-04-18 | 2018-06-27 | 日立ジョンソンコントロールズ空調株式会社 | 空気調和機 |
KR20150131591A (ko) * | 2014-05-15 | 2015-11-25 | 엘지전자 주식회사 | 공기조화기 및 그 제어 방법 |
CN104279705B (zh) * | 2014-10-08 | 2017-07-04 | 广东美的制冷设备有限公司 | 空调控制方法、系统及空调设备 |
CN104279706B (zh) * | 2014-10-08 | 2017-03-22 | 广东美的制冷设备有限公司 | 基于图像识别的空调控制方法、系统及空调设备 |
JP6428144B2 (ja) * | 2014-10-17 | 2018-11-28 | オムロン株式会社 | エリア情報推定装置、エリア情報推定方法、および空気調和装置 |
JP2016164525A (ja) * | 2015-03-06 | 2016-09-08 | セイコーエプソン株式会社 | 温度測定装置及び温度測定方法 |
US10235690B2 (en) * | 2015-03-11 | 2019-03-19 | Admobilize Llc. | Method and system for dynamically adjusting displayed content based on analysis of viewer attributes |
JP6505514B2 (ja) * | 2015-06-10 | 2019-04-24 | パナソニック株式会社 | 空気調和機、センサシステムおよびその温冷感推定方法 |
WO2016201384A2 (en) * | 2015-06-12 | 2016-12-15 | University Of Maryland, College Park | Comfort units and systems, methods, and devices for use thereof |
FR3039461B1 (fr) * | 2015-07-30 | 2018-12-07 | Valeo Systemes Thermiques | Systeme de commande pour installation de conditionnement d'air d'un vehicule automobile |
CN105202718B (zh) * | 2015-10-30 | 2018-02-06 | 广东美的制冷设备有限公司 | 一种基于基础代谢率的空调控制方法、系统及空调 |
CN105180385A (zh) * | 2015-10-30 | 2015-12-23 | 广东美的制冷设备有限公司 | 一种基于脸部特征进行空调控制的方法、系统及空调 |
US9644857B1 (en) * | 2015-12-01 | 2017-05-09 | Nasser Ashgriz | Virtual thermostat for a zonal temperature control |
US20170156594A1 (en) * | 2015-12-07 | 2017-06-08 | Bodymedia, Inc. | Systems, methods, and devices to determine and predict physilogical states of individuals and to administer therapy, reports, notifications, and the like therefor |
US20170211838A1 (en) * | 2016-01-21 | 2017-07-27 | Vivint, Inc. | Image based hvac |
US10372990B2 (en) * | 2016-03-18 | 2019-08-06 | International Business Machines Corporation | System and method for identification of personal thermal comfort |
US20170330044A1 (en) * | 2016-05-10 | 2017-11-16 | GM Global Technology Operations LLC | Thermal monitoring in autonomous-driving vehicles |
-
2017
- 2017-05-30 JP JP2017553447A patent/JP6333486B2/ja active Active
- 2017-05-30 DE DE112017002805.1T patent/DE112017002805T5/de active Pending
- 2017-05-30 CN CN201780032995.1A patent/CN109196516B/zh active Active
- 2017-05-30 WO PCT/JP2017/020000 patent/WO2017209089A1/ja active Application Filing
- 2017-05-30 US US16/091,806 patent/US10982871B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05149725A (ja) * | 1991-11-29 | 1993-06-15 | Matsushita Electric Ind Co Ltd | 姿勢判別装置とその応用機器 |
JP2003173375A (ja) * | 2001-09-28 | 2003-06-20 | Toshiba Corp | 生活管理端末装置、生活管理方法並びに生活管理システム |
JP2010136223A (ja) * | 2008-12-05 | 2010-06-17 | Sony Corp | 撮像装置及び撮像方法 |
JP2015017728A (ja) * | 2013-07-10 | 2015-01-29 | 日立アプライアンス株式会社 | 空気調和機 |
JP2015078802A (ja) * | 2013-10-18 | 2015-04-23 | 日立アプライアンス株式会社 | 空気調和機の室内機及び空気調和機 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020084777A1 (ja) * | 2018-10-26 | 2021-03-18 | 三菱電機株式会社 | 推定装置、空調システム及び推定方法 |
WO2020084777A1 (ja) * | 2018-10-26 | 2020-04-30 | 三菱電機株式会社 | 推定装置、空調システム及び推定方法 |
JP2021089082A (ja) * | 2019-12-02 | 2021-06-10 | シャープ株式会社 | 空気調和システム、サーバ、および空気調和機 |
US11521422B2 (en) | 2020-03-10 | 2022-12-06 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for detecting body temperature, electronic apparatus and storage medium |
JP7448762B2 (ja) | 2020-06-17 | 2024-03-13 | 株式会社ネツミル | 温度監視システム、温度監視制御装置、温度監視端末装置、温度監視方法、及び温度監視プログラム |
JP2022046326A (ja) * | 2020-09-10 | 2022-03-23 | ソフトバンク株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP7311474B2 (ja) | 2020-09-10 | 2023-07-19 | ソフトバンク株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
WO2022070301A1 (ja) * | 2020-09-30 | 2022-04-07 | 日本電気株式会社 | 生体判定システム、生体判定方法、及びコンピュータプログラム |
JP7533599B2 (ja) | 2020-09-30 | 2024-08-14 | 日本電気株式会社 | 生体判定システム、生体判定方法、及びコンピュータプログラム |
JP7311478B2 (ja) | 2020-11-19 | 2023-07-19 | ソフトバンク株式会社 | 情報処理装置、情報処理プログラム及び情報処理システム |
JP2022081282A (ja) * | 2020-11-19 | 2022-05-31 | ソフトバンク株式会社 | 情報処理装置、情報処理プログラム及び情報処理システム |
WO2022176411A1 (ja) * | 2021-02-17 | 2022-08-25 | パナソニックIpマネジメント株式会社 | 温冷感推定装置、空調装置、空調システム、温冷感推定方法及びプログラム |
JP7511196B2 (ja) | 2021-02-17 | 2024-07-05 | パナソニックIpマネジメント株式会社 | 温冷感推定装置、空調装置、空調システム、温冷感推定方法及びプログラム |
WO2022190590A1 (ja) * | 2021-03-11 | 2022-09-15 | パナソニックIpマネジメント株式会社 | 温冷感推定装置、空調装置、チャイルドシート、温冷感推定方法及びプログラム |
WO2023068106A1 (ja) * | 2021-10-21 | 2023-04-27 | パナソニックIpマネジメント株式会社 | 人体領域検知システム、人体領域検知方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN109196516A (zh) | 2019-01-11 |
JPWO2017209089A1 (ja) | 2018-06-21 |
JP6333486B2 (ja) | 2018-05-30 |
DE112017002805T5 (de) | 2019-02-28 |
CN109196516B (zh) | 2022-04-19 |
US10982871B2 (en) | 2021-04-20 |
US20190162439A1 (en) | 2019-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6333486B2 (ja) | 機器制御装置及び機器制御方法 | |
EP3680568B1 (en) | Air-conditioning control device | |
JP6050543B2 (ja) | 空気調和機及び熱画像センサシステム | |
JP6505514B2 (ja) | 空気調和機、センサシステムおよびその温冷感推定方法 | |
US9464819B2 (en) | Air conditioning control system and air conditioning control method | |
JP2013114595A (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020239251A1 (en) | Methods and systems for determining body measurements and providing clothing size recommendations | |
JP6425821B2 (ja) | 空気調和機 | |
JP6109288B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN112639365A (zh) | 换气控制装置以及换气系统 | |
US11200689B1 (en) | Detailed 3D estimation from a single image | |
JP2004078297A (ja) | 情報処理装置、情報処理方法及び環境制御装置 | |
JP2019105924A (ja) | 着用物データベース管理システム及び着用物情報提供システム | |
CN112923537A (zh) | 空调控制方法、空调及计算机可读存储介质 | |
CN109685042A (zh) | 一种三维图像识别装置及其识别方法 | |
CN114375177A (zh) | 身体测量装置及其控制方法 | |
KR102466408B1 (ko) | 스타일링 장치 및 이의 구동 방법 | |
JP5411092B2 (ja) | 携帯端末を用いたファッションチェックシステム | |
JP7259313B2 (ja) | 属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体 | |
JP2017108259A (ja) | 機器制御システム、及び、機器制御方法 | |
WO2023088058A1 (zh) | 用于控制空调的方法及装置、空调、存储介质 | |
JP7311478B2 (ja) | 情報処理装置、情報処理プログラム及び情報処理システム | |
JP2020064496A (ja) | 情報処理システムおよびプログラム | |
CN106052034B (zh) | 一种基于脸部特征进行空调控制的方法、系统及空调 | |
JPWO2020084777A1 (ja) | 推定装置、空調システム及び推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2017553447 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17806643 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17806643 Country of ref document: EP Kind code of ref document: A1 |