[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5505693B2 - DETECTING DEVICE, DETECTING METHOD, PROGRAM, AND ELECTRONIC DEVICE - Google Patents

DETECTING DEVICE, DETECTING METHOD, PROGRAM, AND ELECTRONIC DEVICE Download PDF

Info

Publication number
JP5505693B2
JP5505693B2 JP2009253305A JP2009253305A JP5505693B2 JP 5505693 B2 JP5505693 B2 JP 5505693B2 JP 2009253305 A JP2009253305 A JP 2009253305A JP 2009253305 A JP2009253305 A JP 2009253305A JP 5505693 B2 JP5505693 B2 JP 5505693B2
Authority
JP
Japan
Prior art keywords
light
charge amount
subject
wavelength
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009253305A
Other languages
Japanese (ja)
Other versions
JP2011100214A (en
Inventor
信広 西条
武俊 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009253305A priority Critical patent/JP5505693B2/en
Publication of JP2011100214A publication Critical patent/JP2011100214A/en
Application granted granted Critical
Publication of JP5505693B2 publication Critical patent/JP5505693B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Color Television Image Signal Generators (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、検出装置、検出方法、プログラム、及び電子機器に関し、特に、例えば、撮像画像上から人間の手の形状等を検出する場合に用いて好適な検出装置、検出方法、プログラム、及び電子機器に関する。   The present invention relates to a detection device, a detection method, a program, and an electronic device, and more particularly, for example, a detection device, a detection method, a program, and an electronic device suitable for detecting the shape of a human hand from a captured image Regarding equipment.

従来、例えば、被写体を撮像して得られる撮像画像上から、人間の肌を表す肌領域を検出(認識)する肌認識システムが存在する(例えば、非特許文献1を参照)。   2. Description of the Related Art Conventionally, for example, there is a skin recognition system that detects (recognizes) a skin region representing human skin from a captured image obtained by imaging a subject (see, for example, Non-Patent Document 1).

図1は、従来の肌認識システム1の構成例を示している。   FIG. 1 shows a configuration example of a conventional skin recognition system 1.

この肌認識システム1は、発光装置21、カメラ22、及び情報処理装置23により構成される。   The skin recognition system 1 includes a light emitting device 21, a camera 22, and an information processing device 23.

発光装置21は、波長λ1の光(例えば、870[nm]の近赤外線)を照射(発光)するLED(light emitting diode)21a1及び21a2(2個の黒丸で示すそれぞれ)、並びに波長λ1とは異なる波長λ2の光(例えば、950[nm]の近赤外線)を照射するLED21b1及び21b2(2個の白丸で示すそれぞれ)により構成される。 The light emitting device 21 includes LEDs (light emitting diodes) 21a 1 and 21a 2 (represented by two black circles) that emit (emit) light of wavelength λ1 (for example, near infrared light of 870 [nm]), and wavelength λ1. composed of light of different wavelengths .lambda.2 (e.g., near infrared 950 [nm]) (respectively indicated by two circles) LED 21b 1 and 21b 2 is irradiated with the.

なお、波長λ1及びλ2の組合せは、例えば、波長λ1の光を人間の肌に照射したときの反射率が、波長λ2の光を人間の肌に照射したときの反射率よりも大きくなる組合せである。また、波長λ1及びλ2の組合せは、波長λ1の光を人間の肌以外のものに照射したときの反射率と、波長λ2の光を人間の肌以外のものに照射したときの反射率とは殆ど変わらない組合せである。   The combination of wavelengths λ1 and λ2 is a combination in which, for example, the reflectance when light of wavelength λ1 is irradiated on human skin is greater than the reflectance when light of wavelength λ2 is irradiated on human skin. is there. The combination of the wavelengths λ1 and λ2 is the reflectance when the light of the wavelength λ1 is irradiated on something other than human skin and the reflectance when the light of the wavelength λ2 is irradiated on something other than human skin. The combination is almost unchanged.

以下において、LED21a1及び21a2を区別する必要がない場合には、LED21a1及び21a2を単にLED21aという。また、LED21b1及び21b2を区別する必要がない場合には、LED21b1及び21b2を単にLED21bという。 Hereinafter, when there is no need to distinguish between the LED 21a 1 and 21a 2 are referred to simply as LED 21a and LED 21a 1 and 21a 2. When there is no need to distinguish between the LED 21b 1 and 21b 2 are the LED 21b 1 and 21b 2 simply as LED 21b.

また、LED21aとLED21bの出力は、それぞれ、波長λ1及びλ2に対する反射率が同一である被写体に対して、波長λ1又はλ2のいずれの光を照射した場合にも、カメラ22の撮像により得られる撮像画像の、対応する画素どうしの輝度値が同一となるように調整されている。   Further, the outputs of the LEDs 21a and 21b are images obtained by the imaging of the camera 22 when a subject having the same reflectance with respect to the wavelengths λ1 and λ2 is irradiated with light of either wavelength λ1 or λ2. Adjustment is made so that the luminance values of corresponding pixels in the image are the same.

LED21aとLED21bとは、図1に示すように、碁盤の目状に配置されており、交互に発光する。   As shown in FIG. 1, the LEDs 21a and the LEDs 21b are arranged in a grid pattern and emit light alternately.

カメラ22は、被写体に照射される波長λ1の光の反射光を受光し、その結果得られる第1の撮像画像を、情報処理装置23に供給する。また、カメラ22は、被写体に照射される波長λ2の光の反射光を受光し、その結果得られる第2の撮像画像を、情報処理装置23に供給する。   The camera 22 receives the reflected light of the light having the wavelength λ1 irradiated on the subject, and supplies the first captured image obtained as a result to the information processing device 23. Further, the camera 22 receives the reflected light of the light having the wavelength λ <b> 2 applied to the subject, and supplies the second captured image obtained as a result to the information processing device 23.

情報処理装置23は、発光装置21及びカメラ22を制御する。また、情報処理装置23は、カメラ22からの第1及び第2の撮像画像の、対応する画素の輝度値どうしの差分絶対値を算出し、算出した差分絶対値に基づいて、第1の撮像画像(又は第2の撮像画像)上の肌領域を検出する。   The information processing device 23 controls the light emitting device 21 and the camera 22. In addition, the information processing device 23 calculates a difference absolute value between luminance values of corresponding pixels of the first and second captured images from the camera 22, and performs first imaging based on the calculated difference absolute value. A skin region on the image (or the second captured image) is detected.

[従来の情報処理装置23による制御の一例]
次に、図2は、情報処理装置23が、発光装置21及びカメラ22を制御する様子の一例を示している。
[Example of control by conventional information processing apparatus 23]
Next, FIG. 2 shows an example of how the information processing device 23 controls the light emitting device 21 and the camera 22.

なお、図2A乃至図2Eの横軸は、同一の時間を表している。   2A to 2E represent the same time.

情報処理装置23は、例えば、60fps(frames per second)の場合、図2Aに示されるように、VD信号(垂直同期信号)として、16.7[ms](=1/60[s])毎に立ち上がりエッジを生じさせるVD信号を生成する。   For example, in the case of 60 fps (frames per second), the information processing device 23 rises every 16.7 [ms] (= 1/60 [s]) as a VD signal (vertical synchronization signal) as shown in FIG. 2A. A VD signal that generates an edge is generated.

そして、情報処理装置23は、生成したVD信号に立ち上がりエッジが生じるタイミング毎に、16.7[ms]の発光時間(照射時間)で、LED21a及びLED21bを交互に発光させる。   Then, the information processing device 23 alternately causes the LEDs 21a and 21b to emit light at a light emission time (irradiation time) of 16.7 [ms] every time a rising edge occurs in the generated VD signal.

すなわち、例えば、情報処理装置23は、図2Bに示されるように、生成したVD信号に生じる複数の立ち上がりエッジのうち、奇数番目の立ち上がりエッジが生じるタイミング毎にLED21aの発光を開始させ、発光の開始から16.7[ms]後に発光を終了させる。   That is, for example, as shown in FIG. 2B, the information processing device 23 starts the light emission of the LED 21a at each timing when an odd-numbered rising edge occurs among a plurality of rising edges generated in the generated VD signal, Light emission ends 16.7 [ms] after the start.

また、情報処理装置23は、図2Cに示されるように、生成したVD信号に生じる複数の立ち上がりエッジのうち、偶数番目の立ち上がりエッジが生じるタイミング毎にLED21bの発光を開始させ、発光の開始から16.7[ms]後に発光を終了させる。   Further, as shown in FIG. 2C, the information processing device 23 starts the light emission of the LED 21b at every timing when even-numbered rising edges occur among the plurality of rising edges generated in the generated VD signal. The light emission ends after 16.7 [ms].

さらに、情報処理装置23は、生成したVD信号に生じる複数の立ち上がりエッジが生じるタイミング毎に、16.7[ms]の露光時間で、カメラ22の露光を行わせる。すなわち、例えば、情報処理装置23は、図2Dに示されるように、VD信号に生じる複数の立ち上がりエッジが生じるタイミング毎に露光を開始させ、露光の開始から16.7[ms]後に露光を終了させる。   Furthermore, the information processing device 23 causes the camera 22 to be exposed with an exposure time of 16.7 [ms] at each timing when a plurality of rising edges appear in the generated VD signal. That is, for example, as illustrated in FIG. 2D, the information processing apparatus 23 starts exposure at each timing when a plurality of rising edges generated in the VD signal occur, and ends the exposure after 16.7 [ms] from the start of exposure.

これにより、カメラ22は、図2Eに示されるように、VD信号に生じる複数の立ち上がりエッジが生じるタイミングに応じて、16.7[ms]の露光時間で被写体に照射された光の反射光を受光し、受光した反射光に対応する電荷を蓄積する。   As a result, as shown in FIG. 2E, the camera 22 receives the reflected light of the light irradiated to the subject with an exposure time of 16.7 [ms] according to the timing at which a plurality of rising edges generated in the VD signal occur. The electric charge corresponding to the received reflected light is accumulated.

すなわち、例えば、カメラ22は、16.7[ms]の露光時間で、LED21aから被写体に照射された光の反射光(波長λ1の反射光)を受光して電荷を蓄積する。そして、カメラ22は、図2Eに示されるように、蓄積した電荷の電荷量α1に対応する輝度値α1'を有する画素により構成される第1の撮像画像を生成し、情報処理装置23に供給する。 That is, for example, the camera 22 receives reflected light (reflected light having a wavelength λ1) emitted from the LED 21a to the subject with an exposure time of 16.7 [ms], and accumulates charges. Then, as shown in FIG. 2E, the camera 22 generates a first captured image including pixels having a luminance value α 1 ′ corresponding to the charge amount α 1 of the accumulated charge, and the information processing apparatus 23 To supply.

また、例えば、カメラ22は、16.7[ms]の露光時間で、LED21bから被写体に照射された光の反射光(波長λ2の反射光)を受光して電荷を蓄積する。そして、カメラ22は、図2Eに示されるように、蓄積した電荷の電荷量β1に対応する輝度値β1'を有する画素により構成される第2の撮像画像を生成し、情報処理装置23に供給する。 Further, for example, the camera 22 receives reflected light (reflected light having a wavelength λ2) emitted from the LED 21b to the subject with an exposure time of 16.7 [ms], and accumulates charges. Then, as shown in FIG. 2E, the camera 22 generates a second captured image including pixels having a luminance value β 1 ′ corresponding to the accumulated charge amount β 1 , and the information processing apparatus 23 To supply.

情報処理装置23は、カメラ22からの第1及び第2の撮像画像に基づいて、人間の肌に対する分光反射特性を利用した肌領域の検出を行う。   Based on the first and second captured images from the camera 22, the information processing apparatus 23 detects a skin region using spectral reflection characteristics with respect to human skin.

すなわち、上述したように波長λ1及びλ2の組合せは、波長λ1の光を人間の肌に照射したときの反射率が、波長λ2の光を人間の肌に照射したときの反射率よりも大きくなる組合せである。   That is, as described above, in the combination of wavelengths λ1 and λ2, the reflectance when light of wavelength λ1 is irradiated on human skin is larger than the reflectance when light of wavelength λ2 is irradiated on human skin. It is a combination.

したがって、波長λ1又はλ2の光を、それぞれ、人間の肌に照射した場合、波長λ1の反射光により蓄積される電荷量α1は、波長λ2の反射光により蓄積される電荷量β1よりも大きなものとなる。 Accordingly, when light of wavelength λ1 or λ2 is irradiated on human skin, the charge amount α 1 accumulated by the reflected light of wavelength λ1 is larger than the charge amount β 1 accumulated by the reflected light of wavelength λ2. It will be big.

このため、第1の撮像画像上の肌領域を構成する画素の輝度値α1'は比較的大きな値となり、第2の撮像画像上の肌領域を構成する画素の輝度値β1'は比較的小さな値となる。したがって、第1及び第2の撮像画像上の肌領域を構成する画素の輝度値どうしの差分絶対値|α1'―β1'|は、比較的大きな値となる。 Therefore, the luminance value α 1 ′ of the pixels constituting the skin area on the first captured image is a relatively large value, and the luminance value β 1 ′ of the pixels constituting the skin area on the second captured image is compared. Small value. Therefore, the difference absolute value | α 1 ′ −β 1 ′ | between the luminance values of the pixels constituting the skin area on the first and second captured images is a relatively large value.

また、上述したように、波長λ1及びλ2の組合せは、波長λ1の光を人間の肌以外のものに照射したときの反射率と、波長λ2の光を人間の肌以外のものに照射したときの反射率とは殆ど変わらない組合せである。   As described above, the combination of the wavelengths λ1 and λ2 is a combination of the reflectance when the light with the wavelength λ1 is irradiated on the non-human skin and the light with the wavelength λ2 on the non-human skin. This is a combination that is almost the same as the reflectivity of.

したがって、波長λ1又はλ2の光を、それぞれ、人間の肌以外のものに照射した場合、波長λ1の反射光により蓄積される電荷量α1は、波長λ2の反射光により蓄積される電荷量β1と殆ど同じものとなる。 Therefore, when the light of wavelength λ1 or λ2 is irradiated to light other than human skin, the charge amount α 1 accumulated by the reflected light of wavelength λ1 is the charge amount β accumulated by the reflected light of wavelength λ2. It is almost the same as 1 .

このため、第1の撮像画像上の肌領域以外の領域を構成する画素の輝度値α1'と、第2の撮像画像上の肌領域以外の領域を構成する画素の輝度値β1'は、殆ど同一の値となる。したがって、第1及び第2の撮像画像上の肌領域以外の領域を構成する画素の輝度値どうしの差分絶対値|α1'―β1'|は、比較的小さな値となる。 For this reason, the luminance value α 1 ′ of the pixels constituting the area other than the skin area on the first captured image and the luminance value β 1 ′ of the pixels constituting the area other than the skin area on the second captured image are The values are almost the same. Therefore, the absolute difference value | α 1 ′ −β 1 ′ | between the luminance values of the pixels constituting the region other than the skin region on the first and second captured images is a relatively small value.

よって、画像処理装置23では、例えば、差分絶対値|α1'―β1'|が比較的大きな値となる場合に、その差分絶対値|α1'―β1'|に対応する画素を、肌領域を構成する画素として検出することができる。 Therefore, in the image processing device 23, for example, when the difference absolute value | α 1 ′ −β 1 ′ | is a relatively large value, the pixel corresponding to the difference absolute value | α 1 ′ −β 1 ′ | It can be detected as a pixel constituting the skin region.

鈴木康弘等著,電学論C(近赤外マルチバンドによる肌検出手法の提案),日本,2007年,127巻4号Yasuhiro Suzuki et al., Electrical Engineering C (Proposal of skin detection method using near-infrared multiband), Japan, 2007, Vol. 127, No. 4

ところで、被写体には、LED21aからの波長λ1の光、及びLED21bからの波長λ2の光の他、太陽や蛍光灯等の外光光源から波長λ1の光や波長λ2の光が照射される。   By the way, the subject is irradiated with light of wavelength λ1 and light of wavelength λ2 from an external light source such as the sun or a fluorescent lamp, in addition to light of wavelength λ1 from LED 21a and light of wavelength λ2 from LED 21b.

従来の肌認識システム1において、外光光源からの光の光量が比較的少ない場合、すなわち、外光光源からの光の光量が、差分絶対値|α1'―β1'|の大きさに影響を与えない程度に少ない場合には、肌領域を精度良く検出することができる。 In the conventional skin recognition system 1, when the amount of light from the external light source is relatively small, that is, the amount of light from the external light source becomes a difference absolute value | α 1 ′ −β 1 ′ | When the amount is small enough not to be affected, the skin region can be detected with high accuracy.

しかしながら、外光光源からの光の光量が比較的多い場合、すなわち、外光光源からの光の光量が、差分絶対値|α1'―β1'|の大きさに影響を与える程度に多い場合には、肌領域を検出することができないことが生じ得る。 However, when the amount of light from the external light source is relatively large, that is, the amount of light from the external light source is large enough to affect the magnitude of the difference absolute value | α 1 '−β 1 ' | In some cases, the skin region cannot be detected.

具体的には、例えば、外光光源からの光に起因して、被写体からの反射光を受光して蓄積される電荷量α1及びβ1のいずれにおいても、蓄積することが可能な最大電荷量を超える白とびが発生してしまっている場合、対応する輝度値α1'及びβ1'は同一の値となってしまう。 Specifically, for example, the maximum charge that can be accumulated in any of the charge amounts α 1 and β 1 that are accumulated by receiving reflected light from the subject due to light from the external light source When overexposure has occurred, the corresponding luminance values α 1 ′ and β 1 ′ are the same value.

この場合、従来の肌認識システム1において、例えば、肌領域に対応する差分絶対値|α1'―β1'|と、肌領域以外の領域に対応する差分絶対値|α1'―β1'|とは同一の値となってしまい、差分絶対値|α1'―β1'|の大きさに基づいて、肌領域を検出することができなくなってしまう。 In this case, in the conventional skin recognition system 1, for example, a difference absolute value corresponding to the skin region | a difference absolute value corresponding to a region other than the skin area | | α 1 '-β 1' α 1 '-β 1 It becomes the same value as' |, and the skin region cannot be detected based on the magnitude of the absolute difference value | α 1 '−β 1 ' |.

本発明は、このような状況に鑑みてなされたものであり、LEDからの光に起因して蓄積される電荷を維持しつつ、外光光源に起因して蓄積される電荷を十分に少なくして、白とびを防止するとともに、精度良く、撮像画像上の肌領域を検出するようにするものである。   The present invention has been made in view of such a situation, and while maintaining the charge accumulated due to the light from the LED, the charge accumulated due to the external light source is sufficiently reduced. Thus, overexposure is prevented, and a skin area on the captured image is detected with high accuracy.

本発明の第1の側面の検出装置、又はプログラムは、被写体を撮像して得られる撮像画像から前記被写体を検出する検出装置、又は被写体を撮像して得られる撮像画像から前記被写体を検出する検出装置として機能させるためのプログラムであって、所定の波長の光を被写体に照射する照射手段と、前記被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値として、前記被写体を撮像した撮像画像を生成する撮像手段と、前記撮像画像から前記被写体を検出する検出手段と、前記照射手段を制御し、前記総電荷量のうち、前記照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射させる照射制御手段と、前記撮像手段を制御し、前記総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光させる撮像制御手段とを含む検出装置、又は検出装置として機能させるためのプログラムである。 The detection device or program according to the first aspect of the present invention is a detection device that detects the subject from a captured image obtained by imaging the subject, or a detection that detects the subject from a captured image obtained by imaging the subject. A program for causing a device to function, an irradiation unit that irradiates a subject with light having a predetermined wavelength, and a total charge amount of each pixel accumulated by receiving reflected light from the subject as a pixel value, An imaging unit that generates a captured image obtained by capturing an image of a subject, a detection unit that detects the subject from the captured image, and a control unit that controls the irradiating unit to reflect light of the total charge amount that is irradiated by the irradiating unit. Irradiation control means for irradiating the first charge amount accumulated by receiving light with a predetermined amount of light, and the imaging means are controlled, and the total charge amount is irradiated by external light Second charge amount, the imaging control for receiving the maximum charge amount is possible to accumulate in the first less than obtained difference value by subtracting the amount of charge exposure time accumulated by receiving the reflected light of the And a program for causing the detection apparatus to function as the detection apparatus.

前記照射制御手段では、前記第1の電荷量が、前記被写体を検出するための前記撮像画像を生成するのに必要な電荷量となる光量で照射させるようにすることができる。   In the irradiation control means, the first charge amount may be irradiated with a light amount that becomes a charge amount necessary to generate the captured image for detecting the subject.

前記露光時間で蓄積される前記第2の電荷量に基づいて、前記撮像手段の前記露光時間を変更する変更手段をさらに設けるようにすることができ、前記撮像制御手段では、変更された前記露光時間で受光させるようにすることができる。   A changing means for changing the exposure time of the imaging means can be further provided based on the second charge amount accumulated in the exposure time, and the imaging control means can change the exposure that has been changed. Light can be received in time.

前記照射制御手段では、前記露光時間と同一の照射時間で照射させるようにすることができる。   The irradiation control means can perform irradiation with the same irradiation time as the exposure time.

前記照射制御手段では、前記露光時間内に、前記露光時間よりも短い照射時間で照射させるようにすることができる。   The irradiation control means can irradiate within the exposure time with an irradiation time shorter than the exposure time.

前記照射制御手段では、前記露光時間を含む、前記露光時間よりも長い照射時間で照射させるようにすることができる。   The irradiation control means may perform irradiation with an irradiation time longer than the exposure time including the exposure time.

前記照射手段は、第1の波長の光を被写体に照射する第1の出力手段と、第1の波長とは異なる第2の波長の光を被写体に照射する第2の出力手段とを有するようにすることができ、前記撮像手段では、前記第1の波長の反射光を受光して蓄積される画素毎の総電荷量を画素値として、第1の撮像画像を生成し、前記第2の波長の反射光を受光して蓄積される画素毎の総電荷量を画素値として、第2の撮像画像を生成し、前記検出手段では、前記第1及び第2の撮像画像に基づいて、前記第1又は第2の撮像画像の一方の撮像画像上の前記被写体を検出するようにすることができる。   The irradiation means includes first output means for irradiating the subject with light having a first wavelength, and second output means for irradiating the subject with light having a second wavelength different from the first wavelength. The imaging means generates a first captured image using a total charge amount of each pixel accumulated by receiving reflected light of the first wavelength as a pixel value, and the second image A second captured image is generated with the total charge amount of each pixel accumulated by receiving reflected light having a wavelength as a pixel value, and the detection unit is configured to generate the second captured image based on the first and second captured images. The subject on one of the first and second captured images can be detected.

前記第1及び第2の出力手段では、人間の肌に対して、前記第1の波長の光を照射して得られる反射光の反射率と、前記第2の波長の光を照射して得られる反射光の反射率との差分絶対値が、所定の差分閾値以上となる場合の波長の光を照射するようにすることができる。   The first and second output means are obtained by irradiating the human skin with the reflectance of the reflected light obtained by irradiating the light of the first wavelength and the light of the second wavelength. It is possible to irradiate light having a wavelength when the difference absolute value with respect to the reflectance of the reflected light is equal to or greater than a predetermined difference threshold value.

前記第1及び第2の出力手段では、それぞれ異なる波長の赤外線を照射するようにすることができる。   The first and second output means can irradiate infrared rays having different wavelengths.

前記第1又は第2の出力手段の一方は、930[nm]以上の波長の光を照射し、他方は930[nm]未満の光を照射するようにすることができる。   One of the first and second output means may emit light having a wavelength of 930 [nm] or more, and the other may emit light having a wavelength of less than 930 [nm].

本発明の第1の側面の検出方法は、被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値とする撮像画像から前記被写体を検出する検出装置の検出方法であって、前記検出装置は、照射手段と、撮像手段と、検出手段と、照射制御手段と、撮像制御手段とを含み、前記照射制御手段が、所定の波長の光を被写体に照射する前記照射手段を制御し、前記総電荷量のうち、前記照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射させ、前記撮像制御手段が、前記被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値として、前記被写体を撮像した撮像画像を生成する前記撮像手段を制御し、前記総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光させ、前記検出手段が、前記撮像画像から前記被写体を検出するステップを含む検出方法である。 A detection method according to a first aspect of the present invention is a detection method of a detection device that detects a subject from a captured image in which a total charge amount for each pixel accumulated by receiving reflected light from the subject is a pixel value. The detection apparatus includes an irradiation unit, an imaging unit, a detection unit, an irradiation control unit, and an imaging control unit, and the irradiation control unit irradiates a subject with light having a predetermined wavelength. And controlling the imaging control means to irradiate the reflected light of the light emitted by the irradiating means out of the total charge quantity with a light quantity such that the first charge quantity accumulated becomes a predetermined charge quantity. However, the total charge amount for each pixel accumulated by receiving reflected light from the subject is used as a pixel value to control the imaging unit that generates a captured image of the subject, and out of the total charge amount, Receives and stores reflected light of light irradiated by external light Second amount of charge is the maximum charge amount from the said less than the first difference value obtained by subtracting the amount of charge exposure time is received capable of storing, said detecting means, from the captured image The detection method includes a step of detecting the subject.

本発明の第1の側面によれば、検出装置により、被写体からの反射光を受光して蓄積される画素毎の総電荷量のうち、照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射され、総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光され、受光により生成される撮像画像から被写体が検出される。 According to the first aspect of the present invention, the detection device receives the reflected light of the light irradiated by the irradiating means out of the total charge amount for each pixel received by the reflected light from the subject. The first charge amount accumulated is irradiated with a light amount that becomes a predetermined charge amount, and the second charge amount accumulated by receiving the reflected light of the light irradiated by external light out of the total charge amount , Light is received for an exposure time that is less than the difference value obtained by subtracting the first charge amount from the maximum charge amount that can be accumulated, and the subject is detected from the captured image generated by the light reception.

本発明の第2の側面の電子機器は、被写体を撮像して得られる撮像画像から前記被写体を検出する検出装置を内蔵する電子機器であって、前記検出装置は、所定の波長の光を被写体に照射する照射手段と、前記被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値として、前記被写体を撮像した撮像画像を生成する撮像手段と、前記撮像画像から前記被写体を検出する検出手段と、前記照射手段を制御し、前記総電荷量のうち、前記照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射させる照射制御手段と、前記撮像手段を制御し、前記総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光させる撮像制御手段とを含む電子機器である。 An electronic device according to a second aspect of the present invention is an electronic device including a detection device that detects the subject from a captured image obtained by imaging the subject, and the detection device emits light of a predetermined wavelength. Irradiating means for irradiating the object, imaging means for generating a picked-up image picked up from the subject with the total charge amount for each pixel accumulated by receiving reflected light from the subject as a pixel value, and the picked-up image from the picked-up image A detecting means for detecting a subject and the irradiating means are controlled, and the first charge amount accumulated by receiving the reflected light of the light irradiated by the irradiating means among the total charge amount is a predetermined charge amount. The irradiation control means for irradiating with the amount of light and the imaging means are controlled, and the second charge amount accumulated by receiving the reflected light of the light irradiated by the external light among the total charge amount is accumulated. From the maximum amount of charge that can be An electronic device comprising an imaging control means for receiving in the exposure becomes less than the difference value obtained by subtracting the first charge amount time.

本発明の第2の側面によれば、電子機器に内蔵された検出装置により、被写体からの反射光を受光して蓄積される画素毎の総電荷量のうち、照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射され、総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光され、受光により生成される撮像画像から被写体が検出される。 According to the second aspect of the present invention, the detection device built in the electronic device receives the reflected light from the subject and stores the amount of light irradiated by the irradiating means out of the total charge amount for each pixel accumulated. The first charge amount accumulated by receiving the reflected light is irradiated with a light amount that becomes a predetermined charge amount, and the first charge amount received by the reflected light of the light irradiated by the external light out of the total charge amount is accumulated. 2 is received with an exposure time that is less than the difference value obtained by subtracting the first charge amount from the maximum charge amount that can be accumulated, and the subject is detected from the captured image generated by the received light. The

本発明によれば、白とびを防止するとともに、精度良く、撮像画像上の肌領域を検出することができる。   According to the present invention, it is possible to prevent overexposure and accurately detect a skin region on a captured image.

従来の肌認識システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the conventional skin recognition system. 従来の情報処理装置による制御の様子の一例を示す図である。It is a figure which shows an example of the mode of control by the conventional information processing apparatus. 本実施の形態である情報処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing system which is this Embodiment. 人間の肌に対する分光反射特性の一例を示す図である。It is a figure which shows an example of the spectral reflection characteristic with respect to human skin. 本発明を適用した情報処理装置による処理の概要の一例を示す図である。It is a figure which shows an example of the outline | summary of the process by the information processing apparatus to which this invention is applied. 本発明を適用した情報処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing apparatus to which this invention is applied. 制御部が行う制御の一例を示す図である。It is a figure which shows an example of the control which a control part performs. 外光成分に起因して肌検出精度が低下する場合の一例を示す図である。It is a figure which shows an example in case skin detection accuracy falls resulting from an external light component. カメラの絞りを調整して外光成分により蓄積される電荷を抑制する場合の一例を示す図である。It is a figure which shows an example in the case of adjusting the aperture of a camera and suppressing the electric charge accumulate | stored by an external light component. カメラのシャッタスピードを調整して外光成分により蓄積される電荷を抑制する場合の一例を示す図である。It is a figure which shows an example in the case of adjusting the shutter speed of a camera and suppressing the electric charge accumulate | stored by an external light component. 露光時間の決定方法の一例を説明するための図である。It is a figure for demonstrating an example of the determination method of exposure time. 本発明を適用した情報処理システムが行う肌検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the skin detection process which the information processing system to which this invention is applied. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

以下、発明を実施するための形態(以下、本実施の形態という)について説明する。なお、説明は以下の順序で行う。
1. 本実施の形態(カメラの露光時間と発光装置による光量を調整する例)
2. 変形例
Hereinafter, modes for carrying out the invention (hereinafter referred to as the present embodiment) will be described. The description will be given in the following order.
1. Embodiment (Example of adjusting the exposure time of a camera and the amount of light by a light emitting device)
2. Modified example

<1.本実施の形態>
[情報処理システム41の構成例]
図3は、本実施の形態である情報処理システム41の構成例を示している。
<1. Embodiment>
[Configuration example of information processing system 41]
FIG. 3 shows a configuration example of the information processing system 41 according to the present embodiment.

この情報処理システム41は、発光装置61、カメラ62、及び情報処理装置63により構成される。   The information processing system 41 includes a light emitting device 61, a camera 62, and an information processing device 63.

発光装置61は、LED21a(LED21a1,LED21a2)及びLED21b(LED21b1,LED21b2)により構成されており、LED21a及びLED21bを交互に発光させる。なお、発光装置61を構成するLED21a及びLED21bは、図1の発光装置21を構成するLED21a及びLED21bと同様であるため、同一の符号を付して、それらの説明は省略している。 The light emitting device 61 is constituted by an LED 21a (LED 21a 1 , LED 21a 2 ) and an LED 21b (LED 21b 1 , LED 21b 2 ), and causes the LED 21a and LED 21b to emit light alternately. Note that the LED 21a and the LED 21b constituting the light emitting device 61 are the same as the LED 21a and the LED 21b constituting the light emitting device 21 of FIG. 1, and therefore, the same reference numerals are given and the description thereof is omitted.

なお、波長λ1及びλ2の組合せは、例えば、波長λ1の光を人間の肌に照射したときの反射率が、波長λ2の光を人間の肌に照射したときの反射率よりも大きくなる組合せである。また、波長λ1及びλ2の組合せは、波長λ1の光を人間の肌以外のものに照射したときの反射率と、波長λ2の光を人間の肌以外のものに照射したときの反射率とは殆ど変わらない組合せである。なお、この組合せは、図4を参照して後述する、人間の肌に対する分光反射特性に基づいて決定される。   The combination of wavelengths λ1 and λ2 is a combination in which, for example, the reflectance when light of wavelength λ1 is irradiated on human skin is greater than the reflectance when light of wavelength λ2 is irradiated on human skin. is there. The combination of the wavelengths λ1 and λ2 is the reflectance when the light of the wavelength λ1 is irradiated on something other than human skin and the reflectance when the light of the wavelength λ2 is irradiated on something other than human skin. The combination is almost unchanged. This combination is determined based on spectral reflection characteristics with respect to human skin, which will be described later with reference to FIG.

さらに、LED21aとLED21bの出力は、それぞれ、波長λ1及びλ2に対する反射率が同一である被写体に対して、波長λ1又はλ2のいずれの光を照射した場合にも、カメラ62の撮像により得られる撮像画像の、対応する画素どうしの輝度値が同一となるように、カメラ62の露光時間に応じて調整される。   Further, the output of the LED 21a and the LED 21b is an image obtained by imaging of the camera 62 when the object having the same reflectance with respect to the wavelengths λ1 and λ2 is irradiated with light of either wavelength λ1 or λ2. Adjustment is performed according to the exposure time of the camera 62 so that the luminance values of corresponding pixels in the image are the same.

また、LED21a及び21bの前面には、LED21a及び21bにより発光される光を均一に拡散させる拡散板61aが設けられている。これにより、被写体には、波長λ1の波長の光、及び波長λ2の波長の光がむらなく照射される。   Further, a diffusion plate 61a for uniformly diffusing light emitted from the LEDs 21a and 21b is provided on the front surfaces of the LEDs 21a and 21b. As a result, the subject is evenly irradiated with light having the wavelength λ1 and light having the wavelength λ2.

カメラ62は、ユーザ等の被写体の撮像に用いるレンズを有しており、そのレンズの前面は、可視光を遮断する可視光カットフィルタ62aにより覆われている。   The camera 62 has a lens used for imaging a subject such as a user, and the front surface of the lens is covered with a visible light cut filter 62a that blocks visible light.

このため、カメラ62には、可視光は入射されず、不可視光として、被写体からの波長λ1の反射光や、波長λ2の反射光が入射される。   Therefore, visible light is not incident on the camera 62, and reflected light having a wavelength λ1 or reflected light having a wavelength λ2 from the subject is incident as invisible light.

すなわち、例えば、カメラ62は、被写体からの波長λ1の反射光として、波長λ1の照射光成分、及び波長λ1の外光成分を受光し、その結果得られる第1の撮像画像を、情報処理装置63に供給する。   That is, for example, the camera 62 receives an irradiation light component of the wavelength λ1 and an external light component of the wavelength λ1 as reflected light of the wavelength λ1 from the subject, and the first captured image obtained as a result is processed into the information processing device 63.

なお、波長λ1の照射光成分とは、LED21aによって被写体に照射される波長λ1の光の反射光をいう。また、波長λ1の外光成分とは、外光光源によって被写体に照射される波長λ1の光の反射光をいう。   Note that the irradiation light component of wavelength λ1 refers to the reflected light of the light of wavelength λ1 that is irradiated onto the subject by the LED 21a. The external light component having the wavelength λ1 refers to reflected light of the light having the wavelength λ1 that is emitted to the subject by the external light source.

さらに、例えば、カメラ62は、被写体からの波長λ2の反射光として、波長λ2の照射光成分、及び波長λ2の外光成分を受光し、その結果得られる第2の撮像画像を、情報処理装置63に供給する。   Further, for example, the camera 62 receives an irradiation light component having a wavelength λ2 and an external light component having a wavelength λ2 as reflected light having a wavelength λ2 from the subject, and a second captured image obtained as a result is processed as an information processing device. 63.

なお、波長λ2の照射光成分とは、LED21bによって被写体に照射される波長λ2の光の反射光をいう。また、波長λ2の外光成分とは、外光光源によって被写体に照射される波長λ2の光の反射光をいう。   Note that the irradiation light component with the wavelength λ2 refers to the reflected light of the light with the wavelength λ2 applied to the subject by the LED 21b. The external light component having the wavelength λ2 refers to reflected light of the light having the wavelength λ2 that is emitted to the subject by the external light source.

さらに、カメラ62は、LED21a及びLED21bのいずれも消灯している場合に、波長λ1の外光成分のみを受光し、その結果得られる第3の撮像画像を、情報処理装置63に供給する。   Further, when both the LED 21a and the LED 21b are turned off, the camera 62 receives only the external light component of the wavelength λ1, and supplies the third captured image obtained as a result to the information processing device 63.

なお、カメラ62は、可視光カットフィルタ62aの他、所定の波長のみを通過させるフィルタ等により、第1及び第3の撮像画像を生成する場合には、カメラ62に波長λ1の光のみが入射されるとともに、第2の撮像画像を生成する場合には、カメラ62に波長λ2の光のみが入射されるように構成されているものとする。   Note that when the first and third captured images are generated by the camera 62 using a filter that allows only a predetermined wavelength to pass, in addition to the visible light cut filter 62a, only light having a wavelength λ1 is incident on the camera 62. In addition, when the second captured image is generated, it is assumed that only the light having the wavelength λ <b> 2 is incident on the camera 62.

情報処理装置63は、カメラ62からの第3の撮像画像に基づいて、カメラ62により受光される波長λ1及びλ2の照射光成分を維持しつつ、波長λ1及びλ2の外光成分が抑制されるように、カメラ62による露光のタイミング及びカメラ62の露光時間等を決定する。   Based on the third captured image from the camera 62, the information processing apparatus 63 maintains the irradiated light components of the wavelengths λ1 and λ2 received by the camera 62 and suppresses the external light components of the wavelengths λ1 and λ2. As described above, the timing of exposure by the camera 62 and the exposure time of the camera 62 are determined.

そして、情報処理装置63は、決定した露光時間等で、カメラ62等を制御して、第1及び第2の撮像画像を生成させる。   Then, the information processing device 63 controls the camera 62 and the like with the determined exposure time and the like to generate the first and second captured images.

これにより、カメラ62において、第1及び第2の撮像画像を生成する場合、受光される波長λ1及びλ2の外光成分の光量は、肌領域の検出に影響を及ぼさない程度に少なくなる。したがって、情報処理装置63は、カメラ62からの第1及び第2の撮像画像に基づいて、波長λ1及びλ2の反射率を利用した肌領域の検出を行うことができる。   As a result, when the camera 62 generates the first and second captured images, the amount of the received external light components of the wavelengths λ1 and λ2 is reduced to an extent that does not affect the detection of the skin region. Therefore, the information processing apparatus 63 can detect the skin region using the reflectances of the wavelengths λ1 and λ2 based on the first and second captured images from the camera 62.

[情報処理装置63が行う処理]
次に、図4及び図5を参照して、情報処理装置63が行う、波長λ1及びλ2の反射率を利用した肌領域の検出について説明する。
[Processing performed by information processing device 63]
Next, with reference to FIG. 4 and FIG. 5, the detection of the skin area using the reflectances of the wavelengths λ1 and λ2 performed by the information processing device 63 will be described.

[肌に対する分光反射特性]
図4は、人間の肌に対する分光反射特性を示している。
[Spectral reflection characteristics for skin]
FIG. 4 shows spectral reflection characteristics with respect to human skin.

なお、この分光反射特性は、人間の肌の色の違い(人種の違い)や状態(日焼け等)等に拘らず、一般性があるものである。   This spectral reflection characteristic has generality regardless of the color of human skin (difference in race) or the state (sunburn, etc.).

図4において、横軸は、人間の肌に照射される照射光の波長を示しており、縦軸は、人間の肌に照射された照射光の反射率を示している。   In FIG. 4, the horizontal axis indicates the wavelength of the irradiation light irradiated on the human skin, and the vertical axis indicates the reflectance of the irradiation light irradiated on the human skin.

人間の肌に照射された照射光の反射率は、800[nm]付近をピークとして、900[nm]付近から急激に減少し、1000[nm]付近を極小値として再び上昇することが知られている。   It is known that the reflectance of irradiated light radiated on human skin decreases rapidly from around 900 [nm], peaking around 800 [nm], and rises again around 1000 [nm] as a minimum. ing.

具体的には、例えば、図4に示されるように、人間の肌に対して、870[nm]の光を照射して得られる反射光の反射率は63[%]であり、950[nm]の光を照射して得られる反射光の反射率は50[%]である。   Specifically, for example, as shown in FIG. 4, the reflectance of reflected light obtained by irradiating human skin with light of 870 [nm] is 63 [%], and 950 [nm] The reflectance of the reflected light obtained by irradiating the light of 50] is 50 [%].

これは、人間の肌について特有のものであり、人間の肌以外の物体(例えば、頭髪や衣服等)では、800乃至1000[nm]付近において、反射率の変化は緩やかとなっていることが多い。   This is peculiar to human skin. For objects other than human skin (for example, hair, clothes, etc.), the change in reflectance is moderate around 800 to 1000 [nm]. Many.

本実施の形態では、上述した分光反射特性において、波長λ1及びλ2の組合せとして、例えば、波長λ1を870[nm]とし、波長λ2を950[nm]とする組合せが採用されている。この組合せは、人間の肌に対する反射率の差が比較的大きくなる組合せであって、人間の肌以外の部分に対する反射率の差が比較的小さくなる組合せである。   In the present embodiment, in the above-described spectral reflection characteristics, for example, a combination in which the wavelength λ1 is 870 [nm] and the wavelength λ2 is 950 [nm] is employed as the combination of the wavelengths λ1 and λ2. This combination is a combination in which the difference in reflectance with respect to human skin is relatively large, and the difference in reflectance with respect to portions other than human skin is relatively small.

また、上述したように、カメラ62により受光される波長λ1の外光成分は、肌領域の検出に影響を及ぼさない程度に抑制されているため、第1の撮像画像は、波長λ1の照射光成分のみを受光して得られた領域により構成されているとみなすことができる。   Further, as described above, since the external light component of the wavelength λ1 received by the camera 62 is suppressed to the extent that it does not affect the detection of the skin region, the first captured image is the irradiation light of the wavelength λ1. It can be considered that it is composed of a region obtained by receiving only components.

同様に、カメラ62により受光される波長λ2の外光成分は、肌領域の検出に影響を及ぼさない程度に抑制されているため、第2の撮像画像は、波長λ2の照射光成分のみを受光して得られた領域により構成されているとみなすことができる。   Similarly, since the external light component of the wavelength λ2 received by the camera 62 is suppressed to the extent that it does not affect the detection of the skin region, the second captured image receives only the irradiation light component of the wavelength λ2. Thus, it can be considered that the area is constituted by the obtained area.

したがって、第1の撮像画像上の肌領域を構成する画素の輝度値と、対応する第2の撮像画像上の肌領域を構成する輝度値との差分絶対値は、人間の肌に対する反射率の差に対応して、比較的大きな値となる。   Therefore, the absolute difference between the luminance value of the pixel constituting the skin area on the first captured image and the luminance value constituting the skin area on the corresponding second captured image is the reflectance of human skin. Corresponding to the difference, the value is relatively large.

また、第1の撮像画像上の非肌領域(肌領域以外の領域)を構成する画素の輝度値と、対応する第2の撮像画像上の非肌領域を構成する輝度値との差分絶対値は、人間の肌以外の部分に対する反射率の差に対応して、比較的小さな値となる。   Also, the absolute value of the difference between the luminance value of the pixel constituting the non-skin area (area other than the skin area) on the first captured image and the luminance value constituting the non-skin area on the corresponding second captured image. Corresponds to a relatively small value corresponding to the difference in reflectance with respect to portions other than human skin.

[情報処理装置63が行う処理の概要]
図5は、情報処理装置63が行う処理の概要を示している。
[Outline of processing performed by information processing device 63]
FIG. 5 shows an outline of processing performed by the information processing apparatus 63.

情報処理装置63は、波長λ1の照射光成分を維持しつつ、波長λ1の外光成分を抑制するように、カメラ62等を制御して、カメラ62に第1の撮像画像を撮像させ、情報処理装置63に供給させる。   The information processing device 63 controls the camera 62 and the like so as to suppress the external light component of the wavelength λ1 while maintaining the irradiation light component of the wavelength λ1, and causes the camera 62 to capture the first captured image. It is made to supply to the processing apparatus 63.

また、情報処理装置63は、波長λ2の照射光成分を維持しつつ、波長λ2の外光成分を抑制するように、カメラ62等を制御して、カメラ62に第2の撮像画像を撮像させ、情報処理装置63に供給させる。   Further, the information processing device 63 controls the camera 62 and the like so as to capture the second captured image so as to suppress the external light component of the wavelength λ2 while maintaining the irradiation light component of the wavelength λ2. The information processing device 63 is supplied.

情報処理装置63には、カメラ62から、肌領域81a及び非肌領域81b(肌領域81a以外の領域)により構成される第1の撮像画像81、並びに、肌領域82a及び非肌領域82b(肌領域82a以外の領域)により構成される第2の撮像画像82が供給される。   The information processing apparatus 63 receives from the camera 62 a first captured image 81 composed of a skin region 81a and a non-skin region 81b (a region other than the skin region 81a), and a skin region 82a and a non-skin region 82b (skin A second captured image 82 composed of a region other than the region 82a) is supplied.

情報処理装置63は、カメラ62から供給される第1の撮像画像81、及び第2の撮像画像82に対して、LPF(low pass fileter)を用いた平滑化を行う。そして、情報処理装置63は、平滑化後の第1の撮像画像81、及び平滑化後の第2の撮像画像82それぞれの対応する画素の輝度値どうしの差分絶対値を算出し、その差分絶対値を画素値とする差分画像83を生成する。   The information processing apparatus 63 smoothes the first captured image 81 and the second captured image 82 supplied from the camera 62 using LPF (low pass filer). Then, the information processing device 63 calculates a difference absolute value between the luminance values of the corresponding pixels of the first captured image 81 after smoothing and the second captured image 82 after smoothing, and the difference absolute A difference image 83 having a value as a pixel value is generated.

情報処理装置63は、生成した差分画像83に対して、差分画像83を構成する画素値のうち、所定の閾値以上の画素値を1とし、所定の閾値未満の画素値を0とする2値化を行う。   The information processing device 63 sets the pixel value that is greater than or equal to a predetermined threshold among the pixel values that constitute the difference image 83 to the generated difference image 83, and sets the pixel value that is less than the predetermined threshold to 0. To do.

いまの場合、差分画像83における肌領域83aは、肌領域81aと肌領域82aとの対応する画素の輝度値どうしの差分絶対値を画素値とする画素により構成されているため、肌領域83aを構成する画素の画素値は比較的大きな値となっている。   In this case, the skin region 83a in the difference image 83 is composed of pixels whose pixel value is the absolute value of the difference between the luminance values of the corresponding pixels of the skin region 81a and the skin region 82a. The pixel value of the constituent pixels is a relatively large value.

また、差分画像83における非肌領域83bは、非肌領域81bと非肌領域82bとの対応する画素の輝度値どうしの差分絶対値を画素値とする画素により構成されているため、非肌領域83bを構成する画素の画素値は比較的小さな値となっている。   Further, the non-skin region 83b in the difference image 83 is composed of pixels having the pixel value as the absolute value of the difference between the luminance values of corresponding pixels in the non-skin region 81b and the non-skin region 82b. The pixel values of the pixels constituting 83b are relatively small values.

したがって、差分画像83は、情報処理装置63により行われる2値化により、肌領域83aを構成する画素の画素値が1とされた肌領域84a、及び非肌領域83bを構成する画素の画素値が0とされた非肌領域84bにより構成される2値化画像84に変換される。   Therefore, the difference image 83 is obtained by binarization performed by the information processing device 63, and the pixel values of the pixels constituting the skin region 84a and the non-skin region 83b in which the pixel value of the pixels constituting the skin region 83a is set to 1. Is converted to a binarized image 84 composed of non-skin regions 84b.

そして、情報処理装置63は、その2値化により得られる2値化画像84を構成する画素のうち、画素値が1となる画素により構成される肌領域84aを、肌領域として検出する。   Then, the information processing device 63 detects a skin region 84a constituted by pixels having a pixel value of 1 among the pixels constituting the binarized image 84 obtained by the binarization as a skin region.

[情報処理装置63の構成例]
次に、図6は、情報処理装置63の構成例を示している。
[Configuration Example of Information Processing Device 63]
Next, FIG. 6 shows a configuration example of the information processing apparatus 63.

この情報処理装置63は、制御部101、差分画像生成部102、及び2値化部103により構成される。   The information processing apparatus 63 includes a control unit 101, a difference image generation unit 102, and a binarization unit 103.

制御部101は、カメラ62に第1及び第2の撮像画像を生成させるために、1フレームの撮像を行う周期に合わせて立ち上がりエッジを発生させるVD信号(垂直同期信号)を生成し、生成したVD信号に基づいて、発光装置61及びカメラ62を制御する。この場合、カメラ62は、その撮像により得られる第1及び第2の撮像画像を、差分画像生成部102に供給する。   In order to cause the camera 62 to generate the first and second captured images, the control unit 101 generates and generates a VD signal (vertical synchronization signal) that generates a rising edge in accordance with the period for capturing one frame. Based on the VD signal, the light emitting device 61 and the camera 62 are controlled. In this case, the camera 62 supplies the first and second captured images obtained by the imaging to the difference image generation unit 102.

なお、カメラ62に第1及び第2の撮像画像を生成させるために行われる、制御部101による制御の詳細は、図7を参照して後述する。   The details of the control by the control unit 101 performed to cause the camera 62 to generate the first and second captured images will be described later with reference to FIG.

また、制御部101は、カメラ62に第3の撮像画像を撮像させるために、発光装置61のLED21a及びLED21bを消灯させた状態で、カメラ62に被写体を撮像させる。この場合、カメラ62は、その撮像により得られる第3の撮像画像を、制御部101に供給する。   In addition, the control unit 101 causes the camera 62 to image the subject in a state where the LED 21a and the LED 21b of the light emitting device 61 are turned off in order to cause the camera 62 to capture the third captured image. In this case, the camera 62 supplies the third captured image obtained by the imaging to the control unit 101.

制御部101は、カメラ62からの第3の撮像画像を構成する画素の輝度値に基づいて、カメラ62による露光時間(シャッタスピード)を決定する。なお、露光時間の決定方法の詳細については、図11を参照して後述する。   The control unit 101 determines the exposure time (shutter speed) by the camera 62 based on the luminance value of the pixels constituting the third captured image from the camera 62. Details of the method for determining the exposure time will be described later with reference to FIG.

差分画像生成部102には、カメラ62の撮像により得られた第1及び第2の撮像画像が供給される。   The difference image generation unit 102 is supplied with the first and second captured images obtained by capturing with the camera 62.

なお、第1の撮像画像は、波長λ1の外光成分、及び波長λ1の照射光成分を受光して得られたものであり、第2の撮像画像は、波長λ2の外光成分、及び波長λ2の照射光成分を受光して得られたものである。   The first captured image is obtained by receiving the external light component having the wavelength λ1 and the irradiation light component having the wavelength λ1, and the second captured image is the external light component having the wavelength λ2 and the wavelength. It is obtained by receiving the irradiation light component of λ2.

差分画像生成部102は、カメラ62からの第1及び第2の撮像画像に対して、LPFを用いた平滑化を行う。そして、差分画像生成部102は、平滑化後の第1の撮像画像と第2の撮像画像どうしの差分絶対値を算出し、算出した差分絶対値を画素値とする画素により構成される差分画像を、2値化部103に供給する。   The difference image generation unit 102 performs smoothing using LPF on the first and second captured images from the camera 62. And the difference image generation part 102 calculates the difference absolute value of the 1st captured image after smoothing, and the 2nd captured image, The difference image comprised by the pixel which uses the calculated difference absolute value as a pixel value Is supplied to the binarization unit 103.

2値化部103は、差分画像生成部102からの差分画像を2値化し、その結果得られる2値化画像に基づいて、第1の撮像画像(又は第2の撮像画像)上の肌領域を検出し、その検出結果を出力する。   The binarization unit 103 binarizes the difference image from the difference image generation unit 102, and based on the binarized image obtained as a result, the skin area on the first captured image (or the second captured image) Is detected and the detection result is output.

[制御部101による制御の一例]
次に、図7は、制御部101が、発光装置61及びカメラ62を制御して、カメラ62に第1及び第2の撮像画像を生成させる場合の一例を示している。
[Example of control by the control unit 101]
Next, FIG. 7 shows an example in which the control unit 101 controls the light emitting device 61 and the camera 62 to cause the camera 62 to generate first and second captured images.

制御部101は、例えば、60fpsの場合、図7Aに示されるように、VD信号として、16.7[ms](=1/60[s])毎に立ち上がりエッジを発生させるVD信号を生成する。そして、制御部101は、第3の撮像画像に基づいて決定した露光時間で、カメラ62の露光を行うとともに、LED21a及びLED21bそれぞれの発光を行うように制御する。   For example, in the case of 60 fps, as illustrated in FIG. 7A, the control unit 101 generates a VD signal that generates a rising edge every 16.7 [ms] (= 1/60 [s]) as a VD signal. Then, the control unit 101 performs exposure of the camera 62 with the exposure time determined based on the third captured image, and controls the LED 21a and the LED 21b to emit light.

すなわち、制御部101は、例えば図7Bに示されるように、生成したVD信号に生じる複数の立ち上がりエッジのうち、奇数番目の立ち上がりエッジが生じるタイミングから8.35[ms](=1/120[s])だけ遅延させたタイミングでLED21aの発光を開始し、発光の開始から8.35[ms]後に発光を終了させる。   That is, for example, as illustrated in FIG. 7B, the control unit 101 sets 8.35 [ms] (= 1/120 [s]) from the timing at which an odd-numbered rising edge occurs among a plurality of rising edges generated in the generated VD signal. ) Start the light emission of the LED 21a at a timing delayed by a), and end the light emission after 8.35 [ms] from the start of the light emission.

また、制御部101は、例えば図7Cに示されるように、生成したVD信号に生じる複数の立ち上がりエッジのうち、偶数番目の立ち上がりエッジが生じるタイミングから8.35[ms]だけ遅延させたタイミングでLED21bの発光を開始し、発光の開始から8.35[ms]後に発光を終了させる。   For example, as illustrated in FIG. 7C, the control unit 101 sets the LED 21b at a timing delayed by 8.35 [ms] from the timing at which the even-numbered rising edge occurs among the plurality of rising edges generated in the generated VD signal. The light emission is started, and the light emission is terminated 8.35 [ms] after the start of the light emission.

さらに、制御部101は、例えば図7Dに示されるように、生成したVD信号に生じる複数の立ち上がりエッジそれぞれが生じるタイミングから8.35[ms]だけ遅延させたタイミングで、カメラ62の露光を開始し、露光の開始から8.35[ms]後に露光を終了させる。   Further, for example, as shown in FIG. 7D, the control unit 101 starts exposure of the camera 62 at a timing delayed by 8.35 [ms] from the timing at which each of a plurality of rising edges generated in the generated VD signal occurs. The exposure is terminated after 8.35 [ms] from the start of exposure.

また、制御部101は、カメラ62からの第3の撮像画像に応じて変化するいずれの露光時間においても、LED21aから照射される波長λ1の光の総光量が、波長λ1に応じた一定の量となるとともに、LED21bから照射される波長λ2の光の総光量が、波長λ2に応じた一定の量となるように、LED21a及びLED21bを制御するようにしている。   In addition, the control unit 101 determines that the total amount of light of the wavelength λ1 emitted from the LED 21a is a constant amount corresponding to the wavelength λ1 at any exposure time that changes according to the third captured image from the camera 62. At the same time, the LED 21a and the LED 21b are controlled so that the total amount of light of the wavelength λ2 emitted from the LED 21b becomes a constant amount corresponding to the wavelength λ2.

なお、波長λ1に応じた一定の量、及び波長λ2に応じた一定の量としては、例えば、第1及び第2の撮像画像の肌領域にノイズ等が生じたとしても、肌領域おける差分絶対値|α1'―β1'|が比較的大きな値となる光量、すなわち、精度良く肌領域を検出することが可能な第1及び第2の撮像画像を生成するために必要な電荷量が得られる光量が採用される。 Note that the constant amount according to the wavelength λ1 and the constant amount according to the wavelength λ2 are, for example, absolute differences in the skin region even if noise or the like occurs in the skin region of the first and second captured images. The amount of light with which the value | α 1 ′ −β 1 ′ | is a relatively large value, that is, the amount of charge necessary to generate the first and second captured images capable of detecting the skin area with high accuracy. The amount of light obtained is adopted.

また、制御部101において、LED21a及びLED21bの光量を制御する制御方式としては、例えば、電流のオン状態とオフ状態とをスイッチングにより切換え、そのオン状態とオフ状態との比率(デューティ比)を可変することにより、許容最大電流を制御するPWM(Pulse Width Modulation,パルス幅変調)制御方式を用いることができる。   Further, as a control method for controlling the light quantity of the LED 21a and the LED 21b in the control unit 101, for example, the on state and the off state of the current are switched by switching, and the ratio (duty ratio) between the on state and the off state is variable. By doing so, it is possible to use a PWM (Pulse Width Modulation) control method for controlling the allowable maximum current.

したがって、カメラ62において、図7Eに示されるように、8.35[ms]の露光時間にも拘らず、波長λ1及びλ2の照射光成分により蓄積される電荷の電荷量は電荷量α1及びβ1に維持される。 Therefore, in the camera 62, as shown in FIG. 7E, the charge amount of the charge accumulated by the irradiation light components of the wavelengths λ1 and λ2 is the charge amounts α 1 and β 1 regardless of the exposure time of 8.35 [ms]. Maintained.

また、カメラ62において、8.35[ms]の露光時間で露光を行うため、図7Fに示されるように、波長λ1及びλ2の外光成分により蓄積される電荷の電荷量は、電荷量α2/2及びβ2/2に抑制される。 Further, since exposure is performed with an exposure time of 8.35 [ms] in the camera 62, as shown in FIG. 7F, the charge amount of charges accumulated by the external light components of the wavelengths λ1 and λ2 is the charge amount α 2 / It is suppressed to 2 and beta 2/2.

このため、図7Gに示されるように、波長λ1の照射光成分、及び波長λ1の外光成分により蓄積される電荷の総電荷量は、蓄積することが可能な最大電荷量max未満の電荷量α1+(α2/2)となる。カメラ62は、電荷量α1+(α2/2)対応する輝度値により構成される第1の撮像画像を生成して、差分画像生成部102に供給する。 For this reason, as shown in FIG. 7G, the total charge amount of charges accumulated by the irradiation light component of wavelength λ1 and the external light component of wavelength λ1 is less than the maximum charge amount max that can be accumulated. α 1 + to become (α 2/2). The camera 62 generates a first captured image constituted by the charge amount α 1 + (α 2/2 ) corresponding luminance value, and supplies the difference image generation unit 102.

また、波長λ2の照射光成分、及び波長λ2の外光成分により蓄積される電荷の総電荷量は、最大電荷量max未満の電荷量β1+(β2/2)となる。カメラ62は、電荷量β1+(β2/2)対応する輝度値により構成される第2の撮像画像を生成して、差分画像生成部102に供給する。 The irradiation light component of the wavelength .lambda.2, and the total charge quantity of the charge stored by the outside light component of the wavelength .lambda.2 is a charge amount of less than the maximum charge amount max β 1 + (β 2/ 2). The camera 62 generates a second captured image constituted by the charge amount β 1 + (β 2/2 ) corresponding luminance value, and supplies the difference image generation unit 102.

本実施の形態では、カメラ62において、波長λ1及びλ2の外光成分により蓄積される電荷の電荷量を、電荷量α2/2及びβ2/2に抑制するようにしたので、図8に示されるような白とびを防止することが可能となる。 In this embodiment, in the camera 62, the amount of charge accumulated by the outside light component of the wavelength λ1 and .lambda.2, since so as to suppress the charge quantity alpha 2/2 and beta 2/2, in Figure 8 It is possible to prevent overexposure as shown.

なお、白とびを防止する方法としては、その他、例えば、図9に示されるように、カメラ62の絞りを調整して、波長λ1及び波長λ2の外光成分により得られる電荷量α2及びβ2を、それぞれ、例えば1/2に抑制することが考えられる。また、例えば、図10に示されるように、カメラ62のシャッタスピードを、露光時間が例えば1/2となるように調整して、波長λ1及び波長λ2の外光成分により得られる電荷量α2及びβ2を、それぞれ、1/2に抑制することが考えられる。 As another method for preventing overexposure, for example, as shown in FIG. 9, the amount of charge α 2 and β obtained by adjusting the aperture of the camera 62 and the external light components of the wavelengths λ1 and λ2 is adjusted. It is conceivable to suppress 2 to 1/2, for example. Further, for example, as shown in FIG. 10, the amount of charge α 2 obtained by the external light components of the wavelengths λ1 and λ2 by adjusting the shutter speed of the camera 62 so that the exposure time becomes, for example, ½. And β 2 can be suppressed to 1/2.

図9に示されるようにカメラ62の絞りを調整する方法、図10に示されるようにカメラ62のシャッタスピードを調整する方法によれば、白とびの原因(肌領域を検出する肌検出精度の低下の原因)となる電荷量α2及びβ2を、それぞれ十分に抑制することができる。 According to the method of adjusting the aperture of the camera 62 as shown in FIG. 9 and the method of adjusting the shutter speed of the camera 62 as shown in FIG. 10, the cause of overexposure (the accuracy of skin detection for detecting the skin region) It is possible to sufficiently suppress the charge amounts α 2 and β 2 that cause the decrease).

しかしながら、これらの場合、肌領域を検出するために必要な電荷量α1及びβ1も、それぞれ大幅に抑制されてしまう。 However, in these cases, the charge amounts α 1 and β 1 necessary for detecting the skin region are also significantly suppressed.

そこで、本実施の形態では、図7を参照して説明したように、波長λ1及び波長λ2の照射光成分により蓄積される電荷量(図7でいうα1及びβ1)を維持しつつ、波長λ1及び波長λ2の外光成分により蓄積される電荷量(図7でいうα2/2及びβ2/2)を十分に抑制して、撮像画像上の肌領域を検出する肌検出精度を向上させるようにしている。 Therefore, in the present embodiment, as described with reference to FIG. 7, while maintaining the charge amounts (α 1 and β 1 in FIG. 7) accumulated by the irradiation light components of the wavelengths λ1 and λ2, amount of charge accumulated by the outside light component of the wavelength λ1 and the wavelength .lambda.2 (referred to FIG. 7 alpha 2/2 and beta 2/2) to be sufficiently suppressed, the skin detection accuracy for detecting the skin region of the captured image I try to improve.

[露光時間の決定方法の一例]
次に、図11を参照して、制御部101が行う、カメラ62からの第3の撮像画像に基づいて露光時間を決定する決定方法の一例について説明する。
[Example of how to determine exposure time]
Next, an example of a determination method for determining the exposure time based on the third captured image from the camera 62 performed by the control unit 101 will be described with reference to FIG.

図11Aには、16.7[ms]の露光時間で波長λ1の外光成分のみを受光して得られる第3の撮像画像121が示されている。図11Aに示される第3の撮像画像121は、肌領域121a及び非肌領域121bにより構成されている。なお、図11Aに示される肌領域121aを構成する画素の輝度値の最大値は、輝度値200である。   FIG. 11A shows a third captured image 121 obtained by receiving only the external light component of wavelength λ1 with an exposure time of 16.7 [ms]. A third captured image 121 shown in FIG. 11A is composed of a skin region 121a and a non-skin region 121b. Note that the maximum value of the luminance values of the pixels constituting the skin region 121a shown in FIG.

図11Bには、8.35[ms]の露光時間で波長λ1の外光成分のみを受光して得られる第3の撮像画像121が示されている。図11Bに示される第3の撮像画像121は、肌領域121a及び非肌領域121bにより構成されている。なお、図11Bに示される肌領域121aを構成する画素の輝度値の最大値は、輝度値100である。   FIG. 11B shows a third captured image 121 obtained by receiving only the external light component of wavelength λ1 with an exposure time of 8.35 [ms]. The third captured image 121 shown in FIG. 11B includes a skin region 121a and a non-skin region 121b. Note that the maximum value of the luminance values of the pixels constituting the skin region 121a shown in FIG.

なお、本実施の形態において、輝度値の諧調はNビットとし、最大の輝度値は2N−1であるものとする。 In the present embodiment, the gradation of the luminance value is N bits, and the maximum luminance value is 2 N −1.

この場合、白とびを防止するために、肌領域において、蓄積される電荷の電荷量は次の条件式(1)及び(2)を満たす必要がある。   In this case, in order to prevent overexposure, the amount of charges accumulated in the skin region needs to satisfy the following conditional expressions (1) and (2).

α2<max−α1 ・・・(1) α 2 <max−α 1 (1)

β2<max−β1 ・・・(2) β 2 <max−β 1 (2)

なお、電荷量α1は、波長λ1の照射光成分により蓄積された電荷量を表しており、電荷量α2は、波長λ1の外光成分により蓄積された電荷量を表している。また、最大電荷量maxは、電荷を蓄積することが可能な最大量を表している。 The charge amount α 1 represents the amount of charge accumulated by the irradiation light component having the wavelength λ1, and the charge amount α 2 represents the charge amount accumulated by the external light component having the wavelength λ1. The maximum charge amount max represents the maximum amount that can store charges.

さらに、電荷量β1は、波長λ2の照射光成分により蓄積された電荷量を表しており、電荷量β2は、波長λ2の外光成分により蓄積された電荷量を表している。 Further, the charge amount β 1 represents the amount of charge accumulated by the irradiation light component having the wavelength λ2, and the charge amount β 2 represents the amount of charge accumulated by the external light component having the wavelength λ2.

条件式(1)及び(2)を、それぞれ、輝度値についての条件式に変換すると、次の条件式(1')及び(2’)となる。   When conditional expressions (1) and (2) are converted into conditional expressions for luminance values, the following conditional expressions (1 ′) and (2 ′) are obtained.

α2'<(2N−1)−α1' ・・・(1') α 2 ′ <(2 N −1) −α 1 ′ (1 ′)

β2'<(2N−1)−β1' ・・・(2') β 2 ′ <(2 N −1) −β 1 ′ (2 ′)

なお、輝度値α1'は、電荷量α1に対応する輝度値を表しており、輝度値α2'は、電荷量α2に対応する輝度値を表している。また、最大輝度値(2N−1)は、最大電荷量maxに対応する輝度値を表している。 The luminance value α 1 ′ represents the luminance value corresponding to the charge amount α 1 , and the luminance value α 2 ′ represents the luminance value corresponding to the charge amount α 2 . The maximum luminance value (2 N −1) represents the luminance value corresponding to the maximum charge amount max.

さらに、輝度値β1'は、電荷量β1に対応する輝度値を表しており、輝度値β2'は、電荷量β2に対応する輝度値を表している。 Further, the luminance value β 1 ′ represents a luminance value corresponding to the charge amount β 1 , and the luminance value β 2 ′ represents a luminance value corresponding to the charge amount β 2 .

上述したように、LED21aとLED21bの出力は、それぞれ、波長λ1及びλ2に対する反射率が同一である被写体に対して、波長λ1又はλ2のいずれの光を照射した場合にも、カメラ62の撮像により得られる撮像画像の、対応する画素どうしの輝度値が同一となるように、決定された露光時間に応じて調整される。   As described above, the output of the LED 21a and the LED 21b is obtained by the imaging of the camera 62 when the subject having the same reflectance with respect to the wavelengths λ1 and λ2 is irradiated with light of either wavelength λ1 or λ2. The obtained captured image is adjusted according to the determined exposure time so that the luminance values of the corresponding pixels are the same.

すなわち、例えば、LED21aの出力は、決定された露光時間において、波長λ1及び波長λ2のいずれの反射率が100[%]である鏡の鏡面に、LED21aからの波長λ1の光を反射させた場合に得られる電荷量α1が、所定の輝度値xに対応する電荷量となるように、調整される。 That is, for example, the output of the LED 21a is obtained when the light of the wavelength λ1 from the LED 21a is reflected on the mirror surface of the mirror whose reflectivity of the wavelength λ1 and the wavelength λ2 is 100% in the determined exposure time. Is adjusted so that the charge amount α 1 obtained in step 1 becomes the charge amount corresponding to the predetermined luminance value x.

また、例えば、LED21bの出力は、決定された露光時間において、鏡面に、LED21bからの波長λ2の光を反射させた場合に得られる電荷量β1が、所定の輝度値xに対応する電荷量となるように、調整される。 Further, for example, the output of LED21b, in determined exposure time, a mirror, a charge amount of the charge amount beta 1 obtained when light is reflected corresponds to a predetermined luminance value x of the wavelength λ2 from LED21b To be adjusted.

したがって、輝度値α1'及びβ1'の最大値は、それぞれ、所定の輝度値xとなる。 Accordingly, the maximum values of the luminance values α 1 ′ and β 1 ′ are respectively predetermined luminance values x.

このため、輝度値α2'による白とびを防止するためには次式(1'')を満たす必要がある。また、輝度値β2'による白とびを防止するためには次式(2'')を満たす必要がある。 Therefore, in order to prevent overexposure due to the luminance value α 2 ′, it is necessary to satisfy the following formula (1 ″). Further, in order to prevent overexposure due to the luminance value β 2 ′, it is necessary to satisfy the following formula (2 ″).

α2'<(2N−1)−x ・・・(1'') α 2 ′ <(2 N −1) −x (1 ″)

β2'<(2N−1)−x ・・・(2'') β 2 ′ <(2 N −1) −x (2 ″)

本実施の形態では、いずれの露光時間においても、波長λ1の外光成分を受光して得られる輝度値α2'は、波長λ2の外光成分を受光して得られる輝度値β2'よりも大きくなっている。 In the present embodiment, the luminance value α 2 ′ obtained by receiving the external light component having the wavelength λ1 at any exposure time is obtained from the luminance value β 2 ′ obtained by receiving the external light component having the wavelength λ2. Is also getting bigger.

したがって、式(1'')を満たす露光時間は、式(2'')も満たす露光時間となることから、制御部101は、カメラ62からの第3の撮像画像に基づいて、式(1'')(又は式(1))を満たす露光時間を決定する。   Therefore, since the exposure time that satisfies the formula (1 ″) is the exposure time that also satisfies the formula (2 ″), the control unit 101 uses the formula (1) based on the third captured image from the camera 62. '') (Or the exposure time satisfying the equation (1)) is determined.

すなわち、例えば、制御部101は、LED21a及びLED21bを消灯させた状態で、カメラ62に、16.7[ms]の露光時間で波長λ1の外光成分を受光させ、図11Aに示されたような第3の撮像画像を取得する。   That is, for example, the control unit 101 causes the camera 62 to receive an external light component having the wavelength λ1 with an exposure time of 16.7 [ms] with the LED 21a and the LED 21b turned off, and the first unit as illustrated in FIG. 11A. 3 captured images are acquired.

そして、制御部101は、取得した第3の撮像画像上の肌領域を構成する画素の輝度値のうち、最大の輝度値α2'を検出し、その検出結果に基づいて、露光時間を決定する。 Then, the control unit 101 detects the maximum luminance value α 2 ′ among the luminance values of the pixels constituting the skin area on the acquired third captured image, and determines the exposure time based on the detection result. To do.

具体的には、例えば、N=8,x=100である場合、最大の輝度値α2'は、155(=255-100)未満である必要がある。この場合、制御部101は、図10Aに示されるように、16.7[ms]の露光時間で撮像した第3の撮像画像121上の肌領域121aを構成する画素の輝度値のうち、最大の輝度値α2'が輝度値200であるときには、図10Bに示されるように、その輝度値200が155未満の輝度値100となる8.35[ms]の露光時間に決定する。 Specifically, for example, when N = 8 and x = 100, the maximum luminance value α 2 ′ needs to be less than 155 (= 255-100). In this case, as shown in FIG. 10A, the control unit 101 has the maximum luminance among the luminance values of the pixels constituting the skin region 121a on the third captured image 121 captured with an exposure time of 16.7 [ms]. When the value α 2 ′ is the luminance value 200, as shown in FIG. 10B, the exposure time is determined to be 8.35 [ms] when the luminance value 200 becomes the luminance value 100 less than 155.

なお、本実施の形態では、いずれの露光時間においても、波長λ1の外光成分を受光して得られる輝度値α2'は、波長λ2の外光成分を受光して得られる輝度値β2'よりも大きくなっているものとした。しかしながら、いずれの露光時間においても、輝度値α2'が、輝度値β2'よりも小さくなる場合には、以下に説明するように、露光時間を決定することとなる。 In the present embodiment, the luminance value α 2 ′ obtained by receiving the external light component having the wavelength λ1 at any exposure time is the luminance value β 2 obtained by receiving the external light component having the wavelength λ2. It was supposed to be bigger than '. However, in any exposure time, when the luminance value α 2 ′ is smaller than the luminance value β 2 ′, the exposure time is determined as described below.

すなわち、この場合、式(2'')を満たす露光時間は、式(1'')も満たす露光時間となることから、制御部101は、式(2'')(又は式(2))を満たす露光時間を決定する。   That is, in this case, since the exposure time that satisfies the formula (2 ″) is the exposure time that also satisfies the formula (1 ″), the control unit 101 determines that the formula (2 ″) (or the formula (2)) is satisfied. An exposure time that satisfies the above is determined.

具体的には、制御部101は、LED21a及びLED21bを消灯させた状態で、カメラ62に、16.7[ms]の露光時間で波長λ2の外光成分を受光させ、その結果得られる第4の撮像画像を取得する。   Specifically, the control unit 101 causes the camera 62 to receive an external light component having the wavelength λ2 with an exposure time of 16.7 [ms] with the LED 21a and the LED 21b turned off, and a fourth imaging obtained as a result. Get an image.

そして、制御部101は、取得した第4の撮像画像上の肌領域を構成する画素の輝度値のうち、最大の輝度値β2'を検出し、第3の撮像画像に基づいて露光時間を決定した場合と同様にして、露光時間を決定する。 Then, the control unit 101 detects the maximum luminance value β 2 ′ among the luminance values of the pixels constituting the skin area on the acquired fourth captured image, and sets the exposure time based on the third captured image. The exposure time is determined in the same manner as when it is determined.

なお、いずれの露光時間においても、輝度値α2'が、輝度値β2'よりも小さくなる場合には、第4の撮像画像を用いて露光時間を決定する以外は、本実施の形態と同様にして、肌領域の検出等を行うこととなる。 Note that, in any exposure time, when the brightness value α 2 ′ is smaller than the brightness value β 2 ′, the present embodiment is the same as the present embodiment except that the exposure time is determined using the fourth captured image. Similarly, detection of a skin region and the like are performed.

[肌検出処理の動作説明]
次に、図12のフローチャートを参照して、情報処理システム41が行う肌検出処理の詳細を説明する。
[Explanation of skin detection processing]
Next, details of the skin detection process performed by the information processing system 41 will be described with reference to the flowchart of FIG.

この肌検出処理は、例えば、ユーザにより情報処理システム41の電源がオンにされたときに開始される。   This skin detection process is started, for example, when the information processing system 41 is turned on by the user.

ステップS1において、制御部101は、図示せぬ記憶部に予め保持されている設定情報に基づいて、カメラ62による露光のタイミング、カメラ62による露光時間、発光装置61のLED21aによる発光のタイミング、LED21aによる発光時間、発光装置61のLED21bによる発光のタイミング、及びLED21bによる発光時間を決定する。ここで、設定情報とは、カメラ62による露光のタイミング等を設定するための情報をいう。   In step S1, the control unit 101 determines the exposure timing by the camera 62, the exposure time by the camera 62, the light emission timing by the LED 21a of the light emitting device 61, and the LED 21a based on setting information previously stored in a storage unit (not shown). , The light emission timing by the LED 21b of the light emitting device 61, and the light emission time by the LED 21b are determined. Here, the setting information refers to information for setting the timing of exposure by the camera 62 and the like.

また、設定情報は、肌検出処理が行われる前に、後述するステップS6乃至ステップS8の処理と同様の処理が行われて予め作成される。   Further, the setting information is created in advance by performing the same processing as the processing in steps S6 to S8 described later before the skin detection processing is performed.

すなわち、例えば、ステップS1において、制御部101は、発光装置61のLED21aによる発光のタイミングを、VD信号に生じる奇数番目の立ち上がりエッジに基づいて決定される露光のタイミングと同一のタイミングに設定する。   That is, for example, in step S1, the control unit 101 sets the timing of light emission by the LED 21a of the light emitting device 61 to the same timing as the exposure timing determined based on the odd-numbered rising edge generated in the VD signal.

また、例えば、制御部101は、発光装置61のLED21bによる発光のタイミングを、VD信号に生じる偶数番目の立ち上がりエッジに基づいて決定される露光のタイミングと同一のタイミングに設定する。   Also, for example, the control unit 101 sets the timing of light emission by the LED 21b of the light emitting device 61 to the same timing as the exposure timing determined based on the even-numbered rising edge generated in the VD signal.

そして、制御部101は、発光装置61のLED21aによる発光時間、及びLED21bによる発光時間を、それぞれ、カメラ62による露光時間と同一の時間に設定する。   Then, the control unit 101 sets the light emission time by the LED 21a and the light emission time by the LED 21b of the light emitting device 61 to the same time as the exposure time by the camera 62, respectively.

ステップS2において、制御部101は、VD信号を生成し、生成したVD信号に生じる奇数番目の立ち上がりエッジに基づいて、ステップS1の処理で決定した露光のタイミングと同一のタイミングから露光時間だけ、発光装置61のLED21aを発光させる。これにより、被写体には、外光光源の他、LED21aから波長λ1の光が照射される。   In step S2, the control unit 101 generates a VD signal and emits light for the exposure time from the same timing as the exposure timing determined in the process of step S1, based on the odd-numbered rising edge generated in the generated VD signal. The LED 21a of the device 61 is caused to emit light. As a result, the subject is irradiated with light of wavelength λ1 from the LED 21a in addition to the external light source.

また、ステップS3において、制御部101は、生成したVD信号に生じる奇数番目の立ち上がりエッジに基づいて、ステップS1の処理で決定した露光のタイミングから露光時間だけ、カメラ62による露光を行わせる。これにより、カメラ62は、波長λ1の照射光成分、及び波長λ1の外光成分を受光して得られる第1の撮像画像を生成し、差分画像生成部102に供給する。   In step S3, the control unit 101 causes the camera 62 to perform exposure for the exposure time from the exposure timing determined in step S1 based on the odd-numbered rising edge generated in the generated VD signal. Accordingly, the camera 62 generates a first captured image obtained by receiving the irradiation light component of the wavelength λ1 and the external light component of the wavelength λ1, and supplies the first captured image to the difference image generation unit 102.

ステップS2の処理によるLED21aの発光、及びステップS3の処理によるカメラ62の露光が終了した後、ステップS4において、制御部101は、生成したVD信号に生じる偶数番目の立ち上がりエッジに基づいて、ステップS1の処理で決定した露光のタイミングから露光時間だけ、発光装置61のLED21bを発光させる。これにより、被写体には、外光光源の他、LED21bから波長λ2の光が照射される。   After the light emission of the LED 21a by the process of step S2 and the exposure of the camera 62 by the process of step S3 are completed, in step S4, the control unit 101 performs step S1 based on the even-numbered rising edge generated in the generated VD signal. The LED 21b of the light emitting device 61 is caused to emit light for the exposure time from the exposure timing determined in the above process. As a result, the subject is irradiated with light of wavelength λ2 from the LED 21b in addition to the external light source.

ステップS5において、制御部101は、生成したVD信号に生じる偶数番目の立ち上がりエッジに基づいて、ステップS1の処理で決定した露光のタイミングから露光時間だけ、カメラ62による露光を行わせる。これにより、カメラ62は、波長λ2の照射光成分、及び波長λ2の外光成分を受光して得られる第2の撮像画像を生成し、差分画像生成部102に供給する。   In step S5, the control unit 101 causes the camera 62 to perform exposure for the exposure time from the exposure timing determined in step S1, based on the even-numbered rising edge generated in the generated VD signal. Accordingly, the camera 62 generates a second captured image obtained by receiving the irradiation light component having the wavelength λ <b> 2 and the external light component having the wavelength λ <b> 2, and supplies the second captured image to the difference image generation unit 102.

ステップS4の処理によるLED21bの発光、及びステップS5の処理によるカメラ62の露光が終了した後、ステップS6において、制御部101は、LED21a及びLED21bを消灯させた状態で、ステップS1の処理で決定した露光のタイミングから露光時間だけ、外光光源から被写体に照射された波長λ1の光の反射光を、カメラ62に受光させる。これにより、カメラ62は、波長λ1の外光成分のみを受光して得られる第3の撮像画像を生成し、制御部101に供給する。   After the light emission of the LED 21b by the process of step S4 and the exposure of the camera 62 by the process of step S5 are finished, in step S6, the control unit 101 decides by the process of step S1 with the LED 21a and the LED 21b turned off. The camera 62 receives the reflected light of the light having the wavelength λ1 emitted from the external light source to the subject for the exposure time from the exposure timing. As a result, the camera 62 generates a third captured image obtained by receiving only the external light component having the wavelength λ <b> 1 and supplies the third captured image to the control unit 101.

ステップS7において、制御部101は、カメラ62からの第3の撮像画像上の肌領域を構成する画素の輝度値のうちの最大の輝度値が、条件式(1'')を満たすか否か、すなわち、最大の輝度値が所定の閾値(例えば、閾値155)未満であるか否かを判定する。   In step S <b> 7, the control unit 101 determines whether or not the maximum luminance value among the luminance values of the pixels constituting the skin area on the third captured image from the camera 62 satisfies the conditional expression (1 ″). That is, it is determined whether or not the maximum luminance value is less than a predetermined threshold value (for example, threshold value 155).

そして、ステップS7において、制御部101は、カメラ62からの第3の撮像画像の肌領域を構成する画素の輝度値のうちの最大の輝度値が、所定の閾値未満でないと判定した場合、処理をステップS8に進める。   In step S7, when the control unit 101 determines that the maximum luminance value of the luminance values of the pixels constituting the skin area of the third captured image from the camera 62 is not less than the predetermined threshold value, Advances to step S8.

ステップS8において、制御部101は、カメラ62からの第3の撮像画像の肌領域を構成する画素の輝度値のうちの最大の輝度値に基づいて、露光のタイミング及び露光時間等を決定(変更)する。また、制御部101は、決定した露光時間に応じて、LED21a及びLED21bの出力を調整する。そして、制御部101は、処理をステップS2に戻し、それ以降、同様の処理を行う。   In step S8, the control unit 101 determines (changes) the exposure timing, the exposure time, and the like based on the maximum luminance value among the luminance values of the pixels constituting the skin area of the third captured image from the camera 62. ) Further, the control unit 101 adjusts the output of the LED 21a and the LED 21b according to the determined exposure time. And the control part 101 returns a process to step S2, and performs the same process after that.

また、ステップS7において、制御部101は、カメラ62からの第3の撮像画像を構成する画素の輝度値のうちの最大の輝度値が、所定の閾値未満であると判定した場合、処理をステップS9に進める。   In step S7, when the control unit 101 determines that the maximum luminance value among the luminance values of the pixels constituting the third captured image from the camera 62 is less than the predetermined threshold value, the process proceeds to step S7. Proceed to S9.

ステップS9及びステップS10において、制御部101は、差分画像生成部102及び2値化部103を制御して、肌領域の検出を行わせ、その検出結果に応じたジェスチャ操作を行わせる指示を、後段に出力する。   In step S9 and step S10, the control unit 101 controls the difference image generation unit 102 and the binarization unit 103 to perform detection of the skin region and to instruct to perform a gesture operation according to the detection result. Output to the subsequent stage.

すなわち、ステップS9において、差分画像生成部102は、カメラ62からの第1の撮像画像と第2の撮像画像に対してLPFを用いた平滑化を行う。そして、差分画像生成部102は、平滑化後の第1の撮像画像と第2の撮像画像どうしの差分絶対値を算出し、算出した差分絶対値を画素値とする画素により構成される差分画像を、2値化部103に供給する。   That is, in step S <b> 9, the difference image generation unit 102 performs smoothing using LPF on the first captured image and the second captured image from the camera 62. And the difference image generation part 102 calculates the difference absolute value of the 1st captured image after smoothing, and the 2nd captured image, The difference image comprised by the pixel which uses the calculated difference absolute value as a pixel value Is supplied to the binarization unit 103.

ステップS10において、2値化部103は、差分画像生成部102からの差分画像を2値化し、その結果得られる2値化画像に基づいて、第1の撮像画像(又は第2の撮像画像)上の肌領域を検出し、その検出結果に対応するジェスチャ操作を行わせる指示を、後段に出力する。   In step S10, the binarization unit 103 binarizes the difference image from the difference image generation unit 102, and based on the binarized image obtained as a result, the first captured image (or the second captured image). An instruction to detect the upper skin region and perform a gesture operation corresponding to the detection result is output to the subsequent stage.

そして、ステップS10の終了後、処理はステップS2に戻り、それ以降、同様の処理が行われる。   And after completion | finish of step S10, a process returns to step S2, and the same process is performed after that.

なお、この肌検出処理は、例えば、ユーザにより情報処理システム41の電源がオフにされたときに終了される。   Note that this skin detection process is ended, for example, when the information processing system 41 is turned off by the user.

以上説明したように、肌検出処理では、波長λ1の外光成分のみを受光して得られる第3の撮像画像に基づいて、露光のタイミング及び露光時間等を変更するようにした。   As described above, in the skin detection process, the exposure timing, the exposure time, and the like are changed based on the third captured image obtained by receiving only the external light component having the wavelength λ1.

これにより、肌検出処理では、波長λ1及びλ2の照射光成分により蓄積される電荷の電荷量が維持され、波長λ1及びλ2の外光成分により蓄積される電荷の電荷量が十分に抑制されるため、例えば従来の肌認識システム1と比較して、撮像画像上の肌領域を検出する肌検出精度を向上させることが可能となる。   As a result, in the skin detection process, the amount of charge accumulated by the irradiated light components of wavelengths λ1 and λ2 is maintained, and the amount of charge accumulated by the external light components of wavelengths λ1 and λ2 is sufficiently suppressed. Therefore, for example, compared with the conventional skin recognition system 1, it becomes possible to improve the skin detection accuracy which detects the skin area | region on a captured image.

また、肌検出処理では、第3の撮像画像に応じて変化するいずれの露光時間においても、LED21aから照射される波長λ1の光の総光量が、波長λ1に応じた一定の量となるとともに、LED21bから照射される波長λ2の光の総光量が、波長λ2に応じた一定の量となるように、LED21a及びLED21bを制御するようにした。   In the skin detection process, the total light amount of the light with the wavelength λ1 emitted from the LED 21a becomes a constant amount according to the wavelength λ1 at any exposure time that changes according to the third captured image. The LED 21a and the LED 21b are controlled so that the total amount of light with the wavelength λ2 emitted from the LED 21b becomes a constant amount corresponding to the wavelength λ2.

したがって、本実施の形態では、LED21a及びLED21bのそれぞれにより消費される消費電力、及び露光時間内に発光する総光量は、いずれも、従来の肌認識システム1と同じものとなる。   Therefore, in the present embodiment, the power consumption consumed by each of the LED 21a and the LED 21b and the total amount of light emitted within the exposure time are both the same as those of the conventional skin recognition system 1.

したがって、本実施の形態において、従来の肌認識システム1と比較して、消費電力を増やさないとともに、LED21a及びLED21bから被写体までの距離を短くすることなく、波長λ1及びλ2の外光成分による電荷量を抑制することが可能となる。   Therefore, in the present embodiment, compared to the conventional skin recognition system 1, the power consumption is not increased, and the charges due to the external light components of the wavelengths λ1 and λ2 are reduced without shortening the distance from the LED 21a and the LED 21b to the subject. The amount can be suppressed.

<2.変形例>
本実施の形態において、肌検出処理では、制御部101が、カメラ62からの第3の撮像画像に応じて、露光のタイミング及び露光時間等を変更するようにしたが、これに限定されない。
<2. Modification>
In the present embodiment, in the skin detection process, the control unit 101 changes the exposure timing, the exposure time, and the like according to the third captured image from the camera 62. However, the present invention is not limited to this.

すなわち、例えば、肌検出処理において、ステップS1で予め決定した露光のタイミング及び露光時間等を変更せずに、ステップS2乃至ステップS5、ステップS9、及びステップS10による処理を行うようにしてもよい。この場合、カメラ62からの第3の撮像画像に応じて、露光のタイミング及び露光時間等を変更する必要がなくなるため、肌領域を検出する処理速度を早くすることが可能となる。   That is, for example, in the skin detection process, the process by steps S2 to S5, step S9, and step S10 may be performed without changing the exposure timing and the exposure time that are determined in advance in step S1. In this case, it is not necessary to change the exposure timing and the exposure time according to the third captured image from the camera 62, so that the processing speed for detecting the skin region can be increased.

本実施の形態では、LED21a及びLED21bによる発光のタイミングを、カメラ62による露光のタイミングと一致させるようにしたが、発光のタイミングは、これに限定されない。   In this embodiment, the timing of light emission by the LED 21a and the LED 21b is made to coincide with the timing of exposure by the camera 62, but the timing of light emission is not limited to this.

すなわち、発光のタイミングは、露光時間内にLED21aから照射される波長λ1の光の総光量が、波長λ1に応じた一定の量となるとともに、露光時間内にLED21bから照射される波長λ2の光の総光量が、波長λ2に応じた一定の量となるような発光のタイミングであれば、どのようなタイミングで発光させるようにしてもよい。   That is, the light emission timing is such that the total amount of light of wavelength λ1 emitted from the LED 21a within the exposure time is a constant amount corresponding to the wavelength λ1, and the light of wavelength λ2 emitted from the LED 21b within the exposure time. The light may be emitted at any timing as long as the total light amount is a constant amount corresponding to the wavelength λ2.

具体的には、例えば、LED21a及びLED21bによる発光のタイミングを、カメラ62による露光のタイミングとずらして、LED21a及びLED21bを、露光時間内に、露光時間よりも短い発光時間で発光させるようにしてもよいし、露光時間の一部分又はすべてを含む、露光時間よりも長い発光時間で発光させるようにしてもよい。   Specifically, for example, the timing of light emission by the LED 21a and the LED 21b is shifted from the timing of exposure by the camera 62 so that the LED 21a and the LED 21b emit light within the exposure time with a light emission time shorter than the exposure time. Alternatively, light may be emitted with a light emission time longer than the exposure time, including part or all of the exposure time.

この場合、制御部101は、いずれの発光時間においても、露光時間内にLED21aから照射される波長λ1の光の総光量が、波長λ1に応じた一定の量となるとともに、露光時間内にLED21bから照射される波長λ2の光の総光量が、波長λ2に応じた一定の量となるように、LED21a及びLED21bをそれぞれ制御する。   In this case, the control unit 101 determines that the total amount of light of the wavelength λ1 emitted from the LED 21a within the exposure time is a constant amount corresponding to the wavelength λ1 and the LED 21b within the exposure time at any light emission time. The LED 21a and the LED 21b are respectively controlled so that the total light amount of the light with the wavelength λ2 emitted from the light source becomes a constant amount corresponding to the wavelength λ2.

本実施の形態では、LED21aにより発光される波長λ1の波長を870[nm]とし、LED21bにより発光される波長λ2の波長を950[nm]としたが、波長の組合せはこれに限定されない。   In the present embodiment, the wavelength λ1 emitted from the LED 21a is 870 [nm] and the wavelength λ2 emitted from the LED 21b is 950 [nm]. However, the combination of wavelengths is not limited to this.

すなわち、波長の組合せとしては、波長λ1における反射率と、波長λ2における反射率との差分絶対値が、ユーザの肌以外のものについて得られる反射率の差分絶対値と比較して、十分に大きくなる組合せであれば、どのような組合せでもよい。   That is, as a combination of wavelengths, the absolute difference between the reflectance at the wavelength λ1 and the reflectance at the wavelength λ2 is sufficiently larger than the absolute difference between the reflectances obtained for things other than the user's skin. Any combination is possible as long as it is a combination.

具体的には、図4から明らかなように、例えば、870[nm]と950[nm]との組合せの他、800[nm]と950[nm]との組合せ、870[nm]と1000[nm]との組合せ、800[nm]と1000[nm]との組合せ等のように、LED21aが930[nm]未満の波長λ1の光を照射し、LED21bが930[nm]以上の波長λ2の光を照射するように構成することが可能である。   Specifically, as is apparent from FIG. 4, for example, in addition to the combination of 870 [nm] and 950 [nm], the combination of 800 [nm] and 950 [nm], 870 [nm] and 1000 [nm] The LED 21a emits light having a wavelength λ1 of less than 930 [nm], and the LED 21b has a wavelength λ2 of 930 [nm] or more, such as a combination with nm] or a combination of 800 [nm] and 1000 [nm] It can be configured to emit light.

なお、波長λ1の光として、可視光を用いる場合には、可視光である波長λ1の光が、可視光カットフィルタ62aにより遮断されないように、例えば、カメラ62から可視光カットフィルタ62aを外す必要がある。このことは、波長λ2の光として、可視光を用いる場合についても同様のことが言える。   In the case where visible light is used as the light of wavelength λ1, it is necessary to remove the visible light cut filter 62a from the camera 62, for example, so that the visible light having the wavelength λ1 is not blocked by the visible light cut filter 62a. There is. The same applies to the case where visible light is used as the light of wavelength λ2.

また、本実施の形態では、第1又は第2の撮像画像から肌領域を検出する情報処理システム41について説明したが、この情報処理システム41を、テレビジョン受像機等の電子機器に内蔵することが可能である。   In the present embodiment, the information processing system 41 that detects a skin region from the first or second captured image has been described. However, the information processing system 41 is built in an electronic device such as a television receiver. Is possible.

この場合、例えば、情報処理システム41が内蔵されたテレビジョン受像機では、情報処理システム41により検出された肌領域の検出結果に応じて、チャンネルの変更等が行われる。   In this case, for example, in a television receiver in which the information processing system 41 is built, the channel is changed in accordance with the detection result of the skin area detected by the information processing system 41.

ところで、上述した一連の処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、いわゆる組み込み型のコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、記録媒体からインストールされる。   By the way, the series of processes described above can be executed by dedicated hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a so-called embedded computer or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

[コンピュータの構成例]
次に、図13は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成例を示している。
[Computer configuration example]
Next, FIG. 13 shows a configuration example of a personal computer that executes the above-described series of processing by a program.

CPU(central processing unit)201は、ROM(read only memory)202、又は記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(random access memory)203には、CPU201が実行するプログラムやデータ等が適宜記憶される。これらのCPU201、ROM202、及びRAM203は、バス204により相互に接続されている。   A CPU (central processing unit) 201 executes various processes according to a program stored in a ROM (read only memory) 202 or a storage unit 208. A RAM (random access memory) 203 appropriately stores programs executed by the CPU 201, data, and the like. These CPU 201, ROM 202, and RAM 203 are connected to each other by a bus 204.

CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホン等よりなる入力部206、ディスプレイ、スピーカ等よりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。   An input / output interface 205 is also connected to the CPU 201 via the bus 204. Connected to the input / output interface 205 are an input unit 206 composed of a keyboard, a mouse, a microphone, and the like, and an output unit 207 composed of a display, a speaker, and the like. The CPU 201 executes various processes in response to commands input from the input unit 206. Then, the CPU 201 outputs the processing result to the output unit 207.

入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。   A storage unit 208 connected to the input / output interface 205 includes, for example, a hard disk, and stores programs executed by the CPU 201 and various data. The communication unit 209 communicates with an external device via a network such as the Internet or a local area network.

また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。   Further, a program may be acquired via the communication unit 209 and stored in the storage unit 208.

入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。   The drive 210 connected to the input / output interface 205 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives programs and data recorded there. Etc. The acquired program and data are transferred to and stored in the storage unit 208 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、図13に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(compact disc-read only memory),DVD(digital versatile disc)を含む)、光磁気ディスク(MD(mini-disc)を含む)、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア211、又は、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。   As shown in FIG. 13, a recording medium for recording (storing) a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (compact disc- read only memory), DVD (digital versatile disc)), magneto-optical disc (including MD (mini-disc)), or removable media 211 that is a package media made of semiconductor memory, etc. It is composed of a ROM 202 that is permanently stored, a hard disk that constitutes the storage unit 208, and the like. Recording of a program on a recording medium is performed using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 209 that is an interface such as a router or a modem as necessary. Is called.

なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the steps describing the series of processes described above are not limited to the processes performed in time series according to the described order, but are not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本発明の実施の形態は、上述した本実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

21a,21b LED, 41 情報処理システム, 61 発光装置, 61a 拡散板 , 62 カメラ, 62a 可視光カットフィルタ, 63 情報処理装置, 101 制御部, 102 差分画像生成部, 103 2値化部   21a, 21b LED, 41 information processing system, 61 light emitting device, 61a diffuser plate, 62 camera, 62a visible light cut filter, 63 information processing device, 101 control unit, 102 difference image generation unit, 103 binarization unit

Claims (13)

被写体を撮像して得られる撮像画像から前記被写体を検出する検出装置において、
所定の波長の光を被写体に照射する照射手段と、
前記被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値として、前記被写体を撮像した撮像画像を生成する撮像手段と、
前記撮像画像から前記被写体を検出する検出手段と、
前記照射手段を制御し、前記総電荷量のうち、前記照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射させる照射制御手段と、
前記撮像手段を制御し、前記総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光させる撮像制御手段と
を含む検出装置。
In a detection device for detecting the subject from a captured image obtained by imaging the subject,
Irradiating means for irradiating the subject with light of a predetermined wavelength;
Imaging means for generating a captured image obtained by imaging the subject, using a total charge amount of each pixel accumulated by receiving reflected light from the subject as a pixel value;
Detecting means for detecting the subject from the captured image;
Irradiation control for controlling the irradiating means to irradiate the first charge amount accumulated by receiving reflected light of the light irradiated by the irradiating means out of the total charge amount with a predetermined charge amount. Means,
The second charge amount that is stored by receiving the reflected light of the light irradiated by outside light among the total charge amount is controlled from the maximum charge amount that can be accumulated. And an imaging control means for receiving light with an exposure time that is less than a difference value obtained by subtracting the amount of charge of 1 .
前記照射制御手段は、前記第1の電荷量が、前記被写体を検出するための前記撮像画像を生成するのに必要な電荷量となる光量で照射させる
請求項1に記載の検出装置。
The detection apparatus according to claim 1, wherein the irradiation control unit irradiates the first charge amount with an amount of light that is a charge amount necessary to generate the captured image for detecting the subject.
前記露光時間で蓄積される前記第2の電荷量に基づいて、前記撮像手段の前記露光時間を変更する変更手段をさらに含み、
前記撮像制御手段は、変更された前記露光時間で受光させる
請求項1に記載の検出装置。
Further comprising a changing means for changing the exposure time of the imaging means based on the second charge amount accumulated in the exposure time;
The detection apparatus according to claim 1, wherein the imaging control unit receives light with the changed exposure time.
前記照射制御手段は、前記露光時間と同一の照射時間で照射させる
請求項1に記載の検出装置。
The detection device according to claim 1, wherein the irradiation control unit irradiates with an irradiation time that is the same as the exposure time.
前記照射制御手段は、前記露光時間内に、前記露光時間よりも短い照射時間で照射させる
請求項1に記載の検出装置。
The detection apparatus according to claim 1, wherein the irradiation control unit irradiates within an exposure time with an irradiation time shorter than the exposure time.
前記照射制御手段は、前記露光時間を含む、前記露光時間よりも長い照射時間で照射させる
請求項1に記載の検出装置。
The detection apparatus according to claim 1, wherein the irradiation control unit performs irradiation with an irradiation time longer than the exposure time including the exposure time.
前記照射手段は、
第1の波長の光を被写体に照射する第1の出力手段と、
第1の波長とは異なる第2の波長の光を被写体に照射する第2の出力手段と
を有し、
前記撮像手段は、
前記第1の波長の反射光を受光して蓄積される画素毎の総電荷量を画素値として、第1の撮像画像を生成し、
前記第2の波長の反射光を受光して蓄積される画素毎の総電荷量を画素値として、第2の撮像画像を生成し、
前記検出手段は、前記第1及び第2の撮像画像に基づいて、前記第1又は第2の撮像画像の一方の撮像画像上の前記被写体を検出する
請求項1に記載の検出装置。
The irradiation means includes
First output means for irradiating a subject with light of a first wavelength;
A second output means for irradiating the subject with light having a second wavelength different from the first wavelength;
The imaging means includes
A first captured image is generated using a total charge amount of each pixel accumulated by receiving reflected light of the first wavelength as a pixel value,
Generating a second captured image using the total charge amount of each pixel accumulated by receiving reflected light of the second wavelength as a pixel value;
The detection device according to claim 1, wherein the detection unit detects the subject on one captured image of the first or second captured image based on the first and second captured images.
前記第1及び第2の出力手段は、人間の肌に対して、前記第1の波長の光を照射して得られる反射光の反射率と、前記第2の波長の光を照射して得られる反射光の反射率との差分絶対値が、所定の差分閾値以上となる場合の波長の光を照射する
請求項7に記載の検出装置
The first and second output means are obtained by irradiating the human skin with the reflectance of the reflected light obtained by irradiating the light of the first wavelength and the light of the second wavelength. Irradiate light with a wavelength when the absolute value of the difference from the reflectance of the reflected light is greater than or equal to a predetermined difference threshold
The detection device according to claim 7 .
前記第1及び第2の出力手段は、それぞれ異なる波長の赤外線を照射する
請求項8に記載の検出装置
The first and second output means irradiate infrared rays having different wavelengths, respectively.
The detection device according to claim 8 .
前記第1又は第2の出力手段の一方は、930[nm]以上の波長の光を照射し、他方は930[nm]未満の光を照射する
請求項9に記載の検出装置
One of the first or second output means emits light having a wavelength of 930 [nm] or more, and the other emits light of less than 930 [nm].
The detection device according to claim 9 .
被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値とする撮像画像から前記被写体を検出する検出装置の検出方法において、
前記検出装置は、
照射手段と、
撮像手段と、
検出手段と、
照射制御手段と、
撮像制御手段と
を含み、
前記照射制御手段が、所定の波長の光を被写体に照射する前記照射手段を制御し、前記総電荷量のうち、前記照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射させ、
前記撮像制御手段が、前記被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値として、前記被写体を撮像した撮像画像を生成する前記撮像手段を制御し、前記総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光させ、
前記検出手段が、前記撮像画像から前記被写体を検出する
ステップを含む検出方法。
In the detection method of the detection device for detecting the subject from a captured image in which the total charge amount of each pixel accumulated by receiving reflected light from the subject is a pixel value,
The detection device includes:
Irradiation means;
Imaging means;
Detection means;
Irradiation control means;
Imaging control means, and
The irradiation control unit controls the irradiation unit that irradiates a subject with light having a predetermined wavelength, and receives and accumulates the reflected light of the light irradiated by the irradiation unit out of the total charge amount. The amount of charge is irradiated with a light amount that becomes a predetermined amount of charge,
The imaging control unit controls the imaging unit to generate a captured image obtained by imaging the subject, using the total charge amount of each pixel accumulated by receiving reflected light from the subject as a pixel value, and the total charge The difference obtained by subtracting the first charge amount from the maximum charge amount that can be accumulated by the second charge amount accumulated by receiving the reflected light of the light irradiated by external light among the amount Receive light with an exposure time less than the value ,
A detection method including a step in which the detection means detects the subject from the captured image.
被写体を撮像して得られる撮像画像から前記被写体を検出する検出装置のコンピュータを、
所定の波長の光を被写体に照射する照射手段と、
前記被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値として、前記被写体を撮像した撮像画像を生成する撮像手段と、
前記撮像画像から前記被写体を検出する検出手段と、
前記照射手段を制御し、前記総電荷量のうち、前記照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射させる照射制御手段と、
前記撮像手段を制御し、前記総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光させる撮像制御手段と
して機能させるためのプログラム。
A computer of a detection device that detects the subject from a captured image obtained by imaging the subject,
Irradiating means for irradiating the subject with light of a predetermined wavelength;
Imaging means for generating a captured image obtained by imaging the subject, using a total charge amount of each pixel accumulated by receiving reflected light from the subject as a pixel value;
Detecting means for detecting the subject from the captured image;
Irradiation control for controlling the irradiating means to irradiate the first charge amount accumulated by receiving reflected light of the light irradiated by the irradiating means out of the total charge amount with a predetermined charge amount. Means,
The second charge amount that is stored by receiving the reflected light of the light irradiated by outside light among the total charge amount is controlled from the maximum charge amount that can be accumulated. A program for functioning as an imaging control means for receiving light with an exposure time that is less than a difference value obtained by subtracting the charge amount of 1 .
被写体を撮像して得られる撮像画像から前記被写体を検出する検出装置を内蔵する電子機器において、
前記検出装置は、
所定の波長の光を被写体に照射する照射手段と、
前記被写体からの反射光を受光して蓄積される画素毎の総電荷量を画素値として、前記被写体を撮像した撮像画像を生成する撮像手段と、
前記撮像画像から前記被写体を検出する検出手段と、
前記照射手段を制御し、前記総電荷量のうち、前記照射手段により照射される光の反射光を受光して蓄積される第1の電荷量が所定の電荷量となる光量で照射させる照射制御手段と、
前記撮像手段を制御し、前記総電荷量のうち、外光により照射される光の反射光を受光して蓄積される第2の電荷量が、蓄積することが可能な最大電荷量から前記第1の電荷量を差し引いて得られる差分値未満となる露光時間で受光させる撮像制御手段と
を含む
電子機器。
In an electronic device incorporating a detection device that detects the subject from a captured image obtained by imaging the subject,
The detection device includes:
Irradiating means for irradiating the subject with light of a predetermined wavelength;
Imaging means for generating a captured image obtained by imaging the subject, using a total charge amount of each pixel accumulated by receiving reflected light from the subject as a pixel value;
Detecting means for detecting the subject from the captured image;
Irradiation control for controlling the irradiating means to irradiate the first charge amount accumulated by receiving reflected light of the light irradiated by the irradiating means out of the total charge amount with a predetermined charge amount. Means,
The second charge amount that is stored by receiving the reflected light of the light irradiated by outside light among the total charge amount is controlled from the maximum charge amount that can be accumulated. And an imaging control means for receiving light with an exposure time that is less than a difference value obtained by subtracting the amount of charge of 1 .
JP2009253305A 2009-11-04 2009-11-04 DETECTING DEVICE, DETECTING METHOD, PROGRAM, AND ELECTRONIC DEVICE Expired - Fee Related JP5505693B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009253305A JP5505693B2 (en) 2009-11-04 2009-11-04 DETECTING DEVICE, DETECTING METHOD, PROGRAM, AND ELECTRONIC DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009253305A JP5505693B2 (en) 2009-11-04 2009-11-04 DETECTING DEVICE, DETECTING METHOD, PROGRAM, AND ELECTRONIC DEVICE

Publications (2)

Publication Number Publication Date
JP2011100214A JP2011100214A (en) 2011-05-19
JP5505693B2 true JP5505693B2 (en) 2014-05-28

Family

ID=44191352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009253305A Expired - Fee Related JP5505693B2 (en) 2009-11-04 2009-11-04 DETECTING DEVICE, DETECTING METHOD, PROGRAM, AND ELECTRONIC DEVICE

Country Status (1)

Country Link
JP (1) JP5505693B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5983575B2 (en) * 2013-09-27 2016-08-31 株式会社Jvcケンウッド Operation input device, operation input method and program
JP6052193B2 (en) * 2014-01-29 2016-12-27 株式会社Jvcケンウッド Operation input device, operation input method and program
WO2015045550A1 (en) * 2013-09-27 2015-04-02 株式会社Jvcケンウッド Operation input apparatus, operation input method, and program
JP6618337B2 (en) * 2015-11-26 2019-12-11 Takumi Vision株式会社 Object detection apparatus, object detection method, and computer program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3625349B2 (en) * 1997-02-12 2005-03-02 株式会社東芝 Image input apparatus and image input method
JP3410919B2 (en) * 1997-01-31 2003-05-26 株式会社東芝 Image extraction device
JP3748267B2 (en) * 2004-06-16 2006-02-22 ソニー株式会社 Imaging device
JP4695541B2 (en) * 2006-04-28 2011-06-08 三星電子株式会社 Imaging device
JP4869801B2 (en) * 2006-06-16 2012-02-08 富士フイルム株式会社 Imaging device
JP5222000B2 (en) * 2007-03-30 2013-06-26 パナソニック株式会社 Image sensor
JP2009031004A (en) * 2007-07-24 2009-02-12 Toyota Central R&D Labs Inc Potation determiner and program
JP2009212698A (en) * 2008-03-03 2009-09-17 Toyota Motor Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2011100214A (en) 2011-05-19

Similar Documents

Publication Publication Date Title
US8411920B2 (en) Detecting device, detecting method, program, and electronic apparatus
WO2011062102A1 (en) Information processing device, information processing method, program, and electronic apparatus
EP2698985B1 (en) Imaging system and imaging method
US10313589B2 (en) Imaging device having an image mode set according to a filter
US8902328B2 (en) Method of selecting a subset from an image set for generating high dynamic range image
EP3162048B1 (en) Exposure metering based on background pixels
US9219838B2 (en) Overhead image reading apparatus
JP2012002541A (en) Image processing device, image processing method, program, and electronic equipment
JP5505693B2 (en) DETECTING DEVICE, DETECTING METHOD, PROGRAM, AND ELECTRONIC DEVICE
US8755600B2 (en) Method and apparatus for determining the light direction
JP6373577B2 (en) Imaging control device
JPWO2015083684A1 (en) IMAGING DEVICE AND IMAGING DEVICE OPERATING METHOD
JP5573209B2 (en) Image processing apparatus, image processing method, program, and electronic apparatus
US20150312487A1 (en) Image processor and method for controlling the same
US9160868B2 (en) Document reading apparatus, document reading method and storage medium
JP6467830B2 (en) Imaging apparatus, imaging method, and program
JP7235608B2 (en) Light source control device, medical observation system, light source control method and program
KR101491123B1 (en) An intellectual flash apparatus of digital imaging device and flash methods thereof
JP6515469B2 (en) Imaging device, imaging method and program
US9294686B2 (en) Image capture apparatus and image capture method
JP2012000147A (en) Image processing apparatus, image processing method, program and electronic apparatus
JP2024054762A (en) Image processing unit, control method and program
JP2009188847A (en) Electronic camera
JP2007166266A (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140305

LAPS Cancellation because of no payment of annual fees