JP7326772B2 - lighting equipment - Google Patents
lighting equipment Download PDFInfo
- Publication number
- JP7326772B2 JP7326772B2 JP2019039030A JP2019039030A JP7326772B2 JP 7326772 B2 JP7326772 B2 JP 7326772B2 JP 2019039030 A JP2019039030 A JP 2019039030A JP 2019039030 A JP2019039030 A JP 2019039030A JP 7326772 B2 JP7326772 B2 JP 7326772B2
- Authority
- JP
- Japan
- Prior art keywords
- light source
- image
- image processing
- unit
- spectral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Circuit Arrangement For Electric Light Sources In General (AREA)
Description
本発明の実施形態は、照明装置および照明システムに関する。 Embodiments of the present invention relate to lighting devices and lighting systems.
従来、照明される対象物を撮像した画像データの色成分に応じて光源の出力を制御することで、例えば対象物の色を鮮やかに見せる技術が知られている。 2. Description of the Related Art Conventionally, there is known a technique for making the color of an object look vivid, for example, by controlling the output of a light source according to the color components of image data of an illuminated object.
しかしながら、対象物は通常、照明光の分光分布特性と物体表面の分光反射特性が混合した状態として観察されるが、従来技術は、このように観察される対象物を撮像した画像データに基づいて色成分を判断してしまう。 However, the object is usually observed as a mixture of the spectral distribution characteristics of the illumination light and the spectral reflection characteristics of the surface of the object. Judging the color components.
このため、従来技術を用いた場合、対象物の分光反射特性そのものに応じた適切な照明光を提供すること、例えば、照明される物体が料理であれば、料理に応じた適切な照明光を提供することは困難である。 For this reason, when the conventional technology is used, it is necessary to provide appropriate illumination light according to the spectral reflectance characteristics of the object itself. difficult to provide.
本発明が解決しようとする課題は、対象物に応じた適切な照明光を提供することである。 A problem to be solved by the present invention is to provide suitable illumination light according to an object.
実施形態の一例に係る照明装置は、光源部と、画像処理部と、出力制御部とを具備する。前記光源部は、複数の光源を有する。前記画像処理部は、前記光源部によって照明される対象物が撮像された画像データにつき、該対象物の分光反射特性と前記光源の分光分布特性とが分離されるように画像処理を実行し、前記対象物を認識する。前記出力制御部は、前記対象物の認識結果に応じて、前記光源の出力を制御する。また、前記画像処理部は、正例となる画像データを用いた機械学習により生成された学習モデルを利用して前記対象物を認識し、前記対象物の認識結果として前記分光反射特性を推定した後、該分光反射特性に基づいて前記対象物を所望の見え方とする前記分光分布特性を選定する。また、前記出力制御部は、前記画像処理部によって選定された前記分光分布特性に基づいて前記光源の出力を制御する。 A lighting device according to an example of an embodiment includes a light source unit, an image processing unit, and an output control unit. The light source section has a plurality of light sources. The image processing unit performs image processing on image data obtained by imaging an object illuminated by the light source unit so as to separate the spectral reflection characteristics of the object from the spectral distribution characteristics of the light source, Recognize the object. The output control unit controls the output of the light source according to the recognition result of the object. Further, the image processing unit recognizes the object using a learning model generated by machine learning using image data serving as a positive example, and estimates the spectral reflection characteristic as a recognition result of the object. After that, the spectral distribution characteristic is selected based on the spectral reflection characteristic so that the object can be viewed in a desired manner. Further, the output control section controls the output of the light source based on the spectral distribution characteristic selected by the image processing section.
本発明によれば、対象物に応じた適切な照明光を提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide suitable illumination light according to a target object.
以下で説明する第1~第5の実施形態に係る照明装置は、光源部と、出力制御部とを具備する。光源部は、複数の光源を有する。出力制御部は、光源部によって照明される対象物、または、照明される前の該対象物が画像センサによって撮像された画像データに基づいて認識された対象物の認識結果に応じて光源の出力を制御する。なお、照明装置が画像センサを具備していても、していなくてもよい。具備していない場合は、たとえば、カメラ付きの携帯用通信機器が画像センサとして用いられてもよいし、たとえば、天井に照明装置とは別体に配設した画像センサが用いられてもよい。 The lighting devices according to the first to fifth embodiments described below include a light source section and an output control section. The light source section has a plurality of light sources. The output control unit outputs the light source according to the recognition result of the object illuminated by the light source unit or the object recognized based on the image data of the object before being illuminated, which is imaged by the image sensor. to control. Note that the illumination device may or may not include an image sensor. If not, for example, a portable communication device with a camera may be used as the image sensor, or an image sensor installed separately from the lighting device on the ceiling may be used.
また、以下で説明する第1~第5の実施形態に係る照明装置は、画像処理部をさらに具備する。画像処理部は、上記画像データに基づいて、上記対象物を認識する所定の画像処理を実行する。なお、照明装置が画像処理部を具備していても、していなくてもよい。具備していない場合は、たとえば、クラウドサーバのような外部装置が画像処理部を具備し、かかる画像処理部が、インターネット等のネットワークを介して照明装置と情報をやり取りしてもよい。 Further, the illumination devices according to the first to fifth embodiments described below further include an image processing section. The image processing section executes predetermined image processing for recognizing the object based on the image data. Note that the illumination device may or may not include an image processing unit. If not, for example, an external device such as a cloud server may have an image processing unit, and the image processing unit may exchange information with the lighting device via a network such as the Internet.
また、以下で説明する第1~第5の実施形態に係る画像処理部は、正例となる画像データを用いた機械学習により生成された学習モデルを利用して対象物を認識する。 Further, the image processing units according to the first to fifth embodiments described below recognize the target object using a learning model generated by machine learning using image data serving as a positive example.
また、以下で説明する第4の実施形態に係る画像処理部は、クラウドコンピューティングにより学習モデルを利用する。 Also, an image processing unit according to a fourth embodiment described below uses a learning model through cloud computing.
また、以下で説明する第1~第5の実施形態に係る画像処理部は、対象物が撮像された画像データにつき、かかる対象物の色に関する特性および光源の色に関する特性とが分離されるように上記画像処理を実行し、対象物を認識する。 Further, the image processing unit according to the first to fifth embodiments described below separates the characteristics related to the color of the object and the characteristics related to the color of the light source from the image data obtained by imaging the object. , the above image processing is performed to recognize the object.
また、以下で説明する第1および第3の実施形態に係る画像処理部は、対象物の認識結果として上記分光反射特性を推定した後、かかる分光反射特性に基づいて対象物を所望の見え方とする上記分光分布特性を選定し、出力制御部は、画像処理部によって選定された上記分光分布特性に基づいて光源の出力を制御する。 Further, the image processing unit according to the first and third embodiments described below estimates the spectral reflection characteristics as a recognition result of the object, and then, based on the spectral reflection characteristics, the object is displayed in a desired appearance. and the output control section controls the output of the light source based on the spectral distribution characteristic selected by the image processing section.
また、以下で説明する第1~第5の実施形態に係る光源部は、光源として、少なくとも赤、緑および青の単色光源を有し、画像処理部は、上記単色光源をそれぞれ単独で点灯させた場合に対象物を撮像した画像データの組に基づいて上記分光反射特性を推定する。 Further, the light source units according to the first to fifth embodiments described below have at least monochromatic light sources of red, green, and blue as light sources, and the image processing unit individually turns on the monochromatic light sources. The spectral reflectance characteristics are estimated based on a set of image data obtained by capturing an image of the object when
また、以下で説明する第3の実施形態に係る画像処理部は、画像センサによって撮像された画像データ中の物体を上記学習モデルを利用して分類した後、特定の対象物の画像領域を抽出し、かかる画像領域に基づいて上記分光反射特性を推定する。 Further, the image processing unit according to the third embodiment described below uses the learning model to classify the objects in the image data captured by the image sensor, and then extracts the image area of the specific object. Then, the spectral reflection characteristic is estimated based on the image area.
また、以下で説明する第5の実施形態において、上記対象物は、顔であって、画像処理部は、画像センサによって撮像された画像データ中の上記顔の各部位に該当する画像領域を抽出し、かかる画像領域に基づいて上記各部位の分光反射特性を推定した後、かかる分光反射特性の組み合わせに基づいて上記分光分布特性を含む光源の照明条件を選定し、出力制御部は、画像処理部によって選定された上記照明条件に基づいて光源の出力を制御する。 Further, in the fifth embodiment described below, the object is a face, and the image processing unit extracts an image area corresponding to each part of the face from image data captured by an image sensor. Then, after estimating the spectral reflection characteristics of each part based on the image area, the lighting conditions of the light source including the spectral distribution characteristics are selected based on the combination of the spectral reflection characteristics, and the output control unit performs image processing. control the output of the light source based on the lighting conditions selected by the department;
また、以下で説明する第1~第5の実施形態において、画像処理部は、出力制御部による出力制御の結果を示す評価値が特徴量の一つとして含まれるように機械学習を実行する。 Further, in the first to fifth embodiments described below, the image processing unit performs machine learning so that an evaluation value indicating the result of output control by the output control unit is included as one of the feature amounts.
また、以下で説明する第1~第5の実施形態において、上記機械学習は、ディープラーニングである。 Further, in the first to fifth embodiments described below, the machine learning is deep learning.
また、以下で説明する第1~第5の実施形態に係る照明システムは、光源部と、画像処理部と、出力制御部とを具備する。光源部は、複数の光源を有する。画像処理部は、光源部によって照明される対象物、または、照明される前の対象物を画像センサによって撮像した画像データに基づいて、対象物を認識する所定の画像処理を実行する。出力制御部は、上記画像処理による対象物の認識結果に応じて光源の出力を制御する。 Further, the lighting system according to the first to fifth embodiments described below includes a light source section, an image processing section, and an output control section. The light source section has a plurality of light sources. The image processing unit executes predetermined image processing for recognizing an object based on image data of an object illuminated by the light source unit or an image of the object before being illuminated by the image sensor. The output control unit controls the output of the light source according to the recognition result of the object by the image processing.
以下、図面を参照して、第1~第5の実施形態に係る照明装置について説明する。各実施形態において同一の機能を有する構成要素には同一の符号を付し、重複する説明は省略される。 Hereinafter, lighting devices according to first to fifth embodiments will be described with reference to the drawings. Components having the same function in each embodiment are denoted by the same reference numerals, and overlapping descriptions are omitted.
また、以下の各実施形態で説明する照明装置は、一例を示すに過ぎず、本発明を限定するものではない。 Also, the illumination devices described in the following embodiments are merely examples, and do not limit the present invention.
また、以下では、照明される対象物が、オムライス等の料理である場合を主たる例に挙げて説明を行う。また、以下では、対象物を撮像した画像データの画像処理において、機械学習の一種であるディープラーニングを利用する場合を例に挙げて説明を行う。 Moreover, below, the case where the target object to be illuminated is food such as omelet rice will be described as a main example. In the following description, an example of using deep learning, which is a type of machine learning, in image processing of image data obtained by imaging an object will be described.
(第1の実施形態)
まず、図1Aおよび図1Bを用いて、第1の実施形態に係る照明装置10が含まれる照明システム1の概要について説明する。図1は、第1の実施形態に係る照明装置10が含まれる照明システム1の一例を示す図である。また、図1Bは、第1の実施形態に係る画像処理の概要を示す図である。
(First embodiment)
First, an overview of a
図1Aに示すように、照明システム1は、照明装置10と、後述する学習装置20(図2参照)とを含む。照明装置10は、画像センサ11と、光源部12とを含む。
As shown in FIG. 1A,
画像センサ11は、例えばCCD(Charge Coupled Device)素子やCMOS(Complementary Metal Oxide Semiconductor)素子等の固体撮像素子を備えたカメラであって、照明装置10によって照明される対象物を撮像する。
The
光源部12は、異なる分光分布特性を有する複数の光源を有し、後述する出力制御部143(図2参照)によって制御され、点灯状態を変化させる。光源の種類は例えばLED(Light Emitting Diode)等の固体光源を用いることができる。
The
なお、複数の光源は、例えば赤、緑、青の単色光源を有し、出力制御部143は、これらをそれぞれ独立に制御し、任意に調光および調色を制御することが可能である。また、光源は、赤、緑、青の三原色以外にさらに黄を含む四色構成であってもよい。その他にもいわゆるカテゴリカルな色、例えば橙、紫、シアン、アンバー、マゼンダ、桃等を含んでもよい。
The plurality of light sources have, for example, red, green, and blue monochromatic light sources, and the
そして、このように構成された第1の実施形態に係る照明システム1にあっては、図1Aに示すように、まず画像センサ11が、光源部12によって照明される対象物(図1Aの例では、オムライス)を撮像する(ステップS1)。
In the
そして、照明装置10は、画像センサ11によって撮像された画像データを取得する(ステップS2)。そのうえで、照明装置10は、取得した画像データに基づき、機械学習を利用した画像処理を実行する(ステップS3)。
Then, the
ここで、照明装置10は、図1Bに示すように、光源の分光分布特性および対象物の分光反射特性の積として観察される画像データにつき、かかる分光分布特性および分光反射特性が分離されるように画像処理を実行し、例えば対象物そのものの分光反射特性が把握されるように対象物を認識する。なお、光源の分光分布特性は、光源の色に関する特性の一例である。したがって、分光分布特性に限らず、光源の蛍光成分や光色(色度、相関色温度、duv、演色評価数)等であってもよい。また、対象物の分光反射特性は、対象物の色に関する特性の一例である。したがって、分光反射特性に限らず、蛍光成分や光色(色度、相関色温度、duv、演色評価数)等であってもよい。なお、光源の色に関する特性、対象物の色に関する特性ともに測光量(照度、輝度など)の情報を含んでもよい。以下では、光源の分光分布特性および対象物の分光反射特性を主たる例として、説明を進める。
Here, as shown in FIG. 1B, the
なお、かかる画像処理においては、本実施形態に係る照明装置10は、ディープラーニング等の機械学習のアルゴリズムによって生成された学習モデル131(図2参照)を用いて対象物の分光反射特性を推定する。学習モデル131は、例えば学習装置20によって予め生成される。このような画像処理の詳細については、図2~図5Dを用いた説明で後述する。
In this image processing, the
図1Aの説明に戻る。そして、照明装置10は、画像処理による対象物の認識結果に基づいて光源を出力制御する(ステップS4)。例えば照明装置10は、ステップS3において推定された対象物の分光反射特性に基づいて対象物に適した光源の分光分布特性を選定し、これに応じて光源部12の各光源を出力制御する。
Returning to the description of FIG. 1A. Then, the
例えば照明装置10は、対象物がオムライスであれば、かかるオムライスがより色鮮やかに見えたり、より艶やかに見えたりするように光源の分光分布特性を選定し、各光源を出力制御する。
For example, if the object is omelet rice, the
したがって、本実施形態に係る照明システム1によれば、対象物に応じた適切な照明光を提供することが可能となる。また、これにより、例えば対象物が料理であればこれをより美味しそうに見せることができる等、照明装置10の照明環境に所在するユーザへ、対象物に応じた適切な照明環境を提供することが可能となる。
Therefore, according to the
以下、第1の実施形態に係る照明システム1の構成の一例について、より具体的に説明する。図2は、第1の実施形態に係る照明システム1の構成の一例を示すブロック図である。なお、図2では、実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。
An example of the configuration of the
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific form of distribution/integration of each block is not limited to the one shown in the figure. It is possible to integrate and configure.
また、図2を用いた説明では、既に説明済みの構成要素については、説明を簡略化するか、省略する場合がある。 In addition, in the description using FIG. 2, the description of components that have already been described may be simplified or omitted.
図2に示すように、第1の実施形態に係る照明システム1は、照明装置10と、学習装置20とを含む。照明装置10は、画像センサ11と、光源部12と、記憶部13と、制御部14とを備える。
As shown in FIG. 2, the
画像センサ11および光源部12については説明済みのため、ここでの説明を省略する。記憶部13は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、学習モデル131を記憶する。
Since the
学習モデル131は、上述したようにディープラーニング等の機械学習のアルゴリズムを用いて生成され、一例として、画像データに基づいて画像内の対象物の分光反射特性を推定する推定モデルを含む。
The
学習モデル131は、例えば照明装置10とは別体に設けられた学習装置20によって生成され、照明装置10の出荷前等において予め記憶部13に設定される。なお、学習装置20を設けることなく、学習装置20に相当する機能を有する処理部を、例えば照明装置10の制御部14が備えていてもよい。
The
制御部14は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、照明装置10内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部14は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
The
制御部14は、取得部141と、画像処理部142と、出力制御部143とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
The
取得部141は、画像センサ11によって撮像された画像データを取得する。なお、本実施形態では、光源部12は、例えば赤、緑、青の三原色の各単色光源を個別に点灯し、画像センサ11は、かかる各単色光源で照らされた場合それぞれにおいて、対象物を撮像することとする。
The
そして、取得部141は、各単色光源で照らされた場合ごとの対象物の画像データを取得する。なお、以下では、赤色光、緑色光、青色光で照らされた対象物の画像データを、それぞれ「赤色画像」、「緑色画像」、「青色画像」と言う場合がある。
Then, the acquiring
画像処理部142は、取得部141によって取得された画像データに基づいて対象物を認識する所定の画像処理を実行する。ここで、図3~図5Dを用いて、第1の実施形態に係る画像処理部142の構成の一例について、より具体的に説明する。
The
図3は、第1の実施形態に係る画像処理部142が実行する画像処理の概要説明図である。また、図4は、第1の実施形態に係る画像処理部142の構成の一例を示すブロック図である。また、図5A~図5Dは、第1の実施形態に係る画像処理部142が実行する画像処理の処理説明図(その1)~(その4)である。
FIG. 3 is a schematic explanatory diagram of image processing executed by the
図3に示すように、画像処理部142は、取得部141によって取得された画像データを学習モデル131へ入力し、その結果出力される学習モデル131の出力値に基づいて、光源部12に反映すべき光源の分光分布特性を推定する。
As shown in FIG. 3, the
なお、図3に複数のニューラルネットワークとして図示するように、学習モデル131は、複数のモデルNN-1,NN-2,NN-3…を含むことができる。
Note that the
具体的に、図4に示すように、画像処理部142は、分光反射特性推定部142aと、選定部142bとを有する。
Specifically, as shown in FIG. 4, the
上述のモデルNN-1は、例えば対象物の分光反射特性の推定モデルであり、分光反射特性推定部142aは、取得部141によって取得された画像データに基づき、かかる推定モデルを用いて対象物の分光反射特性を推定する。 The model NN-1 described above is, for example, a model for estimating the spectral reflectance characteristics of an object. Estimate spectral reflectance characteristics.
選定部142bは、分光反射特性推定部142aによって推定された分光反射特性に基づき、対象物に適した光源の分光分布特性を選定する。
The
ここで、上述のようにモデルNN-1を分光反射特性の推定モデルとした場合についてより具体的に説明する。図5Aに示すように、まずかかるモデルNN-1が生成される学習時においては、学習用データセットとして、種々の対象物それぞれの赤色画像I_R,緑色画像I_G,青色画像I_Bの組、および、かかる各組が入力された場合に出力値として期待される分光反射特性の各データが準備される。すなわち、学習用データセットは、いわゆる教師あり学習において正例となる既知のデータのセットである。 Here, the case where the model NN-1 is used as the model for estimating the spectral reflectance characteristics as described above will be described more specifically. As shown in FIG. 5A, at the time of learning when such a model NN-1 is first generated, a set of red images I_R, green images I_G, and blue images I_B of various objects, and Each data of the spectral reflectance characteristic expected as an output value when such each set is input is prepared. That is, the learning data set is a set of known data that are positive examples in so-called supervised learning.
そして、例えば上述した学習装置20が、かかる学習用データセットを用いた機械学習を実行することにより、モデルNN-1を生成する。これにより、モデルNN-1は例えば、未知の画像データに対し、対応する分光反射特性を推定するニューラルネットワークとなる。
Then, for example, the
具体的には、図5Bに示すように、モデルNN-1は推定時において、取得部141によって取得された未知の画像データ、すなわち赤色画像I_R,緑色画像I_G,青色画像I_Bの組が入力された場合に、これに対応する分光反射特性を推定し、出力する。
Specifically, as shown in FIG. 5B, model NN-1 receives unknown image data acquired by
そして、分光反射特性推定部142aは、かかる推定された分光反射特性を選定部142bへ出力し、選定部142bはこれに基づいて光源の分光分布特性を選定することとなる。
Then, the spectral reflection
対象物の見え方は、例えば対象物の分光反射特性および光源の分光分布特性の積として導出することが可能であるため、例えば選定部142bは、これを利用して対象物がより色鮮やかに見えたり、より艶やかに見えたり等、所望の見え方となるように、光源の分光分布特性を算出するようにしてもよい。 The appearance of the object can be derived, for example, as the product of the spectral reflection characteristics of the object and the spectral distribution characteristics of the light source. The spectral distribution characteristic of the light source may be calculated so as to obtain a desired appearance such as a more glossy appearance.
また、選定部142bは、得られた対象物の分光反射特性に基づき、例えば学習モデル131を用いて光源の分光分布特性を推定し、選定するようにしてもよい。ここで、例えば対象物の分光反射特性に基づいて、光源の分光分布特性を推定する推定モデルをモデルNN-2として説明する。
Further, the
図5Cに示すように、まずかかるモデルNN-2が生成される学習時においては、学習用データセットとして、種々の対象物それぞれの分光反射特性、および、かかる各分光反射特性が入力された場合に出力値として期待される分光分布特性の各データが準備される。 As shown in FIG. 5C, when the model NN-2 is first generated and learned, the spectral reflectance characteristics of various objects and the respective spectral reflectance characteristics are input as the learning data set. Each data of the spectral distribution characteristic expected as an output value is prepared.
そして、例えば上述した学習装置20が、かかる学習用データセットを用いた機械学習を実行することにより、モデルNN-2を生成する。これにより、モデルNN-2は例えば、未知の分光反射特性に対し、対応する分光分布特性を推定するニューラルネットワークとなる。
Then, for example, the
具体的には、図5Dに示すように、モデルNN-2は推定時において、分光反射特性推定部142aによって推定された分光反射特性が入力された場合に、これに対応する分光分布特性を推定し、出力する。
Specifically, as shown in FIG. 5D, the model NN-2 estimates the spectral distribution characteristics corresponding to the spectral reflection characteristics estimated by the spectral reflection
そして、選定部142bは、かかる推定された分光分布特性に基づいて光源の分光分布特性を選定することとなる。
Then, the selecting
図2の説明に戻る。出力制御部143は、画像処理部142における画像処理による対象物の認識結果に応じて光源の出力を制御する。すなわち、出力制御部143は、画像処理部142において選定された光源の分光分布特性に基づいて、光源部12の各光源の出力状態を制御する。
Returning to the description of FIG. The
具体的には、出力制御部143は、画像処理部142において選定された光源の分光分布特性に基づき、光源部12へPWM(Pulse Width Modulation)波形または直流波形の電流を入力して、光源部12の各光源の点灯状態を制御する。なお、ここに言う制御では、単純に調光または調色するだけでなく、徐々に明るくしたり暗くしたりといった、時間軸に沿って変更する制御が可能である。
Specifically, the
次に、第1の実施形態に係る照明装置10が実行する処理の処理手順について、図6を用いて説明する。図6は、第1の実施形態に係る照明装置10が実行する処理の処理手順を示すフローチャートである。
Next, a processing procedure of processing executed by the
図6に示すように、まず取得部141が、画像センサ11から画像データを取得する(ステップS101)。そして、分光反射特性推定部142aが、かかる画像データに基づき、学習モデル131を用いて画像内の対象物の分光反射特性を推定する(ステップS102)。
As shown in FIG. 6, first, the
そして、選定部142bが、推定された分光反射特性に基づいて光源の分光分布特性を選定する(ステップS103)。そして、出力制御部143が、選定された分光分布特性に基づいて光源の出力を制御し(ステップS104)、処理を終了する。
Then, the selecting
上述してきたように、第1の実施形態に係る照明装置10は、光源部12と、画像センサ11と、画像処理部142と、出力制御部143とを具備する。光源部12は、複数の光源を有する。画像センサ11は、光源部12によって照明される対象物を撮像する。画像処理部142は、画像センサ11によって撮像された画像データに基づいて前記対象物を認識する所定の画像処理を実行する。出力制御部143は、上記画像処理による対象物の認識結果に応じて光源の出力を制御する。これにより、対象物に応じた適切な照明光を提供することが可能となる。
As described above, the
(第2の実施形態)
ところで、上述した第1の実施形態では、画像センサ11によって撮像された画像データに基づき、学習モデル131を用いて、画像内の対象物の分光反射特性を推定する場合を例に挙げたが、同じく画像データに基づき、学習モデル131を用いて、画像内の光源の分光分布特性を推定するようにしてもよい。
(Second embodiment)
By the way, in the above-described first embodiment, the case where the
かかる場合の例を、図7~図8Bを用いて説明する。図7は、第2の実施形態に係る画像処理部142Aの構成の一例を示すブロック図である。また、図8Aおよび図8Bは、第2の実施形態に係る画像処理部142Aが実行する画像処理の処理説明図(その1)および(その2)である。
An example of such a case will be described with reference to FIGS. 7 to 8B. FIG. 7 is a block diagram showing an example of the configuration of the
なお、図7は既に示した図4に対応しているため、ここでは異なる部分について主に説明することとする。 Since FIG. 7 corresponds to FIG. 4 which has already been shown, different parts will be mainly described here.
図7に示すように、第2の実施形態に係る画像処理部142Aは、分光分布特性推定部142cをさらに有する点が、図4の場合とは異なる。
As shown in FIG. 7, the
画像処理部142Aは、取得部141によって取得された画像データに基づき、例えば光源の分光分布特性の推定モデルであるモデルNN-3を用いて、画像内の光源の分光分布特性を推定する。
Based on the image data acquired by the
具体的には、図8Aに示すように、まずかかるモデルNN-3が生成される学習時においては、学習用データセットとして、種々の対象物それぞれが撮像された画像データ、および、かかる画像データが入力された場合に出力値として期待される分光分布特性の各データが準備される。 Specifically, as shown in FIG. 8A, at the time of learning when the model NN-3 is first generated, image data obtained by imaging various objects and such image data are used as learning data sets. Each data of the spectral distribution characteristic expected as an output value when is input is prepared.
そして、例えば上述した学習装置20が、かかる学習用データセットを用いた機械学習を実行することにより、モデルNN-3を生成する。これにより、モデルNN-3は例えば、未知の画像データに対し、対応する分光分布特性を推定するニューラルネットワークとなる。
Then, for example, the
具体的には、図8Bに示すように、モデルNN-3は推定時において、取得部141によって取得された未知の画像データが入力された場合に、これに対応する分光分布特性を推定し、出力する。
Specifically, as shown in FIG. 8B, when the model NN-3 receives unknown image data acquired by the
そして、分光分布特性推定部142cは、かかる推定された分光分布特性を選定部142bへ出力し、選定部142bはかかる分光分布特性、および、分光反射特性推定部142aによって推定された対象物の分光反射特性に基づいて、対象物を所望の見え方とする光源の分光分布特性を選定することとなる。
Then, the spectral distribution
このように、取得部141によって取得された画像データに基づいて光源の分光分布特性を推定することによっても、対象物に応じた適切な照明光を提供することが可能となる。
In this way, by estimating the spectral distribution characteristics of the light source based on the image data acquired by the
次に、第2の実施形態に係る照明装置10Aが実行する処理の処理手順について、図9を用いて説明する。図9は、第2の実施形態に係る照明装置10Aが実行する処理の処理手順を示すフローチャートである。 Next, a processing procedure of processing executed by the lighting device 10A according to the second embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing a processing procedure of processing executed by the lighting device 10A according to the second embodiment.
図9に示すように、まず取得部141が、画像センサ11から画像データを取得する(ステップS201)。そして、分光反射特性推定部142aが、かかる画像データに基づき、学習モデル131を用いて画像内の対象物の分光反射特性を推定する(ステップS202)。
As shown in FIG. 9, first, the
一方で、分光分布特性推定部142cが、同じ画像データに基づき、学習モデル131を用いて画像内の光源の分光分布特性を推定する(ステップS203)。
On the other hand, the spectral distribution
そして、選定部142bが、推定された各特性に基づいて所望の見え方となる光源の分光分布特性を選定する(ステップS204)。そして、出力制御部143が、選定された分光分布特性に基づいて光源の出力を制御し(ステップS205)、処理を終了する。
Then, the selecting
上述してきたように、第2の実施形態に係る画像処理部142Aは、分光分布特性推定部142cをさらに具備する。分光分布特性推定部142cは、取得部141によって取得された画像データに基づいて画像内の光源の分光分布特性を推定する。これにより、推定された画像内の光源の分光分布特性に基づいて、対象物が所望の見え方となる光源の分光分布特性を選定することが可能となるので、対象物に応じた適切な照明光を提供することが可能となる。
As described above, the
(第3の実施形態)
ところで、上述した第1および第2の実施形態では、学習モデル131が、画像内の対象物の分光反射特性または光源の分光分布特性を推定する推定モデルであるモデルNN-1,NN-2を含み、これらを用いる場合を例に挙げた。ここで、学習モデル131がさらに、画像内の対象物を分類する分類モデルを含み、これを用いた分類結果に基づいて対象物の分光反射特性または光源の分光分布特性を推定するようにしてもよい。
(Third Embodiment)
By the way, in the first and second embodiments described above, the
かかる場合の例を、図10~図11Bを用いて説明する。図10は、第3の実施形態に係る画像処理部142Bの構成の一例を示すブロック図である。また、図11Aおよび図11Bは、第3の実施形態に係る画像処理部142Bが実行する画像処理の処理説明図(その1)および(その2)である。
An example of such a case will be described with reference to FIGS. 10 to 11B. FIG. 10 is a block diagram showing an example of the configuration of the
なお、図10は既に示した図4および図7に対応しているため、ここでは異なる部分について主に説明することとする。 Since FIG. 10 corresponds to FIGS. 4 and 7 which have already been shown, different parts will be mainly described here.
図10に示すように、第3の実施形態に係る画像処理部142Bは、分類部142dと、抽出部142eとをさらに有する点が、図4および図7の場合とは異なる。
As shown in FIG. 10, the
画像処理部142Bは、取得部141によって取得された画像データに基づき、例えば画像内の対象物を分類する分類モデルであるモデルNN-4を用いて、画像内の対象物を分類する。そして、画像処理部142Bは、かかる分類結果に基づいて特定の対象物を抽出し、抽出された対象物の分光反射特性または光源の分光分布特性を推定する。
The
なお、分類モデルであるモデルNN-4は、例えば上述した学習装置20が、ディープラーニングにおけるセマンティックセグメンテーション等の物体分類のアルゴリズムを用いて生成することができる。これにより、モデルNN-4は、未知の画像データに対し、画像内の対象物を例えばピクセル単位で分類可能なニューラルネットワークとなる。
Note that the model NN-4, which is a classification model, can be generated by the
そして、図11Aに示すように、分類部142dは、分類時において、取得部141によって取得された未知の画像データをモデルNN-4へ入力する。すると、モデルNN-4は、画像データ内に映り込んだ種々の対象物を分類し、その分類結果を出力する。
Then, as shown in FIG. 11A, the
例えば、図11Aの例では、画像データ内の種々の対象物が、「テーブル」、「オムライス」、「皿」、「ソース」、「ブロッコリー」、「壁」にそれぞれ分類された場合を示している。 For example, in the example of FIG. 11A, various objects in the image data are classified into "table", "omelet rice", "plate", "sauce", "broccoli", and "wall". there is
そして、抽出部142eは、分類部142dによる分類結果に基づき、特定の対象物を抽出する。ここで、抽出部142eは、例えば照明装置10Bがテーブル上のメインの料理を主に照明の対象物とするものであれば、「オムライス」の画像領域を抽出する。また、抽出部142eは、例えば単純に画像内において最も多くのピクセル数を占める対象物を、主たる特定の対象物として抽出してもよい。
Then, the
そして、抽出部142eによって抽出された特定の対象物の画像領域に基づき、分光反射特性推定部142aは、例えば図5Bに示した方法で特定の対象物の分光反射特性を推定する。また、分光分布特性推定部142cは、推定された特定の対象物の分光反射特性に基づき、例えば図5Dに示した方法で光源の分光分布特性を推定する。あるいは、分光分布特性推定部142cは、抽出部142eによって抽出された特定の対象物の画像領域に基づき、例えば図8Bに示した方法で光源の分光分布特性を推定する。
Then, based on the image area of the specific object extracted by the extracting
そして、選定部142bは、推定された分光分布特性に基づいて、特定の対象物を所望の見え方とする光源の分光分布特性を選定することとなる。
Then, based on the estimated spectral distribution characteristics, the selecting
なお、選定部142bは、例えば図11Bに示すように、予め特定の対象物についてそれぞれ設定された分光分布特性のプリセット情報に基づき、特定の対象物を所望の見え方とする分光分布特性を選定するようにしてもよい。かかるプリセット情報を設ける場合、例えば画像処理部142Bを、分類部142dと、抽出部142eと、選定部142bのみによって構成することも可能である。
Note that the selecting
このように、取得部141によって取得された画像データに基づいて画像内の対象物を分類し、特定の対象物を抽出することによっても、対象物に応じた適切な照明光を提供することが可能となる。
In this way, by classifying the target objects in the image based on the image data acquired by the
次に、第3の実施形態に係る照明装置10Bが実行する処理の処理手順について、図12を用いて説明する。図12は、第3の実施形態に係る照明装置10Bが実行する処理の処理手順を示すフローチャートである。 Next, a processing procedure of processing executed by the lighting device 10B according to the third embodiment will be described with reference to FIG. 12 . FIG. 12 is a flow chart showing a processing procedure of processing executed by the lighting device 10B according to the third embodiment.
図12に示すように、まず取得部141が、画像センサ11から画像データを取得する(ステップS301)。そして、分類部142dが、かかる画像データに基づき、学習モデル131を用いて画像内の対象物を分類する(ステップS302)。また、抽出部142eが、分類結果に基づいて画像内の特定の対象物を抽出する(ステップS303)。
As shown in FIG. 12, first, the
そして、分光反射特性推定部142aが、抽出された特定の対象物の画像領域に基づき、学習モデル131を用いてかかる特定の対象物の分光反射特性を推定する(ステップS304)。
Based on the extracted image area of the specific object, the spectral reflection
そして、分光分布特性推定部142cが、推定された分光反射特性に基づいて光源の分光分布特性を推定し、選定部142bが、推定された各特性に基づいて所望の見え方となる光源の分光分布特性を選定する(ステップS305)。そして、出力制御部143が、選定された分光分布特性に基づいて光源の出力を制御し(ステップS306)、処理を終了する。
Then, the spectral distribution
上述してきたように、第3の実施形態に係る画像処理部142Bは、分類部142dと、抽出部142eとをさらに具備する。分類部142dは、取得部141によって取得された画像データに基づいて画像内の対象物を分類する。抽出部142eは、分類部142dの分類結果に基づいて特定の対象物を抽出する。そして、分光反射特性推定部142aは、抽出部142eの抽出結果に基づいて特定の対象物の分光反射特性を推定する。また、分光分布特性推定部142cは、分光反射特性推定部142aの推定結果に基づいて光源の分光分布特性を推定する。これにより、対象物が所望の見え方となる光源の分光分布特性を選定することが可能となるので、対象物に応じた適切な照明光を提供することが可能となる。
As described above, the
(第3の実施形態の変形例)
ところで、第3の実施形態では、取得部141によって取得された画像データに基づき、学習モデル131を用いて、分類部142dが画像内の対象物を分類する場合を例に挙げたが、同じ画像データに基づき、学習モデル131を用いて、分光分布特性推定部142cが、画像内の光源の分光反射特性を推定するようにしてもよい。
(Modification of the third embodiment)
By the way, in the third embodiment, the case where the classifying
かかる変形例を、図13を用いて説明する。図13は、第3の実施形態の変形例に係る画像処理部142B’の構成の一例を示すブロック図である。なお、図13は既に示した図10に対応しているため、ここでは異なる部分について主に説明することとする。
Such a modification will be described with reference to FIG. 13 . FIG. 13 is a block diagram showing an example configuration of an
図13に示すように、第3の実施形態の変形例に係る画像処理部142B’は、取得部141によって取得された画像データに基づき、学習モデル131を用いて、分類部142dが画像内の対象物を分類する一方で、分光分布特性推定部142cが、同じ画像データに基づき、光源の分光分布特性を推定する点が図10の場合とは異なる。
As shown in FIG. 13, the
なお、分光分布特性推定部142cは、ここでは例えば図8Bに示した手法を用いて光源の分光分布特性を推定する。そして、選定部142bは、分類部142dから抽出部142e、分光反射特性推定部142aを経て推定された特定の対象物の分光反射特性と、分光分布特性推定部142cによって推定された画像内の光源の分光分布特性とに基づいて、所望の見え方となる光源の分光分布特性を選定することとなる。
Note that the spectral distribution
このように、取得部141によって取得された画像データに基づいて画像内の対象物を分類し、特定の対象物を抽出するとともに、同じ画像データに基づいて光源の分光分布特性を推定することによっても、対象物に応じた適切な照明光を提供することが可能となる。
In this way, by classifying the objects in the image based on the image data acquired by the
次に、第3の実施形態の変形例に係る照明装置10B’が実行する処理の処理手順について、図14を用いて説明する。図14は、第3の実施形態の変形例に係る照明装置10B’が実行する処理の処理手順を示すフローチャートである。 Next, a processing procedure of processing executed by the illumination device 10B' according to the modified example of the third embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing a processing procedure of processing executed by the lighting device 10B' according to the modification of the third embodiment.
図14に示すように、まず取得部141が、画像センサ11から画像データを取得する(ステップS401)。そして、分類部142dが、かかる画像データに基づき、学習モデル131を用いて画像内の対象物を分類する(ステップS402)。また、抽出部142eが、分類結果に基づいて画像内の特定の対象物を抽出する(ステップS403)。
As shown in FIG. 14, first, the
そして、分光反射特性推定部142aが、抽出された特定の対象物の画像領域に基づき、学習モデル131を用いてかかる特定の対象物の分光反射特性を推定する(ステップS404)。
Based on the extracted image area of the specific object, the spectral reflection
一方で、分光分布特性推定部142cは、取得部141によって取得された画像データに基づき、学習モデル131を用いて画像内の光源の分光分布特性を推定する(ステップS405)。
On the other hand, the spectral distribution
そして、選定部142bが、推定された各特性に基づいて所望の見え方となる光源の分光分布特性を選定する(ステップS406)。そして、出力制御部143が、選定された分光分布特性に基づいて光源の出力を制御し(ステップS407)、処理を終了する。
Then, the selecting
なお、第3の実施形態では、物体分類のアルゴリズムとしてセマンティックセグメンテーションを用いることとしたが、これに限られるものではなく、例えばCNN(Convolutional Neural Network)や、faster R-CNN(Region-based Convolutional Neural Networks)等を用いてもよい。 In the third embodiment, semantic segmentation is used as an object classification algorithm, but the present invention is not limited to this. Networks) etc. may be used.
(第4の実施形態)
ところで、これまでは、照明装置10,10A,10B,10B’が学習モデル131を有する場合を例に挙げたが、学習モデル131は、インターネット等を介してアクセス可能なクラウドサービスを提供するクラウドサーバ上に設けられてもよい。
(Fourth embodiment)
By the way, the case where the
かかる場合の例について図15を用いて説明する。図15は、第4の実施形態に係る照明システム1Aの構成の一例を示すブロック図である。なお、図15は既に示した図2に対応しているため、ここでは異なる部分について主に説明することとする。
An example of such a case will be described with reference to FIG. FIG. 15 is a block diagram showing an example of the configuration of a
図15に示すように、第4の実施形態に係る照明システム1Aは、照明装置10Cが通信部15を有し、インターネットや携帯電話回線網等であるネットワークNを介してクラウドサーバ100とアクセス可能に設けられている点が、図2の場合とは異なる。また、照明装置10Cではなく、クラウドサーバ100が学習モデル131を有している点も、図2の場合とは異なる。
As shown in FIG. 15, in a
通信部15は、例えば、NIC(Network Interface Card)等によって実現される。通信部15は、ネットワークNと有線または無線で接続され、ネットワークNを介して、クラウドサーバ100との間で情報の送受信を行う。
The
具体的には、照明装置10Cは、学習モデル131を用いる場合、クラウドサーバ100へ例えば取得部141によって取得された画像データを送信する。クラウドサーバ100は、照明装置10Cから受信した画像データを学習モデル131へ入力し、その結果得られる出力値を照明装置10Cへ返す。照明装置10Cは、かかる結果に基づき、例えば対象物の分光反射特性を推定したり、光源の分光分布特性を推定したり、画像内の特定の対象物を抽出したりすることとなる。
Specifically, when the
また、クラウドサーバ100は、上述した学習装置20に相当する学習機能を有しており、クラウドサーバ100にアクセス可能な各種装置(例えば照明装置10C)から画像データを適宜収集し、これに基づく追加学習等によって学習モデル131を随時更新することが可能である。
In addition, the
このように、学習モデル131をクラウドサーバ100に設けることによっても、対象物に応じた適切な照明光を提供することが可能となる。また、クラウドサーバ100が、照明装置10Cを含む各種装置から収集した画像データのビッグデータに基づいて学習モデル131を随時更新することによって、学習モデル131の高精度化を図ることができる。
Thus, by providing the
(第5の実施形態)
ところで、これまでは、対象物が料理である場合を例に挙げて説明してきたが、これに限られるものではなく、例えば人物の顔が対象物であってもよい。人物の顔の印象は、肌の色や、髪の色、瞳の色等に左右され、また、これらの色の組み合わせによる色の錯視等の影響もあって、人を好印象に見せる照明条件には個人差があると考えられる。また、近年では、各個人に似合う色、いわゆるパーソナルカラーが注目されており、かかるパーソナルカラーが映えうる照明条件で照明光を提供するニーズがより高まっていくとも考えられる。
(Fifth embodiment)
By the way, so far, the case where the object is food has been explained as an example, but the object is not limited to this, and for example, the face of a person may be the object. The impression of a person's face is influenced by skin color, hair color, eye color, etc., and there is also the effect of color illusion due to the combination of these colors. is considered to have individual differences. Also, in recent years, attention has been focused on colors that suit individuals, so-called personal colors, and it is thought that there will be an increasing need for providing illumination light under lighting conditions that allow such personal colors to shine.
そこで、上述した学習モデル131がさらに、画像内の人物の顔を認識する認識モデルを含み、これを用いた認識結果に基づいて人物の顔の各部位の分光反射特性を推定し、かかる分光反射特性の組み合わせに基づいて光源の照明条件を推定するようにしてもよい。
Therefore, the above-described
かかる場合の例を、図16~図17Cを用いて説明する。図16は、第5の実施形態に係る画像処理部142Cの構成の一例を示すブロック図である。また、図17A~図17Cは、第5の実施形態に係る画像処理部142Cが実行する画像処理の処理説明図(その1)~(その3)である。
An example of such a case will be described with reference to FIGS. 16 to 17C. FIG. 16 is a block diagram showing an example configuration of an
なお、図16は既に示した図10に対応しているため、ここでは異なる部分について主に説明することとする。 Since FIG. 16 corresponds to FIG. 10 already shown, different parts will be mainly described here.
図16に示すように、第5の実施形態に係る画像処理部142Cは、分類部142dを有さず、また、分光分布特性推定部142cに替えて、照明条件推定部142fを有する点が、図10の場合とは異なる。
As shown in FIG. 16, an
画像処理部142Cは、取得部141によって取得された画像データに基づき、例えば画像内の人物の顔を認識する認識モデルであるモデルNN-5を用いて、画像内の人物の顔を認識する。そして、画像処理部142Cは、その認識結果に基づいて分光反射特性を推定し、かかる分光反射特性の組み合わせに基づいて光源の照明条件を推定する。なお、ここに言う「照明条件」は、上述してきた分光分布特性をはじめとする光源の色に関する特性を含む。また、光源の制御開始または終了のタイミングといった、光源の出力に関する特性を含む。
The
なお、認識モデルであるモデルNN-5は、高精度化の観点から、例えば上述した第4の実施形態に係るクラウドサーバ100が提供する学習モデル131に含まれるものであることが好ましい。
Note that the model NN-5, which is a recognition model, is preferably included in the
これにより、モデルNN-5は、クラウドサーバ100にアクセス可能な各種装置から適宜収集された顔画像のビッグデータに基づき、ディープラーニング等を利用した顔認識のアルゴリズムを用いて生成することができ、未知の画像データに対し、画像内の人物の顔、ひいては顔の各部位までも高精度に認識可能なニューラルネットワークとなる。
As a result, the model NN-5 can be generated using a face recognition algorithm using deep learning or the like, based on big data of face images appropriately collected from various devices that can access the
そして、図17Aに示すように、抽出部142eは、顔認識時において、取得部141によって取得された未知の画像データをモデルNN-5へ入力する。すると、モデルNN-5は、画像内の人物の顔を認識し、人物の顔およびかかる顔の各部位に相当する画像領域を抽出して、その抽出結果を出力する。
Then, as shown in FIG. 17A, the
図17Aの例では、画像データ内の人物の「顔」、さらには、「髪」、「瞳」、「肌」、「眉」にそれぞれ相当する画像領域が抽出された場合を示している。なお、人物の顔において色の特徴が現れやすい他の部位として、唇等に相当する画像領域が抽出されてもよい。 The example of FIG. 17A shows a case where image areas corresponding to a person's “face”, “hair”, “eyes”, “skin”, and “eyebrows” are extracted from the image data. Note that an image region corresponding to lips or the like may be extracted as another part of a person's face in which color features are likely to appear.
そして、抽出部142eによって抽出された各部位の画像領域に基づき、分光反射特性推定部142aは、例えば図5Bに示した方法で各部位の分光反射特性を推定する。
Then, based on the image area of each part extracted by the
そのうえで、照明条件推定部142fは、推定された各部位の分光反射特性の組み合わせに基づき、例えば図17Bに示すように、予め各部位の分光反射特性の組み合わせについてそれぞれ設定されたプリセット情報を用いて、各組み合わせに適したパーソナルカラーを推定する。
Then, based on the estimated combination of spectral reflectance characteristics of each part, the illumination
そして、照明条件推定部142fは、推定したパーソナルカラーに基づき、例えば図17Cに示すように予めプリセット情報としてパーソナルカラーごとに対応付けられた、パーソナルカラーを映えさせる照明条件を抽出する。
Then, based on the estimated personal color, the lighting
そして、選定部142bは、照明条件推定部142fによって抽出された照明条件を選定し、かかる照明条件に基づいて出力制御部143に光源の出力を制御させることとなる。
Then, the
なお、図17Bおよび図17Cでは、パーソナルカラーを介して各部位の分光反射特性の組み合わせと照明条件とを紐付けることとしたが、パーソナルカラーを介さずに、各部位の分光反射特性の組み合わせと照明条件とをプリセット情報として紐付けてもよい。 Note that in FIGS. 17B and 17C, the combination of the spectral reflection characteristics of each part and the illumination condition are linked via the personal color. lighting conditions may be linked as preset information.
また、プリセット情報を用いるのではなく、例えば各部位の分光反射特性の組み合わせに対し、例えば図5Dに示した方法と同様の方法で、学習モデル131に最適な照明条件を推定させるようにしてもよい。
Alternatively, instead of using the preset information, for example, the
このように、取得部141によって取得された画像データに基づき、画像内の人物の顔を認識し、その認識結果に基づいて分光反射特性を推定し、かかる分光反射特性の組み合わせに基づいて光源の照明条件を推定することによって、照明環境に所在する人物の顔に応じた適切な照明光を提供することが可能となる。
In this way, based on the image data acquired by the
なお、顔の各部位の分光反射特性の組み合わせの要素の数は、例えば1つであってもよい。かかる場合、人物の顔の色の特徴が最も現れやすい部位、例えば肌の色の分光反射特性に基づいて、光源の照明条件を推定するとよい。 Note that the number of elements of the combination of spectral reflection characteristics of each part of the face may be, for example, one. In such a case, the illumination conditions of the light source may be estimated based on the spectral reflectance characteristics of a part of the person's face where the color features are most likely to appear, for example, the color of the skin.
また、上述したパーソナルカラーを考慮する場合、パーソナルカラーは一般に、肌が黄みがかっているかあるいは青みがかっているかを基に推定される。したがって、取得部141による画像データの取得に際しては、光源部12は、例えば黄、青の各単色光源を個別に点灯し、画像センサ11は、かかる各単色光源で照らされた場合それぞれにおいて、人物を撮像するようにしてもよい。
Also, when considering the personal color mentioned above, the personal color is generally estimated based on whether the skin is yellowish or bluish. Therefore, when the image data is acquired by the
次に、第5の実施形態に係る照明装置10Dが実行する処理の処理手順について、図18を用いて説明する。図18は、第5の実施形態に係る照明装置10Dが実行する処理の処理手順を示すフローチャートである。
Next, a processing procedure of processing executed by the
図18に示すように、まず取得部141が、画像センサ11から画像データを取得する(ステップS501)。そして、抽出部142eが、かかる画像データに基づき、学習モデル131を用いて画像内の人物の顔を抽出する(ステップS502)。また、抽出部142eは、抽出された人物の顔から顔の各部位を抽出する(ステップS503)。
As shown in FIG. 18, first, the
そして、分光反射特性推定部142aが、抽出された各部位の画像領域に基づき、学習モデル131を用いてかかる各部位の分光反射特性を推定する(ステップS504)。
Then, the spectral reflection
そして、照明条件推定部142fが、推定された各部位の分光反射特性の組み合わせに基づいて照明条件を推定し、選定部142bが、かかる照明条件を選定する(ステップS505)。そして、出力制御部143が、選定された照明条件に基づいて光源の出力を制御し(ステップS506)、処理を終了する。
Then, the illumination
なお、ここまでは、人物の顔を例に挙げたが、例えば動物の顔であってもよい。かかる場合、例えばペットショップや動物園等において、動物の顔の色の特徴に適した照明光を提供することが可能となる。 It should be noted that although human faces have been used as examples so far, for example, animal faces may also be used. In such a case, for example, in pet shops, zoos, etc., it is possible to provide illumination light suitable for the facial color characteristics of animals.
上述してきたように、第5の実施形態に係る画像処理部142Cにおいて、抽出部142eは、取得部141によって取得された画像データに基づいて画像内の顔の各部位に該当する画像領域を抽出する。そして、分光反射特性推定部142aは、抽出部142eの抽出結果に基づいて各部位の分光反射特性を推定する。また、照明条件推定部142fは、分光反射特性推定部142aの推定結果に基づいて光源の照明条件を推定する。これにより、人や動物等を例えば好印象に見せる照明条件を選定することが可能となるので、対象物に応じた適切な照明光を提供することが可能となる。
As described above, in the
なお、これまで説明してきた各実施形態において、画像センサ11により撮像された画像データを解析するタイミングは、一定間隔であってもよいし、任意のタイミング(たとえばユーザが画像を撮像して送ったタイミング)であってもよいし、対象物に動きがあったタイミング(たとえば人等、対象物が入れ替わったタイミング)であってもよい。また、対象物に動きがあったタイミングのみ、詳細な解析が行われるようにしてもよい。
In each of the embodiments described so far, the timing for analyzing the image data captured by the
(各実施形態の変形例)
次に、これまで説明してきた各実施形態の変形例について、図19~図22を用いて説明する。図19~図22は、各実施形態の変形例を示す図(その1)~(その4)である。なお、図19~図22を用いた説明では、これまで説明した各実施形態の様々な適用シーンを例に挙げる。
(Modified example of each embodiment)
Next, modified examples of the embodiments described so far will be described with reference to FIGS. 19 to 22. FIG. 19 to 22 are diagrams (part 1) to (part 4) showing modifications of each embodiment. In the explanation using FIGS. 19 to 22, examples of various application scenes of the embodiments explained so far are given.
まず、図19には、第4の実施形態に係る照明装置10Cが衣料品店等の「試着室」に設けられた場合を例に挙げる。図19に示すように、照明装置10Cが「試着室」に設けられた場合、これまでのように照明装置10Cが画像センサ11を具備する必要はなく、たとえば「試着室」内に準備されたカメラや、店員あるいはユーザ(試着する客)が携帯するカメラ付きの携帯端末(スマートフォン等)を画像センサとして用いるようにしてもよい。
First, FIG. 19 shows an example in which a
この場合、ユーザは、「試着室」内で試着する衣料品を身につけた後、たとえば自らが携帯するスマートフォンで鏡に写った自分の姿を撮像して、上述したクラウドサーバ100へ画像データ送信する(ステップS11)。
In this case, after wearing the clothes to be tried on in the "fitting room", the user captures an image of himself/herself reflected in the mirror using, for example, a smartphone carried by the user, and transmits the image data to the
そして、クラウドサーバ100は、かかる画像データを学習モデル131を用いて解析し(ステップS12)、これまでと同様に分光反射特性あるいは分光分布特性を推定する。すなわち、クラウドサーバ100がかかる解析を行うタイミングは、ユーザが画像データを送信した任意のタイミングとなる。
Then, the
なお、かかる場合の学習モデル131は、たとえば画像内でユーザが身につけている衣料品を認識する認識モデルを含み、これを用いた認識結果に基づいて各衣料品の分光反射特性を推定し、かかる分光反射特性の組み合わせに基づいて光源の照明条件を推定する。
Note that the
たとえば、同図に示すように、学習モデル131は、「スカート」や「ドレス」、「ユニフォーム」といった各衣料品と各色を認識するとともに、これに関連付けられた「カジュアル」や「シック」、「アクティブ」といった「雰囲気」を推定する。また、同様に、学習モデル131は、「カフェ」や「パーティ」、「競技場」といった「想定シーン」を推定する。なお、たとえば衣料品店が提供する専用アプリ等を介して、ユーザ自身が、スマートフォン等からこうした「雰囲気」や「想定シーン」を任意に指定するようにしてもよい。
For example, as shown in the figure, the
そして、クラウドサーバ100は、このように認識または推定された衣料品、雰囲気、想定シーンの各組み合わせから分光分布特性を含む最適な照明条件を推定し、解析結果として照明装置10Cへ送信する(ステップS13)。そして、照明装置10Cは、受け取った解析結果に基づいた出力制御を行い、ユーザの身につけている衣料品、雰囲気、想定シーンに適した照明環境を「試着室」内に再現させる。なお、図19には、衣料品等の「試着室」を例に挙げたが、写真スタジオ等にも同様の方法を適用することができる。
Then,
次に、図20には、第5の実施形態に係る照明装置10Dが「化粧品店」のコスメコーナー等に設けられた場合を例に挙げる。上述したように、照明装置10Dは、画像処理部142Cにおいて、取得部141によって取得された画像データに基づいて画像内の顔の各部位に該当する画像領域を抽出し、その抽出結果に基づいて顔の各部位の分光反射特性を推定し、かかる分光反射特性の組み合わせに基づいて光源の照明条件を推定することによって、照明環境に所在する人物の顔に応じた適切な照明光を提供する。
Next, FIG. 20 shows an example in which the
したがって、照明装置10Dは、コスメコーナー等に設けられる場合、コスメコーナーの鏡の前に所在するユーザ(化粧品店の客)の顔を光源部12の照射範囲とし、同じくそのユーザの顔を画像センサ11の撮像範囲とするように設けられる。
Therefore, when the
そのうえで、照明装置10Dは、図20に示すように、ユーザの顔を撮像し(ステップS21)、その画像データを解析し(ステップS22)、その解析結果に基づく照明条件で出力制御する(ステップS23)ことを一定の間隔で繰り返す。なお、画像センサ11によって、鏡の前に人が座ったこと、または、人が入れ替わったことが検知された場合にのみ、ステップS21~ステップS23の一連の手順が少なくとも1回実行されるようにしてもよい。
Then, as shown in FIG. 20, the
なお、図20の例で、照明装置10Dは、顔の各部位、たとえばユーザの肌や、眉、唇等の色の分光反射特性の組み合わせに基づいて、光源の照明条件を推定することとなるが、たとえばユーザが試す化粧品の種類によって、その化粧品の色が映える照明環境が提供されるようにしてもよい。
In the example of FIG. 20, the
たとえば、ユーザがチークを試す場合には肌の、口紅を試す場合には唇の、それぞれの分光反射特性を照明条件の抽出のための主たる要素とし、これに基づいてそれぞれ肌の色や唇の色が映える照明条件を推定するようにしてもよい。 For example, when the user tries blush, the spectral reflectance characteristics of the skin, and when the user tries lipstick, the spectral reflectance characteristics of the lips are used as main elements for extracting the lighting conditions. It is also possible to estimate a lighting condition in which the colors are bright.
あるいは、一種類の照明条件ではなく、たとえば一つの口紅を試す際に、図19に示したのと同様に、各種の雰囲気や想定シーンに応じた照明条件を試せるようにしてもよい。これら、どの部位を映えさせるか、または、どのような照明条件を試すかといった指定は、コスメコーナーに予め設られた端末等を介して店員やユーザにより行えるようにするとよい。 Alternatively, instead of one lighting condition, for example, when trying one lipstick, it may be possible to try lighting conditions corresponding to various atmospheres and assumed scenes, as shown in FIG. Designation such as which parts are to be highlighted or what lighting conditions are to be tested may be made by the store clerk or the user via a terminal or the like provided in advance in the cosmetic corner.
なお、図20には、「化粧品店」を例に挙げたが、舞台スタジオやエステサロン、会社の受付等にも同様の方法を適用することができる。 In addition, although FIG. 20 exemplifies the “cosmetics store”, the same method can be applied to stage studios, beauty salons, company reception desks, and the like.
次に、図21には、第1~第4の実施形態に係る照明装置10,10A,10B,10B’,10Cが「回転寿司店」に設けられた場合を例に挙げる。なお、ここでは照明装置10を図示する。
Next, FIG. 21 shows an example in which the
図21に示すように、「回転寿司店」において、あるユーザ(回転寿司店の客)が皿を手に取る付近(以下、「ユーザ付近」と言う)を光源部12の照射範囲とする場合、照明装置10は、画像センサ11が、寿司皿の搬送方向に対し、光源部12の照射範囲より撮像範囲が手前となるように設けられる。
As shown in FIG. 21, in a "conveyor-belt sushi restaurant", when a certain user (a customer of a conveyor belt sushi restaurant) picks up a plate (hereinafter referred to as "user's vicinity") is the irradiation range of the
そのうえで、画像センサ11は、かかる手前で寿司を撮像し(ステップS31)、照明装置10は、その画像データを学習モデル131を用いて解析して、これまでと同様に分光反射特性あるいは分光分布特性を推定する。
After that, the
かかる「回転寿司店」の場合の学習モデル131は、同図に示すように、たとえば画像内の「エビ」や「マグロ」、「イカ」といった各寿司ネタを認識する認識モデルを含み、これを用いた認識結果に基づいて各寿司ネタの分光反射特性あるいは分光分布特性を推定し、これら各特性に基づいて光源の照明条件を推定する。なお、「回転寿司店」の場合、かかる照明条件は、たとえば各寿司ネタを鮮度よく美味しそうに見せるといった照明条件である。
The
そして、光源部12は、こうして推定された照明条件に基づいて、ユーザ付近を照射することとなる(ステップS32)。すなわち、図21の例では、画像センサ11の撮像範囲と光源部12の照射範囲とは異なり、画像センサ11で撮像された画像内の寿司が、推定された照明条件で光源部12により実際に照射されるまでにタイムラグがあることとなる。
Then, the
なお、図21の例では、寿司ネタを画像内の主な対象物としたが、「回転寿司店」がユーザに各皿の値段の違い、すなわち色の違いを明確に示したい場合、寿司皿を画像内の主な対象物としてもよい。かかる場合は、寿司皿の色の違いがユーザ付近においてハッキリとわかるような照明条件で照射することが可能となる。 In the example of FIG. 21, the main object in the image is the sushi topping. may be the main object in the image. In such a case, it is possible to illuminate under lighting conditions such that the difference in color of the sushi plate can be clearly seen in the vicinity of the user.
また、「回転寿司店」の場合、画像センサ11による撮像は、一定の周期で行われてもよいし、画像センサ11が撮像範囲に寿司皿が進入したことを検知するたびに行われてもよい。また、ここでは「回転寿司店」を例に挙げたが、これに限られるものではなく、照明される対象物が移動するもの、たとえば実際に動く鉄道模型等の展示ブース等であってもよい。
Further, in the case of a "conveyor-belt sushi restaurant," the imaging by the
次に、図22には、第1~第5の実施形態に係る照明装置10,10A,10B,10B’,10C,10Dが「スーパー」等に設けられた場合を例に挙げる。なお、ここでは照明装置10を図示する。
Next, FIG. 22 shows an example in which the
図22に示すように、学習モデル131は、たとえば「スーパー」における売上のように、さらなる価値軸が加味された学習が適宜行われ、照明条件を推定する要素の一つとなっていてもよい。
As shown in FIG. 22 , the
具体的には、これまで示したのと同様に、ステップS41~S43に示す撮像、解析、出力制御の一連の手順に加えて、学習モデル131に対したとえば売上を加味した追加学習を行い(ステップS44)、かかる学習モデル131を用いてたとえば翌営業日にステップS41からの手順を繰り返してもよい。
Specifically, in the same manner as described above, in addition to the series of procedures of imaging, analysis, and output control shown in steps S41 to S43, additional learning is performed on the
すなわち、同図に☆印の数で示すように、たとえば分光分布特性ごとの売上実績を加味する追加学習により、認識した商品に応じ、その商品が売れるための照明条件を蓄積していくことが可能となる。なお、かかる売上は、一店舗に限らず複数店舗の売上を統合したデータであってもよいし、かかる統合データで学習モデル131を追加学習した場合、更新された学習モデル131を全店舗へ配信するようにしてもよい。
That is, as shown by the number of ☆ marks in the figure, for example, additional learning that takes into account the actual sales results for each spectral distribution characteristic can accumulate lighting conditions for selling the recognized product. It becomes possible. In addition, such sales are not limited to one store, and may be data that integrates the sales of multiple stores, and when the
なお、ここでは、売上を例に挙げたが、売上に限らず、ユーザからの投票や、レビュー結果等、適用された照明条件の評価値を示すものであればよい。すなわち、出力制御部143による出力制御の結果を示す評価値が特徴量の一つとして含まれるように機械学習が実行されればよい。また、ここでは、「スーパー」のような商品を販売する場合を例に挙げたが、業態を問うものではなく、たとえば美術館や博物館等、照明の出力制御の結果を人が認識し、評価することが可能なものであれば、各種の様々な場面に適用することができる。
Here, sales are taken as an example, but the evaluation value of the applied illumination condition may be indicated by votes from users, review results, or the like, without being limited to sales. That is, machine learning may be performed so that the evaluation value indicating the result of the output control by the
(その他の実施形態)
なお、上述した第1~第4の実施形態では、照明装置10,10A,10B,10B’,10Cが、光源の分光分布特性を選定することとしたが、光源の光色や相関色温度、色偏差等であってもよい。また、上述した第5の実施形態では、照明装置10Dが、光源の照明条件を選定することとしたが、照明条件は、分光分布特性や制御開始または終了のタイミング等に限らず、照度、相関色温度、演色評価数等を含むものであってもよい。
(Other embodiments)
In the first to fourth embodiments described above, the
また、上述した各実施形態では、画像データに基づいて学習モデル131を利用することとしたが、画像データに限らなくともよい。例えば、対象物や所望の見え方を音声コマンド等により指定し、これに基づいて光源の分光分布特性を推定可能となるように学習モデル131を生成し、これを利用するようにしてもよい。
Further, in each of the above-described embodiments, the
また、上述した各実施形態では、機械学習のアルゴリズムとしてディープラーニングを用いるものとしたが、用いるアルゴリズムを限定するものではない。したがって、SVM(Support Vector Machine)のようなパターン識別器を用いたサポートベクタ回帰等の回帰分析手法により機械学習を実行し、学習モデル131を生成してもよい。また、ここで、パターン識別器はSVMに限らず、例えばアダブースト(AdaBoost)などであってもよい。また、ランダムフォレスト等を用いてもよい。
Further, in each of the embodiments described above, deep learning is used as a machine learning algorithm, but the algorithm to be used is not limited. Therefore, the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.
1,1A 照明システム
10,10A,10B,10B’,10C,10D 照明装置
11 画像センサ
12 光源部
20 学習装置
100 クラウドサーバ
131 学習モデル
141 取得部
142,142A,142B,142B’,142C 画像処理部
142a 分光反射特性推定部
142b 選定部
142c 分光分布特性推定部
142d 分類部
142e 抽出部
142f 照明条件推定部
143 出力制御部
N ネットワーク
NN-1~5 モデル
Claims (7)
前記光源部によって照明される対象物が撮像された画像データにつき、該対象物の分光反射特性と前記光源の分光分布特性とが分離されるように画像処理を実行し、前記対象物を認識する画像処理部と;
前記対象物の認識結果に応じて、前記光源の出力を制御する出力制御部と;
を具備し、
前記画像処理部は、
正例となる画像データを用いた機械学習により生成された学習モデルを利用して前記対象物を認識し、
前記対象物の認識結果として前記分光反射特性を推定した後、該分光反射特性に基づいて前記対象物を所望の見え方とする前記分光分布特性を選定し、
前記出力制御部は、
前記画像処理部によって選定された前記分光分布特性に基づいて前記光源の出力を制御する、
照明装置。 a light source unit having a plurality of light sources;
Image processing is performed on image data obtained by imaging an object illuminated by the light source unit so as to separate the spectral reflection characteristics of the object from the spectral distribution characteristics of the light source, and the object is recognized. an image processing unit;
an output control unit that controls the output of the light source according to the recognition result of the object;
and
The image processing unit
Recognizing the object using a learning model generated by machine learning using image data that is a positive example,
after estimating the spectral reflectance characteristics as a recognition result of the object, selecting the spectral distribution characteristics that make the object appear in a desired manner based on the spectral reflectance characteristics;
The output control unit is
controlling the output of the light source based on the spectral distribution characteristic selected by the image processing unit ;
lighting device.
クラウドコンピューティングにより前記学習モデルを利用する、
請求項1に記載の照明装置。 The image processing unit
utilizing the learning model by cloud computing;
The lighting device according to claim 1 .
前記光源として、少なくとも赤、緑および青の単色光源を有し、
前記画像処理部は、
前記単色光源をそれぞれ単独で点灯させた場合に前記対象物を撮像した画像データの組に基づいて前記分光反射特性を推定する、
請求項1または2に記載の照明装置。 The light source unit
Having at least red, green and blue monochromatic light sources as the light sources,
The image processing unit
estimating the spectral reflection characteristics based on a set of image data obtained by imaging the object when each of the monochromatic light sources is lit individually;
3. A lighting device according to claim 1 or 2 .
前記画像データ中の物体を前記学習モデルを利用して分類した後、特定の前記対象物の画像領域を抽出し、該画像領域に基づいて前記分光反射特性を推定する、
請求項1、2または3に記載の照明装置。 The image processing unit
After classifying objects in the image data using the learning model, extracting an image area of a specific object, and estimating the spectral reflectance characteristics based on the image area;
4. A lighting device according to claim 1, 2 or 3 .
前記画像処理部は、
前記画像データ中の前記顔の各部位に該当する画像領域を抽出し、該画像領域に基づいて前記各部位の前記分光反射特性を推定した後、該分光反射特性の組み合わせに基づいて前記分光分布特性を含む前記光源の照明条件を選定し、
前記出力制御部は、
前記画像処理部によって選定された前記照明条件に基づいて前記光源の出力を制御する、
請求項1~4のいずれか一つに記載の照明装置。 the object is a face,
The image processing unit
After extracting an image area corresponding to each part of the face in the image data, estimating the spectral reflection characteristics of each part based on the image area, the spectral distribution based on the combination of the spectral reflection characteristics selecting lighting conditions for the light source, including characteristics;
The output control unit is
controlling the output of the light source based on the lighting conditions selected by the image processing unit;
The illumination device according to any one of claims 1-4 .
前記出力制御部による出力制御の結果を示す評価値が特徴量の一つとして含まれるように前記機械学習を実行する、
請求項1~5のいずれか一つに記載の照明装置。 The image processing unit
executing the machine learning so that an evaluation value indicating a result of output control by the output control unit is included as one of the feature amounts;
The lighting device according to any one of claims 1 to 5 .
請求項1~6のいずれか一つに記載の照明装置。 The machine learning is deep learning,
A lighting device according to any one of claims 1 to 6 .
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019009723 | 2019-01-23 | ||
JP2019009723 | 2019-01-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119877A JP2020119877A (en) | 2020-08-06 |
JP7326772B2 true JP7326772B2 (en) | 2023-08-16 |
Family
ID=71891505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019039030A Active JP7326772B2 (en) | 2019-01-23 | 2019-03-04 | lighting equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7326772B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7561815B2 (en) | 2021-12-03 | 2024-10-04 | 株式会社遠藤照明 | Camera-linked lighting control system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006528419A (en) | 2003-07-23 | 2006-12-14 | ティーアイアール システムズ リミテッド | Lighting system control system with multiple individual light sources |
JP2009099510A (en) | 2007-02-15 | 2009-05-07 | Toshiba Lighting & Technology Corp | Lighting apparatus |
JP2014112513A (en) | 2012-11-09 | 2014-06-19 | Toshiba Corp | Controller and luminaire |
JP2018045302A (en) | 2016-09-12 | 2018-03-22 | キヤノン株式会社 | Information processing device, information processing method and program |
WO2018066212A1 (en) | 2016-10-05 | 2018-04-12 | シャープ株式会社 | Estimation device and estimation device control method |
WO2018099799A1 (en) | 2016-12-02 | 2018-06-07 | Philips Lighting Holding B.V. | Image-based lighting |
JP2018106618A (en) | 2016-12-28 | 2018-07-05 | 日本放送協会 | Image data classifying apparatus, object detection apparatus, and program therefor |
-
2019
- 2019-03-04 JP JP2019039030A patent/JP7326772B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006528419A (en) | 2003-07-23 | 2006-12-14 | ティーアイアール システムズ リミテッド | Lighting system control system with multiple individual light sources |
JP2009099510A (en) | 2007-02-15 | 2009-05-07 | Toshiba Lighting & Technology Corp | Lighting apparatus |
JP2014112513A (en) | 2012-11-09 | 2014-06-19 | Toshiba Corp | Controller and luminaire |
JP2018045302A (en) | 2016-09-12 | 2018-03-22 | キヤノン株式会社 | Information processing device, information processing method and program |
WO2018066212A1 (en) | 2016-10-05 | 2018-04-12 | シャープ株式会社 | Estimation device and estimation device control method |
WO2018099799A1 (en) | 2016-12-02 | 2018-06-07 | Philips Lighting Holding B.V. | Image-based lighting |
JP2018106618A (en) | 2016-12-28 | 2018-07-05 | 日本放送協会 | Image data classifying apparatus, object detection apparatus, and program therefor |
Also Published As
Publication number | Publication date |
---|---|
JP2020119877A (en) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9357613B2 (en) | Display and lighting arrangement for a fitting room | |
Marszalec et al. | Physics-based face database for color research | |
US11748980B2 (en) | Makeup evaluation system and operating method thereof | |
EP2131697B1 (en) | Method and system for recommending a product based upon skin color estimated from an image | |
KR101563124B1 (en) | Personal color matching system and matching method thereof | |
US20070058858A1 (en) | Method and system for recommending a product based upon skin color estimated from an image | |
CN103945104B (en) | Information processing method and electronic equipment | |
EP3579176A1 (en) | Makeup evaluation system and operation method thereof | |
CN109359317A (en) | A kind of lipstick is matched colors the model building method and lipstick color matching selection method of selection | |
WO2015122195A1 (en) | Impression analysis device, game device, health management device, advertising support device, impression analysis system, impression analysis method, program, and program recording medium | |
KR20200044198A (en) | Method for evaluating fashion style using deep learning technology and system therefor | |
US20220335614A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of a Scalp Region of a Users Scalp to Generate One or More User-Specific Scalp Classifications | |
CN106951448A (en) | A kind of personalization, which is worn, takes recommendation method and system | |
CN107341762A (en) | Take pictures processing method, device and terminal device | |
US20240273388A1 (en) | Apparatuses and methods for color matching and recommendations | |
JP7326772B2 (en) | lighting equipment | |
Fujimoto | Projection mapping for enhancing the perceived deliciousness of food | |
KR102110053B1 (en) | Method and system for facial features analysis and delivery of personalized advice | |
Galdi et al. | Fusing iris colour and texture information for fast iris recognition on mobile devices | |
CN108682045A (en) | A kind of mirror and its control method based on smart home | |
US20090324021A1 (en) | Method of Identification of a Person on the Iris of the Eye (Embodiments) | |
Koshy et al. | A complexion based outfit color recommender using neural networks | |
Fujimoto | Food appearance optimizer: Automatic projection mapping system for enhancing perceived deliciousness based on appearance | |
CN114402349A (en) | Computing device, method and apparatus for recommending at least one of a cosmetic palette or a hair coloring scheme | |
CN108765276A (en) | A kind of market fitting mirror and its control method based on Internet of Things |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230717 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7326772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |