JP5403779B2 - Lighting system - Google Patents
Lighting system Download PDFInfo
- Publication number
- JP5403779B2 JP5403779B2 JP2008113271A JP2008113271A JP5403779B2 JP 5403779 B2 JP5403779 B2 JP 5403779B2 JP 2008113271 A JP2008113271 A JP 2008113271A JP 2008113271 A JP2008113271 A JP 2008113271A JP 5403779 B2 JP5403779 B2 JP 5403779B2
- Authority
- JP
- Japan
- Prior art keywords
- texture data
- image
- person
- data
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Circuit Arrangement For Electric Light Sources In General (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、照明空間における人の存否に応じて、照明器具の点滅および調光を制御する照明システムに関する。 The present invention relates to a lighting system that controls blinking and dimming of a lighting fixture in accordance with the presence or absence of a person in a lighting space.
従来から、居室の天井などに設置された画像センサによって室内における人の存否、人の位置などを検出し、検出結果に応じて照明器具の点滅および調光を制御する照明システムが知られている。 2. Description of the Related Art Conventionally, there is known an illumination system that detects the presence or absence of a person in a room, the position of a person, etc. by an image sensor installed on the ceiling of a living room and controls blinking and dimming of a lighting fixture according to the detection result. .
画像センサによる人の検出は、例えば、図10に示すように、室内を所定の周期で撮像した2つ以上の画像を比較し、変化のある部分、即ち移動しているとみなすことのできる一定の画素の塊101を特定することによって行われる。
For example, as shown in FIG. 10, human detection by an image sensor compares two or more images captured in a room at a predetermined cycle, and can be regarded as a moving part, i.e., a fixed part. This is done by specifying the
また、周期的に撮像する2つ以上の画像について、まず照明を強くして第1の画像を撮像し、次いで照明を弱くして第2の画像を撮像し、両画像の差分領域を抽出することで人の存否を判定する方法が提案されている(例えば、特許文献1参照)。 In addition, for two or more images that are periodically picked up, the first image is picked up with strong illumination, then the second image is picked up with weak light, and a difference area between the two images is extracted. Thus, a method for determining the presence or absence of a person has been proposed (see, for example, Patent Document 1).
これらの方法では、人が移動した後に静止すると、人の存否を判定することができないので、以前に移動していた画素の塊が静止した場合、又は、連続して抽出できた差分領域がその後抽出できなくなった場合に、これを人であると判断するための判断回路を設ける必要がある。 In these methods, since the presence or absence of a person cannot be determined if the person stops after moving, if the block of pixels that have moved previously stops or the difference area that can be extracted continuously is When it becomes impossible to extract, it is necessary to provide a determination circuit for determining that this is a person.
しかしながら、リビングルームやダイニングルームのような室内空間において、画像センサの撮像範囲を移動するものは、人だけであるとは限らない。例えば、動き回るペットなどの小動物、首振り動作をする扇風機、移動や回転を行う機器、風によって揺れるカーテン等があると、これらを人であると誤って判断し、その結果、システムが適切に制御されないという問題がある。 However, in an indoor space such as a living room or a dining room, it is not always the person who moves the imaging range of the image sensor. For example, if there is a small animal such as a moving pet, a fan that swings, a device that moves and rotates, a curtain that shakes by the wind, etc., these are mistakenly determined to be humans, and as a result, the system controls appropriately There is a problem that it is not.
本発明は、上記の事情に鑑みてなされたもので、照明空間における人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することの可能な照明システムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an illumination system that can accurately determine the presence or absence of a person in an illumination space and can appropriately control blinking and dimming of a lighting fixture. The purpose is to do.
本発明は、照明空間における人の存否に応じて、照明器具の点滅および調光を制御する照明システムであって、前記照明空間を時系列に順次撮像して画像データを出力する撮像装置と、前記画像データに基づいて、前記照明空間における人の存否を判断する判断装置と、前記判断装置の判断結果に応じて、前記照明器具の点滅および調光を制御する照明制御装置と、を備え、前記判断装置は、前記画像データからキャンセルする第1のテクスチャデータを設定する設定部と、前記画像データ及び前記第1のテクスチャデータを記憶する記憶部と、時系列の前記画像データの差分を順次演算することにより、前記照明空間において移動する第2のテクスチャデータを抽出する演算部と、前記第1のテクスチャデータと前記第2のテクスチャデータの一致、不一致に応じて、前記照明空間における人の存否を判断する判断部と、前記撮像装置で撮像した画像を表示する表示部と、を有し、前記設定部は、前記表示部に表示した前記照明空間の画像に対して指定された、前記照明空間における人以外の移動する特定の物体を含む画像領域に基づいて、前記第1のテクスチャデータを設定するものである。 The present invention is an illumination system that controls blinking and dimming of a lighting fixture according to the presence or absence of a person in the illumination space, an imaging device that sequentially images the illumination space in time series and outputs image data; A determination device that determines the presence or absence of a person in the illumination space based on the image data, and a lighting control device that controls blinking and dimming of the lighting fixture according to a determination result of the determination device, The determination device sequentially sets a difference between the time-series image data, a setting unit that sets first texture data to be canceled from the image data, a storage unit that stores the image data and the first texture data. By calculating, a calculation unit that extracts second texture data that moves in the illumination space, the first texture data, and the second texture data A determination unit that determines the presence or absence of a person in the illumination space in accordance with a match or a mismatch, and a display unit that displays an image captured by the imaging device, and the setting unit displays on the display unit The first texture data is set based on an image area that is specified for the image in the illumination space and includes a specific object that moves in the illumination space other than a person .
この構成により、室内において移動する人以外のものを撮像した画像から第1のテクスチャデータを設定し、時系列で撮像したデータの差分を順次演算して第2のテクスチャデータを抽出し、第1及び第2のテクスチャデータの一致、不一致を判定することで、人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することが可能となる。
また、撮像装置で撮像した画像から、第1のテクスチャデータを設定するための領域を容易に指定することができる。
With this configuration, the first texture data is set from an image obtained by capturing an object other than a person moving in the room, and the second texture data is extracted by sequentially calculating the difference between the data captured in time series. By determining whether the second texture data matches or does not match, it is possible to accurately determine the presence or absence of a person, and to appropriately control blinking and dimming of the lighting fixture.
In addition, it is possible to easily specify an area for setting the first texture data from the image captured by the imaging device.
更に、本発明は、上記の照明システムにおいて、前記設定部は、前記特定の物体の異なる方向から撮像した画像から、前記第1のテクスチャデータを複数設定してグループ化するものも含む。 Furthermore, the present invention includes the above lighting system in which the setting unit sets a plurality of the first texture data and groups them from images taken from different directions of the specific object.
この構成により、撮像装置で撮像した画像から、第1のテクスチャデータを設定するための領域を容易に指定することができる。 With this configuration, it is possible to easily specify an area for setting the first texture data from the image captured by the imaging device.
また、本発明は、上記の照明システムにおいて、前記判断部は、パターン認識におけるニューラルネットワーク、ファジイアルゴリズム、重回帰分析のいずれかの手法によって、前記第1のテクスチャデータと前記第2のテクスチャデータの一致、不一致を判定するものも含む。 In the illumination system according to the present invention, the determination unit may determine whether the first texture data and the second texture data are obtained by any one of a neural network, a fuzzy algorithm, and multiple regression analysis in pattern recognition. It also includes those that determine match or mismatch.
この構成により、第1のテクスチャデータと第2のテクスチャデータが完全に一致しなくても、人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することが可能となる。 With this configuration, even if the first texture data and the second texture data do not completely match, it is possible to accurately determine the presence or absence of a person, and to appropriately control blinking and dimming of the lighting fixture. It becomes possible.
本発明によれば、照明空間における人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することの可能な照明システムを提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the presence or absence of the person in lighting space can be determined correctly, and the lighting system which can control blinking and light control of a lighting fixture appropriately can be provided.
以下、本発明の実施形態に係る照明システムについて、図面を用いて説明する。図1は、本発明の実施形態に係る照明システムの概略構成を示す図である。 Hereinafter, an illumination system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of an illumination system according to an embodiment of the present invention.
図1において、本実施形態の照明システムは、室内に設置された1ないし複数の照明器具L1〜Lnと、室内を撮像する画像センサを含む撮像装置1と、撮像した画像データに基づいて、室内における人の存否を判断する判断装置2と、人の存否に応じて照明器具L1〜Lnの点灯を制御する照明制御装置3を備える構成である。
In FIG. 1, the lighting system according to the present embodiment is based on one or more lighting fixtures L1 to Ln installed in a room, an
撮像装置1は、CCDやCMOS等の固体撮像素子と光学レンズ、及び信号処理回路を含んで一体的に構成され、室内の天井や壁面等に設置されて室内を時系列に順次撮像し、判断装置2に画像データを送出する。光学レンズは、室内の広い範囲を撮像するために、広角レンズ又は魚眼レンズを使用することが望ましい。また,固体撮像素子はカラー用、白黒用いずれであってもよく、更に、照明消灯時にも人の入室を判断する必要があるので,赤外域までの感度を有するCCD撮像素子が好適である。
The
判断装置2は、撮像装置1によって撮像した画像データからキャンセルする第1のテクスチャデータを設定する設定部21と、撮像した画像データ及び第1のテクスチャデータを記憶する記憶部22と、撮像装置1によって撮像した画像データを順次差分演算することにより、室内において移動する第2のテクスチャデータを抽出する演算部23と、第1のテクスチャデータと第2のテクスチャデータを照合して、その一致、不一致を判定することで、室内における人の存否を判断する判断部24と、撮像装置1によって撮像した画像を表示する表示部25を有する。
The
設定部21は、不図示のテクスチャ読み込み起動スイッチの操作に伴って、撮像装置1で撮像した画像データを入力し、撮像装置1によって時系列に順次撮像した画像データからキャンセルする第1のテクスチャデータを設定する。
The
この第1のテクスチャデータは、室内における人以外の移動する物体を撮像した画像データであり、例えば、首振り動作を行う扇風機、室内を動き回るペット、窓から吹き込む風によって揺れるカーテン等を撮像した画像データが含まれ、移動するものであっても人ではないと判断すべきものである。 The first texture data is image data obtained by imaging a moving object other than a person in the room. For example, an image obtained by imaging a fan that swings, a pet that moves around the room, a curtain that is shaken by wind blown from a window, and the like. Even if the data is included and moves, it should be judged that it is not a person.
記憶部22は、データの書き替えが可能なRAM、EPROM、EEPROM、及びフラッシュメモリ等の半導体メモリから構成され、撮像装置1によって室内を時系列に順次撮像した画像データ、設定した第1のテクスチャデータ及びグループ化した第1のテクスチャデータ群、在室中の人の動線軌跡データ、人の在室位置や人数に対応して予め設定された照明基部L1〜Lnの調光データ等を記憶する。
The
演算部23は、マイコンシステムによって構成され、室内を撮像した画像データを記憶部22から順次読み出し、それらの差分を演算して室内で移動する第2のテクスチャデータを抽出する。
The
判断部24は、演算部23と共通のマイコンシステムによって構成され、記憶部22から読み出した第1のテクスチャデータと、演算部23において抽出された第2のテクスチャデータを照合し、その一致、不一致を後述する所定のアルゴリズムに基づいて判定することにより、室内における人の存否を判断する。
The
第1のテクスチャデータと第2のテクスチャデータが一致する場合は、室内を移動するものは人ではないと判断し、一致しない場合は人であると判断する。そして、これら判断結果の人の存否、および人が居る場合の位置に基づいて、記憶部22から対応する調光データを読み出し、照明制御装置3に送出する。
If the first texture data and the second texture data match, it is determined that the person moving in the room is not a person, and if they do not match, it is determined that the person is a person. Then, based on the presence / absence of a person as a result of these determinations and the position where there is a person, the corresponding light control data is read from the
また、室内を移動するのが人であると判断した場合には、引き続いてその軌跡を追尾し、停止した際にその位置を記憶部22に記憶する。
If it is determined that a person moves in the room, the trajectory is subsequently tracked, and the position is stored in the
表示部25は、例えば、タッチパネル機能を備える液晶ディスプレイから構成され、撮像装置1によって撮像した画像を表示するとともに、表示した画像上を指またはタッチペンで圧力を加えることによって、第1のテクスチャデータを設定するためのキャンセルする画像領域を指定する。
The
照明制御装置3は、演算部23と共通のマイコンシステムによって構成され、判断部24から送出された調光データを入力して、照明器具L1〜Lnの点滅および明るさを制御するための調光信号を生成する。
The
次に、以上のように構成された本実施形態の照明システムにおいて、判断装置2の動作について説明する。図2は、判断装置2における処理手順を説明するためのフローチャートである。
Next, the operation of the
まず、設定部21において、第1のテクスチャデータの設定を開始する不図示のテクスチャ読み込み起動スイッチが押されたか否かを判定する(ステップS11)。
First, the
テクスチャ読み込みスイッチ起動スイッチが押されたと判定された場合は、ステップS12において、第1のテクスチャデータ設定処理のサブルーチンを実行する。 If it is determined that the texture read switch activation switch has been pressed, a first texture data setting process subroutine is executed in step S12.
一方、テクスチャ読み込みスイッチ起動スイッチが押されていないと判定された場合は、記憶部22に既に記憶されている第1のテクスチャデータを用いて、ステップS13以降の処理を実行する。
On the other hand, if it is determined that the texture read switch activation switch has not been pressed, the processes after step S13 are executed using the first texture data already stored in the
ステップS13では、演算部23において、撮像装置1で撮像した室内の画像データを記憶部22から順次読み出し、それらの差分を演算して室内で移動する第2のテクスチャデータかが抽出されたか否かを判定する。
In step S <b> 13, whether or not the second texture data moving in the room is extracted by sequentially calculating the indoor image data captured by the
判定の結果、第2のテクスチャデータが抽出された場合は、次のステップS14において、移動するものが人であるか否かを判断する処理のサブルーチンを実行する。 If the second texture data is extracted as a result of the determination, a subroutine of a process for determining whether or not the moving object is a person is executed in the next step S14.
一方、ステップS13の手順で第2のテクスチャデータが抽出されなかった場合は、ステップS17の手順で一定時間ディレイした後、ステップS11の手順に戻る。 On the other hand, if the second texture data is not extracted in the procedure of step S13, the procedure returns to the procedure of step S11 after a predetermined time delay in the procedure of step S17.
ステップS15では、ステップS14のサブルーチンを実行した結果により、室内において移動するものが人であるか否かを判断する。 In step S15, based on the result of executing the subroutine of step S14, it is determined whether or not the person moving in the room is a person.
判定の結果、移動するものが人である場合は、次のステップS16において、室内の人数、人の居る位置などに応じて、照明器具L1〜Lnの点滅、調光等の照明制御を行うサブルーチンを実行する。 As a result of the determination, if the moving object is a person, in the next step S16, a subroutine for performing lighting control such as blinking and dimming of the lighting fixtures L1 to Ln according to the number of people in the room, the position of the person, etc. Execute.
一方、ステップS15の手順で移動するものが人でなかった場合は、ステップS17の手順で一定時間ディレイした後、ステップS11の手順に戻る。 On the other hand, if the person who moves in the procedure of step S15 is not a person, the procedure returns to the procedure of step S11 after a predetermined time delay in the procedure of step S17.
次に、第1のテクスチャデータ設定処理について説明する。図3は、図2に示した第1のテクスチャデータ設定処理サブルーチンの処理手順を説明するためのフローチャートである。 Next, the first texture data setting process will be described. FIG. 3 is a flowchart for explaining the processing procedure of the first texture data setting processing subroutine shown in FIG.
まず、設定部21において、室内を撮像した画像からキャンセルする画像領域を指定して入力する(ステップS131)。キャンセルする画像領域とは、移動するものであっても人ではない特定の物体、例えば、動き回るペットなどの小動物、首振り動作をする扇風機、移動や回転を行う機器、風によって揺れるカーテン等である。
First, the setting
ここで、室内を撮像した画像からキャンセルする画像領域を指定する方法について説明する。図4〜図6は、室内を撮像した画像からキャンセルする画像領域を指定する方法を説明するための説明図である。 Here, a method for designating an image area to be canceled from an image captured in a room will be described. 4 to 6 are explanatory diagrams for describing a method for designating an image area to be canceled from an image obtained by capturing an image of the room.
扇風機やペット、カーテン等は、その形態や大きさ、模様などがそれぞれ異なるので,第1のテクスチャデータとして別々に設定する必要があり、そのためキャンセルする画像領域も個別に指定する。 Fans, pets, curtains, and the like have different forms, sizes, patterns, and the like, and therefore need to be set separately as the first texture data. Therefore, the image area to be canceled is individually designated.
図4は、判断装置2の一部をなす表示部25に表示された室内の撮像画像を用いて、第1のテクスチャデータを設定するためのキャンセルする画像領域を指定する方法を示す図である。
FIG. 4 is a diagram illustrating a method of designating an image area to be canceled for setting the first texture data, using the indoor captured image displayed on the
図4において、テクスチャ読み込み起動スイッチ26を押下した後、キャンセルする画像領域、例えば、扇風機Fのファン部分を指、またはタッチペン27でなぞって圧力を加えることにより、当該領域の画像をキャンセルする画像領域として設定部21に取り込み、第1のテクスチャデータを設定する。
In FIG. 4, after pressing the texture reading start
図5及び図6は、キャンセルする領域を指定する他の方法を示す図であり、レーザポインタを用いてキャンセルする画像領域の対象物を直接指定する。 5 and 6 are diagrams showing another method of designating an area to be canceled, and an object of an image area to be canceled is directly designated using a laser pointer.
図5において、不図示のテクスチャ読み込み起動スイッチを押下した後に、対象物である扇風機Fのファン部分の周りにレーザポインタLPを用いて閉曲線を描き、これを撮像装置1で撮像してその画像データを設定部21に取り込み、第1のテクスチャデータとして設定する。
In FIG. 5, after pressing a texture reading start switch (not shown), a closed curve is drawn around the fan portion of the fan F, which is the object, using the laser pointer LP, and this is imaged by the
同様に、図6において、キャンセルする領域である対象物のカーテンC上にレーザポインタLPで閉曲線を描き、これを撮像装置1で撮像し、判断装置2の設定部21で認識することによって第1のテクスチャデータを設定する。
Similarly, in FIG. 6, a closed curve is drawn with the laser pointer LP on the curtain C of the target object, which is an area to be canceled, and this is captured by the
対象物の範囲を指示するレーザポインタの指示ポイントは点であるが、連続する画像上では点が連なった閉曲線となるので、閉曲線で囲まれた画像領域を演算によって抽出することは容易に可能である。 The point indicated by the laser pointer that indicates the range of the object is a point, but on a continuous image, it is a closed curve with a series of points, so it is possible to easily extract the image area surrounded by the closed curve by calculation. is there.
上記したこのような方法により、室内においてその形態や大きさ、模様などが異なる扇風機やペット、カーテン等を第1のテクスチャデータを設定するためのキャンセル画像領域として容易に指定することができる。 By such a method as described above, a fan, a pet, a curtain, or the like having a different shape, size, pattern, or the like in the room can be easily designated as a cancel image area for setting the first texture data.
なお、レーザポインタLPは、判断装置2の子機,又は照明制御装置3のリモコンと一体化して構成してもよい。
The laser pointer LP may be integrated with the slave unit of the
図3に戻って、指定したキャンセルする画像領域を撮像装置1で追尾して撮像しながら、一定の時間間隔でキャンセル画像i(i=1〜n)を取得し(ステップS132)、取得した画像iからデータXij(j=1〜m)を計算する(ステップS133)。 Returning to FIG. 3, cancel images i (i = 1 to n) are acquired at regular time intervals while the specified image area to be canceled is tracked and imaged by the imaging device 1 (step S <b> 132). Data Xij (j = 1 to m) is calculated from i (step S133).
次いで、ステップS134において、キャンセル領域外の画像h(h=!〜k)を取得し、取得した画像hからデータXkj(j=1〜m)を計算する(ステップS135)。 Next, in step S134, an image h (h =! To k) outside the cancel region is acquired, and data Xkj (j = 1 to m) is calculated from the acquired image h (step S135).
これらのデータから次の式を連立させ、重回帰分析によりAsを求める(ステップS136)。 From these data, the following equation is made simultaneous and As is obtained by multiple regression analysis (step S136).
1=A1Xij+A2Xij+A3Xij+・・・+AmXij
1=A1Xij+A2Xij+A3Xij+・・・+AmXij
1=A1Xij+A2Xij+A3Xij+・・・+AmXij
・・・
1=A1Xkj+A2Xkj+A3Xkj+・・・+AmXkj
1=A1Xkj+A2Xkj+A3Xkj+・・・+AmXkj
1=A1Xkj+A2Xkj+A3Xkj+・・・+AmXkj
・・・
但し、i=1〜n、j=1〜m、k=1〜nである。
1 = A1Xij + A2Xij + A3Xij + ... + AmXij
1 = A1Xij + A2Xij + A3Xij + ... + AmXij
1 = A1Xij + A2Xij + A3Xij + ... + AmXij
...
1 = A1Xkj + A2Xkj + A3Xkj + ... + AmXkj
1 = A1Xkj + A2Xkj + A3Xkj + ... + AmXkj
1 = A1Xkj + A2Xkj + A3Xkj + ... + AmXkj
...
However, i = 1 to n, j = 1 to m, and k = 1 to n.
扇風機やペット、カーテン等、第1のテクスチャデータとして設定するための対象物は、その位置や状態によって撮像装置1で撮像する画像が変化するので、記憶部22に記憶された第1のテクスチャデータと完全には一致しない。従って、ニューラルネットワーク、ファジイアルゴリズム、重回帰分析などの手法を用いてパターン認識することで、一致の判定処理を行う必要がある。
The object to be set as the first texture data, such as an electric fan, a pet, or a curtain, changes the image picked up by the
また、第1のテクスチャデータは、画像をキャンセルする対象物の一つに対して、異なる角度から撮像して設定したものを複数用意しておいた方が、パターン認識の精度が上がる。例えば、扇風機の首を振るファンや動き回るペットなどを時系列に順次撮像し、得られた個々の画像から第1のテクスチャデータを複数設定してグループ化する。そして、このグループ化した複数の第1のテクスチャデータを記憶部22に記憶する。
In addition, the accuracy of pattern recognition is improved by preparing a plurality of first texture data prepared by imaging from different angles for one of the objects whose images are to be canceled. For example, a fan that shakes the fan's head, a moving pet, and the like are sequentially imaged in time series, and a plurality of first texture data are set and grouped from the obtained individual images. The grouped first texture data is stored in the
図7は、扇風機を首振り角度が異なる3つの状態で撮像して、グループ化する3つの第1のテクスチャデータを設定する場合を示す説明図である。なお、U、Vは、画像データにおける直交座標である。 FIG. 7 is an explanatory diagram showing a case where three first texture data to be grouped are set by imaging the fan in three states with different swing angles. U and V are orthogonal coordinates in the image data.
図7に示す3つの画像群から、演算によっていくつかのパラメータを取り出す。取り出すパラメータとしては、例えば、次のようなものがある。 Several parameters are extracted from the three image groups shown in FIG. Examples of parameters to be extracted include the following.
X1:U方向の空間周波数ピーク値
X2:V方向の空間周波数ピーク値
X3:エッジ抽出した最外周に含まれる画素面積
X4:X3の領域内の赤色の面積
X5:X3の領域内の青色の面積
X1: Spatial frequency peak value in the U direction X2: Spatial frequency peak value in the V direction X3: Pixel area included in the outermost periphery extracted from the edge X4: Red area in the region of X3 X5: Blue area in the region of X3
同様に、キャンセル画像ではない画像からもパラメータX’1〜X’5を抽出する。 Similarly, the parameters X′1 to X′5 are extracted from an image that is not a cancel image.
多変量解析で判定する場合は、以下の式(1)にX1〜X5を代入した際に、Y=1(キャンセル画像である)、X’1〜X’5を代入した時に、Y=0(人である)という式を立て、これを解くことによって判定する。 When determining by multivariate analysis, when X1 to X5 are substituted into the following equation (1), Y = 1 (is a cancel image), and when X′1 to X′5 are substituted, Y = 0 Judgment is made by formulating (it is a person) and solving this.
Y=AX1+BX2+CX3+DX4+EX5・・・(1) Y = AX1 + BX2 + CX3 + DX4 + EX5 (1)
次に、人の判断処理について説明する。図8は、図2に示した人の判断処理サブルーチンの処理手順を説明するためのフローチャートである。 Next, human judgment processing will be described. FIG. 8 is a flowchart for explaining the processing procedure of the human judgment processing subroutine shown in FIG.
まず、ステップS151において、撮像装置1で撮像した画像の移動する物体から、式(1)によって求められた画像データYを取得する。
First, in step S151, the image data Y obtained by Expression (1) is acquired from the moving object of the image captured by the
次いで、取得した画像YからデータZj(j=1〜k)を計算する(ステップS152)。 Next, data Zj (j = 1 to k) is calculated from the acquired image Y (step S152).
ステップS203では、次式(2)を計算する。
P=Zj+A2Zj+A3Zj+A4Zj+・・・+AmZj・・・(2)
但し、j=1〜mである。
In step S203, the following equation (2) is calculated.
P = Zj + A2Zj + A3Zj + A4Zj + ... + AmZj (2)
However, j = 1 to m.
続いて、式(2)で計算したPの値が、0.5より大きいか否かを判定する(ステップS154)。その結果、0.5より大きい場合は、撮像装置1で撮像した画像の移動する物体は人であると判断する(ステップS155)。
Subsequently, it is determined whether or not the value of P calculated by Expression (2) is larger than 0.5 (step S154). If the result is greater than 0.5, it is determined that the moving object of the image captured by the
一方、ステップS154の手順でPの値が0.5より小さい場合は、撮像した画像の移動するものは人ではないと判断する(ステップS156)。 On the other hand, if the value of P is smaller than 0.5 in the procedure of step S154, it is determined that the captured image is not a person (step S156).
次に、ニューラルネットワークを用いて、第1のテクスチャデータの一致を判断する例について説明する。図9は、パターン認識回路を形成するニューラルネットワークを示す図である。 Next, an example of determining the coincidence of the first texture data using a neural network will be described. FIG. 9 is a diagram showing a neural network forming a pattern recognition circuit.
図9において、X1〜X5にキャンセルすべきテクスチャ群と、キャンセルすべき画像でないテクスチャからのパラメータを入れることによって、パターン一致判定のアルゴリズムが確立する。 In FIG. 9, a pattern matching determination algorithm is established by inputting a texture group to be canceled in X1 to X5 and parameters from a texture that is not an image to be canceled.
以上説明したように、このような本発明の実施形態に係る照明システムによれば、室内における人の存否を正確に判断することができ、人がいると判断された場合、その人数と位置に応じて、照明器具の点滅および調光を適切に制御することが可能となる。 As described above, according to the lighting system according to the embodiment of the present invention, it is possible to accurately determine the presence / absence of a person in a room, and when it is determined that there is a person, the number and position of the person are determined. Accordingly, it is possible to appropriately control blinking and dimming of the lighting fixture.
本発明の照明システムは、照明空間における人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することが可能である効果を有し、住宅や店舗における照明システム等に有用である。 The lighting system of the present invention can accurately determine the presence or absence of a person in the lighting space, and has the effect of being able to appropriately control the blinking and dimming of the lighting fixture. Etc. are useful.
1 撮像装置(画像センサ)
2 判断装置
21 設定部
22 記憶部
23 演算部
24 判断部
25 表示部
3 照明制御装置
L1〜Ln 照明器具
1 Imaging device (image sensor)
2
Claims (3)
前記照明空間を時系列に順次撮像して画像データを出力する撮像装置と、
前記画像データに基づいて、前記照明空間における人の存否を判断する判断装置と、
前記判断装置の判断結果に応じて、前記照明器具の点滅および調光を制御する照明制御装置とを備え、
前記判断装置は、
前記画像データからキャンセルする第1のテクスチャデータを設定する設定部と、
前記画像データ及び前記第1のテクスチャデータを記憶する記憶部と、
時系列の前記画像データの差分を順次演算することにより、前記照明空間において移動する第2のテクスチャデータを抽出する演算部と、
前記第1のテクスチャデータと前記第2のテクスチャデータの一致、不一致に応じて、前記照明空間における人の存否を判断する判断部と、
前記撮像装置で撮像した画像を表示する表示部と、を有し、
前記設定部は、
前記表示部に表示した前記照明空間の画像に対して指定された、前記照明空間における人以外の移動する特定の物体を含む画像領域に基づいて、前記第1のテクスチャデータを設定する照明システム。 A lighting system that controls blinking and dimming of a lighting fixture according to the presence or absence of a person in a lighting space,
An imaging device that sequentially images the illumination space in time series and outputs image data;
A determination device for determining presence or absence of a person in the illumination space based on the image data;
A lighting control device that controls blinking and dimming of the lighting fixture according to a determination result of the determination device;
The determination device includes:
A setting unit for setting first texture data to be canceled from the image data;
A storage unit for storing the image data and the first texture data;
A calculation unit for extracting second texture data moving in the illumination space by sequentially calculating a difference between the image data in time series;
A determination unit for determining presence or absence of a person in the illumination space in accordance with a match or mismatch between the first texture data and the second texture data;
A display unit that displays an image captured by the imaging device,
The setting unit
An illumination system that sets the first texture data based on an image region that is specified for an image of the illumination space displayed on the display unit and includes a specific object that moves in the illumination space other than a person .
前記設定部は、
前記特定の物体の異なる方向から撮像した画像から、前記第1のテクスチャデータを複数設定してグループ化する照明システム。 The lighting system according to claim 1 ,
The setting unit
An illumination system that sets and groups a plurality of the first texture data from images taken from different directions of the specific object.
前記判断部は、
パターン認識におけるニューラルネットワーク、ファジイアルゴリズム、重回帰分析のいずれかの手法によって、前記第1のテクスチャデータと前記第2のテクスチャデータの一致、不一致を判定する照明システム。 The illumination system according to claim 1 or 2 ,
The determination unit
An illumination system that determines a match or mismatch between the first texture data and the second texture data by any one of a neural network, a fuzzy algorithm, and multiple regression analysis in pattern recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008113271A JP5403779B2 (en) | 2008-04-24 | 2008-04-24 | Lighting system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008113271A JP5403779B2 (en) | 2008-04-24 | 2008-04-24 | Lighting system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009266501A JP2009266501A (en) | 2009-11-12 |
JP5403779B2 true JP5403779B2 (en) | 2014-01-29 |
Family
ID=41392091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008113271A Active JP5403779B2 (en) | 2008-04-24 | 2008-04-24 | Lighting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5403779B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012155918A (en) * | 2011-01-25 | 2012-08-16 | Panasonic Corp | Lighting control system |
JP5709697B2 (en) * | 2011-09-02 | 2015-04-30 | 三菱電機株式会社 | Air conditioner indoor unit |
JP5845841B2 (en) | 2011-11-18 | 2016-01-20 | 東芝ライテック株式会社 | Lighting control device |
JP6194187B2 (en) * | 2013-05-07 | 2017-09-06 | 株式会社アクト | Indoor environment control system |
JP6375407B2 (en) * | 2017-03-31 | 2018-08-15 | 株式会社アクト | Indoor environment control system |
KR102327395B1 (en) * | 2019-12-20 | 2021-11-17 | 국민대학교산학협력단 | Apparatus and method for controlling indoor lighting |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11296653A (en) * | 1998-04-06 | 1999-10-29 | Sanyo Electric Co Ltd | Image processor and human body detector using the same |
JP2000172827A (en) * | 1998-12-03 | 2000-06-23 | Sharp Corp | Human body detector and air conditioner using it |
JP2004157754A (en) * | 2002-11-06 | 2004-06-03 | Canon Inc | Pattern recognition device |
JP2005056406A (en) * | 2003-07-24 | 2005-03-03 | Victor Co Of Japan Ltd | Image movement detection apparatus and computer program |
JP4505616B2 (en) * | 2004-12-08 | 2010-07-21 | 株式会社国際電気通信基礎技術研究所 | Eigenspace learning device, eigenspace learning method, and eigenspace program |
JP2006323769A (en) * | 2005-05-20 | 2006-11-30 | Tokai Univ | Facing input device |
JP4836633B2 (en) * | 2006-03-31 | 2011-12-14 | 株式会社東芝 | Face authentication device, face authentication method, and entrance / exit management device |
-
2008
- 2008-04-24 JP JP2008113271A patent/JP5403779B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009266501A (en) | 2009-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10614565B2 (en) | Inspection device and inspection system | |
JP5403779B2 (en) | Lighting system | |
KR100328648B1 (en) | Hand Pointing Device | |
CN105979134B (en) | Image processing apparatus, image processing method, and image processing system | |
JP4895797B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
KR101533686B1 (en) | Apparatus and method for tracking gaze, recording medium for performing the method | |
CN102196220B (en) | Messaging device and information processing method | |
TWI569764B (en) | Method and system for recognizing multiple instruments during minimally invasive surgery | |
KR101998639B1 (en) | Intelligent system for ignition point surveillance using composite image of thermal camera and color camera | |
JP6547013B2 (en) | Biological information analysis apparatus and method thereof | |
US10596707B2 (en) | Article transfer device | |
CN105554439A (en) | Modification of at least one parameter used by a video processing | |
US8901855B2 (en) | LED light illuminating control system and method | |
JP2000175176A (en) | Supervisory method for mobile object and image supervisory device | |
US9571740B2 (en) | Image recognition device that recognizes specific object area, method of controlling the device, and storage medium, as well as image pickup apparatus, and display device | |
CN109427075A (en) | Biological information analytical equipment and its eye shadow analysis method | |
JP2014086149A (en) | Identification device, identification method, and program | |
CN106933343A (en) | Apparatus and method for recognizing the gesture in virtual reality head-wearing device | |
JP2015194901A (en) | Track device and tracking system | |
CN109427078A (en) | Biological information analytical equipment and its lip adornment analysis method | |
JP5561361B2 (en) | Biometric authentication device, biometric authentication program and method | |
CN110596115B (en) | Image inspection system and control method thereof | |
JPWO2021015869A5 (en) | ||
KR20180092033A (en) | Component registration device | |
CN109712065A (en) | Biological information analytical equipment and its shape of face analogy method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110222 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20120111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120612 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5403779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |