JP2005056213A - System, server and method for providing information - Google Patents
System, server and method for providing information Download PDFInfo
- Publication number
- JP2005056213A JP2005056213A JP2003287337A JP2003287337A JP2005056213A JP 2005056213 A JP2005056213 A JP 2005056213A JP 2003287337 A JP2003287337 A JP 2003287337A JP 2003287337 A JP2003287337 A JP 2003287337A JP 2005056213 A JP2005056213 A JP 2005056213A
- Authority
- JP
- Japan
- Prior art keywords
- information
- article
- image data
- situation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000012545 processing Methods 0.000 claims abstract description 107
- 238000003384 imaging method Methods 0.000 claims description 40
- 238000001514 detection method Methods 0.000 claims description 20
- 235000011389 fruit/vegetable juice Nutrition 0.000 description 28
- 230000005540 biological transmission Effects 0.000 description 11
- 230000007613 environmental effect Effects 0.000 description 10
- 238000012544 monitoring process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000011410 subtraction method Methods 0.000 description 5
- 235000012054 meals Nutrition 0.000 description 4
- 230000000873 masking effect Effects 0.000 description 3
- 230000000474 nursing effect Effects 0.000 description 3
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、所定の空間内の状況に関する情報を提供する情報提供システム、情報提供サーバ、情報提供方法に関する。 The present invention relates to an information providing system, an information providing server, and an information providing method for providing information related to a situation in a predetermined space.
例えば特許文献1には、所定の空間(託児所)内の状況に関する情報として、子供の様子を撮像した画像データを提供するシステムが開示されている。
For example,
この情報提供(監視)システムは、託児所内の子供を撮像するカメラを制御する撮像制御手段を有していて、ユーザからのリクエストに応じて、撮像制御手段は、そのユーザの子供を撮像するカメラアングルを定め、ズームアップした画像を撮像し、その画像をネットワークを介してユーザに配信するシステムに構成されている。この構成により、配信される画像には我が子のみが含まれて他人の子供は含まれないため、お互いの子供のプライバシーを保護しつつ、ユーザは託児所内の我が子の様子を確認することができる。
上記特許文献1に開示された情報提供システムは、プライバシーの保護を目的としてカメラアングル及びズームアップを制御することにより、空間内の特定の人を撮像するシステムである。つまり、特許文献1に開示された情報提供システムは、含まれる情報を一つに制限した画像データを撮像するシステムであるため、例えば、他人の子供は画像に含まれない一方で、託児所内全体を様子と我が子の様子との双方を画像に含めるといった対応が不可能である。
The information providing system disclosed in
本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、一般家庭、託児所、介護施設、病院、オフィス、ホテル及び店舗、等の様々な空間に適用されて、その空間内の状況に関する情報を提供する情報提供システムであって、提供する情報の内容やレベルを適宜変更可能なシステムを実現することにある。 The present invention has been made in view of such points, and the object of the present invention is to be applied to various spaces such as general households, daycare, nursing care facilities, hospitals, offices, hotels and stores, and the like. It is an information providing system that provides information related to the situation in the space, and is to realize a system that can appropriately change the content and level of the information to be provided.
本発明は、所定の空間内を撮像した画像データを空間内の状況に応じて加工するものである。 The present invention processes image data obtained by imaging a predetermined space in accordance with the situation in the space.
本発明の情報提供システムは、所定の空間内の状況に関する情報を提供するシステムである。 The information providing system of the present invention is a system that provides information about a situation in a predetermined space.
この情報提供システムは、上記空間内を撮像する撮像手段と、上記撮像手段が撮像した空間内の状況を特定する特定手段と、上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識手段と、上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベースと、上記加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段と、上記加工された画像データを表示する表示手段と、を備える。 The information providing system includes an imaging unit that images the inside of the space, a specifying unit that specifies a situation in the space captured by the imaging unit, and a moving body and / or article included in image data captured by the imaging unit. The identifying means identified by referring to the recognizing means for recognizing the information, the processing content management database storing the situation in the space and the processing content of the image data in association with each other, and the processing content management database Processing means for processing image data captured by the imaging means using the recognition result of the recognition means in accordance with the processing content corresponding to the situation, and display means for displaying the processed image data.
ここで、移動体とは、人、動物、ロボット、等を含み、空間内において種々の活動を行うものをいう。 Here, the moving body includes a person, an animal, a robot, and the like, and performs various activities in the space.
この構成によると、撮像手段が空間内を撮像したときには、特定手段はその空間内の状況を特定し、認識手段は画像データに含まれる移動体及び/又は物品についての情報を認識する。 According to this configuration, when the imaging unit images the inside of the space, the specifying unit specifies the situation in the space, and the recognition unit recognizes information about the moving object and / or the article included in the image data.
そして、加工手段は、加工内容管理データベースを参照して、上記特定手段によって特定された状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する。こうして、画像データが空間内の状況に応じて加工され、それによって、必要な情報は画像データに含めつつ、不要な情報は画像データから削除する等の加工が可能になる。 Then, the processing unit refers to the processing content management database and processes the image data captured by the imaging unit using the recognition result of the recognition unit according to the processing content corresponding to the situation specified by the specifying unit. . In this way, the image data is processed according to the situation in the space, whereby it is possible to perform processing such as deleting necessary information from the image data while including necessary information in the image data.
こうして加工された画像データは、表示手段によって表示される。ユーザは、表示された画像データによって、空間内の状態を確認することができる。 The processed image data is displayed by the display means. The user can check the state in the space from the displayed image data.
上記情報提供システムは、ユーザ操作に応じて画像データの表示要求信号を出力する操作手段をさらに備え、上記加工内容管理データベースは、ユーザ情報及び空間内の状況と、画像データの加工内容とを対応付けて記憶し、上記加工手段は、上記表示要求信号を受けて、その表示要求信号の出力に係るユーザの情報を取得し、当該ユーザ情報と特定手段が特定した状況とに対応する加工内容に従って画像データを加工してもよい。 The information providing system further includes operation means for outputting a display request signal for image data in response to a user operation, and the processing content management database corresponds to the user information and the situation in the space and the processing content of the image data. The processing means receives the display request signal, acquires the user information related to the output of the display request signal, and according to the processing content corresponding to the user information and the situation specified by the specifying means Image data may be processed.
上記加工内容管理データベースは、空間内の状況として、当該空間の属性と、当該空間内に存在する移動体及び/又は物品の属性との組合せを記憶してもよい。 The processing content management database may store a combination of an attribute of the space and an attribute of a moving object and / or an article existing in the space as a situation in the space.
上記情報提供システムは、空間内に存在する移動体及び/又は物品を検出するセンシング手段をさらに備え、上記特定手段は、上記センシング手段の検出結果に基づいて、空間内の状況を特定し、上記認識手段は、撮像手段が撮像した画像データ及び/又は上記センシング手段の検出結果に基づいて画像データに含まれる移動体及び/又は物品についての情報を認識してもよい。 The information providing system further includes sensing means for detecting a moving object and / or article existing in the space, and the specifying means specifies a situation in the space based on a detection result of the sensing means, and The recognizing unit may recognize information about the moving object and / or the article included in the image data based on the image data captured by the imaging unit and / or the detection result of the sensing unit.
上記認識手段は、移動体及び/又は物品についての情報を複数の情報レベル毎に認識し、上記加工内容管理データベースは、空間内の状況と、その状況に応じて選択された情報レベルの認識結果が加工後の画像データに含まれるよう設定された加工内容とを対応付けて記憶してもよい。 The recognition means recognizes information about the moving object and / or article for each of a plurality of information levels, and the processing content management database recognizes the situation in the space and the recognition result of the information level selected according to the situation. May be stored in association with the processing content set to be included in the processed image data.
ここで、情報レベルとは、画像データに含まれる大量の情報を、個別に分けたものである。例えば画像データに移動体が含まれるときには、1)移動体の存在の有無、2)移動体が何(誰)であるか(移動体の属性)、3)移動体の位置、4)移動体の顔の位置、5)移動体の輪郭形状、6)移動体が何をしているか(移動体の動作)、等が、情報レベルの例示として挙げられる。 Here, the information level is obtained by individually dividing a large amount of information included in image data. For example, when a moving object is included in the image data, 1) presence / absence of the moving object, 2) what (who) the moving object (attribute of the moving object), 3) position of the moving object, 4) moving object Examples of information levels include the position of the face, 5) the contour shape of the moving body, 6) what the moving body is doing (movement of the moving body), and the like.
上記情報提供システムは、上記撮像手段が撮像した画像データと認識手段が認識した認識結果とを対応付けて蓄積する画像管理データベースをさらに備え、上記加工手段は、上記画像管理データベースに蓄積されている画像データを、上記画像管理データベースに蓄積されている認識結果を用いて加工してもよい。 The information providing system further includes an image management database that stores the image data captured by the imaging unit and the recognition result recognized by the recognition unit in association with each other, and the processing unit is stored in the image management database. The image data may be processed using the recognition result stored in the image management database.
本発明の情報提供サーバは、所定の空間内の状況に関する情報を提供するサーバである。 The information providing server of the present invention is a server that provides information related to a situation in a predetermined space.
この情報提供サーバは、撮像手段が撮像した空間内の状況を特定する特定手段と、上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報の認識を行う認識手段と、上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段と、上記加工された画像データを出力する出力手段と、を備える。 The information providing server includes a specifying unit for specifying a situation in a space captured by the imaging unit, a recognition unit for recognizing information about a moving object and / or an article included in the image data captured by the imaging unit, By referring to the processing content management database that stores the situation in the space and the processing content of the image data in association with each other, according to the processing content corresponding to the situation specified by the specifying unit, using the recognition result of the recognition unit Processing means for processing image data picked up by the image pickup means, and output means for outputting the processed image data.
本発明の情報提供方法は、所定の空間内の状況に関する情報を提供する方法である。 The information providing method of the present invention is a method for providing information related to a situation in a predetermined space.
この情報提供方法は、上記空間内を撮像する撮像ステップと、上記撮像ステップで撮像した空間内の状況を特定する特定ステップと、上記撮像ステップで撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識ステップと、上記特定ステップで特定した状況に対応して設定された加工内容に従い、上記認識ステップの認識結果を用いて上記撮像ステップで撮像した画像データを加工する加工ステップと、上記加工ステップで加工した画像データを表示する表示ステップと、を含む。 The information providing method includes an imaging step of imaging the space, a specifying step of specifying a situation in the space imaged in the imaging step, and a moving object and / or article included in the image data captured in the imaging step A recognition step for recognizing information about the image, and a processing step for processing the image data captured in the imaging step using the recognition result in the recognition step according to the processing content set in correspondence with the situation specified in the specifying step And a display step for displaying the image data processed in the processing step.
本発明の情報提供システム、情報提供サーバ、情報提供方法によれば、撮像した画像データを空間内の状況に応じて加工することによって提供する情報の内容やレベルが変更可能になり、それによって必要な情報を画像データに含めつつ、不要な情報は画像データから削除するといった、柔軟な対応を実現することができる。 According to the information providing system, the information providing server, and the information providing method of the present invention, it is possible to change the content and level of information to be provided by processing captured image data according to the situation in the space, thereby making it necessary. It is possible to realize a flexible response such that unnecessary information is included in the image data and unnecessary information is deleted from the image data.
以下、本発明の実施の形態について、図面を参照しながら説明する。本発明に係る情報提供システム(監視システム)は、所定の空間において物品及び人(移動体)の管理をする物品/移動体管理システムに含まれるシステムである。この監視システムは、物品/移動体管理システムで用いられる撮像手段(センシング手段)を利用して、空間内の監視を行う。尚、所定の空間は、一般家庭、託児所、介護施設、オフィス、ホテル、店舗及び病院等の、人が活動を行う空間(生活空間)であり、本実施の形態では、一般家庭を対象空間とする。また、一般家庭における部屋一つ一つを空間として、その各空間(部屋)を環境と呼ぶ。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. An information providing system (monitoring system) according to the present invention is a system included in an article / moving body management system that manages articles and people (moving bodies) in a predetermined space. This monitoring system monitors the space using an imaging means (sensing means) used in the article / moving body management system. Note that the predetermined space is a space (a living space) in which a person performs an activity such as a general home, a daycare, a nursing facility, an office, a hotel, a store, and a hospital. In the present embodiment, the target space is a general home. And In addition, each room in a general home is called a space, and each space (room) is called an environment.
上記物品/移動体管理システムは、図1に示すように、環境管理サーバ101 (以下、単にサーバと省略することもある)、作業ロボット102 (以下、単にロボットと省略することもある)、及び操作端末103 の大きく分けて3つのサブシステムから構成される。これら3つのサブシステム101 〜103 は、無線又は有線のネットワークを介して接続されていて、このネットワークを介して情報のやり取りを行うように構成される。
As shown in FIG. 1, the article / moving body management system includes an environment management server 101 (hereinafter simply abbreviated as a server), a work robot 102 (hereinafter abbreviated as a robot), and The
3つのサブシステム101 〜103 はそれぞれ、制御手段110 ,115 ,119 と送受信手段109 とを備える。各サブシステム101 〜103 の送受信手段109 は処理が同じであるため、同じ符号を付すことにする。
Each of the three
ここで、物品とは、人や作業ロボット102 によって取り扱われるものをいう。また、人及び作業ロボット102 は物品の取り扱いを行うものであり、以下、これら総称して移動体と呼ぶ。さらに、物品の取り扱いを行っている移動体を、物品取扱主体と呼ぶ。
Here, the article refers to an item handled by a person or
−センシング手段の構成−
物品/移動体管理システムは、各環境内の状況を把握するセンシング手段120 を備えており、このセンシング手段120 は、1番目のサブシステムである環境管理サーバ101 に接続される。
-Configuration of sensing means-
The article / moving body management system includes sensing means 120 for grasping the situation in each environment, and the sensing means 120 is connected to the
上記センシング手段120 は、各環境の出入口の状況を検出する出入口センシング手段121 と、各環境内の状況を検出する環境内センシング手段122 とから構成される。 The sensing means 120 includes an entrance / exit sensing means 121 for detecting the state of the entrance / exit of each environment and an in-environment sensing means 122 for detecting the situation in each environment.
(出入口センシング手段)
上記出入口センシング手段121 は、環境に対して物品及び移動体が出入したことを検出するものである。出入口センシング手段121 は、環境毎に設置される。
(Entrance / entrance sensing means)
The entrance / exit sensing means 121 detects that an article and a moving body have entered and exited the environment. The entrance / exit sensing means 121 is installed for each environment.
この出入口センシング手段121 としては、電子タグとリーダライタとからなるものを採用することができる。 As the entrance / exit sensing means 121, a device comprising an electronic tag and a reader / writer can be employed.
電子タグとはデータを蓄えるICとデータを無線で送受信するアンテナとから構成されるデバイスであり、リーダライタとは電子タグに書き込まれた情報を読みとったり、電子タグに情報を書き込んだりすることのできる装置である。 An electronic tag is a device composed of an IC that stores data and an antenna that transmits and receives data wirelessly. A reader / writer reads information written to the electronic tag and writes information to the electronic tag. It is a device that can.
この電子タグとリーダライタとからなる出入口センシング手段121 は、例えば図2に示すように、環境と外部との出入口である窓51及びドア52の開口部それぞれに、ゲート型のリーダライタ(RFアンテナ)41,42を配設して構成される。
For example, as shown in FIG. 2, the entrance / exit sensing means 121 composed of the electronic tag and the reader / writer has a gate type reader / writer (RF antenna) at each of the openings of the
また、この出入口を通過する全ての物品には、予め上記電子タグが付される。この電子タグには、その物品に関するデータ、例えば物品の種類、形状、重さ、その物品の画像、製造年月日等のデータを埋め込むのがよい。 In addition, the electronic tag is attached in advance to all articles that pass through the doorway. The electronic tag may be embedded with data relating to the article, such as data such as the kind, shape, weight, article image, date of manufacture, etc. of the article.
さらに、この出入口を通過する移動体にも、予め電子タグが付される。人に付す電子タグは、その人が常時携帯するもの(例えば腕時計や指輪等)に埋め込んでもよい。移動体に付す電子タグには、その移動体に関するデータ、例えば人の名前や生年月日等の情報を書き込むのがよい。 Further, an electronic tag is also attached in advance to the moving body that passes through the doorway. An electronic tag attached to a person may be embedded in something that the person always carries (for example, a wristwatch or a ring). It is preferable to write data relating to the moving body, for example, information such as a person's name and date of birth on the electronic tag attached to the moving body.
出入口センシング手段121 をこのように構成することによって、物品や移動体がこの窓51やドア52を通過するときには、その出入口に設置されたリーダライタ41,42が、物品や移動体に取り付けられた電子タグからの情報を読み取ることになる。こうして、電子タグからの情報を読み取ることによって、出入口センシング手段121 は、物品及び移動体が出入口を通過したことを検出することができる。
By configuring the entrance / exit sensing means 121 in this way, when the article or the moving body passes through the
また、上記リーダライタを出入口に対して二重に設置すれば、出入口センシング手段121 は、物品及び移動体が環境内に入ったのか、環境内から出たのかを区別して検出することができる。 Further, if the reader / writer is installed twice with respect to the entrance / exit, the entrance / exit sensing means 121 can detect whether the article and the moving body have entered the environment or the exit from the environment.
つまり、図示は省略するが、第1のリーダライタを環境外である、窓51やドア52の開口部の外側に設置する一方で、第2リーダライタを環境内である、窓51やドア52の開口部の内側に設置するのである。この構成によって、環境の外側に設置された第1リーダライタが電子タグからの情報を検出した後に、内側に設置された第2リーダライタが電子タグからの情報を検出したときには、その電子タグが取り付けられた物品又は移動体は、外部から環境内に入ったと特定することができる。逆に、環境の内側に設置された第2リーダライタが電子タグからの情報を検出した後に、外側に設置された第1リーダライタが電子タグからの情報を検出したときには、その電子タグが取り付けられた物品又は移動体は、環境内から外部に出たと特定することができる。
That is, although illustration is omitted, the first reader / writer is installed outside the opening of the
尚、図2では、窓51やドア52の開口部の上下左右を囲むようにリーダライタ41,42を設置しているが、これは電子タグの向きに依存せず高精度の検出を行なうためであり、リーダライタ41,42は、窓51やドア52の上下位置のみ、左右位置のみ、又はその中央位置に設置してもよい。
In FIG. 2, the reader /
尚、出入口センシング手段121 は、電子タグとリーダライタとからなるものに限らず、その他の構成のものを採用してもよい。 Note that the entrance / exit sensing means 121 is not limited to the one composed of the electronic tag and the reader / writer, and may have other configurations.
(環境内センシング手段)
上記環境内センシング手段122 は、環境内に存在する物品や設備(家具等を含む)、及び人やロボット102 の位置と状態とを常時検出するものであり、環境毎に設置される。環境内センシング手段122 は、ここでは画像センサを用いたものに構成される。つまり、この環境内センシング手段122 は、部屋の天井や壁等に固定されて環境内の様子を撮像するカメラを備えており、このカメラが撮像したカメラ画像によって、環境内の物品及び移動体の検出が行われる。
(Environmental sensing means)
The in-environment sensing means 122 constantly detects the articles and equipment (including furniture etc.) existing in the environment, and the positions and states of people and the
ここで、物品及び移動体を検出する方法について説明する。カメラ画像を用いて環境内の物品や移動体を検出する一般的な方法の一つに、背景差分法があり、環境内センシング手段122 としては、その背景差分法を利用することができる。この背景差分法とは、背景としてのモデル画像を予め用意しておき、現在のカメラ画像と上記モデル画像との差分を取ることによって、対象物を検出する方法である。環境内センシング手段122 は、環境内に存在する物品や移動体を検出するため、モデル画像としては、環境の状況変動が少ない場合は、その環境内に物品・移動体が存在していないときに撮像した画像を用いればよい。尚、環境の状況変動が激しい場合は、所定の時間間隔を空けて撮影された複数の画像を平均して得られた画像を、モデル画像として用いればよい。 Here, a method for detecting an article and a moving body will be described. One common method for detecting articles and moving objects in the environment using camera images is the background difference method, and the background difference method can be used as the environment sensing means 122. The background difference method is a method of detecting a target object by preparing a model image as a background in advance and taking a difference between the current camera image and the model image. Since the environmental sensing means 122 detects articles and moving objects present in the environment, the model image may be displayed when there are no articles or moving objects in the environment if there is little environmental fluctuation. What is necessary is just to use the imaged image. In the case where the environmental situation changes greatly, an image obtained by averaging a plurality of images taken with a predetermined time interval may be used as a model image.
具体的に、背景差分法による物品及び移動体の検出方法について、図3を参照しながら説明する。ここで、図3(a)はモデル画像の例を示す図であり、図3(b)はある時点でカメラが撮影した画像(入力画像)を示す図であり、図3(c)は、入力画像からモデル画像を差し引くことによって得られた背景差分画像の例を示す図である。図3(c)から分かるように、背景差分画像では、入力画像とモデル画像との差のある部分が浮き出てくる(同図の網掛けの領域参照(差分領域))。このため、その浮き出た部分のみをそれぞれ取り出すことで環境内に存在する物品又は移動体を検出することができる。さらに、その画像を画像処理することによって、その物品又は移動体が何であるかを特定する(この処理は、後述する物品/移動体検索・管理手段105 が行う)。このように、背景差分法を用いることによって、環境内の物品及び移動体の状況を検出することが可能になる。さらに、環境内に2つのカメラを設けるようにすれば、ステレオ視による三次元計測技術を用いて物品の形状及び姿勢の情報を取得することも可能になる。 Specifically, an article and moving object detection method based on the background subtraction method will be described with reference to FIG. Here, FIG. 3A is a diagram showing an example of a model image, FIG. 3B is a diagram showing an image (input image) taken by the camera at a certain point, and FIG. It is a figure which shows the example of the background difference image obtained by deducting a model image from an input image. As can be seen from FIG. 3C, in the background difference image, a portion having a difference between the input image and the model image appears (shaded area reference (difference area) in FIG. 3). For this reason, the articles | goods or moving body which exists in an environment can be detected by taking out only the part which protruded, respectively. Further, the image is processed to identify what the article or moving body is (this processing is performed by the article / moving body search / management means 105 described later). As described above, by using the background subtraction method, it is possible to detect the status of articles and moving objects in the environment. Furthermore, if two cameras are provided in the environment, it becomes possible to acquire information on the shape and orientation of the article using a three-dimensional measurement technique based on stereo vision.
上述した電子タグ及びリーダライタを用いれば、電子タグに埋め込まれた情報によって物品及び移動体の特定が容易に行い得ることから、環境内センシング手段122 は、画像センサと電子タグとの双方を用いるものとすることも可能である。つまり、上述した背景差分法によって、環境内の物品及び移動体の位置を特定し、さらに電子タグを使ってその物品及び移動体を特定するというハイブリッド処理を行うのである。具体的な処理として、以下の2つの例を挙げることができる。 If the above-described electronic tag and reader / writer are used, the article and the moving body can be easily identified by the information embedded in the electronic tag. Therefore, the environmental sensing means 122 uses both the image sensor and the electronic tag. It is also possible. That is, a hybrid process is performed in which the position of the article and the moving object in the environment is specified by the background difference method described above, and the article and the moving object are specified using the electronic tag. The following two examples can be given as specific processing.
一つの例は、環境内の天井や壁等にカメラを設置し、作業ロボット102 にはリーダライタを取り付けて環境内センシング手段122 を構成する。また、各物品及び移動体には電子タグを取り付けておく。そして、上記カメラ画像を用いた背景差分法によって、環境内の物品又は移動体の位置を特定する。次に、位置特定した物品又は移動体の近傍に上記ロボット102 を移動させて、そのロボット102 に取り付けたリーダライタによって、その物品又は移動体に取り付けられた電子タグから情報を読みとり、その物品又は移動体を特定する。
In one example, a camera is installed on a ceiling or wall in the environment, and a reader / writer is attached to the
もう一つの例は、環境内の天井や壁等にカメラを設置し、その環境内に複数個のリーダライタを略均等に設置して環境内センシング手段122 を構成する。このリーダライタは、電子タグのデータ読みとりに関して指向性を有しかつ、その読み取り方向が可変であるものとする。そして、上記カメラ画像を用いた背景差分法によって、環境内の物品又は移動体の位置を特定する。次に、位置特定した物品又は移動体に対し最も近い位置に設置されたリーダライタを選択すると共に、そのリーダライタの読みとり方向をその物品又は移動体に向ける。こうして、その物品又は移動体に取り付けられた電子タグから情報を読み取り、その物品又は移動体を特定する。 In another example, the in-environment sensing means 122 is configured by installing cameras on a ceiling or a wall in the environment and installing a plurality of reader / writers in the environment substantially evenly. The reader / writer is assumed to have directivity with respect to data reading of the electronic tag and the reading direction is variable. Then, the position of the article or moving body in the environment is specified by the background subtraction method using the camera image. Next, a reader / writer installed at a position closest to the specified article or moving body is selected, and the reading direction of the reader / writer is directed to the article or moving body. In this way, information is read from the electronic tag attached to the article or moving body, and the article or moving body is specified.
上記センシング手段120 は、以上のようにして物品又は移動体を検出したときには、その検出結果を、サーバ101 の物品/移動体検索・管理手段105 に送信する。
When the sensing means 120 detects an article or a moving body as described above, the sensing result is transmitted to the article / moving body search / management means 105 of the
−環境管理サーバの構成−
環境管理サーバ101 は、図1に示すように、上記各出入口センシング手段121 及び環境内センシング手段122 によって把握した状況のうち、環境内に存在する物品と移動体との状況を管理する物品/移動体検索・管理手段105 及びその物品及び移動体のデータを蓄積する物品/移動体データベース160 と、上記物品及び移動体以外の環境全体の状況を管理する環境マップ管理手段107 及びその環境全体のデータを蓄積する環境マップ108 と、カメラの撮像した画像データ等を蓄積する画像管理データベース106 及び画像管理データベース106 に蓄積するデータの管理をする画像管理手段104 と、物品/移動体データベース160 のデータや環境マップ108 のデータの問い合わせ(信号)を外部から受信したり、その応答信号を外部に発信したり、また、ロボット102 に対する制御コマンドを送信したりする送受信手段109 と、これらの手段104 ,105 ,107 ,109 をコントロールする制御手段110 とからなる。
-Configuration of environmental management server-
The
この環境管理サーバ101 としては汎用コンピュータを用いることが可能である。この場合は、後述する各処理を実行する制御プログラムをコンピュータが読み込むことによって、そのコンピュータを環境管理サーバ101 として用いることが可能になる。
As the
(物品/移動体検索・管理手段)
物品/移動体検索・管理手段105 は、センシング手段120 によって検出された各物品及び移動体の情報を、物品/移動体データベース(DB)160 に蓄積するものである。
(Goods / mobile object search / management means)
The article / moving body search / management means 105 accumulates information on each article and moving body detected by the sensing means 120 in an article / moving body database (DB) 160.
また、物品/移動体検索・管理手段105 は、センシング手段120 の検出結果に基づいて、物品及び移動体の特定し、それらの特定結果を上記物品/移動体DB160 に蓄積する。こうして、物品及び移動体の特定をすることによって、環境内の状況を特定する。
The article / moving body search / management means 105 identifies the article and the moving body based on the detection result of the sensing means 120, and accumulates the identification results in the article / moving
さらに、上記物品/移動体検索・管理手段105 は、制御手段110 から物品/移動体DB160 に問い合わせがあった場合に、その問い合わせの内容に応じて必要な情報を物品/移動体DB160 から取り出し、その情報を制御手段110 に送ることも行う。
Further, when there is an inquiry from the control means 110 to the article /
上記物品/移動体検索・管理手段105 は、図4に示すように、それぞれセンシング手段120 の検出結果を受けて、物品を特定する物品特定手段32及び移動体を特定する移動体特定手段33と、を備える。 As shown in FIG. 4, the article / moving body search / management means 105 receives the detection result of the sensing means 120, and identifies an article specifying means 32 for specifying an article and a moving body specifying means 33 for specifying a moving body. .
上記物品特定手段32は、上記センシング手段120 によって検出された物品が何であるかを特定し、その物品の情報を物品/移動体DB160 に蓄積するものである。この物品特定手段32は、上述したように、センシング手段120 が電子タグとリーダライタを用いたものであるときには、その電子タグからの情報に基づいて物品の特定をする。また、センシング手段120 がカメラ画像を用いたものであるときには、そのカメラ画像に基づいて物品の認識処理を行い、その物品の特定を行う。
The
上記移動体特定手段33は、上記センシング手段120 によって検出された移動体が誰であるかを特定し、その移動体の情報を物品/移動体DB160 に蓄積するものである。
The moving body specifying means 33 specifies who is the moving body detected by the sensing means 120 and accumulates information on the moving body in the article / moving
この移動体特定手段33は、上述したように、センシング手段120 が電子タグとリーダライタを用いたものであるときには、その電子タグからの情報に基づいて移動体の特定をする。
As described above, when the
また、センシング手段120 がカメラ画像を用いたものであるときには、そのカメラ画像に基づいて移動体の認証処理を行い、その移動体の特定を行う。具体的には、カメラに移動体が存在する領域を撮像させ、その撮像した画像に対して顔認証処理を行い、その認証処理によって移動体を特定する。ここで、環境内センシング手段122 として用いるカメラは、環境内の全体を撮像するカメラであるため、通常、広域を撮影する広角カメラである。この広角カメラの撮像画像は解像度が比較的低く、顔認証処理を行なうには解像度が足りない場合がある。そこで、背景差分法に用いるカメラとは別に、顔認証処理用のカメラとして狭角の高分解能カメラを、環境内に設置又はロボット102 に設置してもよい。この場合、移動体特定手段33は、狭角カメラに移動体が存在する領域を撮像させ、その撮像した画像に対して顔認証処理を行う。こうすることにより、移動体特定手段33は物品取扱主体を精度よく特定することができる。尚、移動体特定手段33における移動体の特定方法は、顔認証処理に限らず、例えば虹彩認証等のその他の認証処理によって行ってもよい。
When the sensing means 120 uses a camera image, the mobile body is authenticated based on the camera image and the mobile body is specified. Specifically, the camera captures an area where the moving body is present, performs face authentication processing on the captured image, and identifies the moving body by the authentication processing. Here, since the camera used as the in-environment sensing means 122 is a camera that captures the entire environment, it is usually a wide-angle camera that captures a wide area. The captured image of this wide-angle camera has a relatively low resolution, and there are cases where the resolution is insufficient to perform face authentication processing. Therefore, apart from the camera used for the background subtraction method, a narrow-angle high-resolution camera may be installed in the environment or the
また、物品/移動体検索・管理手段105 は、物品が移動体によって取り扱われていることを検出し、この場合は、物品とそれを取り扱う移動体(物品取扱主体)とをそれぞれ特定する。 Further, the article / moving body search / management means 105 detects that the article is handled by the moving body, and in this case, identifies the article and the moving body (article handling entity) that handles the article.
(物品/移動体データベース)
環境管理サーバ101 の物品/移動体DB160 は、物品及び移動体の情報を蓄積するDBであり、例えば図5,図6に示すように構成される。つまり、この物品/移動体DB160 は、物品を扱う物品データベース61(図5)と、移動体を扱う移動体データベース62(図6)とからなる。後述するように、物品/移動体DB160 に蓄積される情報は、環境内の状況を特定する際にも利用される。
(Article / Moving Object Database)
The article / moving
物品DB61は、物品データ611 、物品履歴データ612 、物品属性データ613 の3種類のデータをそれぞれ蓄積するサブデータベースからなる。各サブデータベースに蓄積されるデータ内容は以下の通りである。
The
1)物品データ611 :個々の物品を区別するためのID、物品履歴データへのポインタ、物品の属性が記載された物品属性データへのポインタ、が蓄積される。ここで、複数の物品について、その種類が同じであっても物理的に別の存在であれば、それらはそれぞれ別の物品として扱うため異なるIDが割り当てられると共に、異なる物品属性データへのポインタを持つ。一方、種類が同じ物品は同じ物品属性を持つため、異なるIDが割り当てられていても、同じ物品属性データへのポインタを持つ。これにより、データベースの容量を節約する。 1) Article data 611: An ID for distinguishing individual articles, a pointer to article history data, and a pointer to article attribute data describing the attributes of the article are stored. Here, if a plurality of articles are of the same type but are physically different, different IDs are assigned to treat them as different articles, and pointers to different article attribute data are set. Have. On the other hand, since articles of the same type have the same article attributes, they have pointers to the same article attribute data even if different IDs are assigned. This saves database capacity.
2)物品履歴データ612 :環境内において物品が取り扱われた履歴を格納するもので、取り扱われた時刻(取り扱い日時)、取扱内容、物品取扱主体、取扱い後の位置、の4項目からなる。この内、取扱内容は、新規、移動等と表される。また、位置データの表し方としては種々の表現が考えられるが、ここでは、図5に示すように、6つのパラメータで位置を表現することとする。つまり、最初の3つのパラメータ(x1 ,y1 ,z1)は物品の位置(重心位置等を用いる)を表し、後の3つのパラメータ(α1 ,β1 ,γ1 )は、物品の向きを表す。物品の位置及び姿勢は、センシング手段120 又は作業ロボット102 のセンサ111 によって取得する。また、物品履歴データにおける物品取扱主体は、上記移動体特定手段33によって特定された移動体である。物品履歴データでは、「取扱後の位置」における最新のデータが、物品の現在位置の情報となる。
2) Article history data 612: Stores the history of handling articles in the environment, and consists of four items: handling time (handling date and time), handling contents, handling subject, and position after handling. Among these, the handling contents are expressed as new, movement, and the like. In addition, various representations of the position data can be considered. Here, the position is represented by six parameters as shown in FIG. That is, the first three parameters (x1, y1, z1) represent the position of the article (using the center of gravity position or the like), and the latter three parameters (α1, β1, γ1) represent the direction of the article. The position and orientation of the article are acquired by the sensing means 120 or the
3)物品属性データ613 :物品が有する物理的な属性情報を格納するもので、属性情報の例としては、図5に示すように、物品の重さ、形状モデル・サイズが挙げられる。こうした属性情報は、物品に取り付けられた電子タグから取得してデータベースに格納してもよいし、ユーザが手動で入力した情報をデータベースに格納してもよい。 3) Article attribute data 613: This stores physical attribute information possessed by an article. Examples of attribute information include the weight of the article and the shape model size as shown in FIG. Such attribute information may be acquired from an electronic tag attached to the article and stored in a database, or information manually input by a user may be stored in the database.
移動体DB62は、図6に示すように、移動体データ621 、移動体履歴データ622 、及び移動体属性データ(図示省略)の3種類のデータをそれぞれ蓄積するサブデータベースからなり、各サブデータベースに蓄積されるデータ内容は以下の通りである。
As shown in FIG. 6, the
1)移動体データ621 :個々の移動体を区別するためのID、移動体履歴データへのポインタが蓄積される。移動体データ621 に格納される移動体は、ユーザが手動で予め登録するようにすればよい。
1) Mobile object data 621: An ID for distinguishing individual mobile objects and a pointer to mobile object history data are stored. The mobile body stored in the
2)移動体履歴データ622 :移動体の、ある時刻における位置と、その時刻における状態との3項目からなる。ここで、移動体は、物品とは異なり空間内に占める体積が大きく、ロボット102 が環境内を移動するときの障害物となる。このため、移動体の位置はできるだけ現実に則した表現が好ましい。ここでは、床面上で移動体が占めるおおよその領域を円で表すこととする。すなわち、円の中心位置のXY座標(x4 ,y4)と円の半径(r1)で移動体の位置を表す。これは、ロボット102 が障害物を避けつつ経路作成が可能となる一方で、移動体の位置を必要最小限の情報で表すためである。尚、移動体が占める領域は、さらに厳密な表現をしてもよい。例えば移動体の床面上で占める領域の輪郭を近似する複数個の線分ベクトルを使って、移動体の位置を表現してもよい。
2) Moving object history data 622: It consists of three items: the position of the moving object at a certain time and the state at that time. Here, unlike the article, the moving body occupies a large volume in the space and becomes an obstacle when the
また、移動体履歴データにおける移動体の状態とは、その移動体が人であれば、「座る」「立つ」「寝る」「歩く」等の一般的な人の動作を表し、移動体がロボット102 であれば、「把持」「解放」等のロボット102 が物品に対して行う動作を表す。例えば移動体の状態となり得る状態候補を予め複数用意しておき、センシング手段120 による検出結果等に基づいて移動体の状態がどの状態候補に当てはまるかを判断すればよい。尚、ロボット102 に関する移動体履歴データでは、その動作だけでなく、作業対象の物品IDと併せて「物品ID:動作内容」として格納する。具体的には、「kan-small-0001:把持」となる。
In addition, the state of the moving object in the moving object history data represents general human actions such as “sitting”, “standing”, “sleeping”, and “walking” if the moving object is a person. 102 represents an operation performed by the
3)移動体属性データ:移動体が有する共有の属性情報を蓄積するものであり、移動体属性データとしては、移動体の重さや形状等の物理属性が挙げられる。この移動体属性データは、センシング手段120 (電子タグとリーダライタ)によって取得することが可能である。また、手動でこれらの情報を入力してもよい。 3) Mobile object attribute data: Accumulated shared attribute information possessed by the mobile object. Examples of the mobile object attribute data include physical attributes such as the weight and shape of the mobile object. This mobile attribute data can be acquired by the sensing means 120 (electronic tag and reader / writer). Moreover, you may input such information manually.
この物品/移動体DB160 へのアクセスは、物品/移動体検索・管理手段105 にのみ許可されており、これにより、同じ物品又は移動体データに対する書き込みと読み出しとが同時に行われないようにする。
Access to the article /
次に、センシング手段120 によって検出された物品や、人及びロボット102 等の移動体の情報が、物品/移動体検索・管理手段105 によって、どのように物品/移動体DB160 に格納されるか、また、その物品/移動体DB160 のデータがどのように更新されていくかについて、図5〜7を参照しながら具体的に説明する。
Next, how the article detected by the sensing means 120 and information on the moving body such as the person and the
図7は、一般家庭における、ある部屋(環境)内を示す俯瞰図であって、2つの缶ジュース21,22が、この部屋に対して出入すると共に、これらの缶ジュース21,22が環境内を移動される様子を示す図である。
FIG. 7 is an overhead view showing the inside of a room (environment) in a general home. Two can
同図において、各缶ジュース21,22の移動は矢線によって示され、これらの矢線に付されているt1,t2,t5,t6,の文字は、矢線に従って缶ジュースが移動された時刻を示す。時刻は、t1〜t6の順で進んだものとする。 In the figure, the movement of each can juice 21 and 22 is indicated by arrows, and the letters t1, t2, t5, and t6 attached to these arrows indicate the time when the can juice was moved according to the arrow. Indicates. It is assumed that the time has advanced in the order of t1 to t6.
尚、部屋の出入口(ドア)には、図示は省略するが、出入口センシング手段121 としてリーダライタが設置されていて、物品及び移動体の移入と移出とを区別して検出すると共に、部屋内には、環境内センシング手段122 としてカメラ及びリーダライタが設置されていて、環境内における物品及び移動体の移動を検出するものとする。 Although illustration is omitted at the entrance / exit (door) of the room, a reader / writer is installed as the entrance / exit sensing means 121 to detect the entry and exit of articles and moving objects separately, and in the room It is assumed that a camera and a reader / writer are installed as the in-environment sensing means 122 to detect the movement of articles and moving objects in the environment.
また、各缶ジュース21,22並びに部屋を出入する人及びロボット102 にはそれぞれ電子タグが付されているとする。この各缶ジュース21,22の物品属性データは、電子タグに埋め込まれている情報をリーダライタが読み取ることによって得ることとする。移動体DB62の移動体データ621 には各移動体の情報が登録されているものとし、移動体履歴データ622 は既に初期化されているものとする。また、物品DB61の物品データ611 には、何も記録されていない空の状況であるとする。
In addition, it is assumed that each of the
先ず、移動体DB62の移動体データ621 に登録されているお父さん(図示省略)が、缶ジュース21を持ってドアから部屋内に入ってくる。このとき、ドアに設けられた出入口センシング手段121 は、お父さんと、缶ジュース21とが、部屋内に移入したことを検出する。
First, a father (not shown) registered in the moving
その検出結果は、センシング手段120 から物品/移動体検索・管理手段105 に送られ、それを受けた物品/移動体検索・管理手段105 は、缶ジュースとお父さんとを特定する。そして、その缶ジュース21に[kan-small-0001]というIDを割り当て、物品属性データ613 へのポインタと対応付けて物品データ611 に格納する(図5参照)。これと共に、物品/移動体検索・管理手段105 は、その缶ジュース21の物品属性データ613を格納する。さらに、物品/移動体検索・管理手段105 は、その缶ジュースの移動履歴を物品履歴データ612 に格納するための「位置履歴リスト1」を作成する。
The detection result is sent from the sensing means 120 to the article / mobile body search / management means 105, and the article / mobile body search / management means 105 receiving the detection result identifies the can juice and the dad. Then, an ID “kan-small-0001” is assigned to the can juice 21 and stored in the
一方で、センシング手段120 により検出したお父さんの移動体履歴データ622 を更新するために、物品/移動体検索・管理手段105 は、移動体データ621 におけるID「お父さん」の位置履歴を参照して、「位置履歴リスト3」を呼び出す(図6参照)。
On the other hand, in order to update the father's moving
時刻t1に、お父さんがテーブル近傍の位置P4(x4 ,y4)に座り、持っていた缶ジュース21をそのテーブル上のP1(x1,y1,z1)に置く。そのことを環境内センシング手段122 が検出すると、物品/移動体検索・管理手段105 は、物品履歴データ612 の位置履歴リスト1の内容をセットする(図5参照)。具体的には、
時刻:t1
取扱内容:新規
物品取扱主体:お父さん
取扱後の位置:P1(x1,y1,z1,α1 ,β1 ,γ1 )
をセットする。ここで、取扱内容が「新規」となっているのは、それまで環境内に存在していなかった物品が、新たに外部から持ち込まれたことを意味する。
At time t1, the father sits at a position P4 (x4, y4) near the table and puts the can juice 21 he had on P1 (x1, y1, z1) on the table. When the in-environment sensing means 122 detects this, the article / moving body search / management means 105 sets the contents of the
Time: t1
Details of handling: New Goods handling entity: Dad Position after handling: P1 (x1, y1, z1, α1, β1, γ1)
Set. Here, the handling content is “new” means that an article that has not existed in the environment until now is newly brought in from the outside.
また、物品/移動体検索・管理手段105 は、移動体履歴データ622 の位置履歴リスト3の内容をセットする(図6参照)。具体的には、
時刻:t1
位置:(x4 ,y4 ,r1)
状態:座る
をセットする。
Further, the article / mobile object search / management means 105 sets the contents of the position history list 3 of the mobile object history data 622 (see FIG. 6). In particular,
Time: t1
Position: (x4, y4, r1)
Condition: Sit down.
時刻t2に、移動体DB62の移動体データ621 に登録されている別の移動体である息子(図示省略)が、P1(x1,y1,z1)に置かれた上記の缶ジュース21を床の上であるP2(x2,y2,z2)に移動させる。そのことを環境内センシング手段122 が検出すると、その検出結果を受けて物品/移動体検索・管理手段105 は、物品履歴データ612 の位置履歴リスト1の新たな内容をセットする(図5参照)。具体的には、
時刻:t2
取扱内容:移動
物品取扱主体:息子
取扱後の位置:P2(x2,y2,z2,α2 ,β2 ,γ2)
をセットする。ここで、取扱内容が「移動」となっているのは、すでに物品履歴データ612 に登録されている物品が、環境内で移動されたためである。尚、時刻t2で息子の位置が変わるため、物品/移動体検索・管理手段105 は環境内センシング手段122 の検出結果を受けて、息子の移動体履歴データ622 (位置履歴リスト4)の内容をセットするが、ここではその図示を省略する。
At time t2, the son (not shown), which is another moving body registered in the moving
Time: t2
Handling contents: Moving Goods handling entity: Son Position after handling: P2 (x2, y2, z2, α2, β2, γ2)
Set. Here, the reason why the handling content is “move” is that an article already registered in the
時刻t3に、お父さんが部屋の外に出る。そのことを環境内センシング手段122 が検出すると、物品/移動体検索・管理手段105 は、移動体履歴データ622 の位置履歴リスト3の新たな内容をセットする(図6参照)。具体的には、
時刻:t3
位置:−
状態:外出
をセットする。ここで、位置が「−」となっているのは、環境外に出たことで、環境内センシング手段122 がお父さんを検出することができなくなったためである。尚、位置情報としては、外出する際に通過したドアの位置情報を設定してもよい。
At time t3, dad goes out of the room. When the in-environment sensing means 122 detects this, the article / mobile body search / management means 105 sets new contents of the position history list 3 of the mobile body history data 622 (see FIG. 6). In particular,
Time: t3
Position:-
Status: Set to go out. Here, the position is “−” because the in-environment sensing means 122 can no longer detect the father due to having gone out of the environment. In addition, as position information, you may set the position information of the door which passed when going out.
また、その部屋の外に出る際にお父さんが操作端末103 を操作して、ロボット102 に缶ジュース21をP1(x1,y1,z1)に移動させる内容の作業命令を入力する。サーバ101 を介してその作業命令を受けたロボット102 は、缶ジュースの位置P2(x2, y2)まで移動し、時刻t4にその缶ジュースを把持する。このことを環境内センシング手段122 が検出すれば、物品/移動体検索・管理手段105 は、ロボット102 の移動体履歴データ622 (位置履歴リスト5)の内容をセットする(図6参照)。具体的には、
時刻:t4
位置:(x2 ,y2 ,r2)
状態:[kan-small-0001]:把持
をセットする。尚、ロボット102 の動作は、環境内センシング手段122 が検出してもよいが、サーバ101 が、ロボット102 からの動作情報を受信することによって、ロボット102 の動作を検出してもよい。
Further, when going out of the room, the father operates the
Time: t4
Position: (x2, y2, r2)
State: [kan-small-0001]: Set the grip. The operation of the
時刻t5に、上記ロボット102 が缶ジュース21を把持した状態で、P4(x4 ,y4)に移動し、テーブルの上P1 (x1,y1,z1)で把持した缶ジュース21を解放する。環境内センシング手段122 がそのことを検出すれば、物品/移動体検索・管理手段105 は、移動体履歴データ622 の位置履歴リスト5の新たな内容をセットする(図6参照)。具体的には、
時刻:t5
位置:(x4 ,y4 ,r2)
状態:[kan-small-0001]:解放
をセットする。
At time t5, the
Time: t5
Position: (x4, y4, r2)
Status: [kan-small-0001]: Set release.
また、物品/移動体検索・管理手段105 は、物品履歴データ612 の位置履歴リスト1の新たな内容をセットする(図5参照)。具体的には、
時刻:t5
取扱内容:移動
物品取扱主体:ロボット
取扱後の位置:P1(x1,y1,z1,α1 ,β1 ,γ1 )
その後、移動体DB62の移動体データ621 に登録されているさらに別の移動体であるお母さんが、新たな缶ジュース22を持ってドアから部屋に入ってくる。出入口センシング手段121 が、お母さんと新たな缶ジュース22とが部屋内に移入したことを検出すると、物品/移動体検索・管理手段105 は、その新たな缶ジュース22に[kan-small-0002]というIDを割り当て、物品属性データ613 へのポインタと対応付けて物品データ611 に格納する。この新たな缶ジュース22の物品属性データ613 は、上記の缶ジュース21と同じである。また、その新たな缶ジュース22の移動履歴を物品履歴データ612 に格納するための「位置履歴リスト2」を作成する(図5参照)。
Further, the article / mobile body search / management means 105 sets the new contents of the
Time: t5
Handling contents: Moving Goods handling entity: Robot Position after handling: P1 (x1, y1, z1, α1, β1, γ1)
Thereafter, the mother, which is still another moving body registered in the moving
時刻t6に、お母さんが新たな缶ジュース22を床の上であるP3(x3,y3,z3)に置く。そのことを環境内センシング手段122 が検出すると、物品/移動体検索・管理手段105 は、物品履歴データ612 の位置履歴リスト2の内容をセットする(図5参照)。具体的には、
時刻:t6
取扱内容:新規
物品取扱主体:お母さん
取扱後の位置:P3(x3,y3,z3,α3 ,β3 ,γ3 )
をセットする。尚、図6では、お母さんの移動体データ及び移動体履歴は省略している。
At time t6, the mother places new can juice 22 on P3 (x3, y3, z3) on the floor. When the in-environment sensing means 122 detects this, the article / moving body search / management means 105 sets the contents of the
Time: t6
Details of handling: New Goods handling entity: Mother Position after handling: P3 (x3, y3, z3, α3, β3, γ3)
Set. In FIG. 6, mom's moving body data and moving body history are omitted.
以上のようにして、物品/移動体検索・管理手段105 は、物品/移動体DB160 に物品や移動体の情報を格納・更新する。ここでは、データベースの更新を、物品/移動体DB160 に登録されている各物品や移動体の位置が変更される毎に行う例を示したが、データベースの更新タイミングはこれに限るものではなく、適宜設定すればよい。
As described above, the article / moving body search /
(環境マップ管理手段・環境マップ)
環境マップ管理手段107 は、センシング手段120 からの情報に基づいて環境マップ108 を作成すると共に、その作成した環境マップ108 の管理を行うものである。この環境マップ108 は、ロボット102 が環境内を移動する際に利用するものである。ロボット102 は、後述するように、この環境マップ108 をサーバ101 から取得して移動経路計画を立てる。
(Environmental map management means / environmental map)
The environment map management means 107 creates the environment map 108 based on information from the sensing means 120 and manages the created environment map 108. This environment map 108 is used when the
また、上記環境マップ管理手段107 は、制御手段110 から環境マップ108 に問い合わせがあった場合に、その問い合わせの内容に応じて必要な情報を制御手段110 に送ることも行う。 Further, when the environment map management means 107 receives an inquiry from the control means 110 to the environment map 108, the environment map management means 107 also sends necessary information to the control means 110 according to the content of the inquiry.
環境マップ108 は、例えば環境の実状況が、図8(a)に示される場合に、その実状況を立体モデルで簡略化したもの(図8(b))を環境マップ108 としてもよい。また、図8(c)に示すように、さらに平面モデルで簡略化したものを環境マップ108 としてもよい。さらに、図8(a)に示される環境の実状況をそのまま立体モデル化したものを、環境マップ108 としてもよい。すなわち環境マップ108 は、そのマップの用途や、そのマップ作成にかけることのできる時間(手間)に応じて作成すればよい。例えば、立体モデルからなる環境マップを極めて短時間で作成する必要があるときは、環境内に存在する立体物を、その立体物を覆う最小の直方体でモデル化すればよい。図8(b)に示す環境マップ108 はその例であり、テーブル及び本棚をそれぞれ直方体でモデル化し、ゴミ箱を略円柱でモデル化している。平面モデルからなる環境マップも同様であり、図8(c)に示す作業マップ108 では、テーブル及び本棚を平面に正射影した矩形領域(斜線を付した領域)でそれぞれモデル化し、ゴミ箱を円領域(斜線を付した領域)でモデル化している。また、この平面モデルからなるマップ108 では、上記2つの矩形領域及び円領域をロボット102 が移動不可能な領域に設定する。
For example, when the actual situation of the environment is shown in FIG. 8A, the environment map 108 may be obtained by simplifying the actual situation with a three-dimensional model (FIG. 8B). Further, as shown in FIG. 8C, the environment map 108 may be further simplified by a plane model. Further, an environment map 108 may be obtained by directly converting the actual situation of the environment shown in FIG. In other words, the environment map 108 may be created according to the purpose of use of the map and the time (labor) required to create the map. For example, when it is necessary to create an environment map composed of a three-dimensional model in a very short time, a three-dimensional object existing in the environment may be modeled with a minimum cuboid that covers the three-dimensional object. An environment map 108 shown in FIG. 8B is an example, and the table and the bookshelf are each modeled as a rectangular parallelepiped, and the trash can is modeled as a substantially cylinder. The same applies to the environment map composed of a planar model. In the work map 108 shown in FIG. 8C, the table and the bookshelf are respectively modeled by rectangular areas (areas with diagonal lines) projected onto the plane, and the trash can is represented as a circular area. Modeled with (hatched area). Further, in the map 108 composed of the planar model, the two rectangular areas and the circular area are set as areas where the
(画像管理データベース・画像管理手段)
画像管理データベース106 は、センシング手段120 を構成するカメラが、環境内を撮像した画像データを蓄積して管理するデータベースである。この画像管理DB106 は、図9に示すように構成されていて、画像データ71、認識結果データ72の2種類のデータをそれぞれ蓄積するサブデータベースからなる。各サブデータベースに蓄積されるデータ内容は以下の通りである。
(Image management database / image management means)
The
1)画像データ71:カメラが環境内を撮像した画像が、時刻を管理するタイムコードと対応付けられて蓄積される。この画像データ71には、カメラが撮像した全ての時刻の画像を保存する必要はなく、例えば、一定時間毎に画像を保存する、イベントの発生時にのみ画像を保存する、特定の時刻は画像を保存しない、等の保存条件を適宜設定することによって必要な時間帯の画像のみを保存すればよい。画像の保存条件は、画像管理手段104 が設定する。また、画像データ71に蓄積した画像は、所定の条件に従って削除される。削除条件は、保存後一定時間が経過したときに削除する、特定のイベントに関連する画像を削除する、等と設定すればよい。画像の削除条件も、画像管理手段104 が設定する。また、この画像データ71は、本システムに含まれるカメラ毎に、画像が保存しており画像管理手段104 は、画像を保存するカメラと、画像を保存しないカメラとをそれぞれ設定する。画像データ71には各カメラが撮像する範囲の情報が保存されていて(図例では、カメラ1が寝室、カメラ2がリビングを撮像する)、画像管理手段104 は、その情報に基づいて、画像データ71に画像を保存するカメラと保存しないカメラとをそれぞれ設定する。
1) Image data 71: An image captured by the camera in the environment is stored in association with a time code for managing time. In this
2)認識結果データ72:画像データ71に保存されている画像から得られる情報を認識した結果が保存される。この認識結果データ72は、タイムコード毎でかつカメラ毎に認識結果を保存する。認識結果は、認識レベル(情報レベル)毎に保存される。この認識レベルとは、画像に含まれる情報のレベルに対応して環境内の状況及びその環境内を撮像した画像に含まれる移動体及び/又は物品についての情報を認識した結果を意味する。情報レベルとしては、例えば、1)環境内に移動体又は物品が存在するか否かの情報、2)画像データに含まれる移動体又は物品の、画像中における位置及び実空間における位置の情報、3)画像データに含まれる移動体又は物品の属性の情報、4)移動体又は物品の姿勢の情報、5)画像において物品及び移動体が占める領域を囲む矩形領域の情報、6)画像における物品及び移動体の輪郭の情報、7)画像における移動体の顔の領域の情報、8)移動体が移動したときの、その移動経路の情報、9)移動体の視線方向の情報、10)移動体が所持している物品の情報、11)画像において移動速度が最も速い領域の情報、12)画像においてサイズが最も大きい領域の情報、等を例示することができる。図例では、「認識レベル1」は(移動体又は物品の)実空間での位置を認識した結果、「認識レベル2」は、検出した物体(物品及び移動体)の属性を認識した結果となっている。この認識レベルを利用して、後述するように表示制御が行われる。
2) Recognition result data 72: A result of recognizing information obtained from an image stored in the
画像管理手段104 は、後述するように、上記の認識処理を行うと共に、その結果をDBに保存する。また、この画像管理手段104 は、どのカメラが撮像した画像データに対して認識した認識結果を保存するか、の設定をしたり、その認識の際にどの情報レベルの認識を行うか、の設定をしたりする。 As will be described later, the image management means 104 performs the above recognition process and stores the result in the DB. In addition, the image management means 104 sets which camera stores the recognition result recognized for the image data captured by the camera, and sets which information level is recognized at the time of the recognition. Or do.
(制御手段)
環境管理サーバ101 における制御手段110 はサーバ全体を制御する部分であり、主な制御内容としては以下のものがある。
(Control means)
The control means 110 in the
1)送受信手段109 が、サーバ内にある各種データに関する問い合わせ受信したときに、その問い合わせ内容を判断し、その判断結果に応じて物品/移動体検索・管理手段105 、環境マップ管理手段107 にデータの参照要求を出す。 1) When the transmission / reception means 109 receives an inquiry about various data in the server, the inquiry content is judged, and data is sent to the article / mobile body search / management means 105 and the environment map management means 107 according to the judgment result. A reference request is issued.
2)上記要求に対して物品/移動体検索・管理手段105 、環境マップ管理手段107 から送られてきた結果を、送受信手段109 を介して問い合わせ元に送る。 2) In response to the request, the result sent from the article / mobile body search / management means 105 and the environment map management means 107 is sent to the inquiry source via the transmission / reception means 109.
3)操作端末103 から送受信手段109 を介して送信されたロボット102 の作業内容メッセージを解釈し、そのロボット102 に動作を実行させるためのロボット制御コマンド列を生成して上記ロボット102 に送信する。尚、ロボット制御コマンド列については、後述する。
3) The
4)必要に応じて、一定時間毎に、物品/移動体DB160 で管理している物品の一部又は全部の状況、環境マップ108 の状況を、送受信手段109 を通じてロボット102 やユーザ(操作端末103 )にブロードキャストする。
4) If necessary, the
−作業ロボットの構成−
2番目のサブシステムである作業ロボット102 は、ユーザによって指定された作業命令に従って物品の取扱い作業を行うものである。
−Configuration of working robot−
The
図1に示すように、ロボット102 はその基本構成として、ロボット102 の近辺の障害物等を検知する障害物センサ111 、物品を把持する把持手段112 、環境マップ108 を使って移動計画を立てる移動計画作成手段113 、上記ロボット102 自体を移動させる移動手段114 、環境管理サーバ101 や操作端末103 との間で種々のデータの送受信を行う送受信手段109 、これらのセンサ111 及び各手段109 ,112 〜114をコントロールする制御手段115 とからなる。
As shown in FIG. 1, as a basic configuration of the
図10は、本システムにおけるロボット102 の構造の一例を示した模式図であり、このロボット102 は、移動計画作成手段113 や制御手段115 等を収容する略箱型の本体部10を備える。以下、図10における紙面右側を前側、左側を後側、紙面奥側を左側、紙面手前側を右側と呼ぶ。
FIG. 10 is a schematic diagram showing an example of the structure of the
把持手段112 は、多関節アーム12a とそのアーム12a の先端に配設されたハンド12b とから構成され、上記本体部10の上面に取り付けられる。上記アーム12a 及びハンド12b は、モータ制御によるアクチュエータを用いたものとしてもよいし、その他のアクチュエータ、例えば人工筋肉によるアクチュエータを用いたものでもよい。
The gripping means 112 is composed of an articulated
移動手段114 は車輪14によって構成されており、この車輪14は、上記本体部10の左右両側にそれぞれ2つ取り付けられる(図例では、左側の車輪の図示を省略する)。ここでは、移動手段114 を車輪14で構成したが、移動手段114 の構成は、そのロボットが使用される環境に応じて最適な構成を選択すればよい。例えば環境の床面の起伏が激しい場合は、移動手段114 をクローラ型や多足歩行型に構成することが好ましい。
The moving means 114 is constituted by
障害物センサ111 は、本システムでは、超音波センサ11a 、視覚センサとしてのステレオカメラ11b 、及び衝突センサ11c から構成される。
In the present system, the
上記超音波センサ11a は、超音波を発してその反射波を受信するまでの時間を測定することにより当該センサ11a から障害物までの距離を計算するもので、近距離の障害物を、それに衝突する前に検知するためのものである。この超音波センサは、本体部の各側面(前面、後面、左右側面)に、3つずつ取り付けられる。
The
上記ステレオカメラ11b は、ロボット102 の周囲の状況を画像として入力し、その画像の認識等の処理を行うことで、障害物の有無の判断や把持対象物品のより正確な情報を得るためのものである。このステレオカメラ11b は、本体部10の前部に取り付けられる。
The
上記衝突センサ11c は、ロボット102 に所定の衝撃力が加わったことを検知するセンサである。例えば障害物がロボット102 に衝突してきたことや、ロボット102 自体が移動中に障害物に衝突したことを、この衝突センサ11c で検知する。この衝突センサ11c は、本体部の前面と後面とのそれぞれに取り付けられる。
The
移動計画作成手段113 は、ロボット102 に物品の移動作業やその他の作業に伴う移動が指定されたときに、そのロボット102 の現在位置から指定された位置(目的位置)までの移動経路を、環境マップ108 を使って作成するものである。この際、現在位置から目的位置までの移動経路上に障害物があってはならないが、環境マップ108 には、上述したように、ロボットが移動不可領域(例えば図8(c)の斜線を付した領域)が設定される。このため、この移動不可領域以外の領域で移動経路を作成すれば、障害物を回避した移動経路が作成される。例えば図8(c)の平面モデルを用いた環境マップ108 を用いてロボットをA1地点からA2地点まで移動させる際には、ロボット102 の大きさを考慮して移動不可領域を回避するルート(図8(c)に矢線参照)が作成される。こうした移動経路の作成に当たっては、最も一般的な方法であるダイクストラ法を使ってもよいし、環境が複雑であれば、ダイクストラ法を改良した経路探索アルゴリズムを用いてもよい。
The movement plan creation means 113, when the movement movement of an article or other movement is designated to the
作業ロボット102 の制御手段115 は、主に環境管理サーバ101 から送受信手段109 を介して送られてきたロボット制御コマンド列を解釈し、そのロボット制御コマンドを順に実行するものである。
The control means 115 of the
ここで、ロボット制御コマンドとは、物品の把持や、ロボット102 自体の移動の制御を行うためのコマンドであって、本実施の形態ではロボット102 の現在位置から座標で指定された位置まで移動するコマンドである「移動」、物品IDで指定された物品を、ハンド12b によって把持するコマンドである「把持」、ハンド12b を解放するコマンドである「解放」の3種類が設定される。尚、ロボット制御コマンドはこの3種類に限らず、必要に応じて増やしてもよい。
Here, the robot control command is a command for controlling the gripping of the article and the movement of the
−操作端末の構成−
3番目のサブシステムである操作端末103 は、本システムにおけるユーザインタフェースであり、主にロボット102 に対する物品の取扱い作業を指示するためにユーザが操作する端末である。また、この操作端末103 は、ユーザの要求に応じてカメラが撮像した画像を表示する。これによりユーザは、各環境内の様子を確認することができる。
-Configuration of operation terminal-
An
操作端末103 はその基本構成として、図1に示すように、ロボット102 の作業内容を指定するための操作画面、カメラが撮像した画像を表示する監視画面を表示する、例えばCRTや液晶ディスプレイからなる表示部117 、上記操作画面上での入力を行うための、例えばポインティングデバイスやキーボードからなる入力部116 、上記表示部117 に表示される監視画面を作成する表示制御手段118 、及びその表示制御のためのデータを蓄積する表示制御データベース123 、上記入力部116 にて入力されたロボット102 の作業内容等を環境管理サーバ101 に送る送受信手段109 、これらの各手段109 ,116 〜118 をコントロールする制御手段119 からなる。
As shown in FIG. 1, the
この操作端末103 としては、例えば汎用PCを用いることも可能である。この場合、制御プログラムをPCが読み込むことによって、そのPCを操作端末103 として用いることが可能になる。
For example, a general-purpose PC can be used as the
ユーザは、この操作端末103 を用いてロボット102 の作業内容を指定したり、後述するように、環境内の状況を確認したりする。また、ユーザは、物品/移動体の管理として、この操作端末103 を用いて、物品/移動体管理DB160 に蓄積される物品や移動体の情報を入力したり、サーバ101 に対して、物品の現在位置の検索を要求したりすることも行う。物品の現在位置の検索結果は、サーバ101 から送られて操作端末103 の表示部117 に表示される。
The user designates the work content of the
上記表示制御DB123 には、上述したように、監視画面を作成するためのデータが保存される。この表示制御DB123 は、図11に示すように構成されていて、状況データ81、アクセス権データ82、表示制御データ83の3種類のデータをそれぞれ蓄積するサブデータベースからなる。各サブデータベースに蓄積されるデータ内容は以下の通りである。
As described above, the
1)状況データ81:画像データの加工に係る環境内の状況内容を保存していて、各状況内容は状況IDと対応付けられる。また、状況IDに対応付けられて「説明」が設けられているが、この「説明」は状況内容を説明するものであって、省略することが可能である。 1) Status data 81: The status content in the environment related to the processing of the image data is stored, and each status content is associated with the status ID. Further, “explanation” is provided in association with the situation ID, but this “explanation” is to explain the situation content and can be omitted.
ここで、状況内容は、移動体、移動体の動作、物品、場所(環境の属性)、時間、気候、及びこれらの組合せによって表現される。移動体としては、「父」「子供」「男性」「訪問者」「ペット」が例示され、移動体の動作としては、「就寝」「食事」「物を運搬」「タンスを覗く」「不在」、が例示され、物品としては、「布団」「缶ジュース」が例示され、場所としては、「寝室」「風呂」「食卓」「テレビの前」が例示され、時間としては、「9時〜10時」「水曜日」「休日」が例示され、気候としては、「雨」「20度以上」が例示される。これらを組合せことで、図11に示すように、就寝の状況を表す状況内容として、「人;大人、場所;寝室、物品;布団」が設定される。これらの各状況は、センシング手段120 の検出結果、物品/移動体DB160 に蓄積されている情報、画像データの認識結果、から取得される。
Here, the situation content is expressed by a moving object, movement of the moving object, article, location (environmental attribute), time, climate, and a combination thereof. Examples of moving objects include "Father", "Children", "Men", "Visitors", and "Pets". The actions of moving objects are "sleeping", "mealing", "carrying things", "seeing clothes", "absence" “, Futon” and “can juice” are illustrated as articles, “bedroom” “bath” “table” “in front of TV” are illustrated as places, and “9 o'clock” is illustrated as time -10:00 "," Wednesday "," Holiday "are exemplified, and" rain "" 20 degrees or more "is exemplified as the climate. By combining these, as shown in FIG. 11, “person; adult, place; bedroom, article; futon” is set as the situation content representing the sleeping situation. Each of these situations is acquired from the detection result of the sensing means 120, the information stored in the article / moving
2)アクセス権データ82:本システムにアクセスするユーザ(本システムを利用するユーザ)が、アクセス権毎に分類(アクセスユーザ)されて保存される。各アクセスユーザにはアクセスIDが付加される。アクセスユーザは、個人でもよい(図例では、父、母)し、同じ属性を有する個人を含むグループとしてもよい(図例では、子供。この他にも大人、男性、女性)。 2) Access right data 82: Users accessing the system (users using the system) are classified and stored for each access right (access users). An access ID is added to each access user. The access user may be an individual (in the illustrated example, father, mother), or may be a group including individuals having the same attributes (in the illustrated example, children. In addition, adults, men, and women).
3)表示制御データ83:表示IDと対応付けられて、画像の加工内容及び加工条件が保存される。後述するように、表示制御手段118 は、加工条件が成立したときには、それに対応する加工内容に従って画像データを加工して監視画面を作成する。
3) Display control data 83: Corresponding to the display ID, the processing contents and processing conditions of the image are stored. As will be described later, when the processing condition is satisfied, the
上記加工条件には、上記状況IDとアクセスIDとが記述される。また、加工内容には、ユーザから要求された画像に施す加工の具体的な内容が記述される。加工内容としては、例えば、1)画像における移動体の顔の領域を認識した結果を用いて、その顔の領域にモザイク処理を施す、2)移動体の属性を認識した結果と、画像における移動体の位置を認識した結果とを用いて、画像におけるユーザの家族をマスクする処理(家族以外の人が画像に含まれる処理)、3)画像において移動体が占める領域を囲む矩形領域を認識した結果とを用いて、画像に含まれる人物をアイコンに置換する処理、4)移動体が所持している物品を認識した結果を用いて、画像において人が持っている物体をマスクする処理、5)実空間における移動体の位置を認識した結果を用いて、移動体の位置を示すマップを作成する処理、6)環境内に存在する移動体の属性を認識した結果を用いて、環境内にいる移動体が誰であるかの情報(テキスト情報)のみを含む画面を作成する(画面全体をマスクする)処理、等が例示される。図例では、表示ID:0002の加工内容として、人物をアイコンで置換する処理が記述されている。 In the processing condition, the situation ID and the access ID are described. In addition, the processing content describes the specific content of processing applied to the image requested by the user. As processing contents, for example, 1) Mosaic processing is performed on the face area using the result of recognizing the face area of the moving object in the image. 2) The result of recognizing the attribute of the moving object and the movement in the image Using the result of recognizing the position of the body, a process for masking the user's family in the image (a process in which a person other than the family is included in the image), 3) a rectangular area surrounding the area occupied by the moving body in the image is recognized A process for replacing a person included in an image with an icon using the result, 4) A process for masking an object held by a person in the image using a result of recognizing an article held by the moving object, 5 ) Processing for creating a map showing the position of the moving object using the result of recognizing the position of the moving object in the real space, 6) In the environment using the result of recognizing the attribute of the moving object existing in the environment Moving body In a one of the information to create a screen including the (text information) only (for masking the entire screen) process, etc. are exemplified. In the example shown in the drawing, processing for replacing a person with an icon is described as the processing content of the display ID: 0002.
−情報提供処理−
次に、上記構成の情報提供システムにおける情報提供処理について説明する。この情報提供処理は、カメラ画像とそのカメラ画像の認識結果とをデータベースに蓄積する画像認識処理と、環境内の状況とアクセスユーザとに応じて加工した画像をユーザに提示する画像提示処理とを含む。
-Information provision processing-
Next, an information providing process in the information providing system having the above configuration will be described. This information providing process includes an image recognition process for accumulating a camera image and a recognition result of the camera image in a database, and an image presentation process for presenting an image processed according to the situation in the environment and the access user to the user. Including.
(画像認識処理)
図12は、画像認識処理のフローチャートを示していて、先ず、ステップS1301では、全てのカメラ(センシング手段120 )が撮像した画像を入力する。そして、ステップS1302で、画像管理手段104 は、予め設定した保存条件に従って、画像管理DB106 の画像データ71に、カメラ画像をタイムコードを付加して保存する。保存条件は、上述したように、一定時間毎に画像を保存する、イベントの発生時にのみ画像を保存する、特定の時刻は画像を保存しない、等が設定され、この保存条件を満たすか否かを判定するために、上記画像管理手段104 は、必要に応じて物品/移動体DB160 に記憶されている情報を利用する。
(Image recognition processing)
FIG. 12 shows a flowchart of image recognition processing. First, in step S1301, images taken by all cameras (sensing means 120) are input. In step S1302, the
ステップS1303で、画像管理手段104 は、ステップS1302で保存した各画像に対する認識処理を行う。この認識の際には、物品/移動体DB106 に記憶されている情報を適宜利用すると共に、必要に応じてセンシング手段104 によるセンシングを実行する。
In step S1303, the
そして、ステップS1304で、画像管理手段104 は、予め設定した認識結果を保存するカメラの条件及び認識レベルの条件に従って、認識した結果を、画像管理DB106 の認識結果データ72に、認識レベル毎に保存する。尚、ステップS1303及びステップS1304の処理は、画像データ71に保存されている全てのカメラ画像に対しかつ、認識結果データ72に登録されている全ての認識レベルについて実行する。こうして、画像管理DB106 には、カメラが撮像した画像データと、その画像データの認識結果とが対応付けられて蓄積される。
In step S1304, the
(画像提示処理)
図13は、画像提示処理のフローチャートを示していて、先ずステップS1401で、ユーザが、操作端末103 を介してシステムに対し、カメラ画像の閲覧を要求する。このときユーザは、少なくとも閲覧したい環境(部屋)を指定する。また、閲覧したい移動体、移動体の動作、時刻、気候等の条件をさらに指定してもよい。
(Image presentation processing)
FIG. 13 shows a flowchart of the image presentation processing. First, in step S1401, the user requests the system to view the camera image via the
続くステップS1402で、表示制御手段118 は、システムにアクセスしたユーザを識別する。これは、操作端末103 での操作に先立って、ID及びパスワードによるユーザ認証を行ってもよいし、センシング手段120 の検出結果に基づいて、操作端末103 を操作しているユーザを特定してもよい(物品/移動体DB160 には、センシング手段120 の検出結果に基づいて特定した操作端末103 を操作するユーザの情報が蓄積されている)。
In subsequent step S1402, the display control means 118 identifies the user who has accessed the system. Prior to the operation at the
そして、ステップS1403では、画像管理DB106 から閲覧要求に係る環境を撮像したカメラ画像を抽出すると共に、その抽出したカメラ画像に対応する環境内の状況を確認する。これは、画像管理DB106 に蓄積されている情報、及び物品/移動体DB160 に蓄積されている情報、また、必要に応じてセンシング手段120 によって新たに検出した情報に基づいて確認する。
In step S1403, a camera image obtained by capturing the environment related to the browsing request is extracted from the
ステップS1404で、表示制御手段118 は、上記ステップS1402 で取得したユーザ情報に基づいてアクセスIDを特定すると共に、上記ステップS1403 で確認した状況に基づいて状況内容(状況ID)を特定する。具体的には、表示制御DB123 のアクセス権データ82を検索して、ステップS1402で識別したユーザ(アクセスユーザ)に対応するアクセスIDを抽出する。また、表示制御DB123 の状況データ81を検索して、ステップS1403で確認した状況に対応する状況IDを抽出する。
In step S1404, the display control means 118 specifies the access ID based on the user information acquired in step S1402, and specifies the situation content (situation ID) based on the situation confirmed in step S1403. Specifically, the access
こうして、アクセスID及び状況IDを抽出すれば、表示制御DB123 の表示制御データ83を参照することにより、そのアクセスIDと状況IDとの組合せに対応する表示IDを抽出する。
Thus, when the access ID and the situation ID are extracted, the display ID corresponding to the combination of the access ID and the situation ID is extracted by referring to the
ステップS1405で、表示制御手段は、上記ステップS1404で抽出した表示IDに対応する加工内容に従って、認識結果を利用して画像の加工を行い、その加工した画像から構成される監視画面を表示部117 に表示させる。
In step S1405, the display control means processes the image using the recognition result in accordance with the processing content corresponding to the display ID extracted in step S1404, and displays a monitoring screen including the processed image on the
次に、具体例を挙げながら上記の画像認識処理及び画像提示処理について説明する。図14は、具体例に係る画像管理DB106 及び表示制御DB123 の構成を示している。
Next, the image recognition process and the image presentation process will be described with specific examples. FIG. 14 shows the configuration of the
先ず、上述したように、センシング手段120 を構成するカメラが撮像した画像が入力されれば、画像管理手段104 は、設定されている保存条件に従ってカメラ画像を画像管理DB106 に保存する。ここでは、「1秒間隔で全カメラの画像を保存」という保存条件が設定されているものとし、これにより、カメラ1及びカメラ2のそれぞれが撮像した画像が、タイムコードと対応付けられて画像管理DB106 の画像データ71に蓄積される(図14参照)。この内、カメラ2は、リビング内を撮像するカメラであり、このカメラ2の、タイムコード0000003の画像として、同図に示す画像が蓄積される。尚、タイムコード0000003は、食後の時間帯に対応するものとする。
First, as described above, when an image captured by the camera constituting the
また、カメラ画像の蓄積と同時に、センシング手段120 による物品及び移動体の検出結果に基づいて、カメラによって撮像された環境内における物品及び移動体の情報が、物品/移動体DB160 に蓄積される。
Simultaneously with the accumulation of the camera image, based on the detection result of the article and the moving body by the sensing means 120, the information of the article and the moving body in the environment imaged by the camera is accumulated in the article / moving
画像管理手段104 は、画像データ71に蓄積されている画像について認識処理を行う。ここでは、認識結果データ72に、認識レベル1「画像中における移動体の矩形領域」と認識レベル2「移動体の属性」とが設定されているため、上記画像管理手段104 はこれら認識レベル1,2に係る認識処理を行う。認識レベル1の「画像中における移動体の矩形領域」は、背景差分画像における差分領域に外接する矩形を算出することによって得られる。この外接矩形は、その矩形の対角の2点の座標「(X1,Y1)−(X2,Y2)」で表すことができる(図14参照)。また、認識レベル2の「移動体の属性」は、物品/移動体DB160 に記憶されている情報によって得られる。こうして、カメラ2の、タイムコード0000003の認識結果として、認識レベル1「(X1,Y1)−(X2,Y2)」が、認識レベル2「父」がそれぞれ認識結果データ72に保存される。
The image management means 104 performs recognition processing on the images stored in the
この状態において、子供が「リビングの様子が知りたい」として、操作端末103 を介してシステムに対しリビング内を撮像したカメラ画像の閲覧を要求したとする。
In this state, it is assumed that the child requests the system to view a camera image captured in the living room via the
表示制御手段118 は、物品/移動体DB160 を参照して、アクセスしたユーザの識別を行う。これにより、アクセスユーザが「子供」であることが特定される。
The display control means 118 refers to the article / moving
次に、表示制御手段118 は、ユーザがリビング内を撮像したカメラ画像を指定していることから、画像データ71に保存されているカメラ2の画像を抽出する。この画像に対応するリビング内の状況を、画像管理DB106 及び物品/移動体DB160 の情報に基づいて確認する。画像管理DB106 の認識結果データ72における認識レベル2には、「父」と認識されているため、リビングに父が存在している状況であることが確認される。また、タイムコード0000003は、食後の時間帯に対応することから、画像データ71に保存された、タイムコード0000003の、カメラ2の画像に対応する状況は、「父」「リビング」「食後」である。
Next, the display control means 118 extracts the image of the
そして、表示制御手段118 は、識別したユーザに基づいてアクセスIDを特定する。アクセスユーザは「子供」であるため、アクセスIDは、000003である。また、画像に対応する状況に基づいて状況IDを特定する。タイムコード0000003の、カメラ2の画像に対応する状況は、「父」「リビング」「食後」であるため、状況IDは、0002である。
Then, the display control means 118 specifies an access ID based on the identified user. Since the access user is “child”, the access ID is “000003”. Further, the situation ID is specified based on the situation corresponding to the image. Since the situation corresponding to the image of the
こうして、アクセスIDと状況IDとをそれぞれ特定すれば、表示制御手段118 は、アクセスIDと状況IDとの組合せに対応する表示IDを、表示制御DB123 の表示制御データ83から抽出する。ここでは、状況ID:0002、アクセスID000003であるため、表示ID:0002が抽出される。
When the access ID and the situation ID are specified in this way, the display control means 118 extracts the display ID corresponding to the combination of the access ID and the situation ID from the
こうして抽出した表示IDに対応する加工内容に従って、タイムコード0000003の、カメラ2の画像を加工する。ここでは、加工内容として、「人物をアイコンに置換する」ことが設定されているため、認識結果データ72における認識レベル1「画像中の矩形領域」のデータを利用して、その矩形領域にアイコンを貼り付ける処理をする。こうして、図15に示す画像が作成され、これが、操作端末103 の表示部117 に表示される。この画像の加工においては、認識レベル2の情報を用いて、アイコンにその人の属性(ここでは「父」)を表示してもよい。
The image of the
このように、本発明の情報提供システムは、所定の空間内の状況に関する情報を提供するシステムであって、上記空間内を撮像する撮像手段(センシング手段120 )と、上記撮像手段が撮像した空間内の状況を特定する特定手段(物品/移動体検索管理手段105 及び表示制御手段118 )と、上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識手段(画像管理手段104 )と、上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベース(表示制御データベース123 )と、上記加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段(表示制御手段118 )と、上記加工された画像データを表示する表示手段(操作端末103 )と、を備える。 As described above, the information providing system according to the present invention is a system that provides information related to a situation in a predetermined space, and includes an imaging unit (sensing unit 120) that images the inside of the space, and a space that is captured by the imaging unit. Identification means (article / moving body search management means 105 and display control means 118) for identifying the situation in the image, and recognition means for recognizing information about the moving body and / or the article included in the image data captured by the imaging means (The image management means 104), the processing content management database (display control database 123) for storing the situation in the space and the processing content of the image data in association with each other, and the processing content management database, with reference to the identification Processing means (display) that processes the image data captured by the imaging means using the recognition result of the recognition means according to the processing content corresponding to the situation specified by the means Comprising a control means 118), display means for displaying the processed image data (the operation terminal 103), the.
この構成により、撮像した画像データを空間内の状況に応じて加工することによって提供する情報の内容やレベルが変更可能になる。それによって必要な情報を画像データに含めつつ、不要な情報は画像データから削除することができ、空間内の状況に関する情報を提供する際に、その状況に応じた柔軟な対応が実現する。 With this configuration, it is possible to change the content and level of information to be provided by processing captured image data according to the situation in the space. Accordingly, unnecessary information can be deleted from the image data while including necessary information in the image data, and flexible information corresponding to the situation can be realized when providing information about the situation in the space.
また、上記情報提供システムは、ユーザ操作に応じて画像データの表示要求信号を出力する操作手段(操作端末103 )をさらに備え、加工内容管理データベースは、ユーザ情報及び空間内の状況と、画像データの加工内容とを対応付けて記憶し、加工手段は、上記表示要求信号を受けて、その表示要求信号の出力に係るユーザの情報を取得し、当該ユーザ情報と特定手段が特定した状況とに対応する加工内容に従って画像データを加工する。これにより、画像データを閲覧するユーザと空間内の状況との組合せにおいて、そのユーザに対して適切な情報を提供することができる。 The information providing system further includes an operation means (operation terminal 103) for outputting a display request signal for image data in response to a user operation. The processing content management database includes user information, a situation in the space, and image data. The processing means receives the display request signal, acquires the user information related to the output of the display request signal, and determines the user information and the status specified by the specifying means. The image data is processed according to the corresponding processing content. Thereby, in the combination of the user who browses the image data and the situation in the space, appropriate information can be provided to the user.
上記加工内容管理データベースは、空間内の状況として、当該空間の属性と、当該空間内に存在する移動体及び/又は物品の属性との組合せを記憶する。 The processing content management database stores a combination of an attribute of the space and an attribute of a moving object and / or an article existing in the space as a situation in the space.
空間内の状況を、空間の属性と移動体及び/又は物品の属性との組合せで特定するため、より適切な情報を提供することが可能になる。例えば、一般家庭であれば、空間の属性が浴室であるときには、画像データの加工によって浴室に存在する移動体の情報を削除し、空間の属性がリビングであるときには、画像データの加工によってリビングに存在する移動体の情報を含めることが実現する。 Since the situation in the space is specified by a combination of the attribute of the space and the attribute of the moving object and / or the article, more appropriate information can be provided. For example, in the case of a general household, when the attribute of the space is a bathroom, the information of the moving object existing in the bathroom is deleted by processing the image data, and when the attribute of the space is a living room, Including information on existing mobile objects is realized.
上記情報提供システムは、空間内に存在する移動体及び/又は物品を検出するセンシング手段120 をさらに備え、特定手段は、上記センシング手段の検出結果に基づいて、空間内の状況を特定し、認識手段は、撮像手段が撮像した画像データ及び/又は上記センシング手段の検出結果に基づいて画像データに含まれる移動体及び/又は物品についての情報を認識する。 The information providing system further includes sensing means 120 for detecting a moving object and / or article existing in the space, and the specifying means specifies and recognizes the situation in the space based on the detection result of the sensing means. The means recognizes information about the moving object and / or the article included in the image data based on the image data picked up by the image pickup means and / or the detection result of the sensing means.
この構成により、特定手段は、空間内の状況を的確に特定することができ、認識手段は、画像データに含まれる移動体及び/又は物品についての情報を的確に認識することができる。 With this configuration, the specifying unit can accurately specify the situation in the space, and the recognizing unit can accurately recognize information about the moving object and / or the article included in the image data.
上記認識手段は、移動体及び/又は物品についての情報を複数の情報レベル毎に認識し、加工内容管理データベースは、空間内の状況と、その状況に応じて選択された情報レベルの認識結果が加工後の画像データに含まれるよう設定された加工内容とを対応付けて記憶する。 The recognizing means recognizes information about the moving object and / or the article for each of a plurality of information levels, and the processing content management database includes a situation in the space and a recognition result of the information level selected according to the situation. The processing contents set to be included in the processed image data are stored in association with each other.
こうすることで、画像データに含める情報(情報レベル)を、よりきめ細かく変更することが可能になり、必要な情報を画像データに含めつつ、不要な情報を画像データから削除することが適切に行い得る。 In this way, the information (information level) included in the image data can be changed more finely, and it is possible to appropriately delete unnecessary information from the image data while including the necessary information in the image data. obtain.
上記情報提供システムは、撮像手段が撮像した画像データと認識手段が認識した認識結果とを対応付けて蓄積する画像管理データベース106 をさらに備え、加工手段は、上記画像管理データベースに蓄積されている画像データを、上記画像管理データベースに蓄積されている認識結果を用いて加工する。
The information providing system further includes an
こうすることで、撮像手段が撮像した画像データは、画像管理データベースに蓄積されるため、必要に応じて加工前の画像データを閲覧することが可能になる。 By doing so, the image data picked up by the image pickup means is stored in the image management database, so that it is possible to view the image data before processing as necessary.
(他の実施形態)
尚、上記実施の形態では、情報提供システムを、環境管理サーバ101 、ロボット102 、操作端末103 の3つのサブシステムからなり、それらサブシステム101 〜103 が無線又は有線等のネットワークを介して互いに情報をやりとりするような構成とした。しかし、情報提供システムはこの構成に限らず、例えば操作端末103 が環境管理サーバ101 に一体となった構成でもよい。つまり、入力部116 、表示部117 、表示制御手段118 及び表示制御データベース123 が、環境管理サーバ101 に含まれる構成としてもよい。またロボット102 は省略してもよい。
(Other embodiments)
In the above embodiment, the information providing system is composed of the three subsystems of the
また、上記実施の形態では、画像データとその認識結果とを画像管理データベース106 に蓄積し、表示制御手段118 は、画像管理データベース106 に蓄積されている画像データを認識結果を用いて加工しているが、画像管理データベース106 を省略して、センシング手段120 が撮像した画像データを逐次加工して、その加工した画像を表示するシステムとしてもよい。
In the above embodiment, the image data and the recognition result are accumulated in the
さらに、上記実施の形態では、本システムを一般家庭に適用させたが、この他にも託児所、介護施設、病院、オフィス、ホテル及び店舗、等の様々な空間に適用することが可能であり、これらに空間の監視に利用することができる。また、本実施の形態では、主に移動体のプライバシー保護を目的としていたが、本システムは、例えば情報セキュリティの確保を目的とすることができる。具体的には、空間内を撮像した画像データに機密文書が含まれているときには、その画像データにおける機密文書の領域にマスク処理を施すことにより、情報漏えいを防止することができる。これは、例えばオフィス等に適用することが可能である。 Furthermore, in the above embodiment, the present system is applied to general households, but it can be applied to various other spaces such as daycare, nursing care facilities, hospitals, offices, hotels and stores. These can be used for space monitoring. Further, in the present embodiment, the purpose is mainly to protect the privacy of the moving body, but the present system can be aimed at ensuring information security, for example. Specifically, when a confidential document is included in image data captured in the space, information leakage can be prevented by performing mask processing on the confidential document area in the image data. This can be applied to an office, for example.
以上説明したように、本発明は、画像データを、空間内の状況に応じて加工することで、提供する情報の内容やレベルを容易に変更することができ、一般家庭、託児所、介護施設、病院、オフィス、ホテル及び店舗、等の様々な空間内の状況に関する情報を提供するシステムについて有用である。 As described above, the present invention can easily change the content and level of information to be provided by processing image data according to the situation in the space. It is useful for systems that provide information about the situation in various spaces such as hospitals, offices, hotels and stores.
101 環境管理サーバ(情報提供サーバ)
103 操作端末(表示手段、操作手段)
104 画像管理手段(認識手段)
105 物品/移動体検索管理手段(特定手段)
106 画像管理データベース
110 制御手段
116 入力部
117 表示部
118 表示制御手段(特定手段、加工手段)
120 センシング手段
123 表示制御データベース(加工内容管理データベース)
160 物品/移動体データベース
101 Environmental management server (information provision server)
103 Operation terminal (display means, operation means)
104 Image management means (recognition means)
105 Article / mobile object search management means (specifying means)
106 Image management database
110 Control means
116 Input section
117 Display
118 Display control means (specifying means, processing means)
120 Sensing means
123 Display control database (Processing content management database)
160 Article / Moving Object Database
Claims (8)
上記空間内を撮像する撮像手段と、
上記撮像手段が撮像した空間内の状況を特定する特定手段と、
上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識手段と、
上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベースと、
上記加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段と、
上記加工された画像データを表示する表示手段と、を備える情報提供システム。 An information providing system for providing information on a situation in a predetermined space,
Imaging means for imaging the space;
Specifying means for specifying the situation in the space imaged by the imaging means;
Recognizing means for recognizing information about a moving object and / or an article included in the image data captured by the imaging means;
A processing content management database that stores the situation in the space and the processing content of the image data in association with each other;
Processing means for processing image data captured by the imaging means using the recognition result of the recognition means according to the processing content corresponding to the situation specified by the specifying means with reference to the processing content management database;
An information providing system comprising: display means for displaying the processed image data.
ユーザ操作に応じて画像データの表示要求信号を出力する操作手段をさらに備え、
加工内容管理データベースは、ユーザ情報及び空間内の状況と、画像データの加工内容とを対応付けて記憶し、
加工手段は、上記表示要求信号を受けて、その表示要求信号の出力に係るユーザの情報を取得し、当該ユーザ情報と特定手段が特定した状況とに対応する加工内容に従って画像データを加工する情報提供システム。 In the information provision system of Claim 1,
Further comprising an operation means for outputting a display request signal for image data in response to a user operation,
The processing content management database stores the user information and the situation in the space in association with the processing content of the image data,
The processing means receives the display request signal, obtains user information related to the output of the display request signal, and processes the image data according to the processing content corresponding to the user information and the situation specified by the specifying means. Offer system.
加工内容管理データベースは、空間内の状況として、当該空間の属性と、当該空間内に存在する移動体及び/又は物品の属性との組合せを記憶する情報提供システム。 In the information provision system of Claim 1,
The processing content management database is an information providing system that stores a combination of an attribute of the space and an attribute of a moving object and / or an article existing in the space as a situation in the space.
空間内に存在する移動体及び/又は物品を検出するセンシング手段をさらに備え、
特定手段は、上記センシング手段の検出結果に基づいて、空間内の状況を特定し、
認識手段は、撮像手段が撮像した画像データ及び/又は上記センシング手段の検出結果に基づいて画像データに含まれる移動体及び/又は物品についての情報を認識する情報提供システム。 In the information provision system of Claim 1,
Sensing means for detecting a moving object and / or an article existing in the space;
The specifying means specifies the situation in the space based on the detection result of the sensing means,
The recognition means is an information providing system for recognizing information about a moving object and / or an article included in the image data based on the image data picked up by the image pickup means and / or the detection result of the sensing means.
認識手段は、移動体及び/又は物品についての情報を複数の情報レベル毎に認識し、
加工内容管理データベースは、空間内の状況と、その状況に応じて選択された情報レベルの認識結果が加工後の画像データに含まれるよう設定された加工内容とを対応付けて記憶する情報提供システム。 In the information provision system of Claim 1,
The recognition means recognizes information about the moving object and / or the article for each of a plurality of information levels,
The processing content management database associates and stores the situation in the space and the processing content set so that the recognition result of the information level selected according to the situation is included in the processed image data .
撮像手段が撮像した画像データと認識手段が認識した認識結果とを対応付けて蓄積する画像管理データベースをさらに備え、
加工手段は、上記画像管理データベースに蓄積されている画像データを、上記画像管理データベースに蓄積されている認識結果を用いて加工する情報提供システム。 In the information provision system of Claim 1,
An image management database for storing the image data captured by the imaging unit and the recognition result recognized by the recognition unit in association with each other;
An information providing system for processing the image data stored in the image management database using the recognition result stored in the image management database.
撮像手段が撮像した空間内の状況を特定する特定手段と、
上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報の認識を行う認識手段と、
上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段と、
上記加工された画像データを出力する出力手段と、を備える情報提供サーバ。 An information providing server that provides information on a situation in a predetermined space,
A specifying means for specifying the situation in the space imaged by the imaging means;
Recognizing means for recognizing information about the moving object and / or article included in the image data captured by the imaging means;
By referring to the processing content management database that stores the situation in the space and the processing content of the image data in association with each other, according to the processing content corresponding to the situation specified by the specifying unit, the recognition result of the recognition unit is used. Processing means for processing image data captured by the imaging means;
An information providing server comprising: output means for outputting the processed image data.
上記空間内を撮像する撮像ステップと、
上記撮像ステップで撮像した空間内の状況を特定する特定ステップと、
上記撮像ステップで撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識ステップと、
上記特定ステップで特定した状況に対応して設定された加工内容に従い、上記認識ステップの認識結果を用いて上記撮像ステップで撮像した画像データを加工する加工ステップと、
上記加工ステップで加工した画像データを表示する表示ステップと、を含む情報提供方法。 An information providing method for providing information on a situation in a predetermined space,
An imaging step of imaging the space;
A specific step of identifying the situation in the space imaged in the imaging step;
A recognition step for recognizing information about a moving object and / or article included in the image data captured in the imaging step;
A processing step for processing the image data captured in the imaging step using the recognition result of the recognition step according to the processing content set corresponding to the situation specified in the specific step,
A display step for displaying the image data processed in the processing step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003287337A JP2005056213A (en) | 2003-08-06 | 2003-08-06 | System, server and method for providing information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003287337A JP2005056213A (en) | 2003-08-06 | 2003-08-06 | System, server and method for providing information |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005056213A true JP2005056213A (en) | 2005-03-03 |
JP2005056213A5 JP2005056213A5 (en) | 2006-10-19 |
Family
ID=34366341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003287337A Pending JP2005056213A (en) | 2003-08-06 | 2003-08-06 | System, server and method for providing information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005056213A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005277680A (en) * | 2004-03-24 | 2005-10-06 | Hitachi Ltd | Video processor, its operation program, and portable terminal |
JP2008097379A (en) * | 2006-10-12 | 2008-04-24 | Chugoku Electric Power Co Inc:The | Security device and image providing method |
JP2008250686A (en) * | 2007-03-30 | 2008-10-16 | Matsushita Electric Ind Co Ltd | Watching system and masking processing method |
WO2009113265A1 (en) * | 2008-03-11 | 2009-09-17 | パナソニック株式会社 | Tag sensor system and sensor device, and object position estimating device and object position estimating method |
JP2010118851A (en) * | 2008-11-12 | 2010-05-27 | Toyota Motor Corp | Traveling object, traveling object system, and image management method |
JP2010529738A (en) * | 2007-05-31 | 2010-08-26 | イーストマン コダック カンパニー | Home video communication system |
JP2011515736A (en) * | 2008-02-27 | 2011-05-19 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | How to capture scene depth data and apply computer actions |
JP2011128816A (en) * | 2009-12-16 | 2011-06-30 | Canon Inc | Image processing method and device |
JP2013114315A (en) * | 2011-11-25 | 2013-06-10 | Sony Corp | Image processing device, program, image processing method, and terminal |
JP2017534129A (en) * | 2014-08-20 | 2017-11-16 | バーチャル モービング テクノロジーズ エルエルシー | Movement estimation system and method using object measurements |
JP2018510537A (en) * | 2015-01-30 | 2018-04-12 | ノキア テクノロジーズ オサケユイチア | surveillance |
JP2019113900A (en) * | 2017-12-20 | 2019-07-11 | ヤフー株式会社 | Device, method, and program for processing information |
WO2019186676A1 (en) * | 2018-03-27 | 2019-10-03 | 株式会社日立製作所 | Device for behavior estimation and change detection |
DE102019117254B4 (en) * | 2018-07-30 | 2020-11-26 | Toyota Jidosha Kabushiki Kaisha | Image processing device, method for image processing |
WO2021205875A1 (en) * | 2020-04-10 | 2021-10-14 | 日本電気株式会社 | Shop system, processing method, and program |
-
2003
- 2003-08-06 JP JP2003287337A patent/JP2005056213A/en active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4509619B2 (en) * | 2004-03-24 | 2010-07-21 | 株式会社日立製作所 | Video processing device operation program |
JP2005277680A (en) * | 2004-03-24 | 2005-10-06 | Hitachi Ltd | Video processor, its operation program, and portable terminal |
JP2008097379A (en) * | 2006-10-12 | 2008-04-24 | Chugoku Electric Power Co Inc:The | Security device and image providing method |
JP2008250686A (en) * | 2007-03-30 | 2008-10-16 | Matsushita Electric Ind Co Ltd | Watching system and masking processing method |
JP2010529738A (en) * | 2007-05-31 | 2010-08-26 | イーストマン コダック カンパニー | Home video communication system |
JP2011515736A (en) * | 2008-02-27 | 2011-05-19 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | How to capture scene depth data and apply computer actions |
JP5385893B2 (en) * | 2008-03-11 | 2014-01-08 | パナソニック株式会社 | POSITIONING SYSTEM AND SENSOR DEVICE |
WO2009113265A1 (en) * | 2008-03-11 | 2009-09-17 | パナソニック株式会社 | Tag sensor system and sensor device, and object position estimating device and object position estimating method |
US8243136B2 (en) | 2008-03-11 | 2012-08-14 | Panasonic Corporation | Tag sensor system and sensor device, and object position estimating device and object position estimating method |
JP2010118851A (en) * | 2008-11-12 | 2010-05-27 | Toyota Motor Corp | Traveling object, traveling object system, and image management method |
JP2011128816A (en) * | 2009-12-16 | 2011-06-30 | Canon Inc | Image processing method and device |
CN103946850A (en) * | 2011-11-25 | 2014-07-23 | 索尼公司 | An information processing device and an information processing method |
US9760265B2 (en) | 2011-11-25 | 2017-09-12 | Sony Corporation | Information processing device and an information processing method |
JP2013114315A (en) * | 2011-11-25 | 2013-06-10 | Sony Corp | Image processing device, program, image processing method, and terminal |
CN103946850B (en) * | 2011-11-25 | 2018-10-23 | 索尼公司 | Information processing unit and information processing method |
US10528961B2 (en) | 2014-08-20 | 2020-01-07 | Virtual Moving Technologies | System and method for estimating a move using object measurements |
JP2017534129A (en) * | 2014-08-20 | 2017-11-16 | バーチャル モービング テクノロジーズ エルエルシー | Movement estimation system and method using object measurements |
US10936880B2 (en) | 2015-01-30 | 2021-03-02 | Nokia Technologies Oy | Surveillance |
JP2018510537A (en) * | 2015-01-30 | 2018-04-12 | ノキア テクノロジーズ オサケユイチア | surveillance |
JP2019113900A (en) * | 2017-12-20 | 2019-07-11 | ヤフー株式会社 | Device, method, and program for processing information |
WO2019186676A1 (en) * | 2018-03-27 | 2019-10-03 | 株式会社日立製作所 | Device for behavior estimation and change detection |
DE102019117254B4 (en) * | 2018-07-30 | 2020-11-26 | Toyota Jidosha Kabushiki Kaisha | Image processing device, method for image processing |
US11715047B2 (en) | 2018-07-30 | 2023-08-01 | Toyota Jidosha Kabushiki Kaisha | Image processing apparatus, image processing method |
WO2021205875A1 (en) * | 2020-04-10 | 2021-10-14 | 日本電気株式会社 | Shop system, processing method, and program |
JP7586170B2 (en) | 2020-04-10 | 2024-11-19 | 日本電気株式会社 | Store system, processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100567098C (en) | Item management system and item management server | |
US10365660B2 (en) | Computer system and method for automated indoor surveying by robots | |
US7680295B2 (en) | Hand-gesture based interface apparatus | |
JP2005056213A (en) | System, server and method for providing information | |
CN109998429A (en) | Mobile clean robot artificial intelligence for context aware | |
CN102007514B (en) | Article estimating device, article position estimating device, and article estimating method | |
US10137567B2 (en) | Inventory robot | |
CN106092091B (en) | E-machine equipment | |
WO2019240208A1 (en) | Robot, method for controlling robot, and program | |
JPWO2019181499A1 (en) | Store management device and store management method | |
CN102156476A (en) | Intelligent space and nurse robot multi-sensor system and information fusion method of intelligent space and nurse robot multi-sensor system | |
JP6934709B2 (en) | Search robot | |
US11448508B2 (en) | Systems and methods for autonomous generation of maps | |
US20240321082A1 (en) | Surveillance system for automatic sanitation verification | |
JP3738256B2 (en) | Article movement system for living space and robot operation device | |
JP3713021B2 (en) | Article handling system and robot operating device for living space | |
CN114670187A (en) | Autonomous mobility system, autonomous mobility method and storage medium | |
JP2007156577A (en) | Method of gaining color information using life support robot | |
JP2004345784A (en) | Article management system, article management server and article management method | |
JP2005001815A (en) | System, server, and method for controlling articles in living spaces | |
TW200924926A (en) | Autonomous robot and position system and method thereof | |
JP2004323135A (en) | Article management system | |
JP2005018108A (en) | Article management system for living space, article management server, article management method | |
JP2005056066A (en) | Article management system, article management server and article management method | |
JP7287815B2 (en) | Notification system, information processing device, program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090804 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100105 |