[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005056213A - System, server and method for providing information - Google Patents

System, server and method for providing information Download PDF

Info

Publication number
JP2005056213A
JP2005056213A JP2003287337A JP2003287337A JP2005056213A JP 2005056213 A JP2005056213 A JP 2005056213A JP 2003287337 A JP2003287337 A JP 2003287337A JP 2003287337 A JP2003287337 A JP 2003287337A JP 2005056213 A JP2005056213 A JP 2005056213A
Authority
JP
Japan
Prior art keywords
information
article
image data
situation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003287337A
Other languages
Japanese (ja)
Other versions
JP2005056213A5 (en
Inventor
Tomonobu Naruoka
知宣 成岡
Shusaku Okamoto
修作 岡本
Yoshihiko Matsukawa
善彦 松川
Satoshi Sato
智 佐藤
Kazuo Nobori
一生 登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003287337A priority Critical patent/JP2005056213A/en
Publication of JP2005056213A publication Critical patent/JP2005056213A/en
Publication of JP2005056213A5 publication Critical patent/JP2005056213A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for properly changing the contents or level of information to be provided when the system is applied to various spaces such as a home, a day nursery, a nursing-care facility, a hospital, an office, a hotel and a store, so as to provide the information concerning the situations in the spaces. <P>SOLUTION: The system includes a sensing means 120 for picking-up the inner part of the space; an article/mobile body retrieval management means 105 for specifying a situation in the space; an image management means 104 for recognizing information concerning a mobile body and/or an article, which are included in the picked-up image data; a display control means 118 for processing the image data through the use of a recognition result in response to processing contents corresponding to the specified situation by referring to a display control database 123 for storing the situation in the space and the processing contents of the image data with association; and a display part 117 for displaying the processed image data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、所定の空間内の状況に関する情報を提供する情報提供システム、情報提供サーバ、情報提供方法に関する。   The present invention relates to an information providing system, an information providing server, and an information providing method for providing information related to a situation in a predetermined space.

例えば特許文献1には、所定の空間(託児所)内の状況に関する情報として、子供の様子を撮像した画像データを提供するシステムが開示されている。   For example, Patent Document 1 discloses a system that provides image data obtained by capturing the state of a child as information relating to a situation in a predetermined space (daycare).

この情報提供(監視)システムは、託児所内の子供を撮像するカメラを制御する撮像制御手段を有していて、ユーザからのリクエストに応じて、撮像制御手段は、そのユーザの子供を撮像するカメラアングルを定め、ズームアップした画像を撮像し、その画像をネットワークを介してユーザに配信するシステムに構成されている。この構成により、配信される画像には我が子のみが含まれて他人の子供は含まれないため、お互いの子供のプライバシーを保護しつつ、ユーザは託児所内の我が子の様子を確認することができる。
特開2002−269209号公報
This information providing (monitoring) system has an imaging control means for controlling a camera for imaging a child in the daycare center, and the imaging control means is a camera for imaging the child of the user in response to a request from the user. The system is configured such that an angle is determined, a zoomed-in image is captured, and the image is distributed to users via a network. With this configuration, since the delivered image includes only my child and does not include other children, the user checks the state of my child in the daycare center while protecting the privacy of each other's children. be able to.
JP 2002-269209 A

上記特許文献1に開示された情報提供システムは、プライバシーの保護を目的としてカメラアングル及びズームアップを制御することにより、空間内の特定の人を撮像するシステムである。つまり、特許文献1に開示された情報提供システムは、含まれる情報を一つに制限した画像データを撮像するシステムであるため、例えば、他人の子供は画像に含まれない一方で、託児所内全体を様子と我が子の様子との双方を画像に含めるといった対応が不可能である。   The information providing system disclosed in Patent Document 1 is a system that images a specific person in a space by controlling camera angle and zoom-up for the purpose of protecting privacy. That is, since the information providing system disclosed in Patent Document 1 is a system that captures image data in which the included information is limited to one, for example, while the child of another person is not included in the image, the entire daycare center It is impossible to include both the state and the state of my child in the image.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、一般家庭、託児所、介護施設、病院、オフィス、ホテル及び店舗、等の様々な空間に適用されて、その空間内の状況に関する情報を提供する情報提供システムであって、提供する情報の内容やレベルを適宜変更可能なシステムを実現することにある。   The present invention has been made in view of such points, and the object of the present invention is to be applied to various spaces such as general households, daycare, nursing care facilities, hospitals, offices, hotels and stores, and the like. It is an information providing system that provides information related to the situation in the space, and is to realize a system that can appropriately change the content and level of the information to be provided.

本発明は、所定の空間内を撮像した画像データを空間内の状況に応じて加工するものである。   The present invention processes image data obtained by imaging a predetermined space in accordance with the situation in the space.

本発明の情報提供システムは、所定の空間内の状況に関する情報を提供するシステムである。   The information providing system of the present invention is a system that provides information about a situation in a predetermined space.

この情報提供システムは、上記空間内を撮像する撮像手段と、上記撮像手段が撮像した空間内の状況を特定する特定手段と、上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識手段と、上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベースと、上記加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段と、上記加工された画像データを表示する表示手段と、を備える。   The information providing system includes an imaging unit that images the inside of the space, a specifying unit that specifies a situation in the space captured by the imaging unit, and a moving body and / or article included in image data captured by the imaging unit. The identifying means identified by referring to the recognizing means for recognizing the information, the processing content management database storing the situation in the space and the processing content of the image data in association with each other, and the processing content management database Processing means for processing image data captured by the imaging means using the recognition result of the recognition means in accordance with the processing content corresponding to the situation, and display means for displaying the processed image data.

ここで、移動体とは、人、動物、ロボット、等を含み、空間内において種々の活動を行うものをいう。   Here, the moving body includes a person, an animal, a robot, and the like, and performs various activities in the space.

この構成によると、撮像手段が空間内を撮像したときには、特定手段はその空間内の状況を特定し、認識手段は画像データに含まれる移動体及び/又は物品についての情報を認識する。   According to this configuration, when the imaging unit images the inside of the space, the specifying unit specifies the situation in the space, and the recognition unit recognizes information about the moving object and / or the article included in the image data.

そして、加工手段は、加工内容管理データベースを参照して、上記特定手段によって特定された状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する。こうして、画像データが空間内の状況に応じて加工され、それによって、必要な情報は画像データに含めつつ、不要な情報は画像データから削除する等の加工が可能になる。   Then, the processing unit refers to the processing content management database and processes the image data captured by the imaging unit using the recognition result of the recognition unit according to the processing content corresponding to the situation specified by the specifying unit. . In this way, the image data is processed according to the situation in the space, whereby it is possible to perform processing such as deleting necessary information from the image data while including necessary information in the image data.

こうして加工された画像データは、表示手段によって表示される。ユーザは、表示された画像データによって、空間内の状態を確認することができる。   The processed image data is displayed by the display means. The user can check the state in the space from the displayed image data.

上記情報提供システムは、ユーザ操作に応じて画像データの表示要求信号を出力する操作手段をさらに備え、上記加工内容管理データベースは、ユーザ情報及び空間内の状況と、画像データの加工内容とを対応付けて記憶し、上記加工手段は、上記表示要求信号を受けて、その表示要求信号の出力に係るユーザの情報を取得し、当該ユーザ情報と特定手段が特定した状況とに対応する加工内容に従って画像データを加工してもよい。   The information providing system further includes operation means for outputting a display request signal for image data in response to a user operation, and the processing content management database corresponds to the user information and the situation in the space and the processing content of the image data. The processing means receives the display request signal, acquires the user information related to the output of the display request signal, and according to the processing content corresponding to the user information and the situation specified by the specifying means Image data may be processed.

上記加工内容管理データベースは、空間内の状況として、当該空間の属性と、当該空間内に存在する移動体及び/又は物品の属性との組合せを記憶してもよい。   The processing content management database may store a combination of an attribute of the space and an attribute of a moving object and / or an article existing in the space as a situation in the space.

上記情報提供システムは、空間内に存在する移動体及び/又は物品を検出するセンシング手段をさらに備え、上記特定手段は、上記センシング手段の検出結果に基づいて、空間内の状況を特定し、上記認識手段は、撮像手段が撮像した画像データ及び/又は上記センシング手段の検出結果に基づいて画像データに含まれる移動体及び/又は物品についての情報を認識してもよい。   The information providing system further includes sensing means for detecting a moving object and / or article existing in the space, and the specifying means specifies a situation in the space based on a detection result of the sensing means, and The recognizing unit may recognize information about the moving object and / or the article included in the image data based on the image data captured by the imaging unit and / or the detection result of the sensing unit.

上記認識手段は、移動体及び/又は物品についての情報を複数の情報レベル毎に認識し、上記加工内容管理データベースは、空間内の状況と、その状況に応じて選択された情報レベルの認識結果が加工後の画像データに含まれるよう設定された加工内容とを対応付けて記憶してもよい。   The recognition means recognizes information about the moving object and / or article for each of a plurality of information levels, and the processing content management database recognizes the situation in the space and the recognition result of the information level selected according to the situation. May be stored in association with the processing content set to be included in the processed image data.

ここで、情報レベルとは、画像データに含まれる大量の情報を、個別に分けたものである。例えば画像データに移動体が含まれるときには、1)移動体の存在の有無、2)移動体が何(誰)であるか(移動体の属性)、3)移動体の位置、4)移動体の顔の位置、5)移動体の輪郭形状、6)移動体が何をしているか(移動体の動作)、等が、情報レベルの例示として挙げられる。   Here, the information level is obtained by individually dividing a large amount of information included in image data. For example, when a moving object is included in the image data, 1) presence / absence of the moving object, 2) what (who) the moving object (attribute of the moving object), 3) position of the moving object, 4) moving object Examples of information levels include the position of the face, 5) the contour shape of the moving body, 6) what the moving body is doing (movement of the moving body), and the like.

上記情報提供システムは、上記撮像手段が撮像した画像データと認識手段が認識した認識結果とを対応付けて蓄積する画像管理データベースをさらに備え、上記加工手段は、上記画像管理データベースに蓄積されている画像データを、上記画像管理データベースに蓄積されている認識結果を用いて加工してもよい。   The information providing system further includes an image management database that stores the image data captured by the imaging unit and the recognition result recognized by the recognition unit in association with each other, and the processing unit is stored in the image management database. The image data may be processed using the recognition result stored in the image management database.

本発明の情報提供サーバは、所定の空間内の状況に関する情報を提供するサーバである。   The information providing server of the present invention is a server that provides information related to a situation in a predetermined space.

この情報提供サーバは、撮像手段が撮像した空間内の状況を特定する特定手段と、上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報の認識を行う認識手段と、上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段と、上記加工された画像データを出力する出力手段と、を備える。   The information providing server includes a specifying unit for specifying a situation in a space captured by the imaging unit, a recognition unit for recognizing information about a moving object and / or an article included in the image data captured by the imaging unit, By referring to the processing content management database that stores the situation in the space and the processing content of the image data in association with each other, according to the processing content corresponding to the situation specified by the specifying unit, using the recognition result of the recognition unit Processing means for processing image data picked up by the image pickup means, and output means for outputting the processed image data.

本発明の情報提供方法は、所定の空間内の状況に関する情報を提供する方法である。   The information providing method of the present invention is a method for providing information related to a situation in a predetermined space.

この情報提供方法は、上記空間内を撮像する撮像ステップと、上記撮像ステップで撮像した空間内の状況を特定する特定ステップと、上記撮像ステップで撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識ステップと、上記特定ステップで特定した状況に対応して設定された加工内容に従い、上記認識ステップの認識結果を用いて上記撮像ステップで撮像した画像データを加工する加工ステップと、上記加工ステップで加工した画像データを表示する表示ステップと、を含む。   The information providing method includes an imaging step of imaging the space, a specifying step of specifying a situation in the space imaged in the imaging step, and a moving object and / or article included in the image data captured in the imaging step A recognition step for recognizing information about the image, and a processing step for processing the image data captured in the imaging step using the recognition result in the recognition step according to the processing content set in correspondence with the situation specified in the specifying step And a display step for displaying the image data processed in the processing step.

本発明の情報提供システム、情報提供サーバ、情報提供方法によれば、撮像した画像データを空間内の状況に応じて加工することによって提供する情報の内容やレベルが変更可能になり、それによって必要な情報を画像データに含めつつ、不要な情報は画像データから削除するといった、柔軟な対応を実現することができる。   According to the information providing system, the information providing server, and the information providing method of the present invention, it is possible to change the content and level of information to be provided by processing captured image data according to the situation in the space, thereby making it necessary. It is possible to realize a flexible response such that unnecessary information is included in the image data and unnecessary information is deleted from the image data.

以下、本発明の実施の形態について、図面を参照しながら説明する。本発明に係る情報提供システム(監視システム)は、所定の空間において物品及び人(移動体)の管理をする物品/移動体管理システムに含まれるシステムである。この監視システムは、物品/移動体管理システムで用いられる撮像手段(センシング手段)を利用して、空間内の監視を行う。尚、所定の空間は、一般家庭、託児所、介護施設、オフィス、ホテル、店舗及び病院等の、人が活動を行う空間(生活空間)であり、本実施の形態では、一般家庭を対象空間とする。また、一般家庭における部屋一つ一つを空間として、その各空間(部屋)を環境と呼ぶ。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. An information providing system (monitoring system) according to the present invention is a system included in an article / moving body management system that manages articles and people (moving bodies) in a predetermined space. This monitoring system monitors the space using an imaging means (sensing means) used in the article / moving body management system. Note that the predetermined space is a space (a living space) in which a person performs an activity such as a general home, a daycare, a nursing facility, an office, a hotel, a store, and a hospital. In the present embodiment, the target space is a general home. And In addition, each room in a general home is called a space, and each space (room) is called an environment.

上記物品/移動体管理システムは、図1に示すように、環境管理サーバ101 (以下、単にサーバと省略することもある)、作業ロボット102 (以下、単にロボットと省略することもある)、及び操作端末103 の大きく分けて3つのサブシステムから構成される。これら3つのサブシステム101 〜103 は、無線又は有線のネットワークを介して接続されていて、このネットワークを介して情報のやり取りを行うように構成される。   As shown in FIG. 1, the article / moving body management system includes an environment management server 101 (hereinafter simply abbreviated as a server), a work robot 102 (hereinafter abbreviated as a robot), and The operation terminal 103 is roughly divided into three subsystems. These three subsystems 101 to 103 are connected via a wireless or wired network and configured to exchange information via this network.

3つのサブシステム101 〜103 はそれぞれ、制御手段110 ,115 ,119 と送受信手段109 とを備える。各サブシステム101 〜103 の送受信手段109 は処理が同じであるため、同じ符号を付すことにする。   Each of the three subsystems 101 to 103 includes control means 110, 115, 119 and transmission / reception means 109. Since the transmission / reception means 109 of each of the subsystems 101 to 103 has the same processing, the same reference numerals are given.

ここで、物品とは、人や作業ロボット102 によって取り扱われるものをいう。また、人及び作業ロボット102 は物品の取り扱いを行うものであり、以下、これら総称して移動体と呼ぶ。さらに、物品の取り扱いを行っている移動体を、物品取扱主体と呼ぶ。   Here, the article refers to an item handled by a person or work robot 102. The person and the work robot 102 handle articles, and are hereinafter collectively referred to as a moving body. Furthermore, a mobile object that handles an article is called an article handling entity.

−センシング手段の構成−
物品/移動体管理システムは、各環境内の状況を把握するセンシング手段120 を備えており、このセンシング手段120 は、1番目のサブシステムである環境管理サーバ101 に接続される。
-Configuration of sensing means-
The article / moving body management system includes sensing means 120 for grasping the situation in each environment, and the sensing means 120 is connected to the environment management server 101 which is the first subsystem.

上記センシング手段120 は、各環境の出入口の状況を検出する出入口センシング手段121 と、各環境内の状況を検出する環境内センシング手段122 とから構成される。   The sensing means 120 includes an entrance / exit sensing means 121 for detecting the state of the entrance / exit of each environment and an in-environment sensing means 122 for detecting the situation in each environment.

(出入口センシング手段)
上記出入口センシング手段121 は、環境に対して物品及び移動体が出入したことを検出するものである。出入口センシング手段121 は、環境毎に設置される。
(Entrance / entrance sensing means)
The entrance / exit sensing means 121 detects that an article and a moving body have entered and exited the environment. The entrance / exit sensing means 121 is installed for each environment.

この出入口センシング手段121 としては、電子タグとリーダライタとからなるものを採用することができる。   As the entrance / exit sensing means 121, a device comprising an electronic tag and a reader / writer can be employed.

電子タグとはデータを蓄えるICとデータを無線で送受信するアンテナとから構成されるデバイスであり、リーダライタとは電子タグに書き込まれた情報を読みとったり、電子タグに情報を書き込んだりすることのできる装置である。   An electronic tag is a device composed of an IC that stores data and an antenna that transmits and receives data wirelessly. A reader / writer reads information written to the electronic tag and writes information to the electronic tag. It is a device that can.

この電子タグとリーダライタとからなる出入口センシング手段121 は、例えば図2に示すように、環境と外部との出入口である窓51及びドア52の開口部それぞれに、ゲート型のリーダライタ(RFアンテナ)41,42を配設して構成される。   For example, as shown in FIG. 2, the entrance / exit sensing means 121 composed of the electronic tag and the reader / writer has a gate type reader / writer (RF antenna) at each of the openings of the window 51 and the door 52 which are the entrance and exit of the environment and the outside. ) 41 and 42 are provided.

また、この出入口を通過する全ての物品には、予め上記電子タグが付される。この電子タグには、その物品に関するデータ、例えば物品の種類、形状、重さ、その物品の画像、製造年月日等のデータを埋め込むのがよい。   In addition, the electronic tag is attached in advance to all articles that pass through the doorway. The electronic tag may be embedded with data relating to the article, such as data such as the kind, shape, weight, article image, date of manufacture, etc. of the article.

さらに、この出入口を通過する移動体にも、予め電子タグが付される。人に付す電子タグは、その人が常時携帯するもの(例えば腕時計や指輪等)に埋め込んでもよい。移動体に付す電子タグには、その移動体に関するデータ、例えば人の名前や生年月日等の情報を書き込むのがよい。   Further, an electronic tag is also attached in advance to the moving body that passes through the doorway. An electronic tag attached to a person may be embedded in something that the person always carries (for example, a wristwatch or a ring). It is preferable to write data relating to the moving body, for example, information such as a person's name and date of birth on the electronic tag attached to the moving body.

出入口センシング手段121 をこのように構成することによって、物品や移動体がこの窓51やドア52を通過するときには、その出入口に設置されたリーダライタ41,42が、物品や移動体に取り付けられた電子タグからの情報を読み取ることになる。こうして、電子タグからの情報を読み取ることによって、出入口センシング手段121 は、物品及び移動体が出入口を通過したことを検出することができる。   By configuring the entrance / exit sensing means 121 in this way, when the article or the moving body passes through the window 51 or the door 52, the reader / writers 41 and 42 installed at the entrance / exit are attached to the article or the moving body. Information from the electronic tag is read. Thus, by reading information from the electronic tag, the entrance / exit sensing means 121 can detect that the article and the moving body have passed through the entrance / exit.

また、上記リーダライタを出入口に対して二重に設置すれば、出入口センシング手段121 は、物品及び移動体が環境内に入ったのか、環境内から出たのかを区別して検出することができる。   Further, if the reader / writer is installed twice with respect to the entrance / exit, the entrance / exit sensing means 121 can detect whether the article and the moving body have entered the environment or the exit from the environment.

つまり、図示は省略するが、第1のリーダライタを環境外である、窓51やドア52の開口部の外側に設置する一方で、第2リーダライタを環境内である、窓51やドア52の開口部の内側に設置するのである。この構成によって、環境の外側に設置された第1リーダライタが電子タグからの情報を検出した後に、内側に設置された第2リーダライタが電子タグからの情報を検出したときには、その電子タグが取り付けられた物品又は移動体は、外部から環境内に入ったと特定することができる。逆に、環境の内側に設置された第2リーダライタが電子タグからの情報を検出した後に、外側に設置された第1リーダライタが電子タグからの情報を検出したときには、その電子タグが取り付けられた物品又は移動体は、環境内から外部に出たと特定することができる。   That is, although illustration is omitted, the first reader / writer is installed outside the opening of the window 51 and the door 52 outside the environment, while the second reader / writer is inside the environment, the window 51 and the door 52. It is installed inside the opening. With this configuration, when the first reader / writer installed outside the environment detects information from the electronic tag and the second reader / writer installed inside detects the information from the electronic tag, the electronic tag The attached article or moving body can be identified as having entered the environment from the outside. Conversely, when the second reader / writer installed inside the environment detects information from the electronic tag and the first reader / writer installed outside detects information from the electronic tag, the electronic tag is attached. The taken article or moving body can be identified as having gone out of the environment.

尚、図2では、窓51やドア52の開口部の上下左右を囲むようにリーダライタ41,42を設置しているが、これは電子タグの向きに依存せず高精度の検出を行なうためであり、リーダライタ41,42は、窓51やドア52の上下位置のみ、左右位置のみ、又はその中央位置に設置してもよい。   In FIG. 2, the reader / writers 41 and 42 are installed so as to surround the upper, lower, left and right sides of the openings of the window 51 and the door 52. However, this is because detection is performed with high accuracy without depending on the direction of the electronic tag. The reader / writers 41 and 42 may be installed only at the vertical position of the window 51 and the door 52, only at the horizontal position, or at the center position thereof.

尚、出入口センシング手段121 は、電子タグとリーダライタとからなるものに限らず、その他の構成のものを採用してもよい。   Note that the entrance / exit sensing means 121 is not limited to the one composed of the electronic tag and the reader / writer, and may have other configurations.

(環境内センシング手段)
上記環境内センシング手段122 は、環境内に存在する物品や設備(家具等を含む)、及び人やロボット102 の位置と状態とを常時検出するものであり、環境毎に設置される。環境内センシング手段122 は、ここでは画像センサを用いたものに構成される。つまり、この環境内センシング手段122 は、部屋の天井や壁等に固定されて環境内の様子を撮像するカメラを備えており、このカメラが撮像したカメラ画像によって、環境内の物品及び移動体の検出が行われる。
(Environmental sensing means)
The in-environment sensing means 122 constantly detects the articles and equipment (including furniture etc.) existing in the environment, and the positions and states of people and the robot 102, and is installed for each environment. The in-environment sensing means 122 is configured here using an image sensor. That is, the in-environment sensing means 122 includes a camera that is fixed to the ceiling or wall of the room and captures the state of the environment. Detection is performed.

ここで、物品及び移動体を検出する方法について説明する。カメラ画像を用いて環境内の物品や移動体を検出する一般的な方法の一つに、背景差分法があり、環境内センシング手段122 としては、その背景差分法を利用することができる。この背景差分法とは、背景としてのモデル画像を予め用意しておき、現在のカメラ画像と上記モデル画像との差分を取ることによって、対象物を検出する方法である。環境内センシング手段122 は、環境内に存在する物品や移動体を検出するため、モデル画像としては、環境の状況変動が少ない場合は、その環境内に物品・移動体が存在していないときに撮像した画像を用いればよい。尚、環境の状況変動が激しい場合は、所定の時間間隔を空けて撮影された複数の画像を平均して得られた画像を、モデル画像として用いればよい。   Here, a method for detecting an article and a moving body will be described. One common method for detecting articles and moving objects in the environment using camera images is the background difference method, and the background difference method can be used as the environment sensing means 122. The background difference method is a method of detecting a target object by preparing a model image as a background in advance and taking a difference between the current camera image and the model image. Since the environmental sensing means 122 detects articles and moving objects present in the environment, the model image may be displayed when there are no articles or moving objects in the environment if there is little environmental fluctuation. What is necessary is just to use the imaged image. In the case where the environmental situation changes greatly, an image obtained by averaging a plurality of images taken with a predetermined time interval may be used as a model image.

具体的に、背景差分法による物品及び移動体の検出方法について、図3を参照しながら説明する。ここで、図3(a)はモデル画像の例を示す図であり、図3(b)はある時点でカメラが撮影した画像(入力画像)を示す図であり、図3(c)は、入力画像からモデル画像を差し引くことによって得られた背景差分画像の例を示す図である。図3(c)から分かるように、背景差分画像では、入力画像とモデル画像との差のある部分が浮き出てくる(同図の網掛けの領域参照(差分領域))。このため、その浮き出た部分のみをそれぞれ取り出すことで環境内に存在する物品又は移動体を検出することができる。さらに、その画像を画像処理することによって、その物品又は移動体が何であるかを特定する(この処理は、後述する物品/移動体検索・管理手段105 が行う)。このように、背景差分法を用いることによって、環境内の物品及び移動体の状況を検出することが可能になる。さらに、環境内に2つのカメラを設けるようにすれば、ステレオ視による三次元計測技術を用いて物品の形状及び姿勢の情報を取得することも可能になる。   Specifically, an article and moving object detection method based on the background subtraction method will be described with reference to FIG. Here, FIG. 3A is a diagram showing an example of a model image, FIG. 3B is a diagram showing an image (input image) taken by the camera at a certain point, and FIG. It is a figure which shows the example of the background difference image obtained by deducting a model image from an input image. As can be seen from FIG. 3C, in the background difference image, a portion having a difference between the input image and the model image appears (shaded area reference (difference area) in FIG. 3). For this reason, the articles | goods or moving body which exists in an environment can be detected by taking out only the part which protruded, respectively. Further, the image is processed to identify what the article or moving body is (this processing is performed by the article / moving body search / management means 105 described later). As described above, by using the background subtraction method, it is possible to detect the status of articles and moving objects in the environment. Furthermore, if two cameras are provided in the environment, it becomes possible to acquire information on the shape and orientation of the article using a three-dimensional measurement technique based on stereo vision.

上述した電子タグ及びリーダライタを用いれば、電子タグに埋め込まれた情報によって物品及び移動体の特定が容易に行い得ることから、環境内センシング手段122 は、画像センサと電子タグとの双方を用いるものとすることも可能である。つまり、上述した背景差分法によって、環境内の物品及び移動体の位置を特定し、さらに電子タグを使ってその物品及び移動体を特定するというハイブリッド処理を行うのである。具体的な処理として、以下の2つの例を挙げることができる。   If the above-described electronic tag and reader / writer are used, the article and the moving body can be easily identified by the information embedded in the electronic tag. Therefore, the environmental sensing means 122 uses both the image sensor and the electronic tag. It is also possible. That is, a hybrid process is performed in which the position of the article and the moving object in the environment is specified by the background difference method described above, and the article and the moving object are specified using the electronic tag. The following two examples can be given as specific processing.

一つの例は、環境内の天井や壁等にカメラを設置し、作業ロボット102 にはリーダライタを取り付けて環境内センシング手段122 を構成する。また、各物品及び移動体には電子タグを取り付けておく。そして、上記カメラ画像を用いた背景差分法によって、環境内の物品又は移動体の位置を特定する。次に、位置特定した物品又は移動体の近傍に上記ロボット102 を移動させて、そのロボット102 に取り付けたリーダライタによって、その物品又は移動体に取り付けられた電子タグから情報を読みとり、その物品又は移動体を特定する。   In one example, a camera is installed on a ceiling or wall in the environment, and a reader / writer is attached to the work robot 102 to constitute the in-environment sensing means 122. Moreover, an electronic tag is attached to each article and the moving body. Then, the position of the article or moving body in the environment is specified by the background subtraction method using the camera image. Next, the robot 102 is moved in the vicinity of the positioned article or moving body, and the reader / writer attached to the robot 102 reads information from the electronic tag attached to the article or moving body, and the article or Identify moving objects.

もう一つの例は、環境内の天井や壁等にカメラを設置し、その環境内に複数個のリーダライタを略均等に設置して環境内センシング手段122 を構成する。このリーダライタは、電子タグのデータ読みとりに関して指向性を有しかつ、その読み取り方向が可変であるものとする。そして、上記カメラ画像を用いた背景差分法によって、環境内の物品又は移動体の位置を特定する。次に、位置特定した物品又は移動体に対し最も近い位置に設置されたリーダライタを選択すると共に、そのリーダライタの読みとり方向をその物品又は移動体に向ける。こうして、その物品又は移動体に取り付けられた電子タグから情報を読み取り、その物品又は移動体を特定する。   In another example, the in-environment sensing means 122 is configured by installing cameras on a ceiling or a wall in the environment and installing a plurality of reader / writers in the environment substantially evenly. The reader / writer is assumed to have directivity with respect to data reading of the electronic tag and the reading direction is variable. Then, the position of the article or moving body in the environment is specified by the background subtraction method using the camera image. Next, a reader / writer installed at a position closest to the specified article or moving body is selected, and the reading direction of the reader / writer is directed to the article or moving body. In this way, information is read from the electronic tag attached to the article or moving body, and the article or moving body is specified.

上記センシング手段120 は、以上のようにして物品又は移動体を検出したときには、その検出結果を、サーバ101 の物品/移動体検索・管理手段105 に送信する。   When the sensing means 120 detects an article or a moving body as described above, the sensing result is transmitted to the article / moving body search / management means 105 of the server 101.

−環境管理サーバの構成−
環境管理サーバ101 は、図1に示すように、上記各出入口センシング手段121 及び環境内センシング手段122 によって把握した状況のうち、環境内に存在する物品と移動体との状況を管理する物品/移動体検索・管理手段105 及びその物品及び移動体のデータを蓄積する物品/移動体データベース160 と、上記物品及び移動体以外の環境全体の状況を管理する環境マップ管理手段107 及びその環境全体のデータを蓄積する環境マップ108 と、カメラの撮像した画像データ等を蓄積する画像管理データベース106 及び画像管理データベース106 に蓄積するデータの管理をする画像管理手段104 と、物品/移動体データベース160 のデータや環境マップ108 のデータの問い合わせ(信号)を外部から受信したり、その応答信号を外部に発信したり、また、ロボット102 に対する制御コマンドを送信したりする送受信手段109 と、これらの手段104 ,105 ,107 ,109 をコントロールする制御手段110 とからなる。
-Configuration of environmental management server-
The environment management server 101, as shown in FIG. 1, out of the situation grasped by each of the entrance / exit sensing means 121 and the in-environment sensing means 122, the article / movement that manages the situation between the article and the moving body existing in the environment. Body search / management means 105, article / moving body database 160 for storing data of the article and moving body, environment map management means 107 for managing the situation of the entire environment other than the article and moving body, and data of the entire environment The environment map 108 for storing the image, the image management database 106 for storing the image data taken by the camera, the image management means 104 for managing the data stored in the image management database 106, the data of the article / mobile object database 160, Receives data queries (signals) from the environment map 108, sends response signals to the outside, and robot 1 A transmission / reception means 109 for transmitting a control command for 02 and a control means 110 for controlling these means 104, 105, 107, 109 are comprised.

この環境管理サーバ101 としては汎用コンピュータを用いることが可能である。この場合は、後述する各処理を実行する制御プログラムをコンピュータが読み込むことによって、そのコンピュータを環境管理サーバ101 として用いることが可能になる。   As the environment management server 101, a general-purpose computer can be used. In this case, the computer can be used as the environment management server 101 when the computer reads a control program for executing each process described later.

(物品/移動体検索・管理手段)
物品/移動体検索・管理手段105 は、センシング手段120 によって検出された各物品及び移動体の情報を、物品/移動体データベース(DB)160 に蓄積するものである。
(Goods / mobile object search / management means)
The article / moving body search / management means 105 accumulates information on each article and moving body detected by the sensing means 120 in an article / moving body database (DB) 160.

また、物品/移動体検索・管理手段105 は、センシング手段120 の検出結果に基づいて、物品及び移動体の特定し、それらの特定結果を上記物品/移動体DB160 に蓄積する。こうして、物品及び移動体の特定をすることによって、環境内の状況を特定する。   The article / moving body search / management means 105 identifies the article and the moving body based on the detection result of the sensing means 120, and accumulates the identification results in the article / moving body DB 160. Thus, the situation in the environment is specified by specifying the article and the moving body.

さらに、上記物品/移動体検索・管理手段105 は、制御手段110 から物品/移動体DB160 に問い合わせがあった場合に、その問い合わせの内容に応じて必要な情報を物品/移動体DB160 から取り出し、その情報を制御手段110 に送ることも行う。   Further, when there is an inquiry from the control means 110 to the article / mobile object DB 160, the article / mobile object search / management means 105 takes out necessary information from the article / mobile object DB 160 according to the content of the inquiry, The information is also sent to the control means 110.

上記物品/移動体検索・管理手段105 は、図4に示すように、それぞれセンシング手段120 の検出結果を受けて、物品を特定する物品特定手段32及び移動体を特定する移動体特定手段33と、を備える。   As shown in FIG. 4, the article / moving body search / management means 105 receives the detection result of the sensing means 120, and identifies an article specifying means 32 for specifying an article and a moving body specifying means 33 for specifying a moving body. .

上記物品特定手段32は、上記センシング手段120 によって検出された物品が何であるかを特定し、その物品の情報を物品/移動体DB160 に蓄積するものである。この物品特定手段32は、上述したように、センシング手段120 が電子タグとリーダライタを用いたものであるときには、その電子タグからの情報に基づいて物品の特定をする。また、センシング手段120 がカメラ画像を用いたものであるときには、そのカメラ画像に基づいて物品の認識処理を行い、その物品の特定を行う。   The article specifying means 32 specifies what the article is detected by the sensing means 120, and stores information on the article in the article / mobile DB 160. As described above, the article specifying unit 32 specifies an article based on information from the electronic tag when the sensing unit 120 uses an electronic tag and a reader / writer. Further, when the sensing means 120 uses a camera image, an article recognition process is performed based on the camera image and the article is specified.

上記移動体特定手段33は、上記センシング手段120 によって検出された移動体が誰であるかを特定し、その移動体の情報を物品/移動体DB160 に蓄積するものである。   The moving body specifying means 33 specifies who is the moving body detected by the sensing means 120 and accumulates information on the moving body in the article / moving body DB 160.

この移動体特定手段33は、上述したように、センシング手段120 が電子タグとリーダライタを用いたものであるときには、その電子タグからの情報に基づいて移動体の特定をする。   As described above, when the sensing unit 120 uses an electronic tag and a reader / writer, the mobile unit specifying unit 33 specifies the mobile unit based on information from the electronic tag.

また、センシング手段120 がカメラ画像を用いたものであるときには、そのカメラ画像に基づいて移動体の認証処理を行い、その移動体の特定を行う。具体的には、カメラに移動体が存在する領域を撮像させ、その撮像した画像に対して顔認証処理を行い、その認証処理によって移動体を特定する。ここで、環境内センシング手段122 として用いるカメラは、環境内の全体を撮像するカメラであるため、通常、広域を撮影する広角カメラである。この広角カメラの撮像画像は解像度が比較的低く、顔認証処理を行なうには解像度が足りない場合がある。そこで、背景差分法に用いるカメラとは別に、顔認証処理用のカメラとして狭角の高分解能カメラを、環境内に設置又はロボット102 に設置してもよい。この場合、移動体特定手段33は、狭角カメラに移動体が存在する領域を撮像させ、その撮像した画像に対して顔認証処理を行う。こうすることにより、移動体特定手段33は物品取扱主体を精度よく特定することができる。尚、移動体特定手段33における移動体の特定方法は、顔認証処理に限らず、例えば虹彩認証等のその他の認証処理によって行ってもよい。   When the sensing means 120 uses a camera image, the mobile body is authenticated based on the camera image and the mobile body is specified. Specifically, the camera captures an area where the moving body is present, performs face authentication processing on the captured image, and identifies the moving body by the authentication processing. Here, since the camera used as the in-environment sensing means 122 is a camera that captures the entire environment, it is usually a wide-angle camera that captures a wide area. The captured image of this wide-angle camera has a relatively low resolution, and there are cases where the resolution is insufficient to perform face authentication processing. Therefore, apart from the camera used for the background subtraction method, a narrow-angle high-resolution camera may be installed in the environment or the robot 102 as a camera for face authentication processing. In this case, the moving body specifying unit 33 causes the narrow-angle camera to capture an area where the moving body exists, and performs face authentication processing on the captured image. By doing so, the moving body specifying means 33 can specify the article handling entity with high accuracy. The moving body specifying method in the moving body specifying means 33 is not limited to the face authentication process, and may be performed by other authentication processes such as iris authentication.

また、物品/移動体検索・管理手段105 は、物品が移動体によって取り扱われていることを検出し、この場合は、物品とそれを取り扱う移動体(物品取扱主体)とをそれぞれ特定する。   Further, the article / moving body search / management means 105 detects that the article is handled by the moving body, and in this case, identifies the article and the moving body (article handling entity) that handles the article.

(物品/移動体データベース)
環境管理サーバ101 の物品/移動体DB160 は、物品及び移動体の情報を蓄積するDBであり、例えば図5,図6に示すように構成される。つまり、この物品/移動体DB160 は、物品を扱う物品データベース61(図5)と、移動体を扱う移動体データベース62(図6)とからなる。後述するように、物品/移動体DB160 に蓄積される情報は、環境内の状況を特定する際にも利用される。
(Article / Moving Object Database)
The article / moving body DB 160 of the environment management server 101 is a DB for storing information on the article and the moving body, and is configured as shown in FIGS. 5 and 6, for example. That is, the article / moving body DB 160 includes an article database 61 (FIG. 5) that handles articles and a moving body database 62 (FIG. 6) that handles moving bodies. As will be described later, the information stored in the article / moving body DB 160 is also used when specifying the situation in the environment.

物品DB61は、物品データ611 、物品履歴データ612 、物品属性データ613 の3種類のデータをそれぞれ蓄積するサブデータベースからなる。各サブデータベースに蓄積されるデータ内容は以下の通りである。   The article DB 61 is composed of sub-databases each storing three types of data, article data 611, article history data 612, and article attribute data 613. The data contents stored in each sub-database are as follows.

1)物品データ611 :個々の物品を区別するためのID、物品履歴データへのポインタ、物品の属性が記載された物品属性データへのポインタ、が蓄積される。ここで、複数の物品について、その種類が同じであっても物理的に別の存在であれば、それらはそれぞれ別の物品として扱うため異なるIDが割り当てられると共に、異なる物品属性データへのポインタを持つ。一方、種類が同じ物品は同じ物品属性を持つため、異なるIDが割り当てられていても、同じ物品属性データへのポインタを持つ。これにより、データベースの容量を節約する。   1) Article data 611: An ID for distinguishing individual articles, a pointer to article history data, and a pointer to article attribute data describing the attributes of the article are stored. Here, if a plurality of articles are of the same type but are physically different, different IDs are assigned to treat them as different articles, and pointers to different article attribute data are set. Have. On the other hand, since articles of the same type have the same article attributes, they have pointers to the same article attribute data even if different IDs are assigned. This saves database capacity.

2)物品履歴データ612 :環境内において物品が取り扱われた履歴を格納するもので、取り扱われた時刻(取り扱い日時)、取扱内容、物品取扱主体、取扱い後の位置、の4項目からなる。この内、取扱内容は、新規、移動等と表される。また、位置データの表し方としては種々の表現が考えられるが、ここでは、図5に示すように、6つのパラメータで位置を表現することとする。つまり、最初の3つのパラメータ(x1 ,y1 ,z1)は物品の位置(重心位置等を用いる)を表し、後の3つのパラメータ(α1 ,β1 ,γ1 )は、物品の向きを表す。物品の位置及び姿勢は、センシング手段120 又は作業ロボット102 のセンサ111 によって取得する。また、物品履歴データにおける物品取扱主体は、上記移動体特定手段33によって特定された移動体である。物品履歴データでは、「取扱後の位置」における最新のデータが、物品の現在位置の情報となる。   2) Article history data 612: Stores the history of handling articles in the environment, and consists of four items: handling time (handling date and time), handling contents, handling subject, and position after handling. Among these, the handling contents are expressed as new, movement, and the like. In addition, various representations of the position data can be considered. Here, the position is represented by six parameters as shown in FIG. That is, the first three parameters (x1, y1, z1) represent the position of the article (using the center of gravity position or the like), and the latter three parameters (α1, β1, γ1) represent the direction of the article. The position and orientation of the article are acquired by the sensing means 120 or the sensor 111 of the work robot 102. Further, the article handling entity in the article history data is a moving body specified by the moving body specifying means 33. In the article history data, the latest data in the “position after handling” is information on the current position of the article.

3)物品属性データ613 :物品が有する物理的な属性情報を格納するもので、属性情報の例としては、図5に示すように、物品の重さ、形状モデル・サイズが挙げられる。こうした属性情報は、物品に取り付けられた電子タグから取得してデータベースに格納してもよいし、ユーザが手動で入力した情報をデータベースに格納してもよい。   3) Article attribute data 613: This stores physical attribute information possessed by an article. Examples of attribute information include the weight of the article and the shape model size as shown in FIG. Such attribute information may be acquired from an electronic tag attached to the article and stored in a database, or information manually input by a user may be stored in the database.

移動体DB62は、図6に示すように、移動体データ621 、移動体履歴データ622 、及び移動体属性データ(図示省略)の3種類のデータをそれぞれ蓄積するサブデータベースからなり、各サブデータベースに蓄積されるデータ内容は以下の通りである。   As shown in FIG. 6, the mobile object DB 62 is composed of sub-databases each storing three types of data: mobile object data 621, mobile object history data 622, and mobile object attribute data (not shown). The contents of the accumulated data are as follows.

1)移動体データ621 :個々の移動体を区別するためのID、移動体履歴データへのポインタが蓄積される。移動体データ621 に格納される移動体は、ユーザが手動で予め登録するようにすればよい。   1) Mobile object data 621: An ID for distinguishing individual mobile objects and a pointer to mobile object history data are stored. The mobile body stored in the mobile body data 621 may be registered in advance manually by the user.

2)移動体履歴データ622 :移動体の、ある時刻における位置と、その時刻における状態との3項目からなる。ここで、移動体は、物品とは異なり空間内に占める体積が大きく、ロボット102 が環境内を移動するときの障害物となる。このため、移動体の位置はできるだけ現実に則した表現が好ましい。ここでは、床面上で移動体が占めるおおよその領域を円で表すこととする。すなわち、円の中心位置のXY座標(x4 ,y4)と円の半径(r1)で移動体の位置を表す。これは、ロボット102 が障害物を避けつつ経路作成が可能となる一方で、移動体の位置を必要最小限の情報で表すためである。尚、移動体が占める領域は、さらに厳密な表現をしてもよい。例えば移動体の床面上で占める領域の輪郭を近似する複数個の線分ベクトルを使って、移動体の位置を表現してもよい。   2) Moving object history data 622: It consists of three items: the position of the moving object at a certain time and the state at that time. Here, unlike the article, the moving body occupies a large volume in the space and becomes an obstacle when the robot 102 moves in the environment. For this reason, it is preferable that the position of the moving body be expressed as realistic as possible. Here, an approximate area occupied by the moving object on the floor surface is represented by a circle. That is, the position of the moving object is represented by the XY coordinates (x4, y4) of the center position of the circle and the radius (r1) of the circle. This is because the robot 102 can create a route while avoiding an obstacle, while expressing the position of the moving body with the minimum necessary information. Note that the region occupied by the moving object may be expressed more strictly. For example, the position of the moving body may be expressed using a plurality of line segment vectors that approximate the outline of the area occupied on the floor of the moving body.

また、移動体履歴データにおける移動体の状態とは、その移動体が人であれば、「座る」「立つ」「寝る」「歩く」等の一般的な人の動作を表し、移動体がロボット102 であれば、「把持」「解放」等のロボット102 が物品に対して行う動作を表す。例えば移動体の状態となり得る状態候補を予め複数用意しておき、センシング手段120 による検出結果等に基づいて移動体の状態がどの状態候補に当てはまるかを判断すればよい。尚、ロボット102 に関する移動体履歴データでは、その動作だけでなく、作業対象の物品IDと併せて「物品ID:動作内容」として格納する。具体的には、「kan-small-0001:把持」となる。   In addition, the state of the moving object in the moving object history data represents general human actions such as “sitting”, “standing”, “sleeping”, and “walking” if the moving object is a person. 102 represents an operation performed by the robot 102 on the article such as “gripping” and “releasing”. For example, a plurality of state candidates that can be in the state of the moving body are prepared in advance, and it is only necessary to determine to which state candidate the state of the moving body applies based on the detection result by the sensing means 120 or the like. In the moving body history data related to the robot 102, not only the operation but also the article ID of the work target is stored as “article ID: operation content”. Specifically, “kan-small-0001: grip”.

3)移動体属性データ:移動体が有する共有の属性情報を蓄積するものであり、移動体属性データとしては、移動体の重さや形状等の物理属性が挙げられる。この移動体属性データは、センシング手段120 (電子タグとリーダライタ)によって取得することが可能である。また、手動でこれらの情報を入力してもよい。   3) Mobile object attribute data: Accumulated shared attribute information possessed by the mobile object. Examples of the mobile object attribute data include physical attributes such as the weight and shape of the mobile object. This mobile attribute data can be acquired by the sensing means 120 (electronic tag and reader / writer). Moreover, you may input such information manually.

この物品/移動体DB160 へのアクセスは、物品/移動体検索・管理手段105 にのみ許可されており、これにより、同じ物品又は移動体データに対する書き込みと読み出しとが同時に行われないようにする。   Access to the article / mobile body DB 160 is permitted only to the article / mobile body search / management means 105, thereby preventing writing and reading of the same article or mobile body data from being performed simultaneously.

次に、センシング手段120 によって検出された物品や、人及びロボット102 等の移動体の情報が、物品/移動体検索・管理手段105 によって、どのように物品/移動体DB160 に格納されるか、また、その物品/移動体DB160 のデータがどのように更新されていくかについて、図5〜7を参照しながら具体的に説明する。   Next, how the article detected by the sensing means 120 and information on the moving body such as the person and the robot 102 is stored in the article / moving body DB 160 by the article / moving body search / management means 105, Further, how the data of the article / moving body DB 160 is updated will be specifically described with reference to FIGS.

図7は、一般家庭における、ある部屋(環境)内を示す俯瞰図であって、2つの缶ジュース21,22が、この部屋に対して出入すると共に、これらの缶ジュース21,22が環境内を移動される様子を示す図である。   FIG. 7 is an overhead view showing the inside of a room (environment) in a general home. Two can juices 21 and 22 enter and leave the room, and these can juices 21 and 22 are in the environment. It is a figure which shows a mode that is moved.

同図において、各缶ジュース21,22の移動は矢線によって示され、これらの矢線に付されているt1,t2,t5,t6,の文字は、矢線に従って缶ジュースが移動された時刻を示す。時刻は、t1〜t6の順で進んだものとする。   In the figure, the movement of each can juice 21 and 22 is indicated by arrows, and the letters t1, t2, t5, and t6 attached to these arrows indicate the time when the can juice was moved according to the arrow. Indicates. It is assumed that the time has advanced in the order of t1 to t6.

尚、部屋の出入口(ドア)には、図示は省略するが、出入口センシング手段121 としてリーダライタが設置されていて、物品及び移動体の移入と移出とを区別して検出すると共に、部屋内には、環境内センシング手段122 としてカメラ及びリーダライタが設置されていて、環境内における物品及び移動体の移動を検出するものとする。   Although illustration is omitted at the entrance / exit (door) of the room, a reader / writer is installed as the entrance / exit sensing means 121 to detect the entry and exit of articles and moving objects separately, and in the room It is assumed that a camera and a reader / writer are installed as the in-environment sensing means 122 to detect the movement of articles and moving objects in the environment.

また、各缶ジュース21,22並びに部屋を出入する人及びロボット102 にはそれぞれ電子タグが付されているとする。この各缶ジュース21,22の物品属性データは、電子タグに埋め込まれている情報をリーダライタが読み取ることによって得ることとする。移動体DB62の移動体データ621 には各移動体の情報が登録されているものとし、移動体履歴データ622 は既に初期化されているものとする。また、物品DB61の物品データ611 には、何も記録されていない空の状況であるとする。   In addition, it is assumed that each of the can juices 21 and 22 and the person entering and exiting the room and the robot 102 are each provided with an electronic tag. The article attribute data of each of the can juices 21 and 22 is obtained by reading information embedded in the electronic tag by a reader / writer. It is assumed that information on each moving body is registered in the moving body data 621 of the moving body DB 62, and the moving body history data 622 is already initialized. Further, it is assumed that the article data 611 of the article DB 61 is an empty situation in which nothing is recorded.

先ず、移動体DB62の移動体データ621 に登録されているお父さん(図示省略)が、缶ジュース21を持ってドアから部屋内に入ってくる。このとき、ドアに設けられた出入口センシング手段121 は、お父さんと、缶ジュース21とが、部屋内に移入したことを検出する。   First, a father (not shown) registered in the moving body data 621 in the moving body DB 62 enters the room from the door with the can juice 21. At this time, the entrance / exit sensing means 121 provided in the door detects that the father and the can juice 21 have moved into the room.

その検出結果は、センシング手段120 から物品/移動体検索・管理手段105 に送られ、それを受けた物品/移動体検索・管理手段105 は、缶ジュースとお父さんとを特定する。そして、その缶ジュース21に[kan-small-0001]というIDを割り当て、物品属性データ613 へのポインタと対応付けて物品データ611 に格納する(図5参照)。これと共に、物品/移動体検索・管理手段105 は、その缶ジュース21の物品属性データ613を格納する。さらに、物品/移動体検索・管理手段105 は、その缶ジュースの移動履歴を物品履歴データ612 に格納するための「位置履歴リスト1」を作成する。   The detection result is sent from the sensing means 120 to the article / mobile body search / management means 105, and the article / mobile body search / management means 105 receiving the detection result identifies the can juice and the dad. Then, an ID “kan-small-0001” is assigned to the can juice 21 and stored in the article data 611 in association with a pointer to the article attribute data 613 (see FIG. 5). At the same time, the article / mobile body search / management means 105 stores the article attribute data 613 of the can juice 21. Further, the article / mobile body search / management means 105 creates a “location history list 1” for storing the movement history of the can juice in the article history data 612.

一方で、センシング手段120 により検出したお父さんの移動体履歴データ622 を更新するために、物品/移動体検索・管理手段105 は、移動体データ621 におけるID「お父さん」の位置履歴を参照して、「位置履歴リスト3」を呼び出す(図6参照)。   On the other hand, in order to update the father's moving body history data 622 detected by the sensing means 120, the article / moving body search / management means 105 refers to the position history of the ID “dad” in the moving body data 621. “Location history list 3” is called (see FIG. 6).

時刻t1に、お父さんがテーブル近傍の位置P4(x4 ,y4)に座り、持っていた缶ジュース21をそのテーブル上のP1(x1,y1,z1)に置く。そのことを環境内センシング手段122 が検出すると、物品/移動体検索・管理手段105 は、物品履歴データ612 の位置履歴リスト1の内容をセットする(図5参照)。具体的には、
時刻:t1
取扱内容:新規
物品取扱主体:お父さん
取扱後の位置:P1(x1,y1,z1,α1 ,β1 ,γ1 )
をセットする。ここで、取扱内容が「新規」となっているのは、それまで環境内に存在していなかった物品が、新たに外部から持ち込まれたことを意味する。
At time t1, the father sits at a position P4 (x4, y4) near the table and puts the can juice 21 he had on P1 (x1, y1, z1) on the table. When the in-environment sensing means 122 detects this, the article / moving body search / management means 105 sets the contents of the position history list 1 of the article history data 612 (see FIG. 5). In particular,
Time: t1
Details of handling: New Goods handling entity: Dad Position after handling: P1 (x1, y1, z1, α1, β1, γ1)
Set. Here, the handling content is “new” means that an article that has not existed in the environment until now is newly brought in from the outside.

また、物品/移動体検索・管理手段105 は、移動体履歴データ622 の位置履歴リスト3の内容をセットする(図6参照)。具体的には、
時刻:t1
位置:(x4 ,y4 ,r1)
状態:座る
をセットする。
Further, the article / mobile object search / management means 105 sets the contents of the position history list 3 of the mobile object history data 622 (see FIG. 6). In particular,
Time: t1
Position: (x4, y4, r1)
Condition: Sit down.

時刻t2に、移動体DB62の移動体データ621 に登録されている別の移動体である息子(図示省略)が、P1(x1,y1,z1)に置かれた上記の缶ジュース21を床の上であるP2(x2,y2,z2)に移動させる。そのことを環境内センシング手段122 が検出すると、その検出結果を受けて物品/移動体検索・管理手段105 は、物品履歴データ612 の位置履歴リスト1の新たな内容をセットする(図5参照)。具体的には、
時刻:t2
取扱内容:移動
物品取扱主体:息子
取扱後の位置:P2(x2,y2,z2,α2 ,β2 ,γ2)
をセットする。ここで、取扱内容が「移動」となっているのは、すでに物品履歴データ612 に登録されている物品が、環境内で移動されたためである。尚、時刻t2で息子の位置が変わるため、物品/移動体検索・管理手段105 は環境内センシング手段122 の検出結果を受けて、息子の移動体履歴データ622 (位置履歴リスト4)の内容をセットするが、ここではその図示を省略する。
At time t2, the son (not shown), which is another moving body registered in the moving body data 621 of the moving body DB 62, uses the above can juice 21 placed in P1 (x1, y1, z1) on the floor. Move to P2 (x2, y2, z2) above. When the in-environment sensing means 122 detects this, the article / mobile body search / management means 105 receives the detection result and sets new contents of the position history list 1 of the article history data 612 (see FIG. 5). . In particular,
Time: t2
Handling contents: Moving Goods handling entity: Son Position after handling: P2 (x2, y2, z2, α2, β2, γ2)
Set. Here, the reason why the handling content is “move” is that an article already registered in the article history data 612 has been moved in the environment. Since the position of the son changes at time t2, the article / moving body search / management means 105 receives the detection result of the in-environment sensing means 122 and changes the contents of the son's moving body history data 622 (position history list 4). Although set, the illustration is omitted here.

時刻t3に、お父さんが部屋の外に出る。そのことを環境内センシング手段122 が検出すると、物品/移動体検索・管理手段105 は、移動体履歴データ622 の位置履歴リスト3の新たな内容をセットする(図6参照)。具体的には、
時刻:t3
位置:−
状態:外出
をセットする。ここで、位置が「−」となっているのは、環境外に出たことで、環境内センシング手段122 がお父さんを検出することができなくなったためである。尚、位置情報としては、外出する際に通過したドアの位置情報を設定してもよい。
At time t3, dad goes out of the room. When the in-environment sensing means 122 detects this, the article / mobile body search / management means 105 sets new contents of the position history list 3 of the mobile body history data 622 (see FIG. 6). In particular,
Time: t3
Position:-
Status: Set to go out. Here, the position is “−” because the in-environment sensing means 122 can no longer detect the father due to having gone out of the environment. In addition, as position information, you may set the position information of the door which passed when going out.

また、その部屋の外に出る際にお父さんが操作端末103 を操作して、ロボット102 に缶ジュース21をP1(x1,y1,z1)に移動させる内容の作業命令を入力する。サーバ101 を介してその作業命令を受けたロボット102 は、缶ジュースの位置P2(x2, y2)まで移動し、時刻t4にその缶ジュースを把持する。このことを環境内センシング手段122 が検出すれば、物品/移動体検索・管理手段105 は、ロボット102 の移動体履歴データ622 (位置履歴リスト5)の内容をセットする(図6参照)。具体的には、
時刻:t4
位置:(x2 ,y2 ,r2)
状態:[kan-small-0001]:把持
をセットする。尚、ロボット102 の動作は、環境内センシング手段122 が検出してもよいが、サーバ101 が、ロボット102 からの動作情報を受信することによって、ロボット102 の動作を検出してもよい。
Further, when going out of the room, the father operates the operation terminal 103 to input a work instruction for moving the can juice 21 to P1 (x1, y1, z1). The robot 102 that has received the work instruction via the server 101 moves to the can juice position P2 (x2, y2) and holds the can juice at time t4. If the in-environment sensing means 122 detects this, the article / moving body search / management means 105 sets the contents of the moving body history data 622 (position history list 5) of the robot 102 (see FIG. 6). In particular,
Time: t4
Position: (x2, y2, r2)
State: [kan-small-0001]: Set the grip. The operation of the robot 102 may be detected by the in-environment sensing means 122, but the server 101 may detect the operation of the robot 102 by receiving the operation information from the robot 102.

時刻t5に、上記ロボット102 が缶ジュース21を把持した状態で、P4(x4 ,y4)に移動し、テーブルの上P1 (x1,y1,z1)で把持した缶ジュース21を解放する。環境内センシング手段122 がそのことを検出すれば、物品/移動体検索・管理手段105 は、移動体履歴データ622 の位置履歴リスト5の新たな内容をセットする(図6参照)。具体的には、
時刻:t5
位置:(x4 ,y4 ,r2)
状態:[kan-small-0001]:解放
をセットする。
At time t5, the robot 102 moves to P4 (x4, y4) while holding the can juice 21, and releases the can juice 21 held by P1 (x1, y1, z1) on the table. If the in-environment sensing means 122 detects this, the article / moving body search / management means 105 sets the new contents of the position history list 5 of the moving body history data 622 (see FIG. 6). In particular,
Time: t5
Position: (x4, y4, r2)
Status: [kan-small-0001]: Set release.

また、物品/移動体検索・管理手段105 は、物品履歴データ612 の位置履歴リスト1の新たな内容をセットする(図5参照)。具体的には、
時刻:t5
取扱内容:移動
物品取扱主体:ロボット
取扱後の位置:P1(x1,y1,z1,α1 ,β1 ,γ1 )
その後、移動体DB62の移動体データ621 に登録されているさらに別の移動体であるお母さんが、新たな缶ジュース22を持ってドアから部屋に入ってくる。出入口センシング手段121 が、お母さんと新たな缶ジュース22とが部屋内に移入したことを検出すると、物品/移動体検索・管理手段105 は、その新たな缶ジュース22に[kan-small-0002]というIDを割り当て、物品属性データ613 へのポインタと対応付けて物品データ611 に格納する。この新たな缶ジュース22の物品属性データ613 は、上記の缶ジュース21と同じである。また、その新たな缶ジュース22の移動履歴を物品履歴データ612 に格納するための「位置履歴リスト2」を作成する(図5参照)。
Further, the article / mobile body search / management means 105 sets the new contents of the position history list 1 of the article history data 612 (see FIG. 5). In particular,
Time: t5
Handling contents: Moving Goods handling entity: Robot Position after handling: P1 (x1, y1, z1, α1, β1, γ1)
Thereafter, the mother, which is still another moving body registered in the moving body data 621 of the moving body DB 62, enters the room from the door with the new can juice 22. When the entrance / exit sensing means 121 detects that the mother and the new can juice 22 have moved into the room, the article / mobile body search / management means 105 sends the new can juice 22 to the new can juice 22 [kan-small-0002]. ID is assigned and stored in the article data 611 in association with a pointer to the article attribute data 613. The article attribute data 613 of the new can juice 22 is the same as that of the can juice 21 described above. Further, a “location history list 2” for storing the movement history of the new can juice 22 in the article history data 612 is created (see FIG. 5).

時刻t6に、お母さんが新たな缶ジュース22を床の上であるP3(x3,y3,z3)に置く。そのことを環境内センシング手段122 が検出すると、物品/移動体検索・管理手段105 は、物品履歴データ612 の位置履歴リスト2の内容をセットする(図5参照)。具体的には、
時刻:t6
取扱内容:新規
物品取扱主体:お母さん
取扱後の位置:P3(x3,y3,z3,α3 ,β3 ,γ3 )
をセットする。尚、図6では、お母さんの移動体データ及び移動体履歴は省略している。
At time t6, the mother places new can juice 22 on P3 (x3, y3, z3) on the floor. When the in-environment sensing means 122 detects this, the article / moving body search / management means 105 sets the contents of the position history list 2 of the article history data 612 (see FIG. 5). In particular,
Time: t6
Details of handling: New Goods handling entity: Mother Position after handling: P3 (x3, y3, z3, α3, β3, γ3)
Set. In FIG. 6, mom's moving body data and moving body history are omitted.

以上のようにして、物品/移動体検索・管理手段105 は、物品/移動体DB160 に物品や移動体の情報を格納・更新する。ここでは、データベースの更新を、物品/移動体DB160 に登録されている各物品や移動体の位置が変更される毎に行う例を示したが、データベースの更新タイミングはこれに限るものではなく、適宜設定すればよい。   As described above, the article / moving body search / management unit 105 stores / updates information on the article / moving body in the article / moving body DB 160. Here, an example is shown in which the database is updated every time the position of each article or moving body registered in the article / moving body DB 160 is changed. However, the updating timing of the database is not limited to this. What is necessary is just to set suitably.

(環境マップ管理手段・環境マップ)
環境マップ管理手段107 は、センシング手段120 からの情報に基づいて環境マップ108 を作成すると共に、その作成した環境マップ108 の管理を行うものである。この環境マップ108 は、ロボット102 が環境内を移動する際に利用するものである。ロボット102 は、後述するように、この環境マップ108 をサーバ101 から取得して移動経路計画を立てる。
(Environmental map management means / environmental map)
The environment map management means 107 creates the environment map 108 based on information from the sensing means 120 and manages the created environment map 108. This environment map 108 is used when the robot 102 moves in the environment. As will be described later, the robot 102 obtains the environment map 108 from the server 101 and makes a movement route plan.

また、上記環境マップ管理手段107 は、制御手段110 から環境マップ108 に問い合わせがあった場合に、その問い合わせの内容に応じて必要な情報を制御手段110 に送ることも行う。   Further, when the environment map management means 107 receives an inquiry from the control means 110 to the environment map 108, the environment map management means 107 also sends necessary information to the control means 110 according to the content of the inquiry.

環境マップ108 は、例えば環境の実状況が、図8(a)に示される場合に、その実状況を立体モデルで簡略化したもの(図8(b))を環境マップ108 としてもよい。また、図8(c)に示すように、さらに平面モデルで簡略化したものを環境マップ108 としてもよい。さらに、図8(a)に示される環境の実状況をそのまま立体モデル化したものを、環境マップ108 としてもよい。すなわち環境マップ108 は、そのマップの用途や、そのマップ作成にかけることのできる時間(手間)に応じて作成すればよい。例えば、立体モデルからなる環境マップを極めて短時間で作成する必要があるときは、環境内に存在する立体物を、その立体物を覆う最小の直方体でモデル化すればよい。図8(b)に示す環境マップ108 はその例であり、テーブル及び本棚をそれぞれ直方体でモデル化し、ゴミ箱を略円柱でモデル化している。平面モデルからなる環境マップも同様であり、図8(c)に示す作業マップ108 では、テーブル及び本棚を平面に正射影した矩形領域(斜線を付した領域)でそれぞれモデル化し、ゴミ箱を円領域(斜線を付した領域)でモデル化している。また、この平面モデルからなるマップ108 では、上記2つの矩形領域及び円領域をロボット102 が移動不可能な領域に設定する。   For example, when the actual situation of the environment is shown in FIG. 8A, the environment map 108 may be obtained by simplifying the actual situation with a three-dimensional model (FIG. 8B). Further, as shown in FIG. 8C, the environment map 108 may be further simplified by a plane model. Further, an environment map 108 may be obtained by directly converting the actual situation of the environment shown in FIG. In other words, the environment map 108 may be created according to the purpose of use of the map and the time (labor) required to create the map. For example, when it is necessary to create an environment map composed of a three-dimensional model in a very short time, a three-dimensional object existing in the environment may be modeled with a minimum cuboid that covers the three-dimensional object. An environment map 108 shown in FIG. 8B is an example, and the table and the bookshelf are each modeled as a rectangular parallelepiped, and the trash can is modeled as a substantially cylinder. The same applies to the environment map composed of a planar model. In the work map 108 shown in FIG. 8C, the table and the bookshelf are respectively modeled by rectangular areas (areas with diagonal lines) projected onto the plane, and the trash can is represented as a circular area. Modeled with (hatched area). Further, in the map 108 composed of the planar model, the two rectangular areas and the circular area are set as areas where the robot 102 cannot move.

(画像管理データベース・画像管理手段)
画像管理データベース106 は、センシング手段120 を構成するカメラが、環境内を撮像した画像データを蓄積して管理するデータベースである。この画像管理DB106 は、図9に示すように構成されていて、画像データ71、認識結果データ72の2種類のデータをそれぞれ蓄積するサブデータベースからなる。各サブデータベースに蓄積されるデータ内容は以下の通りである。
(Image management database / image management means)
The image management database 106 is a database in which the camera constituting the sensing means 120 accumulates and manages image data captured in the environment. This image management DB 106 is configured as shown in FIG. 9, and is composed of sub-databases that store image data 71 and recognition result data 72, respectively. The data contents stored in each sub-database are as follows.

1)画像データ71:カメラが環境内を撮像した画像が、時刻を管理するタイムコードと対応付けられて蓄積される。この画像データ71には、カメラが撮像した全ての時刻の画像を保存する必要はなく、例えば、一定時間毎に画像を保存する、イベントの発生時にのみ画像を保存する、特定の時刻は画像を保存しない、等の保存条件を適宜設定することによって必要な時間帯の画像のみを保存すればよい。画像の保存条件は、画像管理手段104 が設定する。また、画像データ71に蓄積した画像は、所定の条件に従って削除される。削除条件は、保存後一定時間が経過したときに削除する、特定のイベントに関連する画像を削除する、等と設定すればよい。画像の削除条件も、画像管理手段104 が設定する。また、この画像データ71は、本システムに含まれるカメラ毎に、画像が保存しており画像管理手段104 は、画像を保存するカメラと、画像を保存しないカメラとをそれぞれ設定する。画像データ71には各カメラが撮像する範囲の情報が保存されていて(図例では、カメラ1が寝室、カメラ2がリビングを撮像する)、画像管理手段104 は、その情報に基づいて、画像データ71に画像を保存するカメラと保存しないカメラとをそれぞれ設定する。   1) Image data 71: An image captured by the camera in the environment is stored in association with a time code for managing time. In this image data 71, it is not necessary to store images at all times taken by the camera. For example, an image is stored every certain time, an image is stored only when an event occurs, an image is stored at a specific time. It is only necessary to store only images in a necessary time zone by appropriately setting storage conditions such as not storing. The image storage unit 104 sets image storage conditions. The image stored in the image data 71 is deleted according to a predetermined condition. The deletion condition may be set such that the image is deleted when a certain time has elapsed after saving, an image related to a specific event is deleted, or the like. The image management means 104 also sets image deletion conditions. The image data 71 stores an image for each camera included in the system, and the image management unit 104 sets a camera that stores an image and a camera that does not store an image. The image data 71 stores information on the range captured by each camera (in the example shown, the camera 1 captures the bedroom and the camera 2 captures the living room), and the image management means 104 determines the image based on the information. In the data 71, a camera that stores an image and a camera that does not store are set.

2)認識結果データ72:画像データ71に保存されている画像から得られる情報を認識した結果が保存される。この認識結果データ72は、タイムコード毎でかつカメラ毎に認識結果を保存する。認識結果は、認識レベル(情報レベル)毎に保存される。この認識レベルとは、画像に含まれる情報のレベルに対応して環境内の状況及びその環境内を撮像した画像に含まれる移動体及び/又は物品についての情報を認識した結果を意味する。情報レベルとしては、例えば、1)環境内に移動体又は物品が存在するか否かの情報、2)画像データに含まれる移動体又は物品の、画像中における位置及び実空間における位置の情報、3)画像データに含まれる移動体又は物品の属性の情報、4)移動体又は物品の姿勢の情報、5)画像において物品及び移動体が占める領域を囲む矩形領域の情報、6)画像における物品及び移動体の輪郭の情報、7)画像における移動体の顔の領域の情報、8)移動体が移動したときの、その移動経路の情報、9)移動体の視線方向の情報、10)移動体が所持している物品の情報、11)画像において移動速度が最も速い領域の情報、12)画像においてサイズが最も大きい領域の情報、等を例示することができる。図例では、「認識レベル1」は(移動体又は物品の)実空間での位置を認識した結果、「認識レベル2」は、検出した物体(物品及び移動体)の属性を認識した結果となっている。この認識レベルを利用して、後述するように表示制御が行われる。   2) Recognition result data 72: A result of recognizing information obtained from an image stored in the image data 71 is stored. The recognition result data 72 stores a recognition result for each time code and for each camera. The recognition result is stored for each recognition level (information level). The recognition level means a result of recognizing information about a situation in the environment and information on a moving object and / or an article included in an image captured in the environment corresponding to the level of information included in the image. Information levels include, for example, 1) information on whether or not a moving object or article exists in the environment, and 2) information on the position of the moving object or article included in the image data in the image and the position in real space, 3) Information on attribute of moving body or article included in image data, 4) Information on posture of moving body or article, 5) Information on rectangular area surrounding area occupied by article and moving body in image, 6) Article in image And 7) information on the contour of the moving object, 7) information on the area of the face of the moving object in the image, 8) information on the movement path when the moving object moves, 9) information on the line-of-sight direction of the moving object, 10) movement For example, information on an article held by the body, 11) information on a region having the fastest moving speed in the image, 12) information on a region having the largest size in the image, and the like. In the illustrated example, “recognition level 1” is a result of recognizing a position in a real space (of a moving object or article), and “recognition level 2” is a result of recognizing an attribute of a detected object (article and moving object). It has become. Display control is performed using this recognition level as described later.

画像管理手段104 は、後述するように、上記の認識処理を行うと共に、その結果をDBに保存する。また、この画像管理手段104 は、どのカメラが撮像した画像データに対して認識した認識結果を保存するか、の設定をしたり、その認識の際にどの情報レベルの認識を行うか、の設定をしたりする。   As will be described later, the image management means 104 performs the above recognition process and stores the result in the DB. In addition, the image management means 104 sets which camera stores the recognition result recognized for the image data captured by the camera, and sets which information level is recognized at the time of the recognition. Or do.

(制御手段)
環境管理サーバ101 における制御手段110 はサーバ全体を制御する部分であり、主な制御内容としては以下のものがある。
(Control means)
The control means 110 in the environment management server 101 is a part that controls the entire server, and the main control contents are as follows.

1)送受信手段109 が、サーバ内にある各種データに関する問い合わせ受信したときに、その問い合わせ内容を判断し、その判断結果に応じて物品/移動体検索・管理手段105 、環境マップ管理手段107 にデータの参照要求を出す。   1) When the transmission / reception means 109 receives an inquiry about various data in the server, the inquiry content is judged, and data is sent to the article / mobile body search / management means 105 and the environment map management means 107 according to the judgment result. A reference request is issued.

2)上記要求に対して物品/移動体検索・管理手段105 、環境マップ管理手段107 から送られてきた結果を、送受信手段109 を介して問い合わせ元に送る。   2) In response to the request, the result sent from the article / mobile body search / management means 105 and the environment map management means 107 is sent to the inquiry source via the transmission / reception means 109.

3)操作端末103 から送受信手段109 を介して送信されたロボット102 の作業内容メッセージを解釈し、そのロボット102 に動作を実行させるためのロボット制御コマンド列を生成して上記ロボット102 に送信する。尚、ロボット制御コマンド列については、後述する。   3) The robot 102 interprets the work content message of the robot 102 transmitted from the operation terminal 103 via the transmission / reception means 109, generates a robot control command sequence for causing the robot 102 to execute an operation, and transmits it to the robot 102. The robot control command sequence will be described later.

4)必要に応じて、一定時間毎に、物品/移動体DB160 で管理している物品の一部又は全部の状況、環境マップ108 の状況を、送受信手段109 を通じてロボット102 やユーザ(操作端末103 )にブロードキャストする。   4) If necessary, the robot 102 and the user (operation terminal 103) can send the status of part or all of the articles managed by the article / mobile DB 160 and the status of the environment map 108 through the transmission / reception means 109 at regular intervals. ).

−作業ロボットの構成−
2番目のサブシステムである作業ロボット102 は、ユーザによって指定された作業命令に従って物品の取扱い作業を行うものである。
−Configuration of working robot−
The work robot 102, which is the second subsystem, carries out the work of handling articles according to work instructions specified by the user.

図1に示すように、ロボット102 はその基本構成として、ロボット102 の近辺の障害物等を検知する障害物センサ111 、物品を把持する把持手段112 、環境マップ108 を使って移動計画を立てる移動計画作成手段113 、上記ロボット102 自体を移動させる移動手段114 、環境管理サーバ101 や操作端末103 との間で種々のデータの送受信を行う送受信手段109 、これらのセンサ111 及び各手段109 ,112 〜114をコントロールする制御手段115 とからなる。   As shown in FIG. 1, as a basic configuration of the robot 102, an obstacle sensor 111 that detects an obstacle in the vicinity of the robot 102, a gripping means 112 that grips an article, and an environment map 108 are used to make a movement plan. Plan creating means 113, moving means 114 for moving the robot 102 itself, transmission / reception means 109 for transmitting / receiving various data to / from the environment management server 101 and the operation terminal 103, these sensors 111, and each means 109, 112 ˜ And control means 115 for controlling 114.

図10は、本システムにおけるロボット102 の構造の一例を示した模式図であり、このロボット102 は、移動計画作成手段113 や制御手段115 等を収容する略箱型の本体部10を備える。以下、図10における紙面右側を前側、左側を後側、紙面奥側を左側、紙面手前側を右側と呼ぶ。   FIG. 10 is a schematic diagram showing an example of the structure of the robot 102 in the present system. The robot 102 includes a substantially box-shaped main body 10 that accommodates the movement plan creation means 113, the control means 115, and the like. Hereinafter, the right side of FIG. 10 is referred to as the front side, the left side is referred to as the rear side, the back side of the paper surface is referred to as the left side, and the front side of the paper surface is referred to as the right side.

把持手段112 は、多関節アーム12a とそのアーム12a の先端に配設されたハンド12b とから構成され、上記本体部10の上面に取り付けられる。上記アーム12a 及びハンド12b は、モータ制御によるアクチュエータを用いたものとしてもよいし、その他のアクチュエータ、例えば人工筋肉によるアクチュエータを用いたものでもよい。   The gripping means 112 is composed of an articulated arm 12a and a hand 12b disposed at the tip of the arm 12a, and is attached to the upper surface of the main body 10. The arm 12a and the hand 12b may be ones using motor-controlled actuators or other actuators such as artificial muscle actuators.

移動手段114 は車輪14によって構成されており、この車輪14は、上記本体部10の左右両側にそれぞれ2つ取り付けられる(図例では、左側の車輪の図示を省略する)。ここでは、移動手段114 を車輪14で構成したが、移動手段114 の構成は、そのロボットが使用される環境に応じて最適な構成を選択すればよい。例えば環境の床面の起伏が激しい場合は、移動手段114 をクローラ型や多足歩行型に構成することが好ましい。   The moving means 114 is constituted by wheels 14, and two wheels 14 are attached to the left and right sides of the main body 10 (the left wheel is not shown in the figure). Here, the moving means 114 is composed of the wheels 14, but the structure of the moving means 114 may be selected in accordance with the environment in which the robot is used. For example, when the undulation of the environment floor is severe, it is preferable to configure the moving means 114 as a crawler type or a multi-legged walking type.

障害物センサ111 は、本システムでは、超音波センサ11a 、視覚センサとしてのステレオカメラ11b 、及び衝突センサ11c から構成される。   In the present system, the obstacle sensor 111 includes an ultrasonic sensor 11a, a stereo camera 11b as a visual sensor, and a collision sensor 11c.

上記超音波センサ11a は、超音波を発してその反射波を受信するまでの時間を測定することにより当該センサ11a から障害物までの距離を計算するもので、近距離の障害物を、それに衝突する前に検知するためのものである。この超音波センサは、本体部の各側面(前面、後面、左右側面)に、3つずつ取り付けられる。   The ultrasonic sensor 11a calculates the distance from the sensor 11a to the obstacle by measuring the time until the reflected wave is received after emitting the ultrasonic wave. It is for detecting before doing. Three ultrasonic sensors are attached to each side surface (front surface, rear surface, left and right side surfaces) of the main body.

上記ステレオカメラ11b は、ロボット102 の周囲の状況を画像として入力し、その画像の認識等の処理を行うことで、障害物の有無の判断や把持対象物品のより正確な情報を得るためのものである。このステレオカメラ11b は、本体部10の前部に取り付けられる。   The stereo camera 11b inputs the situation around the robot 102 as an image and performs processing such as image recognition to obtain more accurate information on the object to be grasped and the presence of an object to be grasped. It is. The stereo camera 11b is attached to the front part of the main body part 10.

上記衝突センサ11c は、ロボット102 に所定の衝撃力が加わったことを検知するセンサである。例えば障害物がロボット102 に衝突してきたことや、ロボット102 自体が移動中に障害物に衝突したことを、この衝突センサ11c で検知する。この衝突センサ11c は、本体部の前面と後面とのそれぞれに取り付けられる。   The collision sensor 11c is a sensor that detects that a predetermined impact force is applied to the robot 102. For example, the collision sensor 11c detects that an obstacle has collided with the robot 102 or that the robot 102 has collided with the obstacle while moving. The collision sensor 11c is attached to each of the front surface and the rear surface of the main body.

移動計画作成手段113 は、ロボット102 に物品の移動作業やその他の作業に伴う移動が指定されたときに、そのロボット102 の現在位置から指定された位置(目的位置)までの移動経路を、環境マップ108 を使って作成するものである。この際、現在位置から目的位置までの移動経路上に障害物があってはならないが、環境マップ108 には、上述したように、ロボットが移動不可領域(例えば図8(c)の斜線を付した領域)が設定される。このため、この移動不可領域以外の領域で移動経路を作成すれば、障害物を回避した移動経路が作成される。例えば図8(c)の平面モデルを用いた環境マップ108 を用いてロボットをA1地点からA2地点まで移動させる際には、ロボット102 の大きさを考慮して移動不可領域を回避するルート(図8(c)に矢線参照)が作成される。こうした移動経路の作成に当たっては、最も一般的な方法であるダイクストラ法を使ってもよいし、環境が複雑であれば、ダイクストラ法を改良した経路探索アルゴリズムを用いてもよい。   The movement plan creation means 113, when the movement movement of an article or other movement is designated to the robot 102, shows the movement path from the current position of the robot 102 to the designated position (target position). It is created using the map 108. At this time, there should be no obstacle on the movement path from the current position to the target position, but the environment map 108 has an area in which the robot cannot move (for example, a hatched line in FIG. 8C). Area) is set. For this reason, if a movement route is created in an area other than the unmovable area, a movement path that avoids an obstacle is created. For example, when the robot is moved from the A1 point to the A2 point using the environment map 108 using the planar model of FIG. 8C, a route for avoiding the immovable region in consideration of the size of the robot 102 (FIG. 8 (c) is created). In creating such a movement route, the Dijkstra method, which is the most general method, may be used. If the environment is complicated, a route search algorithm improved from the Dijkstra method may be used.

作業ロボット102 の制御手段115 は、主に環境管理サーバ101 から送受信手段109 を介して送られてきたロボット制御コマンド列を解釈し、そのロボット制御コマンドを順に実行するものである。   The control means 115 of the work robot 102 mainly interprets a robot control command sequence sent from the environment management server 101 via the transmission / reception means 109, and executes the robot control commands in order.

ここで、ロボット制御コマンドとは、物品の把持や、ロボット102 自体の移動の制御を行うためのコマンドであって、本実施の形態ではロボット102 の現在位置から座標で指定された位置まで移動するコマンドである「移動」、物品IDで指定された物品を、ハンド12b によって把持するコマンドである「把持」、ハンド12b を解放するコマンドである「解放」の3種類が設定される。尚、ロボット制御コマンドはこの3種類に限らず、必要に応じて増やしてもよい。   Here, the robot control command is a command for controlling the gripping of the article and the movement of the robot 102 itself. In this embodiment, the robot control command moves from the current position of the robot 102 to the position specified by coordinates. Three types are set: “move” which is a command, “gripping” which is a command for gripping an article specified by the article ID by the hand 12b, and “release” which is a command for releasing the hand 12b. The robot control commands are not limited to these three types, and may be increased as necessary.

−操作端末の構成−
3番目のサブシステムである操作端末103 は、本システムにおけるユーザインタフェースであり、主にロボット102 に対する物品の取扱い作業を指示するためにユーザが操作する端末である。また、この操作端末103 は、ユーザの要求に応じてカメラが撮像した画像を表示する。これによりユーザは、各環境内の様子を確認することができる。
-Configuration of operation terminal-
An operation terminal 103, which is the third subsystem, is a user interface in this system, and is a terminal operated by the user in order to mainly instruct the handling operation of the article with respect to the robot 102. The operation terminal 103 displays an image captured by the camera in response to a user request. Thereby, the user can confirm the state in each environment.

操作端末103 はその基本構成として、図1に示すように、ロボット102 の作業内容を指定するための操作画面、カメラが撮像した画像を表示する監視画面を表示する、例えばCRTや液晶ディスプレイからなる表示部117 、上記操作画面上での入力を行うための、例えばポインティングデバイスやキーボードからなる入力部116 、上記表示部117 に表示される監視画面を作成する表示制御手段118 、及びその表示制御のためのデータを蓄積する表示制御データベース123 、上記入力部116 にて入力されたロボット102 の作業内容等を環境管理サーバ101 に送る送受信手段109 、これらの各手段109 ,116 〜118 をコントロールする制御手段119 からなる。   As shown in FIG. 1, the operation terminal 103 is composed of, for example, a CRT or a liquid crystal display for displaying an operation screen for designating work contents of the robot 102 and a monitoring screen for displaying an image captured by the camera. A display unit 117, an input unit 116 composed of, for example, a pointing device or a keyboard for performing input on the operation screen, a display control means 118 for creating a monitoring screen displayed on the display unit 117, and display control thereof Display control database 123 for accumulating data for transmission, transmission / reception means 109 for transmitting the work contents of the robot 102 input by the input unit 116 to the environment management server 101, and control for controlling these means 109, 116-118. Means 119.

この操作端末103 としては、例えば汎用PCを用いることも可能である。この場合、制御プログラムをPCが読み込むことによって、そのPCを操作端末103 として用いることが可能になる。   For example, a general-purpose PC can be used as the operation terminal 103. In this case, the PC can be used as the operation terminal 103 when the PC reads the control program.

ユーザは、この操作端末103 を用いてロボット102 の作業内容を指定したり、後述するように、環境内の状況を確認したりする。また、ユーザは、物品/移動体の管理として、この操作端末103 を用いて、物品/移動体管理DB160 に蓄積される物品や移動体の情報を入力したり、サーバ101 に対して、物品の現在位置の検索を要求したりすることも行う。物品の現在位置の検索結果は、サーバ101 から送られて操作端末103 の表示部117 に表示される。   The user designates the work content of the robot 102 using the operation terminal 103, and confirms the situation in the environment as will be described later. Further, the user inputs information on articles and moving objects stored in the article / moving object management DB 160 using the operation terminal 103 for managing articles / moving objects, The search for the current position is also requested. The search result of the current position of the article is sent from the server 101 and displayed on the display unit 117 of the operation terminal 103.

上記表示制御DB123 には、上述したように、監視画面を作成するためのデータが保存される。この表示制御DB123 は、図11に示すように構成されていて、状況データ81、アクセス権データ82、表示制御データ83の3種類のデータをそれぞれ蓄積するサブデータベースからなる。各サブデータベースに蓄積されるデータ内容は以下の通りである。   As described above, the display control DB 123 stores data for creating a monitoring screen. The display control DB 123 is configured as shown in FIG. 11, and is composed of sub-databases that store three types of data, status data 81, access right data 82, and display control data 83, respectively. The data contents stored in each sub-database are as follows.

1)状況データ81:画像データの加工に係る環境内の状況内容を保存していて、各状況内容は状況IDと対応付けられる。また、状況IDに対応付けられて「説明」が設けられているが、この「説明」は状況内容を説明するものであって、省略することが可能である。   1) Status data 81: The status content in the environment related to the processing of the image data is stored, and each status content is associated with the status ID. Further, “explanation” is provided in association with the situation ID, but this “explanation” is to explain the situation content and can be omitted.

ここで、状況内容は、移動体、移動体の動作、物品、場所(環境の属性)、時間、気候、及びこれらの組合せによって表現される。移動体としては、「父」「子供」「男性」「訪問者」「ペット」が例示され、移動体の動作としては、「就寝」「食事」「物を運搬」「タンスを覗く」「不在」、が例示され、物品としては、「布団」「缶ジュース」が例示され、場所としては、「寝室」「風呂」「食卓」「テレビの前」が例示され、時間としては、「9時〜10時」「水曜日」「休日」が例示され、気候としては、「雨」「20度以上」が例示される。これらを組合せことで、図11に示すように、就寝の状況を表す状況内容として、「人;大人、場所;寝室、物品;布団」が設定される。これらの各状況は、センシング手段120 の検出結果、物品/移動体DB160 に蓄積されている情報、画像データの認識結果、から取得される。   Here, the situation content is expressed by a moving object, movement of the moving object, article, location (environmental attribute), time, climate, and a combination thereof. Examples of moving objects include "Father", "Children", "Men", "Visitors", and "Pets". The actions of moving objects are "sleeping", "mealing", "carrying things", "seeing clothes", "absence" “, Futon” and “can juice” are illustrated as articles, “bedroom” “bath” “table” “in front of TV” are illustrated as places, and “9 o'clock” is illustrated as time -10:00 "," Wednesday "," Holiday "are exemplified, and" rain "" 20 degrees or more "is exemplified as the climate. By combining these, as shown in FIG. 11, “person; adult, place; bedroom, article; futon” is set as the situation content representing the sleeping situation. Each of these situations is acquired from the detection result of the sensing means 120, the information stored in the article / moving body DB 160, and the recognition result of the image data.

2)アクセス権データ82:本システムにアクセスするユーザ(本システムを利用するユーザ)が、アクセス権毎に分類(アクセスユーザ)されて保存される。各アクセスユーザにはアクセスIDが付加される。アクセスユーザは、個人でもよい(図例では、父、母)し、同じ属性を有する個人を含むグループとしてもよい(図例では、子供。この他にも大人、男性、女性)。   2) Access right data 82: Users accessing the system (users using the system) are classified and stored for each access right (access users). An access ID is added to each access user. The access user may be an individual (in the illustrated example, father, mother), or may be a group including individuals having the same attributes (in the illustrated example, children. In addition, adults, men, and women).

3)表示制御データ83:表示IDと対応付けられて、画像の加工内容及び加工条件が保存される。後述するように、表示制御手段118 は、加工条件が成立したときには、それに対応する加工内容に従って画像データを加工して監視画面を作成する。   3) Display control data 83: Corresponding to the display ID, the processing contents and processing conditions of the image are stored. As will be described later, when the processing condition is satisfied, the display control unit 118 processes the image data according to the processing content corresponding to the processing condition and creates a monitoring screen.

上記加工条件には、上記状況IDとアクセスIDとが記述される。また、加工内容には、ユーザから要求された画像に施す加工の具体的な内容が記述される。加工内容としては、例えば、1)画像における移動体の顔の領域を認識した結果を用いて、その顔の領域にモザイク処理を施す、2)移動体の属性を認識した結果と、画像における移動体の位置を認識した結果とを用いて、画像におけるユーザの家族をマスクする処理(家族以外の人が画像に含まれる処理)、3)画像において移動体が占める領域を囲む矩形領域を認識した結果とを用いて、画像に含まれる人物をアイコンに置換する処理、4)移動体が所持している物品を認識した結果を用いて、画像において人が持っている物体をマスクする処理、5)実空間における移動体の位置を認識した結果を用いて、移動体の位置を示すマップを作成する処理、6)環境内に存在する移動体の属性を認識した結果を用いて、環境内にいる移動体が誰であるかの情報(テキスト情報)のみを含む画面を作成する(画面全体をマスクする)処理、等が例示される。図例では、表示ID:0002の加工内容として、人物をアイコンで置換する処理が記述されている。   In the processing condition, the situation ID and the access ID are described. In addition, the processing content describes the specific content of processing applied to the image requested by the user. As processing contents, for example, 1) Mosaic processing is performed on the face area using the result of recognizing the face area of the moving object in the image. 2) The result of recognizing the attribute of the moving object and the movement in the image Using the result of recognizing the position of the body, a process for masking the user's family in the image (a process in which a person other than the family is included in the image), 3) a rectangular area surrounding the area occupied by the moving body in the image is recognized A process for replacing a person included in an image with an icon using the result, 4) A process for masking an object held by a person in the image using a result of recognizing an article held by the moving object, 5 ) Processing for creating a map showing the position of the moving object using the result of recognizing the position of the moving object in the real space, 6) In the environment using the result of recognizing the attribute of the moving object existing in the environment Moving body In a one of the information to create a screen including the (text information) only (for masking the entire screen) process, etc. are exemplified. In the example shown in the drawing, processing for replacing a person with an icon is described as the processing content of the display ID: 0002.

−情報提供処理−
次に、上記構成の情報提供システムにおける情報提供処理について説明する。この情報提供処理は、カメラ画像とそのカメラ画像の認識結果とをデータベースに蓄積する画像認識処理と、環境内の状況とアクセスユーザとに応じて加工した画像をユーザに提示する画像提示処理とを含む。
-Information provision processing-
Next, an information providing process in the information providing system having the above configuration will be described. This information providing process includes an image recognition process for accumulating a camera image and a recognition result of the camera image in a database, and an image presentation process for presenting an image processed according to the situation in the environment and the access user to the user. Including.

(画像認識処理)
図12は、画像認識処理のフローチャートを示していて、先ず、ステップS1301では、全てのカメラ(センシング手段120 )が撮像した画像を入力する。そして、ステップS1302で、画像管理手段104 は、予め設定した保存条件に従って、画像管理DB106 の画像データ71に、カメラ画像をタイムコードを付加して保存する。保存条件は、上述したように、一定時間毎に画像を保存する、イベントの発生時にのみ画像を保存する、特定の時刻は画像を保存しない、等が設定され、この保存条件を満たすか否かを判定するために、上記画像管理手段104 は、必要に応じて物品/移動体DB160 に記憶されている情報を利用する。
(Image recognition processing)
FIG. 12 shows a flowchart of image recognition processing. First, in step S1301, images taken by all cameras (sensing means 120) are input. In step S1302, the image management unit 104 stores the camera image with the time code added to the image data 71 of the image management DB 106 in accordance with a preset storage condition. As described above, the storage condition is set such that an image is stored at regular intervals, an image is stored only when an event occurs, an image is not stored at a specific time, and the like. The image management means 104 uses information stored in the article / mobile object DB 160 as necessary.

ステップS1303で、画像管理手段104 は、ステップS1302で保存した各画像に対する認識処理を行う。この認識の際には、物品/移動体DB106 に記憶されている情報を適宜利用すると共に、必要に応じてセンシング手段104 によるセンシングを実行する。   In step S1303, the image management unit 104 performs recognition processing for each image stored in step S1302. In this recognition, the information stored in the article / moving body DB 106 is used as appropriate, and sensing by the sensing means 104 is executed as necessary.

そして、ステップS1304で、画像管理手段104 は、予め設定した認識結果を保存するカメラの条件及び認識レベルの条件に従って、認識した結果を、画像管理DB106 の認識結果データ72に、認識レベル毎に保存する。尚、ステップS1303及びステップS1304の処理は、画像データ71に保存されている全てのカメラ画像に対しかつ、認識結果データ72に登録されている全ての認識レベルについて実行する。こうして、画像管理DB106 には、カメラが撮像した画像データと、その画像データの認識結果とが対応付けられて蓄積される。   In step S1304, the image management unit 104 stores the recognized result for each recognition level in the recognition result data 72 of the image management DB 106 according to the camera condition and the recognition level condition for storing the recognition result set in advance. To do. Note that the processing in step S1303 and step S1304 is executed for all camera images stored in the image data 71 and for all recognition levels registered in the recognition result data 72. Thus, the image management DB 106 stores the image data captured by the camera and the recognition result of the image data in association with each other.

(画像提示処理)
図13は、画像提示処理のフローチャートを示していて、先ずステップS1401で、ユーザが、操作端末103 を介してシステムに対し、カメラ画像の閲覧を要求する。このときユーザは、少なくとも閲覧したい環境(部屋)を指定する。また、閲覧したい移動体、移動体の動作、時刻、気候等の条件をさらに指定してもよい。
(Image presentation processing)
FIG. 13 shows a flowchart of the image presentation processing. First, in step S1401, the user requests the system to view the camera image via the operation terminal 103. At this time, the user designates at least the environment (room) to be browsed. Moreover, you may further specify conditions, such as a mobile body to browse, operation | movement of a mobile body, time, and a climate.

続くステップS1402で、表示制御手段118 は、システムにアクセスしたユーザを識別する。これは、操作端末103 での操作に先立って、ID及びパスワードによるユーザ認証を行ってもよいし、センシング手段120 の検出結果に基づいて、操作端末103 を操作しているユーザを特定してもよい(物品/移動体DB160 には、センシング手段120 の検出結果に基づいて特定した操作端末103 を操作するユーザの情報が蓄積されている)。   In subsequent step S1402, the display control means 118 identifies the user who has accessed the system. Prior to the operation at the operation terminal 103, user authentication may be performed using an ID and a password, or the user operating the operation terminal 103 may be specified based on the detection result of the sensing means 120. Good (information on the user operating the operation terminal 103 specified based on the detection result of the sensing means 120 is stored in the article / moving body DB 160).

そして、ステップS1403では、画像管理DB106 から閲覧要求に係る環境を撮像したカメラ画像を抽出すると共に、その抽出したカメラ画像に対応する環境内の状況を確認する。これは、画像管理DB106 に蓄積されている情報、及び物品/移動体DB160 に蓄積されている情報、また、必要に応じてセンシング手段120 によって新たに検出した情報に基づいて確認する。   In step S1403, a camera image obtained by capturing the environment related to the browsing request is extracted from the image management DB 106, and the situation in the environment corresponding to the extracted camera image is confirmed. This is confirmed based on information stored in the image management DB 106, information stored in the article / mobile object DB 160, and information newly detected by the sensing means 120 as necessary.

ステップS1404で、表示制御手段118 は、上記ステップS1402 で取得したユーザ情報に基づいてアクセスIDを特定すると共に、上記ステップS1403 で確認した状況に基づいて状況内容(状況ID)を特定する。具体的には、表示制御DB123 のアクセス権データ82を検索して、ステップS1402で識別したユーザ(アクセスユーザ)に対応するアクセスIDを抽出する。また、表示制御DB123 の状況データ81を検索して、ステップS1403で確認した状況に対応する状況IDを抽出する。   In step S1404, the display control means 118 specifies the access ID based on the user information acquired in step S1402, and specifies the situation content (situation ID) based on the situation confirmed in step S1403. Specifically, the access right data 82 in the display control DB 123 is searched, and the access ID corresponding to the user (access user) identified in step S1402 is extracted. Further, the situation data 81 in the display control DB 123 is searched to extract the situation ID corresponding to the situation confirmed in step S1403.

こうして、アクセスID及び状況IDを抽出すれば、表示制御DB123 の表示制御データ83を参照することにより、そのアクセスIDと状況IDとの組合せに対応する表示IDを抽出する。   Thus, when the access ID and the situation ID are extracted, the display ID corresponding to the combination of the access ID and the situation ID is extracted by referring to the display control data 83 of the display control DB 123.

ステップS1405で、表示制御手段は、上記ステップS1404で抽出した表示IDに対応する加工内容に従って、認識結果を利用して画像の加工を行い、その加工した画像から構成される監視画面を表示部117 に表示させる。   In step S1405, the display control means processes the image using the recognition result in accordance with the processing content corresponding to the display ID extracted in step S1404, and displays a monitoring screen including the processed image on the display unit 117. To display.

次に、具体例を挙げながら上記の画像認識処理及び画像提示処理について説明する。図14は、具体例に係る画像管理DB106 及び表示制御DB123 の構成を示している。   Next, the image recognition process and the image presentation process will be described with specific examples. FIG. 14 shows the configuration of the image management DB 106 and the display control DB 123 according to a specific example.

先ず、上述したように、センシング手段120 を構成するカメラが撮像した画像が入力されれば、画像管理手段104 は、設定されている保存条件に従ってカメラ画像を画像管理DB106 に保存する。ここでは、「1秒間隔で全カメラの画像を保存」という保存条件が設定されているものとし、これにより、カメラ1及びカメラ2のそれぞれが撮像した画像が、タイムコードと対応付けられて画像管理DB106 の画像データ71に蓄積される(図14参照)。この内、カメラ2は、リビング内を撮像するカメラであり、このカメラ2の、タイムコード0000003の画像として、同図に示す画像が蓄積される。尚、タイムコード0000003は、食後の時間帯に対応するものとする。   First, as described above, when an image captured by the camera constituting the sensing unit 120 is input, the image management unit 104 stores the camera image in the image management DB 106 in accordance with the set storage conditions. Here, it is assumed that a storage condition of “save images of all cameras at 1 second intervals” is set, and accordingly, images captured by the camera 1 and the camera 2 are associated with time codes and imaged. The image data 71 is stored in the management DB 106 (see FIG. 14). Of these, the camera 2 is a camera that captures images in the living room, and the image shown in FIG. Note that the time code 0000003 corresponds to the time zone after the meal.

また、カメラ画像の蓄積と同時に、センシング手段120 による物品及び移動体の検出結果に基づいて、カメラによって撮像された環境内における物品及び移動体の情報が、物品/移動体DB160 に蓄積される。   Simultaneously with the accumulation of the camera image, based on the detection result of the article and the moving body by the sensing means 120, the information of the article and the moving body in the environment imaged by the camera is accumulated in the article / moving body DB 160.

画像管理手段104 は、画像データ71に蓄積されている画像について認識処理を行う。ここでは、認識結果データ72に、認識レベル1「画像中における移動体の矩形領域」と認識レベル2「移動体の属性」とが設定されているため、上記画像管理手段104 はこれら認識レベル1,2に係る認識処理を行う。認識レベル1の「画像中における移動体の矩形領域」は、背景差分画像における差分領域に外接する矩形を算出することによって得られる。この外接矩形は、その矩形の対角の2点の座標「(X1,Y1)−(X2,Y2)」で表すことができる(図14参照)。また、認識レベル2の「移動体の属性」は、物品/移動体DB160 に記憶されている情報によって得られる。こうして、カメラ2の、タイムコード0000003の認識結果として、認識レベル1「(X1,Y1)−(X2,Y2)」が、認識レベル2「父」がそれぞれ認識結果データ72に保存される。   The image management means 104 performs recognition processing on the images stored in the image data 71. Here, since recognition level 1 “rectangular area of the moving object in the image” and recognition level 2 “attribute of the moving object” are set in the recognition result data 72, the image management means 104 performs the recognition level 1. , 2 is performed. The recognition level 1 “rectangular region of the moving object in the image” is obtained by calculating a rectangle circumscribing the difference region in the background difference image. This circumscribed rectangle can be represented by the coordinates “(X1, Y1) − (X2, Y2)” of the two diagonals of the rectangle (see FIG. 14). Also, the “level attribute of the moving object” at the recognition level 2 is obtained from information stored in the article / moving object DB 160. Thus, the recognition level 1 “(X1, Y1)-(X2, Y2)” and the recognition level 2 “Father” are stored in the recognition result data 72 as the recognition result of the time code 0000003 of the camera 2, respectively.

この状態において、子供が「リビングの様子が知りたい」として、操作端末103 を介してシステムに対しリビング内を撮像したカメラ画像の閲覧を要求したとする。   In this state, it is assumed that the child requests the system to view a camera image captured in the living room via the operation terminal 103 in order to “know the state of the living room”.

表示制御手段118 は、物品/移動体DB160 を参照して、アクセスしたユーザの識別を行う。これにより、アクセスユーザが「子供」であることが特定される。   The display control means 118 refers to the article / moving body DB 160 and identifies the user who has accessed. Thereby, it is specified that the access user is “child”.

次に、表示制御手段118 は、ユーザがリビング内を撮像したカメラ画像を指定していることから、画像データ71に保存されているカメラ2の画像を抽出する。この画像に対応するリビング内の状況を、画像管理DB106 及び物品/移動体DB160 の情報に基づいて確認する。画像管理DB106 の認識結果データ72における認識レベル2には、「父」と認識されているため、リビングに父が存在している状況であることが確認される。また、タイムコード0000003は、食後の時間帯に対応することから、画像データ71に保存された、タイムコード0000003の、カメラ2の画像に対応する状況は、「父」「リビング」「食後」である。   Next, the display control means 118 extracts the image of the camera 2 stored in the image data 71 since the user designates the camera image taken in the living room. The situation in the living room corresponding to this image is confirmed based on the information in the image management DB 106 and the article / moving body DB 160. Since the recognition level 2 in the recognition result data 72 of the image management DB 106 is recognized as “father”, it is confirmed that the father is present in the living room. Since the time code 0000003 corresponds to the time zone after the meal, the situation corresponding to the image of the camera 2 with the time code 0000003 stored in the image data 71 is “father”, “living room”, and “after meal”. is there.

そして、表示制御手段118 は、識別したユーザに基づいてアクセスIDを特定する。アクセスユーザは「子供」であるため、アクセスIDは、000003である。また、画像に対応する状況に基づいて状況IDを特定する。タイムコード0000003の、カメラ2の画像に対応する状況は、「父」「リビング」「食後」であるため、状況IDは、0002である。   Then, the display control means 118 specifies an access ID based on the identified user. Since the access user is “child”, the access ID is “000003”. Further, the situation ID is specified based on the situation corresponding to the image. Since the situation corresponding to the image of the camera 2 with the time code 0000003 is “father”, “living room”, and “after meal”, the situation ID is “0002”.

こうして、アクセスIDと状況IDとをそれぞれ特定すれば、表示制御手段118 は、アクセスIDと状況IDとの組合せに対応する表示IDを、表示制御DB123 の表示制御データ83から抽出する。ここでは、状況ID:0002、アクセスID000003であるため、表示ID:0002が抽出される。   When the access ID and the situation ID are specified in this way, the display control means 118 extracts the display ID corresponding to the combination of the access ID and the situation ID from the display control data 83 of the display control DB 123. Here, since the situation ID is 0002 and the access ID is 000003, the display ID is 0002.

こうして抽出した表示IDに対応する加工内容に従って、タイムコード0000003の、カメラ2の画像を加工する。ここでは、加工内容として、「人物をアイコンに置換する」ことが設定されているため、認識結果データ72における認識レベル1「画像中の矩形領域」のデータを利用して、その矩形領域にアイコンを貼り付ける処理をする。こうして、図15に示す画像が作成され、これが、操作端末103 の表示部117 に表示される。この画像の加工においては、認識レベル2の情報を用いて、アイコンにその人の属性(ここでは「父」)を表示してもよい。   The image of the camera 2 with the time code 0000003 is processed according to the processing content corresponding to the display ID thus extracted. Here, since “replace a person with an icon” is set as the processing content, data of recognition level 1 “rectangular area in the image” in the recognition result data 72 is used to display an icon in the rectangular area. Process to paste. In this way, the image shown in FIG. 15 is created and displayed on the display unit 117 of the operation terminal 103. In the processing of the image, information of the recognition level 2 may be used to display the attribute of the person (here, “Father”) on the icon.

このように、本発明の情報提供システムは、所定の空間内の状況に関する情報を提供するシステムであって、上記空間内を撮像する撮像手段(センシング手段120 )と、上記撮像手段が撮像した空間内の状況を特定する特定手段(物品/移動体検索管理手段105 及び表示制御手段118 )と、上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識手段(画像管理手段104 )と、上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベース(表示制御データベース123 )と、上記加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段(表示制御手段118 )と、上記加工された画像データを表示する表示手段(操作端末103 )と、を備える。   As described above, the information providing system according to the present invention is a system that provides information related to a situation in a predetermined space, and includes an imaging unit (sensing unit 120) that images the inside of the space, and a space that is captured by the imaging unit. Identification means (article / moving body search management means 105 and display control means 118) for identifying the situation in the image, and recognition means for recognizing information about the moving body and / or the article included in the image data captured by the imaging means (The image management means 104), the processing content management database (display control database 123) for storing the situation in the space and the processing content of the image data in association with each other, and the processing content management database, with reference to the identification Processing means (display) that processes the image data captured by the imaging means using the recognition result of the recognition means according to the processing content corresponding to the situation specified by the means Comprising a control means 118), display means for displaying the processed image data (the operation terminal 103), the.

この構成により、撮像した画像データを空間内の状況に応じて加工することによって提供する情報の内容やレベルが変更可能になる。それによって必要な情報を画像データに含めつつ、不要な情報は画像データから削除することができ、空間内の状況に関する情報を提供する際に、その状況に応じた柔軟な対応が実現する。   With this configuration, it is possible to change the content and level of information to be provided by processing captured image data according to the situation in the space. Accordingly, unnecessary information can be deleted from the image data while including necessary information in the image data, and flexible information corresponding to the situation can be realized when providing information about the situation in the space.

また、上記情報提供システムは、ユーザ操作に応じて画像データの表示要求信号を出力する操作手段(操作端末103 )をさらに備え、加工内容管理データベースは、ユーザ情報及び空間内の状況と、画像データの加工内容とを対応付けて記憶し、加工手段は、上記表示要求信号を受けて、その表示要求信号の出力に係るユーザの情報を取得し、当該ユーザ情報と特定手段が特定した状況とに対応する加工内容に従って画像データを加工する。これにより、画像データを閲覧するユーザと空間内の状況との組合せにおいて、そのユーザに対して適切な情報を提供することができる。   The information providing system further includes an operation means (operation terminal 103) for outputting a display request signal for image data in response to a user operation. The processing content management database includes user information, a situation in the space, and image data. The processing means receives the display request signal, acquires the user information related to the output of the display request signal, and determines the user information and the status specified by the specifying means. The image data is processed according to the corresponding processing content. Thereby, in the combination of the user who browses the image data and the situation in the space, appropriate information can be provided to the user.

上記加工内容管理データベースは、空間内の状況として、当該空間の属性と、当該空間内に存在する移動体及び/又は物品の属性との組合せを記憶する。   The processing content management database stores a combination of an attribute of the space and an attribute of a moving object and / or an article existing in the space as a situation in the space.

空間内の状況を、空間の属性と移動体及び/又は物品の属性との組合せで特定するため、より適切な情報を提供することが可能になる。例えば、一般家庭であれば、空間の属性が浴室であるときには、画像データの加工によって浴室に存在する移動体の情報を削除し、空間の属性がリビングであるときには、画像データの加工によってリビングに存在する移動体の情報を含めることが実現する。   Since the situation in the space is specified by a combination of the attribute of the space and the attribute of the moving object and / or the article, more appropriate information can be provided. For example, in the case of a general household, when the attribute of the space is a bathroom, the information of the moving object existing in the bathroom is deleted by processing the image data, and when the attribute of the space is a living room, Including information on existing mobile objects is realized.

上記情報提供システムは、空間内に存在する移動体及び/又は物品を検出するセンシング手段120 をさらに備え、特定手段は、上記センシング手段の検出結果に基づいて、空間内の状況を特定し、認識手段は、撮像手段が撮像した画像データ及び/又は上記センシング手段の検出結果に基づいて画像データに含まれる移動体及び/又は物品についての情報を認識する。   The information providing system further includes sensing means 120 for detecting a moving object and / or article existing in the space, and the specifying means specifies and recognizes the situation in the space based on the detection result of the sensing means. The means recognizes information about the moving object and / or the article included in the image data based on the image data picked up by the image pickup means and / or the detection result of the sensing means.

この構成により、特定手段は、空間内の状況を的確に特定することができ、認識手段は、画像データに含まれる移動体及び/又は物品についての情報を的確に認識することができる。   With this configuration, the specifying unit can accurately specify the situation in the space, and the recognizing unit can accurately recognize information about the moving object and / or the article included in the image data.

上記認識手段は、移動体及び/又は物品についての情報を複数の情報レベル毎に認識し、加工内容管理データベースは、空間内の状況と、その状況に応じて選択された情報レベルの認識結果が加工後の画像データに含まれるよう設定された加工内容とを対応付けて記憶する。   The recognizing means recognizes information about the moving object and / or the article for each of a plurality of information levels, and the processing content management database includes a situation in the space and a recognition result of the information level selected according to the situation. The processing contents set to be included in the processed image data are stored in association with each other.

こうすることで、画像データに含める情報(情報レベル)を、よりきめ細かく変更することが可能になり、必要な情報を画像データに含めつつ、不要な情報を画像データから削除することが適切に行い得る。   In this way, the information (information level) included in the image data can be changed more finely, and it is possible to appropriately delete unnecessary information from the image data while including the necessary information in the image data. obtain.

上記情報提供システムは、撮像手段が撮像した画像データと認識手段が認識した認識結果とを対応付けて蓄積する画像管理データベース106 をさらに備え、加工手段は、上記画像管理データベースに蓄積されている画像データを、上記画像管理データベースに蓄積されている認識結果を用いて加工する。   The information providing system further includes an image management database 106 that stores the image data captured by the imaging unit and the recognition result recognized by the recognition unit in association with each other, and the processing unit stores the image stored in the image management database. Data is processed using recognition results stored in the image management database.

こうすることで、撮像手段が撮像した画像データは、画像管理データベースに蓄積されるため、必要に応じて加工前の画像データを閲覧することが可能になる。   By doing so, the image data picked up by the image pickup means is stored in the image management database, so that it is possible to view the image data before processing as necessary.

(他の実施形態)
尚、上記実施の形態では、情報提供システムを、環境管理サーバ101 、ロボット102 、操作端末103 の3つのサブシステムからなり、それらサブシステム101 〜103 が無線又は有線等のネットワークを介して互いに情報をやりとりするような構成とした。しかし、情報提供システムはこの構成に限らず、例えば操作端末103 が環境管理サーバ101 に一体となった構成でもよい。つまり、入力部116 、表示部117 、表示制御手段118 及び表示制御データベース123 が、環境管理サーバ101 に含まれる構成としてもよい。またロボット102 は省略してもよい。
(Other embodiments)
In the above embodiment, the information providing system is composed of the three subsystems of the environment management server 101, the robot 102, and the operation terminal 103. These subsystems 101 to 103 communicate with each other via a wireless or wired network. It was set as the structure which exchanges. However, the information providing system is not limited to this configuration, and for example, a configuration in which the operation terminal 103 is integrated with the environment management server 101 may be used. In other words, the environment management server 101 may include the input unit 116, the display unit 117, the display control unit 118, and the display control database 123. The robot 102 may be omitted.

また、上記実施の形態では、画像データとその認識結果とを画像管理データベース106 に蓄積し、表示制御手段118 は、画像管理データベース106 に蓄積されている画像データを認識結果を用いて加工しているが、画像管理データベース106 を省略して、センシング手段120 が撮像した画像データを逐次加工して、その加工した画像を表示するシステムとしてもよい。   In the above embodiment, the image data and the recognition result are accumulated in the image management database 106, and the display control means 118 processes the image data accumulated in the image management database 106 using the recognition result. However, the image management database 106 may be omitted, and the image data captured by the sensing means 120 may be sequentially processed to display the processed image.

さらに、上記実施の形態では、本システムを一般家庭に適用させたが、この他にも託児所、介護施設、病院、オフィス、ホテル及び店舗、等の様々な空間に適用することが可能であり、これらに空間の監視に利用することができる。また、本実施の形態では、主に移動体のプライバシー保護を目的としていたが、本システムは、例えば情報セキュリティの確保を目的とすることができる。具体的には、空間内を撮像した画像データに機密文書が含まれているときには、その画像データにおける機密文書の領域にマスク処理を施すことにより、情報漏えいを防止することができる。これは、例えばオフィス等に適用することが可能である。   Furthermore, in the above embodiment, the present system is applied to general households, but it can be applied to various other spaces such as daycare, nursing care facilities, hospitals, offices, hotels and stores. These can be used for space monitoring. Further, in the present embodiment, the purpose is mainly to protect the privacy of the moving body, but the present system can be aimed at ensuring information security, for example. Specifically, when a confidential document is included in image data captured in the space, information leakage can be prevented by performing mask processing on the confidential document area in the image data. This can be applied to an office, for example.

以上説明したように、本発明は、画像データを、空間内の状況に応じて加工することで、提供する情報の内容やレベルを容易に変更することができ、一般家庭、託児所、介護施設、病院、オフィス、ホテル及び店舗、等の様々な空間内の状況に関する情報を提供するシステムについて有用である。   As described above, the present invention can easily change the content and level of information to be provided by processing image data according to the situation in the space. It is useful for systems that provide information about the situation in various spaces such as hospitals, offices, hotels and stores.

本実施形態に係る情報提供システムの全体構成の一例を示すブロック図である。It is a block diagram which shows an example of the whole structure of the information provision system which concerns on this embodiment. ゲート型のリーダライタを環境内のドアや窓に配置した例を示す図である。It is a figure which shows the example which has arrange | positioned the gate-type reader / writer in the door and window in an environment. 背景差分法の原理を示す説明図である。It is explanatory drawing which shows the principle of a background difference method. 物品/移動体検索・管理手段の構成を示すブロック図である。It is a block diagram which shows the structure of an article / mobile body search / management means. 物品データベースの構成とその記載内容例を示す図である。It is a figure which shows the structure of an article database, and the example of the description content. 移動体データベースの構成とその記載内容例を示す図である。It is a figure which shows the structure of a mobile body database, and the example of the description content. 環境内で物品が移動する一例を説明する説明図である。It is explanatory drawing explaining an example in which articles | goods move within an environment. 環境の実状況と、それに対応する環境マップとを例示する図である。It is a figure which illustrates the actual condition of an environment, and the environment map corresponding to it. 画像管理データベースの構成とその記載内容例とを示す図である。It is a figure which shows the structure of an image management database, and its description content example. 作業ロボットの構成の一例を示す概略図である。It is the schematic which shows an example of a structure of a working robot. 表示制御データベースの構成とその記載内容例とを示す図である。It is a figure which shows the structure of a display control database, and its description content example. 画像認識処理のフローチャートである。It is a flowchart of an image recognition process. 画像提供処理のフローチャートである。It is a flowchart of an image provision process. 具体例に係る画像管理データベース及び表示制御データベースの記載内容を示す図である。It is a figure which shows the description content of the image management database and display control database which concern on a specific example. 加工された画像データの一例である。It is an example of the processed image data.

符号の説明Explanation of symbols

101 環境管理サーバ(情報提供サーバ)
103 操作端末(表示手段、操作手段)
104 画像管理手段(認識手段)
105 物品/移動体検索管理手段(特定手段)
106 画像管理データベース
110 制御手段
116 入力部
117 表示部
118 表示制御手段(特定手段、加工手段)
120 センシング手段
123 表示制御データベース(加工内容管理データベース)
160 物品/移動体データベース
101 Environmental management server (information provision server)
103 Operation terminal (display means, operation means)
104 Image management means (recognition means)
105 Article / mobile object search management means (specifying means)
106 Image management database
110 Control means
116 Input section
117 Display
118 Display control means (specifying means, processing means)
120 Sensing means
123 Display control database (Processing content management database)
160 Article / Moving Object Database

Claims (8)

所定の空間内の状況に関する情報を提供する情報提供システムであって、
上記空間内を撮像する撮像手段と、
上記撮像手段が撮像した空間内の状況を特定する特定手段と、
上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識手段と、
上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベースと、
上記加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段と、
上記加工された画像データを表示する表示手段と、を備える情報提供システム。
An information providing system for providing information on a situation in a predetermined space,
Imaging means for imaging the space;
Specifying means for specifying the situation in the space imaged by the imaging means;
Recognizing means for recognizing information about a moving object and / or an article included in the image data captured by the imaging means;
A processing content management database that stores the situation in the space and the processing content of the image data in association with each other;
Processing means for processing image data captured by the imaging means using the recognition result of the recognition means according to the processing content corresponding to the situation specified by the specifying means with reference to the processing content management database;
An information providing system comprising: display means for displaying the processed image data.
請求項1に記載の情報提供システムにおいて、
ユーザ操作に応じて画像データの表示要求信号を出力する操作手段をさらに備え、
加工内容管理データベースは、ユーザ情報及び空間内の状況と、画像データの加工内容とを対応付けて記憶し、
加工手段は、上記表示要求信号を受けて、その表示要求信号の出力に係るユーザの情報を取得し、当該ユーザ情報と特定手段が特定した状況とに対応する加工内容に従って画像データを加工する情報提供システム。
In the information provision system of Claim 1,
Further comprising an operation means for outputting a display request signal for image data in response to a user operation,
The processing content management database stores the user information and the situation in the space in association with the processing content of the image data,
The processing means receives the display request signal, obtains user information related to the output of the display request signal, and processes the image data according to the processing content corresponding to the user information and the situation specified by the specifying means. Offer system.
請求項1に記載の情報提供システムにおいて、
加工内容管理データベースは、空間内の状況として、当該空間の属性と、当該空間内に存在する移動体及び/又は物品の属性との組合せを記憶する情報提供システム。
In the information provision system of Claim 1,
The processing content management database is an information providing system that stores a combination of an attribute of the space and an attribute of a moving object and / or an article existing in the space as a situation in the space.
請求項1に記載の情報提供システムにおいて、
空間内に存在する移動体及び/又は物品を検出するセンシング手段をさらに備え、
特定手段は、上記センシング手段の検出結果に基づいて、空間内の状況を特定し、
認識手段は、撮像手段が撮像した画像データ及び/又は上記センシング手段の検出結果に基づいて画像データに含まれる移動体及び/又は物品についての情報を認識する情報提供システム。
In the information provision system of Claim 1,
Sensing means for detecting a moving object and / or an article existing in the space;
The specifying means specifies the situation in the space based on the detection result of the sensing means,
The recognition means is an information providing system for recognizing information about a moving object and / or an article included in the image data based on the image data picked up by the image pickup means and / or the detection result of the sensing means.
請求項1に記載の情報提供システムにおいて、
認識手段は、移動体及び/又は物品についての情報を複数の情報レベル毎に認識し、
加工内容管理データベースは、空間内の状況と、その状況に応じて選択された情報レベルの認識結果が加工後の画像データに含まれるよう設定された加工内容とを対応付けて記憶する情報提供システム。
In the information provision system of Claim 1,
The recognition means recognizes information about the moving object and / or the article for each of a plurality of information levels,
The processing content management database associates and stores the situation in the space and the processing content set so that the recognition result of the information level selected according to the situation is included in the processed image data .
請求項1に記載の情報提供システムにおいて、
撮像手段が撮像した画像データと認識手段が認識した認識結果とを対応付けて蓄積する画像管理データベースをさらに備え、
加工手段は、上記画像管理データベースに蓄積されている画像データを、上記画像管理データベースに蓄積されている認識結果を用いて加工する情報提供システム。
In the information provision system of Claim 1,
An image management database for storing the image data captured by the imaging unit and the recognition result recognized by the recognition unit in association with each other;
An information providing system for processing the image data stored in the image management database using the recognition result stored in the image management database.
所定の空間内の状況に関する情報を提供する情報提供サーバであって、
撮像手段が撮像した空間内の状況を特定する特定手段と、
上記撮像手段が撮像した画像データに含まれる移動体及び/又は物品についての情報の認識を行う認識手段と、
上記空間内の状況と画像データの加工内容とを対応付けて記憶する加工内容管理データベースを参照して、上記特定手段が特定した状況に対応する加工内容に従い、上記認識手段の認識結果を用いて上記撮像手段が撮像した画像データを加工する加工手段と、
上記加工された画像データを出力する出力手段と、を備える情報提供サーバ。
An information providing server that provides information on a situation in a predetermined space,
A specifying means for specifying the situation in the space imaged by the imaging means;
Recognizing means for recognizing information about the moving object and / or article included in the image data captured by the imaging means;
By referring to the processing content management database that stores the situation in the space and the processing content of the image data in association with each other, according to the processing content corresponding to the situation specified by the specifying unit, the recognition result of the recognition unit is used. Processing means for processing image data captured by the imaging means;
An information providing server comprising: output means for outputting the processed image data.
所定の空間内の状況に関する情報を提供する情報提供方法であって、
上記空間内を撮像する撮像ステップと、
上記撮像ステップで撮像した空間内の状況を特定する特定ステップと、
上記撮像ステップで撮像した画像データに含まれる移動体及び/又は物品についての情報を認識する認識ステップと、
上記特定ステップで特定した状況に対応して設定された加工内容に従い、上記認識ステップの認識結果を用いて上記撮像ステップで撮像した画像データを加工する加工ステップと、
上記加工ステップで加工した画像データを表示する表示ステップと、を含む情報提供方法。
An information providing method for providing information on a situation in a predetermined space,
An imaging step of imaging the space;
A specific step of identifying the situation in the space imaged in the imaging step;
A recognition step for recognizing information about a moving object and / or article included in the image data captured in the imaging step;
A processing step for processing the image data captured in the imaging step using the recognition result of the recognition step according to the processing content set corresponding to the situation specified in the specific step,
A display step for displaying the image data processed in the processing step.
JP2003287337A 2003-08-06 2003-08-06 System, server and method for providing information Pending JP2005056213A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003287337A JP2005056213A (en) 2003-08-06 2003-08-06 System, server and method for providing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003287337A JP2005056213A (en) 2003-08-06 2003-08-06 System, server and method for providing information

Publications (2)

Publication Number Publication Date
JP2005056213A true JP2005056213A (en) 2005-03-03
JP2005056213A5 JP2005056213A5 (en) 2006-10-19

Family

ID=34366341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003287337A Pending JP2005056213A (en) 2003-08-06 2003-08-06 System, server and method for providing information

Country Status (1)

Country Link
JP (1) JP2005056213A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277680A (en) * 2004-03-24 2005-10-06 Hitachi Ltd Video processor, its operation program, and portable terminal
JP2008097379A (en) * 2006-10-12 2008-04-24 Chugoku Electric Power Co Inc:The Security device and image providing method
JP2008250686A (en) * 2007-03-30 2008-10-16 Matsushita Electric Ind Co Ltd Watching system and masking processing method
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
JP2010118851A (en) * 2008-11-12 2010-05-27 Toyota Motor Corp Traveling object, traveling object system, and image management method
JP2010529738A (en) * 2007-05-31 2010-08-26 イーストマン コダック カンパニー Home video communication system
JP2011515736A (en) * 2008-02-27 2011-05-19 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー How to capture scene depth data and apply computer actions
JP2011128816A (en) * 2009-12-16 2011-06-30 Canon Inc Image processing method and device
JP2013114315A (en) * 2011-11-25 2013-06-10 Sony Corp Image processing device, program, image processing method, and terminal
JP2017534129A (en) * 2014-08-20 2017-11-16 バーチャル モービング テクノロジーズ エルエルシー Movement estimation system and method using object measurements
JP2018510537A (en) * 2015-01-30 2018-04-12 ノキア テクノロジーズ オサケユイチア surveillance
JP2019113900A (en) * 2017-12-20 2019-07-11 ヤフー株式会社 Device, method, and program for processing information
WO2019186676A1 (en) * 2018-03-27 2019-10-03 株式会社日立製作所 Device for behavior estimation and change detection
DE102019117254B4 (en) * 2018-07-30 2020-11-26 Toyota Jidosha Kabushiki Kaisha Image processing device, method for image processing
WO2021205875A1 (en) * 2020-04-10 2021-10-14 日本電気株式会社 Shop system, processing method, and program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4509619B2 (en) * 2004-03-24 2010-07-21 株式会社日立製作所 Video processing device operation program
JP2005277680A (en) * 2004-03-24 2005-10-06 Hitachi Ltd Video processor, its operation program, and portable terminal
JP2008097379A (en) * 2006-10-12 2008-04-24 Chugoku Electric Power Co Inc:The Security device and image providing method
JP2008250686A (en) * 2007-03-30 2008-10-16 Matsushita Electric Ind Co Ltd Watching system and masking processing method
JP2010529738A (en) * 2007-05-31 2010-08-26 イーストマン コダック カンパニー Home video communication system
JP2011515736A (en) * 2008-02-27 2011-05-19 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー How to capture scene depth data and apply computer actions
JP5385893B2 (en) * 2008-03-11 2014-01-08 パナソニック株式会社 POSITIONING SYSTEM AND SENSOR DEVICE
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
US8243136B2 (en) 2008-03-11 2012-08-14 Panasonic Corporation Tag sensor system and sensor device, and object position estimating device and object position estimating method
JP2010118851A (en) * 2008-11-12 2010-05-27 Toyota Motor Corp Traveling object, traveling object system, and image management method
JP2011128816A (en) * 2009-12-16 2011-06-30 Canon Inc Image processing method and device
CN103946850A (en) * 2011-11-25 2014-07-23 索尼公司 An information processing device and an information processing method
US9760265B2 (en) 2011-11-25 2017-09-12 Sony Corporation Information processing device and an information processing method
JP2013114315A (en) * 2011-11-25 2013-06-10 Sony Corp Image processing device, program, image processing method, and terminal
CN103946850B (en) * 2011-11-25 2018-10-23 索尼公司 Information processing unit and information processing method
US10528961B2 (en) 2014-08-20 2020-01-07 Virtual Moving Technologies System and method for estimating a move using object measurements
JP2017534129A (en) * 2014-08-20 2017-11-16 バーチャル モービング テクノロジーズ エルエルシー Movement estimation system and method using object measurements
US10936880B2 (en) 2015-01-30 2021-03-02 Nokia Technologies Oy Surveillance
JP2018510537A (en) * 2015-01-30 2018-04-12 ノキア テクノロジーズ オサケユイチア surveillance
JP2019113900A (en) * 2017-12-20 2019-07-11 ヤフー株式会社 Device, method, and program for processing information
WO2019186676A1 (en) * 2018-03-27 2019-10-03 株式会社日立製作所 Device for behavior estimation and change detection
DE102019117254B4 (en) * 2018-07-30 2020-11-26 Toyota Jidosha Kabushiki Kaisha Image processing device, method for image processing
US11715047B2 (en) 2018-07-30 2023-08-01 Toyota Jidosha Kabushiki Kaisha Image processing apparatus, image processing method
WO2021205875A1 (en) * 2020-04-10 2021-10-14 日本電気株式会社 Shop system, processing method, and program
JP7586170B2 (en) 2020-04-10 2024-11-19 日本電気株式会社 Store system, processing method and program

Similar Documents

Publication Publication Date Title
CN100567098C (en) Item management system and item management server
US10365660B2 (en) Computer system and method for automated indoor surveying by robots
US7680295B2 (en) Hand-gesture based interface apparatus
JP2005056213A (en) System, server and method for providing information
CN109998429A (en) Mobile clean robot artificial intelligence for context aware
CN102007514B (en) Article estimating device, article position estimating device, and article estimating method
US10137567B2 (en) Inventory robot
CN106092091B (en) E-machine equipment
WO2019240208A1 (en) Robot, method for controlling robot, and program
JPWO2019181499A1 (en) Store management device and store management method
CN102156476A (en) Intelligent space and nurse robot multi-sensor system and information fusion method of intelligent space and nurse robot multi-sensor system
JP6934709B2 (en) Search robot
US11448508B2 (en) Systems and methods for autonomous generation of maps
US20240321082A1 (en) Surveillance system for automatic sanitation verification
JP3738256B2 (en) Article movement system for living space and robot operation device
JP3713021B2 (en) Article handling system and robot operating device for living space
CN114670187A (en) Autonomous mobility system, autonomous mobility method and storage medium
JP2007156577A (en) Method of gaining color information using life support robot
JP2004345784A (en) Article management system, article management server and article management method
JP2005001815A (en) System, server, and method for controlling articles in living spaces
TW200924926A (en) Autonomous robot and position system and method thereof
JP2004323135A (en) Article management system
JP2005018108A (en) Article management system for living space, article management server, article management method
JP2005056066A (en) Article management system, article management server and article management method
JP7287815B2 (en) Notification system, information processing device, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100105