[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7554622B2 - Autonomous mobile work device and work management system - Google Patents

Autonomous mobile work device and work management system Download PDF

Info

Publication number
JP7554622B2
JP7554622B2 JP2020162979A JP2020162979A JP7554622B2 JP 7554622 B2 JP7554622 B2 JP 7554622B2 JP 2020162979 A JP2020162979 A JP 2020162979A JP 2020162979 A JP2020162979 A JP 2020162979A JP 7554622 B2 JP7554622 B2 JP 7554622B2
Authority
JP
Japan
Prior art keywords
work
cleaning
plan
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020162979A
Other languages
Japanese (ja)
Other versions
JP2022055515A (en
Inventor
翔一 長田
貴史 小野
綾華 仲野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amano Corp
Original Assignee
Amano Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amano Corp filed Critical Amano Corp
Priority to JP2020162979A priority Critical patent/JP7554622B2/en
Publication of JP2022055515A publication Critical patent/JP2022055515A/en
Application granted granted Critical
Publication of JP7554622B2 publication Critical patent/JP7554622B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自律走行作業装置及び作業管理システムに関する。 The present invention relates to an autonomous mobile work device and a work management system.

昨今の自律走行作業装置として、LRF(Laser Range Finder)等の計測機器を用いて作成した環境地図に、ドライブレコーダー等のカメラを用いて撮像した画像を関連付けて、作業中の画像をオペレータ等に確認させるものが提案されている(例えば、特許文献1、2参照)。特許文献1の自律走行作業装置は、作業中に撮像した画像をホームサーバに転送して、ホームサーバを経由して携帯電話等の外部機器の表示画面に映した画像をオペレータに確認させている。特許文献2の自律走行作業装置は、障害物の一時的な侵入によって環境地図が更新されないように、環境地図の更新前にオペレータに対して更新箇所の画像を確認させている。 Recent autonomous mobile work devices have been proposed that associate images captured by a camera such as a drive recorder with an environmental map created using a measuring device such as an LRF (Laser Range Finder) and allow the operator to check the images during work (see, for example, Patent Documents 1 and 2). The autonomous mobile work device in Patent Document 1 transfers images captured during work to a home server, and allows the operator to check the images displayed on the display screen of an external device such as a mobile phone via the home server. The autonomous mobile work device in Patent Document 2 allows the operator to check images of the area to be updated before updating the environmental map, so that the environmental map is not updated due to the temporary intrusion of an obstacle.

特開2002-085305号公報JP 2002-085305 A 特開2009-169845号公報JP 2009-169845 A

特許文献1のホームサーバは、表示画面に表示された画像の動画又は静止画をキャプチャする機能を有しているが、動画又は静止画からは自律走行作業装置の作業状況を十分に把握することができない。また、特許文献2の自律走行作業装置は、環境地図の変更箇所の画像をオペレータに確認させて、環境地図の更新の際に一時的な障害物を排除できるが、環境地図の変更箇所の画像からも十分な作業状況を把握することができない。 The home server in Patent Document 1 has a function for capturing video or still images of images displayed on the display screen, but the work status of the autonomous mobile work device cannot be fully understood from the video or still images. In addition, the autonomous mobile work device in Patent Document 2 allows the operator to check images of areas of change on the environmental map and can remove temporary obstacles when updating the environmental map, but the work status cannot be fully understood from images of areas of change on the environmental map.

そこで、本発明はかかる点に鑑みてなされたものであり、オペレータ等に対して作業状況を適切に把握させることができる自律走行作業装置及びプログラムを提供することを目的とする。 The present invention was made in consideration of these points, and aims to provide an autonomous mobile work device and program that allows an operator to properly understand the work situation.

本発明の自律走行作業装置は、自律走行しながら被作業エリアに対して作業を実施する自律走行作業装置であって、作業プランに従って前記被作業エリアに対して作業を実施する作業部と、作業プランに対して作業状況を比較可能な評価情報を生成する評価部と、自律走行中に前記被作業エリアの撮像画像を撮像する撮像部と、撮像画像を走行経路の各地点の位置情報に関連付けた状態で記憶する撮像画像記憶部と、を備え、作業プランの作成時及び作業プランに従った作業中に撮像された複数の撮像画像から同一地点に関連付けられた撮像画像を抽出することによって撮像画像同士が比較可能であり、前記評価部は、作業プランの作成時及び作業プランに従った作業中の撮像画像を比較することによって作業プランの作成時に存在しなかった障害物を検出し、評価情報には作業プランに従った作業中に障害物を撮像した地点に関連付けられた撮像画像と作業プランの作成時の当該地点に関連付けられた撮像画像が含まれ、表示装置に対して評価情報を含む評価画面を表示させている。 The autonomous driving work device of the present invention is an autonomous driving work device that performs work on a work area while traveling autonomously, and is equipped with a working unit that performs work on the work area in accordance with a work plan, an evaluation unit that generates evaluation information allowing the work status to be compared against the work plan, an imaging unit that takes images of the work area while traveling autonomously, and an image memory unit that stores the imaged images in association with position information of each point on the travel route, and the images can be compared by extracting imaged images associated with the same point from multiple imaged images taken when the work plan is created and during work according to the work plan, and the evaluation unit detects obstacles that did not exist when the work plan was created by comparing the imaged images taken when the work plan was created and during work according to the work plan, and the evaluation information includes the imaged image associated with the point where the obstacle was imaged during work according to the work plan and the imaged image associated with that point when the work plan was created, and an evaluation screen including the evaluation information is displayed on the display device.

この構成によれば、表示装置に表示された評価画面がオペレータに視認され、評価画面に含まれる評価情報がオペレータ等に確認される。評価情報から作業プランと現在の作業状況がオペレータ等に比較されて、作業プランに従って作業が終始実施されたか否かが評価される。よって、オペレータ等に対して自律走行作業装置の作業状況を適切に把握させることができる。 According to this configuration, the evaluation screen displayed on the display device is visually confirmed by the operator, and the evaluation information contained in the evaluation screen is confirmed by the operator. The operator compares the work plan and the current work situation from the evaluation information, and evaluates whether the work has been performed from start to finish in accordance with the work plan. This allows the operator to properly understand the work situation of the autonomous mobile work device.

本発明の自律走行作業装置は、自律走行中に前記被作業エリアの撮像画像を撮像する撮像部を備え、評価情報には撮像画像が含まれている。この構成によれば、被作業エリアの撮像画像によって自律走行作業装置の作業状況をオペレータ等に適切に把握させることができる。 The autonomous mobile work device of the present invention is equipped with an imaging unit that captures an image of the work area during autonomous travel, and the evaluation information includes the captured image. With this configuration, the captured image of the work area allows the operator or the like to properly understand the work status of the autonomous mobile work device.

本発明の自律走行作業装置において、評価情報には、作業プランの作成時に撮像された前記被作業エリアの撮像画像と比較可能に、作業プランに従った作業中に撮像された前記被作業エリアの撮像画像が含まれている。この構成によれば、作業プラン作成時の被作業エリアの撮像画像と現在の被作業エリアの撮像画像がオペレータ等に比較されて、自律走行作業装置の作業状況をオペレータ等に適切に把握させることができる。 In the autonomous mobile work device of the present invention, the evaluation information includes an image of the work area captured during work according to the work plan, so that it can be compared with an image of the work area captured when the work plan was created. With this configuration, the image of the work area captured when the work plan was created and the current image of the work area can be compared by an operator, etc., allowing the operator, etc. to properly understand the work status of the autonomous mobile work device.

本発明の自律走行作業装置は、自律走行中に前記被作業エリアの環境地図を作成する作成部を備え、評価情報には、作業プランの作成時に作成された環境地図と比較可能に、作業プランに従った作業中に作成された環境地図が含まれている。この構成によれば、作業プラン作成時の環境地図と現在の環境地図がオペレータ等に比較されて、自律走行作業装置の作業状況をオペレータ等に適切に把握させることができる。 The autonomous mobile work device of the present invention includes a creation unit that creates an environmental map of the work area during autonomous travel, and the evaluation information includes an environmental map that is created during work according to the work plan so as to be comparable to the environmental map that was created when the work plan was created. With this configuration, the environmental map at the time the work plan was created and the current environmental map can be compared by an operator, etc., allowing the operator, etc. to properly understand the work status of the autonomous mobile work device.

本発明の自律走行作業装置は、作業プランの作業内容を前記作業部に実施された作業内容に変更する変更部を備え、評価画面には、前記変更部による作業内容の変更を受け付ける変更ボタンが含まれている。この構成によれば、評価画面の評価情報から作業プランの作業内容と現在の作業内容がオペレータ等に比較され、オペレータ等によって評価画面の変更ボタンが押されることで、作業プランの作業内容を変更することができる。 The autonomous mobile work device of the present invention includes a change unit that changes the work content of the work plan to the work content performed by the work unit, and the evaluation screen includes a change button that accepts changes to the work content by the change unit. With this configuration, the work content of the work plan and the current work content are compared by an operator or the like based on the evaluation information on the evaluation screen, and the operator or the like presses the change button on the evaluation screen, thereby changing the work content of the work plan.

本発明の作業管理システムは、自律走行しながら被作業エリアに作業を実施する自律走行作業装置と、前記自律走行作業装置を管理する管理サーバと、前記管理サーバに通信可能なユーザ端末と、を備えた作業管理システムであって、前記自律走行作業装置が、作業プランに従って前記被作業エリアに作業を実施する作業部と、作業プランに対して作業状況を比較可能な評価情報を生成する評価部と、自律走行中に前記被作業エリアの撮像画像を撮像する撮像部と、撮像画像を走行経路の各地点の位置情報に関連付けた状態で記憶する撮像画像記憶部と、を有し、作業プランの作成時及び作業プランに従った作業中に撮像された複数の撮像画像から同一地点に関連付けられた撮像画像を抽出することによって撮像画像同士が比較可能であり、前記評価部は、作業プランの作成時及び作業プランに従った作業中の撮像画像を比較することによって作業プランの作成時に存在しなかった障害物を検出し、評価情報には作業プランに従った作業中に障害物を撮像した地点に関連付けられた撮像画像と作業プランの作成時の当該地点に関連付けられた撮像画像が含まれ、前記管理サーバが、前記自律走行作業装置から評価情報を取得して評価情報を含む評価画面を生成し、前記ユーザ端末が、前記管理サーバから取得した評価画面を表示する。 The work management system of the present invention is a work management system comprising an autonomous traveling work device that performs work in a work area while traveling autonomously, a management server that manages the autonomous traveling work device, and a user terminal that can communicate with the management server, wherein the autonomous traveling work device has a working unit that performs work in the work area in accordance with a work plan, an evaluation unit that generates evaluation information with which the work status can be compared against the work plan, an imaging unit that takes images of the work area while traveling autonomously, and an image storage unit that stores the captured images in a state associated with position information of each point on the travel route, and when the work plan is created and during work in accordance with the work plan, The captured images can be compared by extracting images associated with the same location from the multiple captured images, and the evaluation unit detects obstacles that did not exist when the work plan was created by comparing the images taken at the time the work plan was created and the images taken during work according to the work plan, and the evaluation information includes the captured images associated with the location where the obstacle was imaged during work according to the work plan and the captured images associated with that location at the time the work plan was created, the management server obtains the evaluation information from the autonomously traveling work device and generates an evaluation screen including the evaluation information, and the user terminal displays the evaluation screen obtained from the management server.

この構成によれば、管理サーバによって自律走行作業装置から評価情報が取得され、管理サーバによって評価情報を含む評価画面が生成される。ユーザ端末によって管理サーバから評価画面が取得されて、ユーザ端末に評価画面が表示される。オペレータ等によってユーザ端末から評価画面の評価情報が確認され、評価情報から作業プランと現在の作業状況がオペレータ等に比較されて、作業プランに従って作業が終始実施されたか否かが評価される。よって、オペレータ等に対して自律走行作業装置の作業状況を適切に把握させることができる。 According to this configuration, the management server acquires evaluation information from the autonomous mobile work device, and the management server generates an evaluation screen including the evaluation information. The user terminal acquires the evaluation screen from the management server, and the evaluation screen is displayed on the user terminal. The operator or the like checks the evaluation information on the evaluation screen from the user terminal, and the operator or the like compares the work plan and the current work status from the evaluation information, and evaluates whether the work has been performed from start to finish in accordance with the work plan. This allows the operator or the like to properly understand the work status of the autonomous mobile work device.

本発明の作業管理システムにおいて、前記自律走行作業装置が、作業プランの作業内容を前記作業部に実施された作業内容に変更する変更部を有し、前記管理サーバが、評価情報に加えて、前記変更部による作業内容の変更を受け付ける変更ボタンを含む評価画面を生成し、前記ユーザ端末に表示された評価画面から変更ボタンが押されると、前記管理サーバから前記自律走行作業装置に作業プランの作業内容の変更指示が送信される。この構成によれば、評価情報から作業プランと現在の作業状況がオペレータ等に比較されて、評価画面の変更ボタンがオペレータ等によって押されることで、自律走行作業装置の作業プランの作業内容を遠隔で変更することができる。 In the work management system of the present invention, the autonomous mobile work device has a change unit that changes the work content of the work plan to the work content performed by the work unit, and the management server generates an evaluation screen that includes, in addition to evaluation information, a change button that accepts changes to the work content by the change unit, and when the change button is pressed on the evaluation screen displayed on the user terminal, an instruction to change the work content of the work plan is sent from the management server to the autonomous mobile work device. According to this configuration, the work plan and the current work situation are compared by an operator or the like from the evaluation information, and the change button on the evaluation screen is pressed by the operator or the like, so that the work content of the work plan of the autonomous mobile work device can be remotely changed.

本発明によれば、オペレータ等に対して自律走行作業装置の作業状況を適切に把握させることができる。 The present invention allows an operator to properly understand the working status of an autonomous mobile work device.

本実施形態の作業管理システムの構成図である。1 is a configuration diagram of a work management system according to an embodiment of the present invention. 本実施形態の作業管理システムのブロック図である。FIG. 1 is a block diagram of a work management system according to an embodiment of the present invention. 本実施形態の清掃装置の制御ブロック図である。FIG. 2 is a control block diagram of the cleaning device according to the present embodiment. 本実施形態の撮像部の撮像範囲と障害物センサの検出範囲を示す図である。3A and 3B are diagrams illustrating an imaging range of an imaging unit and a detection range of an obstacle sensor according to the present embodiment. 本実施形態の清掃装置の走行経路を示す図である。FIG. 2 is a diagram showing a travel path of the cleaning device of the present embodiment. 本実施形態の清掃エリアを示す図である。FIG. 2 is a diagram showing a cleaning area of the present embodiment. 本実施形態の撮像画像の一例を示す図である。FIG. 2 is a diagram showing an example of a captured image according to the present embodiment. 本実施形態のお知らせメールの一例を示す図である。FIG. 13 is a diagram illustrating an example of a notification email according to the present embodiment. 本実施形態の評価画面の一例を示す図である。FIG. 4 is a diagram showing an example of an evaluation screen according to the present embodiment. 画像セグメンテーションを施した撮像画像の一例を示す図である。FIG. 13 is a diagram showing an example of a captured image on which image segmentation has been performed. 3次元の環境地図の一例を示す図である。FIG. 2 is a diagram showing an example of a three-dimensional environmental map. 本実施形態の清掃装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the cleaning device of the present embodiment.

以下、図面を参照しつつ、本実施形態の清掃装置について説明する。図1は、本実施形態の作業管理システムの構成図である。図2は、本実施形態の作業管理システムのブロック図である。なお、以下の説明では、自律走行作業装置として自律走行式の清掃装置を例示して説明するが、自律走行作業装置は自律走行によって被清掃エリア(被作業エリア)に対して、掃除作業、研磨作業、艶出し作業、ワックス塗布作業等の各種作業を実施する作業装置でもよい。 The cleaning device of this embodiment will be described below with reference to the drawings. FIG. 1 is a configuration diagram of the work management system of this embodiment. FIG. 2 is a block diagram of the work management system of this embodiment. In the following description, an autonomously traveling cleaning device will be used as an example of the autonomously traveling work device, but the autonomously traveling work device may be a work device that performs various tasks such as cleaning, polishing, polishing, and wax application on a cleaning area (work area) by autonomous traveling.

図1に示すように、作業管理システム1は、自律走行しながら被清掃エリアを清掃する清掃装置30と、清掃装置30を管理する管理サーバ10と、清掃装置30を遠隔で操作可能なユーザ端末20とを備えている。ユーザ端末20は、オペレータ等が所持する携帯機器であり、例えば、スマートフォンやタブレット型端末である。清掃装置30、管理サーバ10、ユーザ端末20は、ネットワーク5を介して通信可能に接続されている。ユーザ端末20が管理サーバ10にアクセスすることで、清掃装置30の遠隔操作を受け付ける操作画面や清掃装置30の清掃状況がユーザ端末20に表示される。なお、オペレータ等とは、作業場所から離れた遠隔から作業装置30を操作・監視する係員や、作業装置30の移動・準備・点検等を通常おこなう作業員や、作業装置30のプログラムを作成・変更等おこなう技術員を含み、これ以降は全てオペレータと云う。 As shown in FIG. 1, the work management system 1 includes a cleaning device 30 that cleans the area to be cleaned while autonomously traveling, a management server 10 that manages the cleaning device 30, and a user terminal 20 that can remotely operate the cleaning device 30. The user terminal 20 is a portable device carried by an operator, such as a smartphone or a tablet terminal. The cleaning device 30, the management server 10, and the user terminal 20 are connected to each other via a network 5 so that they can communicate with each other. When the user terminal 20 accesses the management server 10, an operation screen that accepts remote operation of the cleaning device 30 and the cleaning status of the cleaning device 30 are displayed on the user terminal 20. The operator includes a staff member who operates and monitors the work device 30 from a remote location away from the work site, a worker who normally moves, prepares, and inspects the work device 30, and a technician who creates and changes the program of the work device 30, and all of these are hereafter referred to as operators.

清掃装置30は、商業施設、製造施設、鉄道駅コンコース等の床面を自律走行で清掃可能に構成されている。清掃装置30の装置本体31の下部には、駆動輪としての前輪32と補助輪としての左右一対の後輪33が設けられている。前輪32と後輪33の間に洗浄パッドや洗浄ブラシ等の清掃部材34が設けられ、清掃部材34の後側にはスキージ35が設けられている。装置本体31の上部後側にはハンドル36が設けられ、ハンドル36の前側には表示部37が設けられている。装置本体31の上部前側には撮像部38が設けられ、撮像部38の下方の窪みには障害物センサ39が設けられている。 The cleaning device 30 is configured to be capable of autonomously cleaning floor surfaces in commercial facilities, manufacturing facilities, train station concourses, etc. Front wheels 32 as drive wheels and a pair of left and right rear wheels 33 as auxiliary wheels are provided at the bottom of the device body 31 of the cleaning device 30. Cleaning members 34 such as cleaning pads and cleaning brushes are provided between the front wheels 32 and rear wheels 33, and a squeegee 35 is provided behind the cleaning members 34. A handle 36 is provided at the upper rear side of the device body 31, and a display unit 37 is provided in front of the handle 36. An imaging unit 38 is provided at the upper front side of the device body 31, and an obstacle sensor 39 is provided in a recess below the imaging unit 38.

図2に示すように、管理サーバ10には、一般的なサーバと同様に、通信部11、記憶部12、制御部13が設けられている。通信部11は、管理サーバ10と清掃装置30の間の通信処理、管理サーバ10とユーザ端末20の間の通信処理を実施している。例えば、管理サーバ10と清掃装置30はインターネット等のネットワーク5を介しつつ作業現場では別途WiFi(登録商標)等の無線LANを介して接続され、管理サーバ10とユーザ端末20はLTE(登録商標)や4G、5G等の広域移動通信システムを介して接続される。記憶部12は各種記憶媒体で構成され、制御部13はCPU(Central Processing Unit)等で構成されている。記憶部12には、管理サーバ10を清掃装置30の監視サーバとして機能させるプログラムが記憶されている。 2, the management server 10 is provided with a communication unit 11, a storage unit 12, and a control unit 13, similar to a general server. The communication unit 11 performs communication processing between the management server 10 and the cleaning device 30, and between the management server 10 and the user terminal 20. For example, the management server 10 and the cleaning device 30 are connected via a network 5 such as the Internet, and at the work site, the management server 10 and the user terminal 20 are connected via a wireless LAN such as WiFi (registered trademark), and the management server 10 and the user terminal 20 are connected via a wide-area mobile communication system such as LTE (registered trademark), 4G, or 5G. The storage unit 12 is composed of various storage media, and the control unit 13 is composed of a CPU (Central Processing Unit) and the like. The storage unit 12 stores a program that causes the management server 10 to function as a monitoring server for the cleaning device 30.

ユーザ端末20には、一般的な携帯機器と同様に、通信部21、表示操作部22、記憶部23、制御部24が設けられている。通信部21は、ユーザ端末20と管理サーバ10の間の通信処理を実施している。表示操作部22は、いわゆるタッチパネル式のディスプレイであり、管理サーバ10から取得した各種情報を表示する他、清掃装置30に対する各種操作を受け付けている。記憶部23は各種記憶媒体で構成され、制御部24はCPU等で構成されている。記憶部23には、ユーザ端末20を清掃装置30のリモートコントローラとして機能させるプログラムが記憶されている。 The user terminal 20, like a typical mobile device, is provided with a communication unit 21, a display operation unit 22, a memory unit 23, and a control unit 24. The communication unit 21 performs communication processing between the user terminal 20 and the management server 10. The display operation unit 22 is a so-called touch panel display, which displays various information obtained from the management server 10 and accepts various operations on the cleaning device 30. The memory unit 23 is composed of various storage media, and the control unit 24 is composed of a CPU, etc. The memory unit 23 stores a program that causes the user terminal 20 to function as a remote controller for the cleaning device 30.

また、清掃装置30には、走行部41、清掃部(作業部)42、通信部43、撮像部38、表示部37、計測部46、操作部47、記憶部48、電源部49、制御部50が設けられている。走行部41は、上記した前輪32、後輪33、走行モータ(不図示)、操舵モータ(不図示)エンコーダ(不図示)等によって構成されている。走行部41は、走行モータによって前輪32を駆動させて清掃装置30を走行させている。なお、本実施形態には前輪駆動の清掃装置30を例示しているが、走行部41によって左右一対の後輪33を夫々独立で駆動される後輪駆動としてもよい。 The cleaning device 30 is also provided with a travel unit 41, a cleaning unit (working unit) 42, a communication unit 43, an imaging unit 38, a display unit 37, a measuring unit 46, an operation unit 47, a memory unit 48, a power supply unit 49, and a control unit 50. The travel unit 41 is composed of the above-mentioned front wheels 32, rear wheels 33, a travel motor (not shown), a steering motor (not shown), an encoder (not shown), etc. The travel unit 41 drives the front wheels 32 with the travel motor to travel the cleaning device 30. Note that, although a front-wheel drive cleaning device 30 is exemplified in this embodiment, it may also be rear-wheel drive in which a pair of left and right rear wheels 33 are independently driven by the travel unit 41.

清掃部42は、例えば、湿式清掃によって床面の清掃エリアを清掃するものであり、上記した清掃部材34及びスキージ35、洗浄モータ(不図示)、アクチュエータ(不図示)、洗浄液供給部(不図示)、汚水回収部(不図示)等によって構成されている。清掃部42は、アクチュエータによって清掃部材34を床面Fに押し付けて、清掃モータによって床面に対して清掃部材34を回転させている。このとき、洗浄液供給部によって洗浄液タンクから床面に洗浄液が散布されて、スキージ35に集められた汚水がブロアモータ(不図示)を含む汚水回収部によって汚水タンクに回収される。 The cleaning unit 42 cleans the cleaning area of the floor surface, for example, by wet cleaning, and is composed of the above-mentioned cleaning member 34 and squeegee 35, a cleaning motor (not shown), an actuator (not shown), a cleaning liquid supply unit (not shown), a wastewater recovery unit (not shown), etc. The cleaning unit 42 presses the cleaning member 34 against the floor surface F using the actuator, and rotates the cleaning member 34 relative to the floor surface using the cleaning motor. At this time, cleaning liquid is sprayed onto the floor surface from the cleaning liquid tank by the cleaning liquid supply unit, and wastewater collected by the squeegee 35 is collected in a wastewater tank by the wastewater recovery unit including a blower motor (not shown).

通信部43は、清掃装置30と管理サーバ10の間の通信処理を実施している。通信部43によって管理サーバ10に清掃状況等に関する各種情報が送信される。また、通信部43によって管理サーバ10から清掃開始等の制御コマンドが受信される。撮像部38は、床面Fを含む前景を撮像可能なカメラであり、清掃装置30の走行方向の前方に存在する障害物を撮像することができる。なお、撮像部38は、パノラマ画像が撮像可能な全天球カメラでもよいし、清掃装置30の前方を撮像可能なステレオカメラでもよい。 The communication unit 43 performs communication processing between the cleaning device 30 and the management server 10. The communication unit 43 transmits various information related to the cleaning status, etc. to the management server 10. The communication unit 43 also receives control commands, such as a command to start cleaning, from the management server 10. The imaging unit 38 is a camera capable of capturing an image of the foreground including the floor surface F, and can capture an image of obstacles that exist in front of the cleaning device 30 in the traveling direction. The imaging unit 38 may be a spherical camera capable of capturing panoramic images, or a stereo camera capable of capturing an image of the area in front of the cleaning device 30.

表示部37は、タッチパネル式の表示画面を有している。表示部37の表示画面には撮像部38に撮像された撮像画像が表示されると共に、清掃装置30に対する操作を受け付ける操作画面が表示される。なお、表示部37としては、装置本体31に対して着脱可能なタブレット型端末やスマートフォン等の携帯機器を用いることもできる。表示部37として携帯機器が用いられた場合には、通信部43の代わりに携帯機器の無線通信機能が用いられてもよい。また、表示部37はリモートコントロール可能な携帯機器として外部に持ち出すこともできる。この場合、表示部37には、清掃装置30を遠隔で操作するための操作機能が設けられていてもよい。 The display unit 37 has a touch panel display screen. The display screen of the display unit 37 displays the captured image captured by the imaging unit 38, as well as an operation screen that accepts operations for the cleaning device 30. Note that the display unit 37 may be a portable device such as a tablet terminal or a smartphone that is detachable from the device body 31. When a portable device is used as the display unit 37, the wireless communication function of the portable device may be used instead of the communication unit 43. The display unit 37 may also be taken outside as a portable device that can be remotely controlled. In this case, the display unit 37 may be provided with an operation function for remotely operating the cleaning device 30.

計測部46は、上記した障害物センサ39を備えている。障害物センサ39は、例えば、障害物や壁面からの距離及び角度を計測するLRF(Laser Range Finder)によって構成されている。障害物センサ39から周囲にレーザー光が出射され、物体からの反射光を受光することで障害物センサ39から周辺の障害物までの距離及び角度が計測されて、清掃装置30の周辺環境を認識することが可能になっている。また、障害物センサ39は、レーザー光を用いた障害物検出の代わりに、超音波センサを用いた方式や、周辺環境の撮像画像を用いた障害物検出を実施可能に構成されてもよい。 The measuring unit 46 is equipped with the obstacle sensor 39 described above. The obstacle sensor 39 is, for example, configured with an LRF (Laser Range Finder) that measures the distance and angle from an obstacle or a wall surface. The obstacle sensor 39 emits laser light into the surroundings, and by receiving reflected light from an object, the distance and angle from the obstacle sensor 39 to a nearby obstacle are measured, making it possible to recognize the surrounding environment of the cleaning device 30. Furthermore, instead of detecting obstacles using laser light, the obstacle sensor 39 may be configured to be capable of detecting obstacles using a method that uses an ultrasonic sensor or a captured image of the surrounding environment.

操作部47は、手動操作を受け付けており、上記したハンドル36(図1参照)、スロットル等によって構成されている。操作部47は、ハンドル36の操舵量やスロットルの捻り量を電気信号に変換して、装置本体31の走行モータ等の制御基板に出力して走行状態を制御させる。操作部47の操作によって、装置本体31の前後進及び走行速度の調整、左旋回、右旋回が実施される。また、装置本体31の操作部47付近には、電源のON/OFFを行う電源スイッチ(不図示)と、装置本体31の動作を全停止させる緊急停止スイッチ(不図示)が設けられている。 The operation unit 47 accepts manual operation and is composed of the above-mentioned handle 36 (see FIG. 1), throttle, etc. The operation unit 47 converts the steering amount of the handle 36 and the twist amount of the throttle into an electrical signal and outputs it to a control board of the driving motor of the device main body 31 to control the driving state. By operating the operation unit 47, the forward/reverse movement and driving speed of the device main body 31 are adjusted, and left and right turns are performed. In addition, a power switch (not shown) for turning the power ON/OFF and an emergency stop switch (not shown) for completely stopping the operation of the device main body 31 are provided near the operation unit 47 of the device main body 31.

記憶部48は、用途に応じてROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の一つ又は複数の記憶媒体によって構成されている。ROMには、例えば、清掃装置30を制御するためのプログラムが記憶されている。HDDやフラッシュメモリには、例えば、自律走行の走行経路、走行速度、洗浄液の散布量、清掃部材34の押し付け力等が設定された清掃プラン(作業プラン)や、その他のパラメータが記憶されている。電源部49は、バッテリ(不図示)及び充電回路等によって構成されている。電源部49から装置各部に電力が供給されている。 The memory unit 48 is composed of one or more storage media such as a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), a flash memory, etc., depending on the application. The ROM stores, for example, a program for controlling the cleaning device 30. The HDD or flash memory stores, for example, a cleaning plan (operation plan) that sets the autonomous driving route, driving speed, amount of cleaning liquid sprayed, pressing force of the cleaning member 34, etc., and other parameters. The power supply unit 49 is composed of a battery (not shown), a charging circuit, etc. Power is supplied to each part of the device from the power supply unit 49.

制御部50は、装置各部を統括制御している。制御部50の各種処理は、CPUを用いてソフトウェアによって実現されてもよいし、集積回路等に形成された論理回路(ハードウェア)によって実現されてもよい。CPUを用いる場合には、CPUが記憶部48に記憶されているプログラムを読み出して実行することで各種処理が実施される。なお、後述する画像処理に関しては、例えば、CPUとは別に、GPU(Graphics Processing Unit)が使用されてもよい。なお、制御部50及び記憶部48の制御ブロックの詳細については後述する。 The control unit 50 controls each part of the device. The various processes of the control unit 50 may be realized by software using a CPU, or may be realized by a logic circuit (hardware) formed in an integrated circuit or the like. When a CPU is used, the CPU reads out and executes a program stored in the storage unit 48 to perform various processes. Note that, for example, a GPU (Graphics Processing Unit) may be used separately from the CPU for image processing, which will be described later. Note that the control blocks of the control unit 50 and the storage unit 48 will be described in detail later.

清掃装置30には、清掃装置30に清掃プランを学習する学習モードと、清掃装置30に清掃プランを再現させる再現モードとが用意されている。学習モードでは、清掃装置30の手動操作によって清掃装置30に清掃エリア(被作業エリア)を覚え込ませている。再現モードでは、清掃プランに従って清掃装置30が清掃エリア内を自律走行しながら清掃する。学習モードで清掃エリアを設定するためには、清掃エリア全域を清掃部材34が通過するように清掃装置30を操作する必要がある。もちろん、清掃装置30によって清掃作業しながら清掃エリア全域を走行させることで、清掃経路及び清掃作業の変更操作等も学習させることができる。 The cleaning device 30 has a learning mode in which the cleaning device 30 learns a cleaning plan, and a reproduction mode in which the cleaning device 30 reproduces the cleaning plan. In the learning mode, the cleaning device 30 memorizes the cleaning area (area to be worked on) by manually operating the cleaning device 30. In the reproduction mode, the cleaning device 30 cleans while autonomously traveling within the cleaning area according to the cleaning plan. To set the cleaning area in the learning mode, it is necessary to operate the cleaning device 30 so that the cleaning members 34 pass through the entire cleaning area. Of course, by having the cleaning device 30 travel throughout the entire cleaning area while performing cleaning operations, it is also possible to have the cleaning device 30 learn how to change the cleaning route and cleaning operations.

ところで、このような作業管理システム1では、清掃装置30の清掃状況をオペレータに確認させたいという要望がある。清掃装置30の撮像部38で撮像した撮像画像がユーザ端末20の表示操作部22に表示されることで、オペレータに清掃状況を確認させることができるが、清掃プランに従って清掃装置30が適切に清掃したか否かまではオペレータに確認させることができない。そこで、本実施形態の清掃装置30は、清掃プランの学習時の清掃状況と再現時の清掃状況を比較した評価情報を生成して、ユーザ端末20の表示操作部22に評価情報を表示させている。 However, in such a work management system 1, there is a demand for the operator to check the cleaning status of the cleaning device 30. The image captured by the imaging unit 38 of the cleaning device 30 is displayed on the display operation unit 22 of the user terminal 20, allowing the operator to check the cleaning status, but it does not allow the operator to check whether the cleaning device 30 cleaned appropriately according to the cleaning plan. Therefore, the cleaning device 30 of this embodiment generates evaluation information that compares the cleaning status when the cleaning plan is learned with the cleaning status when it is reproduced, and displays the evaluation information on the display operation unit 22 of the user terminal 20.

以下、清掃装置の制御部及び記憶部の詳細構成について説明する。図3は、本実施形態の清掃装置の制御ブロック図である。また、ここでは、図1及び図2の符号を適宜使用して説明する。 The detailed configuration of the control unit and memory unit of the cleaning device will be described below. Figure 3 is a control block diagram of the cleaning device of this embodiment. In addition, the symbols in Figures 1 and 2 will be used appropriately in the description.

図3に示すように、清掃装置30の制御部50には、学習モード及び再現モードで機能する清掃制御部51、走行制御部52、SLAM制御部53、走行経路作成部54、環境地図作成部55、撮像画像取得部56が設けられている。また、制御部50には、学習モードで機能する清掃プラン作成部57が設けられ、再現モードで機能する評価部58及び清掃プラン変更部(変更部)59が設けられている。さらに、清掃装置30の記憶部48には、走行経路記憶部61、環境地図記憶部62、清掃プラン記憶部63、装置設定記憶部64、撮像画像記憶部65が設けられている。 As shown in FIG. 3, the control unit 50 of the cleaning device 30 is provided with a cleaning control unit 51, a travel control unit 52, a SLAM control unit 53, a travel path creation unit 54, an environmental map creation unit 55, and a captured image acquisition unit 56, which function in the learning mode and reproduction mode. The control unit 50 is also provided with a cleaning plan creation unit 57 that functions in the learning mode, and an evaluation unit 58 and a cleaning plan change unit (change unit) 59 that function in the reproduction mode. Furthermore, the memory unit 48 of the cleaning device 30 is provided with a travel path memory unit 61, an environmental map memory unit 62, a cleaning plan memory unit 63, a device setting memory unit 64, and a captured image memory unit 65.

清掃制御部51は、オペレータの手動操作に従った清掃装置30の手動清掃又は清掃プランに従った清掃装置30の自動清掃を制御している。手動清掃及び自動清掃の制御内容には、例えば、洗浄液の散布量、清掃部材34の押し付け力、汚水の吸引力が含まれている。走行制御部52は、オペレータの手動操作に従った清掃装置30の手動走行又は清掃プランに従った清掃装置30の自律走行を制御している。手動走行及び自律走行の制御内容には、例えば、走行速度が含まれている。さらに、自律走行の制御内容には、清掃エリアに設定された走行経路が含まれている。 The cleaning control unit 51 controls the manual cleaning of the cleaning device 30 according to the manual operation of the operator, or the automatic cleaning of the cleaning device 30 according to a cleaning plan. The control contents of the manual cleaning and automatic cleaning include, for example, the amount of cleaning liquid sprayed, the pressing force of the cleaning member 34, and the suction force of dirty water. The driving control unit 52 controls the manual driving of the cleaning device 30 according to the manual operation of the operator, or the autonomous driving of the cleaning device 30 according to a cleaning plan. The control contents of the manual driving and autonomous driving include, for example, the driving speed. Furthermore, the control contents of the autonomous driving include the driving route set in the cleaning area.

SLAM制御部53は、リアルタイムでSLAM(Simultaneous Localization Mapping)を実行して、計測部46に計測された清掃装置30の周囲の障害物からの距離及び角度に基づいて、清掃装置30の自己位置を推定すると共に局所地図を作成する。走行経路作成部54は、時系列に並んだ複数の自己位置を繋ぎ合わせて清掃装置30の走行経路を作成する。環境地図作成部55は、時系列に並んだ複数の局所地図を繋ぎ合わせて環境地図を作成する。走行経路は走行経路記憶部61に記憶され、環境地図は環境地図記憶部62に記憶される。 The SLAM control unit 53 executes SLAM (Simultaneous Localization Mapping) in real time to estimate the self-position of the cleaning device 30 and create a local map based on the distance and angle from obstacles around the cleaning device 30 measured by the measurement unit 46. The travel path creation unit 54 creates a travel path for the cleaning device 30 by connecting multiple self-positions arranged in chronological order. The environmental map creation unit 55 creates an environmental map by connecting multiple local maps arranged in chronological order. The travel path is stored in the travel path memory unit 61, and the environmental map is stored in the environmental map memory unit 62.

撮像画像取得部56は、撮像部38から撮像画像を取得している。撮像部38が床面を含む前景を常時撮像しており、撮像画像取得部56が撮像画像に対して走行経路の開始地点から終了地点までの各地点の位置情報を関連付けて取得する。撮像画像は、走行経路の各地点に関連付けられていれば、動画像でもよいし、コマ撮りの静止画像でもよい。例えば、走行経路の開始地点からの経過時間が撮像画像のプロパティとして関連付けられ、経過時間から求めた走行経路の各地点の位置情報と撮像画像が関連付けられる。撮像画像は走行経路の各地点の位置情報に関連付けられた状態で撮像画像記憶部65に記憶される。 The captured image acquisition unit 56 acquires captured images from the imaging unit 38. The imaging unit 38 constantly captures images of the foreground, including the floor surface, and the captured image acquisition unit 56 acquires the captured images by associating them with position information of each point from the start point to the end point of the travel route. The captured images may be moving images or stop-motion still images as long as they are associated with each point on the travel route. For example, the elapsed time from the start point of the travel route is associated as a property of the captured image, and the captured image is associated with position information of each point on the travel route calculated from the elapsed time. The captured images are stored in the captured image storage unit 65 in a state associated with the position information of each point on the travel route.

清掃プラン作成部57は、学習モード中に清掃エリアや清掃条件等を含む清掃プランを作成(学習)する。清掃エリアは、清掃装置30(清掃部材34)が走行した走行経路(移動軌跡)に基づいて設定される。この場合、走行経路記憶部61から走行経路が読み出され、装置設定記憶部64から清掃部材34の幅が読み出されて、走行経路と清掃部材34の幅に基づいて床面上に清掃エリアが設定される。清掃条件には、清掃装置30の清掃中に、走行経路の開始地点から終了地点までの各地点の洗浄液の散布量、清掃部材34の押し付け力、汚水の吸引力、走行速度等が設定される。 The cleaning plan creation unit 57 creates (learns) a cleaning plan including the cleaning area and cleaning conditions during the learning mode. The cleaning area is set based on the travel path (movement trajectory) traveled by the cleaning device 30 (cleaning member 34). In this case, the travel path is read from the travel path memory unit 61, the width of the cleaning member 34 is read from the device setting memory unit 64, and the cleaning area is set on the floor surface based on the travel path and the width of the cleaning member 34. The cleaning conditions set during cleaning by the cleaning device 30 include the amount of cleaning liquid sprayed at each point from the start point to the end point of the travel path, the pressing force of the cleaning member 34, the suction force of dirty water, the travel speed, etc.

また、清掃プランの学習(生成)時には、清掃プラン作成部57によって清掃装置30の清掃状況が検出される。清掃状況には、清掃エリアの清掃面積及び清掃時間が含まれている。清掃面積は走行経路の長さ及び清掃部材34の幅等から求められ、清掃時間はタイマ(不図示)によって清掃開始からの経過時間が計時される。さらに、清掃プランの学習時にも、撮像画像取得部56によって撮像部38から撮像画像が取得され、環境地図作成部55によって環境地図が作成されている。なお、清掃プラン記憶部63には複数の清掃プランが記憶されている。 When learning (generating) a cleaning plan, the cleaning plan creation unit 57 detects the cleaning status of the cleaning device 30. The cleaning status includes the cleaning area and cleaning time of the cleaning area. The cleaning area is calculated from the length of the travel path and the width of the cleaning member 34, and the cleaning time is measured by a timer (not shown) as the elapsed time from the start of cleaning. Furthermore, when learning a cleaning plan, the captured image acquisition unit 56 acquires captured images from the imaging unit 38, and the environmental map creation unit 55 creates an environmental map. Note that multiple cleaning plans are stored in the cleaning plan storage unit 63.

評価部58は、再現モード中に、清掃プランに対して現在の清掃状況を比較可能な評価情報を生成する。評価部58は、学習プランの再現時の清掃状況として清掃エリアの清掃面積及び清掃時間を検出する。清掃面積及び清掃時間は、清掃プランの学習時と同様にして求められる。さらに、評価部58は、撮像画像取得部56を介して撮像部38から撮像画像を取得し、環境地図作成部55から環境地図を取得する。評価情報には、清掃プランの学習時の清掃状況に清掃プランの再現時の清掃状況が比較可能な各種情報が含まれている。 During reproduction mode, the evaluation unit 58 generates evaluation information that allows the current cleaning status to be compared against the cleaning plan. The evaluation unit 58 detects the cleaning area and cleaning time of the cleaning region as the cleaning status when the learning plan is reproduced. The cleaning area and cleaning time are obtained in the same manner as when the cleaning plan is learned. Furthermore, the evaluation unit 58 acquires captured images from the imaging unit 38 via the captured image acquisition unit 56, and acquires an environmental map from the environmental map creation unit 55. The evaluation information includes various information that allows the cleaning status when the cleaning plan is learned to be compared with the cleaning status when the cleaning plan is reproduced.

評価情報には、清掃プランの学習時及び再現時の清掃面積及び清掃時間が含まれている。また、評価情報には、清掃プランの学習時及び再現時に撮像された撮像画像が含まれている。さらに、評価情報には、清掃プランの学習時及び再現時に作成された環境地図が含まれている。なお、上記したように撮像画像は走行経路の各地点に関連付けられているため、清掃プラン作成時及び清掃プランに従った清掃中に撮像された複数の撮像画像から、同一地点に関連付けられた撮像画像を抽出することによって撮像画像同士が比較可能である。 The evaluation information includes the cleaning area and cleaning time when the cleaning plan is learned and reproduced. The evaluation information also includes captured images taken when the cleaning plan is learned and reproduced. The evaluation information also includes an environmental map created when the cleaning plan is learned and reproduced. As described above, the captured images are associated with each point on the travel route, so captured images can be compared by extracting captured images associated with the same point from multiple captured images taken when the cleaning plan is created and during cleaning according to the cleaning plan.

また、評価部58は、障害物の検出機能を備えていてもよい。清掃プランの学習時の撮像画像と清掃プランの再現時の撮像画像を比較することによって、清掃プランの学習時には存在しなかった障害物が検出される。さらに、評価部58は、清掃プランの学習時の清掃面積と清掃プランの再現時の清掃面積の差分を評価情報に含めてもよい。これにより、清掃プランの学習時には存在しなかった障害物が清掃プランの再現時の清掃エリアに設置されたときに、回避動作(減速・停止・迂回走行等)によって生じた清掃面積及び清掃時間の変化量が評価情報に含められる。なお、評価情報の詳細については後述する。 The evaluation unit 58 may also have an obstacle detection function. By comparing the captured image when learning the cleaning plan with the captured image when reproducing the cleaning plan, an obstacle that did not exist when learning the cleaning plan is detected. Furthermore, the evaluation unit 58 may include in the evaluation information the difference between the cleaning area when learning the cleaning plan and the cleaning area when reproducing the cleaning plan. In this way, when an obstacle that did not exist when learning the cleaning plan is placed in the cleaning area when reproducing the cleaning plan, the amount of change in the cleaning area and cleaning time caused by the avoidance action (slowing down, stopping, detouring, etc.) is included in the evaluation information. Details of the evaluation information will be described later.

清掃プラン変更部59は、清掃プランの清掃内容(作業内容)を清掃部42に実施された清掃内容に変更する。清掃プランに含まれる清掃エリア及び清掃条件等が、清掃プランに従って清掃したときの清掃エリア及び清掃条件等に変更される。例えば、清掃プランの再現時の撮像画像に障害物が含まれており、障害物が移動不能な構造物等であった場合には、清掃プランを部分的又は全体的に変更する必要がある。このような場合には、清掃プラン変更部59によって清掃プランの再現時の清掃エリア(走行経路)、清掃条件等の一部又は全部が学習データに置き換えられて清掃プランが変更される。 The cleaning plan change unit 59 changes the cleaning content (work content) of the cleaning plan to the cleaning content performed by the cleaning unit 42. The cleaning area and cleaning conditions, etc. included in the cleaning plan are changed to the cleaning area and cleaning conditions, etc. when cleaning is performed according to the cleaning plan. For example, if an obstacle is included in the captured image when the cleaning plan is reproduced and the obstacle is an immovable structure, etc., it is necessary to change the cleaning plan partially or entirely. In such a case, the cleaning plan change unit 59 replaces some or all of the cleaning area (travel route), cleaning conditions, etc. when the cleaning plan is reproduced with learning data, and changes the cleaning plan.

清掃装置30によって評価情報が生成されると、清掃装置30から管理サーバ10に評価情報が送信される。管理サーバ10の制御部13は、清掃装置30から評価情報を取得して評価情報を含む評価画面75(図9参照)を生成する。評価画面75はWebページ形式で生成される。評価画面75には、清掃プランの学習時と再現時の清掃状況が比較可能に配置されている。また、評価画面75には、清掃プランの学習時と再現時の撮像画像及び環境地図(図9では不図示)が比較可能に表示される。また、評価画面75には、変更部による清掃内容の変更を受け付けるプラン変更ボタン(変更ボタン)77(図9参照)が表示されている。 When the cleaning device 30 generates the evaluation information, the cleaning device 30 transmits the evaluation information to the management server 10. The control unit 13 of the management server 10 acquires the evaluation information from the cleaning device 30 and generates an evaluation screen 75 (see FIG. 9) including the evaluation information. The evaluation screen 75 is generated in a web page format. The evaluation screen 75 displays the cleaning status when the cleaning plan was learned and when it was reproduced so that they can be compared. The evaluation screen 75 also displays captured images and an environmental map (not shown in FIG. 9) when the cleaning plan was learned and when it was reproduced so that they can be compared. The evaluation screen 75 also displays a plan change button (change button) 77 (see FIG. 9) that accepts changes to the cleaning content by the change unit.

管理サーバ10が評価画面を生成すると、管理サーバ10からユーザ端末20に対してお知らせメール73(図8参照)が自動的に通知される。メール本文には評価情報へのハイパーリンク74(図8参照)が記載されており、ユーザ端末20のオペレータによってハイパーリンク74が押されることで、ユーザ端末20によって管理サーバ10から評価画面75が取得される。ユーザ端末20の表示操作部22に評価画面75が表示されることで、評価情報から清掃プラン作成時の清掃状況と現在の清掃状況が比較されて、清掃装置30の清掃状況をオペレータに適切に把握させることができる。 When the management server 10 generates the evaluation screen, a notification email 73 (see FIG. 8) is automatically sent from the management server 10 to the user terminal 20. A hyperlink 74 (see FIG. 8) to the evaluation information is included in the body of the email, and when the operator of the user terminal 20 clicks the hyperlink 74, the user terminal 20 obtains an evaluation screen 75 from the management server 10. When the evaluation screen 75 is displayed on the display operation unit 22 of the user terminal 20, the cleaning status at the time the cleaning plan was created is compared with the current cleaning status from the evaluation information, allowing the operator to properly grasp the cleaning status of the cleaning device 30.

図4から図9を参照して、評価情報の生成処理について説明する。図4は、本実施形態の撮像部の撮像範囲と障害物センサの検出範囲を示す図である。図5は、本実施形態の清掃装置の走行経路を示す図であり、(A)は学習時の走行経路、(B)は再現時の走行経路を示している。図6は、本実施形態の清掃エリアを示す図であり、(A)は学習時の清掃エリア、(B)は再現時の清掃エリアを示している。図7は、本実施形態の撮像画像を示しており、(A)は学習時の撮像画像、(B)は再現時の撮像画像を示している。図8は、本実施形態のお知らせメールの一例を示す図である。図9は、本実施形態の評価画面の一例を示す図である。ここでは、図1から図3の符号を適宜使用して説明する。 The evaluation information generation process will be described with reference to Figs. 4 to 9. Fig. 4 is a diagram showing the imaging range of the imaging unit and the detection range of the obstacle sensor in this embodiment. Fig. 5 is a diagram showing the travel path of the cleaning device in this embodiment, where (A) shows the travel path during learning, and (B) shows the travel path during reproduction. Fig. 6 is a diagram showing the cleaning area in this embodiment, where (A) shows the cleaning area during learning, and (B) shows the cleaning area during reproduction. Fig. 7 shows a captured image in this embodiment, where (A) shows the image during learning, and (B) shows the image during reproduction. Fig. 8 is a diagram showing an example of a notification email in this embodiment. Fig. 9 is a diagram showing an example of an evaluation screen in this embodiment. Here, the symbols in Figs. 1 to 3 will be used as appropriate for explanation.

清掃装置30の装置本体31の前面中央に撮像部38及び障害物センサ39が設けられている。図4に示すように、撮像部38の撮像範囲(画角)S1は、清掃装置30の走行方向に延びる中心線Lを基準に対称になるような中心角が90度程度の扇状に設定されている。撮影範囲はさらに広角なレンズを用いれば広げることが可能であるが、広角にするほど画像のゆがみを補正する画像処理が増加されるため、適度な画角が選ばれる。障害物センサ39の検出範囲S2は中心線Lを基準に対称になるような中心角が180度以上の扇状に設定されている。撮像部38の撮像距離は0近辺から無限遠であるが、障害物センサ39の検出距離はレーザー光の検出距離が限られているため、実際には障害物センサ39の検出範囲S2は斜線に示すように略半円状に設定されている。 The image pickup unit 38 and the obstacle sensor 39 are provided at the center of the front surface of the device body 31 of the cleaning device 30. As shown in FIG. 4, the image pickup range (angle of view) S1 of the image pickup unit 38 is set to a fan shape with a central angle of about 90 degrees so as to be symmetrical with respect to the center line L extending in the traveling direction of the cleaning device 30. The image pickup range can be expanded by using a wider-angle lens, but the wider the angle, the more image processing to correct image distortion increases, so an appropriate angle of view is selected. The detection range S2 of the obstacle sensor 39 is set to a fan shape with a central angle of 180 degrees or more so as to be symmetrical with respect to the center line L. The image pickup distance of the image pickup unit 38 is from near 0 to infinity, but the detection distance of the obstacle sensor 39 is limited by the detection distance of the laser light, so in reality, the detection range S2 of the obstacle sensor 39 is set to be approximately semicircular as shown by the diagonal lines.

図5(A)に示すように、清掃プランの学習時には、手動操作によって清掃装置30が開始地点Aから終了地点Bに向かってジグザグで動かされている。清掃装置30の移動軌跡によって一点鎖線に示す走行経路Rが形成される。撮像部38によって床面の撮像画像が常時撮像されており、二点鎖線に示す撮像範囲(図5では一部のみ図示)で撮像された各撮像画像が走行経路Rの各地点に関連付けられて記憶される。また、障害物センサ39を用いたSLAMが実行されており、破線に示す検出範囲(図5では一部のみ図示)で検出された壁等によって環境地図が作成される。 As shown in FIG. 5(A), when learning a cleaning plan, the cleaning device 30 is manually moved in a zigzag pattern from start point A to end point B. The movement trajectory of the cleaning device 30 forms a travel route R shown by the dashed line. Images of the floor surface are constantly captured by the imaging unit 38, and each captured image captured within the imaging range shown by the dashed line (only a portion of which is shown in FIG. 5) is associated with each point on the travel route R and stored. In addition, SLAM is performed using the obstacle sensor 39, and an environmental map is created from walls and the like detected within the detection range shown by the dashed line (only a portion of which is shown in FIG. 5).

図5(B)に示すように、清掃プランの再現時には、清掃プランの走行経路Rに沿って清掃装置30が自律走行している。走行経路Rの終了地点B付近には、学習時には存在しなかった障害物OBが壁面に沿って置かれている。障害物OBは、例えば段ボール箱であり、窓枠の高さよりも低く形成されている(図7参照)。清掃装置30が清掃プランに従って自律走行すると、地点Dにおいて回避動作が実行される。再現時には地点B´で清掃が終了して走行経路Rが一部重複される。再現時においても、清掃中に撮像画像が撮像されると共に環境地図が作成される。 As shown in FIG. 5B, when the cleaning plan is reproduced, the cleaning device 30 travels autonomously along the travel route R of the cleaning plan. Near the end point B of the travel route R, an obstacle OB that was not present during learning is placed along the wall. The obstacle OB is, for example, a cardboard box, and is formed lower than the height of the window frame (see FIG. 7). When the cleaning device 30 travels autonomously according to the cleaning plan, an avoidance operation is performed at point D. When reproduced, cleaning ends at point B' and the travel route R is partially overlapped. Even during reproduction, images are captured during cleaning and an environmental map is created.

図6(A)に示すように、清掃プランの学習時の清掃状況として、清掃エリアA1の清掃面積と清掃時間が求められる。この場合、走行経路Rと清掃部材34の幅から清掃部材34の軌跡が求められ、清掃部材34の軌跡が積算されることで清掃面積が求められる。また、走行経路Rの開始地点Aから現在の走行地点までの経過時間がタイマによって計時されることで清掃時間が求められる。なお、清掃部材34の移動軌跡の一部がオーバラップするように移動軌跡がジグザグに蛇行している。この清掃部材34の移動軌跡のオーバラップ分の面積については無視して清掃面積が求められてもよい。 As shown in FIG. 6(A), the cleaning area and cleaning time of cleaning area A1 are obtained as the cleaning status when learning the cleaning plan. In this case, the trajectory of the cleaning member 34 is obtained from the travel path R and the width of the cleaning member 34, and the cleaning area is obtained by integrating the trajectory of the cleaning member 34. The cleaning time is also obtained by measuring the elapsed time from the start point A of the travel path R to the current travel point using a timer. Note that the movement trajectory of the cleaning member 34 zigzags so that part of the movement trajectory overlaps. The cleaning area may be obtained by ignoring the overlapping area of the movement trajectory of the cleaning member 34.

図6(B)に示すように、清掃プランに従った再現時(作業中)の清掃状況として、清掃プランの学習時の清掃状況と同様に、清掃エリアA2の清掃面積と清掃時間が求められる。この場合、障害物OBを避けるように走行経路Rの一部が重複しているため、清掃プランの学習時の清掃エリアA1の清掃面積よりも、清掃プランの再現時の清掃エリアA2の清掃面積が小さくなっている。清掃プランの再現時には、障害物OBを迂回する回避動作が実施されるため、清掃プランの学習時の清掃開始地点Aから清掃終了地点Bまでの清掃時間よりも、清掃プランの再現時の清掃開始地点Aから清掃終了地点B´までの清掃時間が長くなっている。 As shown in FIG. 6(B), the cleaning situation when reproducing (working) according to the cleaning plan is calculated by determining the cleaning area and cleaning time of cleaning area A2, similar to the cleaning situation when learning the cleaning plan. In this case, because part of the travel path R overlaps to avoid the obstacle OB, the cleaning area of cleaning area A2 when reproducing the cleaning plan is smaller than the cleaning area of cleaning area A1 when learning the cleaning plan. When reproducing the cleaning plan, an avoidance operation is performed to go around the obstacle OB, so the cleaning time from cleaning start point A to cleaning end point B' when reproducing the cleaning plan is longer than the cleaning time from cleaning start point A to cleaning end point B when learning the cleaning plan.

清掃プランの再現時の清掃面積と清掃時間が求められると、清掃プランの学習時及び再現時の清掃状況を含む評価情報が生成される。評価情報には、清掃プランの学習時の清掃面積と清掃プランの再現時の清掃面積の差分面積や、清掃プランの学習時の清掃時間と清掃プランの再現時の清掃時間の差分時間が含まれていてもよい。また、評価情報には、清掃プランの学習時の撮像画像及び環境地図が含まれると共に、清掃プランの再現時の撮像画像及び環境地図が含まれている。撮像画像及び環境地図は、障害物OBの有無を判定するための付加情報として利用される。 When the cleaning area and cleaning time when the cleaning plan is reproduced are obtained, evaluation information is generated that includes the cleaning status when the cleaning plan was learned and when it was reproduced. The evaluation information may include the difference in area between the cleaning area when the cleaning plan was learned and the cleaning area when the cleaning plan was reproduced, and the difference in time between the cleaning time when the cleaning plan was learned and the cleaning time when the cleaning plan was reproduced. The evaluation information also includes captured images and an environmental map when the cleaning plan was learned, as well as captured images and an environmental map when the cleaning plan was reproduced. The captured images and environmental map are used as additional information for determining the presence or absence of an obstacle OB.

図7(A)には、清掃プランの学習時に地点C(図5(B)参照)で撮像した撮像画像71が示されている。清掃プランの学習時の撮像画像71には障害物OBが含まれていない。図7(B)には、清掃プランの再現時に地点Cで撮像した撮像画像72が示されている。清掃プランの再現時の撮像画像72には障害物OBの全景が含まれている。清掃プランの再現時に障害物センサ39によって障害物OBが検出された地点Cの撮像画像72が抽出されると共に、清掃プランの学習時に地点Cで撮像された撮像画像71が抽出される。清掃プランの学習時と再現時の撮像画像71、72を比較することによって、学習時には存在していなかった障害物OBか否かが判定される。 Figure 7 (A) shows an image 71 captured at point C (see Figure 5 (B)) when learning a cleaning plan. Image 71 captured when learning a cleaning plan does not include an obstacle OB. Figure 7 (B) shows an image 72 captured at point C when reproducing a cleaning plan. Image 72 captured when reproducing a cleaning plan includes a full view of the obstacle OB. Image 72 of point C where obstacle OB was detected by obstacle sensor 39 when reproducing a cleaning plan is extracted, and image 71 captured at point C when learning a cleaning plan is extracted. By comparing images 71, 72 captured when learning a cleaning plan and when reproducing, it is determined whether or not there is an obstacle OB that did not exist when learning.

障害物OBの判定は、既知の画像認識処理によって実施されてもよい。この場合、障害物センサ39を用いた環境地図の作成時に障害物OBが検出されるため、障害物OBの検出地点Cにおける清掃プランの学習時と再現時の撮像画像71、72が抽出される。そして、清掃プランの学習時と再現時の撮像画像71、72の各画素値が比較されて、画素値の差分が所定以上の画素が一定以上ある場合に、清掃プランの学習時には存在していなかった障害物OBであると判定される。このように、清掃プランの再現時に障害物OBが含まれた撮像画像72と、この撮像画像72に対応した清掃プランの学習時の撮像画像71が抽出される。 The determination of the obstacle OB may be performed by a known image recognition process. In this case, the obstacle OB is detected when the environmental map is created using the obstacle sensor 39, and the captured images 71, 72 at the detection point C of the obstacle OB are extracted when the cleaning plan is learned and when it is reproduced. Then, the pixel values of the captured images 71, 72 when the cleaning plan is learned and when it is reproduced are compared, and if there are a certain number of pixels with a pixel value difference of a predetermined value or more, it is determined that the obstacle OB is an obstacle OB that did not exist when the cleaning plan was learned. In this way, the captured image 72 containing the obstacle OB when the cleaning plan is reproduced and the captured image 71 when the cleaning plan is learned that corresponds to this captured image 72 are extracted.

図8に示すように、管理サーバ10では、評価情報のお知らせメール73が生成される。お知らせメール73には、清掃日付、清掃開始の予約時刻、清掃終了時刻、評価情報へのハイパーリンク74が記載されている。ハイパーリンク74のリンク先には、管理サーバ10によって生成されたWebページ形式の評価画面75(図9参照)が設定されている。お知らせメール73がユーザ端末20に送信されて、お知らせメール73のハイパーリンク74から評価画面75が閲覧可能になっている。なお、お知らせメール73が評価画面として使用されてもよく、この場合にはメール本文に評価情報等が記載されている。 As shown in FIG. 8, the management server 10 generates a notification email 73 of the evaluation information. The notification email 73 includes the cleaning date, the scheduled time for starting cleaning, the time for finishing cleaning, and a hyperlink 74 to the evaluation information. The hyperlink 74 links to an evaluation screen 75 (see FIG. 9) in web page format generated by the management server 10. The notification email 73 is sent to the user terminal 20, and the evaluation screen 75 can be viewed from the hyperlink 74 in the notification email 73. The notification email 73 may also be used as the evaluation screen, in which case the evaluation information, etc. is included in the email body.

図9に示すように、評価画面75の上半部には清掃プランの学習時に撮像した撮像画像71が表示されている。撮像画像71の隣には、清掃プランの作成日、撮像画像の撮像日時、撮像時の清掃面積、清掃最終時の総清掃面積、清掃終了までの清掃終了時間が表示されている。評価画面75の下半部には清掃プランの再現時に撮像した撮像画像72が表示されている。撮像画像72の隣には、作業日、撮像画像の撮像日時、撮像時の清掃面積、清掃最終時の総清掃面積、清掃終了までの清掃終了時間が表示されている。このように、評価画面75には、評価情報の各項目が比較可能に配置されている。 As shown in FIG. 9, the upper half of the evaluation screen 75 displays an image 71 captured when learning the cleaning plan. Next to the captured image 71, the date the cleaning plan was created, the date and time the image was captured, the cleaning area at the time of capture, the total cleaning area at the end of cleaning, and the cleaning completion time until cleaning is completed are displayed. The lower half of the evaluation screen 75 displays an image 72 captured when the cleaning plan was reproduced. Next to the captured image 72, the work date, the date and time the image was captured, the cleaning area at the time of capture, the total cleaning area at the end of cleaning, and the cleaning completion time until cleaning is completed are displayed. In this way, each item of evaluation information is arranged on the evaluation screen 75 so that it can be compared.

清掃プランの学習時の撮像画像71には障害物OBが存在しておらず、清掃プランの再現時の撮像画像72には障害物OBが存在している。清掃装置30が回避動作するため、清掃プランの学習時の総清掃面積66.2[m]よりも、清掃プランの再現時の総清掃面積58.6[m]が小さくなっている。また、清掃プランの学習時の清掃終了時間45分50秒よりも、清掃プランの再現時の清掃終了時間48分15秒が長くなっている。よって、回避動作による総清掃面積及び清掃終了時間の変化量をオペレータに認識させることができる。 No obstacle OB is present in the captured image 71 when the cleaning plan is learned, and an obstacle OB is present in the captured image 72 when the cleaning plan is reproduced. Because the cleaning device 30 performs an avoidance operation, the total cleaning area of 58.6 [ m2 ] when the cleaning plan is reproduced is smaller than the total cleaning area of 66.2 [ m2 ] when the cleaning plan is learned. In addition, the cleaning end time of 48 minutes 15 seconds when the cleaning plan is reproduced is longer than the cleaning end time of 45 minutes 50 seconds when the cleaning plan is learned. Therefore, the operator can recognize the amount of change in the total cleaning area and cleaning end time due to the avoidance operation.

評価画面75の最下部には終了ボタン76とプラン変更ボタン77が表示されている。終了ボタン76が押されることで評価画面75がクローズされる。プラン変更ボタン77が押されることで、管理サーバ10から清掃装置30に清掃プランの清掃内容の変更指示が送信される。清掃装置30の清掃プラン変更部59によって清掃プランの清掃内容が、現在の清掃内容に部分的又は全体的に変更される。障害物OBが移動不能な構造物等の場合には、清掃の度に障害物OBとして認識されることになるので、評価画面75から清掃プランの遠隔で変更して再学習を不要にしている。図の例では、評価画面75に環境地図が表示されていないが、画面の切り替え等によって清掃プランの学習時及び再現時の環境地図が表示されてもよい。 At the bottom of the evaluation screen 75, an end button 76 and a plan change button 77 are displayed. Pressing the end button 76 closes the evaluation screen 75. Pressing the plan change button 77 sends an instruction to change the cleaning content of the cleaning plan from the management server 10 to the cleaning device 30. The cleaning content of the cleaning plan is changed partially or entirely to the current cleaning content by the cleaning plan change unit 59 of the cleaning device 30. If the obstacle OB is an immovable structure, it will be recognized as an obstacle OB every time cleaning is performed, so the cleaning plan can be changed remotely from the evaluation screen 75, making re-learning unnecessary. In the example shown in the figure, the environmental map is not displayed on the evaluation screen 75, but the environmental map at the time of learning and reproduction of the cleaning plan may be displayed by switching the screen, etc.

なお、清掃プランの変更指示は、清掃終了後に管理サーバ10から清掃装置30に送信される構成に限定されない。例えば、障害物OBによって清掃が中断された状況であれば、清掃装置30によって障害物OBが検出された時点で、管理サーバ10からユーザ端末20にお知らせメール73が通知されて、清掃終了前にお知らせメール73によってユーザ端末20に評価画面75が表示されてもよい。これにより、清掃装置30が障害物OBに到達する前の段階で、評価画面75を閲覧したオペレータが清掃プランを変更したり、他の清掃プランに差し替えたりすることができる。 The instruction to change the cleaning plan is not limited to being sent from the management server 10 to the cleaning device 30 after cleaning is completed. For example, if cleaning is interrupted due to an obstacle OB, the management server 10 may send a notification email 73 to the user terminal 20 when the cleaning device 30 detects the obstacle OB, and the notification email 73 may display the evaluation screen 75 on the user terminal 20 before cleaning is completed. This allows an operator who views the evaluation screen 75 to change the cleaning plan or replace it with another cleaning plan before the cleaning device 30 reaches the obstacle OB.

また、図10に示すように、撮像画像75(図7(B)参照)に画像セグメンテーション(セグメント認識機能:セマンティック・セグメンテーション)が施されてセグメンテーション画像81が生成されてもよい。画像セグメンテーションは、撮像画像75の画素毎に物体を判別して識別可能に表示する技術である。この手法は、画像の各画素がどのカテゴリーに属するかを求める画像アノテーションの手法である。同一カテゴリーの画素が同一ラベルとして扱われて、床面、壁、人、他の障害物OB等が識別される。図では、特に床面Fと障害物OBが異なる色やハッチングで表示されている。上記の評価画面75でも、セグメンテーション画像81が表示されることで、オペレータに障害物OBを認識させ易くできる。 As shown in FIG. 10, the captured image 75 (see FIG. 7B) may be subjected to image segmentation (segment recognition function: semantic segmentation) to generate a segmentation image 81. Image segmentation is a technique for distinguishing objects for each pixel of the captured image 75 and displaying them in an identifiable manner. This method is an image annotation method for determining which category each pixel of an image belongs to. Pixels of the same category are treated as the same label, and floors, walls, people, other obstacles OB, etc. are identified. In the figure, the floor F and obstacles OB in particular are displayed in different colors and hatching. The segmentation image 81 is also displayed on the evaluation screen 75, making it easier for the operator to recognize obstacles OB.

また、図11(A)に示すように、環境地図が立体的に作成されてもよい。一般的に環境地図の作成時には、障害物センサ39として2次元のLRFを用いて壁82や障害物OBが検出される。この場合、清掃プランの学習時に作成した環境地図と清掃プランの再現時に作成した環境地図とを比較したときに、検出誤差による差異か障害物OBの有無による差異かを判別することが難しい。そこで、障害物センサ39として3次元のLRFを用いることで、清掃プランの学習時と清掃プランの再現時の環境地図を比較したときに、検出誤差による差異か障害物OBの有無による差異かを判別させることができる。 Also, as shown in FIG. 11(A), the environmental map may be created three-dimensionally. In general, when creating an environmental map, a two-dimensional LRF is used as the obstacle sensor 39 to detect walls 82 and obstacles OB. In this case, when comparing an environmental map created when learning a cleaning plan with an environmental map created when reproducing a cleaning plan, it is difficult to determine whether the difference is due to a detection error or the presence or absence of an obstacle OB. Therefore, by using a three-dimensional LRF as the obstacle sensor 39, when comparing the environmental maps created when learning a cleaning plan and when reproducing a cleaning plan, it is possible to determine whether the difference is due to a detection error or the presence or absence of an obstacle OB.

より詳細には、図11(B)に示すように、3次元のLRFは物体の高さのファクターが加味されるため、窓枠83よりも低い障害物OBは壁82や柱等の移動不能な構造物ではないと判定される。一方で、ドア84が開いたときと閉じたときのように身長よりも高い位置での変化は、移動不能な構造物の変化、すなわちLRFの検出誤差であると判定される。図の例では、窓枠83よりも低い第2層の環境地図M2で検出された物体が、窓枠83付近の第6層の環境地図M6では検出されないため、この物体が移動可能な障害物OBであると判定される。3次元の環境地図は、2次元のLRFを上下にスライドさせたり、上下に揺動させたりして作成されてもよいし、3次元Lidarモジュールによって作成されてもよい。 More specifically, as shown in FIG. 11(B), the three-dimensional LRF takes into account the factor of object height, so that an obstacle OB lower than the window frame 83 is determined not to be an immovable structure such as a wall 82 or a pillar. On the other hand, a change at a position higher than the height, such as when a door 84 is opened and closed, is determined to be a change in an immovable structure, i.e., an LRF detection error. In the example shown, an object detected in the second layer environmental map M2 lower than the window frame 83 is not detected in the sixth layer environmental map M6 near the window frame 83, so this object is determined to be a movable obstacle OB. A three-dimensional environmental map may be created by sliding or swinging a two-dimensional LRF up and down, or may be created by a three-dimensional Lidar module.

ここで、図12を参照して、清掃装置の動作について説明する。図12は、本実施形態の清掃装置の動作を示すフローチャートである。ここでは、図1から図3の符号を適宜使用して説明する。なお、ここでは、評価情報として撮像画像、清掃面積、清掃時間が生成される一例を示しているが、評価情報として環境地図が生成されてもよい。 Now, the operation of the cleaning device will be described with reference to FIG. 12. FIG. 12 is a flowchart showing the operation of the cleaning device of this embodiment. Here, the explanation will be given using the symbols in FIG. 1 to FIG. 3 as appropriate. Note that, although an example is shown here in which a captured image, cleaning area, and cleaning time are generated as evaluation information, an environmental map may also be generated as evaluation information.

図12に示すように、清掃プランが選択されると(ステップS01)、清掃装置30によって自動清掃が開始される(ステップS02)。清掃装置30の清掃中には、障害物センサ39によって障害物OBが検出されたか否かが監視される(ステップS03)。障害物センサ39によって障害物OBが検出されない場合(ステップS03でNo)、ステップS07に処理が移行する。一方で、障害物センサ39によって障害物OBが検出された場合(ステップS03でYes)、清掃プランの再現時及び学習時に障害物OBの検出地点で撮像された撮像画像が抽出される(ステップS04)。 As shown in FIG. 12, when a cleaning plan is selected (step S01), automatic cleaning is started by the cleaning device 30 (step S02). While the cleaning device 30 is cleaning, it is monitored whether an obstacle OB is detected by the obstacle sensor 39 (step S03). If an obstacle OB is not detected by the obstacle sensor 39 (No in step S03), the process proceeds to step S07. On the other hand, if an obstacle OB is detected by the obstacle sensor 39 (Yes in step S03), an image captured at the detection point of the obstacle OB when reproducing and learning the cleaning plan is extracted (step S04).

次に、清掃プランの再現時と学習時の撮像画像の比較によって、清掃プランの学習時には存在しなかった障害物OBか否かが判定される(ステップS05)。清掃プランの再現時と学習時の撮像画像の差分が小さく、清掃プランの学習時にも障害物OBが存在していた場合(ステップS05でNo)、ステップS07に処理が移行する。清掃プランの再現時と学習時の撮像画像の差分が大きく、清掃プランの学習時に障害物OBが存在していない場合(ステップS05でYes)、清掃プランの再現時と学習時の撮像画像が評価部58によって取得される(ステップS06)。 Next, the captured images when the cleaning plan was reproduced and when it was learned are compared to determine whether or not there is an obstacle OB that was not present when the cleaning plan was learned (step S05). If the difference between the captured images when the cleaning plan was reproduced and when it was learned is small and an obstacle OB was present when the cleaning plan was learned (No in step S05), the process proceeds to step S07. If the difference between the captured images when the cleaning plan was reproduced and when it was learned is large and an obstacle OB was not present when the cleaning plan was learned (Yes in step S05), the images captured when the cleaning plan was reproduced and when it was learned are acquired by the evaluation unit 58 (step S06).

清掃プランが終了するまでステップS03-S06の各処理が繰り返される(ステップS07でNo)。清掃プランが終了すると(ステップS07でYes)、清掃装置30の自動清掃が終了する(ステップS08)。次に、評価部58によって清掃プランの再現時と学習時の清掃面積、清掃時間、撮像画像等を含む評価情報が生成される(ステップS09)。清掃プランの再現時の清掃面積及び清掃時間は清掃終了後に求められており、清掃プランの学習時の清掃面積及び清掃時間は清掃プランの学習時に求められている。そして、清掃装置30から管理サーバ10に向けて評価情報が送信される(ステップS10)。 The processes in steps S03-S06 are repeated until the cleaning plan is completed (No in step S07). When the cleaning plan is completed (Yes in step S07), the automatic cleaning of the cleaning device 30 is completed (step S08). Next, the evaluation unit 58 generates evaluation information including the cleaning area, cleaning time, captured images, etc. when the cleaning plan is reproduced and when it is learned (step S09). The cleaning area and cleaning time when the cleaning plan is reproduced are obtained after cleaning is completed, and the cleaning area and cleaning time when the cleaning plan is learned are obtained when the cleaning plan is learned. Then, the evaluation information is transmitted from the cleaning device 30 to the management server 10 (step S10).

以上、本実施形態によれば、ユーザ端末20に表示された評価画面75がオペレータに視認され、評価画面75に含まれる評価情報がオペレータに確認される。評価情報から清掃プランと現在の清掃状況がオペレータに比較されて、清掃プランに従って清掃が終始実施されたか否かが評価される。よって、オペレータに対して清掃装置30の清掃状況を適切に把握させることができる。 As described above, according to this embodiment, the evaluation screen 75 displayed on the user terminal 20 is visually recognized by the operator, and the evaluation information contained in the evaluation screen 75 is confirmed by the operator. The operator compares the cleaning plan and the current cleaning status from the evaluation information, and evaluates whether or not cleaning has been performed according to the cleaning plan from start to finish. This allows the operator to properly grasp the cleaning status of the cleaning device 30.

なお、本実施形態では、清掃プランの学習時と再現時の撮像画像や環境地図の比較によって清掃プランが変更されたが、異なる清掃プランの学習時の撮像画像や環境地図の比較によって清掃プランが変更されてもよい。この場合、各清掃プランで、同じ走行地点から同じ方向を撮像した撮像画像が記憶されている。また、各清掃プランの再現走行の結果の比較によって清掃プランが変更されてもよい。 In this embodiment, the cleaning plan is changed by comparing the captured images and environmental maps taken when learning and reproducing the cleaning plan, but the cleaning plan may also be changed by comparing the captured images and environmental maps taken when learning a different cleaning plan. In this case, captured images taken in the same direction from the same travel point are stored for each cleaning plan. The cleaning plan may also be changed by comparing the results of the reproduction travel of each cleaning plan.

また、本実施形態の評価情報には清掃面積及び清掃時間が含まれているが、走行時の最高速度、速度の変化率、最大電力等のように、評価情報には清掃プランの学習時と再現時で比較可能な他の情報が含まれていてもよい。 In addition, although the evaluation information in this embodiment includes the cleaning area and cleaning time, the evaluation information may also include other information that can be compared when learning and reproducing the cleaning plan, such as the maximum speed while driving, the rate of change of speed, maximum power, etc.

また、本実施形態では、清掃プランが清掃装置を手動操作して学習されたが、清掃プランには過去データから実験的、経験的、理論的に求められたパラメータ設定されてもよい。 In addition, in this embodiment, the cleaning plan was learned by manually operating the cleaning device, but the cleaning plan may be set with parameters that are experimentally, empirically, or theoretically determined from past data.

また、清掃プランの学習時と再現時の撮像画像のズレを補正してもよい。清掃プランの学習時と再現時で変化する可能性が低い天井の形状や照明の位置を基準にして画像の位置ズレが補正されてもよい。また、清掃プランの学習時と再現時の撮像画像に対して、上記の画像セグメンテーションを施すことで、照明や火災報知器等の位置を認識して、これらの位置の基準にして画像の位置ズレが補正されてもよい。 In addition, the misalignment of the captured images when the cleaning plan is learned and when it is reproduced may be corrected. The positional misalignment of the images may be corrected based on the shape of the ceiling and the position of the lighting, which are unlikely to change when the cleaning plan is learned and when it is reproduced. Furthermore, by applying the above-mentioned image segmentation to the captured images when the cleaning plan is learned and when it is reproduced, the positions of the lighting, fire alarms, etc. may be recognized, and the positional misalignment of the images may be corrected based on these positions.

また、本実施形態では、自律走行作業装置として清掃作業を実施する清掃装置を例示したが、自律走行作業装置は清掃装置に限定されない。自律走行作業装置は、乾式の掃除作業、研磨作業、艶出し作業、ワックス塗布作業等の他の作業を実施する作業装置でもよい。すなわち、自律走行作業装置はロボット清掃機、ポリッシャー、バフィングマシン、ワックス塗布機でもよい。したがって、自律走行作業装置にはパッド等の洗浄部材の代わりに、掃除ブラシ、研磨ブラシ、艶出しブラシ、剥離ブラシが用いられてもよいし、さらに洗浄液として研磨剤や艶出し剤等が用いられてもよい。 In addition, in this embodiment, a cleaning device that performs cleaning work is exemplified as the autonomous traveling work device, but the autonomous traveling work device is not limited to a cleaning device. The autonomous traveling work device may be a work device that performs other work such as dry cleaning work, polishing work, polishing work, wax application work, etc. In other words, the autonomous traveling work device may be a robotic cleaning machine, polisher, buffing machine, or wax application machine. Therefore, instead of cleaning members such as pads, cleaning brushes, polishing brushes, polishing brushes, or peeling brushes may be used in the autonomous traveling work device, and further, abrasives, polishing agents, etc. may be used as cleaning fluids.

また、本実施形態では、被作業エリアとして床面を例示しているが、被作業エリアは壁面、天井面、窓面、鏡面等でもよい。半屋外や屋外であっても構わないが、その場合は画像の深度が計測できるステレオカメラ等を用いたSLAM(V-SLAM)方式で本体の走行を制御するのが望ましい。 In addition, in this embodiment, a floor surface is exemplified as the work area, but the work area may be a wall surface, ceiling surface, window surface, mirror surface, etc. It may also be semi-outdoor or outdoor, in which case it is preferable to control the movement of the main body using a SLAM (V-SLAM) method that uses a stereo camera or the like that can measure the depth of the image.

また、本実施形態では、ユーザ端末に対して評価画面を表示させる構成にしたが、清掃装置の表示部に対して評価画面を表示させてもよいし、管理サーバのディスプレイに評価画面を表示させてもよい。 In addition, in this embodiment, the evaluation screen is displayed on the user terminal, but the evaluation screen may also be displayed on the display unit of the cleaning device, or on the display of the management server.

また、本実施形態では、清掃装置の制御部に評価部を設けたが、これを管理サーバに担わせ、清掃装置が障害物を認識した際に、清掃装置が該当する画像を管理サーバに送信し、管理サーバの制御部により高速で高機能な画像認識処理を実行し、画像認識結果や演算結果を表示装置等に出力するようにしてもよい。さらに、清掃装置と管理サーバが協働で画像認識処理等を実行してもよい。 In addition, in this embodiment, an evaluation unit is provided in the control unit of the cleaning device, but this function may be assigned to a management server, so that when the cleaning device recognizes an obstacle, the cleaning device transmits the corresponding image to the management server, and the control unit of the management server executes high-speed, high-performance image recognition processing, and outputs the image recognition results and calculation results to a display device, etc. Furthermore, the cleaning device and the management server may cooperate to execute image recognition processing, etc.

なお、本実施形態を説明したが、他の実施形態として、上記実施形態及び変形例を全体的又は部分的に組み合わせたものでもよい。 Although this embodiment has been described, other embodiments may be combinations of the above embodiments and variations in whole or in part.

また、本発明の技術は上記の実施形態に限定されるものではなく、技術的思想の趣旨を逸脱しない範囲において様々に変更、置換、変形されてもよい。さらには、技術の進歩又は派生する別技術によって、技術的思想を別の仕方によって実現することができれば、その方法を用いて実施されてもよい。したがって、特許請求の範囲は、技術的思想の範囲内に含まれ得る全ての実施態様をカバーしている。 The technology of the present invention is not limited to the above-described embodiments, and may be modified, substituted, or altered in various ways without departing from the spirit of the technical idea. Furthermore, if the technical idea can be realized in a different way due to technological advances or other derived technologies, it may be implemented using that method. Therefore, the claims cover all embodiments that may fall within the scope of the technical idea.

以上説明したように、自律走行式の洗浄装置等の作業エリアの自動作業に好適な産業用ロボットに有用である。 As explained above, this is useful for industrial robots suitable for automated work in work areas, such as autonomous cleaning equipment.

1 :作業管理システム
10:管理サーバ
20:ユーザ端末(表示装置)
30:清掃装置(自律走行作業装置)
37:表示部(表示装置)
38:撮像部
42:清掃部(作業部)
55:環境地図作成部(作成部)
56:撮像画像取得部
57:清掃プラン作成部
58:評価部
59:清掃プラン変更部(変更部)
75:評価画面
77:プラン変更ボタン(変更ボタン)
1: Work management system 10: Management server 20: User terminal (display device)
30: Cleaning device (autonomous mobile work device)
37: Display section (display device)
38: Imaging unit 42: Cleaning unit (working unit)
55: Environmental Map Creation Department (Creation Department)
56: Captured image acquisition unit 57: Cleaning plan creation unit 58: Evaluation unit 59: Cleaning plan change unit (change unit)
75: Evaluation screen 77: Plan change button (change button)

Claims (5)

自律走行しながら被作業エリアに対して作業を実施する自律走行作業装置であって、
作業プランに従って前記被作業エリアに対して作業を実施する作業部と、
作業プランに対して作業状況を比較可能な評価情報を生成する評価部と、
自律走行中に前記被作業エリアの撮像画像を撮像する撮像部と、
撮像画像を走行経路の各地点の位置情報に関連付けた状態で記憶する撮像画像記憶部と、を備え、
作業プランの作成時及び作業プランに従った作業中に撮像された複数の撮像画像から同一地点に関連付けられた撮像画像を抽出することによって撮像画像同士が比較可能であり、
前記評価部は、作業プランの作成時及び作業プランに従った作業中の撮像画像を比較することによって作業プランの作成時に存在しなかった障害物を検出し、
評価情報には作業プランに従った作業中に障害物を撮像した地点に関連付けられた撮像画像と作業プランの作成時の当該地点に関連付けられた撮像画像が含まれ、
表示装置に対して評価情報を含む評価画面を表示させることを特徴とする自律走行作業装置。
An autonomous mobile work device that performs work on a work area while autonomously traveling,
A work unit that performs work on the work area according to a work plan;
an evaluation unit that generates evaluation information that allows a comparison of a work status against a work plan;
An imaging unit that captures an image of the work area during autonomous traveling;
a captured image storage unit that stores the captured image in a state associated with position information of each point on the travel route ,
By extracting captured images associated with the same location from a plurality of captured images taken when creating a work plan and during work according to the work plan, the captured images can be compared with each other;
the evaluation unit detects an obstacle that did not exist when the work plan was created by comparing images captured when the work plan was created with images captured during work in accordance with the work plan;
The evaluation information includes a captured image associated with a point where an obstacle was captured during work according to the work plan and a captured image associated with the point at the time the work plan was created,
An autonomous mobile work device, characterized in that an evaluation screen including evaluation information is displayed on a display device.
自律走行中に前記被作業エリアの環境地図を作成する作成部を備え、
評価情報には、作業プランの作成時に作成された環境地図と比較可能に、作業プランに従った作業中に作成された環境地図が含まれていることを特徴とする請求項1に記載の自律走行作業装置。
A creation unit that creates an environmental map of the work area during autonomous driving,
The autonomous mobile work device according to claim 1, characterized in that the evaluation information includes an environmental map created during work according to the work plan so as to be comparable with the environmental map created when the work plan is created.
作業プランの作業内容を前記作業部に実施された作業内容に変更する変更部を備え、
評価画面には、前記変更部による作業内容の変更を受け付ける変更ボタンが含まれていることを特徴とする請求項1又は請求項2に記載の自律走行作業装置。
a change unit that changes the work content of the work plan to the work content performed by the work unit;
3. The autonomous mobile work device according to claim 1 , wherein the evaluation screen includes a change button that accepts a change to the work content made by the change section.
自律走行しながら被作業エリアに作業を実施する自律走行作業装置と、前記自律走行作業装置を管理する管理サーバと、前記管理サーバに通信可能なユーザ端末と、を備えた作業管理システムであって、
前記自律走行作業装置が、作業プランに従って前記被作業エリアに作業を実施する作業部と、作業プランに対して作業状況を比較可能な評価情報を生成する評価部と、自律走行中に前記被作業エリアの撮像画像を撮像する撮像部と、撮像画像を走行経路の各地点の位置情報に関連付けた状態で記憶する撮像画像記憶部と、を有し、
作業プランの作成時及び作業プランに従った作業中に撮像された複数の撮像画像から同一地点に関連付けられた撮像画像を抽出することによって撮像画像同士が比較可能であり、
前記評価部は、作業プランの作成時及び作業プランに従った作業中の撮像画像を比較することによって作業プランの作成時に存在しなかった障害物を検出し、
評価情報には作業プランに従った作業中に障害物を撮像した地点に関連付けられた撮像画像と作業プランの作成時の当該地点に関連付けられた撮像画像が含まれ、
前記管理サーバが、前記自律走行作業装置から評価情報を取得して評価情報を含む評価画面を生成し、
前記ユーザ端末が、前記管理サーバから取得した評価画面を表示することを特徴とする作業管理システム。
A work management system including an autonomous traveling work device that performs work in a work area while traveling autonomously, a management server that manages the autonomous traveling work device, and a user terminal that can communicate with the management server,
The autonomous traveling work device has a working unit that performs work in the work area according to a work plan, an evaluation unit that generates evaluation information that allows the work status to be compared against the work plan, an imaging unit that takes images of the work area during autonomous traveling, and an image storage unit that stores the images in a state associated with position information of each point on a traveling route ,
By extracting captured images associated with the same location from a plurality of captured images taken when creating a work plan and during work according to the work plan, the captured images can be compared with each other;
the evaluation unit detects an obstacle that did not exist when the work plan was created by comparing images captured when the work plan was created with images captured during work in accordance with the work plan;
The evaluation information includes a captured image associated with a point where an obstacle was captured during work according to the work plan and a captured image associated with the point at the time the work plan was created,
the management server acquires evaluation information from the autonomous navigation and operation device and generates an evaluation screen including the evaluation information;
The work management system is characterized in that the user terminal displays an evaluation screen acquired from the management server.
前記自律走行作業装置が、作業プランの作業内容を前記作業部に実施された作業内容に変更する変更部を有し、
前記管理サーバが、評価情報に加えて、前記変更部による作業内容の変更を受け付ける変更ボタンを含む評価画面を生成し、
前記ユーザ端末に表示された評価画面から変更ボタンが押されると、前記管理サーバから前記自律走行作業装置に作業プランの作業内容の変更指示が送信されることを特徴とする請求項4に記載の作業管理システム。
the autonomous navigation work device has a change unit that changes the work content of the work plan to the work content performed by the work unit,
the management server generates an evaluation screen including, in addition to the evaluation information, a change button for accepting a change of the work content by the change unit;
The work management system described in claim 4 , characterized in that when a change button is pressed on the evaluation screen displayed on the user terminal, an instruction to change the work content of the work plan is sent from the management server to the autonomous mobile work device.
JP2020162979A 2020-09-29 2020-09-29 Autonomous mobile work device and work management system Active JP7554622B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020162979A JP7554622B2 (en) 2020-09-29 2020-09-29 Autonomous mobile work device and work management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020162979A JP7554622B2 (en) 2020-09-29 2020-09-29 Autonomous mobile work device and work management system

Publications (2)

Publication Number Publication Date
JP2022055515A JP2022055515A (en) 2022-04-08
JP7554622B2 true JP7554622B2 (en) 2024-09-20

Family

ID=80998608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020162979A Active JP7554622B2 (en) 2020-09-29 2020-09-29 Autonomous mobile work device and work management system

Country Status (1)

Country Link
JP (1) JP7554622B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015027345A (en) 2013-07-30 2015-02-12 佐古 曜一郎 Vacuum cleaning device
US20160135655A1 (en) 2014-11-17 2016-05-19 Samsung Electronics Co., Ltd. Robot cleaner, terminal apparatus, and method of controlling the same
JP2018139720A (en) 2017-02-27 2018-09-13 国立大学法人豊橋技術科学大学 Autonomous traveling work device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015027345A (en) 2013-07-30 2015-02-12 佐古 曜一郎 Vacuum cleaning device
US20160135655A1 (en) 2014-11-17 2016-05-19 Samsung Electronics Co., Ltd. Robot cleaner, terminal apparatus, and method of controlling the same
JP2018139720A (en) 2017-02-27 2018-09-13 国立大学法人豊橋技術科学大学 Autonomous traveling work device

Also Published As

Publication number Publication date
JP2022055515A (en) 2022-04-08

Similar Documents

Publication Publication Date Title
US11400595B2 (en) Robotic platform with area cleaning mode
US10328573B2 (en) Robotic platform with teach-repeat mode
US9962054B2 (en) Robot cleaner, robot cleaning system having the same, and method for operating a robot cleaner
US20200047337A1 (en) Robotic platform with event based mode change
US20200047343A1 (en) Remote planning and locally adaptive service mapping
KR102021833B1 (en) A ROBOT CLEANER Using artificial intelligence AND CONTROL METHOD THEREOF
US20180361585A1 (en) Robotic platform with multi-function service module
WO2017141536A1 (en) Autonomous travelling body
JP7536426B2 (en) Autonomous mobile work device and autonomous mobile work system
TWI664948B (en) Electric sweeper
US20180361584A1 (en) Robotic platform with long-term learning
KR20180055571A (en) Mobile Robot System, Mobile Robot And Method Of Controlling Mobile Robot System
WO2019007038A1 (en) Floor sweeping robot, floor sweeping robot system and working method thereof
KR20190073140A (en) A plurality of robot cleaner and A controlling method for the same
TW201826993A (en) Robotic cleaning device with operating speed variation based on environment
JP2000342498A (en) Cleaning robot
CN110063687A (en) Self-propelled electric dust collector
WO2020086557A1 (en) Apparatus and method for operations of a robotic platform
WO2019203878A1 (en) Apparatus and methods of a service robotic platform
JP2024520821A (en) CLEANING APPARATUS, CLEANING PATH AND CLEANING MAP GENERATION METHOD, AND GENERATION SYSTEM
JP2020119561A (en) System having first floor treatment device and second floor treatment device and operation method for the system
JP7554622B2 (en) Autonomous mobile work device and work management system
JP7495293B2 (en) Autonomous mobile work device and program
JP7461801B2 (en) Cleaning device, program and display terminal
JP2023148315A (en) Traveling work information processing system and traveling work information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240909

R150 Certificate of patent or registration of utility model

Ref document number: 7554622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150