IT201800020182A1 - Robot tagliaerba - Google Patents
Robot tagliaerba Download PDFInfo
- Publication number
- IT201800020182A1 IT201800020182A1 IT102018000020182A IT201800020182A IT201800020182A1 IT 201800020182 A1 IT201800020182 A1 IT 201800020182A1 IT 102018000020182 A IT102018000020182 A IT 102018000020182A IT 201800020182 A IT201800020182 A IT 201800020182A IT 201800020182 A1 IT201800020182 A1 IT 201800020182A1
- Authority
- IT
- Italy
- Prior art keywords
- robot
- operating
- images
- percentage value
- comparison
- Prior art date
Links
- 238000012545 processing Methods 0.000 claims description 24
- 238000005520 cutting process Methods 0.000 claims description 21
- 238000003860 storage Methods 0.000 claims description 16
- 238000000034 method Methods 0.000 claims description 15
- 230000003287 optical effect Effects 0.000 claims description 12
- 238000009826 distribution Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 6
- 238000009434 installation Methods 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000009182 swimming Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010413 gardening Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D34/00—Mowers; Mowing apparatus of harvesters
- A01D34/006—Control or measuring arrangements
- A01D34/008—Control or measuring arrangements for automated or remotely controlled operation
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D75/00—Accessories for harvesters or mowers
- A01D75/18—Safety devices for parts of the machines
- A01D75/185—Avoiding collisions with obstacles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Environmental Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Harvester Elements (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
DESCRIZIONE
Annessa a domanda di brevetto per INVENZIONE INDUSTRIALE avente per titolo
“Robot tagliaerba”
La presente invenzione riguarda settore tecnico dei dispositivi automatici per il giardinaggio.
In particolare la presente invenzione riguarda un robot tagliaerba autonomo con particolare attenzione agli aspetti legati al controllo ed alla gestione dell’attività di taglio del manto erboso.
I dispositivi tagliaerba vengono utilizzati per mantenere prati, giardini, ed aree erbose in genere, in condizioni ottimali, cioè per mantenere il manto erboso al di sotto di una certa altezza in maniera sostanzialmente omogenea in tutta l'area di lavoro in cui vengono messi ad operare.
Per permettere la movimentazione del robot all’interno dell’area di lavoro, garantendo al contempo che lo stesso non ne fuoriesca, è noto installare un filo perimetrale che delimita lo spazio all’interno del quale il robot può muoversi.
Quando il robot si avvicina al filo perimetrale, opportuni sensori ne rilevano la presenza indicando che è stato raggiunto il confine dell’area all’interno della quale può/deve essere eseguita l’operazione di taglio.
Conseguentemente, il robot modifica sua direzione di avanzamento evitando in questo modo di fuoriuscire dall’area di sua competenza.
Inoltre si rende necessario delimitare sempre con il filo perimetrale anche tutti quegli ostacoli presenti all’interno dell’area di lavoro che il robot deve evitare, quale ad esempio alberi, cespugli, aiuole, piscine od elementi di arredo per giardini.
Risulta quindi evidente come tale requisito sia particolarmente oneroso in quanto richiede necessariamente l’installazione di uno o più fili perimetrali disposti a delimitare in maniera precisa ed accurata lo spazio all’interno della quale il robot può effettivamente muoversi ed operare.
In questo contesto, il compito tecnico alla base della presente invenzione è quello di proporre un robot tagliaerba che superi almeno alcuni degli inconvenienti della tecnica nota sopra citati.
In particolare, è scopo della presente invenzione mettere a disposizione un robot tagliaerba facilmente e velocemente installabile che sia in grado di muoversi all’interno dell’area di lavoro in maniera sicura entro la propria area di lavoro, evitando il rischio di fuoriuscirne accidentalmente o di urtare eventuali ostacoli presenti al suo interno.
Il compito tecnico precisato e gli scopi specificati sono sostanzialmente raggiunti da un robot tagliaerba, comprendente le caratteristiche tecniche esposte in una o più delle unite rivendicazioni.
Secondo la presente invenzione viene mostrato un robot tagliaerba che comprende almeno un sensore ottico, un supporto di memorizzazione leggibile ed un’unità di controllo.
Il sensore ottico è configurato per acquisire in maniera continua una successione di immagini operative di una superficie antistante il robot tagliaerba lungo una sua direzione di avanzamento.
Il supporto di memorizzazione leggibile è configurato per memorizzare una pluralità di immagini di riferimento raffiguranti manti erbosi da tagliare. L’unità di controllo è configurata per confrontare ciascuna immagine operativa con la pluralità di immagini di riferimento generando un rispettivo valore percentuale di confronto rappresentativo della probabilità che l’immagine operativa raffiguri un manto erboso da tagliare.
L’unità di controllo è inoltre configurata per modificare almeno un parametro operativo del robot tagliaerba qualora il valore percentuale di confronto sia inferiore ad un valore percentuale predefinito.
Vantaggiosamente, l’unità di controllo è in grado di analizzare le immagini operative acquisite dal sensore ottico determinando se tali immagini rappresentano un manto erboso da tagliare (ed è quindi opportuno che il robot continui l’operazione di taglio lungo la direzione di avanzamento) o meno (ed è quindi opportuno modificare almeno un parametro operativo del robot).
Ulteriori caratteristiche e vantaggi della presente invenzione appariranno maggiormente chiari dalla descrizione indicativa, e pertanto non limitativa, di una forma di realizzazione preferita ma non esclusiva di un robot tagliaerba, come illustrato negli uniti disegni in cui:
- la figura 1 mostra schematicamente un robot tagliaerba nel quale sono stati indicati gli elementi caratterizzanti secondo la presente invenzione; - le figure 2A e 2B mostrano una possibile condizione operativa del robot tagliaerba, in cui la superficie antistante il robot presenta un manto erboso da tagliare;
- le figure 3A e 3B mostra un’ulteriore possibile condizione operativa del robot tagliaerba, in cui la superficie antistante il robot non presenta un manto erboso da tagliare;
Nelle figure allegate, con il riferimento numerico 1 viene indicato il robot tagliaerba secondo la presente invenzione, che verrà indicato nel seguito della presente descrizione come robot 1.
Il robot 1, mostrato in maniera schematica nelle sue componenti principali in Fig.1, è in particolare un robot del tipo semovente, vale a dire mobile in maniera sostanzialmente autonoma lungo una direzione di avanzamento “X” all’interno di un’area di lavoro “A”, in particolare per eseguire un’operazione di taglio di un manto erboso presente al suo interno.
Il robot 1 comprende mezzi di taglio 1a dell’erba, per esempio una o più lame, per effettuare operazioni di taglio del manto erboso.
Il robot 1 comprende inoltre mezzi motori 1b adatti a permetterne la movimentazione lungo la direzione di avanzamento “X”.
A titolo esemplificativo, l’alimentazione del robot 1, sia per quanto riguarda i mezzi motori che i mezzi di taglio 1a, può avvenire mediante motori elettrici, alimentati da una batteria; quest’ultima può essere di tipo ricaricabile.
Preferibilmente la ricarica del robot 1, che avviene presso una stazione fissa 2 o base di ricarica, è ottenuta tramite accoppiamento elettrico, in particolare di tipo induttivo.
Preferibilmente la batteria può anche alimentare altri dispositivi elettrici/elettronici previsti a bordo del robot 1.
Il robot 1 comprende inoltre almeno un sensore ottico 3 configurato per acquisire in maniera continua una successione di immagini operative di una superficie “S” antistante il robot 1 lungo la direzione di avanzamento. In altre parole, il sensore ottico 3 è puntato su una porzione dell’area di lavoro “A” posta immediatamente di fronte al robot 1, in maniera tale da monitorare in maniera continua la direzione verso la quale quest’ultimo si sta muovendo.
A titolo esemplificativo e non limitativo, il sensore ottico può essere una telecamera (fotocamera o videocamera) od un qualunque altro dispositivo in grado di acquisire immagini.
Il robot 1 comprende inoltre un supporto di memorizzazione leggibile 4 configurato per memorizzare una pluralità di immagini di riferimento raffiguranti manti erbosi da tagliare.
In altre parole, il supporto di memorizzazione leggibile 4 archivia un set di immagini di riferimento nel quale vengono rappresentati dei manti erbosi sui quali può essere effettuata od è opportuno che venga effettuata un’operazione di taglio dell’erba.
A titolo esemplificativo e non limitativo, le immagini di riferimento possono quindi raffigurare prati, campi od altre superfici che presentano caratteristiche tali (quali altezza o densità del manto erboso), da necessitare di ricevere interventi di manutenzione eseguibili dal robot 1. Vantaggiosamente, il supporto di memorizzazione leggibile 4 è editabile almeno per generare, aggiornare o memorizzare la pluralità di immagini di riferimento.
Il robot 1 comprende inoltre un’unità di controllo 5 configurata per confrontare ciascuna delle immagini operative che vengono acquisite mediante il sensore ottico 3 con la pluralità di immagini di riferimento.
L’unità di controllo 5 genera quindi per ciascuna immagine operativa un valore percentuale di confronto (associato univocamente alla rispettiva immagine operativa) che rappresenta la probabilità che l’immagine operativa raffiguri un manto erboso da tagliare.
In altre parole, l’unità di controllo 5 effettua un’analisi delle immagini operative che il sensore ottico 3 acquisisce durante la movimentazione del robot 1, andando a attribuire ad ognuna di essere un valore percentuale che indica la probabilità che tale immagine sia stata acquisita da una porzione dell’area di lavoro “A” sulla quale il robot 1 deve operare o meno. L’unità di controllo 5 è ulteriormente configurata per modificare almeno un parametro operativo del robot 1 qualora il valore percentuale di confronto sia inferiore ad un valore percentuale predefinito.
In altre parole, come mostrato schematicamente in Fig. 2A e 2B quando il sensore ottico 3 acquisisce un immagine operativa che può essere interpretata con un adeguato margine di confidenza come manto erboso da tagliare, il robot 1 continuerà la procedura di taglio senza che ne vengano modificati i parametri operativi.
Invece, come mostrato schematicamente nelle allegate Fig. 3Ae 3B, qualora la probabilità che una porzione dell’area di lavoro “A” verso la quale il robot 1 si sta dirigendo presenti un manto erboso che necessita di essere tagliato è inferiore ad una percentuale predefinita, l’unità di controllo 5 interviene per modificare almeno un parametro operativo del robot 1, la direzione di avanzamento “X” nel caso particolare illustrato nelle figure allegate, , in particolare per evitare che il robot 1 inizi una procedura di taglio in tale porzione.
Per esempio, l’unità di controllo 5 può attivare/disattivare i mezzi di taglio 1a, tale accorgimento risulta particolarmente utile nel caso in cui il robot 1 si trovi a transitare sopra porzioni dell’area di lavoro “A” in cui sono presenti ghiaia, sassi, rami o altri oggetti discreti che potrebbero deteriorare i mezzi di taglio 1a, oppure, come mostrato in Fig. 3B, modificare la direzione di avanzamento “X”, tale accorgimento risulta particolarmente utile per fare evitare al robot 1 ostacoli quali piscine, alberi e siepi.
A titolo esemplificativo e non limitativo nel seguito della presente descrizione si farà riferimento ad un valore percentuale predefinito pari a 91%.
Vantaggiosamente, tale valore percentuale predefinito definisce un intervallo di confidenza all’interno del quale è possibile garantire, indipendentemente da imprecisioni nel processo decisionale che potrebbero nascere da un’errata interpretazione e conseguente confronto di alcuni dettagli marginali derivabili dalle immagini,, una corretta identificazione delle immagini operative, mantenendo quindi inalterati i parametri operativi del robot 1 solo quando è ragionevolmente certo che la superficie “S” verso la quale il robot 1 si sta muovendo presenta effettivamente un manto erboso sul quale è necessario effettuare un’operazione di taglio.
Preferibilmente, le immagini di riferimento comprendono delle immagini che raffigurano l’area di lavoro all’interno della quale si muove il robot 1. In questo modo le immagini di riferimento sono rappresentative dell’effettivo ambiente di lavoro in cui il robot 1 opera permettendo così da ottimizzare il processo di confronto e di valutazione delle immagini operative che saranno più facilmente confrontabili con le immagini di riferimento in quanto riferite e raffiguranti il medesimo ambiente.
Vantaggiosamente, l’unità di controllo 5 è connettibile ad un’unità di elaborazione remota ed è configurata per inviarle le immagini operative qualora il rispettivo valore di confronto percentuale risulti inferiore al valore percentuale predefinito e superiore ad un valore percentuale di controllo. A titolo esemplificativo e non limitativo nel seguito della presente descrizione si farà riferimento ad un valore percentuale di controllo pari al 10%.
Vantaggiosamente, tale valore percentuale di controllo definisce un ragionevole intervallo di confidenza all’interno del quale è possibile, indipendentemente da imprecisioni nel processo decisionale che potrebbero nascere da un’errata interpretazione e confronto di alcuni dettagli marginali derivabili dalle immagini,, una corretta identificazione delle immagini operative come raffiguranti porzioni dell’area di lavoro “A” sulle quali il robot 1 non deve operare.
È quindi possibile andare a modificare almeno un parametro operativo del robot 1 in quanto è ragionevolmente certo che la superficie “S” verso la quale il robot 1 si sta muovendo non presenta un manto erboso sul quale è necessario effettuare un’operazione di taglio oppure presenta degli ostacoli che il robot 1 deve evitare.
Invece, ogniqualvolta in seguito al confronto di un’immagine operativa con il set di immagini di riferimento risulta che la probabilità che tale immagine operativa rappresenti una superficie sulla quale il robot 1 deve andare ad operare è compresa nell’intervallo sopra indicato (per esempio tra il 10% ed il 90% in accordo con i valori numerici esemplificativi sopra presentati), l’unità di controllo 5 la trasmette ad un’unità di elaborazione remota.
In particolare, il valore percentuale predefinito ed il valore percentuale di controllo delimitano dei margini di probabilità al di fuori dei quali è possibile determinare se sulla superficie dalla quale è stata ottenuta una certa immagine operativa è possibile/necessario far passare il robot 1 o meno: se il valore di confronto percentuale è superiore al 90%, allora è possibile determinare che l’immagine operativa che lo ha generato rappresenta un manto erboso da tagliare, al contrario, valori di confronto percentuale inferiori al 10% non rappresentano manti erbosi da tagliare ed è pertanto opportuno modificare almeno un parametro operativo del robot 1 in modo tale che non venga eseguita alcuna operazione di taglio su tale superficie. Qualora invece il confronto dell’immagine operativa con la pluralità di immagini di riferimento generi un valore percentuale di confronto compreso nell’intervallo sopra indicato, allora non sarebbe possibile determinare in maniera sufficientemente sicura se l’immagine operativa raffigura un manto erboso da tagliare o meno.
In tale situazione, l’unità di controllo 5 trasmette l’immagine operativa all’unità di elaborazione remota presso la quale, come verrà maggiormente dettagliato nel seguito, si procederà alla determinazione dell’effettivo contenuto dell’immagine operativa.
Vantaggiosamente, in caso di valori percentuali di confronto compresi nell’intervallo sopra delineato (e quindi comunque inferiori al valore percentuale predefinito), all’interno del quale non è possibile assumere con ragionevole certezza la natura della superficie “S” antistante il robot 1, l’unità di controllo provvede a modificare almeno un parametro operativo del robot 1 interpretando a priori tale superficie come se non fosse un manto erboso da tagliare fintanto che l’ambiguità non viene risolta.
Vantaggiosamente, il valore percentuale predefinito ed il valore percentuale di controllo possono essere opportunamente selezionati a seconda delle esigenze ed alle peculiari caratteristiche della specifica area operativa “A” all’interno della quale opera il robot 1.
In accordo con possibili forme realizzative della presente invenzione, l’unità di controllo 5 può essere connessa ad unità di elaborazione remota che comprendono calcolatori quali smartphone, tablet, computer oppure un sistema di archiviazione ed elaborazione accessibile tramite connessione internet quale ad esempio una computing cloud.
Vantaggiosamente, il robot 1 qui descritto permette di risolvere gli inconvenienti dell’arte nota, in particolare semplificando in maniera sostanziale il processo di installazione e della messa in uso in quanto non si rende necessaria la predisposizione di un filo perimetrale o l’installazione di ulteriori componenti che permettano di delimitare l’area operativa “A” all’interno della quale il robot 1 può muoversi ed operare in sicurezza.
Tale risultato è ottenuto mediante l’introduzione di un sensore ottico 3 che acquisisce immagini operative raffiguranti le superfici “S” verso le quali il robot 1 si muove ed un’unità di controllo 5 che le analizza al fine di determinare se il robot 1 può muoversi ed operare su tali superfici “S”. La presente invenzione riguarda altresì un sistema di controllo di almeno un robot 1 tagliaerba.
In particolare, il sistema oggetto della presente invenzione comprende almeno un robot 1, in particolare un robot 1 realizzato in accordo con le specifiche e le caratteristiche tecniche sopra indicate, ed un’unità di elaborazione remota connessa al robot 1 in modo tale da poter ricevere da esso immagini operative acquisite dal sensore ottico 3.
In particolare, la trasmissione delle immagini operative dal robot 1 all’unità di elaborazione remota avviene ogniqualvolta il valore percentuale di confronto generato in funzione del confronto tra una data immagine operativa e le immagini di riferimento è inferiore al valore percentuale predefinito e superiore al valore percentuale di controllo.
L’unità di elaborazione remota è quindi configurata per determinare, per ciascuna immagine operativa ricevuta, se tale immagine operativa raffigura un manto erboso da tagliare o meno, preferibilmente in funzione di un input inseribile da un operatore.
L’unità di elaborazione remota può inoltre memorizzare a sua volta una pluralità di immagini di riferimento.
In altre parole, tutte le volte che l’unità di controllo 5 non è in grado di determinare in maniera ragionevolmente certa se una determinata immagine operativa rappresenta un manto erboso da tagliare o meno, provvede ad inviarla all’unità di elaborazione remota presso la quale verrà risolta l’ambiguità.
In particolare, il processo di determinazione della natura della superficie raffigurata nell’immagine operativa può avvenire effettuando un confronto tra l’immagine operativa stessa ed un archivio di immagini di riferimento memorizzate dall’unità di elaborazione remota, il quale potrebbe essere più completo, ampio ed accurato di quello presente sul supporto di memorizzazione leggibile 4.
Alternativamente, qualora anche questo confronto non permetta di determinare se l’immagine operativa rappresenta un manto erboso da tagliare o meno, è possibile demandare ad un operatore la corretta classificazione dell’immagine operativa.
In altre parole, l’unità di elaborazione remota è configurata per fornire l’immagine operativa ad un operatore, preferibilmente mediante un’interfaccia grafica, e per ricevere dall’operatore un input adatto a classificare in maniera certa l’immagine operativa come raffigurante un manto erboso da tagliare o meno.
L’unità di elaborazione remota è inoltre configurata per editare il supporto di memorizzazione leggibile 4 in modo tale da generare, aggiornare o memorizzare la pluralità di immagini di riferimento.
In altre parole, tramite l’unità di elaborazione remota è possibile andare a modificare il contenuto del supporto di memorizzazione leggibile 4, per esempio, tutte le volte che l’operatore riceve un’immagine operativa che l’unità di controllo non è stata in grado di classificare, è possibile per l’operatore classificare tale immagine operativa e ritrasmetterla al robot 1, il quale la memorizzerà nel supporto di memorizzazione leggibile 4 andando ad aggiungerla alla pluralità di immagini di riferimento in funzione di come è stata classificata tale immagine da parte dell’operatore.
In questo modo è possibile ampliare il set di informazioni sulla base delle quali l’unità di controllo effettua il processo di confronto, migliorandone la capacità decisionale.
In accordo con una possibile forma realizzativa, il sistema comprende una pluralità di robot 1 ciascuno connesso all’unità di elaborazione remota. Ogniqualvolta l’unità di elaborazione remota riceve da uno qualunque dei robot 1 ad essa connesso un’immagine operativa si procede alla sua classificazione andando ad indicare se tale immagine operativa rappresenta o meno un manto erboso da tagliare.
È quindi possibile aggiornare i supporti di memorizzazione leggibile 4 andando ad aggiungere l’immagine operativa classificata alla pluralità di immagini di riferimento.
Tale aggiornamento può essere effettuato per il supporto di memorizzazione leggibile 4 di ciascuna robot 1 oppure unicamente per il supporto di memorizzazione leggibile 4 del robot 1 che ha inviato l’immagine operativa.
In particolare, qualora l’immagine operativa classificata presenti caratteristiche ed informazioni che vengono ritenute utili unicamente alla discriminazione di ulteriori immagini operative acquisite nella medesima area di lavoro “A”, l’aggiornamento verrà eseguito solo su quello specifico robot 1.
Al contrario, se l’immagine operativa classificata presenta caratteristiche ed informazioni che vengono ritenute utili in termini generali per l’identificazione di un manto erboso da tagliare, l’aggiornamento viene eseguito su tutti i robot 1 connessi all’unità di elaborazione remota.
In generale, l’aggiornamento viene eseguito per tutti quei robot 1 che si ritiene possano beneficiare dell’incremento di informazioni messo adisposizione dell’unità di controllo 5 per la generazione del valore percentuale di confronto maggiormente accurato ed affidabile.
Vantaggiosamente il sistema della presente invenzione permette di fornire un servizio di aggiornamento delle informazioni di cui l’unità di controllo 5 dispone per controllare l’operatività del robot 1, permettendo di andare ad incrementarne la capacità decisionale in quanto ogni immagine operativa per la quale l’unità di controllo 5 non è in grado di formulare un giudizio accurato viene analizzata o da un operatore o mediante il confronto con un archivio più ampio di immagini di riferimento.
Il sistema qui descritto permette inoltre di garantire in ogni momento la corretta gestione delle operazioni di taglio eseguite da uno o più robot 1, in quanto permette di realizzare un’interfaccia con un operatore che può risolvere tempestivamente eventuali situazioni in cui l’unità di controllo 5 non è in grado di determinare in maniera certa se il robot 1 può essere movimentato e/o operare in una determinata porzione dell’area di lavoro “A”.
La presente invenzione riguarda altresì un metodo di controllo di almeno un robot 1 tagliaerba, preferibilmente il metodo viene eseguito mediante un sistema in accordo con quanto sopra descritto.
Il metodo della presente invenzione prevede di movimentare il robot 1 tagliaerba all’interno dell’area di lavoro “A” lungo la direzione di avanzamento “X” per eseguire un’operazione di taglio di un manto erboso dell’area di lavoro “A”.
Durante la movimentazione del robot 1 si procede ad acquisire in maniera continua una successione di immagini operative raffiguranti la superficie “S” antistante il robot 1 lungo la direzione di avanzamento “X”.
In altre parole viene monitorata in maniera continua la superficie “S” verso la quale il robot 1 si sta muovendo, in maniera tale da poterla analizzare determinando se il robot 1 può/deve continuare a muoversi lungo la direzione di avanzamento “X” e/o eseguire un’operazione di taglio o se è invece opportuno modificare almeno uno dei suoi parametri operativi al fine di evitare eventuali interazioni (quali transito od esecuzione di operazioni di taglio) del robot 1 con tale superficie “S”.
Tale analisi viene eseguita andando a confrontare ciascuna delle immagini operative acquisite con una pluralità di immagini di riferimento che raffigurano manti erbosi da tagliare e che possono essere memorizzate tanto su un supporto di memorizzazione leggibile 4 presente sul robot 1 che in un opportuno archivio predisposto presso un’unità di elaborazione remota alla quale il robot 1 è collegabile.
In funzione del confronto tra ciascuna immagine operativa con la pluralità di immagini di riferimento si procede a generare rispettivi valori percentuali di confronto che rappresentano la probabilità che la rispettiva immagine operativa rappresenti un manto erboso da tagliare.
Qualora il valore percentuale di confronto risulti essere inferiore ad un valore percentuale predefinito il metodo prevede di modificare almeno un parametro operativo del robot 1.
In altre parole, se non è possibile determinare con un predeterminato margine di confidenza che la superficie “S” verso la quale si sta muovendo il robot presenta un manto erboso che necessita di essere tagliato, almeno uno dei parametri operativi del robot 1 verrà modificato.
A titolo esemplificativo e non limitativo è possibile modificare la direzione di avanzamento “X” del robot 1 oppure attivare/disattivare i mezzi di taglio 1a.
In particolare, il confronto tra le immagini operative e le immagini di riferimento viene effettuato estrapolando da ciascuna immagine operativa almeno un valore parametrico rappresentativo di un suo rispettivo attributo.
Tale valore parametrico viene quindi confrontato con un rispettivo valore parametrico delle immagini di riferimento.
Tra i possibili attributi oggetto del confronto è possibile selezionare almeno uno tra: valori cromatici RBG dei singoli pixel, distribuzione spaziale dei singoli pixel colorati, presenza di oggetti discreti.
Vantaggiosamente il metodo qui descritto permette di controllare la movimentazione di un robot 1 tagliaerba all’interno di un’area di lavoro “A” in maniera accurata e precisa senza richiedere complessi interventi di installazione e predisposizione dell’area di lavoro “A” stessa.
Claims (10)
- RIVENDICAZIONI 1. Robot tagliaerba mobile in maniera sostanzialmente autonoma lungo una direzione di avanzamento (X) all’interno di un’area d lavoro (A) per eseguire un’operazione di taglio di un manto erboso di detta area di lavoro (A) comprendente: - almeno un sensore ottico (3) configurato per acquisire in maniera continua una successione di immagini operative di una superficie (S) antistante il robot tagliaerba lungo la direzione di avanzamento (X); - un supporto di memorizzazione leggibile (4) configurato per memorizzare una pluralità di immagini di riferimento raffiguranti manti erbosi da tagliare; - un’unità di controllo (5) configurata per confrontare ciascuna immagine operativa con la pluralità di immagini di riferimento generando un rispettivo valore percentuale di confronto rappresentativo della probabilità che l’immagine operativa raffiguri un manto erboso da tagliare e per modificare almeno un parametro operativo del robot tagliaerba qualora detto valore percentuale di confronto sia inferiore ad un valore percentuale predefinito.
- 2. Robot secondo la rivendicazione 1, in cui detta pluralità di immagini di riferimento comprende immagini raffiguranti almeno parzialmente porzioni dell’area d lavoro (A).
- 3. Robot secondo la rivendicazione 1 o 2, connettibile ad un’unità di elaborazione remota ed in cui l’unità di controllo (5) è configurata per inviare dette immagini operative a detta unità di elaborazione remota qualora il rispettivo valore percentuale di confronto sia inferiore al valore percentuale predefinito e superiore ad un valore percentuale di controllo.
- 4. Robot secondo la rivendicazione 3, in cui detta unità di elaborazione remota comprendere almeno uno tra: uno smartphone, un tablet, un computer, una computing cloud.
- 5. Robot secondo una o più delle rivendicazioni precedenti, in cui il supporto di memorizzazione leggibile (4) è editabile almeno per generare, aggiornare o memorizzare detta pluralità di immagini di riferimento.
- 6. Sistema di controllo per robot tagliaerba comprendente: - almeno un robot tagliaerba in accordo con una o più delle precedenti rivendicazioni; - un’unità di elaborazione remota connessa a detto robot tagliaerba per ricevere le immagini operative dalla rispettiva unità di controllo (5), in particolare quando il valore di confronto percentuale è compreso tra il inferiore al valore percentuale predefinito e superiore ad un valore percentuale di controllo.
- 7. Sistema secondo la rivendicazione 6, in cui l’unità di elaborazione remota è configurato per determinare per ciascuna immagine operativa se detta immagine operativa raffigura un manto erboso da tagliare, preferibilmente in funzione di un input inseribile da un operatore.
- 8. Sistema secondo la rivendicazione 6 o 7, in cui l’unità di elaborazione remota è configurata per editare il supporto di memorizzazione leggibile (4) in modo tale da generare, aggiornare o memorizzare la pluralità di immagini di riferimento.
- 9. Metodo di controllo di un robot tagliaerba comprendente le fasi di: - movimentare un robot tagliaerba all’interno di un’area d lavoro (A) lungo una direzione di avanzamento (X) per eseguire un’operazione di taglio di un manto erboso di detta area d lavoro (A); - acquisire in maniera continua una successione di immagini operative di una superficie (S) antistante il robot tagliaerba lungo la direzione di avanzamento (X); - confrontare ciascuna di dette immagini operative con una pluralità di immagini di riferimento raffiguranti manti erbosi da tagliare; - generare in funzione di detto confronto rispettivi valori percentuali di confronto rappresentativi della probabilità che le immagini operative rappresentino un manto erboso da tagliare; - modificare almeno un parametro operativo del robot tagliaerba qualora detto valore percentuale di confronto sia inferiore ad un valore percentuale predefinito.
- 10. Metodo secondo la rivendicazione 9, in cui detta fase di confrontare comprende le fasi di: - estrapolare da ciascuna immagine operativa almeno un valore parametrico rappresentativo di un rispettivo attributo dell’immagine operativa; - confrontare detto valore parametrico con un rispettivo valore parametrico di ciascuna immagine di riferimento; detto attributo essendo almeno uno tra: valori cromatici RBG dei singoli pixel, distribuzione spaziale dei singoli pixel colorati, presenza di oggetti discreti.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102018000020182A IT201800020182A1 (it) | 2018-12-19 | 2018-12-19 | Robot tagliaerba |
PL19217813.5T PL3673721T3 (pl) | 2018-12-19 | 2019-12-19 | Robot do koszenia trawy |
EP19217813.5A EP3673721B1 (en) | 2018-12-19 | 2019-12-19 | Lawn mower robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102018000020182A IT201800020182A1 (it) | 2018-12-19 | 2018-12-19 | Robot tagliaerba |
Publications (1)
Publication Number | Publication Date |
---|---|
IT201800020182A1 true IT201800020182A1 (it) | 2020-06-19 |
Family
ID=66049455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT102018000020182A IT201800020182A1 (it) | 2018-12-19 | 2018-12-19 | Robot tagliaerba |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3673721B1 (it) |
IT (1) | IT201800020182A1 (it) |
PL (1) | PL3673721T3 (it) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023181189A1 (ja) * | 2022-03-23 | 2023-09-28 | 本田技研工業株式会社 | 自律芝刈り機 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020140815A1 (en) * | 2001-03-28 | 2002-10-03 | Koninklijke Philips Electronics N.V. | Automatic segmentation-based grass detection for real-time video |
US20130190965A1 (en) * | 2012-01-25 | 2013-07-25 | Honda Research Institute Europe Gmbh | System, method and apparatus for unsupervised adaptation of the perception of an autonomous mower |
EP2689650A1 (en) * | 2012-07-27 | 2014-01-29 | Honda Research Institute Europe GmbH | Trainable autonomous lawn mower |
CN109063575A (zh) * | 2018-07-05 | 2018-12-21 | 中国计量大学 | 一种基于单目视觉的智能割草机自主有序割草方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10310510B2 (en) * | 2014-12-22 | 2019-06-04 | Husqvarna Ab | Robotic vehicle grass structure detection |
EP3298874B1 (en) * | 2016-09-22 | 2020-07-01 | Honda Research Institute Europe GmbH | Robotic gardening device and method for controlling the same |
-
2018
- 2018-12-19 IT IT102018000020182A patent/IT201800020182A1/it unknown
-
2019
- 2019-12-19 PL PL19217813.5T patent/PL3673721T3/pl unknown
- 2019-12-19 EP EP19217813.5A patent/EP3673721B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020140815A1 (en) * | 2001-03-28 | 2002-10-03 | Koninklijke Philips Electronics N.V. | Automatic segmentation-based grass detection for real-time video |
US20130190965A1 (en) * | 2012-01-25 | 2013-07-25 | Honda Research Institute Europe Gmbh | System, method and apparatus for unsupervised adaptation of the perception of an autonomous mower |
EP2689650A1 (en) * | 2012-07-27 | 2014-01-29 | Honda Research Institute Europe GmbH | Trainable autonomous lawn mower |
CN109063575A (zh) * | 2018-07-05 | 2018-12-21 | 中国计量大学 | 一种基于单目视觉的智能割草机自主有序割草方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3673721B1 (en) | 2022-08-10 |
PL3673721T3 (pl) | 2022-09-26 |
EP3673721A1 (en) | 2020-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10405488B2 (en) | Zone control system for a robotic vehicle | |
US20210092912A1 (en) | Lawn Monitoring and Maintenance VIA a Robotic Vehicle | |
JP6622858B2 (ja) | ロボット探査車を組み込んだ知的庭管理システム | |
EP3237983B1 (en) | Robotic vehicle grass structure detection | |
US10322803B2 (en) | Using unmanned aerial vehicles (UAVs or drones) in forestry productivity and control applications | |
EP2885684B1 (en) | Mower with object detection system | |
US20150201555A1 (en) | Boundary definition system for a robotic vehicle | |
CA3132022C (en) | Traveling path planning system and method of automatic harvester | |
US10777000B2 (en) | Garden street view | |
JP7433105B2 (ja) | 情報提供装置、草刈り車両及び草刈り管理システム | |
WO2016103067A1 (en) | Garden mapping and planning via robotic vehicle | |
US20200233413A1 (en) | Method for generating a representation and system for teaching an autonomous device operating based on such representation | |
IT201800020182A1 (it) | Robot tagliaerba | |
US20230011137A1 (en) | Agricultural Path Planning | |
US20230027496A1 (en) | Systems and methods for obstacle detection | |
IT201900007467A1 (it) | Sistema per la manutenzione di un manto erboso |