[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

EP4064817A1 - Method for estimating a course of plant rows - Google Patents

Method for estimating a course of plant rows

Info

Publication number
EP4064817A1
EP4064817A1 EP20811569.1A EP20811569A EP4064817A1 EP 4064817 A1 EP4064817 A1 EP 4064817A1 EP 20811569 A EP20811569 A EP 20811569A EP 4064817 A1 EP4064817 A1 EP 4064817A1
Authority
EP
European Patent Office
Prior art keywords
plants
row
field
images
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20811569.1A
Other languages
German (de)
French (fr)
Inventor
Maurice Gohlke
Sandra Amend
Daniel DI MARCO
Markus Hoeferlin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP4064817A1 publication Critical patent/EP4064817A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/001Steering by means of optical assistance, e.g. television cameras

Definitions

  • the present invention relates to a method for estimating a course of rows of plants in a field.
  • the estimation of a course of rows of plants for the agricultural cultivation of a field is predominantly based on the processing of camera images, one of the two methods described below being used in most cases.
  • the first method involves segmenting the vegetation from the ground either by distinguishing between green (plants) and brown (ground) in the visible color range or taking into account the NDVI index, which is calculated using image information in the near-infrared range is recognized.
  • the plant row is then estimated by means of straight line recognition between the individual plants that were previously segmented as vegetation.
  • the line recognition is carried out using the Hough transformation.
  • the plants are first segmented.
  • a center point estimate is then carried out and the row of plants is estimated by means of a straight line through the plant center points.
  • the straight lines are estimated using the RANSAC algorithm, the Least Square method, etc.
  • Figure 2 is an image of a field that is semantically segmented; 3 shows another image of a field for which a probability distribution of pixels classified as useful plants is determined.
  • a field can be understood to be a delimited area of land for the cultivation of useful plants or a part of such a field.
  • a useful plant is understood to be an agriculturally used plant which itself or its fruit is used, e.g. as food, feed or as an energy plant.
  • the seeds and consequently the plants are primarily arranged or sown in rows, with a predetermined distance between the individual useful plants in which objects can be present between the rows and between the individual plants within a row.
  • the objects are undesirable because they reduce the yield of the plants or represent a disruptive influence during cultivation and / or harvesting.
  • An object can be understood to mean any plant that is different from the useful plant, or any object. Objects can in particular weeds,
  • weeds In order to reduce the mentioned negative influence of weeds, they are either removed mechanically, e.g. by a milling machine, or sprayed with a pesticide by a sprayer. For this reason, a vehicle, on which a device for processing the plants is attached, travels the field along a predetermined route, i.e. in a lane between two adjacent rows of plants in the field, and the individual plants are processed in the meantime.
  • the vehicle is a vehicle specifically provided for working the field, such as an agricultural robot.
  • the vehicle can also be an agricultural vehicle such as a tractor, a trailer, etc., or an aircraft such as a drone.
  • the vehicle drives or flies across the field in a direction of travel that is essentially parallel to a row direction in which the plants are planted at the predetermined distance from one another.
  • the vehicle drives through the field autonomously, but can also drive through the field based on control by an operator.
  • the individual steps S102 to S110 of the method 100 according to the invention shown in FIG. 1 are described below. It should be noted that the method 100 is carried out continuously during a run, ie a continuous estimation of the row of plants takes place during the run.
  • a plurality of images of a surface of the field are acquired by an image acquisition means.
  • the image acquisition means is a camera, such as a CCD camera, a CMOS camera, etc., which acquires an image in the visible area and provides it as RGB values or as values in another color space.
  • the image acquisition means can, however, also be a camera that acquires an image in the infrared range. An image in the infrared range is particularly suitable for capturing plants, as the reflection of the plants is significantly increased in this frequency range.
  • the image acquisition means can also be, for example, a mono, RGB, multispectral, hyperspectral camera.
  • other data can be acquired using sensors such as 3D sensors, etc.
  • the image acquisition means can also provide a depth measurement, e.g. by a stereo camera, a time-of-flight camera, etc. It is possible for several image acquisition means to be present on the vehicle and for several images to be acquired essentially synchronously by the different image acquisition means and data from different sensors.
  • the field on which the plants and objects are present is captured by the image capturing means while driving the vehicle on which the image capturing means is attached.
  • the image capturing means is attached to the vehicle in such a way that an image sensor of the image capturing means is essentially parallel to a surface of the field.
  • the image sensor of the image acquisition means can, however, also be inclined towards the surface of the field, for example in a direction of travel of the vehicle, in order to cover a larger area of the field.
  • the vehicle to which the image capturing means is attached drives or flies the field and the image capturing means captures the images at a predetermined time interval.
  • the images are preferably captured in such a way that they overlap. For this reason, the image capturing means captures several images per second during the movement, as a result of which the images strongly overlap at a low movement speed. However, it is also possible for the images to be recorded in such a way that they do not overlap. The multitude of images can also be recorded as video.
  • the images are then stored in a memory and are then available for further processing.
  • step S104 is carried out essentially synchronously with step S102. In step S104, position information is acquired using position detection means.
  • GNSS systems When driving through the rows of plants by an agricultural vehicle, GNSS systems, such as RTK-GPS, are used, which enable the vehicle to be localized with high precision in the field.
  • the position detection means can also obtain the position information using high-precision GPS, odometry, visual odometry, encoder wheels or the use of sensors that estimate the speed based on optical features (e.g. cameras, speed-over-ground sensors, etc.).
  • the position information is given as world coordinates, but can also be given as field coordinates, longitude + latitude, etc., for example.
  • the position information is then correlated with the image recorded in step S102, so that the position in the field at which the image is recorded can be precisely determined.
  • the position information obtained is assigned to a point in the center of the image.
  • the position information can also be assigned to another point in the image, e.g. a corner point.
  • distances between the mounting position of the image capturing means and the mounting position of the position capturing means on the vehicle must be taken into account when correlating the position information with the captured image.
  • the spatial extent of the image on the field in an X and a Y direction can then be determined using an image angle of the image capturing means and the distance of the image capturing means to the floor surface. If the image sensor of the image acquisition means is inclined to the surface of the field, this inclination must also be taken into account when calculating the spatial extent of the image on the field.
  • position information and consequently a position on the field can also be assigned to each of the pixels of the image.
  • This procedure can also be applied to images that are acquired by another image acquisition means and to data that are acquired by different sensors.
  • step S106 the pixels in the images are classified so that it is determined which of the pixels in the image represent a useful plant. In addition, it is also determined which of the pixels represent a certain type of weed or generally a weed and which of the pixels represent the bottom of the field.
  • the images captured in step S102 become this individually semantically segmented, ie a classification of each individual pixel in the images is carried out and the individual pixels of the images are classified as useful plants, weeds or weeds or soil. It is also conceivable that areas that are composed of several pixels are semantically segmented.
  • Figure 2 shows an image of a field that is semantically segmented.
  • a class is assigned to each pixel in the image and the pixel is colored according to the assigned class.
  • black pixels represent the class of useful plants and bordered but not filled areas represent a class of weeds.
  • the soil is not colored for the sake of simplicity.
  • the semantic segmentation may have incorrect classifications.
  • pixels (dashed lines) in outer regions 22, 24 of the useful plant 20, in this case a sugar beet are recognized as weeds.
  • the useful plant 20 with the exception of these small areas 22, 24, is correctly recognized as a useful plant, the method described below is robust against these unavoidable small errors.
  • the semantically segmented images which are captured during the same driving process and for which the position information was obtained in S104, are arranged using the position information in a global context which, compared to the pixel coordinate system on the image level, is a more global coordinate system, such as a above-mentioned world coordinate system.
  • a position in the field which is recorded due to the movement of the vehicle and the rapid repetition rate when recording the images in different images from different perspectives, has the same position information in all images and is therefore global Context placed in the same place.
  • the expression “global context” can be understood to mean an environment with its own coordinate system which includes the captured field areas and in or relative to which the images can be arranged.
  • step S110 the course of a row of plants, that is to say consequently the coordinates of the row of plants in the global context, is estimated.
  • the starting point for this are the images classified pixel by pixel, which are arranged in the global context.
  • FIG. 3 shows an excerpt from the global context in which three useful plants 30, 32, 34 are recognized and shown in black.
  • a large number of weeds are recognized and displayed with a frame. As already mentioned above, it is assumed that the movement of the vehicle takes place parallel to the row 36 of plants.
  • An estimate of the plant row can thus be carried out in that the parameters of a probability distribution 38 of the pixels representing the useful plant (in the case of a pixel-by-pixel classification) or areas (in the case of a classification for larger areas or superpixels) in the global context, as in Fig 3, can be determined along a direction perpendicular to the direction of travel 36.
  • the probability distribution 38 is preferably a symmetrical probability distribution and in particular a normal or Gaussian distribution.
  • a center of the row of plants corresponds to a calculated expected value of the probability distribution 38 and a width of the row of plants can be derived from a variance of the probability distribution 38. In this way, not only the course of the row of plants, but also a width of the row of plants can be specified. Due to the consideration of the pixels of all useful plants 30, 32, 34 in the previously acquired images for the estimation of the plant row, the method according to the invention is extremely robust against incorrect classification of individual pixels in the image. The method is also robust against inaccuracies in the row which are often generated during sowing due to rolled seeds or seeds that have been spread twice.
  • a course of the row of plants in front of the vehicle can be estimated.
  • the row of plants in front of the vehicle is estimated as a continuing straight line.
  • the estimated course of the row of plants in front of the vehicle can in turn be integrated into the global context, so that the result of the pixel-by-pixel classification of useful plants is improved as the vehicle continues to travel.
  • a function is implemented in the area of the plant row, the pixels in the area of the estimated plant row in front of the field have a higher probability assigns to classify it as a crop.
  • the function can be a trapezoidal function, a rectangular function or another suitable function. In this way, a classification of the pixels as useful plants in the area of the estimated row can be weighted higher without the existing row estimation influencing the future row estimation.
  • this is converted to a coordinate system of the vehicle.
  • This conversion makes it possible for a processing tool to be guided in a simple manner along a row of plants or for the vehicle or its wheels to be automatically controlled between two rows.
  • a message can be displayed to a driver when driving manually when he is steering the vehicle into the area of a row of plants. Since the method according to the invention is able to determine the width of the row of plants, the plant row can also be reliably prevented from being traversed in the edge areas of the row of plants, so that fewer useful plants are destroyed due to imprecise traversing.
  • the method is also able to provide the user with further information.
  • a distance between two crops in a row is determined so that conclusions can be drawn about regular seed application and the emergence of the individual seeds.
  • the width of individual rows taking into account the variance of the probability distribution, it is possible to draw conclusions about the scattering of the seeds in the width direction.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a method (100) for estimating a course of a plant row in a field while the field is being crossed in a direction of travel (36) substantially parallel to the plant row, comprising the following steps: capturing (S102) a plurality of images of the field; substantially in sync with obtaining (S104) position information relating to the position in which the individual images are captured on the field; classifying (S106) pixels or regions in individual images as crop plants; arranging (S108) the classified images in a global context using the position information; and estimating (S110) the course of the plant rows by determining a probability distribution (38) of the pixels or regions classified as crop plants in the global context along a direction perpendicular to the direction of travel.

Description

Verfahren zum Schätzen eines Verlaufs von Pflanzenreihen Method for estimating a course of rows of plants
Beschreibung description
Die vorliegende Erfindung betrifft ein Verfahren zum Schätzen eines Verlaufs von Pflanzenreihen auf einem Feld. The present invention relates to a method for estimating a course of rows of plants in a field.
Das Schätzen eines Verlaufs von Pflanzenreihen für die landwirtschaftliche Bearbeitung eines Felds basiert vorwiegend auf einer Verarbeitung von Kamerabildern, wobei meist eines der beiden nachfolgend beschriebenen Verfahren verwendet wird. The estimation of a course of rows of plants for the agricultural cultivation of a field is predominantly based on the processing of camera images, one of the two methods described below being used in most cases.
Im ersten Verfahren erfolgt zunächst eine Segmentierung, bei der die Vegetation vom Boden entweder durch Unterscheidung zwischen grün (Pflanzen) und braun (Boden) im sichtbaren Farbbereich oder unter Berücksichtigung des NDVI-Index, der mittels einer Bildinformation im Nahinfrarot- Bereich berechnet wird, getrennt erkannt wird. Die Schätzung der Pflanzenreihe erfolgt anschließend mittels einer Geradenerkennung zwischen den einzelnen Pflanzen, die vorhergehend als Vegetation segmentiert wurden. Die Geradenerkennung wird dabei unter Verwendung der Hough-Transformation durchgeführt. The first method involves segmenting the vegetation from the ground either by distinguishing between green (plants) and brown (ground) in the visible color range or taking into account the NDVI index, which is calculated using image information in the near-infrared range is recognized. The plant row is then estimated by means of straight line recognition between the individual plants that were previously segmented as vegetation. The line recognition is carried out using the Hough transformation.
Im zweiten Verfahren erfolgt zunächst eine Segmentierung der Pflanzen. Anschließend wird eine Mittelpunktschätzung durchgeführt und die Pflanzenreihe wird mittels einer Geraden durch die Pflanzenmittelpunkte geschätzt. Die Geradenschätzung erfolgt dabei durch z.B. den RANSAC-Algorithmus, die Least Square Methode etc. In the second method, the plants are first segmented. A center point estimate is then carried out and the row of plants is estimated by means of a straight line through the plant center points. The straight lines are estimated using the RANSAC algorithm, the Least Square method, etc.
Es ist daher Aufgabe der vorliegenden Erfindung, ein Verfahren für eine robustere und genauere Schätzung einer Pflanzenreihe bereitzustellen, als dies mit den bisher im Stand der Technik bekannten Verfahren zum Schätzen des Verlaufs von Pflanzenreihen möglich ist. Die Aufgabe wird durch das Verfahren gemäß Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen sind in den abhängigen Ansprüchen angegeben. It is therefore the object of the present invention to provide a method for a more robust and more accurate estimation of a row of plants than is possible with the methods known up to now in the prior art for estimating the course of plant rows. The object is achieved by the method according to claim 1. Advantageous refinements are given in the dependent claims.
Nachfolgend werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die beigefügten Figuren beschrieben. Es zeigen: Embodiments of the present invention are described below with reference to the accompanying figures. Show it:
Fig. 1 ein Ablaufdiagramm des erfindungsgemäßen Verfahrens; 1 shows a flow chart of the method according to the invention;
Fig. 2 ein Bild von einem Feld, das semantisch segmentiert ist; Fig. 3 ein anderes Bild von einem Feld, für das eine Wahrscheinlichkeitsverteilung von als Nutzpflanze klassifizierten Pixeln ermittelt wird. Figure 2 is an image of a field that is semantically segmented; 3 shows another image of a field for which a probability distribution of pixels classified as useful plants is determined.
Detaillierte Beschreibung von Ausführungsformen Detailed description of embodiments
In der Landwirtschaft werden Samen auf einem Feld ausgesät, aus denen Nutzpflanzen wachsen. Unter einem Feld kann eine abgegrenzte Bodenfläche für den Anbau von Nutzpflanzen oder auch ein Teil eines solchen Feldes verstanden werden. Unter einer Nutzpflanze wird eine landwirtschaftlich genutzte Pflanze verstanden, die selbst oder deren Frucht genutzt wird, z.B. als Nahrungsmittel, Futtermittel oder als Energiepflanze. Die Samen und folglich die Pflanzen werden vornehmlich in Reihen angeordnet bzw. ausgesät, wobei zwischen den Reihen sowie zwischen den einzelnen Pflanzen innerhalb einer Reihe ein vorgegebener Abstand zwischen den einzelnen Nutzpflanzen vorhanden ist, in dem Objekte vorhanden sein können. Die Objekte sind jedoch unerwünscht, da sie den Ertrag der Pflanzen mindern oder einen störenden Einfluss während der Bewirtschaftung und/oder der Ernte darstellen. Unter einem Objekt kann jegliche Pflanze, die eine andere als die Nutzpflanze ist, oder jeglicher Gegenstand verstanden werden. Objekte können insbesondere Beikräuter,In agriculture, seeds are sown in a field from which crops grow. A field can be understood to be a delimited area of land for the cultivation of useful plants or a part of such a field. A useful plant is understood to be an agriculturally used plant which itself or its fruit is used, e.g. as food, feed or as an energy plant. The seeds and consequently the plants are primarily arranged or sown in rows, with a predetermined distance between the individual useful plants in which objects can be present between the rows and between the individual plants within a row. However, the objects are undesirable because they reduce the yield of the plants or represent a disruptive influence during cultivation and / or harvesting. An object can be understood to mean any plant that is different from the useful plant, or any object. Objects can in particular weeds,
Hölzer und Steine sein. To be woods and stones.
Um den erwähnten negativen Einfluss von Beikräutern zu vermindern, werden diese entweder mechanisch, z.B. durch eine Fräse, entfernt oder mit einem Pestizid durch einen Sprayer besprüht. Aus diesem Grund fährt ein Fahrzeug, an dem eine Vorrichtung zum Bearbeiten der Pflanzen angebracht ist, das Feld entlang einer vorgegebenen Route, d.h. in einer Spur zwischen zwei benachbarten Pflanzenreihen des Felds, ab und die einzelnen Pflanzen werden währenddessen bearbeitet. In order to reduce the mentioned negative influence of weeds, they are either removed mechanically, e.g. by a milling machine, or sprayed with a pesticide by a sprayer. For this reason, a vehicle, on which a device for processing the plants is attached, travels the field along a predetermined route, i.e. in a lane between two adjacent rows of plants in the field, and the individual plants are processed in the meantime.
Das Fahrzeug ist dabei ein eigens zum Bearbeiten des Feldes vorgesehenes Fahrzeug, wie etwa ein Agrarroboter. Das Fahrzeug kann aber auch ein landwirtschaftliches Fahrzeug, wie z.B. ein Traktor, ein Anhänger usw., oder ein Luftfahrzeug, wie z.B. eine Drohne, sein. Das Fahrzeug fährt bzw. fliegt das Feld dabei in einer Fahrtrichtung ab, die im Wesentlichen parallel zu einer Reihenrichtung ist, in der die Pflanzen mit dem vorgegebenen Abstand zueinander angepflanzt werden. Das Fahrzeug fährt das Feld dabei autonom ab, kann das Feld aber auch aufgrund einer Steuerung durch einen Bediener abfahren. Nachfolgend werden die einzelnen Schritte S102 bis S110 des in Fig. 1 gezeigten erfindungsgemäßen Verfahrens 100 beschrieben. Es ist anzumerken, dass das Verfahren 100 während eines Abfahrens fortlaufend ausgeführt wird, d.h. es findet eine kontinuierliche Schätzung der Pflanzenreihe während des Abfahrens statt. The vehicle is a vehicle specifically provided for working the field, such as an agricultural robot. However, the vehicle can also be an agricultural vehicle such as a tractor, a trailer, etc., or an aircraft such as a drone. The vehicle drives or flies across the field in a direction of travel that is essentially parallel to a row direction in which the plants are planted at the predetermined distance from one another. The vehicle drives through the field autonomously, but can also drive through the field based on control by an operator. The individual steps S102 to S110 of the method 100 according to the invention shown in FIG. 1 are described below. It should be noted that the method 100 is carried out continuously during a run, ie a continuous estimation of the row of plants takes place during the run.
In einem ersten Verfahrensschritt S102 wird eine Vielzahl von Bildern von einer Oberfläche des Feldes durch ein Bilderfassungsmittel erfasst. Das Bildererfassungsmittel ist eine Kamera, wie z.B. eine CCD-Kamera, eine CMOS-Kamera usw., die ein Bild im sichtbaren Bereich erfasst und als RGB-Werte oder als Werte in einem anderen Farbraum bereitstellt. Das Bilderfassungsmittel kann aber auch eine Kamera sein, die ein Bild im Infrarot- Bereich erfasst. Für das Erfassen von Pflanzen ist ein Bild im Infrarot- Bereich besonders geeignet, da eine Reflexion der Pflanzen in diesem Frequenzbereich deutlich erhöht ist. Das Bilderfassungsmittel kann aber auch z.B. eine Mono-, RGB-, Multispektral-, Hyperspektral- Kamera sein. Außerdem können weitere Daten unter Verwendung von Sensoren, wie z.B. 3D-Sensoren usw., erfasst werden. Das Bilderfassungsmittel kann auch eine Tiefenmessung, z.B. durch eine Stereokamera, eine Time-of-Flight- Kamera usw., bereitstellen. Es ist möglich, dass mehrere Bilderfassungsmittel an dem Fahrzeug vorhanden sind, und dass mehrere Bilder von den unterschiedlichen Bilderfassungsmitteln sowie Daten von unterschiedlichen Sensoren im Wesentlichen synchron erfasst werden. In a first method step S102, a plurality of images of a surface of the field are acquired by an image acquisition means. The image acquisition means is a camera, such as a CCD camera, a CMOS camera, etc., which acquires an image in the visible area and provides it as RGB values or as values in another color space. The image acquisition means can, however, also be a camera that acquires an image in the infrared range. An image in the infrared range is particularly suitable for capturing plants, as the reflection of the plants is significantly increased in this frequency range. The image acquisition means can also be, for example, a mono, RGB, multispectral, hyperspectral camera. In addition, other data can be acquired using sensors such as 3D sensors, etc. The image acquisition means can also provide a depth measurement, e.g. by a stereo camera, a time-of-flight camera, etc. It is possible for several image acquisition means to be present on the vehicle and for several images to be acquired essentially synchronously by the different image acquisition means and data from different sensors.
Das Feld, auf dem die Pflanzen und Objekte vorhanden sind, wird durch das Bilderfassungsmittel während des Abfahrens mit dem Fahrzeug, an dem das Bilderfassungsmittel angebracht ist, erfasst. Das Bilderfassungsmittel ist dabei so am Fahrzeug angebracht, dass ein Bildsensor des Bilderfassungsmittels im Wesentlichen parallel zu einer Oberfläche des Feldes ist. Der Bildsensor des Bilderfassungsmittels kann aber auch zur Oberfläche des Feldes, z.B. in eine Fahrtrichtung des Fahrzeugs, geneigt sein, um einen größeren Bereich des Feldes zu erfassen. The field on which the plants and objects are present is captured by the image capturing means while driving the vehicle on which the image capturing means is attached. The image capturing means is attached to the vehicle in such a way that an image sensor of the image capturing means is essentially parallel to a surface of the field. The image sensor of the image acquisition means can, however, also be inclined towards the surface of the field, for example in a direction of travel of the vehicle, in order to cover a larger area of the field.
Das Fahrzeug, an dem das Bilderfassungsmittel angebracht ist, fährt bzw. fliegt das Feld ab und das Bilderfassungsmittel erfasst die Bilder in einem vorgegebenen zeitlichen Intervall. Bevorzugt werden die Bilder so erfasst, dass sie sich überlappen. Aus diesem Grund erfasst das Bilderfassungsmittel während des Abfahrens mehrere Bilder pro Sekunde, wodurch sich die Bilder bei einer geringen Abfahrgeschwindigkeit stark überlappen. Es ist aber auch möglich, dass die Bilder so erfasst werden, dass sie sich nicht überlappen. Die Vielzahl von Bildern kann auch als Video aufgenommen werden. Die Bilder werden anschließend in einem Speicher gespeichert und stehen anschließend zur Weiterverarbeitung zur Verfügung. Der nachfolgende Schritt S104 wird im Wesentlichen synchron zum Schritt S102 ausgeführt. In Schritt S104 wird eine Positionsinformation unter Verwendung eines Positionserfassungsmittels erlangt. Beim Abfahren der Pflanzenreihen durch ein landwirtschaftliches Fahrzeug werden dazu GNSS-Systeme, z.B. RTK-GPS, eingesetzt, die eine hochgenaue Lokalisierung des Fahrzeugs auf dem Feld ermöglichen. Das Positionserfassungsmittel kann die Positionsinformation auch unter Verwendung von hochgenauem GPS, Odometrie, visuelle Odometrie, Encoder-Räder oder die Verwendung von Sensoren, die aufgrund von optischen Merkmalen die Geschwindigkeit schätzen (z.B. Kameras, Speed-Over-Ground Sensoren etc.), erreichen. Die Positionsinformation wird dabei als Weltkoordinaten angegeben, kann aber auch z.B. auch als Feldkoordinaten, Longitude + Latitude, etc. angegeben werden. Die Positionsinformation wird anschließend mit dem in Schritt S102 aufgenommen Bild korreliert, so dass die Position auf dem Feld, an der das Bild aufgenommen wird, exakt bestimmbar ist. The vehicle to which the image capturing means is attached drives or flies the field and the image capturing means captures the images at a predetermined time interval. The images are preferably captured in such a way that they overlap. For this reason, the image capturing means captures several images per second during the movement, as a result of which the images strongly overlap at a low movement speed. However, it is also possible for the images to be recorded in such a way that they do not overlap. The multitude of images can also be recorded as video. The images are then stored in a memory and are then available for further processing. The following step S104 is carried out essentially synchronously with step S102. In step S104, position information is acquired using position detection means. When driving through the rows of plants by an agricultural vehicle, GNSS systems, such as RTK-GPS, are used, which enable the vehicle to be localized with high precision in the field. The position detection means can also obtain the position information using high-precision GPS, odometry, visual odometry, encoder wheels or the use of sensors that estimate the speed based on optical features (e.g. cameras, speed-over-ground sensors, etc.). The position information is given as world coordinates, but can also be given as field coordinates, longitude + latitude, etc., for example. The position information is then correlated with the image recorded in step S102, so that the position in the field at which the image is recorded can be precisely determined.
Dazu wird einem Punkt im Zentrum des Bildes die erlangte Positionsinformation zugewiesen. Es kann aber auch einem anderen Punkt im Bild, z.B. einem Eckpunkt, die Positionsinformation zugewiesen werden. Es ist anzumerken, dass Abstände zwischen der Anbringungsposition des Bilderfassungsmittels und der Anbringungsposition des Positionserfassungsmittels am Fahrzeug bei der Korrelation der Positionsinformation mit dem erfassten Bild zu berücksichtigen sind. Die räumliche Ausdehnung des Bildes auf dem Feld in einer X- und einer Y-Richtung kann anschließend unter Verwendung eines Bildwinkels des Bilderfassungsmittels und des Abstandes des Bilderfassungsmittels zur Bodenfläche bestimmt werden. Falls der Bildsensor des Bilderfassungsmittels zur Oberfläche des Feldes geneigt ist, ist diese Neigung bei der Berechnung der räumlichen Ausdehnung des Bildes auf dem Feld ebenfalls zu berücksichtigen. Auf diese Weise ist es möglich, den Ausschnitt des Feldes zu bestimmen, der durch das Bild gezeigt ist. Unter Berücksichtigung der Auflösung des Bildes kann auch den Pixeln des Bildes jeweils eine Positionsinformation und folglich eine Position auf dem Feld zugewiesen werden. Diese Prozedur kann auch auf Bilder, die von einem anderen Bilderfassungsmittel erfasst werden, und auf Daten, die von unterschiedlichen Sensoren ermittelt werden, angewandt werden. For this purpose, the position information obtained is assigned to a point in the center of the image. The position information can also be assigned to another point in the image, e.g. a corner point. It should be noted that distances between the mounting position of the image capturing means and the mounting position of the position capturing means on the vehicle must be taken into account when correlating the position information with the captured image. The spatial extent of the image on the field in an X and a Y direction can then be determined using an image angle of the image capturing means and the distance of the image capturing means to the floor surface. If the image sensor of the image acquisition means is inclined to the surface of the field, this inclination must also be taken into account when calculating the spatial extent of the image on the field. In this way it is possible to determine the section of the field shown by the picture. Taking into account the resolution of the image, position information and consequently a position on the field can also be assigned to each of the pixels of the image. This procedure can also be applied to images that are acquired by another image acquisition means and to data that are acquired by different sensors.
In Schritt S106 werden jeweils die Pixel in den Bildern klassifiziert, so dass bestimmt wird, welche der Pixel im Bild eine Nutzpflanze darstellen. Es wird darüber hinaus auch bestimmt, welche der Pixel eine bestimmte Beikrautart oder generell ein Beikraut darstellen und welche der Pixel den Boden des Feldes darstellen. Die in Schritt S102 erfassten Bilder werden dazu einzeln semantisch segmentiert, d.h. es wird eine Klassifikation jedes einzelnen Pixels in den Bildern durchgeführt und die einzelnen Pixel der Bilder werden als Nutzpflanze, Beikrautart bzw. Beikraut oder Boden klassifiziert. Es ist auch denkbar, das Bereiche, die sich aus mehreren Pixeln zusammensetzen, semantisch segmentiert werden. In step S106, the pixels in the images are classified so that it is determined which of the pixels in the image represent a useful plant. In addition, it is also determined which of the pixels represent a certain type of weed or generally a weed and which of the pixels represent the bottom of the field. The images captured in step S102 become this individually semantically segmented, ie a classification of each individual pixel in the images is carried out and the individual pixels of the images are classified as useful plants, weeds or weeds or soil. It is also conceivable that areas that are composed of several pixels are semantically segmented.
Verfahren und Architekturen für die semantische Segmentierung von Bildern sind aus dem Stand der Technik bekannt. In der vorliegenden Ausführungsform wird ein Fully Convolutional Densenet verwendet, wie es in Jegou, S., Drozdzal, M., Vazquez, D., Romero, A., & Bengio, Y. (2017). „The one hundred layers tiramisu: Fully convolutional densenets for semantic Segmentation“. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops (pp. 11-19). offenbart ist. Es kann aber auch ein Fully Convolutional Neural Network verwendet werden, wie es in Long, J., Shelhamer, E., & Darreil,Methods and architectures for the semantic segmentation of images are known from the prior art. In the present embodiment, a fully convolutional densenet is used as described in Jegou, S., Drozdzal, M., Vazquez, D., Romero, A., & Bengio, Y. (2017). "The one hundred layers tiramisu: Fully convolutional densenets for semantic segmentation". In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops (pp. 11-19). is revealed. However, a fully convolutional neural network can also be used, as described in Long, J., Shelhamer, E., & Darreil,
T. (2015). „Fully convolutional networks for semantic Segmentation“. In Proceedings of the IEEE Conference on Computer Vision and pattern recognition (pp. 3431-3440). offenbart ist. Es ist aber auch möglich, ein anderes bekanntes Verfahren zur semantische Segmentierung von Bildern zu verwenden. T. (2015). "Fully convolutional networks for semantic segmentation". In Proceedings of the IEEE Conference on Computer Vision and pattern recognition (pp. 3431-3440). is revealed. However, it is also possible to use another known method for semantic segmentation of images.
Fig. 2 zeigt ein Bild von einem Feld, das semantisch segmentiert ist. Jedem Pixel im Bild ist dabei eine Klasse zugewiesen und der Pixel wird entsprechend der zugewiesenen Klasse eingefärbt. In Fig. 2 stellen schwarze Pixel die Klasse Nutzpflanze und umrandete, aber nicht ausgefüllte Bereiche eine Klasse Beikraut dar. Der Boden ist zum Zweck einer einfacheren Darstellung nicht eingefärbt. Die semantische Segmentierung kann unter Umständen falsche Klassifizierungen aufweisen. In dem in Fig. 2 gezeigten Bild werden Pixel (gestrichelt) in äußeren Bereichen 22, 24 der Nutzpflanze 20, in diesem Fall eine Zuckerrübe, als Unkraut erkannt. Da jedoch die Nutzpflanze 20 mit Ausnahme dieser kleinen Bereiche 22, 24 korrekt als Nutzpflanze erkannt wird, ist das nachfolgend beschriebene Verfahren robust gegenüber diesen unvermeidbaren kleinen Fehlern. Figure 2 shows an image of a field that is semantically segmented. A class is assigned to each pixel in the image and the pixel is colored according to the assigned class. In FIG. 2, black pixels represent the class of useful plants and bordered but not filled areas represent a class of weeds. The soil is not colored for the sake of simplicity. The semantic segmentation may have incorrect classifications. In the image shown in FIG. 2, pixels (dashed lines) in outer regions 22, 24 of the useful plant 20, in this case a sugar beet, are recognized as weeds. However, since the useful plant 20, with the exception of these small areas 22, 24, is correctly recognized as a useful plant, the method described below is robust against these unavoidable small errors.
Im nachfolgenden Schritt S108 werden die semantisch segmentierten Bilder, die während desselben Abfahrvorgangs erfasst werden und für die die Positionsinformation in S104 erlangt wurde, unter Verwendung der Positionsinformation in einem globalen Kontext angeordnet, der verglichen mit dem Pixelkoordinatensystem auf Bildebene ein globaleres Koordinatensystem, wie z.B. ein oben erwähntes Weltkoordinatensystem, darstellt. Eine Position auf dem Feld, die aufgrund der Fortbewegung des Fahrzeuges und der schnellen Wiederholungsrate beim Erfassen der Bilder in verschiedenen Bildern aus unterschiedlichen Perspektiven erfasst wird, weist dabei in allen Bildern dieselbe Positionsinformation auf und wird somit im globalen Kontext an derselben Stelle angeordnet. Unter dem Ausdruck „globaler Kontext“ kann im Rahmen der vorliegenden Erfindung ein Umfeld mit einem eigenen Koordinatensystem verstanden werden, welches die erfassten Feldbereiche umfasst und in bzw. relativ zu dem die Bilder angeordnet werden können. In the following step S108, the semantically segmented images, which are captured during the same driving process and for which the position information was obtained in S104, are arranged using the position information in a global context which, compared to the pixel coordinate system on the image level, is a more global coordinate system, such as a above-mentioned world coordinate system. A position in the field, which is recorded due to the movement of the vehicle and the rapid repetition rate when recording the images in different images from different perspectives, has the same position information in all images and is therefore global Context placed in the same place. In the context of the present invention, the expression “global context” can be understood to mean an environment with its own coordinate system which includes the captured field areas and in or relative to which the images can be arranged.
In Schritt S110 wird der Verlauf einer Pflanzenreihe, also folglich die Koordinaten der Pflanzenreihe im globalen Kontext, geschätzt. Ausgangpunkt dafür stellen die pixelweise klassifizierten Bilder dar, die in dem globalen Kontext angeordnet sind. In Fig. 3 ist ein Ausschnitt aus dem globalen Kontext gezeigt, in dem drei Nutzpflanzen 30, 32, 34 erkannt und schwarz dargestellt werden. Zudem wird eine Vielzahl von Beikräutern erkannt und umrandet dargestellt. Es wird, wie bereits oben erwähnt, angenommen, dass die Bewegung des Fahrzeugs parallel zur Pflanzenreihe 36 erfolgt. Eine Schätzung der Pflanzenreihe kann somit dadurch vorgenommen werden, dass die Parameter einer Wahrscheinlichkeitsverteilung 38 der die Nutzpflanze darstellenden Pixel (im Falle einer pixelweisen Klassifikation) bzw. Bereiche (im Falle einer Klassifikation für größere Bereiche bzw. Superpixel) im globalen Kontext, wie in Fig. 3 gezeigt, entlang einer zur Fahrtrichtung 36 senkrechten Richtung ermittelt werden. Die Wahrscheinlichkeitsverteilung 38 ist dabei bevorzugt eine symmetrische Wahrscheinlichkeitsverteilung und insbesondere eine Normal- bzw. Gaußverteilung. In step S110 the course of a row of plants, that is to say consequently the coordinates of the row of plants in the global context, is estimated. The starting point for this are the images classified pixel by pixel, which are arranged in the global context. FIG. 3 shows an excerpt from the global context in which three useful plants 30, 32, 34 are recognized and shown in black. In addition, a large number of weeds are recognized and displayed with a frame. As already mentioned above, it is assumed that the movement of the vehicle takes place parallel to the row 36 of plants. An estimate of the plant row can thus be carried out in that the parameters of a probability distribution 38 of the pixels representing the useful plant (in the case of a pixel-by-pixel classification) or areas (in the case of a classification for larger areas or superpixels) in the global context, as in Fig 3, can be determined along a direction perpendicular to the direction of travel 36. The probability distribution 38 is preferably a symmetrical probability distribution and in particular a normal or Gaussian distribution.
Eine Mitte der Pflanzenreihe entspricht einem berechneten Erwartungswert der Wahrscheinlichkeitsverteilung 38 und eine Breite der Pflanzenreihe kann aus einer Varianz der Wahrscheinlichkeitsverteilung 38 abgeleitet werden. Auf diese Weise kann nicht nur der Verlauf der Pflanzenreihe, sondern auch eine Breite der Pflanzenreihe angegeben werden. Aufgrund der Berücksichtigung der Pixel von allen Nutzpflanzen 30, 32, 34 in den bisher erfassten Bildern für die Schätzung der Pflanzenreihe, ist das erfindungsgemäße Verfahren enorm robust gegenüber fehlerhaften Klassifikation von einzelnen Pixeln im Bild. Das Verfahren ist zudem robust gegenüber Ungenauigkeiten in der Reihe, die während des Aussäens aufgrund von verrolltem Samen oder doppelt ausgebrachten Samen häufig erzeugt werden. A center of the row of plants corresponds to a calculated expected value of the probability distribution 38 and a width of the row of plants can be derived from a variance of the probability distribution 38. In this way, not only the course of the row of plants, but also a width of the row of plants can be specified. Due to the consideration of the pixels of all useful plants 30, 32, 34 in the previously acquired images for the estimation of the plant row, the method according to the invention is extremely robust against incorrect classification of individual pixels in the image. The method is also robust against inaccuracies in the row which are often generated during sowing due to rolled seeds or seeds that have been spread twice.
Ausgehend von dieser Schätzung der Pflanzenreihe in den erfassten Bildern kann ein Verlauf der Pflanzenreihe vor dem Fahrzeug geschätzt werden. Die Pflanzenreihe wird dabei vor dem Fahrzeug als eine weiterführende Gerade geschätzt. Der geschätzte Verlauf der Pflanzenreihe vor dem Fahrzeug kann wiederum in den globalen Kontext integriert werden, so dass das Ergebnis der pixelweisen Klassifikation von Nutzpflanzen beim weiteren Abfahren verbessert wird. Dazu wird eine Funktion im Bereich der Pflanzenreihe implementiert, die Pixeln im Bereich der geschätzten Pflanzenreihe vor dem Feld eine höhere Wahrscheinlichkeit zuweist, um sie als Nutzpflanze zu klassifizieren. Die Funktion kann dabei eine Trapez- Funktion, eine Rechteck- Funktion oder eine andere geeignete Funktion sein. Auf diese Weise kann eine Klassifikation der Pixel als Nutzpflanze im Bereich der geschätzten Reihe höher gewichtet werden, ohne dass die bestehende Reihenschätzung die zukünftige Reihenschätzung beeinflusst. On the basis of this estimate of the row of plants in the captured images, a course of the row of plants in front of the vehicle can be estimated. The row of plants in front of the vehicle is estimated as a continuing straight line. The estimated course of the row of plants in front of the vehicle can in turn be integrated into the global context, so that the result of the pixel-by-pixel classification of useful plants is improved as the vehicle continues to travel. For this purpose, a function is implemented in the area of the plant row, the pixels in the area of the estimated plant row in front of the field have a higher probability assigns to classify it as a crop. The function can be a trapezoidal function, a rectangular function or another suitable function. In this way, a classification of the pixels as useful plants in the area of the estimated row can be weighted higher without the existing row estimation influencing the future row estimation.
Nachdem der geschätzte Verlauf der Pflanzenreihe im globalen Kontext bekannt ist, wird dieser auf ein Koordinatensystem des Fahrzeugs umgerechnet. Diese Umrechnung ermöglicht es, dass ein Bearbeitungswerkzeug auf einfache Weise entlang einer Pflanzenreihe geführt oder das Fahrzeug bzw. die Räder davon zwischen zwei Reihen automatisch gesteuert werden kann. Zudem kann einem Fahrer bei einem manuellen Abfahren ein Hinweis angezeigt werden, wenn er das Fahrzeug in den Bereich einer Pflanzenreihe steuert. Da das erfindungsgemäße Verfahren imstande ist, eine Breite der Pflanzenreihe zu ermitteln, kann ein Abfahren der Pflanzenreihe auch in Randbereichen der Pflanzenreihe sicher verhindert werden, so dass weniger Nutzpflanzen aufgrund eines ungenauen Abfahrens zerstört werden. After the estimated course of the plant row is known in the global context, this is converted to a coordinate system of the vehicle. This conversion makes it possible for a processing tool to be guided in a simple manner along a row of plants or for the vehicle or its wheels to be automatically controlled between two rows. In addition, a message can be displayed to a driver when driving manually when he is steering the vehicle into the area of a row of plants. Since the method according to the invention is able to determine the width of the row of plants, the plant row can also be reliably prevented from being traversed in the edge areas of the row of plants, so that fewer useful plants are destroyed due to imprecise traversing.
Das Verfahren ist zudem imstande, dem Anwender weitere Informationen bereitzustellen. Während eines Abfahrens wird ein Abstand zwischen zwei Nutzpflanzen in einer Reihe bestimmt, so dass Rückschlüsse über eine regelmäßige Samenausbringung und den Aufgang der einzelnen Samen gezogen werden können. Zudem ist durch die Ermittlung der Breite einzelnen Reihe unter Berücksichtigung der Varianz der Wahrscheinlichkeitsverteilung ein Rückschluss über die Streuung der Samen in der Breitenrichtung möglich. The method is also able to provide the user with further information. During a run, a distance between two crops in a row is determined so that conclusions can be drawn about regular seed application and the emergence of the individual seeds. In addition, by determining the width of individual rows, taking into account the variance of the probability distribution, it is possible to draw conclusions about the scattering of the seeds in the width direction.

Claims

Ansprüche Expectations
1. Verfahren (100) zum Schätzen eines Verlaufs einer Pflanzenreihe auf einem Feld während eines Abfahrens des Felds entlang einer zur Pflanzenreihe im Wesentlichen parallelen Fahrtrichtung (36), mit den folgenden Schritten: 1. A method (100) for estimating a course of a row of plants in a field while driving the field along a direction of travel (36) essentially parallel to the row of plants, comprising the following steps:
Erfassen (S102) einer Vielzahl von Bildern von dem Feld; im Wesentlichen synchron zu einem Capturing (S102) a plurality of images from the field; essentially in sync with one
Erlangen (S104) einer Positionsinformation über die Position, an der die einzelnen Bilder auf dem Feld erfasst werden; Obtaining (S104) position information about the position at which the individual images are captured on the field;
Klassifizieren (S106) von Pixeln oder von Bereichen in einzelnen Bildern als Nutzpflanze;Classifying (S106) pixels or areas in individual images as useful plants;
Anordnen (S108) der klassifizierten Bilder, insbesondere in einem globalen Kontext unter Verwendung der Positionsinformation; und Arranging (S108) the classified images, in particular in a global context, using the position information; and
Schätzen (S110) des Verlaufs der Pflanzenreihe durch Ermitteln einer Wahrscheinlichkeitsverteilung (38) der als Nutzpflanze klassifizierten Pixel oder Bereiche, insbesondere im globalen Kontext entlang einer zur Fahrtrichtung senkrechten Richtung. Estimating (S110) the course of the row of plants by determining a probability distribution (38) of the pixels or areas classified as useful plants, in particular in a global context along a direction perpendicular to the direction of travel.
2. Verfahren gemäß Anspruch 1, wobei die Pixel oder Bereiche im Bild durch eine semantische Segmentierung als Nutzpflanze, Beikraut oder Boden klassifiziert werden. 2. The method according to claim 1, wherein the pixels or areas in the image are classified as useful plants, weeds or soil by semantic segmentation.
3. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei ein Erwartungswert der Wahrscheinlichkeitsverteilung einer Mitte der Pflanzenreihe und eine Varianz der Wahrscheinlichkeitsverteilung einer Breite der Pflanzenreihe entspricht. 3. The method according to any one of the preceding claims, wherein an expected value of the probability distribution corresponds to a center of the row of plants and a variance of the probability distribution corresponds to a width of the row of plants.
4. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die Wahrscheinlichkeitsverteilung eine Normalverteilung ist. 4. The method according to any one of the preceding claims, wherein the probability distribution is a normal distribution.
5. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei ein Verlauf der geschätzten Pflanzenreihe in ein Koordinatensystem eines Fahrzeugs umgerechnet wird, das das Feld abfährt. 5. The method according to any one of the preceding claims, wherein a course of the estimated row of plants is converted into a coordinate system of a vehicle driving the field.
6. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei der weitere Verlauf der geschätzten Pflanzenreihe vor einem Fahrzeug, das das Feld abfährt, als Gerade geschätzt wird. 6. The method according to any one of the preceding claims, wherein the further course of the estimated row of plants in front of a vehicle driving through the field is estimated as a straight line.
7. Verfahren gemäß Anspruch 6, wobei das Fahrzeug so automatisch gesteuert wird, dass es in einer Spur zwischen zwei vor dem Fahrzeug benachbarten geschätzten Pflanzenreihen fährt. 7. The method according to claim 6, wherein the vehicle is automatically controlled in such a way that it drives in a lane between two estimated rows of plants adjacent in front of the vehicle.
8. Verfahren gemäß Anspruch 6 oder 7, wobei die vor dem Fahrzeug geschätzte Pflanzenreihe verwendet wird, um das Klassifizieren von Pixeln oder Bereichen in der Vielzahl von Bildern zu verbessern. 8. The method of claim 6 or 7, wherein the row of plants estimated in front of the vehicle is used to improve the classification of pixels or areas in the plurality of images.
9. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei ein Abstand zwischen zwei Nutzpflanzen in einer geschätzten Reihe ermittelt wird, um eine Qualität einer Samenausbringung zu ermitteln. 9. The method according to any one of the preceding claims, wherein a distance between two useful plants in an estimated row is determined in order to determine a quality of seed application.
10. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei eine Varianz der Wahrscheinlichkeitsverteilung verwendet wird, um eine Qualität einer Samenausbringung in der zur Fahrtrichtung senkrechten Richtung zu ermitteln. 10. The method according to any one of the preceding claims, wherein a variance of the probability distribution is used to determine a quality of seed application in the direction perpendicular to the direction of travel.
11. Recheneinheit zum Schätzen eines Verlaufs einer Pflanzenreihe auf einem Feld während eines Abfahrens des Felds entlang einer zur Pflanzenreihe im Wesentlichen parallelen Fahrtrichtung (36), wobei die Recheneinheit eingerichtet ist, die folgenden Schritten durchzuführen: 11. Computing unit for estimating a course of a row of plants in a field while driving the field along a direction of travel (36) essentially parallel to the row of plants, the computing unit being set up to carry out the following steps:
Empfangen einer Vielzahl von erfassten Bildern von dem Feld; im Wesentlichen synchron zu einem Receiving a plurality of captured images of the field; essentially in sync with one
Empfangen einer erlangten Positionsinformation über die Position, an der die einzelnen Bilder auf dem Feld erfasst werden; Receiving an acquired position information about the position at which the individual images are recorded on the field;
Klassifizieren (S106) von Pixeln oder von Bereichen in einzelnen Bildern als Nutzpflanze;Classifying (S106) pixels or areas in individual images as useful plants;
Anordnen (S108) der klassifizierten Bilder, insbesondere in einem globalen Kontext unter Verwendung der Positionsinformation; und Arranging (S108) the classified images, in particular in a global context, using the position information; and
Schätzen (S110) des Verlaufs der Pflanzenreihe durch Ermitteln einer Wahrscheinlichkeitsverteilung (38) der als Nutzpflanze klassifizierten Pixel oder Bereiche, insbesondere im globalen Kontext entlang einer zur Fahrtrichtung senkrechten Richtung. Estimating (S110) the course of the row of plants by determining a probability distribution (38) of the pixels or areas classified as useful plants, in particular in a global context along a direction perpendicular to the direction of travel.
12. Landwirtschaftliche Arbeitsmaschine mit einer Recheneinheit nach Anspruch 11. 12. Agricultural working machine with a computing unit according to claim 11.
EP20811569.1A 2019-11-25 2020-11-20 Method for estimating a course of plant rows Pending EP4064817A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019218177.5A DE102019218177A1 (en) 2019-11-25 2019-11-25 Method for estimating a course of rows of plants
PCT/EP2020/082793 WO2021105006A1 (en) 2019-11-25 2020-11-20 Method for estimating a course of plant rows

Publications (1)

Publication Number Publication Date
EP4064817A1 true EP4064817A1 (en) 2022-10-05

Family

ID=73544161

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20811569.1A Pending EP4064817A1 (en) 2019-11-25 2020-11-20 Method for estimating a course of plant rows

Country Status (4)

Country Link
US (1) US20230403964A1 (en)
EP (1) EP4064817A1 (en)
DE (1) DE102019218177A1 (en)
WO (1) WO2021105006A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12201044B2 (en) 2018-02-05 2025-01-21 FarmWise Labs, Inc. Method for autonomously weeding crops in an agricultural field
US12120973B2 (en) 2023-02-07 2024-10-22 FarmWise Labs, Inc. Crop detection system and/or method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPM971694A0 (en) * 1994-11-29 1994-12-22 University Of Southern Queensland, The Vision guidance for agricultural vehicles
US8185275B2 (en) * 2005-07-01 2012-05-22 Deere & Company System for vehicular guidance with respect to harvested crop
US8019513B2 (en) * 2006-05-18 2011-09-13 Applied Perception Inc. Vision guidance system and method for identifying the position of crop rows in a field
DE102011078292A1 (en) * 2011-06-29 2013-01-03 Robert Bosch Gmbh Method for generating trafficability chart of surrounding area of vehicle, involves detecting image of surrounding area of vehicle by image sensor unit
DE112015002189T5 (en) * 2014-05-09 2017-02-09 Raven Industries, Inc. Image filter based on row identification
JP6418604B2 (en) * 2015-04-30 2018-11-07 国立大学法人 鹿児島大学 Working machine and control method thereof

Also Published As

Publication number Publication date
US20230403964A1 (en) 2023-12-21
DE102019218177A1 (en) 2021-05-27
WO2021105006A1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
EP3866593B1 (en) Method for applying a spray to a field
EP3782467B1 (en) Method for identifying weeds within a defined row of plants of an agricultural area
EP3299995A1 (en) Image analysis system for agricultural work machines
DE102017210804A1 (en) Method Apply a spray to a field
DE102019213779A1 (en) Method for applying a spray to an agricultural area
DE102019218192A1 (en) Method of working crops in a field
WO2022128189A1 (en) Method for applying a spray onto agricultural land
WO2021105019A1 (en) Method for generating a plurality of annotated images
EP4064815A1 (en) Method for processing plants in a field
EP4064819B1 (en) Method for treating plants in a field, for generating training data and for training a neural network
EP4064817A1 (en) Method for estimating a course of plant rows
EP4064818B1 (en) Method for treating plants in a field
EP4262381B1 (en) Method for classifying plants for agricultural purposes
EP4262380A1 (en) Method for applying a spray onto agricultural land
DE102020215877A1 (en) Method of classifying plants for agricultural purposes
DE102019201977A1 (en) Method for determining a condition of a crop planting and agricultural vehicle
EP4262379B1 (en) Method and device for applying a spraying agent to agricultural land
DE102021214001A1 (en) Method for determining plant information relating to a plant on an agricultural area
DE102022212171A1 (en) Method for classifying plants in and/or between rows of plants in an agricultural area
DE102022212169A1 (en) Method for classifying plants in and/or between rows of plants in an agricultural area
DE102022115549A1 (en) Method for the optimized configuration of a camera system for row detection in a field
DE102020214075A1 (en) Method for controlling a unit of a mobile agricultural device

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220627

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)