DE202014011514U1 - Camera calibration - Google Patents
Camera calibration Download PDFInfo
- Publication number
- DE202014011514U1 DE202014011514U1 DE202014011514.1U DE202014011514U DE202014011514U1 DE 202014011514 U1 DE202014011514 U1 DE 202014011514U1 DE 202014011514 U DE202014011514 U DE 202014011514U DE 202014011514 U1 DE202014011514 U1 DE 202014011514U1
- Authority
- DE
- Germany
- Prior art keywords
- images
- image
- reference marks
- features
- calibration target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
System zum Kalibrieren von Abbildungsvorrichtungen, wobei das System umfasst:
erste und zweite Abbildungsvorrichtungen, die von einem unbemannten Luftfahrzeug getragen werden, wobei jede Abbildungsvorrichtung konfiguriert ist, einen Bilddatensatz aufzunehmen, der eine Vielzahl von Bildern (350, 352) eines Kalibrierungsziels (300, 500) aufweist, wobei das Kalibrierungsziel (300, 500) eine Vielzahl von Merkmalen (302, 304) in einem sich wiederholenden Muster angeordnet und eine Vielzahl von Referenzmarkierungen (502a, 502b, 502c) aufweist, wobei die Referenzmarkierungen (502a, 502b, 502c) in jedem Bild der Vielzahl von Bildern (350, 352) jeweils eindeutig identifizierbar sind, wobei die Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden, wobei die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern bilden und wobei die Vielzahl von Bildern (350, 352) mindestens ein Bild umfasst, das weniger als alle der Vielzahl von Merkmalen (302, 304) aufnimmt; und
einen oder mehrere Prozessoren, die gemeinsam oder individuell konfiguriert sind zum:
Empfangen der Vielzahl von Bildern (350, 352) von jeder der ersten und zweiten Abbildungsvorrichtung;
Ermitteln einer räumlichen Beziehung zwischen den Referenzmarkierungen (502a, 502b, 502c) in jedem Bild der Vielzahl von Bildern (350, 352) und den Referenzmarkierungen (502a, 502b, 502c) auf dem Kalibrierungsziel (300, 500),
wobei der Schritt zum Ermitteln der räumlichen Beziehung umfasst, eine erste Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel zu identifizieren, wobei Identifikation entsprechender Referenzmarkierungen basierend auf dem Positionieren der Referenzmarkierungen relativ zu Kanten oder Winkeln des Polygons durchgeführt wird;
Formulieren, basierend auf der räumlichen Beziehung, einer zweiten Übereinstimmung zwischen Bildkoordinaten von Merkmalen in jedem Bild der Vielzahl von Bildern (350, 352) und globalen Koordinaten für entsprechende Merkmale auf dem Kalibrierungsziel (300, 500), basierend auf den vorgegebenen globalen Koordinaten der Referenzmarkierungen (502a, 502b,
502c); und
Ermitteln von Kalibrierungsparametern für die erste und
zweite Abbildungsvorrichtung, basierend auf der zweiten Übereinstimmung.
A system for calibrating imaging devices, the system comprising:
first and second imaging devices carried by an unmanned aerial vehicle, each imaging device configured to capture an image data set comprising a plurality of images (350, 352) of a calibration target (300, 500), the calibration target (300, 500) a plurality of features (302, 304) arranged in a repeating pattern and having a plurality of reference marks (502a, 502b, 502c), the reference marks (502a, 502b, 502c) in each image of the plurality of images (350, 352 ) are each uniquely identifiable, wherein the reference markings form vertices of an irregular polygon on the calibration target, wherein the one or more reference markings form vertices of an irregular polygon in the plurality of images and wherein the plurality of images (350, 352) comprises at least one image, that receives less than all of the plurality of features (302, 304); and
one or more processors that are configured jointly or individually to:
Receiving the plurality of images (350, 352) from each of the first and second imaging devices;
Determining a spatial relationship between the reference marks (502a, 502b, 502c) in each image of the plurality of images (350, 352) and the reference marks (502a, 502b, 502c) on the calibration target (300, 500),
wherein the step of determining the spatial relationship comprises a first correspondence between the vertices of the irregular polygon in the plurality identify images and the vertices of the irregular polygon on the calibration target, wherein identification of corresponding reference marks is performed based on the positioning of the reference marks relative to edges or angles of the polygon;
Formulating, based on the spatial relationship, a second correspondence between image coordinates of features in each image of the plurality of images (350, 352) and global coordinates for corresponding features on the calibration target (300, 500), based on the predetermined global coordinates of the reference marks (502a, 502b,
502c); and
Determine calibration parameters for the first and
second imaging device based on the second match.
Description
STAND DER TECHNIK DER ERFINDUNGPRIOR ART OF THE INVENTION
Unbemannte Fahrzeuge, wie unbemannte Luftfahrzeuge (UAVs), können verwendet werden, um Überwachungs-, Aufklärungs- und Erkundungsaufgaben für eine weite Vielfalt militärischer und ziviler Anwendungen durchzuführen. In manchen Fällen kann ein UAV eine Kamera tragen, um Bilddaten von Objekten in einer Umgebung zu erzeugen. Basierend auf der spezifischen Anwendung kann eine Kamerakalibrierungsprozedur durchgeführt werden, um einen oder mehrere Parameter der Kamera zu ermitteln.Unmanned vehicles, such as unmanned aerial vehicles (UAVs), can be used to carry out surveillance, reconnaissance and reconnaissance tasks for a wide variety of military and civil applications. In some cases, a UAV can carry a camera to generate image data of objects in an environment. Based on the specific application, a camera calibration procedure can be performed to determine one or more parameters of the camera.
Bestehende Ansätze zur Kamerakalibrierung können in manchen Fällen nicht optimal sein. Zum Beispiel können manche Kamerakalibrierungsverfahren zum Kalibrieren von Abbildungssystemen mit mehreren Kameras nicht optimal sein.Existing approaches to camera calibration may not be optimal in some cases. For example, some camera calibration methods for calibrating imaging systems with multiple cameras may not be optimal.
KURZDARSTELLUNG DER ERFINDUNGSUMMARY OF THE INVENTION
Die vorliegende Offenbarung stellt Systeme, Verfahren und Vorrichtungen zur verbesserten Kalibrierung von Kameras und anderen Typen von Abbildungsvorrichtungen bereit. In manchen Ausführungsformen nutzen die hierin beschriebenen Kalibrierungstechniken Bilder, die von einer oder mehreren Abbildungsvorrichtungen von einem Kalibrierungsziel erhalten werden, das eine Vielzahl von Merkmalen und eine oder mehrere eindeutig identifizierbare Referenzmarkierungen aufweist. Die Referenzmarkierungen können verwendet werden, um Ermittlung einer Übereinstimmung zwischen Bildkoordinaten von Merkmalen in den Bildern und den globalen Koordinaten entsprechender Merkmale auf dem Kalibrierungsziel zu erleichtern. Basierend auf der ermittelten Übereinstimmung können ein oder mehrere Kalibrierungsparameter (z.B. extrinsische und/oder intrinsische Parameter) für die Abbildungsvorrichtungen berechnet werden. Manche Aspekte der vorliegenden Offenbarung gestatten eine Ermittlung von Kalibrierungsparametern unter Verwendung von Bildern, die weniger als die Gesamtheit des Kalibrierungsziels abbilden (z.B. weniger als alle der Merkmale auf dem Kalibrierungsziel). Vorteilhafterweise stellt dieser Ansatz eine verbesserte Genauigkeit und Flexibilität des Kalibrierungsprozesses bereit, insbesondere in Bezug auf eine Kalibrierung mehrerer Abbildungsvorrichtungen.The present disclosure provides systems, methods, and apparatus for improved calibration of cameras and other types of imaging devices. In some embodiments, the calibration techniques described herein utilize images obtained by one or more imaging devices of a calibration target that has a plurality of features and one or more uniquely identifiable fiducial marks. The reference marks can be used to facilitate determination of a correspondence between image coordinates of features in the images and the global coordinates of corresponding features on the calibration target. Based on the determined correspondence, one or more calibration parameters (e.g. extrinsic and / or intrinsic parameters) can be calculated for the imaging devices. Some aspects of the present disclosure allow calibration parameters to be determined using images that depict less than all of the calibration target (e.g., less than all of the features on the calibration target). This approach advantageously provides improved accuracy and flexibility of the calibration process, in particular with regard to a calibration of a plurality of imaging devices.
Daher wird in einem Aspekt ein Verfahren zum Kalibrieren einer oder mehrerer Abbildungsvorrichtungen bereitgestellt. Das Verfahren umfasst: Empfangen, von jeder der einen oder mehreren Abbildungsvorrichtungen, einer Vielzahl von Bildern eines Kalibrierungsziels, wobei das Kalibrierungsziel eine Vielzahl von Merkmalen, die in einem sich wiederholenden Muster eingerichtet sind, und eine oder mehrere Referenzmarkierungen aufweist, wobei die eine oder die mehreren Referenzmarkierungen jeweils eindeutig in jedem Bild der Vielzahl von Bildern identifizierbar sind, und wobei die Vielzahl von Bildern mindestens ein Bild aufweist, das weniger als alle der Vielzahl von Merkmalen aufnimmt; Ermitteln, mit Hilfe eines oder mehrerer Prozessoren, einer räumlichen Beziehung zwischen der einen oder den mehreren Referenzmarkierungen in jedem Bild der Vielzahl von Bildern und der einen oder den mehreren Referenzmarkierungen auf dem Kalibrierungsziel; Formulieren, basierend auf der räumlichen Beziehung und mit Hilfe eines oder mehrerer Prozessoren, einer Übereinstimmung zwischen Bildkoordinaten von Merkmalen in jedem Bild der Vielzahl von Bildern und globalen Koordinaten für entsprechende Merkmale auf dem Kalibrierungsziel; und Ermitteln, basierend auf der Übereinstimmung und mit Hilfe des einen oder der mehreren Prozessoren, von Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen.Therefore, in one aspect, a method for calibrating one or more imaging devices is provided. The method includes: receiving, from each of the one or more imaging devices, a plurality of images of a calibration target, the calibration target having a plurality of features established in a repeating pattern and one or more reference marks, the one or more a plurality of reference marks are each uniquely identifiable in each image of the plurality of images, and wherein the plurality of images includes at least one image that captures less than all of the plurality of features; Determining, using one or more processors, a spatial relationship between the one or more reference marks in each image of the plurality of images and the one or more reference marks on the calibration target; Formulating, based on the spatial relationship and with the aid of one or more processors, a correspondence between image coordinates of features in each image of the plurality of images and global coordinates for corresponding features on the calibration target; and determining, based on the match and with the aid of the one or more processors, calibration parameters for the one or more imaging devices.
In manchen Ausführungsformen werden die eine oder mehreren Abbildungsvorrichtungen von einem unbemannten Luftfahrzeug getragen.In some embodiments, the one or more imaging devices are carried on an unmanned aerial vehicle.
In manchen Ausführungsformen nimmt jedes Bild der Vielzahl von Bildern die eine oder mehreren Referenzmarkierungen und mindestens eine Teilmenge der Vielzahl von Merkmalen auf dem Kalibrierungsziel auf. Die Vielzahl von Bildern von jeder der einen oder mehreren Abbildungsvorrichtungen kann bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden.In some embodiments, each image of the plurality of images captures the one or more reference marks and at least a subset of the plurality of features on the calibration target. The plurality of images from each of the one or more imaging devices can be captured at different positions and orientations relative to the calibration target.
In manchen Ausführungsformen ist das Kalibrierungsziel ein Schachbrett, das eine Vielzahl von Quadraten aufweist, und die Vielzahl von Merkmalen weist Eckpunkte der Vielzahl von Quadraten auf. Die eine oder mehreren Referenzmarkierungen können jeweils innerhalb eines der Vielzahl von Quadraten positioniert sein. Die Vielzahl von Merkmalen kann vier Außenecken des Schachbretts aufweisen und das mindestens eine Bild kann mindestens eine der vier Außenecken auslassen.In some embodiments, the calibration target is a checkerboard that includes a plurality of squares, and the plurality of features includes vertices of the plurality of squares. The one or more reference markings can each be positioned within one of the plurality of squares. The plurality of features can include four outside corners of the chessboard and the at least one image can omit at least one of the four outside corners.
In manchen Ausführungsformen weisen die eine oder mehreren Referenzmarkierungen mindestens drei Referenzmarkierungen auf. Die eine oder mehreren Referenzmarkierungen können kreisförmige Punkte, Dreiecke oder Vierecke aufweisen. Die eine oder mehreren Referenzmarkierungen können über das sich wiederholende Muster gelegt werden. Die eine oder mehreren Referenzmarkierungen können Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden. Die eine oder mehreren Referenzmarkierungen können drei Referenzmarkierungen aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.In some embodiments, the one or more reference marks have at least three reference marks. The one or more reference markings can have circular points, triangles or squares. The one or more reference marks can be placed over the repeating pattern. The one or more reference marks may form vertices of an irregular polygon on the calibration target. The one or more reference markings can have three reference markings which form vertices of an isosceles or non-equilateral triangle.
In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und der Schritt zum Ermitteln der räumlichen Beziehung umfasst ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet sein und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images, and the step of determining the spatial relationship includes identifying a correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the Calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more reference marks can form a shape that is rotationally asymmetrical within the plane.
In manchen Ausführungsformen weisen die eine oder mehrere Abbildungsvorrichtungen eine erste Kamera und eine zweite Kamera auf, die Bilder im Wesentlichen gleichzeitig aufnehmen. Der Formulierungsschritt kann ein Identifizieren von Merkmalen umfassen, die sowohl in einem Bild, das von der ersten Kamera erhalten wird, als auch einem entsprechenden Bild, das von der zweiten Kamera erhalten wird, vorhanden sind. Die Kalibrierungsparameter können mindestens eines von einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optische Verzerrung für jede der einen oder mehreren Abbildungsvorrichtungen aufweisen. Die Kalibrierungsparameter können eine Position und eine Ausrichtung jeder der einen oder mehreren Abbildungsvorrichtungen relativ zu dem Kalibrierungsziel aufweisen.In some embodiments, the one or more imaging devices include a first camera and a second camera that capture images substantially simultaneously. The formulating step may include identifying features that are present in both an image obtained from the first camera and a corresponding image obtained from the second camera. The calibration parameters may include at least one of a focal length, a position of the image center point, pixel size, or optical distortion for each of the one or more imaging devices. The calibration parameters may include a position and orientation of each of the one or more imaging devices relative to the calibration target.
In einem anderen Aspekt wird ein System zum Kalibrieren einer oder mehrerer Abbildungsvorrichtungen bereitgestellt. Das System weist auf: eine oder mehrere Abbildungsvorrichtungen, die jeweils konfiguriert sind, eine Vielzahl von Bildern eines Kalibrierungsziels aufzunehmen, wobei das Kalibrierungsziel eine Vielzahl von Merkmalen, die in einem sich wiederholenden Muster eingerichtet sind, und eine oder mehrere Referenzmarkierungen aufweist, wobei die eine oder mehreren Referenzmarkierungen jeweils eindeutig in jedem Bild der Vielzahl von Bildern identifizierbar sind und wobei die Vielzahl von Bildern mindestens ein Bild umfasst, das weniger als alle der Vielzahl von Merkmalen aufnimmt; und einen oder mehrere Prozessoren, die gemeinsam oder individuell konfiguriert sind zum: Empfangen der Vielzahl von Bildern von jeder der einen oder mehreren Abbildungsvorrichtungen; Ermitteln einer räumlichen Beziehung zwischen der einen oder den mehreren Referenzmarkierungen in jedem Bild der Vielzahl von Bildern und der einen oder den mehreren Referenzmarkierungen auf dem Kalibrierungsziel; Formulieren einer Übereinstimmung zwischen Bildkoordinaten von Merkmalen in jedem Bild der Vielzahl von Bildern und globalen Koordinaten für entsprechende Merkmale auf dem Kalibrierungsziel, basierend auf den vorgegebenen globalen Koordinaten der einen oder mehreren Referenzmarkierungen; und Ermitteln von Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen, basierend auf der Übereinstimmung.In another aspect, a system for calibrating one or more imaging devices is provided. The system comprises: one or more imaging devices each configured to capture a plurality of images of a calibration target, the calibration target having a plurality of features arranged in a repeating pattern and one or more reference marks, the one or a plurality of reference marks are each uniquely identifiable in each image of the plurality of images, and wherein the plurality of images comprises at least one image that takes up less than all of the plurality of features; and one or more processors collectively or individually configured to: receive the plurality of images from each of the one or more imaging devices; Determining a spatial relationship between the one or more reference marks in each image of the plurality of images and the one or more reference marks on the calibration target; Formulating a correspondence between image coordinates of features in each image of the plurality of images and global coordinates for corresponding features on the calibration target based on the predetermined global coordinates of the one or more reference marks; and determining calibration parameters for the one or more imaging devices based on the match.
In manchen Ausführungsformen werden die eine oder mehreren Abbildungsvorrichtungen von einem unbemannten Luftfahrzeug getragen.In some embodiments, the one or more imaging devices are carried on an unmanned aerial vehicle.
In manchen Ausführungsformen nimmt jedes Bild der Vielzahl von Bildern die eine oder mehreren Referenzmarkierungen und mindestens eine Teilmenge der Vielzahl von Merkmalen auf dem Kalibrierungsziel auf. Die Vielzahl von Bildern von jeder der einen oder mehreren Abbildungsvorrichtungen kann bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden.In some embodiments, each image of the plurality of images captures the one or more reference marks and at least a subset of the plurality of features on the calibration target. The plurality of images from each of the one or more imaging devices can be captured at different positions and orientations relative to the calibration target.
In manchen Ausführungsformen ist das Kalibrierungsziel ein Schachbrett, das eine Vielzahl von Quadraten aufweist und die Vielzahl von Merkmalen weist Eckpunkte der Vielzahl von Quadraten auf. Die eine oder mehreren Referenzmarkierungen können jeweils innerhalb eines der Vielzahl von Quadraten positioniert werden. Die Vielzahl von Merkmalen kann vier Außenecken des Schachbretts aufweisen und das mindestens eine Bild kann mindestens eine der vier Außenecken auslassen.In some embodiments, the calibration target is a checkerboard that has a plurality of squares, and the plurality of features includes vertices of the plurality of squares. The one or more reference markings can each be positioned within one of the plurality of squares. The plurality of features can include four outside corners of the chessboard and the at least one image can omit at least one of the four outside corners.
In manchen Ausführungsformen weisen die eine oder mehreren Referenzmarkierungen mindestens drei Referenzmarkierungen auf. Die eine oder mehreren Referenzmarkierungen können kreisförmige Punkte, Dreiecke oder Vierecke aufweisen. Die eine oder mehreren Referenzmarkierungen können über das sich wiederholende Muster gelegt werden. Die eine oder mehreren Referenzmarkierungen können Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden. Die eine oder mehreren Referenzmarkierungen können drei Referenzmarkierungen aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.In some embodiments, the one or more reference marks have at least three reference marks. The one or more reference markings can have circular points, triangles or squares. The one or more reference marks can be placed over the repeating pattern. The one or more reference marks may form vertices of an irregular polygon on the calibration target. The one or more Reference marks can have three reference marks that form vertices of an isosceles or unequal-sided triangle.
In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und der Schritt zum Ermitteln der räumlichen Beziehung umfasst ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet sein und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images, and the step of determining the spatial relationship includes identifying a correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the Calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more reference marks can form a shape that is rotationally asymmetrical within the plane.
In manchen Ausführungsformen weisen die eine oder mehreren Abbildungsvorrichtungen eine erste Kamera und eine zweite Kamera auf, die Bilder im Wesentlichen gleichzeitig aufnehmen. Der Formulierungsschritt kann ein Identifizieren von Merkmalen umfassen, die sowohl in einem Bild, das von der ersten Kamera erhalten wird, als auch einem entsprechenden Bild, das von der zweiten Kamera erhalten wird, vorhanden sind. Die Kalibrierungsparameter können mindestens eines von einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optischen Verzerrung für jede der einen oder mehreren Abbildungsvorrichtungen aufweisen. Die Kalibrierungsparameter können eine Position und eine Ausrichtung jeder der einen oder mehreren Abbildungsvorrichtungen relativ zu dem Kalibrierungsziel aufweisen.In some embodiments, the one or more imaging devices include a first camera and a second camera that capture images substantially simultaneously. The formulating step may include identifying features that are present in both an image obtained from the first camera and a corresponding image obtained from the second camera. The calibration parameters may include at least one of a focal length, a position of the image center point, pixel size, or optical distortion for each of the one or more imaging devices. The calibration parameters may include a position and orientation of each of the one or more imaging devices relative to the calibration target.
In einem anderen Aspekt wird ein Verfahren zum Erzeugen von Tiefenkarten unter Verwendung einer oder mehrerer Abbildungsvorrichtungen bereitgestellt. Das Verfahren umfasst: Erhalten eines oder mehrerer Bilder von jeder der einen oder mehreren Abbildungsvorrichtungen; und Verarbeiten, mit Hilfe eines oder mehrerer Prozessoren, des einen oder der mehreren Bilder von jeder der einen oder mehreren Abbildungsvorrichtungen, basierend auf Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen, um eine dreidimensionale Tiefenkarte zu erzeugen, wobei die Kalibrierungsparameter unter Verwendung einer Vielzahl von Kalibrierungsbildern eines Kalibrierungsziels von jeder der einen oder mehreren Abbildungsvorrichtungen ermittelt werden, wobei das Kalibrierungsziel eine Vielzahl von Merkmalen, die in einem sich wiederholenden Muster eingerichtet sind, und eine oder mehrere Referenzmarkierungen aufweist, wobei die eine oder mehreren Referenzmarkierungen jeweils eindeutig innerhalb jedes Kalibrierungsbilds der Vielzahl von Kalibrierungsbildern identifizierbar sind, und wobei die Vielzahl von Kalibrierungsbildern mindestens ein Kalibrierungsbild umfasst, das weniger als alle der Vielzahl von Merkmalen aufnimmt.In another aspect, a method for generating depth maps using one or more imaging devices is provided. The method includes: obtaining one or more images from each of the one or more imaging devices; and processing, using one or more processors, the one or more images from each of the one or more imaging devices based on calibration parameters for the one or more imaging devices to generate a three-dimensional depth map, the calibration parameters using a plurality of calibration images of a calibration target can be determined by each of the one or more imaging devices, the calibration target having a plurality of features arranged in a repeating pattern and one or more reference marks, the one or more reference marks each being uniquely within each calibration image of the plurality of Calibration images are identifiable, and wherein the plurality of calibration images includes at least one calibration image that captures less than all of the plurality of features.
In manchen Ausführungsformen werden die eine oder mehreren Abbildungsvorrichtungen von einem unbemannten Luftfahrzeug getragen. Die Tiefenkarte kann Informationen aufweisen, die Abstände eines oder mehrerer Objekte von dem unbemannten Luftfahrzeug angeben.In some embodiments, the one or more imaging devices are carried on an unmanned aerial vehicle. The depth map can have information indicating the distances of one or more objects from the unmanned aerial vehicle.
In manchen Ausführungsformen nimmt jedes Kalibrierungsbild der Vielzahl von Kalibrierungen die eine oder mehreren Referenzmarkierungen und mindestens eine Teilmenge der Vielzahl von Merkmalen auf dem Kalibrierungsziel auf. Die Vielzahl von Kalibrierungsbildern von jeder der Abbildungsvorrichtungen kann bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden.In some embodiments, each calibration image of the plurality of calibrations includes the one or more reference marks and at least a subset of the plurality of features on the calibration target. The plurality of calibration images from each of the imaging devices can be captured at different positions and orientations relative to the calibration target.
In manchen Ausführungsformen ist das Kalibrierungsziel ein Schachbrett, das eine Vielzahl von Quadraten aufweist und die Vielzahl von Merkmalen weist Eckpunkte der Vielzahl von Quadraten auf. Die eine oder mehreren Referenzmarkierungen können jeweils innerhalb eines der Vielzahl von Quadraten positioniert werden. Die Vielzahl von Merkmalen kann vier Außenecken des Schachbretts aufweisen und das mindestens eine Kalibrierungsbild kann mindestens eine der vier Außenecken auslassen.In some embodiments, the calibration target is a checkerboard that has a plurality of squares, and the plurality of features includes vertices of the plurality of squares. The one or more reference markings can each be positioned within one of the plurality of squares. The plurality of features can include four outside corners of the chessboard and the at least one calibration image can omit at least one of the four outside corners.
In manchen Ausführungsformen weisen die eine oder mehreren Referenzmarkierungen mindestens drei Referenzmarkierungen auf. Die eine oder mehreren Referenzmarkierungen können kreisförmige Punkte, Dreiecke oder Vierecke aufweisen. Die eine oder mehreren Referenzmarkierungen können über das sich wiederholende Muster gelegt werden. Die eine oder mehreren Referenzmarkierungen können Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden. Die eine oder mehreren Referenzmarkierungen können drei Referenzmarkierungen aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.In some embodiments, the one or more reference marks have at least three reference marks. The one or more reference markings can have circular points, triangles or squares. The one or more reference marks can be placed over the repeating pattern. The one or more reference marks may form vertices of an irregular polygon on the calibration target. The one or more reference markings can have three reference markings which form vertices of an isosceles or non-equilateral triangle.
In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und die Kalibrierungsparameter werden durch mindestens ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Kalibrierungsbildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel ermittelt. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet werden und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images and the calibration parameters are determined by at least one identifying a match between the vertices of the irregular polygon in the plurality of calibration images and the vertices of the irregular polygon determined by the calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more fiducial marks can form a shape that is rotationally asymmetrical within the plane.
In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und der Schritt zum Ermitteln der räumlichen Beziehung umfasst ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet sein und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images, and the step of determining the spatial relationship includes identifying a correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the Calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more reference marks can form a shape that is rotationally asymmetrical within the plane.
In manchen Ausführungsformen weisen die eine oder mehreren Abbildungsvorrichtungen eine erste Kamera und eine zweite Kamera auf, die Bilder im Wesentlichen gleichzeitig aufnehmen. Verarbeiten des einen oder der mehreren Bilder kann ein Identifizieren von Merkmalen umfassen, die sowohl in einem Bild, das von der ersten Kamera erhalten wird, als auch einem entsprechenden Bild, das von der zweiten Kamera erhalten wird, vorhanden sind. Verarbeiten des einen oder der mehreren Bilder kann ein Ermitteln eines Unterschieds zwischen einem Bild, das von der ersten Kamera aufgenommen wird, und einem entsprechenden Bild, das von der zweiten Kamera aufgenommen wird, umfassen. Die Kalibrierungsparameter können mindestens eines von einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optischen Verzerrung für jede der einen oder mehreren Abbildungsvorrichtungen aufweisen. Die Kalibrierungsparameter können eine Position und eine Ausrichtung jeder der einen oder mehreren Abbildungsvorrichtungen relativ zu dem Kalibrierungsziel aufweisen. Verarbeiten des einen oder der mehreren Bilder kann ein Reduzieren optischer Verzerrung in mindestens einem des einen oder der mehreren Bilder umfassen.In some embodiments, the one or more imaging devices include a first camera and a second camera that capture images substantially simultaneously. Processing the one or more images may include identifying features present in both an image obtained from the first camera and a corresponding image obtained from the second camera. Processing the one or more images may include determining a difference between an image captured by the first camera and a corresponding image captured by the second camera. The calibration parameters may include at least one of a focal length, a position of the image center point, pixel size, or optical distortion for each of the one or more imaging devices. The calibration parameters may include a position and orientation of each of the one or more imaging devices relative to the calibration target. Processing the one or more images may include reducing optical distortion in at least one of the one or more images.
In einem anderen Aspekt wird ein System zum Erzeugen von Tiefenkarten unter Verwendung einer oder mehrerer Abbildungsvorrichtungen bereitgestellt. Das System kann aufweisen: eine oder mehrere Abbildungsvorrichtungen, die jeweils konfiguriert sind, Bilder zu erhalten; und einen oder mehrere Prozessoren, die gemeinsam oder individuell konfiguriert sind zum: Erhalten, von jeder der einen oder mehreren Abbildungsvorrichtungen, eines oder mehrerer Bilder; und Verarbeiten des einen oder der mehreren Bilder von jeder der einen oder mehreren Abbildungsvorrichtungen, basierend auf Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen, um eine dreidimensionale Tiefenkarte zu erzeugen, wobei die Kalibrierungsparameter unter Verwendung einer Vielzahl von Kalibrierungsbildern eines Kalibrierungsziels von jeder der einen oder mehreren Abbildungsvorrichtungen ermittelt werden, wobei das Kalibrierungsziel eine Vielzahl von Merkmalen, die in einem sich wiederholenden Muster eingerichtet sind, und eine oder mehrere Referenzmarkierungen aufweist, wobei die eine oder mehreren Referenzmarkierungen jeweils eindeutig innerhalb jedes Kalibrierungsbilds der Vielzahl von Kalibrierungsbildern identifizierbar sind und wobei die Vielzahl von Kalibrierungsbildern mindestens ein Kalibrierungsbild umfasst, das weniger als alle der Vielzahl von Merkmalen aufnimmt.In another aspect, a system for generating depth maps using one or more imaging devices is provided. The system may include: one or more imaging devices each configured to obtain images; and one or more processors collectively or individually configured to: obtain, from each of the one or more imaging devices, one or more images; and processing the one or more images from each of the one or more imaging devices based on calibration parameters for the one or more imaging devices to generate a three-dimensional depth map, the calibration parameters using a plurality of calibration images of a calibration target from each of the one or more Imaging devices are determined, wherein the calibration target has a plurality of features that are set up in a repetitive pattern, and one or more reference marks, wherein the one or more reference marks are each uniquely identifiable within each calibration image of the plurality of calibration images and wherein the plurality of Calibration images comprises at least one calibration image that captures less than all of the plurality of features.
In manchen Ausführungsformen werden die eine oder mehreren Abbildungsvorrichtungen von einem unbemannten Luftfahrzeug getragen. Die Tiefenkarte kann Informationen aufweisen, die Abstände eines oder mehrerer Objekte von dem unbemannten Luftfahrzeug angeben.In some embodiments, the one or more imaging devices are carried on an unmanned aerial vehicle. The depth map can have information indicating the distances of one or more objects from the unmanned aerial vehicle.
In manchen Ausführungsformen nimmt jedes Kalibrierungsbild der Vielzahl von Kalibrierungen die eine oder mehreren Referenzmarkierungen und mindestens eine Teilmenge der Vielzahl von Merkmalen auf dem Kalibrierungsziel auf. Die Vielzahl von Kalibrierungsbildern von jeder der Abbildungsvorrichtungen kann bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden.In some embodiments, each calibration image of the plurality of calibrations includes the one or more reference marks and at least a subset of the plurality of features on the calibration target. The plurality of calibration images from each of the imaging devices can be captured at different positions and orientations relative to the calibration target.
In manchen Ausführungsformen ist das Kalibrierungsziel ein Schachbrett, das eine Vielzahl von Quadraten aufweist und die Vielzahl von Merkmalen weist Eckpunkte der Vielzahl von Quadraten auf. Die eine oder mehreren Referenzmarkierungen können jeweils innerhalb einer der Vielzahl von Quadraten positioniert werden. Die Vielzahl von Merkmalen kann vier Außenecken des Schachbretts aufweisen und das mindestens eine Kalibrierungsbild kann mindestens eine der vier Außenecken auslassen.In some embodiments, the calibration target is a checkerboard that has a plurality of squares, and the plurality of features includes vertices of the plurality of squares. The one or more reference marks can each be positioned within one of the plurality of squares. The plurality of features can include four outside corners of the chessboard and the at least one calibration image can omit at least one of the four outside corners.
In manchen Ausführungsformen weisen die eine oder mehreren Referenzmarkierungen mindestens drei Referenzmarkierungen auf. Die eine oder mehreren Referenzmarkierungen können kreisförmige Punkte, Dreiecke oder Vierecke aufweisen. Die eine oder mehreren Referenzmarkierungen können über das sich wiederholende Muster gelegt werden. Die eine oder mehreren Referenzmarkierungen können Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden. Die eine oder mehreren Referenzmarkierungen können drei Referenzmarkierungen aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.In some embodiments, the one or more reference marks have at least three reference marks. The one or more reference markings can have circular points, triangles or squares. The one or more reference marks can be placed over the repeating pattern. The one or more reference marks may form vertices of an irregular polygon on the calibration target. The one or more Reference marks can have three reference marks that form vertices of an isosceles or unequal-sided triangle.
In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und die Kalibrierungsparameter werden durch mindestens ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Kalibrierungsbildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel ermittelt. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet werden und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images and the calibration parameters are determined by at least one identifying a match between the vertices of the irregular polygon in the plurality of calibration images and the vertices of the irregular polygon on the calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more fiducial marks can form a shape that is rotationally asymmetrical within the plane.
In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und der Schritt zum Ermitteln der räumlichen Beziehung umfasst ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet sein und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images, and the step of determining the spatial relationship includes identifying a correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the Calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more reference marks can form a shape that is rotationally asymmetrical within the plane.
In manchen Ausführungsformen weisen die eine oder mehreren Abbildungsvorrichtungen eine erste Kamera und eine zweite Kamera auf, die Bilder im Wesentlichen gleichzeitig aufnehmen. Verarbeiten des einen oder der mehreren Bilder kann ein Identifizieren von Merkmalen umfassen, die sowohl in einem Bild, das von der ersten Kamera erhalten wird, als auch einem entsprechenden Bild, das von der zweiten Kamera erhalten wird, vorhanden sind. Verarbeiten des einen oder der mehreren Bilder kann ein Ermitteln eines Unterschieds zwischen einem Bild, das von der ersten Kamera aufgenommen wird, und einem entsprechenden Bild, das von der zweiten Kamera aufgenommen wird, umfassen. Die Kalibrierungsparameter können mindestens eines von einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optischen Verzerrung für jede der einen oder mehreren Abbildungsvorrichtungen aufweisen. Die Kalibrierungsparameter können eine Position und eine Ausrichtung jeder der einen oder mehreren Abbildungsvorrichtungen relativ zu dem Kalibrierungsziel aufweisen. Verarbeiten des einen oder der mehreren Bilder kann ein Reduzieren optischer Verzerrung in mindestens einem des einen oder der mehreren Bilder umfassen.In some embodiments, the one or more imaging devices include a first camera and a second camera that capture images substantially simultaneously. Processing the one or more images may include identifying features present in both an image obtained from the first camera and a corresponding image obtained from the second camera. Processing the one or more images may include determining a difference between an image captured by the first camera and a corresponding image captured by the second camera. The calibration parameters may include at least one of a focal length, a position of the image center point, pixel size, or optical distortion for each of the one or more imaging devices. The calibration parameters may include a position and orientation of each of the one or more imaging devices relative to the calibration target. Processing the one or more images may include reducing optical distortion in at least one of the one or more images.
Es sollte verstanden werden, dass unterschiedliche Aspekte der Erfindung individuell, gemeinsam oder in Kombination miteinander umgesetzt werden können. Verschiedene Aspekte der hierin beschriebenen Erfindung können an einer beliebigen der bestimmten Anwendungen, die unten vorgebracht werden, oder für beliebige andere Typen beweglicher Objekte angewendet werden. Jegliche Beschreibung hierin eines Luftfahrzeugs kann auf jegliches bewegliches Objekt, wie ein beliebiges Fahrzeug, angewendet werden und dafür verwendet werden. Zusätzlich können die hierin offenbarten Systeme, Vorrichtungen und Verfahren in dem Kontext von Luftbewegung (z.B. Flug) auch in dem Kontext anderer Bewegungstypen, wie Bewegung am Boden oder auf Wasser, Unterwasserbewegung oder Bewegung im Weltraum angewendet werden. Darüber hinaus kann jegliche Beschreibung eines Rotors oder einer Rotorbaugruppe hierin auf jegliches Antriebssystem, jegliche Antriebsvorrichtung oder jeglichen Antriebsmechanismus angewendet und dafür verwendet werden, um eine Antriebskraft durch Drehung (z.B. Propeller, Räder, Achsen) zu erzeugen.It should be understood that different aspects of the invention can be implemented individually, collectively, or in combination with one another. Various aspects of the invention described herein can be applied to any of the specific applications set forth below or to any other types of moving objects. Any description herein of an aircraft can be applied to and used for any moving object, such as any vehicle. In addition, the systems, devices and methods disclosed herein can also be applied in the context of air movement (e.g. flight) in the context of other types of movement, such as movement on the ground or on water, underwater movement or movement in space. Moreover, any description of a rotor or rotor assembly herein can be applied to any drive system, drive device, or drive mechanism and used to generate a drive force by rotation (e.g., propellers, wheels, axles).
Andere Ziele und Merkmale der vorliegenden Erfindung werden bei einer Durchsicht der Beschreibung, Ansprüche und angehängten Figuren ersichtlich.Other objects and features of the present invention will become apparent upon a review of the specification, claims and appended figures.
AUFNAHME DURCH BEZUGNAHMERECORDING BY REFERENCE
Alle Veröffentlichungen, Patente und Patentanmeldungen, die in dieser Anmeldung erwähnt werden, sind durch Bezugnahme in demselben Ausmaß hierin aufgenommen, als ob jede(s) individuelle Veröffentlichung, Patent oder Patentanmeldung spezifisch und individuell angegeben wurde, durch Bezugnahme hierin aufgenommen zu sein.All publications, patents, and patent applications mentioned in this application are incorporated herein by reference to the same extent as if each individual publication, patent, or patent application was specifically and individually indicated to be incorporated herein by reference.
FigurenlisteFigure list
Die neuartigen Merkmale der Erfindung werden in ihren wesentlichen Grundzügen in den angehängten Ansprüchen dargelegt. Ein besseres Verständnis der Merkmale und Vorteile der vorliegenden Erfindung wird durch Bezugnahme auf die folgende ausführliche Beschreibung, die veranschaulichende Ausführungsformen, in denen die Prinzipien der Erfindungen genutzt werden, darlegt, und die begleitenden Zeichnungen erhalten, von denen:
-
1 ein Modell einer monokularen Kamera in Übereinstimmung mit Ausführungsformen veranschaulicht; -
2 ein Modell einer Zuordnung von einem Weltkoordinatensystem zu einem Bildkoordinatensystem in Übereinstimmung mit Ausführungsformen veranschaulicht; -
3 ein Modell einer Zuordnung von einem Weltkoordinatensystem zu einem Bildkoordinatensystem in Übereinstimmung mit Ausführungsformen veranschaulicht; -
4 ein Kalibrierungsziel, das zur Verwendung bei Abbildungsvorrichtungskalibrierung geeignet ist, in Übereinstimmung mit Ausführungsformen veranschaulicht; -
5 Bilder eines Schachbrettkalibrierungsziels in Übereinstimmung mit Ausführungsformen veranschaulicht; -
6 und7 Referenzmarkierungen, die basierend auf relativer Positionierung eindeutig identifizierbar sind, in Übereinstimmung mit Ausführungsformen veranschaulichen; -
8 ein Kalibrierungsziel, das Referenzmarkierungen aufweist, in Übereinstimmung mit Ausführungsformen veranschaulicht; -
9 ein Verfahren zum Kalibrieren einer oder mehrerer Abbildungsvorrichtungen unter Verwendung eines Kalibrierungsziels mit einer oder mehreren Referenzmarkierungen in Übereinstimmung mit Ausführungsformen veranschaulicht; -
10 bis13 eine Identifikation von Merkmalen und Referenzmarkierungen eines Kalibrierungsziels in einem Bild in Übereinstimmung mit Ausführungsformen veranschaulichen; -
14 ein Modell räumlicher Beziehungen zwischen Koordinatensystemen bei binokularer Kamerakalibrierung in Übereinstimmung mit Ausführungsformen veranschaulicht; -
15 ein Modell einer Zuordnung zwischen verzerrten Bildkoordinaten und unverzerrten Bildkoordinaten in Übereinstimmung mit Ausführungsformen veranschaulicht; -
16 und17 eine Bildrektifizierungsprozedur für ein binokulares Kamerasystem in Übereinstimmung mit Ausführungsformen veranschaulichen; -
18 binokulare Kamerabilder nach einem Verarbeiten zum Durchführen von Bildrektifizierung in Übereinstimmung mit Ausführungsformen veranschaulicht; -
19 ein Verfahren zum Erzeugen von Tiefenkarten aus Bilddaten in Übereinstimmung mit Ausführungsformen veranschaulicht; -
20 ein UAV in Übereinstimmung mit Ausführungsformen veranschaulicht; -
21 ein bewegliches Objekt, das einen Träger und eine Traglast aufweist, in Übereinstimmung mit Ausführungsformen veranschaulicht; und -
22 ein System zum Steuern eines beweglichen Objekts in Übereinstimmung mit Ausführungsformen veranschaulicht.
-
1 illustrates a model of a monocular camera in accordance with embodiments; -
2 illustrates a model of mapping from a world coordinate system to an image coordinate system in accordance with embodiments; -
3 illustrates a model of mapping from a world coordinate system to an image coordinate system in accordance with embodiments; -
4th illustrates a calibration target suitable for use in imaging device calibration, in accordance with embodiments; -
5 Illustrates images of a checkerboard calibration target in accordance with embodiments; -
6th and7th Illustrate fiducial marks that are uniquely identifiable based on relative positioning in accordance with embodiments; -
8th illustrates a calibration target having fiducial marks in accordance with embodiments; -
9 Illustrates a method of calibrating one or more imaging devices using a calibration target with one or more fiducial marks, in accordance with embodiments; -
10 until13th illustrate identification of features and fiducial marks of a calibration target in an image in accordance with embodiments; -
14th illustrates a model of spatial relationships between coordinate systems with binocular camera calibration in accordance with embodiments; -
15th illustrates a model of an association between distorted image coordinates and undistorted image coordinates in accordance with embodiments; -
16 and17th illustrate an image rectification procedure for a binocular camera system in accordance with embodiments; -
18th illustrates binocular camera images after processing to perform image rectification in accordance with embodiments; -
19th Illustrates a method for generating depth maps from image data in accordance with embodiments; -
20th Illustrates a UAV in accordance with embodiments; -
21 FIG. 11 illustrates a moving object including a carrier and a load in accordance with embodiments; FIG. and -
22nd illustrates a system for controlling a moving object in accordance with embodiments.
AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION
Die vorliegende Offenbarung stellt verbesserte Systeme, Verfahren und Vorrichtungen zum Durchführen von Kalibrierung von Abbildungsvorrichtungen, wie Kameras, bereit. Die hierin beschriebenen Ansätze können involvieren, eine oder mehrere Abbildungsvorrichtungen zu verwenden, um eine Vielzahl von Bildern eines Kalibrierungsziels zu erhalten. Das Kalibrierungsziel kann eine Vielzahl von Merkmalen und eine oder mehrere Referenzmarkierungen aufweisen. Die eine oder mehreren Referenzmarkierungen können eindeutig identifizierbar sein, um eine Ermittlung der Übereinstimmung zwischen Bildkoordinaten der Merkmale in den Bildern und Weltkoordinaten der Merkmale auf dem Kalibrierungsziel zu erleichtern, selbst wenn manche der Bilder nicht alle der Merkmale des Kalibrierungsziels aufnehmen. Dieser Ansatz kann vorteilhaft dafür sein, akkurate und zuverlässige Kalibrierung selbst in Situationen bereitzustellen, wenn es für jede der Abbildungsvorrichtungen schwierig ist, Bilddaten von der Gesamtheit des Kalibrierungsziels zu erhalten, z.B. wenn mehrere Abbildungsvorrichtungen gleichzeitig kalibriert werden. Zusätzlich erlauben solche Ansätze die Verwendung größerer Kalibrierungsziele, was die Genauigkeit der resultierenden Kalibrierungsparameter verbessern kann.The present disclosure provides improved systems, methods, and apparatus for performing calibration of imaging devices such as cameras. The approaches described herein may involve using one or more imaging devices to obtain a plurality of images of a calibration target. The calibration target can have a plurality of features and one or more reference marks. The one or more reference marks can be uniquely identifiable to facilitate a determination of the correspondence between image coordinates of the features in the images and world coordinates of the features on the calibration target, even if some of the images do not capture all of the features of the calibration target. This approach can be advantageous in providing accurate and reliable calibration even in situations where it is difficult for each of the imaging devices to obtain image data from the entirety of the calibration target, e.g., when multiple imaging devices are being calibrated at the same time. In addition, such approaches allow the use of larger calibration targets, which can improve the accuracy of the resulting calibration parameters.
Die hierin beschriebenen Techniken können zur Verwendung einer weiten Vielfalt von Anwendungen implementiert werden, die Abbildung und Abbildungsdaten involvieren, wie sichtbasierte Navigation unter Verwendung einer oder mehrerer Abbildungsvorrichtungen, die von einem beweglichen Objekt getragen werden. Als ein Beispiel können die Systeme, Verfahren und Vorrichtungen der vorliegenden Offenbarung verwendet werden, um eine oder mehrere Kameras zu kalibrieren, die von einem unbemannten Luftfahrzeug (UAV) getragen werden. Jede der einen oder mehreren Kameras kann verwendet werden, um eine Vielzahl von Bildern eines Schachbrettkalibrierungsziels aufzunehmen, das mindestens drei kreisförmige Referenzmarkierungen auf die Quadrate des Schachbretts überlagert aufweist. Die Referenzmarkierungen können eindeutig in den Bildern identifizierbar sein, um die Ermittlung der Weltkoordinaten der Eckpunkte des Schachbretts entsprechend den Eckpunkten, die in den Bilddaten aufgenommen werden, zu erleichtern. Diese Übereinstimmungsinformationen können verwendet werden, um Kalibrierungsparameter für die UAV-Kameras zu ermitteln. Nachfolgende Bilddaten, die von den Kameras aufgenommen werden, können basierend auf den Kalibrierungsparametern verarbeitet werden, z.B. um dreidimensionale (3D) Tiefenkarten der umliegenden Umgebung und/oder von Objekten innerhalb der Umgebung zu erzeugen.The techniques described herein can be implemented using a wide variety of applications involving imaging and imaging data, such as vision-based navigation using one or more imaging devices carried by a moving object. As an example, the systems, methods, and apparatus of the present disclosure can be used to calibrate one or more cameras carried by an unmanned aerial vehicle (UAV). Each of the one or more cameras can be used to capture a plurality of images of a checkerboard calibration target having at least three circular fiducial marks superimposed on the squares of the checkerboard. The reference markings can be clearly identifiable in the images in order to facilitate the determination of the world coordinates of the corner points of the chessboard corresponding to the corner points that are recorded in the image data. This compliance information can be used to determine calibration parameters for the UAV cameras. Subsequent image data recorded by the cameras can be processed based on the calibration parameters, for example in order to generate three-dimensional (3D) depth maps of the surrounding environment and / or of objects within the environment.
Die hierin beschriebenen Techniken können verwendet werden, um eine oder mehrere Abbildungsvorrichtungen (z.B. Kameras, Scanner usw.) zu kalibrieren. Eine Abbildungsvorrichtung, die hierin auch als ein „Sichtsensor“ bezeichnet werden kann, kann konfiguriert sein, elektromagnetische Strahlung (z.B. sichtbares, infrarotes und/oder ultraviolettes Licht) zu erfassen und Bilddaten basierend auf der erfassten elektromagnetischen Strahlung zu erzeugen. Zum Beispiel kann eine Abbildungsvorrichtung einen ladungsgekoppelten Vorrichtungssensor (CCD-Sensor) oder einen komplementären Metalloxidhalbleitersensor (CMOS-Sensor) aufweisen, der elektrische Signale in Antwort auf Wellenlängen von Licht erzeugt. Die resultierenden elektrischen Signale können verarbeitet werden, um Bilddaten zu erstellen. Die von einer Abbildungsvorrichtung erzeugten Bilddaten können ein oder mehrere Bilder aufweisen, die statische Bilder (z.B. Fotografien), dynamische Bilder (z.B. Video) oder geeignete Kombinationen davon sein können. Die Bilddaten können polychrom (z.B. RGB, CMYK, HSV) oder monochrom (z.B. Grauskala, Schwarz- und-Weiß, Sepia) sein.The techniques described herein can be used to calibrate one or more imaging devices (e.g., cameras, scanners, etc.). An imaging device, which may also be referred to herein as a "vision sensor", may be configured to detect electromagnetic radiation (e.g., visible, infrared, and / or ultraviolet light) and generate image data based on the detected electromagnetic radiation. For example, an imaging device may include a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor that generates electrical signals in response to wavelengths of light. The resulting electrical signals can be processed to create image data. The image data generated by an imaging device can include one or more images, which can be static images (e.g. photographs), dynamic images (e.g. video), or any suitable combination thereof. The image data can be polychrome (e.g. RGB, CMYK, HSV) or monochrome (e.g. gray scale, black and white, sepia).
Die Abbildungsvorrichtungen der vorliegenden Offenbarung können von verschiedenen Objekttypen getragen werden, wie von einem oder mehreren der hierin beschriebenen beweglichen Objekte. Eine Abbildungsvorrichtung kann an einem beliebigen geeigneten Abschnitt des Objekts liegen, wie oberhalb, unterhalb, an der/den Seite(n) von oder innerhalb des Objekts. Manche Abbildungsvorrichtungen können mechanisch mit dem Objekt gekoppelt sein, sodass die räumliche Anordnung und/oder Bewegung des Objekts der räumlichen Anordnung und/oder Bewegung der Abbildungsvorrichtungen entsprechen. Die Abbildungsvorrichtung kann über eine starre Kopplung mit dem Objekt gekoppelt sein, sodass die Abbildungsvorrichtung sich nicht relativ zu dem Abschnitt des Objekts bewegt, an dem sie befestigt ist. Alternativ kann die Kopplung zwischen der Abbildungsvorrichtung und dem Objekt Bewegung der Abbildungsvorrichtung relativ zu dem Objekt erlauben. Die Kopplung kann eine permanente Kopplung oder nichtpermanente (z.B. lösbare) Kopplung sein. Geeignete Kopplungsverfahren können Kleber, Bonding, Schweißen und/oder Befestigungsmittel (z.B. Schrauben, Nägel, Stifte usw.) umfassen. Optional kann die Abbildungsvorrichtung ganzheitlich mit einem Abschnitt des Objekts gebildet sein. Darüber hinaus kann die Abbildungsvorrichtung elektrisch mit einem Abschnitt des Objekts (z.B. Verarbeitungseinheit, Steuerungssystem, Datenspeicher) gekoppelt sein, um zu ermöglichen, dass die Daten, die von der Abbildungsvorrichtung gesammelt werden, für verschiedene Funktionen des Objekts (z.B. Navigation, Steuerung, Antrieb, Kommunikation mit einem Anwender oder einer anderen Vorrichtung usw.), wie den hierin besprochenen Ausführungsformen, verwendet werden können.The imaging devices of the present disclosure can be carried by various types of objects, such as one or more of the movable objects described herein. An imaging device can be on any suitable portion of the object, such as above, below, on the side (s) of or within the object. Some imaging devices can be mechanically coupled to the object, so that the spatial arrangement and / or movement of the object correspond to the spatial arrangement and / or movement of the imaging devices. The imaging device can be coupled to the object via a rigid coupling so that the imaging device does not move relative to the portion of the object to which it is attached. Alternatively, the coupling between the imaging device and the object may allow movement of the imaging device relative to the object. The coupling can be a permanent coupling or a non-permanent (e.g. releasable) coupling. Suitable methods of coupling may include glue, bonding, welding, and / or fasteners (e.g. screws, nails, pins, etc.). Optionally, the imaging device can be formed integrally with a section of the object. In addition, the imaging device can be electrically coupled to a section of the object (e.g. processing unit, control system, data memory) in order to enable the data collected by the imaging device to be used for various functions of the object (e.g. navigation, control, drive, Communication with a user or other device, etc.), such as the embodiments discussed herein, may be used.
In manchen Ausführungsformen werden die Abbildungsvorrichtungen von einem UAV getragen. Zum Beispiel kann das UAV ein kleinformatiges UAV sein (z.B. wiegt nicht mehr als 10 kg, weist eine maximale Abmessung von nicht mehr als 1,5 m auf). Das UAV kann ein Rotorflugzeug sein, wie ein Multirotorflugzeug, das von einer Vielzahl von Propellern angetrieben wird, um sich durch die Luft zu bewegen (z.B. ein Quadrocopter). Die hierin beschriebenen UAVs können vollständig autonom (z.B. durch ein geeignetes Rechensystem, wie eine eingebaute Steuerung), semiautonom oder manuell (z.B. durch einen menschlichen Benutzer) betrieben werden. Das UAV kann Befehle von einer geeigneten Instanz (z.B. menschlicher Anwender oder autonomes Steuerungssystem) empfangen und auf solche Befehle antworten, indem es eine oder mehrere Handlungen durchführt. Zum Beispiel kann das UAV gesteuert werden, vom Boden abzuheben, sich in der Luft zu bewegen (z.B. mit bis zu drei Freiheitsgraden bei Translation und bis zu drei Freiheitsgraden bei Rotation), sich zur Zielstelle oder zu einer Abfolge von Zielstellen zu bewegen, in der Luft zu schweben, am Boden zu landen und so weiter. Als ein anderes Beispiel kann das UAV gesteuert werden, sich bei einer bestimmten Geschwindigkeit und/oder Beschleunigung (z.B. mit bis zu drei Freiheitsgraden in Translation und bis zu drei Freiheitsgraden in Rotation) oder entlang eines bestimmten Bewegungspfads zu bewegen. Darüber hinaus können die Befehle verwendet werden, eine oder mehrere UAV-Komponenten zu steuern, wie die hierin beschriebenen Komponenten (z.B. Sensoren, Aktoren, Antriebseinheiten, Nutzlast usw.) .In some embodiments, the imaging devices are carried by a UAV. For example, the UAV can be a small format UAV (e.g. weighs no more than 10 kg, has a maximum dimension of no more than 1.5 m). The UAV may be a rotorcraft, such as a multi-rotor aircraft that is powered by a variety of propellers to move through the air (e.g., a quadrocopter). The UAVs described herein can be operated completely autonomously (for example by a suitable computing system such as a built-in controller), semiautonomously or manually (for example by a human user). The UAV can receive commands from a suitable entity (e.g. human user or autonomous control system) and respond to such commands by performing one or more actions. For example, the UAV can be controlled to take off from the ground, move in the air (e.g. with up to three degrees of freedom for translation and up to three degrees of freedom for rotation), to move to the target location or to a sequence of target locations in which Floating in the air, landing on the ground and so on. As another example, the UAV can be controlled to move at a particular speed and / or acceleration (e.g., with up to three degrees of freedom in translation and up to three degrees of freedom in rotation) or along a particular path of movement. In addition, the commands can be used to control one or more UAV components, such as the components described herein (e.g. sensors, actuators, propulsion units, payload, etc.).
In manchen Ausführungsformen kann die Abbildungsvorrichtung eine Kamera sein. Obwohl gewisse hierin bereitgestellte Ausführungsformen im Kontext von Kameras beschrieben werden, sollte verstanden werden, dass die vorliegende Offenbarung auf eine beliebige geeignete Abbildungsvorrichtung angewendet werden kann und jegliche Beschreibung hierin, die sich auf Kameras bezieht, auch auf andere Typen von Abbildungsvorrichtungen angewendet werden kann. Eine Kamera kann verwendet werden, um 2D-Bilder einer 3D-Szene (z.B. eine Umgebung, ein oder mehrere Objekte usw.) zu erzeugen. Die von der Kamera erzeugten Bilder können die Projektion der 3D-Szene auf eine 2D-Bildebene darstellen. Dementsprechend entspricht jeder Punkt in dem 2D-Bild einer räumlichen 3D-Koordinate in der Szene.In some embodiments, the imaging device can be a camera. While certain embodiments provided herein are described in the context of cameras, it should be understood that the present disclosure can be applied to any suitable imaging device, and any description herein relating to cameras can also be applied to other types of imaging devices. A camera can be used to generate 2D images of a 3D scene (e.g. an environment, one or more objects, etc.). The images generated by the camera can represent the projection of the 3D scene onto a 2D image plane. Accordingly, each point in the 2D image corresponds to a spatial 3D coordinate in the scene.
Das Bildebenenkoordinatensystem
Obwohl
In manchen Ausführungsformen kann es wünschenswert sein, 3D-Informationen einer Szene unter Verwendung von 2D-Bilddaten der Szene, die von einer oder mehreren Abbildungsvorrichtungen gesammelt werden, zu erhalten. Zum Beispiel können verschiedene Anwendungen involvieren, eine 3D-Rekonstruktion (z.B. ein 3D-Modell, wie eine Punktewolke, ein Besetzungsgitter, eine Tiefenkarte, Disparitätskarte usw.) einer Szene basierend auf einer Vielzahl von 2D-Bildern der Szene (z.B. Bilder, die bei einer Vielzahl von unterschiedlichen Positionen und Ausrichtungen gemacht werden) zu erzeugen. In Ausführungsformen, wo eine Vielzahl von Abbildungsvorrichtungen verwendet wird, kann die 3D-Rekonstruktion basierend auf Disparitäten zwischen Bilddaten, die von Abbildungsvorrichtungen erhalten werden, die bei unterschiedlichen Positionen und/oder Ausrichtungen liegen, erzeugt werden, wie unten detaillierter beschrieben wird. Alternativ oder in Kombination können 3D-Informationen auch aus Bilddaten wiederhergestellt werden, die von einer einzelnen Abbildungsvorrichtung erhalten werden, z.B. unter Verwendung von Struktur-von-Bewegung oder anderen geeigneten Techniken. Die resultierende 3D-Rekonstruktion kann verwendet werden, um unterschiedliche Typen quantitativer Informationen bezüglich der Szene zu ermitteln, z.B. räumliche Positionen von Objekten (z.B. Abstand von der Kamera, anderen Objekten), Objektabmessungen (z.B. Länge, Breite, Höhe). Diese Informationen können in einer weiten Vielfalt von Anwendungen nützlich sein, z.B. Computer Vision (computerbasiertes Sehen), Objekterkennung, Verfolgung, Haltungsschätzung, Eigenbewegungsermittlung usw. Zum Beispiel kann in dem Kontext von UAV-Betrieb Szenenrekonstruktion für Funktionalitäten wie Navigation, Hindernisvermeidung, Zuordnung, Zielverfolgung und dergleichen hilfreich sein.In some embodiments, it may be desirable to obtain 3D information of a scene using 2D image data of the scene collected from one or more imaging devices. For example, various applications may involve a 3D reconstruction (e.g. a 3D model such as a point cloud, an occupation grid, a depth map, disparity map, etc.) of a scene based on a plurality of 2D images of the scene (e.g. images captured at a variety of different positions and orientations). In embodiments where a plurality of imaging devices are used, the 3D reconstruction can be based on disparities between image data obtained from imaging devices located at different positions and / or orientations, as will be described in more detail below. Alternatively or in combination, 3D information can also be restored from image data obtained from a single imaging device, for example using structure-of-motion or other suitable techniques. The resulting 3D reconstruction can be used to determine different types of quantitative information regarding the scene, for example spatial positions of objects (e.g. distance from the camera, other objects), object dimensions (e.g. length, width, height). This information can be useful in a wide variety of applications, e.g. computer vision, object recognition, tracking, posture estimation, self-movement detection, etc. For example, in the context of UAV operations, scene reconstruction for functionalities such as navigation, obstacle avoidance, assignment, target tracking and the like can be helpful.
In manchen Ausführungsformen involvieren die hierin beschriebenen Szenenrekonstruktionstechniken, die Übereinstimmung zwischen den Bildkoordinaten in einem Bild einer Szene und den Weltkoordinaten (auch als globale Koordinaten bekannt) der tatsächlichen Szene zu ermitteln. Diese Übereinstimmung kann identifiziert werden, indem die Umwandlungen oder Zuordnungen zwischen zwei verschiedenen Koordinatensystemen, z.B. das Weltkoordinatensystem, Kamerakoordinatensystem und Bildkoordinatensystem, ermittelt werden. Die mathematischen Beziehungen, die diese Zuordnungen definieren, können basierend auf Modellen der Szene, Abbildungsvorrichtungen und Bildebene, z.B. ein Lochkameramodell, ermittelt werden.In some embodiments, the scene reconstruction techniques described herein involve determining the correspondence between the image coordinates in an image of a scene and the world coordinates (also known as global coordinates) of the actual scene. This correspondence can be identified by determining the conversions or assignments between two different coordinate systems, e.g. the world coordinate system, camera coordinate system and image coordinate system. The mathematical relationships that define these associations can be determined based on models of the scene, imaging devices and image plane, e.g., a pinhole camera model.
Das Weltkoordinatensystem kann sich auf das Kamerakoordinatensystem beziehen, durch die Gleichung
In Ausführungsformen wo die Kamera optische Linsenverzerrung (z.B. radiale Verzerrung, exzentrische Verzerrung, dünne Prismenverzerrung) aufweist, können die Bildebenenkoordinaten mit Verzerrung Xd, Yd aus den Bildebenenkoordinaten unter Verwendung von Techniken ermittelt werden, die Fachkundigen bekannt sind, wie aus der folgenden Verzerrungsgleichung:
Die Pixelkoordinaten können unter Verwendung der folgenden Beziehung erhalten werden:
Um Szenenwiederherstellung aus Bilddaten exakt durchzuführen, kann es vorteilhaft sein, einen oder mehrere Parameter der Abbildungsvorrichtungen zu ermitteln oder zu schätzen, die mit den hierin beschriebenen Zuordnungen verknüpft sind. Diese Parameter können extrinsische Parameter (die Rotationsmatrix R und der Translationsvektor T, die angeben, wie jede Abbildungsvorrichtung relativ zu dem Kalibrierungsziel positioniert und ausgerichtet ist) und intrinsische Parameter (die intrinsische Matrix M, die Informationen bezüglich der Brennweite, Position des Bildmittelpunkts, der Pixelgröße aufweist; optische Verzerrungsparameter k1, k2, k3, p1, p2, s1, s2) aufweisen. In Ausführungsformen, wo eine Vielzahl von Abbildungsvorrichtungen verwendet wird, können die extrinsischen Parameter auch die Rotationsmatrizen und Translationsvektoren zum Umwandeln zwischen den Kamerakoordinatensystemen der Abbildungsvorrichtungen enthalten, die angeben, wie die Abbildungsvorrichtungen relativ zueinander positioniert und ausgerichtet sind, wie unten detaillierter beschrieben wird. Der Prozess zum Erhalten der extrinsischen und/oder intrinsischen Parameter einer oder mehrerer Abbildungsvorrichtungen kann hierin als „Kamerakalibrierung“ bezeichnet sein.In order to accurately perform scene restoration from image data, it may be advantageous to determine or estimate one or more parameters of the imaging devices that are associated with the associations described herein. These parameters can be extrinsic parameters (the rotation matrix R and the translation vector T, which indicate how each imaging device is positioned and oriented relative to the calibration target) and intrinsic parameters (the intrinsic matrix M, the information regarding the focal length, position of the image center, the pixel size having optical distortion parameters k 1 , k 2 , k 3 , p 1 , p 2 , s 1 , s 2 ). In embodiments where a plurality of imaging devices are used, the extrinsic parameters may also include the rotation matrices and translation vectors for converting between the camera coordinate systems of the imaging devices that indicate how the imaging devices are positioned and oriented relative to one another, as will be described in more detail below. The process of obtaining the extrinsic and / or intrinsic parameters of one or more imaging devices may be referred to herein as "camera calibration".
Kamerakalibrierung kann insbesondere nützlich sein, wenn die Abbildungsvorrichtungen an einem beweglichen Objekt, wie ein UAV, montiert sind oder von diesem getragen werden. Der Betrieb solcher beweglichen Objekte kann Positions- und/oder Ausrichtungsänderungen der Abbildungsvorrichtungen, z.B. aufgrund von Schwingungen und anderen Bewegungen, die die Kalibrierungsparameter beeinflussen können, ändern. Kalibrierung von Abbildungsvorrichtungen, die von einem beweglichen Objekt getragen werden, können auftreten, während das bewegliche Objekt betrieben wird (Online-Kalibrierung) und/oder während das bewegliche Objekt nicht betrieben wird (Offline-Kalibrierung). Zum Beispiel kann Offline-Kalibrierung für Kameras die von einem UAV getragen werden, durchgeführt werden, wenn das UAV ausgeschaltet ist und/oder nicht fliegt, während Online-Kalibrierung durchgeführt werden kann, während das UAV eingeschaltet ist und/oder fliegt.Camera calibration can be particularly useful when the imaging devices are mounted on or carried by a moving object, such as a UAV. The operation of such moving objects can alter changes in the position and / or orientation of the imaging devices, for example due to vibrations and other movements that can affect the calibration parameters. Calibration of imaging devices carried by a moving object can occur while the moving object is operating (online calibration) and / or while the moving object is not operating (offline calibration). For example, offline calibration for cameras carried by a UAV can be performed when the UAV is powered off and / or not flying, while online calibration can be performed while the UAV is powered on and / or flying.
Kamerakalibrierung kann auf vielfältige Weisen durchgeführt werden. In manchen Ausführungsformen involviert der Kalibrierungsprozess Bilder einer Szene zu erhalten, die eine Vielzahl von Merkmalen aufweisen, dann Übereinstimmungen zwischen Bildkoordinaten der Merkmale in den Bildern und den Weltkoordinaten der entsprechenden Merkmale in der Szene zu identifizieren. Die Kalibrierungsparameter können dann basierend auf den identifizierten Übereinstimmungen und der Zuordnung zwischen den Welt- und Bildkoordinatensystemen (z.B. basierend auf den hierin beschriebenen Zuordnungsmodellen) geschätzt werden. Zum Beispiel kann monokulare Kalibrierung (Ermitteln der Parameter einer einzelnen Kamera) involvieren, eine Schätzung der Kalibrierungsparameter (z.B. R, T, M) basierend auf einem Lochkameramodell zu erzeugen, dann den Verzerrungseffekt (z.B. Anfangswerte von Verzerrungsparametern werden mit 0 angenommen) zu schätzen, dann eine Parameteroptimierung (z.B. Verwenden des Levenberg-Marquardt-Algorithmus) durchzuführen, um die optimalen Kamerakalibrierungsparameter zu erhalten.Camera calibration can be done in a number of ways. In some embodiments, the calibration process involves obtaining images of a scene that have a plurality of features, then identifying matches between image coordinates of the features in the images and the world coordinates of the corresponding features in the scene. The calibration parameters can then be estimated based on the identified matches and the mapping between the world and image coordinate systems (e.g., based on the mapping models described herein). For example, monocular calibration (determining the parameters of a single camera) may involve generating an estimate of the calibration parameters (e.g. R, T, M) based on a pinhole camera model, then estimating the distortion effect (e.g. initial values of distortion parameters are assumed to be 0), then perform a parameter optimization (e.g. using the Levenberg-Marquardt algorithm) in order to obtain the optimal camera calibration parameters.
In manchen Ausführungsformen wird ein Kalibrierungsziel verwendet, um die Identifikation von Weltbildkoordinatenübereinstimmungen zu erleichtern. Ein Kalibrierungsziel kann eine beliebige Struktur sein, die eine definierte Anordnung von Merkmalen aufweist. Zum Beispiel kann das Kalibrierungsziel 1D (z.B. eine lineare, gekrümmte oder krummlinige Form), 2D (z.B. eine Ebene oder andere flache Oberfläche) oder 3D (z.B. ein Würfel, eine Kugel, ein Prisma, zwei oder mehr schneidende Ebenen) sein. Die Merkmale können gestaltet sein, leicht aus Bilddaten (z.B. unter Verwendung von Bilderkennungsalgorithmen, Merkmalextraktionsalgorithmen oder anderen Computer Vision Techniken) identifizierbar und klar von Nichtmerkmalen (z.B. andere Abschnitte des Kalibrierungsziels, andere Objekte in der Szene, Bildrauschen) unterscheidbar zu sein. In manchen Ausführungsformen sind die Merkmale Punkte auf dem Kalibrierungsziel (z.B. Ecken, Scheitelpunkte, Schnittpunkte), hierin auch als „Merkmalpunkte“ bezeichnet. Alternativ oder in Kombination können die Merkmale Linien (z.B. linear, gekrümmt, krummlinig), Kanten (z.B. zwischen zwei unterschiedlich gefärbten Bereichen), geometrische Formen (z.B. Kreise, Dreiecke, Vierecke usw.), Symbole oder Zeichen (z.B. alphanumerische Zeichen) oder geeignete Kombinationen davon sein. Zusätzlich können die Charakteristika jedes Merkmals (z.B. Größe, Form, Farbe) wie gewünscht variiert werden.In some embodiments, a calibration target is used to facilitate the identification of worldview coordinate matches. A calibration target can be any structure that has a defined arrangement of features. For example, the calibration target may be 1D (e.g., a linear, curved, or curvilinear shape), 2D (e.g., a plane or other flat surface), or 3D (e.g., a cube, sphere, prism, two or more intersecting planes). The features can be designed to be easily identifiable from image data (e.g. using image recognition algorithms, feature extraction algorithms, or other computer vision techniques) and clearly distinguishable from non-features (e.g. other sections of the calibration target, other objects in the scene, image noise). In some embodiments, the features are points on the calibration target (eg corners, vertices, intersections), also referred to herein as “feature points”. Alternatively or in combination, the features can be lines (e.g. linear, curved, curvilinear), edges (e.g. between two differently colored areas), geometric shapes (e.g. circles, triangles, squares, etc.), symbols or characters (e.g. alphanumeric characters) or suitable Be combinations of these. In addition, the characteristics of each feature (e.g. size, shape, color) can be varied as desired.
Das Kalibrierungsziel kann eine beliebige geeignete Zahl und Kombination von Merkmalen aufweisen. Zum Beispiel kann ein Kalibrierungsziel mindestens 10, 20, 30, 40, 50, 60, 70, 80, 90 oder 100 Merkmale aufweisen. Die Verwendung einer relativ großen Zahl von Merkmalen kann die Genauigkeit des Kalibrierungsprozesses verbessern. In manchen Ausführungsformen kann ein Kalibrierungsziel nur einen Typ von Merkmal aufweisen, während in anderen Ausführungsformen das Ziel mehr als einen Typ von Merkmal aufweisen kann, wie mindestens zwei, drei, vier, fünf oder mehr unterschiedliche Typen von Merkmalen. Die Merkmale können bei definierten Stellen auf dem Kalibrierungsziel liegen, sodass die Position und/oder Ausrichtung jedes Merkmals relativ zu dem Kalibrierungsziel bekannt sind. In manchen Ausführungsformen sind die Merkmale auf dem Kalibrierungsziel in einem sich wiederholenden Muster (z.B. ein Gitter, das eine Vielzahl von Reihen und Spalten aufweist) angeordnet, das vorgegebene Abmessungen (z.B. Länge, Breite, Höhe, Abstand zwischen Merkmalen) aufweist. Die Merkmale können statische Merkmale sein, sodass deren Position und/oder Ausrichtung auf dem Kalibrierungsziel sich nicht ändert. Alternativ können die Merkmale dynamische Merkmale mit variierenden Positionen und/oder Ausrichtungen sein. Die hierin beschriebenen Merkmale können ganzheitlich mit dem Kalibrierungsziel gebildet sein (z.B. auf einen Abschnitt des Ziels gedruckt oder gemalt) oder separat bereitgestellt sein und mit dem Ziel gekoppelt sein (z.B. an einem Abschnitt des Ziels befestigt oder angebracht).The calibration target can have any suitable number and combination of features. For example, a calibration target can have at least 10, 20, 30, 40, 50, 60, 70, 80, 90, or 100 features. Using a relatively large number of features can improve the accuracy of the calibration process. In some embodiments, a calibration target can have only one type of feature, while in other embodiments the target can have more than one type of feature, such as at least two, three, four, five or more different types of features. The features can lie at defined locations on the calibration target, so that the position and / or orientation of each feature relative to the calibration target are known. In some embodiments, the features on the calibration target are arranged in a repeating pattern (e.g., a grid having a plurality of rows and columns) that has predetermined dimensions (e.g. length, width, height, spacing between features). The features can be static features so that their position and / or orientation on the calibration target does not change. Alternatively, the features can be dynamic features with varying positions and / or orientations. The features described herein can be formed integrally with the calibration target (e.g., printed or painted on a portion of the target) or provided separately and coupled to the target (e.g., attached or attached to a portion of the target).
In manchen Ausführungsformen involviert der Kalibrierungsprozess einen Satz von Bildern des Kalibrierungsziels mit jeder zu kalibrierenden Abbildungsvorrichtung aufzunehmen. Jeder Bilddatensatz kann mindestens 5, 10, 15, 20, 25, 30, 35, 40, 45, 50 oder mehr Bilder des Kalibrierungsziels aufweisen. Die Bilder können das Kalibrierungsziel bei einer Vielzahl von unterschiedlichen Positionen und/oder Ausrichtungen abbilden. Jedes Bild kann verarbeitet werden, um Merkmale zu identifizieren, die in dem Bild vorhanden sind, und deren Bildkoordinaten zu ermitteln. Die Übereinstimmungen zwischen Bildkoordinaten der Merkmale in den Bilddaten und den Weltkoordinaten der Merkmale auf dem Kalibrierungsziel können ermittelt und nachfolgend verwendet werden, um die Kalibrierungsparameter (z.B. basierend auf den hierin beschriebenen mathematischen Beziehungen) zu lösen. Optional, in Ausführungsformen wo mehrere Abbildungsvorrichtungen verwendet werden, um mehrere Sätze von Bilddaten zu erhalten, können die Übereinstimmungen zwischen Bildkoordinaten von Merkmalen über die Bilddatensätze hinweg auch ermittelt werden und verwendet werden, um die Parameter für die mehreren Abbildungsvorrichtungen (z.B. Position und/oder Ausrichtung der Abbildungsvorrichtungen relativ zueinander) zu schätzen.In some embodiments, the calibration process involves capturing a set of images of the calibration target with each imaging device to be calibrated. Each image data set can have at least 5, 10, 15, 20, 25, 30, 35, 40, 45, 50 or more images of the calibration target. The images can depict the calibration target in a variety of different positions and / or orientations. Each image can be processed to identify features present in the image and determine their image coordinates. The correspondences between image coordinates of the features in the image data and the world coordinates of the features on the calibration target can be determined and subsequently used to solve the calibration parameters (e.g. based on the mathematical relationships described herein). Optionally, in embodiments where multiple imaging devices are used to obtain multiple sets of image data, the correspondences between image coordinates of features across the image data sets can also be determined and used to calculate the parameters for the multiple imaging devices (e.g. position and / or orientation of imaging devices relative to each other).
Sobald die Bildkoordinaten der Merkmale in den Bilddaten des Ziels
In manchen Ausführungsformen, falls die Kalibrierungsbilddaten, die von jeder Kamera erhalten werden, nicht die Gesamtheit des Kalibrierungsziels aufnehmen, was darin resultiert, dass weniger als alle der Merkmale in dem Bild sichtbar sind, kann es schwierig oder sogar unmöglich sein, die Bildweltkoordinatenübereinstimmungen der Merkmale zu ermitteln, insbesondere falls das Kalibrierungsziel von mehreren unterschiedlichen Kamerapositionen und/oder Ausrichtungen abgebildet wird. Zum Beispiel, wieder in Bezug auf
Unterschiedliche hierin beschriebene Ausführungsformen stellen verbesserte Kalibrierungsziele bereit, die Ermittlung von Kamerakalibrierungsparametern zulassen, selbst wenn die Bilddaten nicht die Gesamtheit des Kalibrierungsziels und der Kalibrierungszielmerkmale aufnehmen. In manchen Ausführungsformen weisen diese Kalibrierungsziele eine oder mehrere Referenzmarkierungen auf, die bei definierten Stellen liegen. Die eine oder mehreren Referenzmarkierungen können jeweils eindeutig in Bilddaten des Kalibrierungsziels identifizierbar sein, selbst wenn die Bilddaten das Kalibrierungsziel in unterschiedlichen Positionen und/oder Ausrichtungen abbilden. Folglich können die Bildweltkoordinatenübereinstimmungen für die Merkmale des Kalibrierungsziels ermittelt werden, selbst wenn nur eine Teilmenge der Merkmale in den Bilddaten sichtbar ist, indem die Referenzmarkierungen als räumliche Referenzen verwendet werden, um unzweideutig jedes Merkmal zu identifizieren. Vorteilhafterweise erlaubt dieser Ansatz, dass ein Bild zur Kamerakalibrierung verwendet wird, solange es all die Referenzmarkierungen und mindestens manche der Kalibrierungsmerkmale aufnimmt, wodurch die Flexibilität und Robustheit des Kalibrierungsprozesses verbessert werden. Dies kann insbesondere vorteilhaft für Vorrichtungen sein, die mehrere Kameras nutzen, z.B. ein UAV, das ein Stereovisionserfassungssystem implementiert, da es relativ schwer sein kann, die Kameras so anzuordnen, dass die Gesamtheit des Kalibrierungsziels in dem Blickfeld jeder Kamera ist.Different embodiments described herein provide improved calibration targets that allow camera calibration parameters to be determined even when the image data does not include the entirety of the calibration target and calibration target features. In some embodiments, these calibration targets have one or more reference marks that lie at defined locations. The one or more reference markings can each be uniquely identifiable in image data of the calibration target, even if the image data depicts the calibration target in different positions and / or orientations. Thus, even if only a subset of the features are visible in the image data, the image world coordinate matches for the features of the calibration target can be determined by using the fiducial marks as spatial references to unambiguously identify each feature. Advantageously, this approach allows an image to be used for camera calibration as long as it includes all of the reference marks and at least some of the calibration features, thereby improving the flexibility and robustness of the calibration process. This can be particularly advantageous for devices that use multiple cameras, e.g., a UAV implementing a stereo vision capture system, as it can be relatively difficult to arrange the cameras so that the entirety of the calibration target is in the field of view of each camera.
Die Charakteristika der Referenzmarkierungen können wie gewünscht variiert werden, umfassend Form, Größe und/oder Farbe. Beispielhafte Referenzmarkierungen enthalten geometrische Formen (z.B. Punkt, Linie, Kreis, Dreieck, Viereck), Symbole oder Zeichen (z.B. alphanumerische Zeichen) oder geeignete Kombinationen davon. Die hierin bereitgestellten Kalibrierungsziele können eine beliebige geeignete Zahl von Referenzmarkierungen aufweisen, wie mindestens eins, zwei, drei, vier, fünf oder mehr Referenzmarkierungen. In manchen Ausführungsformen weisen die Kalibrierungsziele nur drei Referenzmarkierungen auf. In manchen Ausführungsformen weisen die hierin beschriebenen Kalibrierungsziele nur einen einzelnen Typ von Referenzmarkierung auf. Alternativ kann ein Kalibrierungsziel mehrere unterschiedliche Typen von Referenzmarkierungen aufweisen, wie mindestens zwei, drei, vier, fünf oder mehr unterschiedliche Typen.The characteristics of the reference marks can be varied as desired, including shape, size and / or color. Exemplary reference markings contain geometric shapes (for example point, line, circle, triangle, square), symbols or characters (for example alphanumeric characters) or suitable combinations thereof. The calibration targets provided herein can have any suitable number of reference marks, such as at least one, two, three, four, five, or more reference marks. In some embodiments, the calibration targets only have three reference marks. In some embodiments, the calibration targets described herein have only a single type of reference mark. Alternatively, a calibration target can have several different types of reference marks, such as at least two, three, four, five or more different types.
Die Charakteristika der Referenzmarkierungen können ausgewählt werden, um Identifikation der Referenzmarkierungen von Bilddaten zu erleichtern, z.B. unter Verwendung von Bilderkennungsalgorithmen, Merkmalextraktionsalgorithmen oder anderen Computer Vision Techniken. Optional können die Referenzmarkierungen visuell von den Merkmalen unterscheidbar sein, um genaue Identifikation der Referenzmarkierungen und Merkmale zu erleichtern. Als ein anderes Beispiel können die Merkmale in einem sich wiederholenden Muster (z.B. über eine 1D-Linie oder eine 2D-Oberfläche) angeordnet sein, während sich die Referenzmarkierungen nicht wiederholen.The characteristics of the fiducial marks can be selected to facilitate identification of the fiducial marks from image data, e.g., using image recognition algorithms, feature extraction algorithms, or other computer vision techniques. Optionally, the reference markings can be visually distinguishable from the features in order to facilitate precise identification of the reference marks and features. As another example, the features may be arranged in a repeating pattern (e.g., across a 1D line or a 2D surface) while the fiducial marks are not repeating.
Die Referenzmarkierungen können jeweils bei einer unterschiedlichen Stelle auf dem Kalibrierungsziel positioniert sein. In manchen Ausführungsformen liegen die Referenzmarkierungen relativ zu den Merkmalen des Kalibrierungsziels in einer definierten Anordnung, sodass die räumliche Beziehung (z.B. relative Position, Ausrichtung) zwischen jedem Merkmal und mindestens einer der Referenzmarkierungen bekannt ist. Zum Beispiel können die Referenzmarkierungen mit einem oder mehreren Merkmalen des Kalibrierungsziels überlagert oder durchsetzt sein. Als ein anderes Beispiel können die Referenzmarkierungen nahe oder angrenzend an ein oder mehrere Merkmale positioniert sein. Die Referenzmarkierungen können auf dem Kalibrierungsziel positioniert sein, sodass all die Referenzmarkierungen und mindestens manche der Merkmale gleichzeitig in Bildern des Kalibrierungsziels sichtbar sind.The reference marks can each be positioned at a different location on the calibration target. In some embodiments, the reference marks lie in a defined arrangement relative to the features of the calibration target, so that the spatial relationship (e.g. relative position, orientation) between each feature and at least one of the reference marks is known. For example, one or more features of the calibration target can be overlaid or interspersed with the reference markings. As another example, the fiducial marks can be positioned near or adjacent to one or more features. The reference marks can be positioned on the calibration target so that all of the reference marks and at least some of the features are visible at the same time in images of the calibration target.
Verschiedene Techniken können verwendet werden, um jede Referenzmarkierung eindeutig in Bilddaten des Kalibrierungsziels identifizierbar zu machen, selbst wenn die Bilddaten eine gedrehte und/oder verschobene Ansicht des Kalibrierungsziels darstellen. Zum Beispiel kann jede Referenzmarkierung eine unterschiedliche Größe, Form und/oder Farbe aufweisen, oder kann einzigartige Charakteristika oder Markierungen aufweisen, die ermöglichen, sie visuell von den anderen Markierungen zu unterscheiden. Alternativ oder in Kombination können die Referenzmarkierungen auf eine Weise angeordnet sein, die es jeder Referenzmarkierung ermöglicht, basierend auf deren relativer Positionierung eindeutig identifiziert zu werden. In solchen Ausführungsformen können die Referenzmarkierungen ähnlich oder identisch sein (z.B. in Bezug auf Form, Größe, Farbe oder andere Charakteristika). Zum Beispiel kann jede Referenzmarkierung positioniert sein, Scheitelpunkte eines unregelmäßigen Polygons (z.B. gleichschenkeliges Dreieck, ungleichseitiges Dreieck) zu bilden. Mindestens manche der Winkel eines unregelmäßigen Polygons können unterschiedliche Größen als andere Winkel aufweisen. Ähnlich können mindestens manche der Kanten eines unregelmäßigen Polygons unterschiedliche Längen als andere Kanten aufweisen. Optional können all die Winkel unterschiedlich groß sein und all die Kanten können unterschiedliche Längen aufweisen. Als ein Beispiel können in Ausführungsformen, wo die Merkmale des Kalibrierungsziels in einer Ebene (z.B. ein sich wiederholendes 2D-Muster von Merkmalen, wie ein Gitter) angeordnet sind, die Referenzmarkierungen eine Form bilden, die in der Ebene rotationssymmetrisch ist.Various techniques can be used to make each reference mark uniquely identifiable in image data of the calibration target, even if the image data represent a rotated and / or shifted view of the calibration target. For example, each reference mark can be a different size, shape, and / or color, or can have unique characteristics or markings that enable it to be visually distinguished from the other markings. Alternatively, or in combination, the reference markings can be arranged in a manner that enables each reference mark to be uniquely identified based on their relative positioning. In such embodiments, the reference markings may be similar or identical (e.g., in terms of shape, size, color, or other characteristics). For example, each fiducial mark can be positioned to form vertices of an irregular polygon (e.g., isosceles triangle, unequal-sided triangle). At least some of the angles of an irregular polygon can be different sizes than other angles. Similarly, at least some of the edges of an irregular polygon can have different lengths than other edges. Optionally, all of the angles can be of different sizes and all of the edges can be of different lengths. As an example, in embodiments where the features of the calibration target are arranged in a plane (e.g., a repeating 2D pattern of features such as a grid), the fiducial marks may form a shape that is rotationally symmetrical in the plane.
In Schritt
In Schritt
In manchen Ausführungsformen kann der Referenzmarkierungsalgorithmus falsche Positive erzeugen, z.B. Gebiete des Bilds identifizieren, die keine Referenzmarkierungen sind. Zum Beispiel weist das Bild von
In Schritt
In Schritt
In Ausführungsformen, wo eine Vielzahl von Abbildungsvorrichtungen kalibriert wird, kann mit jeder Abbildungsvorrichtung, die einen jeweiligen Satz von Bildern bereitstellt, der Schritt
In Schritt
Verschiedene Verfahren können verwendet werden, um Kalibrierungsparameter zu lösen. In manchen Ausführungsformen wird zuerst eine Anfangsschätzung der Kalibrierungsparameter erhalten. Zum Beispiel kann ein Zuordnungsmodell (z.B. das Zuordnungsmodell
In Ausführungsformen, wo das Kalibrierungsziel planar ist, z.B. ein planares Schachbrett, kann die Zielebene angenommen werden, auf der Xw, Yw Ebene des Weltkoordinatensystems zu liegen, sodass die Zw Koordinate jedes Merkmals auf dem Ziel 0 ist. Dementsprechend kann die vorige Gleichung umgeschrieben werden zu:
Die Homografiematrix H kann dann als H=[h1 h2 h3]=sM[r1 r2 T] definiert werden, wo s=1/λ ist. λ kann in der Homografiematrixgleichung einem Durchschnittswert anstatt einem einzelnen Punkt entsprechen.The homography matrix H can then be defined as H = [h1 h2 h3] = sM [r1 r2 T], where s = 1 / λ. λ may correspond to an average rather than a single point in the homography matrix equation.
Da die Weltkoordinaten der Merkmale bekannt sind, z.B. wie sie in Schritt
Da r1 und r2 Vektoren in der Rotationsmatrix sind, kann die folgende Gleichung erhalten werden:
Indem
Gemäß Gleichung (8) kann das Folgende erhalten werden:
In Gleichung (10) ist V eine 2x6 Matrix und wird aus der Homografiematrix H transformiert. Um b zu lösen, werden mindestens drei unterschiedliche H verwendet, um die Matrix B einzugrenzen. Dementsprechend kann die Parameterschätzung mit Daten von mindestens drei unterschiedlichen Bildern des Kalibrierungsziels bei unterschiedlichen Positionen und/oder Ausrichtungen durchgeführt werden.In equation (10), V is a 2x6 matrix and is transformed from the homography matrix H. To solve b, at least three different H are used to narrow the matrix B. Accordingly, the parameter estimation can be carried out with data from at least three different images of the calibration target at different positions and / or orientations.
Falls die Matrix B gelöst werden kann, kann die Matrix M auch gelöst werden. Nachfolgend können R und T gemäß Gleichung (7) gelöst werden. Die geschlossene Lösung kann, basierend auf unterschiedlichen Formen der Matrix M, wie folgt sein:If matrix B can be solved, matrix M can also be solved. Subsequently, R and T can be solved according to equation (7). The closed solution, based on different forms of the matrix M, can be as follows:
Falls der „Tangentialeffekt“ nicht berücksichtigt wird
Falls der „Tangentialeffekt“ nicht berücksichtigt wird
Nachdem die Anfangslösung erhalten ist, können die Kalibrierungsparameter, z.B. durch den Levenberg-Marquardt-Algorithmus, optimiert werden. In manchen Ausführungsformen minimiert die optimale Lösung die folgende Objektfunktion:
In Ausführungsformen, wo mehrere Abbildungsvorrichtungen kalibriert werden (z.B. zwei oder mehr Kameras), kann der Schritt
Sobald die Kalibrierungsparameter in Übereinstimmung mit den hierin beschriebenen Verfahren ermittelt wurden, können die Parameter verwendet werden, um Bilddaten zu verarbeiten, die von den Abbildungsvorrichtungen erhalten werden, sodass die Bilddaten für verschiedene nachgeordnete Anwendungen geeignet gemacht werden, z.B. Wiederherstellung von räumlichen 3D-Informationen zur Erstellung von Karten, Objekterkennung, Navigation usw. Zum Beispiel können die Bilddaten basierend auf den ermittelten Kalibrierungsparametern verarbeitet werden, um die Effekte optischer Verzerrung, die mit der einen oder den mehreren Abbildungsvorrichtungen verknüpft sind, zu korrigieren, was hierin auch als „Entzerrung“ bezeichnet wird. Als ein anderes Beispiel können in Ausführungsformen, wo zwei oder mehr Abbildungsvorrichtungen verwendet werden, um jeweilige Sätze der Bilddaten aufzunehmen, die Kalibrierungsparameter verwendet werden, um Rektifizierung durchzuführen, z.B. um den Bilddatensätzen zu ermöglichen, für Stereovision verwendet zu werden.Once the calibration parameters have been determined in accordance with the methods described herein, the parameters can be used to process image data obtained from the imaging devices so that the image data can be made suitable for various downstream applications, e.g. Map creation, object recognition, navigation, etc. For example, based on the determined calibration parameters, the image data can be processed to correct for the effects of optical distortion associated with the one or more imaging devices, also referred to herein as "rectification" will. As another example, in embodiments where two or more imaging devices are used to capture respective sets of the image data, the calibration parameters can be used to perform rectification, e.g., to enable the image data sets to be used for stereo vision.
Verschiedene Verfahren können verwendet werden, um Bildentzerrung durchzuführen. Zum Beispiel können die entzerrten Bildebenenkoordinaten (Xp, Yp) aus den entzerrten Pixelkoordinaten (u2, v2) gemäß der folgenden Gleichung ermittelt werden:
Die verzerrten Bildebenenkoordinaten (Xd, Yd) können aus den entzerrten Bildebenenkoordinaten (Xp, Yp) basierend auf einem mathematischen Verzerrungsmodell (z.B. das durch die Verzerrungsgleichung (
Der Grauskalenwert der entzerrten Pixelkoordinaten (u2, v2) kann erhalten werden, indem die verzerrten Pixelkoordinaten (u1, v1) interpoliert werden. Die Interpolation kann unter Verwendung eines beliebigen geeigneten Verfahrens durchgeführt werden, wie Interpolation des nächsten Nachbarn oder bilineare Interpolation. Dementsprechend kann das entzerrte Bild erhalten werden.The gray scale value of the rectified pixel coordinates (u 2 , v 2 ) can be obtained by interpolating the distorted pixel coordinates (u 1 , v 1 ). The interpolation can be performed using any suitable technique, such as nearest neighbor interpolation or bilinear interpolation. Accordingly, the rectified image can be obtained.
Ähnlich dem hierin beschriebenen Bildentzerrungsprozess kann Bildrektifizierung, auch als Stereorektifizierung bekannt, einen Bild-zu-Bild-Transformationsprozess involvieren. Jedoch involviert Bildrektifizierung auch eine räumliche Transformation auf der Kamerakoordinatensystemebene. Bildrektifizierung kann verwendet werden, um Bilddaten zu verarbeiten, die von mehreren Abbildungsvorrichtungen aufgenommen werden, um die Implementierung von Stereovisionsalgorithmen zu erleichtern, z.B. für die Erstellung von Tiefenkarten, Disparitätskarten und anderen 3D-Darstellungen einer Szene. Zum Beispiel, in manchen Ausführungsformen, können Stereovisionsalgorithmen Punktübereinstimmungen zwischen Bildern, die von unterschiedlichen Kameras (z.B. einer linken Kamera und einer rechten Kamera) aufgenommen werden, involvieren. Bildrektifizierung kann verwendet werden, um die Bilddaten, die von jeder Kamera erhalten werden, in eine gemeinsame Ebene zu projizieren, wodurch die Prozedur zum Suchen von zusammengehörigen Bildpunkten in den Bildern vereinfacht wird.Similar to the image rectification process described herein, image rectification, also known as stereo rectification, may involve an image-to-image transformation process. However, image rectification does involve also a spatial transformation on the camera coordinate system level. Image rectification can be used to process image data captured by multiple imaging devices to facilitate the implementation of stereo vision algorithms, such as creating depth maps, disparity maps, and other 3D representations of a scene. For example, in some embodiments, stereo vision algorithms may involve point matches between images captured by different cameras (e.g., a left camera and a right camera). Image rectification can be used to project the image data obtained from each camera onto a common plane, thereby simplifying the procedure for searching for related pixels in the images.
Die zwei Koordinatensysteme können dann gleichzeitig durch die Rotationsmatrix Rrect transformiert werden, sodass die XOY-Ebenen der zwei Koordinatensysteme komplanar sind und beide X-Achsen zu der Grundlinie parallel sind. Die Matrix Rrect kann subjektiv ermittelt werden. Zum Beispiel kann Rrect ausgedrückt werden als
In manchen Ausführungsformen gibt es nach der Rotation der Kamerakoordinatensysteme nur einen Translationsvektor Trect=TrectR1T, der parallel zu der X-Achse und zwischen den zwei Koordinatensystemen ist. Optional kann die Matrix M durch die Matrix M1 ersetzt werden (siehe
Nachdem die Rotationsmatrizen R1, Rr und Rrect und die Zuordnungsmatrix M ermittelt sind, kann die Bildrektifizierungsprozedur ähnlich der zuvor beschriebenen einzelnen Bildentzerrungsprozedur durchgeführt werden. Die Bildrektifizierung kann separat an jedem Satz von Bildern durchgeführt werden, der von jeder individuellen Abbildungsvorrichtung erhalten wird. Zum Beispiel, wieder in Bezug auf
Die verzerrten Koordinaten können gemäß den zuvor ermittelten Verzerrungsparametern und einem Verzerrungsmodell (z.B. Gleichung (3)) ermittelt werden. Die Pixelkoordinaten (u1, v1) unter dem ursprünglichen linken Koordinatensystem können dann erhalten werden:
Der Grauskalenwert der rektifizierten Bildkoordinaten (u3, v3) kann unter Verwendung eines beliebigen geeigneten Interpolationsalgorithmus ermittelt werden. Dieser Rektifizierungsprozess kann auch verwendet werden, um rektifizierte Bildkoordinaten für die rechte Kamera zu erhalten.The gray scale value of the rectified image coordinates (u 3 , v 3 ) can be determined using any suitable interpolation algorithm. This rectification process can also be used to obtain rectified image coordinates for the right camera.
Sobald die Bilddaten, die von dem einen oder den mehreren Bildern erhalten werden, durch Entzerrung und/oder Rektifizierung wie hierin beschrieben verarbeitet wurden, können die Bilder für verschiedene Anwendungen, wie Computer Vision Anwendungen, verwendet werden. In manchen Ausführungsformen können die Bilder verwendet werden, um räumliche Informationen für die abgebildete Szene wiederherzustellen, wie die Abstände von Objekten in der Szene von den Abbildungsvorrichtungen. Diese räumlichen Informationen können zum Beispiel verwendet werden, um 3D-Darstellungen der Umgebung zu erzeugen, wie Tiefenkarten, Disparitätskarten, Belegungsgitter, Punktewolken und so weiter.Once the image data obtained from the one or more images has been processed by rectification and / or rectification as described herein, the images can be used for various applications, such as computer vision applications. In some embodiments, the images can be used to restore spatial information for the imaged scene, such as the distances of objects in the scene from the imaging devices. This spatial information can be used, for example, to generate 3D representations of the environment, such as depth maps, disparity maps, occupancy grids, point clouds and so on.
In Schritt
In Schritt
Verschiedene Verfahren können verwendet werden, um die Bilder zu verarbeiten, um Erzeugung einer 3D-Tiefenkarte aus den Bildern zu ermöglichen. Zum Beispiel können die Bilder durch die hierin besprochenen Entzerrungs- und/oder Rektifizierungstechniken verarbeitet werden. Die rektifizierten Bilder können dann als Eingabe in verschiedene Stereovisionsalgorithmen verwendet werden, um Tiefeninformationen für die Objekte in den Bildern wiederherzustellen, wofür eine Tiefenkarte der abgebildeten Szene erzeugt wird. Zum Beispiel können entsprechende Bilder (z.B. Bilder, die zur selben Zeit oder im Wesentlichen zur selben Zeit aufgenommen werden), die von unterschiedlichen Abbildungsvorrichtungen erhalten werden, miteinander verglichen werden, um die Disparitäten zwischen den Bildern zu ermitteln. Basierend auf den Disparitätsinformationen und Informationen bezüglich der räumlichen Beziehungen zwischen den Abbildungsvorrichtungen kann der Abstand zwischen dem Objekt und den Abbildungsvorrichtungen ermittelt werden. Zum Beispiel kann die Disparität zwischen den Bildkoordinaten desselben Objekts in Bildern unterschiedlicher Abbildungsvorrichtungen berechnet werden. Der Abstand von den Abbildungsvorrichtungen zu dem Objekt kann im Sinne der Disparität, der Brennweiten der Abbildungsvorrichtungen und der räumlichen Beziehung zwischen den Abbildungsvorrichtungen (z.B. Abstand zwischen den Abbildungsvorrichtungen) ausgedrückt werden. Dementsprechend kann der Abstand berechnet werden, sobald die Brennweiten- und räumlichen Beziehungsinformationen ermittelt wurden (z.B. mittels der hierin beschriebenen Kalibrierungsverfahren).Various methods can be used to process the images to enable generation of a 3D depth map from the images. For example, the images can be processed by the rectification and / or rectification techniques discussed herein. The rectified images can then be used as input into various stereo vision algorithms to restore depth information for the objects in the images, for which purpose a depth map of the imaged scene is generated. For example, corresponding images (e.g., images captured at the same time or substantially the same time) obtained from different imaging devices can be compared with one another to determine the disparities between the images. Based on the disparity information and information regarding the spatial relationships between the imaging devices, the distance between the object and the imaging devices can be determined. For example, the disparity between the image coordinates of the same object in images of different imaging devices can be calculated. The distance from the imaging devices to the object can be expressed in terms of disparity, the focal lengths of the imaging devices, and the spatial relationship between the imaging devices (e.g., distance between the imaging devices). Accordingly, once the focal length and spatial relationship information has been determined (e.g., using the calibration procedures described herein), the distance can be calculated.
Dieser Prozess kann wiederholt werden, um eine 3D-Tiefenkarte für alle Punkte innerhalb der abgebildeten Szene zu erzeugen. Solche Tiefenkarten können in einer breiten Vielfalt von Anwendungen verwendet werden. Zum Beispiel kann in Ausführungsformen, wo die Abbildungsvorrichtungen von einem UAV getragen werden, die Tiefenkarte, die basierend auf den Bilddaten von den Abbildungsvorrichtungen erzeugt wird, verwendet werden, um Informationen bereitzustellen, die Abstände verschiedener Objekte von dem UAV angeben. Diese Informationen können verwendet werden, um verschiedene UAV-Funktionalitäten, wie Hindernisvermeidung, Navigation, Zielverfolgung und dergleichen, zu erleichtern.This process can be repeated to generate a 3D depth map for all points within the imaged scene. Such depth maps can be used in a wide variety of applications. For example, in embodiments where the imaging devices are carried by a UAV, the depth map generated based on the image data from the imaging devices can be used to provide information indicative of the distances of various objects from the UAV. This information can be used to facilitate various UAV functionalities such as obstacle avoidance, navigation, target tracking and the like.
Die hierin beschriebenen Systeme, Vorrichtungen und Verfahren können auf eine breite Vielfalt von beweglichen Objekten angewendet werden. Wie zuvor erwähnt, kann eine beliebige Beschreibung eines Luftfahrzeugs hierin auf ein beliebiges bewegliches Objekt angewendet werden und dafür verwendet werden. Ein bewegliches Objekt der vorliegenden Erfindung kann dazu ausgebildet sein, sich innerhalb einer beliebigen geeigneten Umgebung zu bewegen, wie in Luft (z.B. ein Starrflügelflugzeug, ein Drehflügelflugzeug oder ein Flugzeug, das weder starre Flügel noch Drehflügel aufweist), in Wasser (z.B. ein Schiff oder ein U-Boot), am Boden (z.B. ein Motorfahrzeug, wie ein Auto, Lastwagen, Bus, Kleinbus, Motorrad; eine bewegliche Struktur oder ein Rahmen, wie eine Stange, Angel; oder ein Zug), unter dem Grund (z.B. eine Untergrundbahn), im Weltall (z.B. eine Raumfähre, ein Satellit oder eine Sonde) oder eine beliebige Kombination dieser Umgebungen. Das bewegliche Objekt kann ein Fahrzeug sein, wie ein anderswo hierin beschriebenes Fahrzeug. In manchen Ausführungsformen kann das bewegliche Objekt an einem lebenden Subjekt angebracht werden, wie einem Menschen oder einem Tier. Geeignete Tiere können Vögel, Hunde, Katzen, Pferde, Rinder, Schafe, Schweine, Delfine, Nagetiere oder Insekten umfassen.The systems, devices, and methods described herein can be applied to a wide variety of moving objects. As previously mentioned, any description of an aircraft herein can be applied to and used for any moving object. A moving object of the present invention can be configured to move within any suitable environment, such as in air (e.g., a fixed wing aircraft, a rotary wing aircraft, or an aircraft that has neither rigid wings nor rotating wings), in water (e.g. a ship or a a submarine), on the ground (e.g. a motor vehicle, such as a car, truck, bus, minibus, motorcycle; a movable structure or frame, such as a pole, fishing rod; or a train), underground (e.g. a subway ), in space (e.g. a space shuttle, satellite, or probe), or any combination of these environments. The moving object can be a vehicle, such as a vehicle described elsewhere herein. In some embodiments, the movable object can be attached to a living subject, such as a human or an animal. Suitable animals can include birds, dogs, cats, horses, cattle, sheep, pigs, dolphins, rodents, or insects.
Das bewegliche Objekt kann im Stande sein, sich frei innerhalb der Umgebung in Bezug auf sechzig Grad Freiheit zu bewegen (z.B. dreißig Grad Freiheit in Translation und dreißig Grad Freiheit in Rotation). Alternativ kann die Bewegung des beweglichen Objekts in Bezug auf einen oder mehreren Grade von Freiheit eingeschränkt sein, wie durch einen vorgegebenen Pfad, eine Spur oder Ausrichtung. Die Bewegung kann durch einen beliebigen geeigneten Betätigungsmechanismus betätigt werden, wie eine Maschine oder einen Motor. Der Betätigungsmechanismus des beweglichen Objekts kann von einer beliebigen geeigneten Energiequelle angetrieben werden, wie elektrischer Energie, magnetischer Energie, Solarenergie, Windenergie, Gravitationsenergie, chemischer Energie, Atomenergie oder einer beliebigen geeigneten Kombination davon. Das bewegliche Objekt kann über ein Antriebssystem selbstangetrieben werden, wie hierin anderswo beschrieben wird. Das Antriebssystem kann optional auf einer Energiequelle laufen, wie elektrischer Energie, magnetischer Energie, Solarenergie, Windenergie, Gravitationsenergie, chemischer Energie, Atomenergie oder einer beliebigen geeigneten Kombination davon. Alternativ kann das bewegliche Objekt von einem Lebewesen getragen werden.The moving object may be able to move freely within the environment with respect to sixty degrees of freedom (e.g., thirty degrees of freedom in translation and thirty degrees freedom in rotation). Alternatively, the movement of the moving object may be restricted with respect to one or more degrees of freedom, such as by a predetermined path, track, or orientation. The movement can be actuated by any suitable actuating mechanism, such as a machine or a motor. The actuating mechanism of the moving object can be powered by any suitable source of energy, such as electrical energy, magnetic energy, solar energy, wind energy, gravitational energy, chemical energy, atomic energy, or any suitable combination thereof. The moving object can be self propelled via a drive system as described elsewhere herein. The propulsion system can optionally run on an energy source such as electrical energy, magnetic energy, solar energy, wind energy, gravitational energy, chemical energy, atomic energy, or any suitable combination thereof. Alternatively, the moving object can be carried by a living being.
In manchen Beispielen kann das bewegliche Objekt ein Fahrzeug sein. Geeignete Fahrzeuge können Wasserfahrzeuge, Luftfahrzeuge, Raumfahrzeuge oder Bodenfahrzeuge umfassen. Zum Beispiel können Luftfahrzeuge Starrflügelflugzeuge (z.B. Flugzeug, Gleiter), Drehflügelflugzeuge (z.B. Helikopter, Rotorflugzeug), Flugzeuge, die sowohl starre Flügel als auch Drehflügel aufweisen, oder Flugzeuge, die keine von beiden aufweisen (z.B. Kleinluftschiffe, Heißluftballons) sein. Ein Fahrzeug kann selbstangetrieben sein, wie durch die Luft, auf oder in Wasser, im Weltraum oder auf oder unter dem Boden selbstangetrieben. Ein selbstangetriebenes Fahrzeug kann ein Antriebssystem nutzen, wie ein Antriebssystem, das eine oder mehrere Maschinen, Motoren, Räder, Achsen, Magnete, Rotoren, Propeller, Schaufeln, Düsen oder eine beliebige Kombination davon aufweist. In manchen Beispielen kann das Antriebssystem verwendet werden, um dem beweglichen Objekt zu ermöglichen von einer Oberfläche abzuheben, auf einer Oberfläche zu landen, seine aktuelle Position und/oder Ausrichtung beizubehalten (z.B. schweben), seine Ausrichtung zu ändern und/oder seine Position zu ändern.In some examples, the moving object can be a vehicle. Suitable vehicles can include watercraft, aircraft, spacecraft, or ground vehicles. For example, aircraft can be fixed wing aircraft (e.g. aircraft, gliders), rotary wing aircraft (e.g. helicopters, rotor aircraft), aircraft that have both rigid wings and rotary wings, or aircraft that do not have either (e.g. small airships, hot air balloons). A vehicle can be self-propelled, such as through the air, on or in water, in space, or self-propelled on or under the ground. A self-propelled vehicle can utilize a propulsion system, such as a propulsion system, that includes one or more machines, motors, wheels, axles, magnets, rotors, propellers, blades, nozzles, or any combination thereof. In some examples, the propulsion system may be used to enable the moving object to take off from a surface, land on a surface, maintain its current position and / or orientation (eg, hover), change orientation, and / or change position .
Das bewegliche Objekt kann von einem Benutzer ferngesteuert werden oder von einem Insassen lokal in oder auf dem beweglichen Objekts gesteuert werden. In manchen Ausführungsformen ist das bewegliche Objekt ein unbemanntes bewegliches Objekt, wie ein UAV. Ein unbemanntes bewegliches Objekt, wie ein UAV, kann keinen Insassen an Bord des beweglichen Objekts aufweisen. Das bewegliche Objekt kann von einem Menschen oder einem autonomen Steuerungssystem (z.B. ein Computersteuerungssystem) oder einer beliebigen geeigneten Kombination davon gesteuert werden. Das bewegliche Objekt kann ein autonomer oder halbautonomer Roboter sein, wie ein Roboter, der mit einer künstlichen Intelligenz konfiguriert ist.The moving object can be remotely controlled by a user or controlled locally in or on the moving object by an occupant. In some embodiments, the moving object is an unmanned moving object, such as a UAV. An unmanned moving object, such as a UAV, cannot have an occupant on board the moving object. The moving object can be controlled by a human or an autonomous control system (e.g., a computer control system), or any suitable combination thereof. The moving object can be an autonomous or semi-autonomous robot, such as a robot configured with artificial intelligence.
Das bewegliche Objekt kann eine beliebige geeignete Größe und/oder Abmessungen aufweisen. In manchen Ausführungsformen kann das bewegliche Objekt eine Größe und/oder Abmessungen haben, um einen menschlichen Insassen innerhalb des Fahrzeugs oder darauf aufzuweisen. Alternativ kann das bewegliche Objekt eine Größe und/oder Abmessungen haben, die kleiner als die sind, die im Stande sind, einen menschlichen Insassen innerhalb des Fahrzeugs oder darauf aufzuweisen. Das bewegliche Objekt kann eine Größe und/oder Abmessungen haben, die geeignet sind, von einem Menschen angehoben oder getragen zu werden. Alternativ kann das bewegliche Objekt größer als eine Größe und/oder Abmessungen sein, die geeignet sind, von einem Menschen angehoben oder getragen zu werden. In manchen Beispielen kann das bewegliche Objekt eine maximale Abmessung (z.B. Länge, Breite, Höhe, Durchmesser, Diagonale) kleiner als oder gleich etwa: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m aufweisen. Die maximale Abmessung kann größer als oder gleich etwa: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein. Zum Beispiel kann der Abstand zwischen Wellen gegenüberliegender Rotoren des beweglichen Objekts kleiner als oder gleich etwa: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein. Alternativ kann der Abstand zwischen Wellen gegenüberliegender Rotoren größer als oder gleich etwa: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein.The moving object can be of any suitable size and / or dimensions. In some embodiments, the movable object may be sized and / or dimensioned to have a human occupant within or on top of the vehicle. Alternatively, the movable object may have a size and / or dimensions that are smaller than those capable of having a human occupant within or on the vehicle. The movable object can have a size and / or dimensions that are suitable for being lifted or carried by a human being. Alternatively, the moving object may be larger than a size and / or dimensions suitable for being lifted or carried by a human. In some examples, the moving object can have a maximum dimension (e.g. length, width, height, diameter, diagonal) less than or equal to approximately: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 have m. The maximum dimension can be greater than or equal to about: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m. For example, the distance between shafts of opposing rotors of the moving object may be less than or equal to about: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m. Alternatively, the distance between shafts of opposing rotors can be greater than or equal to approximately: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 m.
In manchen Ausführungsformen kann das bewegliche Objekt ein Volumen kleiner als 100 cm x 100 cm x 100 cm, kleiner als 50 cm x 50 cm x 30 cm oder kleiner als 5 cm x 5 cm x 3 cm aufweisen. Das Gesamtvolumen des beweglichen Objekts kann kleiner als oder gleich etwa: 1 cm3, 2 cm3, 5 cm3, 10 cm3, 20 cm3, 30 cm3, 40 cm3, 50 cm3, 60 cm3, 70 cm3, 80 cm3, 90 cm3, 100 cm3, 150 cm3, 200 cm3, 300 cm3, 500 cm3, 750 cm3, 1000 cm3, 5000 cm3, 10.000 cm3, 100.000 cm3, 1 m3 oder 10 m3 sein. Im Umkehrschluss kann das Gesamtvolumen des beweglichen Objekts größer als oder gleich etwa: 1 cm3, 2 cm3, 5 cm3, 10 cm3, 20 cm3, 30 cm3, 40 cm3, 50 cm3, 60 cm3, 70 cm3, 80 cm3, 90 cm3, 100 cm3, 150 cm3, 200 cm3, 300 cm3, 500 cm3, 750 cm3, 1000 cm3, 5000 cm3, 10.000 cm3, 100.000 cm3, 1 m3 oder 10 m3 sein.In some embodiments, the moving object can have a volume smaller than 100 cm x 100 cm x 100 cm, smaller than 50 cm x 50 cm x 30 cm or smaller than 5 cm x 5 cm x 3 cm. The total volume of the moving object can be less than or equal to approximately: 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3 , 200 cm 3 , 300 cm 3 , 500 cm 3 , 750 cm 3 , 1000 cm 3 , 5000 cm 3 , 10,000 cm 3 , 100,000 cm 3 , 1 m 3 or 10 m 3 . Conversely, the total volume of the moving object can be greater than or equal to approximately: 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3 , 200 cm 3 , 300 cm 3 , 500 cm 3 , 750 cm 3 , 1000 cm 3 , 5000 cm 3 , 10,000 cm 3 , 100,000 cm 3 , 1 m 3 or 10 m 3 .
In manchen Ausführungsformen kann das bewegliche Objekt einen Fußabdruck (was sich auf die seitliche Querschnittsfläche bezieht, die von dem beweglichen Objekt umschlossen wird) kleiner als oder gleich etwa: 32.000 cm2, 20.000 cm2, 10.000 cm2, 1.000 cm2, 500 cm2, 100 cm2, 50 cm2, 10 cm2 oder 5 cm2 sein. Im Umkehrschluss kann der Fußabdruck größer als oder gleich etwa: 32.000 cm2, 20.000 cm2, 10.000 cm2, 1.000 cm2, 500 cm2, 100 cm2, 50 cm2, 10 cm2 oder 5 cm2 sein.In some embodiments, the moving object may be less than or equal to a footprint (which refers to the lateral cross-sectional area enclosed by the moving object) for example: 32,000 cm 2 , 20,000 cm 2 , 10,000 cm 2 , 1,000 cm 2 , 500 cm 2 , 100 cm 2 , 50 cm 2 , 10 cm 2 or 5 cm 2 . Conversely, the footprint can be greater than or equal to approximately: 32,000 cm 2 , 20,000 cm 2 , 10,000 cm 2 , 1,000 cm 2 , 500 cm 2 , 100 cm 2 , 50 cm 2 , 10 cm 2 or 5 cm 2 .
In manchen Beispielen kann das bewegliche Objekt nicht mehr als 1000 kg wiegen. Das Gewicht das beweglichen Objekts kann geringer als oder gleich etwa: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0,5 kg, 0,1 kg, 0,05 kg oder 0,01 kg sein. Im Umkehrschluss kann das Gewicht größer als oder gleich etwa: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0,5 kg, 0,1 kg, 0,05 kg oder 0,01 kg sein.In some examples, the moving object cannot weigh more than 1000 kg. The weight of the moving object can be less than or equal to about: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg , 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg , 0.1 kg, 0.05 kg or 0.01 kg. Conversely, the weight can be greater than or equal to approximately: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg, Be 0.1 kg, 0.05 kg or 0.01 kg.
In manchen Ausführungsformen kann ein bewegliches Objekt relativ zu einer Last, die von dem beweglichen Objekt getragen wird, klein sein. Die Last kann eine Nutzlast und/oder einen Träger aufweisen, wie unten detaillierter beschrieben wird. In manchen Beispielen kann ein Verhältnis eines beweglichen Objektgewichts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. In manchen Beispielen kann ein Verhältnis eines beweglichen Objektgewichts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. Optional kann ein Verhältnis eines Trägergewichts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. Wenn gewünscht, kann das Verhältnis eines beweglichen Objektgewichts zu einem Lastgewicht kleiner als oder gleich: 1:2, 1:3, 1:4, 1:5, 1:10 oder sogar geringer sein. Im Umkehrschluss kann das Verhältnis eines beweglichen Objektgewichts zu einem Lastgewicht auch größer als oder gleich: 2:1, 3:1, 4:1, 5:1, 10:1 oder sogar höher sein.In some embodiments, a moving object may be small relative to a load carried by the moving object. The load may comprise a payload and / or a carrier, as will be described in more detail below. In some examples, a ratio of a moving object weight to a load weight may be greater than, less than, or equal to about 1: 1. In some examples, a ratio of a moving object weight to a load weight may be greater than, less than, or equal to about 1: 1. Optionally, a ratio of a carrier weight to a load weight can be greater than, less than, or equal to about 1: 1. If desired, the ratio of a moving object weight to a load weight can be less than or equal to: 1: 2, 1: 3, 1: 4, 1: 5, 1:10 or even less. Conversely, the ratio of a moving object weight to a load weight can also be greater than or equal to: 2: 1, 3: 1, 4: 1, 5: 1, 10: 1 or even higher.
In manchen Ausführungsformen kann das bewegliche Objekt niedrigen Energieverbrauch aufweisen. Zum Beispiel kann das bewegliche Objekt weniger als etwa: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger verbrauchen. In manchen Beispielen kann ein Träger des beweglichen Objekts niedrigen Energieverbrauch aufweisen. Zum Beispiel kann der Träger weniger als etwa: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger verbrauchen. Optional kann eine Nutzlast des beweglichen Objekts niedrigen Energieverbrauch aufweisen, wie weniger als etwa: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger.In some embodiments, the moving object can have low power consumption. For example, the moving object may consume less than about: 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h or less. In some examples, a carrier of the moving object can have low energy consumption. For example, the wearer may consume less than about: 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h, or less. Optionally, a payload of the moving object may have low energy consumption, such as less than about: 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h, or less.
In manchen Ausführungsformen kann das bewegliche Objekt konfiguriert sein, eine Last zu tragen. Die Last kann eines oder mehreres aufweisen von Passagieren, Fracht, Ausrüstung, Instrumenten und dergleichen. Die Last kann innerhalb eines Gehäuses bereitgestellt sein. Das Gehäuse kann von einem Gehäuse des beweglichen Objekts getrennt sein oder Teil eines Gehäuses für ein bewegliches Objekt sein. Alternativ kann die Last mit einem Gehäuse bereitgestellt sein, während das bewegliche Objekt kein Gehäuse aufweist. Alternativ können Abschnitte der Last oder die gesamte Last ohne ein Gehäuse bereitgestellt sein. Die Last kann relativ zu dem beweglichen Objekt starr fixiert sein. Optional kann die Last relativ zu dem beweglichen Objekt beweglich (z.B. relativ zu dem beweglichen Objekt verschiebbar oder drehbar) sein.In some embodiments, the moving object can be configured to carry a load. The load can include one or more of passengers, cargo, equipment, instruments, and the like. The load can be provided within a housing. The housing can be separate from a housing for the moving object or it can be part of a housing for a moving object. Alternatively, the load may be provided with a housing while the movable object has no housing. Alternatively, portions of the load or the entire load can be provided without a housing. The load can be fixed rigidly relative to the moving object. Optionally, the load can be movable (e.g., slidable or rotatable relative to the movable object) relative to the movable object.
In manchen Ausführungsformen weist die Last eine Nutzlast auf. Die Nutzlast kann konfiguriert sein, keinerlei Betrieb oder Funktion durchzuführen. Alternativ kann die Nutzlast eine Nutzlast sein, die konfiguriert ist, einen Betrieb oder eine Funktion durchzuführen, auch als eine funktionale Nutzlast bekannt. Zum Beispiel kann die Nutzlast einen oder mehrere Sensoren aufweisen, um ein oder mehrere Ziele zu überwachen. Beliebige geeignete Sensoren können in die Nutzlast eingegliedert werden, wie eine Bildaufnahmevorrichtung (z.B. eine Kamera), eine Tonaufnahmevorrichtung (z.B. ein Richtmikrofon), eine Infrarotabbildungsvorrichtung oder eine Ultraviolettabbildungsvorrichtung. Der Sensor kann statische Erfassungsdaten (z.B. eine Fotografie) oder dynamische Erfassungsdaten (z.B. ein Video) bereitstellen. In manchen Ausführungsformen stellt der Sensor Erfassungsdaten für das Ziel der Nutzlast bereit. Alternativ oder in Kombination kann die Nutzlast einen oder mehrere Emitter aufweisen, um Signale an ein oder mehrere Ziele bereitzustellen. Ein beliebiger geeigneter Emitter kann verwendet werden, wie eine Beleuchtungsquelle oder eine Tonquelle. In manchen Ausführungsformen weist die Nutzlast einen oder mehrere Sendeempfänger auf, wie zur Kommunikation mit einem Modul fern von dem beweglichen Objekt. Optional kann die Nutzlast konfiguriert sein, mit der Umgebung oder einem Ziel zu interagieren. Zum Beispiel kann die Nutzlast ein Werkzeug, ein Instrument oder einen Mechanismus aufweisen, das oder der im Stande ist, Objekte zu manipulieren, wie einen Roboterarm.In some embodiments, the load includes a payload. The payload can be configured not to perform any operation or function. Alternatively, the payload may be a payload configured to perform an operation or function, also known as a functional payload. For example, the payload can include one or more sensors to monitor one or more targets. Any suitable sensors can be incorporated into the payload, such as an image pickup device (e.g., a camera), a sound pickup device (e.g., a directional microphone), an infrared imaging device, or an ultraviolet imaging device. The sensor can capture data (e.g. a photograph) or static Provide dynamic acquisition data (e.g. a video). In some embodiments, the sensor provides detection data for the target of the payload. Alternatively or in combination, the payload can have one or more emitters in order to provide signals to one or more destinations. Any suitable emitter can be used, such as a lighting source or a sound source. In some embodiments, the payload includes one or more transceivers, such as to communicate with a module remote from the moving object. Optionally, the payload can be configured to interact with the environment or a target. For example, the payload may include a tool, instrument, or mechanism capable of manipulating objects, such as a robotic arm.
Optional kann die Last einen Träger aufweisen. Der Träger kann für die Nutzlast bereitgestellt sein und die Nutzlast kann mit dem beweglichen Objekt über den Träger entweder direkt (z.B. direkt in Kontakt mit dem beweglichen Objekt) oder indirekt (z.B. nicht in Kontakt mit dem beweglichen Objekt) gekoppelt sein. Im Umkehrschluss kann die Nutzlast an dem beweglichen Objekt montiert sein, ohne einen Träger zu benötigen. Die Nutzlast kann ganzheitlich mit dem Träger gebildet sein. Alternativ kann die Nutzlast lösbar mit dem Träger gekoppelt sein. In manchen Ausführungsformen kann die Nutzlast ein oder mehrere Nutzlastelemente aufweisen und eines oder mehrere der Nutzlastelemente können relativ zu dem beweglichen Objekt und/oder dem Träger beweglich sein, wie zuvor beschrieben wurde.Optionally, the load can have a carrier. The carrier can be provided for the payload and the payload can be coupled to the moving object via the carrier either directly (e.g., directly in contact with the moving object) or indirectly (e.g. not in contact with the moving object). Conversely, the payload can be mounted on the moving object without the need for a carrier. The payload can be formed integrally with the carrier. Alternatively, the payload can be releasably coupled to the carrier. In some embodiments, the payload can include one or more payload elements, and one or more of the payload elements can be movable relative to the movable object and / or the carrier, as previously described.
Der Träger kann ganzheitlich mit dem beweglichen Objekt gebildet sein. Alternativ kann der Träger lösbar mit dem beweglichen Objekt gekoppelt sein. Der Träger kann mit dem beweglichen Objekt direkt oder indirekt gekoppelt sein. Der Träger kann Unterstützung für die Nutzlast bereitstellen (z.B. mindestens einen Teil des Gewichts der Nutzlast tragen). Der Träger kann eine geeignete Montagestruktur (z.B. eine Kardanplattform) aufweisen, die im Stande ist, die Bewegung der Nutzlast zu stabilisieren und/oder zu lenken. In manchen Ausführungsformen kann der Träger angepasst sein, den Zustand der Nutzlast (z.B. Position und/oder Ausrichtung) relativ zu dem beweglichen Objekt zu steuern. Zum Beispiel kann der Träger konfiguriert sein, sich relativ zu dem beweglichen Objekt derart zu bewegen (z.B. in Bezug auf ein, zwei oder drei Translationsgrade und/oder ein, zwei oder drei Rotationsgrade), dass die Nutzlast ihre Position und/oder Ausrichtung relativ zu einem geeigneten Referenzrahmen beibehält, ungeachtet der Bewegung des beweglichen Objekts. Der Referenzrahmen kann ein fixierter Referenzrahmen sein (z.B. die umliegende Umgebung). Alternativ kann der Referenzrahmen ein beweglicher Referenzrahmen sein (z.B. das bewegliche Objekt, ein Nutzlastziel) .The carrier can be formed integrally with the moving object. Alternatively, the carrier can be detachably coupled to the movable object. The carrier can be coupled directly or indirectly to the moving object. The carrier can provide support for the payload (e.g., carry at least a portion of the weight of the payload). The carrier may have a suitable mounting structure (e.g. a gimbal platform) capable of stabilizing and / or directing the movement of the payload. In some embodiments, the carrier can be adapted to control the state of the payload (e.g., position and / or orientation) relative to the moving object. For example, the carrier can be configured to move relative to the moving object (e.g. with respect to one, two or three degrees of translation and / or one, two or three degrees of rotation) such that the payload is relative to its position and / or orientation an appropriate frame of reference regardless of the movement of the moving object. The frame of reference can be a fixed frame of reference (e.g. the surrounding environment). Alternatively, the reference frame can be a moving reference frame (e.g. the moving object, a payload target).
In manchen Ausführungsformen kann der Träger konfiguriert sein, Bewegung der Nutzlast relativ zu dem Träger und/oder beweglichen Objekt zuzulassen. Die Bewegung kann eine Translation in Bezug auf bis zu drei Freiheitsgrade (z.B. entlang einer, zwei oder drei Achsen) oder eine Rotation in Bezug auf bis zu drei Freiheitsgrade (z.B. um eine, zwei oder drei Achsen) oder eine beliebige geeignete Kombination davon sein.In some embodiments, the carrier may be configured to allow movement of the payload relative to the carrier and / or moving object. The movement can be translation with respect to up to three degrees of freedom (e.g., along one, two, or three axes) or rotation with respect to up to three degrees of freedom (e.g., about one, two or three axes), or any suitable combination thereof.
In manchen Beispielen kann der Träger eine Trägerrahmenbaugruppe und eine Trägerbetätigungsbaugruppe aufweisen. Die Trägerrahmenbaugruppe kann strukturelle Unterstützung für die Nutzlast bereitstellen. Die Trägerrahmenbaugruppe kann individuelle Trägerrahmenkomponenten aufweisen, von denen manche relativ zueinander beweglich sein können. Die Trägerbetätigungsbaugruppe kann einen oder mehrere Aktoren (z.B. Motoren) aufweisen, die Bewegung der individuellen Trägerrahmenkomponenten betätigen. Die Aktoren können die Bewegung mehrerer Trägerrahmenkomponenten gleichzeitig zulassen oder können konfiguriert sein, die Bewegung jeweils einer einzelnen Trägerrahmenkomponente zuzulassen. Die Bewegung der Trägerrahmenkomponenten kann eine entsprechende Bewegung der Nutzlast erzeugen. Zum Beispiel kann die Trägerbetätigungsbaugruppe eine Rotation einer oder mehrerer Trägerrahmenkomponenten um eine oder mehrere Rotationsachsen (z.B. Rollachse, Nickachse oder Gierachse) betätigen. Die Rotation der einen oder mehreren Trägerrahmenkomponenten kann eine Nutzlast veranlassen, um eine oder mehrere Rotationsachsen relativ zu dem beweglichen Objekt zu rotieren. Alternativ oder in Kombination kann die Trägerbetätigungsbaugruppe eine Translation einer oder mehrerer Trägerrahmenkomponenten entlang einer oder mehrerer Translationsachsen betätigen und dadurch eine Translation der Nutzlast entlang einer oder mehrerer entsprechender Achsen relativ zu dem beweglichen Objekt erzeugen.In some examples, the carrier can include a carrier frame assembly and a carrier actuation assembly. The support frame assembly can provide structural support for the payload. The support frame assembly can include individual support frame components, some of which can be movable relative to one another. The carrier actuation assembly may include one or more actuators (e.g., motors) that actuate movement of the individual carrier frame components. The actuators can allow the movement of several carrier frame components at the same time or can be configured to allow the movement of a single carrier frame component at a time. The movement of the carrier frame components can produce a corresponding movement of the payload. For example, the carrier actuation assembly can actuate rotation of one or more carrier frame components about one or more axes of rotation (e.g., roll axis, pitch axis, or yaw axis). The rotation of the one or more support frame components can cause a payload to rotate about one or more axes of rotation relative to the moving object. Alternatively or in combination, the carrier actuation assembly can actuate a translation of one or more carrier frame components along one or more translation axes and thereby generate a translation of the payload along one or more corresponding axes relative to the movable object.
In manchen Ausführungsformen kann die Bewegung des beweglichen Objekts, des Trägers und der Nutzlast relativ zu einem fixierten Referenzrahmen (z.B. die umliegende Umgebung) und/oder zueinander von einem Endgerät gesteuert werden. Das Endgerät kann eine Fernsteuerungsvorrichtung an einem Standort fern des beweglichen Objekts, Trägers und/oder der Nutzlast sein. Das Endgerät kann an einer Stützplattform angeordnet oder daran fixiert sein. Alternativ kann das Endgerät eine handgehaltene oder am Körper tragbare Vorrichtung sein. Zum Beispiel kann das Endgerät ein Smartphone, Tablet, einen Laptop, Computer, Brillen, Handschuhe, einen Helm, ein Mikrofon oder geeignete Kombinationen davon aufweisen. Das Endgerät kann eine Benutzerschnittstelle aufweisen, wie eine Tastatur, Maus, einen Steuerhebel, Berührungsbildschirm oder eine Anzeige. Eine beliebige geeignete Benutzereingabe kann verwendet werden, um mit dem Endgerät zu interagieren, wie manuell eingegebene Befehle, Sprachsteuerung, Gestensteuerung oder Positionssteuerung (z.B. über eine Bewegung, einen Standort oder eine Neigung des Endgeräts).In some embodiments, the movement of the movable object, the carrier and the payload relative to a fixed reference frame (eg the surrounding environment) and / or to one another can be controlled by a terminal. The terminal may be a remote control device at a location remote from the moving object, carrier, and / or payload. The terminal device can be arranged on a support platform or fixed to it. Alternatively, the terminal can be a handheld device or a device that can be worn on the body. For example, the terminal device can have a smartphone, tablet, laptop, computer, glasses, gloves, helmet, microphone or suitable combinations thereof. The terminal device can have a user interface, such as a keyboard, mouse, control lever, touch screen or an ad. Any suitable user input can be used to interact with the terminal, such as manually entered commands, voice control, gesture control or position control (e.g. via a movement, a location or a tilt of the terminal).
Das Endgerät kann verwendet werden, um einen beliebigen geeigneten Zustand des beweglichen Objekts, Trägers und/oder einer Nutzlast zu steuern. Zum Beispiel kann das Endgerät verwendet werden, um die Position und/oder Ausrichtung des beweglichen Objekts, Trägers und/oder der Nutzlast relativ zu einer fixierten Referenz von und/oder zu einander zu steuern. In manchen Ausführungsformen kann das Endgerät verwendet werden, um individuelle Elemente des beweglichen Objekts, Trägers und/oder der Nutzlast zu steuern, wie die Betätigungsbaugruppe des Trägers, einen Sensor der Nutzlast oder einen Emitter der Nutzlast. Das Endgerät kann eine drahtlose Kommunikationsvorrichtung aufweisen, die angepasst ist, mit einem oder mehreren des beweglichen Objekts, Trägers oder der Nutzlast zu kommunizieren.The terminal can be used to control any suitable state of the moving object, carrier and / or payload. For example, the terminal can be used to control the position and / or orientation of the movable object, carrier and / or the payload relative to a fixed reference from and / or to one another. In some embodiments, the terminal can be used to control individual elements of the moving object, carrier, and / or the payload, such as the carrier's actuation assembly, a sensor of the payload, or an emitter of the payload. The terminal may have a wireless communication device adapted to communicate with one or more of the moving object, carrier or payload.
Das Endgerät kann eine geeignete Anzeigeeinheit zum Ansehen von Informationen des beweglichen Objekts, Trägers und/oder der Nutzlast aufweisen. Zum Beispiel kann das Endgerät konfiguriert sein, Anzeigeinformationen des beweglichen Objekts, Trägers und/oder der Nutzlast in Bezug auf Position, Translationsgeschwindigkeit, Translationsbeschleunigung, Ausrichtung, Winkelgeschwindigkeit, Winkelbeschleunigung oder beliebige geeignete Kombinationen davon anzuzeigen. In manchen Ausführungsformen kann das Endgerät Informationen anzeigen, die von der Nutzlast bereitgestellt werden, wie Daten, die von einer funktionellen Nutzlast bereitgestellt werden (z.B. Bilder, die von einer Kamera oder einer anderen Bildaufnahmevorrichtung aufgezeichnet wurden).The terminal can have a suitable display unit for viewing information about the moving object, carrier and / or the payload. For example, the terminal may be configured to display display information of the moving object, carrier, and / or payload in terms of position, translational speed, translational acceleration, orientation, angular speed, angular acceleration, or any suitable combination thereof. In some embodiments, the terminal may display information provided by the payload, such as data provided by a functional payload (e.g., images recorded by a camera or other image capture device).
Optional kann dasselbe Endgerät sowohl das bewegliche Objekt, den Träger und/oder die Nutzlast oder einen Zustand des beweglichen Objekts, Trägers und/oder der Nutzlast steuern, als auch Informationen von dem beweglichen Objekt, Träger und/oder Nutzlast empfangen und/oder anzeigen. Zum Beispiel kann ein Endgerät das Positionieren der Nutzlast relativ zu einer Umgebung steuern, während Bilddaten, die von der Nutzlast aufgenommen wurden, oder Informationen über die Position der Nutzlast angezeigt werden. Alternativ können unterschiedliche Endgeräte für unterschiedliche Funktionen verwendet werden. Zum Beispiel kann ein erstes Endgerät Bewegung oder einen Zustand des beweglichen Objekts, Trägers und/oder der Nutzlast steuern, während ein zweites Endgerät Informationen von dem beweglichen Objekt, Träger und/oder der Nutzlast empfangen und/oder anzeigen kann. Zum Beispiel kann ein erstes Endgerät verwendet werden, um das Positionieren der Nutzlast relativ zu einer Umgebung zu steuern, während ein zweites Endgerät Bilddaten anzeigt, die von der Nutzlast aufgenommen wurden. Verschiedene Kommunikationsmodi können zwischen einem beweglichen Objekt und einem integrierten Endgerät, das sowohl das bewegliche Objekt steuert als auch Daten empfängt, oder zwischen dem beweglichen Objekt und mehreren Endgeräten, die sowohl das bewegliche Objekt steuern als auch Daten empfangen, genutzt werden. Zum Beispiel können mindestens zwei unterschiedliche Kommunikationsmodi zwischen dem beweglichen Objekt und dem Endgerät, das sowohl das bewegliche Objekt steuert als auch Daten von dem beweglichen Objekt empfängt, gebildet sein.Optionally, the same terminal can control both the moving object, the carrier and / or the payload or a state of the moving object, carrier and / or the payload, and also receive and / or display information from the moving object, carrier and / or payload. For example, a terminal device can control the positioning of the payload relative to an environment while image data recorded from the payload or information about the position of the payload is displayed. Alternatively, different terminals can be used for different functions. For example, a first terminal can control movement or a state of the moving object, carrier and / or the payload, while a second terminal can receive and / or display information from the moving object, carrier and / or the payload. For example, a first terminal can be used to control the positioning of the payload relative to an environment, while a second terminal displays image data that has been recorded from the payload. Various communication modes can be used between a moving object and an integrated terminal that both controls the moving object and receives data, or between the moving object and a plurality of terminals that both control the moving object and receive data. For example, at least two different communication modes can be established between the moving object and the terminal which both controls the moving object and receives data from the moving object.
Die Antriebsmechanismen
In manchen Ausführungsformen können die Antriebsmechanismen
Das Erfassungssystem
Das Kommunikationssystem
In manchen Ausführungsformen kann das Endgerät
In manchen Ausführungsformen kann das bewegliche Objekt
Das Erfassungsmodul
Die Verarbeitungseinheit
In manchen Ausführungsformen kann die Verarbeitungseinheit
Die Verarbeitungseinheit
Die Komponenten des Systems
Wie hierin verwendet, umschließen A und/oder B eines oder mehreres von A oder B und Kombinationen davon, wie A und B.As used herein, A and / or B encompass one or more of A or B and combinations thereof, such as A and B.
Di spezifischen Abmessungen einer beliebigen der Einrichtungen, Vorrichtungen, Systeme und Komponenten davon der vorliegenden Offenbarung können bereits abhängig von der angedachten Anwendung variiert werden, wie der Fachkundige in Anbetracht der Offenbarung hierin erkennen wird. Außerdem wird verstanden, dass die hierin beschriebenen Ausführungsformen nur zu veranschaulichenden Zwecken sind, und dass verschiedene Modifikationen oder Änderungen angesichts dessen Fachkundigen vorgeschlagen werden können und in dem Wesen und Geltungsbereich dieser Anmeldung und dem Umfang der angehängten Ansprüche umfasst sind. Zahlreiche unterschiedliche Kombinationen von hierin beschriebenen Ausführungsformen sind möglich, und solche Kombinationen werden als Teil der vorliegenden Offenbarung betrachtet. Zusätzlich können alle Merkmale, die in Verbindung mit einer beliebigen Ausführungsform hierin besprochen sind, leicht zur Verwendung in anderen Ausführungsformen hierin angepasst werden.The specific dimensions of any of the devices, devices, systems and components thereof of the present disclosure can already be varied depending on the envisaged application, as those skilled in the art will recognize in view of the disclosure herein. It is also understood that the embodiments described herein are for illustrative purposes only, and that various modifications or changes may be suggested to those skilled in the art and are encompassed within the spirit and scope of this application and the scope of the appended claims. Numerous different combinations of the embodiments described herein are possible and such combinations are considered part of the present disclosure. In addition, all of the features discussed in connection with any embodiment herein can be readily adapted for use in other embodiments herein.
Während bevorzugte Ausführungsformen der vorliegenden Erfindung hierin gezeigt und beschrieben wurden, wird den Fachkundigen ersichtlich, dass solche Ausführungsformen nur beispielhaft bereitgestellt werden. Zahlreiche Variationen, Änderungen und Ersetzungen werden nun Fachkundigen ersichtlich werden, ohne von der Erfindung abzuweichen. Es sollte verstanden werden, dass verschiedene Alternativen zu den hierin beschriebenen Ausführungsformen der Erfindung beim Umsetzen der Erfindung eingesetzt werden können. Es wird angedacht, dass die folgenden Ansprüche den Umfang der Erfindung definieren und dass Verfahren und Strukturen innerhalb des Umfangs dieser Ansprüche und deren Äquivalente davon abgedeckt werden.While preferred embodiments of the present invention have been shown and described herein, those skilled in the art will recognize that such embodiments are provided by way of example only. Numerous variations, changes, and substitutions will now become apparent to those skilled in the art without departing from the invention. It should be understood that various alternatives to the embodiments of the invention described herein can be used in practicing the invention. It is contemplated that the following claims define the scope of the invention and that methods and structures within the scope of these claims and their equivalents be covered therein.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202014011514.1U DE202014011514U1 (en) | 2014-11-04 | 2014-11-04 | Camera calibration |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202014011514.1U DE202014011514U1 (en) | 2014-11-04 | 2014-11-04 | Camera calibration |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202014011514U1 true DE202014011514U1 (en) | 2021-11-05 |
Family
ID=78719051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202014011514.1U Expired - Lifetime DE202014011514U1 (en) | 2014-11-04 | 2014-11-04 | Camera calibration |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202014011514U1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114459423A (en) * | 2022-01-24 | 2022-05-10 | 长江大学 | Method for monocular measurement and calculation of distance of sailing ship |
-
2014
- 2014-11-04 DE DE202014011514.1U patent/DE202014011514U1/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114459423A (en) * | 2022-01-24 | 2022-05-10 | 长江大学 | Method for monocular measurement and calculation of distance of sailing ship |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10475209B2 (en) | Camera calibration | |
US11526998B2 (en) | Methods and system for infrared tracking | |
CN111527463B (en) | Method and system for multi-target tracking | |
US10599149B2 (en) | Salient feature based vehicle positioning | |
US10802509B2 (en) | Selective processing of sensor data | |
US11644839B2 (en) | Systems and methods for generating a real-time map using a movable object | |
EP3420428B1 (en) | Systems and methods for visual target tracking | |
EP3803273A1 (en) | Techniques for real-time mapping in a movable object environment | |
WO2020215188A1 (en) | Method for generating flight route, control device and unmanned aerial vehicle system | |
WO2017206179A1 (en) | Simple multi-sensor calibration | |
DE102015201951A1 (en) | System and method for mapping, locating and correcting a spatial position | |
DE112017001322T5 (en) | Signal processing apparatus and signal processing method | |
EP3430368A1 (en) | Aircraft for scanning an object, and system for damage analysis for the object | |
CN106444837A (en) | Obstacle avoiding method and obstacle avoiding system for unmanned aerial vehicle | |
US20210009270A1 (en) | Methods and system for composing and capturing images | |
DE102020115499A1 (en) | VEHICLE ECCENTRICITY MAPPING | |
JP6473188B2 (en) | Method, apparatus and program for generating depth map | |
DE102020100230A1 (en) | RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS | |
DE202014011514U1 (en) | Camera calibration | |
DE102022128415A1 (en) | CAMERA LOCALIZATION | |
DE202014011010U1 (en) | Target tracking systems | |
DE102020127797B4 (en) | Sensor method for optically detecting objects of use to detect a safety distance between objects | |
DE102023128808A1 (en) | Systems and methods for calibrating and validating non-overlapping distance sensors of an autonomous vehicle | |
DE102023128810A1 (en) | Systems and methods for calibrating and validating non-overlapping distance sensors of an autonomous vehicle | |
DE102023128809A1 (en) | Systems and methods for calibrating and validating non-overlapping distance sensors of an autonomous vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R151 | Utility model maintained after payment of second maintenance fee after six years | ||
R207 | Utility model specification | ||
R158 | Lapse of ip right after 8 years |