[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE202014011514U1 - Camera calibration - Google Patents

Camera calibration Download PDF

Info

Publication number
DE202014011514U1
DE202014011514U1 DE202014011514.1U DE202014011514U DE202014011514U1 DE 202014011514 U1 DE202014011514 U1 DE 202014011514U1 DE 202014011514 U DE202014011514 U DE 202014011514U DE 202014011514 U1 DE202014011514 U1 DE 202014011514U1
Authority
DE
Germany
Prior art keywords
images
image
reference marks
features
calibration target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014011514.1U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to DE202014011514.1U priority Critical patent/DE202014011514U1/en
Publication of DE202014011514U1 publication Critical patent/DE202014011514U1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

System zum Kalibrieren von Abbildungsvorrichtungen, wobei das System umfasst:
erste und zweite Abbildungsvorrichtungen, die von einem unbemannten Luftfahrzeug getragen werden, wobei jede Abbildungsvorrichtung konfiguriert ist, einen Bilddatensatz aufzunehmen, der eine Vielzahl von Bildern (350, 352) eines Kalibrierungsziels (300, 500) aufweist, wobei das Kalibrierungsziel (300, 500) eine Vielzahl von Merkmalen (302, 304) in einem sich wiederholenden Muster angeordnet und eine Vielzahl von Referenzmarkierungen (502a, 502b, 502c) aufweist, wobei die Referenzmarkierungen (502a, 502b, 502c) in jedem Bild der Vielzahl von Bildern (350, 352) jeweils eindeutig identifizierbar sind, wobei die Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden, wobei die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern bilden und wobei die Vielzahl von Bildern (350, 352) mindestens ein Bild umfasst, das weniger als alle der Vielzahl von Merkmalen (302, 304) aufnimmt; und
einen oder mehrere Prozessoren, die gemeinsam oder individuell konfiguriert sind zum:
Empfangen der Vielzahl von Bildern (350, 352) von jeder der ersten und zweiten Abbildungsvorrichtung;
Ermitteln einer räumlichen Beziehung zwischen den Referenzmarkierungen (502a, 502b, 502c) in jedem Bild der Vielzahl von Bildern (350, 352) und den Referenzmarkierungen (502a, 502b, 502c) auf dem Kalibrierungsziel (300, 500),
wobei der Schritt zum Ermitteln der räumlichen Beziehung umfasst, eine erste Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel zu identifizieren, wobei Identifikation entsprechender Referenzmarkierungen basierend auf dem Positionieren der Referenzmarkierungen relativ zu Kanten oder Winkeln des Polygons durchgeführt wird;
Formulieren, basierend auf der räumlichen Beziehung, einer zweiten Übereinstimmung zwischen Bildkoordinaten von Merkmalen in jedem Bild der Vielzahl von Bildern (350, 352) und globalen Koordinaten für entsprechende Merkmale auf dem Kalibrierungsziel (300, 500), basierend auf den vorgegebenen globalen Koordinaten der Referenzmarkierungen (502a, 502b,
502c); und
Ermitteln von Kalibrierungsparametern für die erste und
zweite Abbildungsvorrichtung, basierend auf der zweiten Übereinstimmung.

Figure DE202014011514U1_0000
A system for calibrating imaging devices, the system comprising:
first and second imaging devices carried by an unmanned aerial vehicle, each imaging device configured to capture an image data set comprising a plurality of images (350, 352) of a calibration target (300, 500), the calibration target (300, 500) a plurality of features (302, 304) arranged in a repeating pattern and having a plurality of reference marks (502a, 502b, 502c), the reference marks (502a, 502b, 502c) in each image of the plurality of images (350, 352 ) are each uniquely identifiable, wherein the reference markings form vertices of an irregular polygon on the calibration target, wherein the one or more reference markings form vertices of an irregular polygon in the plurality of images and wherein the plurality of images (350, 352) comprises at least one image, that receives less than all of the plurality of features (302, 304); and
one or more processors that are configured jointly or individually to:
Receiving the plurality of images (350, 352) from each of the first and second imaging devices;
Determining a spatial relationship between the reference marks (502a, 502b, 502c) in each image of the plurality of images (350, 352) and the reference marks (502a, 502b, 502c) on the calibration target (300, 500),
wherein the step of determining the spatial relationship comprises a first correspondence between the vertices of the irregular polygon in the plurality identify images and the vertices of the irregular polygon on the calibration target, wherein identification of corresponding reference marks is performed based on the positioning of the reference marks relative to edges or angles of the polygon;
Formulating, based on the spatial relationship, a second correspondence between image coordinates of features in each image of the plurality of images (350, 352) and global coordinates for corresponding features on the calibration target (300, 500), based on the predetermined global coordinates of the reference marks (502a, 502b,
502c); and
Determine calibration parameters for the first and
second imaging device based on the second match.
Figure DE202014011514U1_0000

Description

STAND DER TECHNIK DER ERFINDUNGPRIOR ART OF THE INVENTION

Unbemannte Fahrzeuge, wie unbemannte Luftfahrzeuge (UAVs), können verwendet werden, um Überwachungs-, Aufklärungs- und Erkundungsaufgaben für eine weite Vielfalt militärischer und ziviler Anwendungen durchzuführen. In manchen Fällen kann ein UAV eine Kamera tragen, um Bilddaten von Objekten in einer Umgebung zu erzeugen. Basierend auf der spezifischen Anwendung kann eine Kamerakalibrierungsprozedur durchgeführt werden, um einen oder mehrere Parameter der Kamera zu ermitteln.Unmanned vehicles, such as unmanned aerial vehicles (UAVs), can be used to carry out surveillance, reconnaissance and reconnaissance tasks for a wide variety of military and civil applications. In some cases, a UAV can carry a camera to generate image data of objects in an environment. Based on the specific application, a camera calibration procedure can be performed to determine one or more parameters of the camera.

Bestehende Ansätze zur Kamerakalibrierung können in manchen Fällen nicht optimal sein. Zum Beispiel können manche Kamerakalibrierungsverfahren zum Kalibrieren von Abbildungssystemen mit mehreren Kameras nicht optimal sein.Existing approaches to camera calibration may not be optimal in some cases. For example, some camera calibration methods for calibrating imaging systems with multiple cameras may not be optimal.

KURZDARSTELLUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Die vorliegende Offenbarung stellt Systeme, Verfahren und Vorrichtungen zur verbesserten Kalibrierung von Kameras und anderen Typen von Abbildungsvorrichtungen bereit. In manchen Ausführungsformen nutzen die hierin beschriebenen Kalibrierungstechniken Bilder, die von einer oder mehreren Abbildungsvorrichtungen von einem Kalibrierungsziel erhalten werden, das eine Vielzahl von Merkmalen und eine oder mehrere eindeutig identifizierbare Referenzmarkierungen aufweist. Die Referenzmarkierungen können verwendet werden, um Ermittlung einer Übereinstimmung zwischen Bildkoordinaten von Merkmalen in den Bildern und den globalen Koordinaten entsprechender Merkmale auf dem Kalibrierungsziel zu erleichtern. Basierend auf der ermittelten Übereinstimmung können ein oder mehrere Kalibrierungsparameter (z.B. extrinsische und/oder intrinsische Parameter) für die Abbildungsvorrichtungen berechnet werden. Manche Aspekte der vorliegenden Offenbarung gestatten eine Ermittlung von Kalibrierungsparametern unter Verwendung von Bildern, die weniger als die Gesamtheit des Kalibrierungsziels abbilden (z.B. weniger als alle der Merkmale auf dem Kalibrierungsziel). Vorteilhafterweise stellt dieser Ansatz eine verbesserte Genauigkeit und Flexibilität des Kalibrierungsprozesses bereit, insbesondere in Bezug auf eine Kalibrierung mehrerer Abbildungsvorrichtungen.The present disclosure provides systems, methods, and apparatus for improved calibration of cameras and other types of imaging devices. In some embodiments, the calibration techniques described herein utilize images obtained by one or more imaging devices of a calibration target that has a plurality of features and one or more uniquely identifiable fiducial marks. The reference marks can be used to facilitate determination of a correspondence between image coordinates of features in the images and the global coordinates of corresponding features on the calibration target. Based on the determined correspondence, one or more calibration parameters (e.g. extrinsic and / or intrinsic parameters) can be calculated for the imaging devices. Some aspects of the present disclosure allow calibration parameters to be determined using images that depict less than all of the calibration target (e.g., less than all of the features on the calibration target). This approach advantageously provides improved accuracy and flexibility of the calibration process, in particular with regard to a calibration of a plurality of imaging devices.

Daher wird in einem Aspekt ein Verfahren zum Kalibrieren einer oder mehrerer Abbildungsvorrichtungen bereitgestellt. Das Verfahren umfasst: Empfangen, von jeder der einen oder mehreren Abbildungsvorrichtungen, einer Vielzahl von Bildern eines Kalibrierungsziels, wobei das Kalibrierungsziel eine Vielzahl von Merkmalen, die in einem sich wiederholenden Muster eingerichtet sind, und eine oder mehrere Referenzmarkierungen aufweist, wobei die eine oder die mehreren Referenzmarkierungen jeweils eindeutig in jedem Bild der Vielzahl von Bildern identifizierbar sind, und wobei die Vielzahl von Bildern mindestens ein Bild aufweist, das weniger als alle der Vielzahl von Merkmalen aufnimmt; Ermitteln, mit Hilfe eines oder mehrerer Prozessoren, einer räumlichen Beziehung zwischen der einen oder den mehreren Referenzmarkierungen in jedem Bild der Vielzahl von Bildern und der einen oder den mehreren Referenzmarkierungen auf dem Kalibrierungsziel; Formulieren, basierend auf der räumlichen Beziehung und mit Hilfe eines oder mehrerer Prozessoren, einer Übereinstimmung zwischen Bildkoordinaten von Merkmalen in jedem Bild der Vielzahl von Bildern und globalen Koordinaten für entsprechende Merkmale auf dem Kalibrierungsziel; und Ermitteln, basierend auf der Übereinstimmung und mit Hilfe des einen oder der mehreren Prozessoren, von Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen.Therefore, in one aspect, a method for calibrating one or more imaging devices is provided. The method includes: receiving, from each of the one or more imaging devices, a plurality of images of a calibration target, the calibration target having a plurality of features established in a repeating pattern and one or more reference marks, the one or more a plurality of reference marks are each uniquely identifiable in each image of the plurality of images, and wherein the plurality of images includes at least one image that captures less than all of the plurality of features; Determining, using one or more processors, a spatial relationship between the one or more reference marks in each image of the plurality of images and the one or more reference marks on the calibration target; Formulating, based on the spatial relationship and with the aid of one or more processors, a correspondence between image coordinates of features in each image of the plurality of images and global coordinates for corresponding features on the calibration target; and determining, based on the match and with the aid of the one or more processors, calibration parameters for the one or more imaging devices.

In manchen Ausführungsformen werden die eine oder mehreren Abbildungsvorrichtungen von einem unbemannten Luftfahrzeug getragen.In some embodiments, the one or more imaging devices are carried on an unmanned aerial vehicle.

In manchen Ausführungsformen nimmt jedes Bild der Vielzahl von Bildern die eine oder mehreren Referenzmarkierungen und mindestens eine Teilmenge der Vielzahl von Merkmalen auf dem Kalibrierungsziel auf. Die Vielzahl von Bildern von jeder der einen oder mehreren Abbildungsvorrichtungen kann bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden.In some embodiments, each image of the plurality of images captures the one or more reference marks and at least a subset of the plurality of features on the calibration target. The plurality of images from each of the one or more imaging devices can be captured at different positions and orientations relative to the calibration target.

In manchen Ausführungsformen ist das Kalibrierungsziel ein Schachbrett, das eine Vielzahl von Quadraten aufweist, und die Vielzahl von Merkmalen weist Eckpunkte der Vielzahl von Quadraten auf. Die eine oder mehreren Referenzmarkierungen können jeweils innerhalb eines der Vielzahl von Quadraten positioniert sein. Die Vielzahl von Merkmalen kann vier Außenecken des Schachbretts aufweisen und das mindestens eine Bild kann mindestens eine der vier Außenecken auslassen.In some embodiments, the calibration target is a checkerboard that includes a plurality of squares, and the plurality of features includes vertices of the plurality of squares. The one or more reference markings can each be positioned within one of the plurality of squares. The plurality of features can include four outside corners of the chessboard and the at least one image can omit at least one of the four outside corners.

In manchen Ausführungsformen weisen die eine oder mehreren Referenzmarkierungen mindestens drei Referenzmarkierungen auf. Die eine oder mehreren Referenzmarkierungen können kreisförmige Punkte, Dreiecke oder Vierecke aufweisen. Die eine oder mehreren Referenzmarkierungen können über das sich wiederholende Muster gelegt werden. Die eine oder mehreren Referenzmarkierungen können Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden. Die eine oder mehreren Referenzmarkierungen können drei Referenzmarkierungen aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.In some embodiments, the one or more reference marks have at least three reference marks. The one or more reference markings can have circular points, triangles or squares. The one or more reference marks can be placed over the repeating pattern. The one or more reference marks may form vertices of an irregular polygon on the calibration target. The one or more reference markings can have three reference markings which form vertices of an isosceles or non-equilateral triangle.

In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und der Schritt zum Ermitteln der räumlichen Beziehung umfasst ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet sein und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images, and the step of determining the spatial relationship includes identifying a correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the Calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more reference marks can form a shape that is rotationally asymmetrical within the plane.

In manchen Ausführungsformen weisen die eine oder mehrere Abbildungsvorrichtungen eine erste Kamera und eine zweite Kamera auf, die Bilder im Wesentlichen gleichzeitig aufnehmen. Der Formulierungsschritt kann ein Identifizieren von Merkmalen umfassen, die sowohl in einem Bild, das von der ersten Kamera erhalten wird, als auch einem entsprechenden Bild, das von der zweiten Kamera erhalten wird, vorhanden sind. Die Kalibrierungsparameter können mindestens eines von einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optische Verzerrung für jede der einen oder mehreren Abbildungsvorrichtungen aufweisen. Die Kalibrierungsparameter können eine Position und eine Ausrichtung jeder der einen oder mehreren Abbildungsvorrichtungen relativ zu dem Kalibrierungsziel aufweisen.In some embodiments, the one or more imaging devices include a first camera and a second camera that capture images substantially simultaneously. The formulating step may include identifying features that are present in both an image obtained from the first camera and a corresponding image obtained from the second camera. The calibration parameters may include at least one of a focal length, a position of the image center point, pixel size, or optical distortion for each of the one or more imaging devices. The calibration parameters may include a position and orientation of each of the one or more imaging devices relative to the calibration target.

In einem anderen Aspekt wird ein System zum Kalibrieren einer oder mehrerer Abbildungsvorrichtungen bereitgestellt. Das System weist auf: eine oder mehrere Abbildungsvorrichtungen, die jeweils konfiguriert sind, eine Vielzahl von Bildern eines Kalibrierungsziels aufzunehmen, wobei das Kalibrierungsziel eine Vielzahl von Merkmalen, die in einem sich wiederholenden Muster eingerichtet sind, und eine oder mehrere Referenzmarkierungen aufweist, wobei die eine oder mehreren Referenzmarkierungen jeweils eindeutig in jedem Bild der Vielzahl von Bildern identifizierbar sind und wobei die Vielzahl von Bildern mindestens ein Bild umfasst, das weniger als alle der Vielzahl von Merkmalen aufnimmt; und einen oder mehrere Prozessoren, die gemeinsam oder individuell konfiguriert sind zum: Empfangen der Vielzahl von Bildern von jeder der einen oder mehreren Abbildungsvorrichtungen; Ermitteln einer räumlichen Beziehung zwischen der einen oder den mehreren Referenzmarkierungen in jedem Bild der Vielzahl von Bildern und der einen oder den mehreren Referenzmarkierungen auf dem Kalibrierungsziel; Formulieren einer Übereinstimmung zwischen Bildkoordinaten von Merkmalen in jedem Bild der Vielzahl von Bildern und globalen Koordinaten für entsprechende Merkmale auf dem Kalibrierungsziel, basierend auf den vorgegebenen globalen Koordinaten der einen oder mehreren Referenzmarkierungen; und Ermitteln von Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen, basierend auf der Übereinstimmung.In another aspect, a system for calibrating one or more imaging devices is provided. The system comprises: one or more imaging devices each configured to capture a plurality of images of a calibration target, the calibration target having a plurality of features arranged in a repeating pattern and one or more reference marks, the one or a plurality of reference marks are each uniquely identifiable in each image of the plurality of images, and wherein the plurality of images comprises at least one image that takes up less than all of the plurality of features; and one or more processors collectively or individually configured to: receive the plurality of images from each of the one or more imaging devices; Determining a spatial relationship between the one or more reference marks in each image of the plurality of images and the one or more reference marks on the calibration target; Formulating a correspondence between image coordinates of features in each image of the plurality of images and global coordinates for corresponding features on the calibration target based on the predetermined global coordinates of the one or more reference marks; and determining calibration parameters for the one or more imaging devices based on the match.

In manchen Ausführungsformen werden die eine oder mehreren Abbildungsvorrichtungen von einem unbemannten Luftfahrzeug getragen.In some embodiments, the one or more imaging devices are carried on an unmanned aerial vehicle.

In manchen Ausführungsformen nimmt jedes Bild der Vielzahl von Bildern die eine oder mehreren Referenzmarkierungen und mindestens eine Teilmenge der Vielzahl von Merkmalen auf dem Kalibrierungsziel auf. Die Vielzahl von Bildern von jeder der einen oder mehreren Abbildungsvorrichtungen kann bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden.In some embodiments, each image of the plurality of images captures the one or more reference marks and at least a subset of the plurality of features on the calibration target. The plurality of images from each of the one or more imaging devices can be captured at different positions and orientations relative to the calibration target.

In manchen Ausführungsformen ist das Kalibrierungsziel ein Schachbrett, das eine Vielzahl von Quadraten aufweist und die Vielzahl von Merkmalen weist Eckpunkte der Vielzahl von Quadraten auf. Die eine oder mehreren Referenzmarkierungen können jeweils innerhalb eines der Vielzahl von Quadraten positioniert werden. Die Vielzahl von Merkmalen kann vier Außenecken des Schachbretts aufweisen und das mindestens eine Bild kann mindestens eine der vier Außenecken auslassen.In some embodiments, the calibration target is a checkerboard that has a plurality of squares, and the plurality of features includes vertices of the plurality of squares. The one or more reference markings can each be positioned within one of the plurality of squares. The plurality of features can include four outside corners of the chessboard and the at least one image can omit at least one of the four outside corners.

In manchen Ausführungsformen weisen die eine oder mehreren Referenzmarkierungen mindestens drei Referenzmarkierungen auf. Die eine oder mehreren Referenzmarkierungen können kreisförmige Punkte, Dreiecke oder Vierecke aufweisen. Die eine oder mehreren Referenzmarkierungen können über das sich wiederholende Muster gelegt werden. Die eine oder mehreren Referenzmarkierungen können Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden. Die eine oder mehreren Referenzmarkierungen können drei Referenzmarkierungen aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.In some embodiments, the one or more reference marks have at least three reference marks. The one or more reference markings can have circular points, triangles or squares. The one or more reference marks can be placed over the repeating pattern. The one or more reference marks may form vertices of an irregular polygon on the calibration target. The one or more Reference marks can have three reference marks that form vertices of an isosceles or unequal-sided triangle.

In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und der Schritt zum Ermitteln der räumlichen Beziehung umfasst ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet sein und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images, and the step of determining the spatial relationship includes identifying a correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the Calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more reference marks can form a shape that is rotationally asymmetrical within the plane.

In manchen Ausführungsformen weisen die eine oder mehreren Abbildungsvorrichtungen eine erste Kamera und eine zweite Kamera auf, die Bilder im Wesentlichen gleichzeitig aufnehmen. Der Formulierungsschritt kann ein Identifizieren von Merkmalen umfassen, die sowohl in einem Bild, das von der ersten Kamera erhalten wird, als auch einem entsprechenden Bild, das von der zweiten Kamera erhalten wird, vorhanden sind. Die Kalibrierungsparameter können mindestens eines von einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optischen Verzerrung für jede der einen oder mehreren Abbildungsvorrichtungen aufweisen. Die Kalibrierungsparameter können eine Position und eine Ausrichtung jeder der einen oder mehreren Abbildungsvorrichtungen relativ zu dem Kalibrierungsziel aufweisen.In some embodiments, the one or more imaging devices include a first camera and a second camera that capture images substantially simultaneously. The formulating step may include identifying features that are present in both an image obtained from the first camera and a corresponding image obtained from the second camera. The calibration parameters may include at least one of a focal length, a position of the image center point, pixel size, or optical distortion for each of the one or more imaging devices. The calibration parameters may include a position and orientation of each of the one or more imaging devices relative to the calibration target.

In einem anderen Aspekt wird ein Verfahren zum Erzeugen von Tiefenkarten unter Verwendung einer oder mehrerer Abbildungsvorrichtungen bereitgestellt. Das Verfahren umfasst: Erhalten eines oder mehrerer Bilder von jeder der einen oder mehreren Abbildungsvorrichtungen; und Verarbeiten, mit Hilfe eines oder mehrerer Prozessoren, des einen oder der mehreren Bilder von jeder der einen oder mehreren Abbildungsvorrichtungen, basierend auf Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen, um eine dreidimensionale Tiefenkarte zu erzeugen, wobei die Kalibrierungsparameter unter Verwendung einer Vielzahl von Kalibrierungsbildern eines Kalibrierungsziels von jeder der einen oder mehreren Abbildungsvorrichtungen ermittelt werden, wobei das Kalibrierungsziel eine Vielzahl von Merkmalen, die in einem sich wiederholenden Muster eingerichtet sind, und eine oder mehrere Referenzmarkierungen aufweist, wobei die eine oder mehreren Referenzmarkierungen jeweils eindeutig innerhalb jedes Kalibrierungsbilds der Vielzahl von Kalibrierungsbildern identifizierbar sind, und wobei die Vielzahl von Kalibrierungsbildern mindestens ein Kalibrierungsbild umfasst, das weniger als alle der Vielzahl von Merkmalen aufnimmt.In another aspect, a method for generating depth maps using one or more imaging devices is provided. The method includes: obtaining one or more images from each of the one or more imaging devices; and processing, using one or more processors, the one or more images from each of the one or more imaging devices based on calibration parameters for the one or more imaging devices to generate a three-dimensional depth map, the calibration parameters using a plurality of calibration images of a calibration target can be determined by each of the one or more imaging devices, the calibration target having a plurality of features arranged in a repeating pattern and one or more reference marks, the one or more reference marks each being uniquely within each calibration image of the plurality of Calibration images are identifiable, and wherein the plurality of calibration images includes at least one calibration image that captures less than all of the plurality of features.

In manchen Ausführungsformen werden die eine oder mehreren Abbildungsvorrichtungen von einem unbemannten Luftfahrzeug getragen. Die Tiefenkarte kann Informationen aufweisen, die Abstände eines oder mehrerer Objekte von dem unbemannten Luftfahrzeug angeben.In some embodiments, the one or more imaging devices are carried on an unmanned aerial vehicle. The depth map can have information indicating the distances of one or more objects from the unmanned aerial vehicle.

In manchen Ausführungsformen nimmt jedes Kalibrierungsbild der Vielzahl von Kalibrierungen die eine oder mehreren Referenzmarkierungen und mindestens eine Teilmenge der Vielzahl von Merkmalen auf dem Kalibrierungsziel auf. Die Vielzahl von Kalibrierungsbildern von jeder der Abbildungsvorrichtungen kann bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden.In some embodiments, each calibration image of the plurality of calibrations includes the one or more reference marks and at least a subset of the plurality of features on the calibration target. The plurality of calibration images from each of the imaging devices can be captured at different positions and orientations relative to the calibration target.

In manchen Ausführungsformen ist das Kalibrierungsziel ein Schachbrett, das eine Vielzahl von Quadraten aufweist und die Vielzahl von Merkmalen weist Eckpunkte der Vielzahl von Quadraten auf. Die eine oder mehreren Referenzmarkierungen können jeweils innerhalb eines der Vielzahl von Quadraten positioniert werden. Die Vielzahl von Merkmalen kann vier Außenecken des Schachbretts aufweisen und das mindestens eine Kalibrierungsbild kann mindestens eine der vier Außenecken auslassen.In some embodiments, the calibration target is a checkerboard that has a plurality of squares, and the plurality of features includes vertices of the plurality of squares. The one or more reference markings can each be positioned within one of the plurality of squares. The plurality of features can include four outside corners of the chessboard and the at least one calibration image can omit at least one of the four outside corners.

In manchen Ausführungsformen weisen die eine oder mehreren Referenzmarkierungen mindestens drei Referenzmarkierungen auf. Die eine oder mehreren Referenzmarkierungen können kreisförmige Punkte, Dreiecke oder Vierecke aufweisen. Die eine oder mehreren Referenzmarkierungen können über das sich wiederholende Muster gelegt werden. Die eine oder mehreren Referenzmarkierungen können Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden. Die eine oder mehreren Referenzmarkierungen können drei Referenzmarkierungen aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.In some embodiments, the one or more reference marks have at least three reference marks. The one or more reference markings can have circular points, triangles or squares. The one or more reference marks can be placed over the repeating pattern. The one or more reference marks may form vertices of an irregular polygon on the calibration target. The one or more reference markings can have three reference markings which form vertices of an isosceles or non-equilateral triangle.

In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und die Kalibrierungsparameter werden durch mindestens ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Kalibrierungsbildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel ermittelt. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet werden und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images and the calibration parameters are determined by at least one identifying a match between the vertices of the irregular polygon in the plurality of calibration images and the vertices of the irregular polygon determined by the calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more fiducial marks can form a shape that is rotationally asymmetrical within the plane.

In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und der Schritt zum Ermitteln der räumlichen Beziehung umfasst ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet sein und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images, and the step of determining the spatial relationship includes identifying a correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the Calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more reference marks can form a shape that is rotationally asymmetrical within the plane.

In manchen Ausführungsformen weisen die eine oder mehreren Abbildungsvorrichtungen eine erste Kamera und eine zweite Kamera auf, die Bilder im Wesentlichen gleichzeitig aufnehmen. Verarbeiten des einen oder der mehreren Bilder kann ein Identifizieren von Merkmalen umfassen, die sowohl in einem Bild, das von der ersten Kamera erhalten wird, als auch einem entsprechenden Bild, das von der zweiten Kamera erhalten wird, vorhanden sind. Verarbeiten des einen oder der mehreren Bilder kann ein Ermitteln eines Unterschieds zwischen einem Bild, das von der ersten Kamera aufgenommen wird, und einem entsprechenden Bild, das von der zweiten Kamera aufgenommen wird, umfassen. Die Kalibrierungsparameter können mindestens eines von einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optischen Verzerrung für jede der einen oder mehreren Abbildungsvorrichtungen aufweisen. Die Kalibrierungsparameter können eine Position und eine Ausrichtung jeder der einen oder mehreren Abbildungsvorrichtungen relativ zu dem Kalibrierungsziel aufweisen. Verarbeiten des einen oder der mehreren Bilder kann ein Reduzieren optischer Verzerrung in mindestens einem des einen oder der mehreren Bilder umfassen.In some embodiments, the one or more imaging devices include a first camera and a second camera that capture images substantially simultaneously. Processing the one or more images may include identifying features present in both an image obtained from the first camera and a corresponding image obtained from the second camera. Processing the one or more images may include determining a difference between an image captured by the first camera and a corresponding image captured by the second camera. The calibration parameters may include at least one of a focal length, a position of the image center point, pixel size, or optical distortion for each of the one or more imaging devices. The calibration parameters may include a position and orientation of each of the one or more imaging devices relative to the calibration target. Processing the one or more images may include reducing optical distortion in at least one of the one or more images.

In einem anderen Aspekt wird ein System zum Erzeugen von Tiefenkarten unter Verwendung einer oder mehrerer Abbildungsvorrichtungen bereitgestellt. Das System kann aufweisen: eine oder mehrere Abbildungsvorrichtungen, die jeweils konfiguriert sind, Bilder zu erhalten; und einen oder mehrere Prozessoren, die gemeinsam oder individuell konfiguriert sind zum: Erhalten, von jeder der einen oder mehreren Abbildungsvorrichtungen, eines oder mehrerer Bilder; und Verarbeiten des einen oder der mehreren Bilder von jeder der einen oder mehreren Abbildungsvorrichtungen, basierend auf Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen, um eine dreidimensionale Tiefenkarte zu erzeugen, wobei die Kalibrierungsparameter unter Verwendung einer Vielzahl von Kalibrierungsbildern eines Kalibrierungsziels von jeder der einen oder mehreren Abbildungsvorrichtungen ermittelt werden, wobei das Kalibrierungsziel eine Vielzahl von Merkmalen, die in einem sich wiederholenden Muster eingerichtet sind, und eine oder mehrere Referenzmarkierungen aufweist, wobei die eine oder mehreren Referenzmarkierungen jeweils eindeutig innerhalb jedes Kalibrierungsbilds der Vielzahl von Kalibrierungsbildern identifizierbar sind und wobei die Vielzahl von Kalibrierungsbildern mindestens ein Kalibrierungsbild umfasst, das weniger als alle der Vielzahl von Merkmalen aufnimmt.In another aspect, a system for generating depth maps using one or more imaging devices is provided. The system may include: one or more imaging devices each configured to obtain images; and one or more processors collectively or individually configured to: obtain, from each of the one or more imaging devices, one or more images; and processing the one or more images from each of the one or more imaging devices based on calibration parameters for the one or more imaging devices to generate a three-dimensional depth map, the calibration parameters using a plurality of calibration images of a calibration target from each of the one or more Imaging devices are determined, wherein the calibration target has a plurality of features that are set up in a repetitive pattern, and one or more reference marks, wherein the one or more reference marks are each uniquely identifiable within each calibration image of the plurality of calibration images and wherein the plurality of Calibration images comprises at least one calibration image that captures less than all of the plurality of features.

In manchen Ausführungsformen werden die eine oder mehreren Abbildungsvorrichtungen von einem unbemannten Luftfahrzeug getragen. Die Tiefenkarte kann Informationen aufweisen, die Abstände eines oder mehrerer Objekte von dem unbemannten Luftfahrzeug angeben.In some embodiments, the one or more imaging devices are carried on an unmanned aerial vehicle. The depth map can have information indicating the distances of one or more objects from the unmanned aerial vehicle.

In manchen Ausführungsformen nimmt jedes Kalibrierungsbild der Vielzahl von Kalibrierungen die eine oder mehreren Referenzmarkierungen und mindestens eine Teilmenge der Vielzahl von Merkmalen auf dem Kalibrierungsziel auf. Die Vielzahl von Kalibrierungsbildern von jeder der Abbildungsvorrichtungen kann bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden.In some embodiments, each calibration image of the plurality of calibrations includes the one or more reference marks and at least a subset of the plurality of features on the calibration target. The plurality of calibration images from each of the imaging devices can be captured at different positions and orientations relative to the calibration target.

In manchen Ausführungsformen ist das Kalibrierungsziel ein Schachbrett, das eine Vielzahl von Quadraten aufweist und die Vielzahl von Merkmalen weist Eckpunkte der Vielzahl von Quadraten auf. Die eine oder mehreren Referenzmarkierungen können jeweils innerhalb einer der Vielzahl von Quadraten positioniert werden. Die Vielzahl von Merkmalen kann vier Außenecken des Schachbretts aufweisen und das mindestens eine Kalibrierungsbild kann mindestens eine der vier Außenecken auslassen.In some embodiments, the calibration target is a checkerboard that has a plurality of squares, and the plurality of features includes vertices of the plurality of squares. The one or more reference marks can each be positioned within one of the plurality of squares. The plurality of features can include four outside corners of the chessboard and the at least one calibration image can omit at least one of the four outside corners.

In manchen Ausführungsformen weisen die eine oder mehreren Referenzmarkierungen mindestens drei Referenzmarkierungen auf. Die eine oder mehreren Referenzmarkierungen können kreisförmige Punkte, Dreiecke oder Vierecke aufweisen. Die eine oder mehreren Referenzmarkierungen können über das sich wiederholende Muster gelegt werden. Die eine oder mehreren Referenzmarkierungen können Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden. Die eine oder mehreren Referenzmarkierungen können drei Referenzmarkierungen aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.In some embodiments, the one or more reference marks have at least three reference marks. The one or more reference markings can have circular points, triangles or squares. The one or more reference marks can be placed over the repeating pattern. The one or more reference marks may form vertices of an irregular polygon on the calibration target. The one or more Reference marks can have three reference marks that form vertices of an isosceles or unequal-sided triangle.

In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und die Kalibrierungsparameter werden durch mindestens ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Kalibrierungsbildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel ermittelt. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet werden und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images and the calibration parameters are determined by at least one identifying a match between the vertices of the irregular polygon in the plurality of calibration images and the vertices of the irregular polygon on the calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more fiducial marks can form a shape that is rotationally asymmetrical within the plane.

In manchen Ausführungsformen bilden die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern und der Schritt zum Ermitteln der räumlichen Beziehung umfasst ein Identifizieren einer Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel. Die Vielzahl von Merkmalen kann in dem sich wiederholenden Muster über einer Ebene eingerichtet sein und die eine oder mehreren Referenzmarkierungen können eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.In some embodiments, the one or more reference marks form vertices of an irregular polygon in the plurality of images, and the step of determining the spatial relationship includes identifying a correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the Calibration target. The plurality of features can be established in the repeating pattern over a plane, and the one or more reference marks can form a shape that is rotationally asymmetrical within the plane.

In manchen Ausführungsformen weisen die eine oder mehreren Abbildungsvorrichtungen eine erste Kamera und eine zweite Kamera auf, die Bilder im Wesentlichen gleichzeitig aufnehmen. Verarbeiten des einen oder der mehreren Bilder kann ein Identifizieren von Merkmalen umfassen, die sowohl in einem Bild, das von der ersten Kamera erhalten wird, als auch einem entsprechenden Bild, das von der zweiten Kamera erhalten wird, vorhanden sind. Verarbeiten des einen oder der mehreren Bilder kann ein Ermitteln eines Unterschieds zwischen einem Bild, das von der ersten Kamera aufgenommen wird, und einem entsprechenden Bild, das von der zweiten Kamera aufgenommen wird, umfassen. Die Kalibrierungsparameter können mindestens eines von einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optischen Verzerrung für jede der einen oder mehreren Abbildungsvorrichtungen aufweisen. Die Kalibrierungsparameter können eine Position und eine Ausrichtung jeder der einen oder mehreren Abbildungsvorrichtungen relativ zu dem Kalibrierungsziel aufweisen. Verarbeiten des einen oder der mehreren Bilder kann ein Reduzieren optischer Verzerrung in mindestens einem des einen oder der mehreren Bilder umfassen.In some embodiments, the one or more imaging devices include a first camera and a second camera that capture images substantially simultaneously. Processing the one or more images may include identifying features present in both an image obtained from the first camera and a corresponding image obtained from the second camera. Processing the one or more images may include determining a difference between an image captured by the first camera and a corresponding image captured by the second camera. The calibration parameters may include at least one of a focal length, a position of the image center point, pixel size, or optical distortion for each of the one or more imaging devices. The calibration parameters may include a position and orientation of each of the one or more imaging devices relative to the calibration target. Processing the one or more images may include reducing optical distortion in at least one of the one or more images.

Es sollte verstanden werden, dass unterschiedliche Aspekte der Erfindung individuell, gemeinsam oder in Kombination miteinander umgesetzt werden können. Verschiedene Aspekte der hierin beschriebenen Erfindung können an einer beliebigen der bestimmten Anwendungen, die unten vorgebracht werden, oder für beliebige andere Typen beweglicher Objekte angewendet werden. Jegliche Beschreibung hierin eines Luftfahrzeugs kann auf jegliches bewegliches Objekt, wie ein beliebiges Fahrzeug, angewendet werden und dafür verwendet werden. Zusätzlich können die hierin offenbarten Systeme, Vorrichtungen und Verfahren in dem Kontext von Luftbewegung (z.B. Flug) auch in dem Kontext anderer Bewegungstypen, wie Bewegung am Boden oder auf Wasser, Unterwasserbewegung oder Bewegung im Weltraum angewendet werden. Darüber hinaus kann jegliche Beschreibung eines Rotors oder einer Rotorbaugruppe hierin auf jegliches Antriebssystem, jegliche Antriebsvorrichtung oder jeglichen Antriebsmechanismus angewendet und dafür verwendet werden, um eine Antriebskraft durch Drehung (z.B. Propeller, Räder, Achsen) zu erzeugen.It should be understood that different aspects of the invention can be implemented individually, collectively, or in combination with one another. Various aspects of the invention described herein can be applied to any of the specific applications set forth below or to any other types of moving objects. Any description herein of an aircraft can be applied to and used for any moving object, such as any vehicle. In addition, the systems, devices and methods disclosed herein can also be applied in the context of air movement (e.g. flight) in the context of other types of movement, such as movement on the ground or on water, underwater movement or movement in space. Moreover, any description of a rotor or rotor assembly herein can be applied to any drive system, drive device, or drive mechanism and used to generate a drive force by rotation (e.g., propellers, wheels, axles).

Andere Ziele und Merkmale der vorliegenden Erfindung werden bei einer Durchsicht der Beschreibung, Ansprüche und angehängten Figuren ersichtlich.Other objects and features of the present invention will become apparent upon a review of the specification, claims and appended figures.

AUFNAHME DURCH BEZUGNAHMERECORDING BY REFERENCE

Alle Veröffentlichungen, Patente und Patentanmeldungen, die in dieser Anmeldung erwähnt werden, sind durch Bezugnahme in demselben Ausmaß hierin aufgenommen, als ob jede(s) individuelle Veröffentlichung, Patent oder Patentanmeldung spezifisch und individuell angegeben wurde, durch Bezugnahme hierin aufgenommen zu sein.All publications, patents, and patent applications mentioned in this application are incorporated herein by reference to the same extent as if each individual publication, patent, or patent application was specifically and individually indicated to be incorporated herein by reference.

FigurenlisteFigure list

Die neuartigen Merkmale der Erfindung werden in ihren wesentlichen Grundzügen in den angehängten Ansprüchen dargelegt. Ein besseres Verständnis der Merkmale und Vorteile der vorliegenden Erfindung wird durch Bezugnahme auf die folgende ausführliche Beschreibung, die veranschaulichende Ausführungsformen, in denen die Prinzipien der Erfindungen genutzt werden, darlegt, und die begleitenden Zeichnungen erhalten, von denen:

  • 1 ein Modell einer monokularen Kamera in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 2 ein Modell einer Zuordnung von einem Weltkoordinatensystem zu einem Bildkoordinatensystem in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 3 ein Modell einer Zuordnung von einem Weltkoordinatensystem zu einem Bildkoordinatensystem in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 4 ein Kalibrierungsziel, das zur Verwendung bei Abbildungsvorrichtungskalibrierung geeignet ist, in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 5 Bilder eines Schachbrettkalibrierungsziels in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 6 und 7 Referenzmarkierungen, die basierend auf relativer Positionierung eindeutig identifizierbar sind, in Übereinstimmung mit Ausführungsformen veranschaulichen;
  • 8 ein Kalibrierungsziel, das Referenzmarkierungen aufweist, in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 9 ein Verfahren zum Kalibrieren einer oder mehrerer Abbildungsvorrichtungen unter Verwendung eines Kalibrierungsziels mit einer oder mehreren Referenzmarkierungen in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 10 bis 13 eine Identifikation von Merkmalen und Referenzmarkierungen eines Kalibrierungsziels in einem Bild in Übereinstimmung mit Ausführungsformen veranschaulichen;
  • 14 ein Modell räumlicher Beziehungen zwischen Koordinatensystemen bei binokularer Kamerakalibrierung in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 15 ein Modell einer Zuordnung zwischen verzerrten Bildkoordinaten und unverzerrten Bildkoordinaten in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 16 und 17 eine Bildrektifizierungsprozedur für ein binokulares Kamerasystem in Übereinstimmung mit Ausführungsformen veranschaulichen;
  • 18 binokulare Kamerabilder nach einem Verarbeiten zum Durchführen von Bildrektifizierung in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 19 ein Verfahren zum Erzeugen von Tiefenkarten aus Bilddaten in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 20 ein UAV in Übereinstimmung mit Ausführungsformen veranschaulicht;
  • 21 ein bewegliches Objekt, das einen Träger und eine Traglast aufweist, in Übereinstimmung mit Ausführungsformen veranschaulicht; und
  • 22 ein System zum Steuern eines beweglichen Objekts in Übereinstimmung mit Ausführungsformen veranschaulicht.
The essential features of the novel features of the invention are set out in the appended claims. A better understanding of the features and advantages of the present invention will be obtained by reference to the following detailed description containing illustrative embodiments, in which the principles of the inventions are used, sets out, and receives the accompanying drawings, of which:
  • 1 illustrates a model of a monocular camera in accordance with embodiments;
  • 2 illustrates a model of mapping from a world coordinate system to an image coordinate system in accordance with embodiments;
  • 3 illustrates a model of mapping from a world coordinate system to an image coordinate system in accordance with embodiments;
  • 4th illustrates a calibration target suitable for use in imaging device calibration, in accordance with embodiments;
  • 5 Illustrates images of a checkerboard calibration target in accordance with embodiments;
  • 6th and 7th Illustrate fiducial marks that are uniquely identifiable based on relative positioning in accordance with embodiments;
  • 8th illustrates a calibration target having fiducial marks in accordance with embodiments;
  • 9 Illustrates a method of calibrating one or more imaging devices using a calibration target with one or more fiducial marks, in accordance with embodiments;
  • 10 until 13th illustrate identification of features and fiducial marks of a calibration target in an image in accordance with embodiments;
  • 14th illustrates a model of spatial relationships between coordinate systems with binocular camera calibration in accordance with embodiments;
  • 15th illustrates a model of an association between distorted image coordinates and undistorted image coordinates in accordance with embodiments;
  • 16 and 17th illustrate an image rectification procedure for a binocular camera system in accordance with embodiments;
  • 18th illustrates binocular camera images after processing to perform image rectification in accordance with embodiments;
  • 19th Illustrates a method for generating depth maps from image data in accordance with embodiments;
  • 20th Illustrates a UAV in accordance with embodiments;
  • 21 FIG. 11 illustrates a moving object including a carrier and a load in accordance with embodiments; FIG. and
  • 22nd illustrates a system for controlling a moving object in accordance with embodiments.

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

Die vorliegende Offenbarung stellt verbesserte Systeme, Verfahren und Vorrichtungen zum Durchführen von Kalibrierung von Abbildungsvorrichtungen, wie Kameras, bereit. Die hierin beschriebenen Ansätze können involvieren, eine oder mehrere Abbildungsvorrichtungen zu verwenden, um eine Vielzahl von Bildern eines Kalibrierungsziels zu erhalten. Das Kalibrierungsziel kann eine Vielzahl von Merkmalen und eine oder mehrere Referenzmarkierungen aufweisen. Die eine oder mehreren Referenzmarkierungen können eindeutig identifizierbar sein, um eine Ermittlung der Übereinstimmung zwischen Bildkoordinaten der Merkmale in den Bildern und Weltkoordinaten der Merkmale auf dem Kalibrierungsziel zu erleichtern, selbst wenn manche der Bilder nicht alle der Merkmale des Kalibrierungsziels aufnehmen. Dieser Ansatz kann vorteilhaft dafür sein, akkurate und zuverlässige Kalibrierung selbst in Situationen bereitzustellen, wenn es für jede der Abbildungsvorrichtungen schwierig ist, Bilddaten von der Gesamtheit des Kalibrierungsziels zu erhalten, z.B. wenn mehrere Abbildungsvorrichtungen gleichzeitig kalibriert werden. Zusätzlich erlauben solche Ansätze die Verwendung größerer Kalibrierungsziele, was die Genauigkeit der resultierenden Kalibrierungsparameter verbessern kann.The present disclosure provides improved systems, methods, and apparatus for performing calibration of imaging devices such as cameras. The approaches described herein may involve using one or more imaging devices to obtain a plurality of images of a calibration target. The calibration target can have a plurality of features and one or more reference marks. The one or more reference marks can be uniquely identifiable to facilitate a determination of the correspondence between image coordinates of the features in the images and world coordinates of the features on the calibration target, even if some of the images do not capture all of the features of the calibration target. This approach can be advantageous in providing accurate and reliable calibration even in situations where it is difficult for each of the imaging devices to obtain image data from the entirety of the calibration target, e.g., when multiple imaging devices are being calibrated at the same time. In addition, such approaches allow the use of larger calibration targets, which can improve the accuracy of the resulting calibration parameters.

Die hierin beschriebenen Techniken können zur Verwendung einer weiten Vielfalt von Anwendungen implementiert werden, die Abbildung und Abbildungsdaten involvieren, wie sichtbasierte Navigation unter Verwendung einer oder mehrerer Abbildungsvorrichtungen, die von einem beweglichen Objekt getragen werden. Als ein Beispiel können die Systeme, Verfahren und Vorrichtungen der vorliegenden Offenbarung verwendet werden, um eine oder mehrere Kameras zu kalibrieren, die von einem unbemannten Luftfahrzeug (UAV) getragen werden. Jede der einen oder mehreren Kameras kann verwendet werden, um eine Vielzahl von Bildern eines Schachbrettkalibrierungsziels aufzunehmen, das mindestens drei kreisförmige Referenzmarkierungen auf die Quadrate des Schachbretts überlagert aufweist. Die Referenzmarkierungen können eindeutig in den Bildern identifizierbar sein, um die Ermittlung der Weltkoordinaten der Eckpunkte des Schachbretts entsprechend den Eckpunkten, die in den Bilddaten aufgenommen werden, zu erleichtern. Diese Übereinstimmungsinformationen können verwendet werden, um Kalibrierungsparameter für die UAV-Kameras zu ermitteln. Nachfolgende Bilddaten, die von den Kameras aufgenommen werden, können basierend auf den Kalibrierungsparametern verarbeitet werden, z.B. um dreidimensionale (3D) Tiefenkarten der umliegenden Umgebung und/oder von Objekten innerhalb der Umgebung zu erzeugen.The techniques described herein can be implemented using a wide variety of applications involving imaging and imaging data, such as vision-based navigation using one or more imaging devices carried by a moving object. As an example, the systems, methods, and apparatus of the present disclosure can be used to calibrate one or more cameras carried by an unmanned aerial vehicle (UAV). Each of the one or more cameras can be used to capture a plurality of images of a checkerboard calibration target having at least three circular fiducial marks superimposed on the squares of the checkerboard. The reference markings can be clearly identifiable in the images in order to facilitate the determination of the world coordinates of the corner points of the chessboard corresponding to the corner points that are recorded in the image data. This compliance information can be used to determine calibration parameters for the UAV cameras. Subsequent image data recorded by the cameras can be processed based on the calibration parameters, for example in order to generate three-dimensional (3D) depth maps of the surrounding environment and / or of objects within the environment.

Die hierin beschriebenen Techniken können verwendet werden, um eine oder mehrere Abbildungsvorrichtungen (z.B. Kameras, Scanner usw.) zu kalibrieren. Eine Abbildungsvorrichtung, die hierin auch als ein „Sichtsensor“ bezeichnet werden kann, kann konfiguriert sein, elektromagnetische Strahlung (z.B. sichtbares, infrarotes und/oder ultraviolettes Licht) zu erfassen und Bilddaten basierend auf der erfassten elektromagnetischen Strahlung zu erzeugen. Zum Beispiel kann eine Abbildungsvorrichtung einen ladungsgekoppelten Vorrichtungssensor (CCD-Sensor) oder einen komplementären Metalloxidhalbleitersensor (CMOS-Sensor) aufweisen, der elektrische Signale in Antwort auf Wellenlängen von Licht erzeugt. Die resultierenden elektrischen Signale können verarbeitet werden, um Bilddaten zu erstellen. Die von einer Abbildungsvorrichtung erzeugten Bilddaten können ein oder mehrere Bilder aufweisen, die statische Bilder (z.B. Fotografien), dynamische Bilder (z.B. Video) oder geeignete Kombinationen davon sein können. Die Bilddaten können polychrom (z.B. RGB, CMYK, HSV) oder monochrom (z.B. Grauskala, Schwarz- und-Weiß, Sepia) sein.The techniques described herein can be used to calibrate one or more imaging devices (e.g., cameras, scanners, etc.). An imaging device, which may also be referred to herein as a "vision sensor", may be configured to detect electromagnetic radiation (e.g., visible, infrared, and / or ultraviolet light) and generate image data based on the detected electromagnetic radiation. For example, an imaging device may include a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor that generates electrical signals in response to wavelengths of light. The resulting electrical signals can be processed to create image data. The image data generated by an imaging device can include one or more images, which can be static images (e.g. photographs), dynamic images (e.g. video), or any suitable combination thereof. The image data can be polychrome (e.g. RGB, CMYK, HSV) or monochrome (e.g. gray scale, black and white, sepia).

Die Abbildungsvorrichtungen der vorliegenden Offenbarung können von verschiedenen Objekttypen getragen werden, wie von einem oder mehreren der hierin beschriebenen beweglichen Objekte. Eine Abbildungsvorrichtung kann an einem beliebigen geeigneten Abschnitt des Objekts liegen, wie oberhalb, unterhalb, an der/den Seite(n) von oder innerhalb des Objekts. Manche Abbildungsvorrichtungen können mechanisch mit dem Objekt gekoppelt sein, sodass die räumliche Anordnung und/oder Bewegung des Objekts der räumlichen Anordnung und/oder Bewegung der Abbildungsvorrichtungen entsprechen. Die Abbildungsvorrichtung kann über eine starre Kopplung mit dem Objekt gekoppelt sein, sodass die Abbildungsvorrichtung sich nicht relativ zu dem Abschnitt des Objekts bewegt, an dem sie befestigt ist. Alternativ kann die Kopplung zwischen der Abbildungsvorrichtung und dem Objekt Bewegung der Abbildungsvorrichtung relativ zu dem Objekt erlauben. Die Kopplung kann eine permanente Kopplung oder nichtpermanente (z.B. lösbare) Kopplung sein. Geeignete Kopplungsverfahren können Kleber, Bonding, Schweißen und/oder Befestigungsmittel (z.B. Schrauben, Nägel, Stifte usw.) umfassen. Optional kann die Abbildungsvorrichtung ganzheitlich mit einem Abschnitt des Objekts gebildet sein. Darüber hinaus kann die Abbildungsvorrichtung elektrisch mit einem Abschnitt des Objekts (z.B. Verarbeitungseinheit, Steuerungssystem, Datenspeicher) gekoppelt sein, um zu ermöglichen, dass die Daten, die von der Abbildungsvorrichtung gesammelt werden, für verschiedene Funktionen des Objekts (z.B. Navigation, Steuerung, Antrieb, Kommunikation mit einem Anwender oder einer anderen Vorrichtung usw.), wie den hierin besprochenen Ausführungsformen, verwendet werden können.The imaging devices of the present disclosure can be carried by various types of objects, such as one or more of the movable objects described herein. An imaging device can be on any suitable portion of the object, such as above, below, on the side (s) of or within the object. Some imaging devices can be mechanically coupled to the object, so that the spatial arrangement and / or movement of the object correspond to the spatial arrangement and / or movement of the imaging devices. The imaging device can be coupled to the object via a rigid coupling so that the imaging device does not move relative to the portion of the object to which it is attached. Alternatively, the coupling between the imaging device and the object may allow movement of the imaging device relative to the object. The coupling can be a permanent coupling or a non-permanent (e.g. releasable) coupling. Suitable methods of coupling may include glue, bonding, welding, and / or fasteners (e.g. screws, nails, pins, etc.). Optionally, the imaging device can be formed integrally with a section of the object. In addition, the imaging device can be electrically coupled to a section of the object (e.g. processing unit, control system, data memory) in order to enable the data collected by the imaging device to be used for various functions of the object (e.g. navigation, control, drive, Communication with a user or other device, etc.), such as the embodiments discussed herein, may be used.

In manchen Ausführungsformen werden die Abbildungsvorrichtungen von einem UAV getragen. Zum Beispiel kann das UAV ein kleinformatiges UAV sein (z.B. wiegt nicht mehr als 10 kg, weist eine maximale Abmessung von nicht mehr als 1,5 m auf). Das UAV kann ein Rotorflugzeug sein, wie ein Multirotorflugzeug, das von einer Vielzahl von Propellern angetrieben wird, um sich durch die Luft zu bewegen (z.B. ein Quadrocopter). Die hierin beschriebenen UAVs können vollständig autonom (z.B. durch ein geeignetes Rechensystem, wie eine eingebaute Steuerung), semiautonom oder manuell (z.B. durch einen menschlichen Benutzer) betrieben werden. Das UAV kann Befehle von einer geeigneten Instanz (z.B. menschlicher Anwender oder autonomes Steuerungssystem) empfangen und auf solche Befehle antworten, indem es eine oder mehrere Handlungen durchführt. Zum Beispiel kann das UAV gesteuert werden, vom Boden abzuheben, sich in der Luft zu bewegen (z.B. mit bis zu drei Freiheitsgraden bei Translation und bis zu drei Freiheitsgraden bei Rotation), sich zur Zielstelle oder zu einer Abfolge von Zielstellen zu bewegen, in der Luft zu schweben, am Boden zu landen und so weiter. Als ein anderes Beispiel kann das UAV gesteuert werden, sich bei einer bestimmten Geschwindigkeit und/oder Beschleunigung (z.B. mit bis zu drei Freiheitsgraden in Translation und bis zu drei Freiheitsgraden in Rotation) oder entlang eines bestimmten Bewegungspfads zu bewegen. Darüber hinaus können die Befehle verwendet werden, eine oder mehrere UAV-Komponenten zu steuern, wie die hierin beschriebenen Komponenten (z.B. Sensoren, Aktoren, Antriebseinheiten, Nutzlast usw.) .In some embodiments, the imaging devices are carried by a UAV. For example, the UAV can be a small format UAV (e.g. weighs no more than 10 kg, has a maximum dimension of no more than 1.5 m). The UAV may be a rotorcraft, such as a multi-rotor aircraft that is powered by a variety of propellers to move through the air (e.g., a quadrocopter). The UAVs described herein can be operated completely autonomously (for example by a suitable computing system such as a built-in controller), semiautonomously or manually (for example by a human user). The UAV can receive commands from a suitable entity (e.g. human user or autonomous control system) and respond to such commands by performing one or more actions. For example, the UAV can be controlled to take off from the ground, move in the air (e.g. with up to three degrees of freedom for translation and up to three degrees of freedom for rotation), to move to the target location or to a sequence of target locations in which Floating in the air, landing on the ground and so on. As another example, the UAV can be controlled to move at a particular speed and / or acceleration (e.g., with up to three degrees of freedom in translation and up to three degrees of freedom in rotation) or along a particular path of movement. In addition, the commands can be used to control one or more UAV components, such as the components described herein (e.g. sensors, actuators, propulsion units, payload, etc.).

In manchen Ausführungsformen kann die Abbildungsvorrichtung eine Kamera sein. Obwohl gewisse hierin bereitgestellte Ausführungsformen im Kontext von Kameras beschrieben werden, sollte verstanden werden, dass die vorliegende Offenbarung auf eine beliebige geeignete Abbildungsvorrichtung angewendet werden kann und jegliche Beschreibung hierin, die sich auf Kameras bezieht, auch auf andere Typen von Abbildungsvorrichtungen angewendet werden kann. Eine Kamera kann verwendet werden, um 2D-Bilder einer 3D-Szene (z.B. eine Umgebung, ein oder mehrere Objekte usw.) zu erzeugen. Die von der Kamera erzeugten Bilder können die Projektion der 3D-Szene auf eine 2D-Bildebene darstellen. Dementsprechend entspricht jeder Punkt in dem 2D-Bild einer räumlichen 3D-Koordinate in der Szene.In some embodiments, the imaging device can be a camera. While certain embodiments provided herein are described in the context of cameras, it should be understood that the present disclosure can be applied to any suitable imaging device, and any description herein relating to cameras can also be applied to other types of imaging devices. A camera can be used to generate 2D images of a 3D scene (e.g. an environment, one or more objects, etc.). The images generated by the camera can represent the projection of the 3D scene onto a 2D image plane. Accordingly, each point in the 2D image corresponds to a spatial 3D coordinate in the scene.

1 veranschaulicht ein Modell 100 einer einzelnen Kamera (monokulare Kamera) in Übereinstimmung mit Ausführungsformen. Das Modell 100 weist ein Weltkoordinatensystem 102, ein Kamerakoordinatensystem 104, ein Bildebenenkoordinatensystem 106 und ein Pixelkoordinatensystem 108 auf. Das Weltkoordinatensystem 102, das hierin auch als ein „globales Koordinatensystem“ bezeichnet werden kann, stellt den Referenzrahmen der Szene dar, die von der Kamera aufgenommen wird, und/oder der Umgebung, in der die Kamera arbeitet. Das Weltkoordinatensystem 102 weist einen Koordinatenursprung Ow und 3D-Koordinatenachsen Xw, Yw, Zw auf. In manchen Ausführungsformen kann das Weltkoordinatensystem 102 in Bezug auf ein Objekt von Interesse in der Szene definiert werden, wie ein Kalibrierungsziel, wie unten detaillierter beschrieben wird. Das Kamerakoordinatensystem 104 stellt den Referenzrahmen der Kamera dar und weist einen Koordinatenursprung Oc und 3D-Koordinatenachsen Xc, Yc, Zc auf. Die Achse Zc kann der optischen Achse der Kamera entsprechen, wobei die Richtung nach außen die positive Richtung ist. 1 illustrates a model 100 a single camera (monocular camera) in accordance with embodiments. The model 100 has a world coordinate system 102 , a camera coordinate system 104 , an image plane coordinate system 106 and a pixel coordinate system 108 on. The world coordinate system 102 , which can also be referred to herein as a “global coordinate system”, represents the frame of reference of the scene recorded by the camera and / or the environment in which the camera operates. The world coordinate system 102 has a coordinate origin O w and 3D coordinate axes X w , Y w , Z w . In some embodiments, the world coordinate system 102 can be defined in relation to an object of interest in the scene, such as a calibration target, as described in more detail below. The camera coordinate system 104 represents the frame of reference of the camera and has a coordinate origin O c and 3D coordinate axes X c , Y c , Z c . The axis Z c can correspond to the optical axis of the camera, the outward direction being the positive direction.

Das Bildebenenkoordinatensystem 106 und Pixelkoordinatensystem 108, die hierin auch als „Bildkoordinatensysteme“ bezeichnet werden können, stellen den Referenzrahmen des von der Kamera erzeugten Bilds dar. Das Bildebenenkoordinatensystem weist einen Koordinatenursprung Op und 2D-Koordinatenachsen Xp, Yp auf. Die Stellen der Pixel innerhalb des Bilds können im Sinne eines Pixelkoordinatensystems 108 dargestellt werden, das einen Koordinatenursprung bei der oberen linken Ecke des Bilds und 2D-Koordinatenachsen u, v aufweist. Die u-Achse kann parallel zu den Bildreihen sein, wobei die rechte Richtung die positive Richtung ist, während die v-Achse parallel zu den Bildspalten sein kann, wobei die Richtung nach unten die positive Richtung ist. In manchen Ausführungsformen ist das Kamerakoordinatensystem 104 mit dem Bildebenenkoordinatensystem 106 und Pixelkoordinatensystem 108 ausgerichtet. Zum Beispiel kann die Xc-Achse des Kamerakoordinatensystems 104 parallel zu den Bildreihen sein und in derselben Richtung wie die u-Achse des Pixelkoordinatensystems 108 ausgerichtet sein. Ähnlich kann die Yc-Achse des Kamerakoordinatensystems 104 parallel zu den Bildspalten sein und in derselben Richtung wie die v-Achse des Pixelkoordinatensystems 108 ausgerichtet sein.The image plane coordinate system 106 and pixel coordinate system 108 , which can also be referred to herein as “image coordinate systems”, represent the frame of reference of the image generated by the camera. The image plane coordinate system has a coordinate origin O p and 2D coordinate axes X p , Y p . The locations of the pixels within the image can be in the sense of a pixel coordinate system 108 which has a coordinate origin at the upper left corner of the image and 2D coordinate axes u, v. The u-axis can be parallel to the image rows, with the right direction being the positive direction, while the v-axis can be parallel to the image columns, with the downward direction being the positive direction. In some embodiments, the is the camera coordinate system 104 with the image plane coordinate system 106 and pixel coordinate system 108 aligned. For example, the X c axis of the camera coordinate system 104 parallel to the rows of images and in the same direction as the u-axis of the pixel coordinate system 108 be aligned. The Y c axis of the camera coordinate system can be similar 104 parallel to the image columns and in the same direction as the v-axis of the pixel coordinate system 108 be aligned.

Obwohl 1 eine einzelne Abbildungsvorrichtung abbildet, sollte verstanden werden, dass die hierin beschriebenen Ausführungsformen auf eine beliebige geeignete Zahl von Abbildungsvorrichtungen angewendet werden können, wie eine, zwei, drei, vier, fünf oder mehr Abbildungsvorrichtungen. Die Abbildungsvorrichtungen können alle vom selben Typ sein. Alternativ können mindestens manche der Abbildungsvorrichtungen unterschiedliche Typen sein. Die Abbildungsvorrichtungen können relativ zueinander positioniert und ausgerichtet werden, wie es gewünscht wird. Zum Beispiel nutzen verschiedene hierin bereitgestellte Ausführungsformen zwei Abbildungsvorrichtungen (binokulare Sicht), z.B. eine linke Kamera und eine rechte Kamera. Die Abbildungsvorrichtungen können bei unterschiedlichen Positionen und Ausrichtungen liegen, sodass das Sichtfeld jeder Abbildungsvorrichtung unterschiedlich ist. Die Sichtfelder der Abbildungsvorrichtungen können überlappen. In manchen Ausführungsformen stellen die Abbildungsvorrichtungen jeweils Bilddaten derselben Szene aus unterschiedlichen Positionen und/oder Ausrichtungen bereit. Die Abbildungsvorrichtungen können konfiguriert sein, Bilder einer Szene zur selben Zeit oder ungefähr derselben Zeit aufzunehmen. Alternativ können manche Abbildungsvorrichtungen konfiguriert sein, Bilder zu unterschiedlichen Zeiten als andere Abbildungsvorrichtungen aufzunehmen.Even though 1 imaging a single imaging device, it should be understood that the embodiments described herein may be applied to any suitable number of imaging devices, such as one, two, three, four, five, or more imaging devices. The imaging devices can all be of the same type. Alternatively, at least some of the imaging devices can be of different types. The imaging devices can be positioned and oriented relative to one another as desired. For example, various embodiments provided herein utilize two imaging devices (binocular vision), e.g., a left camera and a right camera. The imaging devices can be in different positions and orientations such that the field of view of each imaging device is different. The fields of view of the imaging devices can overlap. In some embodiments, the imaging devices each provide image data of the same scene from different positions and / or orientations. The imaging devices may be configured to capture images of a scene at or about the same time. Alternatively, some imaging devices may be configured to capture images at different times than other imaging devices.

In manchen Ausführungsformen kann es wünschenswert sein, 3D-Informationen einer Szene unter Verwendung von 2D-Bilddaten der Szene, die von einer oder mehreren Abbildungsvorrichtungen gesammelt werden, zu erhalten. Zum Beispiel können verschiedene Anwendungen involvieren, eine 3D-Rekonstruktion (z.B. ein 3D-Modell, wie eine Punktewolke, ein Besetzungsgitter, eine Tiefenkarte, Disparitätskarte usw.) einer Szene basierend auf einer Vielzahl von 2D-Bildern der Szene (z.B. Bilder, die bei einer Vielzahl von unterschiedlichen Positionen und Ausrichtungen gemacht werden) zu erzeugen. In Ausführungsformen, wo eine Vielzahl von Abbildungsvorrichtungen verwendet wird, kann die 3D-Rekonstruktion basierend auf Disparitäten zwischen Bilddaten, die von Abbildungsvorrichtungen erhalten werden, die bei unterschiedlichen Positionen und/oder Ausrichtungen liegen, erzeugt werden, wie unten detaillierter beschrieben wird. Alternativ oder in Kombination können 3D-Informationen auch aus Bilddaten wiederhergestellt werden, die von einer einzelnen Abbildungsvorrichtung erhalten werden, z.B. unter Verwendung von Struktur-von-Bewegung oder anderen geeigneten Techniken. Die resultierende 3D-Rekonstruktion kann verwendet werden, um unterschiedliche Typen quantitativer Informationen bezüglich der Szene zu ermitteln, z.B. räumliche Positionen von Objekten (z.B. Abstand von der Kamera, anderen Objekten), Objektabmessungen (z.B. Länge, Breite, Höhe). Diese Informationen können in einer weiten Vielfalt von Anwendungen nützlich sein, z.B. Computer Vision (computerbasiertes Sehen), Objekterkennung, Verfolgung, Haltungsschätzung, Eigenbewegungsermittlung usw. Zum Beispiel kann in dem Kontext von UAV-Betrieb Szenenrekonstruktion für Funktionalitäten wie Navigation, Hindernisvermeidung, Zuordnung, Zielverfolgung und dergleichen hilfreich sein.In some embodiments, it may be desirable to obtain 3D information of a scene using 2D image data of the scene collected from one or more imaging devices. For example, various applications may involve a 3D reconstruction (e.g. a 3D model such as a point cloud, an occupation grid, a depth map, disparity map, etc.) of a scene based on a plurality of 2D images of the scene (e.g. images captured at a variety of different positions and orientations). In embodiments where a plurality of imaging devices are used, the 3D reconstruction can be based on disparities between image data obtained from imaging devices located at different positions and / or orientations, as will be described in more detail below. Alternatively or in combination, 3D information can also be restored from image data obtained from a single imaging device, for example using structure-of-motion or other suitable techniques. The resulting 3D reconstruction can be used to determine different types of quantitative information regarding the scene, for example spatial positions of objects (e.g. distance from the camera, other objects), object dimensions (e.g. length, width, height). This information can be useful in a wide variety of applications, e.g. computer vision, object recognition, tracking, posture estimation, self-movement detection, etc. For example, in the context of UAV operations, scene reconstruction for functionalities such as navigation, obstacle avoidance, assignment, target tracking and the like can be helpful.

In manchen Ausführungsformen involvieren die hierin beschriebenen Szenenrekonstruktionstechniken, die Übereinstimmung zwischen den Bildkoordinaten in einem Bild einer Szene und den Weltkoordinaten (auch als globale Koordinaten bekannt) der tatsächlichen Szene zu ermitteln. Diese Übereinstimmung kann identifiziert werden, indem die Umwandlungen oder Zuordnungen zwischen zwei verschiedenen Koordinatensystemen, z.B. das Weltkoordinatensystem, Kamerakoordinatensystem und Bildkoordinatensystem, ermittelt werden. Die mathematischen Beziehungen, die diese Zuordnungen definieren, können basierend auf Modellen der Szene, Abbildungsvorrichtungen und Bildebene, z.B. ein Lochkameramodell, ermittelt werden.In some embodiments, the scene reconstruction techniques described herein involve determining the correspondence between the image coordinates in an image of a scene and the world coordinates (also known as global coordinates) of the actual scene. This correspondence can be identified by determining the conversions or assignments between two different coordinate systems, e.g. the world coordinate system, camera coordinate system and image coordinate system. The mathematical relationships that define these associations can be determined based on models of the scene, imaging devices and image plane, e.g., a pinhole camera model.

2 veranschaulicht ein Modell 200 einer Zuordnung eines Weltkoordinatensystems zu einem Bildkoordinatensystem in Übereinstimmung mit Ausführungsformen. Das Zuordnungsmodell 200 bildet die Beziehungen zwischen dem Welt-, Kamera- und Bildkoordinatensystem ab. Das Zuordnungsmodell 200 kann verwendet werden, um den Abbildungsprozess (z.B. Projizieren von Weltkoordinaten eines Objekts in einer Szene auf Bildkoordinaten in einem Bild) und den Rekonstruktionsprozess (z.B. Verwenden von Bildkoordinaten in einem Bild, um die Weltkoordinaten eines Objekts in einer Szene wiederherzustellen) zu beschreiben. 2 illustrates a model 200 an assignment of a world coordinate system to an image coordinate system in accordance with embodiments. The mapping model 200 maps the relationships between the world, camera and image coordinate system. The mapping model 200 can be used to describe the mapping process (e.g. projecting world coordinates of an object in a scene onto image coordinates in an image) and the reconstruction process (e.g. using image coordinates in an image to recreate the world coordinates of an object in a scene).

Das Weltkoordinatensystem kann sich auf das Kamerakoordinatensystem beziehen, durch die Gleichung [ X c Y c Z c ] = R [ X w Y w Z w ] + T

Figure DE202014011514U1_0001
wobei R die Rotationsmatrix ist und T der Translationsvektor ist, der angibt, wie das Kamerakoordinatensystem relativ zu dem Weltkoordinatensystem ausgerichtet beziehungsweise positioniert ist. Die Kamerakoordinaten können skaliert werden, um die entsprechenden Bildebenenkoordinaten zu erhalten: { X p = X c / Z c Y p = Y c / Z c
Figure DE202014011514U1_0002
The world coordinate system can refer to the camera coordinate system, through the equation [ X c Y c Z c ] = R. [ X w Y w Z w ] + T
Figure DE202014011514U1_0001
where R is the rotation matrix and T is the translation vector, which indicates how the camera coordinate system is oriented or positioned relative to the world coordinate system. The camera coordinates can be scaled to get the corresponding image plane coordinates: { X p = X c / Z c Y p = Y c / Z c
Figure DE202014011514U1_0002

In Ausführungsformen wo die Kamera optische Linsenverzerrung (z.B. radiale Verzerrung, exzentrische Verzerrung, dünne Prismenverzerrung) aufweist, können die Bildebenenkoordinaten mit Verzerrung Xd, Yd aus den Bildebenenkoordinaten unter Verwendung von Techniken ermittelt werden, die Fachkundigen bekannt sind, wie aus der folgenden Verzerrungsgleichung: { X d = X p ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 + ) + 2 p 1 X p Y p + p 2 ( r 2 + 2 X p 2 ) + s 1 r 2 Y d = Y c ( 1 + k 1 r 2 + k 2 r 4 + k 3 r 6 + ) + p 1 ( r 2 + 2 Y p 2 ) + 2 p 2 X p Y p + s 2 r 2

Figure DE202014011514U1_0003
wobei r = X p 2 + Y p 2
Figure DE202014011514U1_0004
ist und k1, k2, k3, p1, p2, s1, s2 die Verzerrungsparameter sind, k1, k2, k3) die radialen Verzerrungsparameter sind, p1, p2 die exzentrischen Verzerrungsparameter sind, und wobei s1, s2 die Prismenverzerrungsparameter sind. In manchen Ausführungsformen werden nur vier der Parameter (z.B. k1, k2, p1, p2) berechnet.In embodiments where the camera has optical lens distortion (e.g., radial distortion, eccentric distortion, thin prism distortion), the image plane coordinates with distortion X d , Y d can be determined from the image plane coordinates using techniques known to those skilled in the art, such as from the following distortion equation : { X d = X p ( 1 + k 1 r 2 + k 2 r 4th + k 3 r 6th + ) + 2 p 1 X p Y p + p 2 ( r 2 + 2 X p 2 ) + s 1 r 2 Y d = Y c ( 1 + k 1 r 2 + k 2 r 4th + k 3 r 6th + ) + p 1 ( r 2 + 2 Y p 2 ) + 2 p 2 X p Y p + s 2 r 2
Figure DE202014011514U1_0003
whereby r = X p 2 + Y p 2
Figure DE202014011514U1_0004
and k 1 , k 2 , k 3 , p 1 , p 2 , s 1 , s 2 are the distortion parameters, k 1 , k 2 , k 3 ) are the radial distortion parameters, p 1 , p 2 are the eccentric distortion parameters, and where s 1 , s 2 are the prism distortion parameters. In some embodiments, only four of the parameters (eg, k 1 , k 2 , p 1 , p 2 ) are calculated.

Die Pixelkoordinaten können unter Verwendung der folgenden Beziehung erhalten werden: [ u v 1 ] = M [ X d Y d 1 ] = [ f x 0 u 0 0 f y v 0 0 0 1 ] [ X d Y d 1 ]

Figure DE202014011514U1_0005
wobei M die intrinsische Kameramatrix ist, uo, vo die Koordinaten des Bildmittelpunkts sind (wo die optische Achse die Bildebene schneidet, auch als der Bildmittelpunkt bekannt), und { f x = f / a x f y = f / a y ,
Figure DE202014011514U1_0006
ist, wobei f die Brennweite der Kamera ist und ax, ay die horizontalen beziehungsweise vertikalen Pixelabmessungen sind.The pixel coordinates can be obtained using the following relationship: [ u v 1 ] = M. [ X d Y d 1 ] = [ f x 0 u 0 0 f y v 0 0 0 1 ] [ X d Y d 1 ]
Figure DE202014011514U1_0005
where M is the intrinsic camera matrix, u o , v o are the coordinates of the image center point (where the optical axis intersects the image plane, also known as the image center point), and { f x = f / a x f y = f / a y ,
Figure DE202014011514U1_0006
where f is the focal length of the camera and a x , a y are the horizontal and vertical pixel dimensions, respectively.

3 veranschaulicht ein Modell 250 einer Zuordnung von einem Weltkoordinatensystem zu einem Bildkoordinatensystem in Übereinstimmung mit Ausführungsformen. Die Beziehung zwischen dem Weltkoordinatensystem, Kamerakoordinatensystem, unverzerrten Bildebenenkoordinatensystem, verzerrten Bildebenenkoordinatensystem und Pixelkoordinatensystem können ähnlich den hierin in Bezug auf das Zuordnungsmodell 200 von 2 beschriebenen sein. Ähnlich dem Zuordnungsmodell 2 kann das Zuordnungsmodell 250 verwendet werden, um den Abbildungsprozess (z.B. Projizieren von Weltkoordinaten (Xw, Yw, Zw) auf Pixelkoordinaten (u, v)) zu beschreiben. Die Weltkoordinaten eines Objekts können aus den Pixelkoordinaten wiederhergestellt werden, indem das Bild entzerrt wird, um unverzerrte Pixelkoordinaten (u', v') zu erhalten, und dann die Weltkoordinaten unter Verwendung der unverzerrten Pixelkoordinaten wiederhergestellt werden. 3 illustrates a model 250 an assignment of a world coordinate system to an image coordinate system in accordance with embodiments. The relationship between the world coordinate system, camera coordinate system, undistorted image plane coordinate system, distorted image plane coordinate system, and pixel coordinate system can be similar to those herein with respect to the mapping model 200 from 2 be described. Similar to assignment model 2, the assignment model 250 can be used to describe the mapping process (e.g. projecting world coordinates (X w , Y w , Z w ) onto pixel coordinates (u, v)). The world coordinates of an object can be restored from the pixel coordinates by de-warping the image to get undistorted pixel coordinates (u ', v') and then reconstructing the world coordinates using the undistorted pixel coordinates.

Um Szenenwiederherstellung aus Bilddaten exakt durchzuführen, kann es vorteilhaft sein, einen oder mehrere Parameter der Abbildungsvorrichtungen zu ermitteln oder zu schätzen, die mit den hierin beschriebenen Zuordnungen verknüpft sind. Diese Parameter können extrinsische Parameter (die Rotationsmatrix R und der Translationsvektor T, die angeben, wie jede Abbildungsvorrichtung relativ zu dem Kalibrierungsziel positioniert und ausgerichtet ist) und intrinsische Parameter (die intrinsische Matrix M, die Informationen bezüglich der Brennweite, Position des Bildmittelpunkts, der Pixelgröße aufweist; optische Verzerrungsparameter k1, k2, k3, p1, p2, s1, s2) aufweisen. In Ausführungsformen, wo eine Vielzahl von Abbildungsvorrichtungen verwendet wird, können die extrinsischen Parameter auch die Rotationsmatrizen und Translationsvektoren zum Umwandeln zwischen den Kamerakoordinatensystemen der Abbildungsvorrichtungen enthalten, die angeben, wie die Abbildungsvorrichtungen relativ zueinander positioniert und ausgerichtet sind, wie unten detaillierter beschrieben wird. Der Prozess zum Erhalten der extrinsischen und/oder intrinsischen Parameter einer oder mehrerer Abbildungsvorrichtungen kann hierin als „Kamerakalibrierung“ bezeichnet sein.In order to accurately perform scene restoration from image data, it may be advantageous to determine or estimate one or more parameters of the imaging devices that are associated with the associations described herein. These parameters can be extrinsic parameters (the rotation matrix R and the translation vector T, which indicate how each imaging device is positioned and oriented relative to the calibration target) and intrinsic parameters (the intrinsic matrix M, the information regarding the focal length, position of the image center, the pixel size having optical distortion parameters k 1 , k 2 , k 3 , p 1 , p 2 , s 1 , s 2 ). In embodiments where a plurality of imaging devices are used, the extrinsic parameters may also include the rotation matrices and translation vectors for converting between the camera coordinate systems of the imaging devices that indicate how the imaging devices are positioned and oriented relative to one another, as will be described in more detail below. The process of obtaining the extrinsic and / or intrinsic parameters of one or more imaging devices may be referred to herein as "camera calibration".

Kamerakalibrierung kann insbesondere nützlich sein, wenn die Abbildungsvorrichtungen an einem beweglichen Objekt, wie ein UAV, montiert sind oder von diesem getragen werden. Der Betrieb solcher beweglichen Objekte kann Positions- und/oder Ausrichtungsänderungen der Abbildungsvorrichtungen, z.B. aufgrund von Schwingungen und anderen Bewegungen, die die Kalibrierungsparameter beeinflussen können, ändern. Kalibrierung von Abbildungsvorrichtungen, die von einem beweglichen Objekt getragen werden, können auftreten, während das bewegliche Objekt betrieben wird (Online-Kalibrierung) und/oder während das bewegliche Objekt nicht betrieben wird (Offline-Kalibrierung). Zum Beispiel kann Offline-Kalibrierung für Kameras die von einem UAV getragen werden, durchgeführt werden, wenn das UAV ausgeschaltet ist und/oder nicht fliegt, während Online-Kalibrierung durchgeführt werden kann, während das UAV eingeschaltet ist und/oder fliegt.Camera calibration can be particularly useful when the imaging devices are mounted on or carried by a moving object, such as a UAV. The operation of such moving objects can alter changes in the position and / or orientation of the imaging devices, for example due to vibrations and other movements that can affect the calibration parameters. Calibration of imaging devices carried by a moving object can occur while the moving object is operating (online calibration) and / or while the moving object is not operating (offline calibration). For example, offline calibration for cameras carried by a UAV can be performed when the UAV is powered off and / or not flying, while online calibration can be performed while the UAV is powered on and / or flying.

Kamerakalibrierung kann auf vielfältige Weisen durchgeführt werden. In manchen Ausführungsformen involviert der Kalibrierungsprozess Bilder einer Szene zu erhalten, die eine Vielzahl von Merkmalen aufweisen, dann Übereinstimmungen zwischen Bildkoordinaten der Merkmale in den Bildern und den Weltkoordinaten der entsprechenden Merkmale in der Szene zu identifizieren. Die Kalibrierungsparameter können dann basierend auf den identifizierten Übereinstimmungen und der Zuordnung zwischen den Welt- und Bildkoordinatensystemen (z.B. basierend auf den hierin beschriebenen Zuordnungsmodellen) geschätzt werden. Zum Beispiel kann monokulare Kalibrierung (Ermitteln der Parameter einer einzelnen Kamera) involvieren, eine Schätzung der Kalibrierungsparameter (z.B. R, T, M) basierend auf einem Lochkameramodell zu erzeugen, dann den Verzerrungseffekt (z.B. Anfangswerte von Verzerrungsparametern werden mit 0 angenommen) zu schätzen, dann eine Parameteroptimierung (z.B. Verwenden des Levenberg-Marquardt-Algorithmus) durchzuführen, um die optimalen Kamerakalibrierungsparameter zu erhalten.Camera calibration can be done in a number of ways. In some embodiments, the calibration process involves obtaining images of a scene that have a plurality of features, then identifying matches between image coordinates of the features in the images and the world coordinates of the corresponding features in the scene. The calibration parameters can then be estimated based on the identified matches and the mapping between the world and image coordinate systems (e.g., based on the mapping models described herein). For example, monocular calibration (determining the parameters of a single camera) may involve generating an estimate of the calibration parameters (e.g. R, T, M) based on a pinhole camera model, then estimating the distortion effect (e.g. initial values of distortion parameters are assumed to be 0), then perform a parameter optimization (e.g. using the Levenberg-Marquardt algorithm) in order to obtain the optimal camera calibration parameters.

In manchen Ausführungsformen wird ein Kalibrierungsziel verwendet, um die Identifikation von Weltbildkoordinatenübereinstimmungen zu erleichtern. Ein Kalibrierungsziel kann eine beliebige Struktur sein, die eine definierte Anordnung von Merkmalen aufweist. Zum Beispiel kann das Kalibrierungsziel 1D (z.B. eine lineare, gekrümmte oder krummlinige Form), 2D (z.B. eine Ebene oder andere flache Oberfläche) oder 3D (z.B. ein Würfel, eine Kugel, ein Prisma, zwei oder mehr schneidende Ebenen) sein. Die Merkmale können gestaltet sein, leicht aus Bilddaten (z.B. unter Verwendung von Bilderkennungsalgorithmen, Merkmalextraktionsalgorithmen oder anderen Computer Vision Techniken) identifizierbar und klar von Nichtmerkmalen (z.B. andere Abschnitte des Kalibrierungsziels, andere Objekte in der Szene, Bildrauschen) unterscheidbar zu sein. In manchen Ausführungsformen sind die Merkmale Punkte auf dem Kalibrierungsziel (z.B. Ecken, Scheitelpunkte, Schnittpunkte), hierin auch als „Merkmalpunkte“ bezeichnet. Alternativ oder in Kombination können die Merkmale Linien (z.B. linear, gekrümmt, krummlinig), Kanten (z.B. zwischen zwei unterschiedlich gefärbten Bereichen), geometrische Formen (z.B. Kreise, Dreiecke, Vierecke usw.), Symbole oder Zeichen (z.B. alphanumerische Zeichen) oder geeignete Kombinationen davon sein. Zusätzlich können die Charakteristika jedes Merkmals (z.B. Größe, Form, Farbe) wie gewünscht variiert werden.In some embodiments, a calibration target is used to facilitate the identification of worldview coordinate matches. A calibration target can be any structure that has a defined arrangement of features. For example, the calibration target may be 1D (e.g., a linear, curved, or curvilinear shape), 2D (e.g., a plane or other flat surface), or 3D (e.g., a cube, sphere, prism, two or more intersecting planes). The features can be designed to be easily identifiable from image data (e.g. using image recognition algorithms, feature extraction algorithms, or other computer vision techniques) and clearly distinguishable from non-features (e.g. other sections of the calibration target, other objects in the scene, image noise). In some embodiments, the features are points on the calibration target (eg corners, vertices, intersections), also referred to herein as “feature points”. Alternatively or in combination, the features can be lines (e.g. linear, curved, curvilinear), edges (e.g. between two differently colored areas), geometric shapes (e.g. circles, triangles, squares, etc.), symbols or characters (e.g. alphanumeric characters) or suitable Be combinations of these. In addition, the characteristics of each feature (e.g. size, shape, color) can be varied as desired.

Das Kalibrierungsziel kann eine beliebige geeignete Zahl und Kombination von Merkmalen aufweisen. Zum Beispiel kann ein Kalibrierungsziel mindestens 10, 20, 30, 40, 50, 60, 70, 80, 90 oder 100 Merkmale aufweisen. Die Verwendung einer relativ großen Zahl von Merkmalen kann die Genauigkeit des Kalibrierungsprozesses verbessern. In manchen Ausführungsformen kann ein Kalibrierungsziel nur einen Typ von Merkmal aufweisen, während in anderen Ausführungsformen das Ziel mehr als einen Typ von Merkmal aufweisen kann, wie mindestens zwei, drei, vier, fünf oder mehr unterschiedliche Typen von Merkmalen. Die Merkmale können bei definierten Stellen auf dem Kalibrierungsziel liegen, sodass die Position und/oder Ausrichtung jedes Merkmals relativ zu dem Kalibrierungsziel bekannt sind. In manchen Ausführungsformen sind die Merkmale auf dem Kalibrierungsziel in einem sich wiederholenden Muster (z.B. ein Gitter, das eine Vielzahl von Reihen und Spalten aufweist) angeordnet, das vorgegebene Abmessungen (z.B. Länge, Breite, Höhe, Abstand zwischen Merkmalen) aufweist. Die Merkmale können statische Merkmale sein, sodass deren Position und/oder Ausrichtung auf dem Kalibrierungsziel sich nicht ändert. Alternativ können die Merkmale dynamische Merkmale mit variierenden Positionen und/oder Ausrichtungen sein. Die hierin beschriebenen Merkmale können ganzheitlich mit dem Kalibrierungsziel gebildet sein (z.B. auf einen Abschnitt des Ziels gedruckt oder gemalt) oder separat bereitgestellt sein und mit dem Ziel gekoppelt sein (z.B. an einem Abschnitt des Ziels befestigt oder angebracht).The calibration target can have any suitable number and combination of features. For example, a calibration target can have at least 10, 20, 30, 40, 50, 60, 70, 80, 90, or 100 features. Using a relatively large number of features can improve the accuracy of the calibration process. In some embodiments, a calibration target can have only one type of feature, while in other embodiments the target can have more than one type of feature, such as at least two, three, four, five or more different types of features. The features can lie at defined locations on the calibration target, so that the position and / or orientation of each feature relative to the calibration target are known. In some embodiments, the features on the calibration target are arranged in a repeating pattern (e.g., a grid having a plurality of rows and columns) that has predetermined dimensions (e.g. length, width, height, spacing between features). The features can be static features so that their position and / or orientation on the calibration target does not change. Alternatively, the features can be dynamic features with varying positions and / or orientations. The features described herein can be formed integrally with the calibration target (e.g., printed or painted on a portion of the target) or provided separately and coupled to the target (e.g., attached or attached to a portion of the target).

In manchen Ausführungsformen involviert der Kalibrierungsprozess einen Satz von Bildern des Kalibrierungsziels mit jeder zu kalibrierenden Abbildungsvorrichtung aufzunehmen. Jeder Bilddatensatz kann mindestens 5, 10, 15, 20, 25, 30, 35, 40, 45, 50 oder mehr Bilder des Kalibrierungsziels aufweisen. Die Bilder können das Kalibrierungsziel bei einer Vielzahl von unterschiedlichen Positionen und/oder Ausrichtungen abbilden. Jedes Bild kann verarbeitet werden, um Merkmale zu identifizieren, die in dem Bild vorhanden sind, und deren Bildkoordinaten zu ermitteln. Die Übereinstimmungen zwischen Bildkoordinaten der Merkmale in den Bilddaten und den Weltkoordinaten der Merkmale auf dem Kalibrierungsziel können ermittelt und nachfolgend verwendet werden, um die Kalibrierungsparameter (z.B. basierend auf den hierin beschriebenen mathematischen Beziehungen) zu lösen. Optional, in Ausführungsformen wo mehrere Abbildungsvorrichtungen verwendet werden, um mehrere Sätze von Bilddaten zu erhalten, können die Übereinstimmungen zwischen Bildkoordinaten von Merkmalen über die Bilddatensätze hinweg auch ermittelt werden und verwendet werden, um die Parameter für die mehreren Abbildungsvorrichtungen (z.B. Position und/oder Ausrichtung der Abbildungsvorrichtungen relativ zueinander) zu schätzen.In some embodiments, the calibration process involves capturing a set of images of the calibration target with each imaging device to be calibrated. Each image data set can have at least 5, 10, 15, 20, 25, 30, 35, 40, 45, 50 or more images of the calibration target. The images can depict the calibration target in a variety of different positions and / or orientations. Each image can be processed to identify features present in the image and determine their image coordinates. The correspondences between image coordinates of the features in the image data and the world coordinates of the features on the calibration target can be determined and subsequently used to solve the calibration parameters (e.g. based on the mathematical relationships described herein). Optionally, in embodiments where multiple imaging devices are used to obtain multiple sets of image data, the correspondences between image coordinates of features across the image data sets can also be determined and used to calculate the parameters for the multiple imaging devices (e.g. position and / or orientation of imaging devices relative to each other).

4 veranschaulicht ein Kalibrierungsziel 300, das zur Verwendung bei Abbildungsvorrichtungskalibrierung geeignet ist, in Übereinstimmung mit Ausführungsformen. Das Ziel 300 umfasst ein ebenes Schachbrettmuster, das ein sich wiederholendes Muster von schwarzen Quadraten 302 abwechselnd mit weißen Quadraten 304 aufweist. Jedes der Quadrate 302, 304 kann identisch bemessen und in einem Gitter angeordnet sein, das eine Vielzahl von Reihen und Spalten aufweist. In manchen Ausführungsformen dienen die Eckpunkte der Quadrate (z.B. wie durch Kreise 305 angegeben) als die Merkmalpunkte des Kalibrierungsziels 300, um Bildvorrichtungskalibrierung durchzuführen. Eckpunkte können relativ einfach von anderen Abschnitten der Bilddaten unter Verwendung von Maschinensichtverfahren unterscheidbar sein. Alternativ oder in Kombination können andere Abschnitte des Schachbretts als die Merkmale des Ziels 300 zu Kalibrierungszwecken dienen (z.B. die schwarzen Quadrate 302, die weißen Quadrate 304 usw.). Die Merkmale des Ziels 300 können aus Bilddaten des Kalibrierungsziels 300 unter Verwendung verschiedener Merkmalextraktionstechniken identifiziert werden und die Bildkoordinaten jedes Merkmals ermittelt werden. Dieser Prozess kann durch Kenntnis über die Geometrie vom Kalibrierungsziel 300 erleichtert werden. Zum Beispiel, in Ausführungsformen wo die Eckpunkte der Schachbrettquadrate 302, 304 als die Merkmalpunkte des Kalibrierungsziels 300 dienen, definiert die Größe der Quadrate den Abstand zwischen benachbarten Merkmalpunkten. Die Bildkoordinaten jedes Eckpunkts können daher basierend auf ihrer Reihen- und Spaltenposition innerhalb des Schachbretts ermittelt werden. 4th illustrates a calibration target 300 suitable for use in imaging device calibration, in accordance with embodiments. The goal 300 includes a flat checkerboard pattern that is a repeating pattern of black squares 302 alternating with white squares 304 having. Each of the squares 302 , 304 may be identically sized and arranged in a grid having a plurality of rows and columns. In some embodiments, the vertices serve as the squares (e.g., such as by circles 305 as the feature points of the calibration target 300 to perform imaging device calibration. Corner points can be relatively easily distinguishable from other sections of the image data using machine vision methods. Alternatively, or in combination, other sections of the chessboard can be used as the features of the target 300 serve for calibration purposes (e.g. the black squares 302 who have favourited white squares 304 etc.). The characteristics of the target 300 can from image data of the calibration target 300 identified using various feature extraction techniques and the image coordinates of each feature determined. This process can be accomplished by knowing the geometry of the calibration target 300 be relieved. For example, in embodiments where the corner points of the checkerboard squares 302 , 304 than the feature points of the calibration target 300 serve, the size of the squares defines the distance between adjacent feature points. The image coordinates each corner point can therefore be determined based on their row and column position within the chessboard.

Sobald die Bildkoordinaten der Merkmale in den Bilddaten des Ziels 300 ermittelt wurden, kann die Übereinstimmung zwischen den Bildkoordinaten und den Weltkoordinaten der Merkmale auf dem Ziel 300 identifiziert werden. Das Weltkoordinatensystem kann relativ zu dem Ziel 300 definiert werden, sodass die Weltkoordinaten jedes Merkmals der Position des Merkmals auf dem Ziel 300 entsprechen. Zum Beispiel kann der Ursprung Ow des Weltkoordinatensystems bei einer der vier Außenecken (306a, 306b, 306c, 306d) des Schachbretts positioniert werden, wobei die Ebene des Schachbretts entlang der Xw, Yw Ebene des Weltkoordinatensystems liegt. Dementsprechend, in Ausführungsformen wo die Eckpunkte als die Merkmale zur Kalibrierung dienen, ist die Zw Weltkoordinate jedes Eckpunkts auf dem Ziel 300 0 und die Xw, Yw Weltkoordinate jedes Eckpunkts kann basierend auf ihrer 2D-Stelle (z.B. Reihen- und Spaltenposition) auf dem Schachbrett ermittelt werden.Once the image coordinates of the features in the image data of the target 300 determined, the correspondence between the image coordinates and the world coordinates of the features on the target 300 be identified. The world coordinate system can be relative to the destination 300 can be defined so that the world coordinates of each feature indicate the position of the feature on the target 300 correspond. For example, the origin O w of the world coordinate system can be at one of the four outside corners ( 306a , 306b , 306c , 306d ) of the chessboard, the plane of the chessboard lying along the X w , Y w plane of the world coordinate system. Accordingly, in embodiments where the vertices serve as the features for calibration, the Z w world coordinate of each vertex on the target 300 is 0 and the X w , Y w world coordinate of each vertex can be based on its 2D location (e.g. row and column position) to be determined on the chessboard.

5 veranschaulicht erste und zweite Bilder 350, 352 eines Schachbrettkalibrierungsziels ähnlich dem Ziel 300, in Übereinstimmung mit Ausführungsformen. In der Ausführungsform von 5 ist das Kalibrierungsziel ein Bild, das auf einem Bildschirm angezeigt wird. Jedoch sollte verstanden werden, dass die hierin beschriebenen Kalibrierungsziele auch in anderen Formaten bereitgestellt werden können, wie auf ein Material (z.B. ein Blatt Papier) gedruckt. Das erste Bild 350 und zweite Bild 352 des Kalibrierungsziels können von einer linken Kamera und einer rechten Kamera eines binokularen beziehungsweise Stereovision-Abbildungssystems als Teil eines Satzes von Kalibrierungsbilddaten zum Durchführen von Kamerakalibrierung erhalten werden. Insbesondere nehmen sowohl das erste als auch zweite Bild 350, 352 die Gesamtheit des Kalibrierungsziels auf (z.B. die vier Außenecken des Schachbretts, die vier äußeren Kanten des Schachbretts, alle der schwarzen und weißen Quadrate), sodass all die Merkmale des Kalibrierungsziels (z.B. all die Eckpunkte des Schachbretts) innerhalb beider Bilder 350, 352 sichtbar sind. Dementsprechend können die Übereinstimmungen zwischen Bildkoordinaten der Merkmale (z.B. Eckpunkte) in dem ersten Bild 350, Bildkoordinaten entsprechender Merkmale in dem zweiten Bild 352 und den Weltkoordinaten der Merkmale in dem Kalibrierungsziel identifiziert werden und verwendet werden, um Kalibrierungsparameter für die linken und rechten Kameras zu ermitteln. 5 illustrates first and second images 350 , 352 of a checkerboard calibration target similar to the target 300 , in accordance with embodiments. In the embodiment of 5 the calibration target is an image displayed on a screen. However, it should be understood that the calibration targets described herein can be provided in other formats, such as printed on a material (e.g., a sheet of paper). The first picture 350 and second picture 352 of the calibration target may be obtained from a left camera and a right camera of binocular and stereo vision imaging systems, respectively, as part of a set of calibration image data for performing camera calibration. In particular, take both the first and second image 350 , 352 the entirety of the calibration target (e.g. the four outer corners of the chessboard, the four outer edges of the chessboard, all of the black and white squares) so that all the features of the calibration target (e.g. all of the corner points of the chessboard) are within both images 350 , 352 are visible. Correspondingly, the correspondences between image coordinates of the features (for example corner points) in the first image 350 , Image coordinates of corresponding features in the second image 352 and the world coordinates of the features in the calibration target are identified and used to determine calibration parameters for the left and right cameras.

In manchen Ausführungsformen, falls die Kalibrierungsbilddaten, die von jeder Kamera erhalten werden, nicht die Gesamtheit des Kalibrierungsziels aufnehmen, was darin resultiert, dass weniger als alle der Merkmale in dem Bild sichtbar sind, kann es schwierig oder sogar unmöglich sein, die Bildweltkoordinatenübereinstimmungen der Merkmale zu ermitteln, insbesondere falls das Kalibrierungsziel von mehreren unterschiedlichen Kamerapositionen und/oder Ausrichtungen abgebildet wird. Zum Beispiel, wieder in Bezug auf 5, falls mindestens eines des ersten und zweiten Bilds 350, 352 scheitert, die Gesamtheit des Schachbrettkalibrierungsziels aufzunehmen (z. B. mindestens eine der vier Außenecken, mindestens einen der vier äußeren Kanten oder Abschnitte davon, mindestens eines der schwarzen und zweiten Quadrate oder Abschnitte davon auslässt), sodass nur eine Teilmenge der Schachbretteckpunkte sichtbar ist, können die Übereinstimmungen zwischen Eckpunkten in dem Bild und Eckpunkten auf dem Ziel aufgrund des sich wiederholenden Schachbrettmusters uneindeutig sein. Obwohl dieses Problem in manchen Beispielen vermieden werden kann, indem die Größe des Kalibrierungsziels verringert wird oder der Abstand zwischen der Kamera und dem Kalibrierungsziel erhöht wird, um sicherzustellen, dass alle der Merkmalpunkte innerhalb des Blickfelds jeder Kamera sind, können diese Herangehensweisen die Kalibrierungsgenauigkeit verringern.In some embodiments, if the calibration image data obtained from each camera does not capture the entirety of the calibration target, resulting in less than all of the features being visible in the image, it may be difficult or even impossible to find the world coordinate matches of the features to be determined, in particular if the calibration target is imaged from several different camera positions and / or orientations. For example, again in terms of 5 if at least one of the first and second images 350 , 352 fails to include the entirety of the checkerboard calibration target (e.g. at least one of the four outer corners, at least one of the four outer edges or portions thereof, omits at least one of the black and second squares or portions thereof) so that only a subset of the checkerboard vertices are visible, the correspondences between vertices in the image and vertices on the target may be ambiguous due to the repeating checkerboard pattern. Although in some examples this problem can be avoided by reducing the size of the calibration target or increasing the distance between the camera and the calibration target to ensure that all of the feature points are within each camera's field of view, these approaches can reduce calibration accuracy.

Unterschiedliche hierin beschriebene Ausführungsformen stellen verbesserte Kalibrierungsziele bereit, die Ermittlung von Kamerakalibrierungsparametern zulassen, selbst wenn die Bilddaten nicht die Gesamtheit des Kalibrierungsziels und der Kalibrierungszielmerkmale aufnehmen. In manchen Ausführungsformen weisen diese Kalibrierungsziele eine oder mehrere Referenzmarkierungen auf, die bei definierten Stellen liegen. Die eine oder mehreren Referenzmarkierungen können jeweils eindeutig in Bilddaten des Kalibrierungsziels identifizierbar sein, selbst wenn die Bilddaten das Kalibrierungsziel in unterschiedlichen Positionen und/oder Ausrichtungen abbilden. Folglich können die Bildweltkoordinatenübereinstimmungen für die Merkmale des Kalibrierungsziels ermittelt werden, selbst wenn nur eine Teilmenge der Merkmale in den Bilddaten sichtbar ist, indem die Referenzmarkierungen als räumliche Referenzen verwendet werden, um unzweideutig jedes Merkmal zu identifizieren. Vorteilhafterweise erlaubt dieser Ansatz, dass ein Bild zur Kamerakalibrierung verwendet wird, solange es all die Referenzmarkierungen und mindestens manche der Kalibrierungsmerkmale aufnimmt, wodurch die Flexibilität und Robustheit des Kalibrierungsprozesses verbessert werden. Dies kann insbesondere vorteilhaft für Vorrichtungen sein, die mehrere Kameras nutzen, z.B. ein UAV, das ein Stereovisionserfassungssystem implementiert, da es relativ schwer sein kann, die Kameras so anzuordnen, dass die Gesamtheit des Kalibrierungsziels in dem Blickfeld jeder Kamera ist.Different embodiments described herein provide improved calibration targets that allow camera calibration parameters to be determined even when the image data does not include the entirety of the calibration target and calibration target features. In some embodiments, these calibration targets have one or more reference marks that lie at defined locations. The one or more reference markings can each be uniquely identifiable in image data of the calibration target, even if the image data depicts the calibration target in different positions and / or orientations. Thus, even if only a subset of the features are visible in the image data, the image world coordinate matches for the features of the calibration target can be determined by using the fiducial marks as spatial references to unambiguously identify each feature. Advantageously, this approach allows an image to be used for camera calibration as long as it includes all of the reference marks and at least some of the calibration features, thereby improving the flexibility and robustness of the calibration process. This can be particularly advantageous for devices that use multiple cameras, e.g., a UAV implementing a stereo vision capture system, as it can be relatively difficult to arrange the cameras so that the entirety of the calibration target is in the field of view of each camera.

Die Charakteristika der Referenzmarkierungen können wie gewünscht variiert werden, umfassend Form, Größe und/oder Farbe. Beispielhafte Referenzmarkierungen enthalten geometrische Formen (z.B. Punkt, Linie, Kreis, Dreieck, Viereck), Symbole oder Zeichen (z.B. alphanumerische Zeichen) oder geeignete Kombinationen davon. Die hierin bereitgestellten Kalibrierungsziele können eine beliebige geeignete Zahl von Referenzmarkierungen aufweisen, wie mindestens eins, zwei, drei, vier, fünf oder mehr Referenzmarkierungen. In manchen Ausführungsformen weisen die Kalibrierungsziele nur drei Referenzmarkierungen auf. In manchen Ausführungsformen weisen die hierin beschriebenen Kalibrierungsziele nur einen einzelnen Typ von Referenzmarkierung auf. Alternativ kann ein Kalibrierungsziel mehrere unterschiedliche Typen von Referenzmarkierungen aufweisen, wie mindestens zwei, drei, vier, fünf oder mehr unterschiedliche Typen.The characteristics of the reference marks can be varied as desired, including shape, size and / or color. Exemplary reference markings contain geometric shapes (for example point, line, circle, triangle, square), symbols or characters (for example alphanumeric characters) or suitable combinations thereof. The calibration targets provided herein can have any suitable number of reference marks, such as at least one, two, three, four, five, or more reference marks. In some embodiments, the calibration targets only have three reference marks. In some embodiments, the calibration targets described herein have only a single type of reference mark. Alternatively, a calibration target can have several different types of reference marks, such as at least two, three, four, five or more different types.

Die Charakteristika der Referenzmarkierungen können ausgewählt werden, um Identifikation der Referenzmarkierungen von Bilddaten zu erleichtern, z.B. unter Verwendung von Bilderkennungsalgorithmen, Merkmalextraktionsalgorithmen oder anderen Computer Vision Techniken. Optional können die Referenzmarkierungen visuell von den Merkmalen unterscheidbar sein, um genaue Identifikation der Referenzmarkierungen und Merkmale zu erleichtern. Als ein anderes Beispiel können die Merkmale in einem sich wiederholenden Muster (z.B. über eine 1D-Linie oder eine 2D-Oberfläche) angeordnet sein, während sich die Referenzmarkierungen nicht wiederholen.The characteristics of the fiducial marks can be selected to facilitate identification of the fiducial marks from image data, e.g., using image recognition algorithms, feature extraction algorithms, or other computer vision techniques. Optionally, the reference markings can be visually distinguishable from the features in order to facilitate precise identification of the reference marks and features. As another example, the features may be arranged in a repeating pattern (e.g., across a 1D line or a 2D surface) while the fiducial marks are not repeating.

Die Referenzmarkierungen können jeweils bei einer unterschiedlichen Stelle auf dem Kalibrierungsziel positioniert sein. In manchen Ausführungsformen liegen die Referenzmarkierungen relativ zu den Merkmalen des Kalibrierungsziels in einer definierten Anordnung, sodass die räumliche Beziehung (z.B. relative Position, Ausrichtung) zwischen jedem Merkmal und mindestens einer der Referenzmarkierungen bekannt ist. Zum Beispiel können die Referenzmarkierungen mit einem oder mehreren Merkmalen des Kalibrierungsziels überlagert oder durchsetzt sein. Als ein anderes Beispiel können die Referenzmarkierungen nahe oder angrenzend an ein oder mehrere Merkmale positioniert sein. Die Referenzmarkierungen können auf dem Kalibrierungsziel positioniert sein, sodass all die Referenzmarkierungen und mindestens manche der Merkmale gleichzeitig in Bildern des Kalibrierungsziels sichtbar sind.The reference marks can each be positioned at a different location on the calibration target. In some embodiments, the reference marks lie in a defined arrangement relative to the features of the calibration target, so that the spatial relationship (e.g. relative position, orientation) between each feature and at least one of the reference marks is known. For example, one or more features of the calibration target can be overlaid or interspersed with the reference markings. As another example, the fiducial marks can be positioned near or adjacent to one or more features. The reference marks can be positioned on the calibration target so that all of the reference marks and at least some of the features are visible at the same time in images of the calibration target.

Verschiedene Techniken können verwendet werden, um jede Referenzmarkierung eindeutig in Bilddaten des Kalibrierungsziels identifizierbar zu machen, selbst wenn die Bilddaten eine gedrehte und/oder verschobene Ansicht des Kalibrierungsziels darstellen. Zum Beispiel kann jede Referenzmarkierung eine unterschiedliche Größe, Form und/oder Farbe aufweisen, oder kann einzigartige Charakteristika oder Markierungen aufweisen, die ermöglichen, sie visuell von den anderen Markierungen zu unterscheiden. Alternativ oder in Kombination können die Referenzmarkierungen auf eine Weise angeordnet sein, die es jeder Referenzmarkierung ermöglicht, basierend auf deren relativer Positionierung eindeutig identifiziert zu werden. In solchen Ausführungsformen können die Referenzmarkierungen ähnlich oder identisch sein (z.B. in Bezug auf Form, Größe, Farbe oder andere Charakteristika). Zum Beispiel kann jede Referenzmarkierung positioniert sein, Scheitelpunkte eines unregelmäßigen Polygons (z.B. gleichschenkeliges Dreieck, ungleichseitiges Dreieck) zu bilden. Mindestens manche der Winkel eines unregelmäßigen Polygons können unterschiedliche Größen als andere Winkel aufweisen. Ähnlich können mindestens manche der Kanten eines unregelmäßigen Polygons unterschiedliche Längen als andere Kanten aufweisen. Optional können all die Winkel unterschiedlich groß sein und all die Kanten können unterschiedliche Längen aufweisen. Als ein Beispiel können in Ausführungsformen, wo die Merkmale des Kalibrierungsziels in einer Ebene (z.B. ein sich wiederholendes 2D-Muster von Merkmalen, wie ein Gitter) angeordnet sind, die Referenzmarkierungen eine Form bilden, die in der Ebene rotationssymmetrisch ist.Various techniques can be used to make each reference mark uniquely identifiable in image data of the calibration target, even if the image data represent a rotated and / or shifted view of the calibration target. For example, each reference mark can be a different size, shape, and / or color, or can have unique characteristics or markings that enable it to be visually distinguished from the other markings. Alternatively, or in combination, the reference markings can be arranged in a manner that enables each reference mark to be uniquely identified based on their relative positioning. In such embodiments, the reference markings may be similar or identical (e.g., in terms of shape, size, color, or other characteristics). For example, each fiducial mark can be positioned to form vertices of an irregular polygon (e.g., isosceles triangle, unequal-sided triangle). At least some of the angles of an irregular polygon can be different sizes than other angles. Similarly, at least some of the edges of an irregular polygon can have different lengths than other edges. Optionally, all of the angles can be of different sizes and all of the edges can be of different lengths. As an example, in embodiments where the features of the calibration target are arranged in a plane (e.g., a repeating 2D pattern of features such as a grid), the fiducial marks may form a shape that is rotationally symmetrical in the plane.

6 und 7 veranschaulichen Referenzmarkierungen, die basierend auf relativer Positionierung eindeutig identifizierbar sind, in Übereinstimmung mit Ausführungsformen. 6 veranschaulicht eine erste Ansicht 400 einer Vielzahl von Referenzmarkierungen A, B, C, die hierin als schwarze Kreise abgebildet sind. Die Referenzmarkierungen A, B, C können relativ zueinander angeordnet sein, um Scheitelpunkte eines ungleichseitigen Dreiecks zu bilden. 7 veranschaulicht eine zweite Ansicht 410, die eine Rotation und Translation der ersten Ansicht 400 darstellt. Aufgrund der asymmetrischen Eigenschaften des Dreiecks, können die Referenzmarkierungen A', B' und C in der zweiten Ansicht 410 eindeutig als den Referenzmarkierungen A, B beziehungsweise C in der ersten Ansicht 400 entsprechend identifiziert werden. In manchen Ausführungsformen wird Identifikation entsprechender Referenzmarkierungen basierend auf dem Positionieren der Referenzmarkierungen relativ zu den Merkmalen des Dreiecks (z.B. Kanten, Winkel) in der ersten und zweiten Ansicht 400, 410 durchgeführt. Zum Beispiel, in der Ausführungsform von 6 und 7, sind die Markierungen B und B' beide gegenüber der längsten Kante des Dreiecks positioniert und die Markierungen C und C sind beide gegenüber der kürzesten Kante des Dreiecks positioniert. Als ein anderes Beispiel sind die Markierungen B und B' beide bei dem Scheitelpunkt des größten Innenwinkels des Dreiecks positioniert und die Markierungen C und C sind beide bei dem Scheitelpunkt des kleinsten Innenwinkels des Dreiecks positioniert. Obwohl die Referenzmarkierungen in 6 und 7 abgebildet sind ein Dreieck zu bilden, sollte begrüßt werden, dass die Referenzmarkierungen angeordnet sein können, andere unregelmäßige Polygone (z.B. unregelmäßige Polygone mit drei, vier, fünf, sechs oder mehr Scheitelpunkten) zu bilden. Diese Herangehensweise kann jede Markierung eindeutig identifizierbar machen, ungeachtet der Position und/oder Ausrichtung, von der die Referenzmarkierungen betrachtet werden. 6th and 7th illustrate fiducial marks that are uniquely identifiable based on relative positioning, in accordance with embodiments. 6th illustrates a first view 400 a plurality of reference marks A, B, C, depicted herein as black circles. The reference markings A, B, C can be arranged relative to one another in order to form vertices of a non-equilateral triangle. 7th illustrates a second view 410 showing a rotation and translation of the first view 400 represents. Due to the asymmetrical nature of the triangle, the reference marks A ', B' and C can be seen in the second view 410 clearly than the reference marks A, B and C respectively in the first view 400 identified accordingly. In some embodiments, identification of corresponding reference marks is based on the positioning of the reference marks relative to the features of the triangle (eg edges, angles) in the first and second views 400 , 410 accomplished. For example, in the embodiment of 6th and 7th , marks B and B 'are both positioned opposite the longest edge of the triangle and marks C and C are both positioned opposite the shortest edge of the triangle. As another example, the markings B and B 'are both positioned at the apex of the largest interior angle of the triangle and the markings C and C are both positioned at the vertex of the smallest interior angle of the triangle. Although the reference marks in 6th and 7th are depicted to form a triangle, it should be appreciated that the reference marks can be arranged to form other irregular polygons (e.g. irregular polygons with three, four, five, six or more vertices). This approach can make each marker uniquely identifiable, regardless of the position and / or orientation from which the reference markers are viewed.

8 veranschaulicht ein Kalibrierungsziel 500, das Referenzmarkierungen 502a, 502b, 502c aufweist, in Übereinstimmung mit Ausführungsformen. Ähnlich dem Kalibrierungsziel 300 weist das Kalibrierungsziel 500 ein Schachbrett auf, das ein sich wiederholendes Muster abwechselnder schwarzer und weißer Quadrate aufweist. In der Ausführungsform von 8 sind die Referenzmarkierungen 502a-c identische schwarze Kreise, die jeweils innerhalb eines unterschiedlichen weißen Quadrats des Schachbretts positioniert sind. Jedoch sollte begrüßt werden, dass in alternativen Ausführungsformen mindestens manche der Referenzmarkierungen 502a-c weiße Kreise sein können, die innerhalb von schwarzen Quadraten positioniert sind. Die Referenzmarkierungen 502a-c liegen auf dem Kalibrierungsziel 500 in einer bekannten Position relativ zu dem Schachbrett, z.B. die Reihen- und Spaltenposition jeder Markierung ist bekannt. Jede Referenzmarkierung 502a-c kann an einer unterschiedlichen Position des Schachbretts liegen (z.B. unterschiedliche Reihen- und/oder Spaltenpositionen). In manchen Ausführungsformen sind die Referenzmarkierungen 502a-c auf dem Ziel 500 angeordnet, um Scheitelpunkte eines unregelmäßigen Dreiecks zu bilden. Dementsprechend, falls ein Bild des Ziels 500 alle drei Referenzmarkierungen 502a-c aufweist, ist jede Referenzmarkierung 502a-c eindeutig identifizierbar, selbst falls nur manches des Ziels 500 sichtbar ist (z.B. ist mindestens eine der vier Außenecken, eine der vier äußeren Kanten, eines der schwarzen Quadrate und/oder weißen Quadraten des Schachbretts aus dem Bild ausgelassen). Sobald jede Referenzmarkierung 502a-c in den Bilddaten identifiziert wurde, kann die räumliche Beziehung (z.B. Rotation, Transformation) zwischen den Referenzmarkierungen in dem Bild und den Referenzmarkierungen auf dem Kalibrierungsziel 500 ermittelt werden. Diese räumliche Beziehung kann dann verwendet werden, um die Weltkoordinaten jedes Merkmals (z.B. Eckpunkt), das in den Bilddaten abgebildet ist, zu ermitteln. 8th illustrates a calibration target 500 , the reference marks 502a , 502b , 502c in accordance with embodiments. Similar to the calibration target 300 assigns the calibration target 500 a chessboard that has a repeating pattern of alternating black and white squares. In the embodiment of 8th are the reference marks 502a-c identical black circles, each positioned within a different white square of the chessboard. However, it should be appreciated that, in alternative embodiments, at least some of the reference marks 502a-c can be white circles positioned within black squares. The reference marks 502a-c lie on the calibration target 500 in a known position relative to the chessboard, e.g. the row and column position of each marker is known. Any reference mark 502a-c can be at a different position on the chessboard (e.g. different row and / or column positions). In some embodiments, the reference marks are 502a-c on the target 500 arranged to form vertices of an irregular triangle. Accordingly, if a picture of the target 500 all three reference marks 502a-c is any reference mark 502a-c clearly identifiable, even if only some of the target 500 is visible (e.g. at least one of the four outer corners, one of the four outer edges, one of the black squares and / or white squares of the chessboard is omitted from the picture). As soon as each reference mark 502a-c was identified in the image data, the spatial relationship (for example rotation, transformation) between the reference markings in the image and the reference markings on the calibration target 500 be determined. This spatial relationship can then be used to determine the world coordinates of each feature (eg corner point) that is mapped in the image data.

9 veranschaulicht ein Verfahren 600 zum Kalibrieren einer oder mehrerer Abbildungsvorrichtungen unter Verwendung eines Kalibrierungsziels mit einer oder mehreren Referenzmarkierungen, in Übereinstimmung mit Ausführungsformen. Mindestens manche der Schritte des Verfahrens 600 können von einem geeigneten Rechensystem oder einer Vorrichtung umgesetzt werden, wie von einem oder mehreren Prozessoren. In Ausführungsformen, wo die Abbildungsvorrichtungen von einem beweglichen Objekt getragen werden, können manche oder alle der Schritte des Verfahrens 600 durchgeführt werden, wenn das bewegliche Objekt nicht in Betrieb ist (Offline-Kalibrierung). Alternativ können manche oder alle der Schritte durchgeführt werden, während das bewegliche Objekt betrieben wird (Online-Kalibrierung) . 9 illustrates a procedure 600 for calibrating one or more imaging devices using a calibration target with one or more reference marks, in accordance with embodiments. At least some of the steps in the process 600 can be implemented by a suitable computing system or device, such as one or more processors. In embodiments where the imaging devices are carried by a moving object, some or all of the steps of the method can be performed 600 carried out when the moving object is not in operation (offline calibration). Alternatively, some or all of the steps can be performed while the moving object is operating (on-line calibration).

In Schritt 610 wird eine Vielzahl von Bildern eines Kalibrierungsziels von jeder einer oder mehrerer Abbildungsvorrichtungen (z.B. eine oder mehrere Kameras) empfangen. Das Kalibrierungsziel kann eine Vielzahl von Merkmalen und eine oder mehrere Referenzmarkierungen aufweisen, wie hierin zuvor beschrieben wurde. Die Vielzahl von Merkmalen kann in einer beliebigen geeigneten Konfiguration angeordnet sein, z.B. ein sich wiederholendes Muster, wie ein Gitter. Die eine oder mehreren Referenzmarkierungen können gestaltet sein, eindeutig in den Bildern identifizierbar zu sein, wie zuvor besprochen wurde. Die Vielzahl von Bildern, die von jeder Abbildungsvorrichtung bereitgestellt werden, kann Bilder aufweisen, die bei einer Vielzahl von unterschiedlichen Positionen und/oder Ausrichtungen relativ zu dem Kalibrierungsziel aufgenommen werden. Jedes Bild kann alle der Referenzmarkierungen und mindestens manche der Vielzahl von Merkmalen des Kalibrierungsziels aufnehmen. In manchen Ausführungsformen nimmt mindestens eines der Bilder, die von den Abbildungsvorrichtungen erzeugt werden, weniger als alle der Vielzahl von Merkmalen des Kalibrierungsziels auf.In step 610 a plurality of images of a calibration target is received from each of one or more imaging devices (e.g., one or more cameras). The calibration target may have a variety of features and one or more reference marks, as previously described herein. The plurality of features can be arranged in any suitable configuration, such as a repeating pattern such as a grid. The one or more reference marks can be designed to be uniquely identifiable in the images, as discussed previously. The plurality of images provided by each imaging device may include images captured at a variety of different positions and / or orientations relative to the calibration target. Each image can capture all of the fiducial marks and at least some of the plurality of features of the calibration target. In some embodiments, at least one of the images generated by the imaging devices captures less than all of the plurality of features of the calibration target.

In Schritt 620 werden Merkmale und die eine oder mehreren Referenzmarkierungen in jedem Bild der Vielzahl von Bildern, die von jeder Abbildungsvorrichtung bereitgestellt werden, identifiziert. Zum Beispiel kann jedes Bild unter Verwendung verschiedener Computer Vision Algorithmen verarbeitet werden, um die Referenzmarkierungen und Merkmale, die in dem Bild sichtbar sind, zu identifizieren. In manchen Ausführungsformen kann der Algorithmus basierend auf Informationen bezüglich der bekannten Charakteristika der Referenzmarkierungen und/oder Merkmale (z.B. Form, Größe, Farbe, relative Positionierung) durchgeführt werden, um eine Identifikation zu erleichtern. Sobald die Referenzmarkierungen und/oder Merkmale identifiziert wurden, können sie Bildkoordinaten zugewiesen werden, die deren Pixelpositionen innerhalb des Bilds darstellen. Zum Beispiel können die Bildkoordinaten für eine kreisförmige Referenzmarkierung die Koordinaten des Mittelpunkts des Kreises sein. Optional können die Bilder vor der Identifikationsprozedur korrigiert und/oder vorab verarbeitet werden, um Identifikationsgenauigkeit zu verbessern, z.B. indem Rauschen verringert wird, wobei Bilder verworfen werden, die als zur Analyse ungeeignet beurteilt werden uns so weiter.In step 620 For example, features and the one or more fiducial marks are identified in each image of the plurality of images provided by each imaging device. For example, each image can be processed using various computer vision algorithms to identify the fiducial marks and features visible in the image. In some embodiments, the algorithm can be carried out based on information relating to the known characteristics of the reference markings and / or features (eg shape, size, color, relative positioning) in order to facilitate identification. Once the reference marks and / or features have been identified, they can be assigned image coordinates that represent their pixel positions within the image. For example, the image coordinates for a circular reference mark can be the coordinates of the center of the circle. Optionally, the images can be corrected and / or in advance before the identification procedure processed to improve identification accuracy, e.g. by reducing noise, discarding images that are judged to be unsuitable for analysis, and so on.

10 bis 13 veranschaulichen Identifikation von Merkmalen und Referenzmarkierungen eines Kalibrierungsziels in einem Bild, in Übereinstimmung mit Ausführungsformen. 10 veranschaulicht ein Bild, das einen Abschnitt eines Schachbrettkalibrierungsziels mit drei schwarzen kreisförmigen Referenzmarkierungen aufnimmt, ähnlich dem Ziel 500. Insbesondere lässt Bild gewisse Abschnitte des Kalibrierungsziels aus, z.B. die obere und untere linke Ecke des Schachbretts und die linke Kante des Schachbretts, sodass nur manche der Eckpunkte des Schachbretts sichtbar sind. Jedoch sind alle drei Referenzmarkierungen und die Eckpunkte nahe der Referenzmarkierungen sichtbar. Da die drei Referenzmarkierungen auf dem Kalibrierungsziel angeordnet sind, um ein unregelmäßiges Polygon zu bilden, sind die Referenzmarkierungen eindeutig identifizierbar, selbst wenn manche Gebiete des Kalibrierungsziels nicht in dem Bild abgebildet sind. 11 veranschaulicht das Bild von 10 dem Verarbeiten folgend, um die Eckpunkte der Schachbrettquadrate zu identifizieren. Die Eckpunkte können als Merkmale zur Kamerakalibrierung dienen, wie hierin zuvor beschrieben wurde. In manchen Ausführungsformen, falls der Eckpunktidentifikationsalgorithmus scheitert (z.B. keine Eckpunkte identifiziert werden), wird das Bild als ungültig betrachtet. 12 veranschaulicht das Bild von 10 dem Verarbeiten folgend, um die Referenzmarkierungen zu identifizieren. Die kreisförmigen Referenzmarkierungen können unter Verwendung geeigneter Detektionsverfahren identifiziert werden, wie einer Hough-Transformation. Falls der Algorithmus scheitert, beliebige Referenzmarkierungen zu identifizieren, kann das Bild als ungültig betrachtet werden. 10 until 13th illustrate identification of features and fiducial marks of a calibration target in an image, in accordance with embodiments. 10 Figure 11 illustrates an image capturing a portion of a checkerboard calibration target with three black circular fiducial marks, similar to the target 500 . In particular, Image omits certain portions of the calibration target, such as the top and bottom left corner of the chessboard and the left edge of the chessboard, so that only some of the corner points of the chessboard are visible. However, all three reference marks and the corner points near the reference marks are visible. Since the three reference marks are arranged on the calibration target to form an irregular polygon, the reference marks can be clearly identified even if some areas of the calibration target are not shown in the image. 11th illustrates the picture of 10 following processing to identify the corner points of the checkerboard squares. The corner points can serve as features for camera calibration, as described hereinbefore. In some embodiments, if the vertex identification algorithm fails (eg, no vertices are identified), the image is considered invalid. 12th illustrates the picture of 10 following processing to identify the reference marks. The circular reference marks can be identified using suitable detection methods, such as a Hough transform. If the algorithm fails to identify any reference marks, the image can be considered invalid.

In manchen Ausführungsformen kann der Referenzmarkierungsalgorithmus falsche Positive erzeugen, z.B. Gebiete des Bilds identifizieren, die keine Referenzmarkierungen sind. Zum Beispiel weist das Bild von 12 einige fälschliche Ergebnisse auf, in denen Abschnitte des Bilds, die nicht die Referenzmarkierungen sind, irrtümlich identifiziert werden. Dies kann zum Beispiel auftreten, wenn der Erfassungsalgorithmus von Formerkennung (z.B. Erkennung von Kreisen) abhängt, um die Referenzmarkierungen zu identifizieren, und ähnlich geformte Objekte in dem Bild sichtbar sind. 13 veranschaulicht ein Filtern der Ergebnisse von 12, um das Vorkommen falscher Positive zu verringern. In Ausführungsformen, wo die Referenzmarkierungen mit den Merkmalen des Kalibrierungsziels durchsetzt oder überlagert sind, können die Bilddaten gefiltert werden, um die Referenzmarkierungsidentifikationsergebnisse auf jene innerhalb der konvexen Hülle der identifizierten Merkmale zu begrenzen. In 13 wurden die falschen Positive, die außerhalb der konvexen Hülle der identifizierten Eckpunkte liegen, entfernt. Die Referenzmarkierungen können aus den restlichen Ergebnissen basierend auf der Kenntnis über die relative Positionierung der Referenzmarkierungen ermittelt werden. In manchen Ausführungsformen können die Positionsinformationen (z.B. Reihen- und Spalteninformationen und/oder Bildkoordinaten) für jedes Ergebnis ermittelt werden. Der Satz von Positionsinformationen kann dann analysiert werden, um die Referenzmarkierungen zu identifizieren, die in der korrekten räumlichen Beziehung zueinander stehen. Zum Beispiel, wieder in Bezug auf 13, da bekannt ist, dass die Referenzmarkierungen auf dem Ziel die Scheitelpunkte eines Dreiecks bilden und die Eigenschaften des Dreiecks vorgegeben sind (z.B. Kantenlänge, Winkel), können die die Ergebnisse gesucht werden, um den Satz zu identifizieren, der diese geometrische Vorgabe erfüllt. Falls keine solchen Ergebnisse gefunden werden, oder falls mehr als ein Satz von Ergebnissen gefunden wird, kann das Bild als ungültig betrachtet werden.In some embodiments, the fiducial marker algorithm can generate false positives, eg, identify areas of the image that are not fiducial marks. For example, the picture of 12th has some erroneous results where portions of the image that are not the fiducial marks are mistakenly identified. This can occur, for example, when the detection algorithm depends on shape recognition (eg recognition of circles) in order to identify the reference markings, and similarly shaped objects are visible in the image. 13th illustrates filtering the results of 12th to reduce the occurrence of false positives. In embodiments where the fiducial marks are interspersed or overlaid with the features of the calibration target, the image data can be filtered to limit the fiducial identification results to those within the convex envelope of the identified features. In 13th the false positives that lie outside the convex hull of the identified vertices have been removed. The reference markings can be determined from the remaining results based on the knowledge of the relative positioning of the reference markings. In some embodiments, the position information (eg row and column information and / or image coordinates) can be determined for each result. The set of positional information can then be analyzed to identify the fiducial marks that are in correct spatial relationship with one another. For example, again in terms of 13th Since it is known that the reference marks on the target form the vertices of a triangle and the properties of the triangle are given (e.g. edge length, angle), the results can be searched for in order to identify the set that fulfills this geometric specification. If no such results are found, or if more than one set of results are found, the image may be considered invalid.

In Schritt 630 wird eine räumliche Beziehung zwischen der einen oder den mehreren Referenzmarkierungen in jedem Bild der Vielzahl von Bildern und der einen oder den mehreren Referenzmarkierungen auf dem Kalibrierungsziel ermittelt. Wie zuvor beschrieben wurde, sind die Referenzmarkierungen dazu ausgebildet, dass die räumliche Beziehung (z.B. Translation, Rotation, Spiegelung) eindeutig identifizierbar ist, indem verglichen wird, wie die Position der Referenzmarkierungen in den Bilddaten sich von den bekannten Positionen der Referenzmarkierungen auf dem tatsächlichen Kalibrierungsziel unterscheidet. Solche Unterschiede können basierend auf der Position und/oder Ausrichtung der Abbildungsvorrichtung relativ zu dem Kalibrierungsziel während Bildaufnahme entstehen. Zum Beispiel, in Ausführungsformen wo die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in den Bilddaten bilden, kann die räumliche Beziehung ermittelt werden, indem identifiziert wird, wie die Scheitelpunkte des unregelmäßigen Polygons in den Bilddaten den bekannten Positionen der Scheitelpunkte auf dem tatsächlichen Ziel entsprechen. In Ausführungsformen, wo ein Schachbrettkalibrierungsziel verwendet wird und die Referenzmarkierungen in gewissen Quadraten des Schachbretts positioniert sind, kann die räumliche Beziehung ermittelt werden, indem Positionsinformationen (z.B. Reihe- und Spaltenposition) für jede der Referenzmarkierungen in dem Bild identifiziert werden und diese Informationen mit den bekannten Positionsinformationen (z.B. Reihen- und Spaltenposition) auf dem tatsächlichen Schachbrett verglichen werden.In step 630 a spatial relationship between the one or more reference marks in each image of the plurality of images and the one or more reference marks on the calibration target is determined. As described above, the reference markings are designed so that the spatial relationship (e.g. translation, rotation, mirroring) can be clearly identified by comparing how the position of the reference markings in the image data differs from the known positions of the reference markings on the actual calibration target differs. Such differences can arise based on the position and / or orientation of the imaging device relative to the calibration target during image acquisition. For example, in embodiments where the one or more fiducial marks form vertices of an irregular polygon in the image data, the spatial relationship can be determined by identifying how the vertices of the irregular polygon in the image data correspond to the known positions of the vertices on the actual target . In embodiments where a checkerboard calibration target is used and the fiducial marks are positioned in certain squares of the chessboard, the spatial relationship can be determined by identifying positional information (e.g., row and column position) for each of the fiducial marks in the image and this information with the known Position information (e.g. row and column position) can be compared on the actual chessboard.

In Schritt 640 wird eine Übereinstimmung zwischen Bildkoordinaten von Merkmalen in den Bilddaten und globalen Koordinaten (Weltkoordinaten) für entsprechende Merkmale auf dem Kalibrierungsziel basierend auf der räumlichen Beziehung formuliert, die in Schritt 630 ermittelt wurde. Zum Beispiel können die Positionen jedes Merkmalpunkts auf dem tatsächlichen Kalibrierungsziel unter Verwendung der ermittelten räumlichen Beziehung ermittelt werden. Jedes Merkmal kann dann einem Satz von Weltkoordinaten zugewiesen werden, die die Position des Merkmalpunkts relativ zu dem Weltkoordinatensystem angeben. Dementsprechend, da die Bildkoordinaten und die Weltkoordinaten jedes Merkmals bekannt sind, kann die Übereinstimmung oder Zuordnung zwischen den Bild- und Weltkoordinaten formuliert werden.In step 640 a correspondence between image coordinates of features in the image data and global coordinates (world coordinates) for corresponding features on the calibration target is formulated based on the spatial relationship, which is established in step 630 was determined. For example, the positions of each feature point on the actual calibration target can be determined using the determined spatial relationship. Each feature can then be assigned a set of world coordinates indicating the position of the feature point relative to the world coordinate system. Accordingly, since the image coordinates and the world coordinates of each feature are known, the correspondence or association between the image and world coordinates can be formulated.

In Ausführungsformen, wo eine Vielzahl von Abbildungsvorrichtungen kalibriert wird, kann mit jeder Abbildungsvorrichtung, die einen jeweiligen Satz von Bildern bereitstellt, der Schritt 640 involvieren, die Merkmale zu identifizieren, die in jedem der jeweiligen Bildsätze vorhanden sind, und dann Weltkoordinaten für nur diese Merkmale zu ermitteln. Zum Beispiel kann für binokulare Kalibrierung unter Verwendung von Eckpunkten eines Schachbretts der Schritt 640 involvieren, die Eckpunkte zu identifizieren, die sowohl in dem linken als auch rechten Kamerabild sichtbar sind, und die Weltkoordinaten dieser gemeinsamen Eckpunkte zu ermitteln. Da sowohl das linke als auch rechte Bild all die Referenzmarkierungen des Kalibrierungsziels wie zuvor besprochen abbilden, sollten sowohl das linke als auch rechte Bild mindestens die Merkmale nahe den Referenzmarkierungen aufweisen. In alternativen Ausführungsformen kann dieser Prozess umgekehrt werden, indem Weltkoordinaten für all die Merkmale ermittelt werden, die in den Bildern sichtbar sind, die von mehreren Abbildungsvorrichtungen erzeugt werden, bevor ermittelt wird, welche Merkmale die unterschiedlichen Bildsätze gemeinsam haben.In embodiments where a plurality of imaging devices are being calibrated, each imaging device that provides a respective set of images may be performed with the step 640 involve identifying the features present in each of the respective image sets and then determining world coordinates for only those features. For example, for binocular calibration using corner points of a chessboard, the step 640 involve identifying the corner points that are visible in both the left and right camera images, and determining the world coordinates of these common corner points. Since both the left and right images depict all of the reference marks of the calibration target as discussed previously, both the left and right images should have at least the features near the reference marks. In alternative embodiments, this process can be reversed by determining world coordinates for all of the features visible in the images generated by multiple imaging devices before determining which features the different image sets have in common.

In Schritt 650 werden Kalibrierungsparameter für die eine oder mehreren Abbildungsvorrichtungen basierend auf der Übereinstimmung ermittelt, die in Schritt 640 formuliert wurde. Wie zuvor hierin beschrieben, können die Kalibrierungsparameter Parameter aufweisen, die sich auf intrinsische Kameramatrix (z.B. die Brennweite, Position des Bildmittelpunkts, Pixelgröße), Rotationsmatrizen und Translationsvektoren zwischen dem Kamera- und Weltkoordinatensystem und/oder optische Verzerrung (z.B. radiale Verzerrung, exzentrische Verzerrung, dünne prismatische Verzerrung) für jede der einen oder mehreren Abbildungsvorrichtungen beziehen. Sobald die Bild-Weltkoordinaten-Übereinstimmungen für diese Merkmale ermittelt sind, wie zuvor in Bezug auf Schritt 640 beschrieben wurde, können diese Übereinstimmungsinformationen verwendet werden, um die verschiedenen Kalibrierungsparameter zu lösen.In step 650 calibration parameters for the one or more imaging devices are determined based on the correspondence that is determined in step 640 was formulated. As previously described herein, the calibration parameters can have parameters that relate to intrinsic camera matrix (e.g. the focal length, position of the image center, pixel size), rotation matrices and translation vectors between the camera and world coordinate systems and / or optical distortion (e.g. radial distortion, eccentric distortion, thin prismatic distortion) for each of the one or more imaging devices. Once the image world coordinate matches are determined for these features, as before with regard to step 640 this correspondence information can be used to solve the various calibration parameters.

Verschiedene Verfahren können verwendet werden, um Kalibrierungsparameter zu lösen. In manchen Ausführungsformen wird zuerst eine Anfangsschätzung der Kalibrierungsparameter erhalten. Zum Beispiel kann ein Zuordnungsmodell (z.B. das Zuordnungsmodell 200 oder 250) verwendet werden, um die folgende Zuordnungsgleichung zwischen dem Weltkoordinatensystem und dem Bildkoordinatensystem zur monokularen Kamerakalibrierung ungeachtet von Verzerrungseffekten zu erhalten: λ [ u v 1 ] = M [ R T ] [ X w Y w Z w 1 ]

Figure DE202014011514U1_0007
wo R=[r1 r2 r3] (eine 3x3 Matrix) ist, T ein 3x1 Vektor ist und λ=Zc (die Z-Achsenkomponente eines Punkts, nachdem er von dem Weltkoordinatensystem auf das Kamerakoordinatensystem transformiert ist) ist.Various methods can be used to solve calibration parameters. In some embodiments, an initial estimate of the calibration parameters is first obtained. For example, an assignment model (e.g. the assignment model 200 or 250 ) can be used to obtain the following equation between the world coordinate system and the image coordinate system for monocular camera calibration regardless of distortion effects: λ [ u v 1 ] = M. [ R. T ] [ X w Y w Z w 1 ]
Figure DE202014011514U1_0007
where R = [r 1 r 2 r 3 ] (a 3x3 matrix), T is a 3x1 vector, and λ = Z c (the Z-axis component of a point after it is transformed from the world coordinate system to the camera coordinate system).

In Ausführungsformen, wo das Kalibrierungsziel planar ist, z.B. ein planares Schachbrett, kann die Zielebene angenommen werden, auf der Xw, Yw Ebene des Weltkoordinatensystems zu liegen, sodass die Zw Koordinate jedes Merkmals auf dem Ziel 0 ist. Dementsprechend kann die vorige Gleichung umgeschrieben werden zu: λ [ u v 1 ] = M [ r 1 r 2 r 3 T ] [ X w Y w 0 1 ] = M [ r 1 r 2 T ] [ X w Y w 1 ]

Figure DE202014011514U1_0008
In embodiments where the calibration target is planar, such as a planar checkerboard, the target plane can be assumed to be on the X w , Y w plane of the world coordinate system such that the Z w coordinate of each feature on the target is zero. Accordingly, the previous equation can be rewritten as: λ [ u v 1 ] = M. [ r 1 r 2 r 3 T ] [ X w Y w 0 1 ] = M. [ r 1 r 2 T ] [ X w Y w 1 ]
Figure DE202014011514U1_0008

Die Homografiematrix H kann dann als H=[h1 h2 h3]=sM[r1 r2 T] definiert werden, wo s=1/λ ist. λ kann in der Homografiematrixgleichung einem Durchschnittswert anstatt einem einzelnen Punkt entsprechen.The homography matrix H can then be defined as H = [h1 h2 h3] = sM [r1 r2 T], where s = 1 / λ. λ may correspond to an average rather than a single point in the homography matrix equation.

Da die Weltkoordinaten der Merkmale bekannt sind, z.B. wie sie in Schritt 640 ermittelt wurden, kann die Homografiematrix H gelöst werden. Basierend auf der Definition der Homografiematrix kann die folgende Gleichung erhalten werden: { r 1 = λ M 1 h 1 r 2 = λ M 1 h 2 T = λ M 1 h 3

Figure DE202014011514U1_0009
Since the world coordinates of the features are known, e.g. as they are in step 640 have been determined, the homography matrix H can be solved. Based on the definition of the homography matrix, the following equation can be obtained: { r 1 = λ M. - 1 H 1 r 2 = λ M. - 1 H 2 T = λ M. - 1 H 3
Figure DE202014011514U1_0009

Da r1 und r2 Vektoren in der Rotationsmatrix sind, kann die folgende Gleichung erhalten werden: r 1 T r 2 = 0 h 1 T M T M 1 h 2 = 0 r 1 T r 2 = r 2 T r 2 = 1 h 1 T M T M 1 h 1 = h 1 T M T M 1 h 2

Figure DE202014011514U1_0010
Since r 1 and r 2 are vectors in the rotation matrix, the following equation can be obtained: r 1 T r 2 = 0 H 1 T M. - T M. - 1 H 2 = 0 r 1 T r 2 = r 2 T r 2 = 1 H 1 T M. - T M. - 1 H 1 = H 1 T M. - T M. - 1 H 2
Figure DE202014011514U1_0010

Indem B = M T M 1 = [ B 11 B 12 B 13 B 21 B 22 B 23 B 31 B 32 B 33 ]

Figure DE202014011514U1_0011
definiert wird, kann das Folgende erhalten werden: h j T = B h j = v j i T b = [ h i 1 h j 1 h i 1 h j 2 + h i 2 h j 1 h i 1 h j 3 + h i 3 h j 1 h i 2 h j 2 h i 3 h j 2 + h i 2 h j 3 h i 3 h j 3 ] T [ B 11 B 12 B 13 B 22 B 23 B 33 ]
Figure DE202014011514U1_0012
By doing B. = M. - T M. - 1 = [ B. 11th B. 12th B. 13th B. 21 B. 22nd B. 23 B. 31 B. 32 B. 33 ]
Figure DE202014011514U1_0011
is defined, the following can be obtained: H j T = B. H j = v j i T b = [ H i 1 H j 1 H i 1 H j 2 + H i 2 H j 1 H i 1 H j 3 + H i 3 H j 1 H i 2 H j 2 H i 3 H j 2 + H i 2 H j 3 H i 3 H j 3 ] T [ B. 11th B. 12th B. 13th B. 22nd B. 23 B. 33 ]
Figure DE202014011514U1_0012

Gemäß Gleichung (8) kann das Folgende erhalten werden: V b = [ V 12 T V 11 T V 22 T ] b = 0

Figure DE202014011514U1_0013
According to equation (8), the following can be obtained: V b = [ V 12th T V 11th T - V 22nd T ] b = 0
Figure DE202014011514U1_0013

In Gleichung (10) ist V eine 2x6 Matrix und wird aus der Homografiematrix H transformiert. Um b zu lösen, werden mindestens drei unterschiedliche H verwendet, um die Matrix B einzugrenzen. Dementsprechend kann die Parameterschätzung mit Daten von mindestens drei unterschiedlichen Bildern des Kalibrierungsziels bei unterschiedlichen Positionen und/oder Ausrichtungen durchgeführt werden.In equation (10), V is a 2x6 matrix and is transformed from the homography matrix H. To solve b, at least three different H are used to narrow the matrix B. Accordingly, the parameter estimation can be carried out with data from at least three different images of the calibration target at different positions and / or orientations.

Falls die Matrix B gelöst werden kann, kann die Matrix M auch gelöst werden. Nachfolgend können R und T gemäß Gleichung (7) gelöst werden. Die geschlossene Lösung kann, basierend auf unterschiedlichen Formen der Matrix M, wie folgt sein:If matrix B can be solved, matrix M can also be solved. Subsequently, R and T can be solved according to equation (7). The closed solution, based on different forms of the matrix M, can be as follows:

Falls der „Tangentialeffekt“ nicht berücksichtigt wird M = [ f x 0 u 0 0 f y v 0 0 0 1 ]  ist , dann                      { ƒ x = k / B 11 ƒ y = k B 11 / B 11 B 12 B 12 2 u 0 = B 13 f x 2 / k v 0 = ( B 12 B 13 B 11 B 23 ) / ( B 11 B 22 B 12 2 ) k = B 33 B 13 2 + v 0 ( B 12 B 13 B 11 B 23 ) / B 11

Figure DE202014011514U1_0014
If the "tangential effect" is not taken into account M. = [ f x 0 u 0 0 f y v 0 0 0 1 ] is , then { ƒ x = k / B. 11th ƒ y = k B. 11th / B. 11th B. 12th - B. 12th 2 u 0 = - B. 13th f x 2 / k v 0 = ( B. 12th B. 13th - B. 11th B. 23 ) / ( B. 11th B. 22nd - B. 12th 2 ) k = B. 33 - B. 13th 2 + v 0 ( B. 12th B. 13th - B. 11th B. 23 ) / B. 11th
Figure DE202014011514U1_0014

Falls der „Tangentialeffekt“ nicht berücksichtigt wird   M = [ f x γ u 0 0 f y v 0 0 0 1 ]   dann                       { ƒ x = k / B 11 ƒ y = k B 11 / B 11 B 12 B 12 2 γ = B 12 f x 2 f y / k u 0 = γ v 0 / f y B 13 f x 2 / k v 0 = ( B 12 B 13 B 11 B 23 ) / ( B 11 B 22 B 12 2 ) k = B 33 [ B 13 2 + v 0 ( B 12 B 13 B 11 B 23 ) ] / B 11

Figure DE202014011514U1_0015
If the "tangential effect" is not taken into account M. = [ f x γ u 0 0 f y v 0 0 0 1 ] then { ƒ x = k / B. 11th ƒ y = k B. 11th / B. 11th B. 12th - B. 12th 2 γ = - B. 12th f x 2 f y / k u 0 = γ v 0 / f y - B. 13th f x 2 / k v 0 = ( B. 12th B. 13th - B. 11th B. 23 ) / ( B. 11th B. 22nd - B. 12th 2 ) k = B. 33 - [ B. 13th 2 + v 0 ( B. 12th B. 13th - B. 11th B. 23 ) ] / B. 11th
Figure DE202014011514U1_0015

Nachdem die Anfangslösung erhalten ist, können die Kalibrierungsparameter, z.B. durch den Levenberg-Marquardt-Algorithmus, optimiert werden. In manchen Ausführungsformen minimiert die optimale Lösung die folgende Objektfunktion: i j m i j m ^ ( M , K , P , R , T ) 2

Figure DE202014011514U1_0016
After the initial solution has been obtained, the calibration parameters can be optimized, for example using the Levenberg-Marquardt algorithm. In some embodiments, the optimal solution minimizes the following object function: i j m i j - m ^ ( M. , K , P. , R. , T ) 2
Figure DE202014011514U1_0016

In Ausführungsformen, wo mehrere Abbildungsvorrichtungen kalibriert werden (z.B. zwei oder mehr Kameras), kann der Schritt 650 auch umfassen, für die Rotationsmatrix R und den Translationsvektor T zwischen jedem der Kamerakoordinatensysteme zu lösen. Diese extrinsischen Parameter können basierend auf den hierin beschriebenen monokularen Kalibrierungsverfahren erhalten werden. Zum Beispiel können in binokularer Kalibrierung (Kalibrierung von zwei Abbildungsvorrichtungen) für einen räumlichen Punkt, der von einer linken und rechten Kamera beobachtet wird, die Koordinate P1 in dem linken Kamerakoordinatensystem und die Koordinate Pr in dem rechten Kamerakoordinatensystem die folgende Beziehung erfüllen: P 1 = RP r + T

Figure DE202014011514U1_0017
wo R die Rotationsmatrix von dem rechten Kamerakoordinatensystem zu dem linken Kamerakoordinatensystem ist und T der Translationsvektor von dem linken Kamerakoordinatensystemursprung O1 zu dem rechten Kamerakoordinatensystemursprung Or ist.In embodiments where multiple imaging devices are being calibrated (eg, two or more cameras), the step 650 also include solving for the rotation matrix R and the translation vector T between each of the camera coordinate systems. These extrinsic parameters can be obtained based on the monocular calibration methods described herein. For example, in binocular calibration (calibration of two imaging devices) for a spatial point observed by a left and right camera, the coordinate P 1 in the left camera coordinate system and the coordinate P r in the right camera coordinate system can satisfy the following relationship: P. 1 = RP r + T
Figure DE202014011514U1_0017
where R is the rotation matrix from the right camera coordinate system to the left camera coordinate system and T is the translation vector from the left camera coordinate system origin O 1 to the right camera coordinate system origin O r.

14 veranschaulicht ein Modell 800 räumlicher Beziehungen zwischen Koordinatensystemen in binokularer Kamerakalibrierung, in Übereinstimmung mit Ausführungsformen. Das Weltkoordinatensystem (Xw, Yw, Zw mit Ursprung Ow) bezieht sich auf das linke Kamerakoordinatensystem (X1, Y1, Z1 mit Ursprung O1) durch Rotationsmatrix R1 und Translationsvektor T1 und auf das rechte Kamerakoordinatensystem (Xr, Yr, Zr mit Ursprung Or) durch Rotationsmatrix Rr und Translationsvektor Tr. Diese Rotationsmatrizen und Translationsvektoren können unter Verwendung der zuvor hierin beschriebenen Verfahren erhalten werden. Die Rotationsmatrix R und Translationsvektor T zum Umwandeln zwischen dem linken und rechten Kamerakoordinatensystem können dann durch die folgende Beziehung ermittelt werden: { R = R l ( R r ) T T = T l R T r

Figure DE202014011514U1_0018
14th illustrates a model 800 spatial relationships between coordinate systems in binocular camera calibration, in accordance with embodiments. The world coordinate system (X w , Y w , Z w with origin O w ) relates to the left camera coordinate system (X 1 , Y 1 , Z 1 with origin O 1 ) through rotation matrix R 1 and translation vector T 1 and to the right camera coordinate system ( X r , Y r , Z r with origin O r ) by rotation matrix R r and translation vector T r. These rotation matrices and translation vectors can be obtained using the methods previously described herein. the Rotation matrix R and translation vector T for converting between the left and right camera coordinate systems can then be determined by the following relationship: { R. = R. l ( R. r ) T T = T l - R. T r
Figure DE202014011514U1_0018

Sobald die Kalibrierungsparameter in Übereinstimmung mit den hierin beschriebenen Verfahren ermittelt wurden, können die Parameter verwendet werden, um Bilddaten zu verarbeiten, die von den Abbildungsvorrichtungen erhalten werden, sodass die Bilddaten für verschiedene nachgeordnete Anwendungen geeignet gemacht werden, z.B. Wiederherstellung von räumlichen 3D-Informationen zur Erstellung von Karten, Objekterkennung, Navigation usw. Zum Beispiel können die Bilddaten basierend auf den ermittelten Kalibrierungsparametern verarbeitet werden, um die Effekte optischer Verzerrung, die mit der einen oder den mehreren Abbildungsvorrichtungen verknüpft sind, zu korrigieren, was hierin auch als „Entzerrung“ bezeichnet wird. Als ein anderes Beispiel können in Ausführungsformen, wo zwei oder mehr Abbildungsvorrichtungen verwendet werden, um jeweilige Sätze der Bilddaten aufzunehmen, die Kalibrierungsparameter verwendet werden, um Rektifizierung durchzuführen, z.B. um den Bilddatensätzen zu ermöglichen, für Stereovision verwendet zu werden.Once the calibration parameters have been determined in accordance with the methods described herein, the parameters can be used to process image data obtained from the imaging devices so that the image data can be made suitable for various downstream applications, e.g. Map creation, object recognition, navigation, etc. For example, based on the determined calibration parameters, the image data can be processed to correct for the effects of optical distortion associated with the one or more imaging devices, also referred to herein as "rectification" will. As another example, in embodiments where two or more imaging devices are used to capture respective sets of the image data, the calibration parameters can be used to perform rectification, e.g., to enable the image data sets to be used for stereo vision.

15 veranschaulicht ein Modell 900 einer Zuordnung zwischen verzerrten Bildkoordinaten und entzerrten Bildkoordinaten, in Übereinstimmung mit Ausführungsformen. Verzerrung kann in Bildern, die von einer Abbildungsvorrichtung aufgenommen werden, aufgrund der optischen Eigenschaften der Linse auftreten. Bildentzerrung kann verwendet werden, um die Verzerrungseffekte in einem Bild das von der Abbildungsvorrichtung aufgenommen wird (z.B. ein Bild das verzerrte Bild- oder Pixelkoordinaten (u1, v1) entsprechend den verzerrten Bildebenenkoordinaten (Xd, Yd) aufweist), zu entfernen, um ein entzerrtes Bild gemäß dem idealen Lochkameramodell (z.B. ein Bild, das entzerrte Bild- oder Pixelkoordinaten (u2, v2) entsprechend entzerrten Bildebenenkoordinaten (Xp, Yp) aufweist) zu erhalten. Dementsprechend kann Bildentzerrung verwendet werden, um ein verzerrtes Bild in ein entzerrtes Bild zu transformieren. Die Bildentzerrungsprozedur kann basierend auf zuvor ermittelten intrinsischen Parametern für die Abbildungsvorrichtungen (z.B. Verzerrungsparameter, intrinsische Kameramatrix M) durchgeführt werden. Solche Parameter können unter Verwendung der hierin dargestellten Ansätze ermittelt werden. 15th illustrates a model 900 an association between distorted image coordinates and rectified image coordinates, in accordance with embodiments. Distortion can occur in images captured by an imaging device due to the optical properties of the lens. Image rectification can be used to remove the distortion effects in an image captured by the imaging device (e.g. an image that has distorted image or pixel coordinates (u 1 , v 1 ) corresponding to the distorted image plane coordinates (X d , Y d )) in order to obtain a rectified image according to the ideal pinhole camera model (eg an image which has rectified picture or pixel coordinates (u 2 , v 2 ) corresponding to rectified picture plane coordinates (X p , Y p )). Accordingly, image rectification can be used to transform a distorted image into a rectified image. The image rectification procedure can be carried out based on previously determined intrinsic parameters for the imaging devices (for example distortion parameters, intrinsic camera matrix M). Such parameters can be determined using the approaches presented herein.

Verschiedene Verfahren können verwendet werden, um Bildentzerrung durchzuführen. Zum Beispiel können die entzerrten Bildebenenkoordinaten (Xp, Yp) aus den entzerrten Pixelkoordinaten (u2, v2) gemäß der folgenden Gleichung ermittelt werden: [ X p Y p 1 ] = M 1 [ u 2 v 2 1 ]

Figure DE202014011514U1_0019
Various methods can be used to perform image rectification. For example, the rectified image plane coordinates (X p , Y p ) can be determined from the rectified pixel coordinates (u 2 , v 2 ) according to the following equation: [ X p Y p 1 ] = M. - 1 [ u 2 v 2 1 ]
Figure DE202014011514U1_0019

Die verzerrten Bildebenenkoordinaten (Xd, Yd) können aus den entzerrten Bildebenenkoordinaten (Xp, Yp) basierend auf einem mathematischen Verzerrungsmodell (z.B. das durch die Verzerrungsgleichung (3), die zuvor hierin dargestellt wurde, beschriebene Modell) und zuvor ermittelten Werten für die Verzerrungsparameter ermittelt werden. Die Pixelkoordinaten des verzerrten Bilds (u1, v1) können dann durch die folgende Gleichung erhalten werden: [ u 1 v 1 1 ] = M [ X d Y d 1 ]

Figure DE202014011514U1_0020
The distorted image plane coordinates (X d , Y d ) can be derived from the rectified image plane coordinates (X p , Y p ) based on a mathematical distortion model (e.g. that defined by the distortion equation ( 3 ), which was previously presented herein, described model) and previously determined values for the distortion parameters can be determined. The pixel coordinates of the distorted image (u 1 , v 1 ) can then be obtained by the following equation: [ u 1 v 1 1 ] = M. [ X d Y d 1 ]
Figure DE202014011514U1_0020

Der Grauskalenwert der entzerrten Pixelkoordinaten (u2, v2) kann erhalten werden, indem die verzerrten Pixelkoordinaten (u1, v1) interpoliert werden. Die Interpolation kann unter Verwendung eines beliebigen geeigneten Verfahrens durchgeführt werden, wie Interpolation des nächsten Nachbarn oder bilineare Interpolation. Dementsprechend kann das entzerrte Bild erhalten werden.The gray scale value of the rectified pixel coordinates (u 2 , v 2 ) can be obtained by interpolating the distorted pixel coordinates (u 1 , v 1 ). The interpolation can be performed using any suitable technique, such as nearest neighbor interpolation or bilinear interpolation. Accordingly, the rectified image can be obtained.

Ähnlich dem hierin beschriebenen Bildentzerrungsprozess kann Bildrektifizierung, auch als Stereorektifizierung bekannt, einen Bild-zu-Bild-Transformationsprozess involvieren. Jedoch involviert Bildrektifizierung auch eine räumliche Transformation auf der Kamerakoordinatensystemebene. Bildrektifizierung kann verwendet werden, um Bilddaten zu verarbeiten, die von mehreren Abbildungsvorrichtungen aufgenommen werden, um die Implementierung von Stereovisionsalgorithmen zu erleichtern, z.B. für die Erstellung von Tiefenkarten, Disparitätskarten und anderen 3D-Darstellungen einer Szene. Zum Beispiel, in manchen Ausführungsformen, können Stereovisionsalgorithmen Punktübereinstimmungen zwischen Bildern, die von unterschiedlichen Kameras (z.B. einer linken Kamera und einer rechten Kamera) aufgenommen werden, involvieren. Bildrektifizierung kann verwendet werden, um die Bilddaten, die von jeder Kamera erhalten werden, in eine gemeinsame Ebene zu projizieren, wodurch die Prozedur zum Suchen von zusammengehörigen Bildpunkten in den Bildern vereinfacht wird.Similar to the image rectification process described herein, image rectification, also known as stereo rectification, may involve an image-to-image transformation process. However, image rectification does involve also a spatial transformation on the camera coordinate system level. Image rectification can be used to process image data captured by multiple imaging devices to facilitate the implementation of stereo vision algorithms, such as creating depth maps, disparity maps, and other 3D representations of a scene. For example, in some embodiments, stereo vision algorithms may involve point matches between images captured by different cameras (e.g., a left camera and a right camera). Image rectification can be used to project the image data obtained from each camera onto a common plane, thereby simplifying the procedure for searching for related pixels in the images.

16 und 17 veranschaulichen eine Bildrektifizierungsprozedur für ein binokulares Kamerasystem, in Übereinstimmung mit Ausführungsformen. 16 veranschaulicht ein Modell 1000 einer Zuordnung zwischen linkem Kamerakoordinatensystem (Kamera 1) und rechtem Kamerakoordinatensystem (Kamera 2) für Stereovision. Der Bildrektifizierungsprozess kann involvieren, die Rotationsmatrizen R1, Rr und Rrect zu ermitteln, die verwendet werden, um die linken und rechten Bilddaten zu rektifizieren. In manchen Ausführungsformen sind diese Matrizen dazu ausgebildet, die überlappenden Abschnitte der linken und rechten Bilder nach Rektifizierung zu maximieren und die Menge an Bilddeformation zu minimieren. Darüber hinaus, falls dieselbe Matrix M in beiden Rektifizierungsbildern verwendet wird, können die rektifizierten Bilder dieselbe Skala aufweisen, wodurch Berechnung des Tiefenfelds erleichtert wird. 16 and 17th illustrate an image rectification procedure for a binocular camera system, in accordance with embodiments. 16 illustrates a model 1000 an assignment between the left camera coordinate system (camera 1) and the right camera coordinate system (camera 2) for stereo vision. The image rectification process may involve determining the rotation matrices R 1 , R r, and R rect that are used to rectify the left and right image data. In some embodiments, these matrices are designed to maximize the overlapping portions of the left and right images after rectification and to minimize the amount of image deformation. Furthermore, if the same matrix M is used in both rectification images, the rectified images can have the same scale, thereby making it easier to calculate the depth field.

17 veranschaulicht ein Modell 1050 einer Zuordnung zwischen unrektifizierten und rektifizierten Kamerakoordinatensystemen. In manchen Ausführungsformen können die Rotationsmatrizen R1 und Rr die Gleichung erfüllen R l R R r = R

Figure DE202014011514U1_0021
wo R die Rotationsmatrix von dem rechten Kamerakoordinatensystem (Xr, Yr, Zr) zu dem linken Kamerakoordinatensystem (X1, Y1, Z1) ist. R1 und Rr sind die Rotationsmatrizen von dem linken Kamerakoordinatensystem zu einem ersten vorübergehenden Koordinatensystem (X1_temp, Y1_temp, Z1_temp) beziehungsweise dem rechten Kamerakoordinatensystem zu einem zweiten vorübergehenden Koordinatensystem (Xr_temp, Yr_temp, Zr_temp) . In manchen Ausführungsformen kann R l T
Figure DE202014011514U1_0022
gleich Rr gesetzt sein, sodass der Rotationswinkel der Rotationsmatrix R gleichmäßig geteilt wird. Das linke und rechte Kamerakoordinatensystem können gemäß R1 beziehungsweise Rr transformiert werden, sodass die räumliche Lage der zwei Kamerakoordinatensysteme nach Transformation identisch ist. Jedoch kann es einen Translationsvektor Ttemp=R1T in dem Koordinatensystem geben, der erhalten wird, indem das linke Kamerakoordinatensystem gemäß R1 transformiert wird. 17th illustrates a model 1050 an assignment between unrectified and rectified camera coordinate systems. In some embodiments, the rotation matrices R 1 and R r can satisfy the equation R. l R. R. r = R.
Figure DE202014011514U1_0021
where R is the rotation matrix from the right camera coordinate system (X r , Y r , Z r ) to the left camera coordinate system (X 1 , Y 1 , Z 1 ). R 1 and R r are the rotation matrices from the left camera coordinate system to a first temporary coordinate system (X 1_temp , Y 1_temp , Z 1_temp ) and the right camera coordinate system to a second temporary coordinate system (X r_temp, Y r_temp , Z r_temp ). In some embodiments, may R. l T
Figure DE202014011514U1_0022
be set equal to R r , so that the rotation angle of the rotation matrix R is divided equally. The left and right camera coordinate systems can be transformed according to R 1 and R r, respectively, so that the spatial position of the two camera coordinate systems is identical after transformation. However, there may be a translation vector T temp = R 1 T in the coordinate system obtained by transforming the left camera coordinate system according to R 1 .

Die zwei Koordinatensysteme können dann gleichzeitig durch die Rotationsmatrix Rrect transformiert werden, sodass die XOY-Ebenen der zwei Koordinatensysteme komplanar sind und beide X-Achsen zu der Grundlinie parallel sind. Die Matrix Rrect kann subjektiv ermittelt werden. Zum Beispiel kann Rrect ausgedrückt werden als R r e c t = [ e 1 T e 2 T e 3 T ]

Figure DE202014011514U1_0023
wo e 1 = T t e m p T t e m p ,     e 2 = [ T t e m p _ y      T t e m p _ x 0 ] T T t e m p _ x 2 + T t e m p _y 2 ,     e 3 = e 1 × e 2 ,     T t e m p = R l T
Figure DE202014011514U1_0024
(eine 3x1 Matrix) ist, Ttemp_x als die erste Spalte der ersten Reihe von Ttemp definiert ist und Ttemp_y als die erste Spalte der zweiten Reihe von Ttemp definiert ist.The two coordinate systems can then be transformed simultaneously by the rotation matrix R rect , so that the XOY planes of the two coordinate systems are coplanar and both X axes are parallel to the base line. The matrix R rect can be determined subjectively. For example, R rect can be expressed as R. r e c t = [ e 1 T e 2 T e 3 T ]
Figure DE202014011514U1_0023
Where e 1 = T t e m p T t e m p , e 2 = [ - T t e m p _ y T t e m p _ x 0 ] T T t e m p _ x 2 + T t e m p _y 2 , e 3 = e 1 × e 2 , T t e m p = R. l T
Figure DE202014011514U1_0024
(a 3x1 matrix), T temp_x is defined as the first column of the first row of T temp , and T temp_y is defined as the first column of the second row of T temp .

In manchen Ausführungsformen gibt es nach der Rotation der Kamerakoordinatensysteme nur einen Translationsvektor Trect=TrectR1T, der parallel zu der X-Achse und zwischen den zwei Koordinatensystemen ist. Optional kann die Matrix M durch die Matrix M1 ersetzt werden (siehe 10).In some embodiments, after the rotation of the camera coordinate systems, there is only one translation vector T rect = T rect R 1 T, which is parallel to the X axis and between the two coordinate systems. Optionally, the matrix M can be replaced by the matrix M 1 (see 10 ).

Nachdem die Rotationsmatrizen R1, Rr und Rrect und die Zuordnungsmatrix M ermittelt sind, kann die Bildrektifizierungsprozedur ähnlich der zuvor beschriebenen einzelnen Bildentzerrungsprozedur durchgeführt werden. Die Bildrektifizierung kann separat an jedem Satz von Bildern durchgeführt werden, der von jeder individuellen Abbildungsvorrichtung erhalten wird. Zum Beispiel, wieder in Bezug auf 16 kann für einen Punkt (u3, v3) eine umgekehrte Zuordnung durchgeführt werden, um die Koordinate ((Xp1, Yp1 ,Zp1) unter dem ursprünglichen linken Kamerakoordinatensystem zu erhalten: [ X p l Y p l Z p l ] = ( R r e c t R l M ) 1 [ u 3 v 3 1 ]

Figure DE202014011514U1_0025
Dies kann skaliert werden, um die folgende Beziehung zu erhalten:                      X p l ' = X p l / Z p l Y p l ' = Y p l / Z p l
Figure DE202014011514U1_0026
After the rotation matrices R 1 , R r and R rect and the assignment matrix M have been determined, the image rectification procedure can be carried out in a manner similar to the individual image rectification procedure described above. Image rectification can be performed separately on each set of images obtained from each individual imaging device. For example, again in terms of 16 a reverse assignment can be carried out for a point (u 3 , v 3 ) in order to obtain the coordinate ((X p1 , Y p1 , Z p1 ) under the original left camera coordinate system: [ X p l Y p l Z p l ] = ( R. r e c t R. l M. ) - 1 [ u 3 v 3 1 ]
Figure DE202014011514U1_0025
This can be scaled to have the following relationship: X p l ' = X p l / Z p l Y p l ' = Y p l / Z p l
Figure DE202014011514U1_0026

Die verzerrten Koordinaten können gemäß den zuvor ermittelten Verzerrungsparametern und einem Verzerrungsmodell (z.B. Gleichung (3)) ermittelt werden. Die Pixelkoordinaten (u1, v1) unter dem ursprünglichen linken Koordinatensystem können dann erhalten werden: [ u 1 v 1 1 ] = M [ X d Y d 1 ]

Figure DE202014011514U1_0027
The distorted coordinates can be determined according to the previously determined distortion parameters and a distortion model (eg equation (3)). The pixel coordinates (u 1 , v 1 ) under the original left coordinate system can then be obtained: [ u 1 v 1 1 ] = M. [ X d Y d 1 ]
Figure DE202014011514U1_0027

Der Grauskalenwert der rektifizierten Bildkoordinaten (u3, v3) kann unter Verwendung eines beliebigen geeigneten Interpolationsalgorithmus ermittelt werden. Dieser Rektifizierungsprozess kann auch verwendet werden, um rektifizierte Bildkoordinaten für die rechte Kamera zu erhalten.The gray scale value of the rectified image coordinates (u 3 , v 3 ) can be determined using any suitable interpolation algorithm. This rectification process can also be used to obtain rectified image coordinates for the right camera.

18 veranschaulicht binokulare Kamerabilder der Verarbeitung folgend, um Bildrektifizierung durchzuführen, in Übereinstimmung mit Ausführungsformen. Die Bilder weisen ein erstes rektifiziertes Bild 1100 auf, das von einer linken Kamera erhalten wird, und ein zweites rektifiziertes Bild 1102, das von einer rechten Kamera erhalten wird. Insbesondere sind Objekte in dem ersten Bild 1100 horizontal mit entsprechenden Objekten in dem zweiten Bild 1102 ausgerichtet, wie von den überlagerten horizontalen Linien 1104 angegeben wird. 18th Figure 3 illustrates binocular camera images following processing to perform image rectification, in accordance with embodiments. The images show a first rectified image 1100 obtained from a left camera and a second rectified image 1102 obtained from a right camera. In particular, there are objects in the first image 1100 horizontally with corresponding objects in the second image 1102 aligned as from the superimposed horizontal lines 1104 is specified.

Sobald die Bilddaten, die von dem einen oder den mehreren Bildern erhalten werden, durch Entzerrung und/oder Rektifizierung wie hierin beschrieben verarbeitet wurden, können die Bilder für verschiedene Anwendungen, wie Computer Vision Anwendungen, verwendet werden. In manchen Ausführungsformen können die Bilder verwendet werden, um räumliche Informationen für die abgebildete Szene wiederherzustellen, wie die Abstände von Objekten in der Szene von den Abbildungsvorrichtungen. Diese räumlichen Informationen können zum Beispiel verwendet werden, um 3D-Darstellungen der Umgebung zu erzeugen, wie Tiefenkarten, Disparitätskarten, Belegungsgitter, Punktewolken und so weiter.Once the image data obtained from the one or more images has been processed by rectification and / or rectification as described herein, the images can be used for various applications, such as computer vision applications. In some embodiments, the images can be used to restore spatial information for the imaged scene, such as the distances of objects in the scene from the imaging devices. This spatial information can be used, for example, to generate 3D representations of the environment, such as depth maps, disparity maps, occupancy grids, point clouds and so on.

19 veranschaulicht ein Verfahren 1200 zum Erzeugen von Tiefenkarten aus Bilddaten, in Übereinstimmung mit Ausführungsformen. Mindestens manche der Schritte des Verfahrens 1200 können durch ein geeignetes Rechensystem oder eine Vorrichtung umgesetzt werden, wie durch einen oder mehrere Prozessoren. 19th illustrates a procedure 1200 for generating depth maps from image data, in accordance with embodiments. At least some of the steps in the process 1200 can be implemented by a suitable computing system or device, such as one or more processors.

In Schritt 1210 werden ein oder mehrere Bilder von jeder von einer oder mehreren Abbildungsvorrichtungen erhalten. Die Abbildungsvorrichtungen können konfiguriert sein, die Bilder zur selben Zeit oder im Wesentlichen zur selben Zeit aufzunehmen, um entsprechende Bilder einer Szene zu erzeugen. Die Abbildungsvorrichtungen können relativ zueinander liegen, um Bilder derselben Szene von unterschiedlichen Positionen und/oder Ausrichtungen zu erstellen. Zum Beispiel kann ein UAV, das mit einem binokularen Sichtsystem ausgestattet ist, eine linke Kamera und eine rechte Kamera aufweisen, die Bilder der Umgebung aufnehmen, die das UAV zur selben Zeit aber aus zwei unterschiedlichen Positionen und/oder Ausrichtungen umgeben. Dementsprechend werden Objekte in der Szene unterschiedliche Bildkoordinaten in Bildern aufweisen, die von unterschiedlichen Abbildungsvorrichtungen erhalten werden.In step 1210 one or more images are obtained from each of one or more imaging devices. The imaging devices can be configured to capture the images at the same time or substantially at the same time in order to generate corresponding images of a scene. The imaging devices may be relative to one another to create images of the same scene from different positions and / or orientations. For example, a UAV equipped with a binocular vision system may have a left camera and a right camera that capture images of the environment surrounding the UAV at the same time but from two different positions and / or orientations. Accordingly, objects in the scene will have different image coordinates in images obtained from different imaging devices.

In Schritt 1220 werden das eine oder die mehreren Bilder von jeder der einen oder mehreren Abbildungsvorrichtungen basierend auf Kalibrierungsparametern für die eine oder mehreren Abbildungsvorrichtungen verarbeitet, um eine 3D-Tiefenkarte zu erzeugen. Die Kalibrierungsparameter können intrinsische und/oder extrinsische Parameter für die Abbildungsvorrichtungen enthalten, wie hier zuvor beschrieben wurde, und können zuvor unter Verwendung eines der hierin beschriebenen Kalibrierungsverfahren, wie das Verfahren 600, ermittelt werden. Das Kalibrierungsverfahren kann ein Online-Kalibrierungsverfahren oder ein Offline-Kalibrierungsverfahren sein. In manchen Ausführungsformen werden die Kalibrierungsparameter unter Verwendung einer Vielzahl von Kalibrierungsbildern eines Kalibrierungsziels von jeder der einen oder mehreren Abbildungsvorrichtungen ermittelt. Das Kalibrierungsziel kann eine beliebige der hierin dargestellten Ausführungsformen sein, z.B. ein Schachbrettkalibrierungsziel. Zum Beispiel kann das Kalibrierungsziel eine Vielzahl von Merkmalen in einem sich wiederholenden Muster angeordnet und eine oder mehrere Referenzmarkierungen aufweisen. Die eine oder mehreren Referenzmarkierungen können gestaltet sein, jeweils eindeutig innerhalb jedes Kalibrierungsbilds identifizierbar zu sein, das von Abbildungsvorrichtungen erhalten wird, z.B. wie zuvor in Bezug auf die Ausführungsformen von 6, 7 und 8 besprochen wurde. In manchen Ausführungsformen nimmt mindestens eines der Kalibrierungsbilder weniger als alle der Merkmale des Kalibrierungsziels auf. Wie zuvor besprochen wurde, können die hierin beschriebenen Verfahren verwendet werden, um Kalibrierungsparameter von den Kalibrierungsbildern zu ermitteln, selbst wenn manche oder alle der Bilder nicht alle der Merkmale der Kalibrierungszielmerkmale aufnehmen, wie hierin beschrieben wird.In step 1220 For example, the one or more images from each of the one or more imaging devices are processed based on calibration parameters for the one or more imaging devices to generate a 3D depth map. The calibration parameters can include intrinsic and / or extrinsic parameters for the imaging devices, as previously described herein, and can be previously described using one of the calibration methods described herein, such as the method 600 , be determined. The calibration process can be an online calibration process or an offline calibration process. In some embodiments, the calibration parameters are determined using a plurality of calibration images of a calibration target from each of the one or more imaging devices. The calibration target can be any of the embodiments illustrated herein, such as a checkerboard calibration target. For example, the calibration target can have a plurality of features arranged in a repeating pattern and have one or more reference marks. The one or more reference markings can be designed to be uniquely identifiable in each case within each calibration image that is obtained from imaging devices, for example as before with regard to the embodiments of FIG 6th , 7th and 8th was discussed. In some embodiments, at least one of the calibration images captures less than all of the features of the calibration target. As previously discussed, the methods described herein can be used to determine calibration parameters from the calibration images even if some or all of the images do not capture all of the features of the calibration target features, as described herein.

Verschiedene Verfahren können verwendet werden, um die Bilder zu verarbeiten, um Erzeugung einer 3D-Tiefenkarte aus den Bildern zu ermöglichen. Zum Beispiel können die Bilder durch die hierin besprochenen Entzerrungs- und/oder Rektifizierungstechniken verarbeitet werden. Die rektifizierten Bilder können dann als Eingabe in verschiedene Stereovisionsalgorithmen verwendet werden, um Tiefeninformationen für die Objekte in den Bildern wiederherzustellen, wofür eine Tiefenkarte der abgebildeten Szene erzeugt wird. Zum Beispiel können entsprechende Bilder (z.B. Bilder, die zur selben Zeit oder im Wesentlichen zur selben Zeit aufgenommen werden), die von unterschiedlichen Abbildungsvorrichtungen erhalten werden, miteinander verglichen werden, um die Disparitäten zwischen den Bildern zu ermitteln. Basierend auf den Disparitätsinformationen und Informationen bezüglich der räumlichen Beziehungen zwischen den Abbildungsvorrichtungen kann der Abstand zwischen dem Objekt und den Abbildungsvorrichtungen ermittelt werden. Zum Beispiel kann die Disparität zwischen den Bildkoordinaten desselben Objekts in Bildern unterschiedlicher Abbildungsvorrichtungen berechnet werden. Der Abstand von den Abbildungsvorrichtungen zu dem Objekt kann im Sinne der Disparität, der Brennweiten der Abbildungsvorrichtungen und der räumlichen Beziehung zwischen den Abbildungsvorrichtungen (z.B. Abstand zwischen den Abbildungsvorrichtungen) ausgedrückt werden. Dementsprechend kann der Abstand berechnet werden, sobald die Brennweiten- und räumlichen Beziehungsinformationen ermittelt wurden (z.B. mittels der hierin beschriebenen Kalibrierungsverfahren).Various methods can be used to process the images to enable generation of a 3D depth map from the images. For example, the images can be processed by the rectification and / or rectification techniques discussed herein. The rectified images can then be used as input into various stereo vision algorithms to restore depth information for the objects in the images, for which purpose a depth map of the imaged scene is generated. For example, corresponding images (e.g., images captured at the same time or substantially the same time) obtained from different imaging devices can be compared with one another to determine the disparities between the images. Based on the disparity information and information regarding the spatial relationships between the imaging devices, the distance between the object and the imaging devices can be determined. For example, the disparity between the image coordinates of the same object in images of different imaging devices can be calculated. The distance from the imaging devices to the object can be expressed in terms of disparity, the focal lengths of the imaging devices, and the spatial relationship between the imaging devices (e.g., distance between the imaging devices). Accordingly, once the focal length and spatial relationship information has been determined (e.g., using the calibration procedures described herein), the distance can be calculated.

Dieser Prozess kann wiederholt werden, um eine 3D-Tiefenkarte für alle Punkte innerhalb der abgebildeten Szene zu erzeugen. Solche Tiefenkarten können in einer breiten Vielfalt von Anwendungen verwendet werden. Zum Beispiel kann in Ausführungsformen, wo die Abbildungsvorrichtungen von einem UAV getragen werden, die Tiefenkarte, die basierend auf den Bilddaten von den Abbildungsvorrichtungen erzeugt wird, verwendet werden, um Informationen bereitzustellen, die Abstände verschiedener Objekte von dem UAV angeben. Diese Informationen können verwendet werden, um verschiedene UAV-Funktionalitäten, wie Hindernisvermeidung, Navigation, Zielverfolgung und dergleichen, zu erleichtern.This process can be repeated to generate a 3D depth map for all points within the imaged scene. Such depth maps can be used in a wide variety of applications. For example, in embodiments where the imaging devices are carried by a UAV, the depth map generated based on the image data from the imaging devices can be used to provide information indicative of the distances of various objects from the UAV. This information can be used to facilitate various UAV functionalities such as obstacle avoidance, navigation, target tracking and the like.

Die hierin beschriebenen Systeme, Vorrichtungen und Verfahren können auf eine breite Vielfalt von beweglichen Objekten angewendet werden. Wie zuvor erwähnt, kann eine beliebige Beschreibung eines Luftfahrzeugs hierin auf ein beliebiges bewegliches Objekt angewendet werden und dafür verwendet werden. Ein bewegliches Objekt der vorliegenden Erfindung kann dazu ausgebildet sein, sich innerhalb einer beliebigen geeigneten Umgebung zu bewegen, wie in Luft (z.B. ein Starrflügelflugzeug, ein Drehflügelflugzeug oder ein Flugzeug, das weder starre Flügel noch Drehflügel aufweist), in Wasser (z.B. ein Schiff oder ein U-Boot), am Boden (z.B. ein Motorfahrzeug, wie ein Auto, Lastwagen, Bus, Kleinbus, Motorrad; eine bewegliche Struktur oder ein Rahmen, wie eine Stange, Angel; oder ein Zug), unter dem Grund (z.B. eine Untergrundbahn), im Weltall (z.B. eine Raumfähre, ein Satellit oder eine Sonde) oder eine beliebige Kombination dieser Umgebungen. Das bewegliche Objekt kann ein Fahrzeug sein, wie ein anderswo hierin beschriebenes Fahrzeug. In manchen Ausführungsformen kann das bewegliche Objekt an einem lebenden Subjekt angebracht werden, wie einem Menschen oder einem Tier. Geeignete Tiere können Vögel, Hunde, Katzen, Pferde, Rinder, Schafe, Schweine, Delfine, Nagetiere oder Insekten umfassen.The systems, devices, and methods described herein can be applied to a wide variety of moving objects. As previously mentioned, any description of an aircraft herein can be applied to and used for any moving object. A moving object of the present invention can be configured to move within any suitable environment, such as in air (e.g., a fixed wing aircraft, a rotary wing aircraft, or an aircraft that has neither rigid wings nor rotating wings), in water (e.g. a ship or a a submarine), on the ground (e.g. a motor vehicle, such as a car, truck, bus, minibus, motorcycle; a movable structure or frame, such as a pole, fishing rod; or a train), underground (e.g. a subway ), in space (e.g. a space shuttle, satellite, or probe), or any combination of these environments. The moving object can be a vehicle, such as a vehicle described elsewhere herein. In some embodiments, the movable object can be attached to a living subject, such as a human or an animal. Suitable animals can include birds, dogs, cats, horses, cattle, sheep, pigs, dolphins, rodents, or insects.

Das bewegliche Objekt kann im Stande sein, sich frei innerhalb der Umgebung in Bezug auf sechzig Grad Freiheit zu bewegen (z.B. dreißig Grad Freiheit in Translation und dreißig Grad Freiheit in Rotation). Alternativ kann die Bewegung des beweglichen Objekts in Bezug auf einen oder mehreren Grade von Freiheit eingeschränkt sein, wie durch einen vorgegebenen Pfad, eine Spur oder Ausrichtung. Die Bewegung kann durch einen beliebigen geeigneten Betätigungsmechanismus betätigt werden, wie eine Maschine oder einen Motor. Der Betätigungsmechanismus des beweglichen Objekts kann von einer beliebigen geeigneten Energiequelle angetrieben werden, wie elektrischer Energie, magnetischer Energie, Solarenergie, Windenergie, Gravitationsenergie, chemischer Energie, Atomenergie oder einer beliebigen geeigneten Kombination davon. Das bewegliche Objekt kann über ein Antriebssystem selbstangetrieben werden, wie hierin anderswo beschrieben wird. Das Antriebssystem kann optional auf einer Energiequelle laufen, wie elektrischer Energie, magnetischer Energie, Solarenergie, Windenergie, Gravitationsenergie, chemischer Energie, Atomenergie oder einer beliebigen geeigneten Kombination davon. Alternativ kann das bewegliche Objekt von einem Lebewesen getragen werden.The moving object may be able to move freely within the environment with respect to sixty degrees of freedom (e.g., thirty degrees of freedom in translation and thirty degrees freedom in rotation). Alternatively, the movement of the moving object may be restricted with respect to one or more degrees of freedom, such as by a predetermined path, track, or orientation. The movement can be actuated by any suitable actuating mechanism, such as a machine or a motor. The actuating mechanism of the moving object can be powered by any suitable source of energy, such as electrical energy, magnetic energy, solar energy, wind energy, gravitational energy, chemical energy, atomic energy, or any suitable combination thereof. The moving object can be self propelled via a drive system as described elsewhere herein. The propulsion system can optionally run on an energy source such as electrical energy, magnetic energy, solar energy, wind energy, gravitational energy, chemical energy, atomic energy, or any suitable combination thereof. Alternatively, the moving object can be carried by a living being.

In manchen Beispielen kann das bewegliche Objekt ein Fahrzeug sein. Geeignete Fahrzeuge können Wasserfahrzeuge, Luftfahrzeuge, Raumfahrzeuge oder Bodenfahrzeuge umfassen. Zum Beispiel können Luftfahrzeuge Starrflügelflugzeuge (z.B. Flugzeug, Gleiter), Drehflügelflugzeuge (z.B. Helikopter, Rotorflugzeug), Flugzeuge, die sowohl starre Flügel als auch Drehflügel aufweisen, oder Flugzeuge, die keine von beiden aufweisen (z.B. Kleinluftschiffe, Heißluftballons) sein. Ein Fahrzeug kann selbstangetrieben sein, wie durch die Luft, auf oder in Wasser, im Weltraum oder auf oder unter dem Boden selbstangetrieben. Ein selbstangetriebenes Fahrzeug kann ein Antriebssystem nutzen, wie ein Antriebssystem, das eine oder mehrere Maschinen, Motoren, Räder, Achsen, Magnete, Rotoren, Propeller, Schaufeln, Düsen oder eine beliebige Kombination davon aufweist. In manchen Beispielen kann das Antriebssystem verwendet werden, um dem beweglichen Objekt zu ermöglichen von einer Oberfläche abzuheben, auf einer Oberfläche zu landen, seine aktuelle Position und/oder Ausrichtung beizubehalten (z.B. schweben), seine Ausrichtung zu ändern und/oder seine Position zu ändern.In some examples, the moving object can be a vehicle. Suitable vehicles can include watercraft, aircraft, spacecraft, or ground vehicles. For example, aircraft can be fixed wing aircraft (e.g. aircraft, gliders), rotary wing aircraft (e.g. helicopters, rotor aircraft), aircraft that have both rigid wings and rotary wings, or aircraft that do not have either (e.g. small airships, hot air balloons). A vehicle can be self-propelled, such as through the air, on or in water, in space, or self-propelled on or under the ground. A self-propelled vehicle can utilize a propulsion system, such as a propulsion system, that includes one or more machines, motors, wheels, axles, magnets, rotors, propellers, blades, nozzles, or any combination thereof. In some examples, the propulsion system may be used to enable the moving object to take off from a surface, land on a surface, maintain its current position and / or orientation (eg, hover), change orientation, and / or change position .

Das bewegliche Objekt kann von einem Benutzer ferngesteuert werden oder von einem Insassen lokal in oder auf dem beweglichen Objekts gesteuert werden. In manchen Ausführungsformen ist das bewegliche Objekt ein unbemanntes bewegliches Objekt, wie ein UAV. Ein unbemanntes bewegliches Objekt, wie ein UAV, kann keinen Insassen an Bord des beweglichen Objekts aufweisen. Das bewegliche Objekt kann von einem Menschen oder einem autonomen Steuerungssystem (z.B. ein Computersteuerungssystem) oder einer beliebigen geeigneten Kombination davon gesteuert werden. Das bewegliche Objekt kann ein autonomer oder halbautonomer Roboter sein, wie ein Roboter, der mit einer künstlichen Intelligenz konfiguriert ist.The moving object can be remotely controlled by a user or controlled locally in or on the moving object by an occupant. In some embodiments, the moving object is an unmanned moving object, such as a UAV. An unmanned moving object, such as a UAV, cannot have an occupant on board the moving object. The moving object can be controlled by a human or an autonomous control system (e.g., a computer control system), or any suitable combination thereof. The moving object can be an autonomous or semi-autonomous robot, such as a robot configured with artificial intelligence.

Das bewegliche Objekt kann eine beliebige geeignete Größe und/oder Abmessungen aufweisen. In manchen Ausführungsformen kann das bewegliche Objekt eine Größe und/oder Abmessungen haben, um einen menschlichen Insassen innerhalb des Fahrzeugs oder darauf aufzuweisen. Alternativ kann das bewegliche Objekt eine Größe und/oder Abmessungen haben, die kleiner als die sind, die im Stande sind, einen menschlichen Insassen innerhalb des Fahrzeugs oder darauf aufzuweisen. Das bewegliche Objekt kann eine Größe und/oder Abmessungen haben, die geeignet sind, von einem Menschen angehoben oder getragen zu werden. Alternativ kann das bewegliche Objekt größer als eine Größe und/oder Abmessungen sein, die geeignet sind, von einem Menschen angehoben oder getragen zu werden. In manchen Beispielen kann das bewegliche Objekt eine maximale Abmessung (z.B. Länge, Breite, Höhe, Durchmesser, Diagonale) kleiner als oder gleich etwa: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m aufweisen. Die maximale Abmessung kann größer als oder gleich etwa: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein. Zum Beispiel kann der Abstand zwischen Wellen gegenüberliegender Rotoren des beweglichen Objekts kleiner als oder gleich etwa: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein. Alternativ kann der Abstand zwischen Wellen gegenüberliegender Rotoren größer als oder gleich etwa: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein.The moving object can be of any suitable size and / or dimensions. In some embodiments, the movable object may be sized and / or dimensioned to have a human occupant within or on top of the vehicle. Alternatively, the movable object may have a size and / or dimensions that are smaller than those capable of having a human occupant within or on the vehicle. The movable object can have a size and / or dimensions that are suitable for being lifted or carried by a human being. Alternatively, the moving object may be larger than a size and / or dimensions suitable for being lifted or carried by a human. In some examples, the moving object can have a maximum dimension (e.g. length, width, height, diameter, diagonal) less than or equal to approximately: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 have m. The maximum dimension can be greater than or equal to about: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m. For example, the distance between shafts of opposing rotors of the moving object may be less than or equal to about: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m. Alternatively, the distance between shafts of opposing rotors can be greater than or equal to approximately: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 m.

In manchen Ausführungsformen kann das bewegliche Objekt ein Volumen kleiner als 100 cm x 100 cm x 100 cm, kleiner als 50 cm x 50 cm x 30 cm oder kleiner als 5 cm x 5 cm x 3 cm aufweisen. Das Gesamtvolumen des beweglichen Objekts kann kleiner als oder gleich etwa: 1 cm3, 2 cm3, 5 cm3, 10 cm3, 20 cm3, 30 cm3, 40 cm3, 50 cm3, 60 cm3, 70 cm3, 80 cm3, 90 cm3, 100 cm3, 150 cm3, 200 cm3, 300 cm3, 500 cm3, 750 cm3, 1000 cm3, 5000 cm3, 10.000 cm3, 100.000 cm3, 1 m3 oder 10 m3 sein. Im Umkehrschluss kann das Gesamtvolumen des beweglichen Objekts größer als oder gleich etwa: 1 cm3, 2 cm3, 5 cm3, 10 cm3, 20 cm3, 30 cm3, 40 cm3, 50 cm3, 60 cm3, 70 cm3, 80 cm3, 90 cm3, 100 cm3, 150 cm3, 200 cm3, 300 cm3, 500 cm3, 750 cm3, 1000 cm3, 5000 cm3, 10.000 cm3, 100.000 cm3, 1 m3 oder 10 m3 sein.In some embodiments, the moving object can have a volume smaller than 100 cm x 100 cm x 100 cm, smaller than 50 cm x 50 cm x 30 cm or smaller than 5 cm x 5 cm x 3 cm. The total volume of the moving object can be less than or equal to approximately: 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3 , 200 cm 3 , 300 cm 3 , 500 cm 3 , 750 cm 3 , 1000 cm 3 , 5000 cm 3 , 10,000 cm 3 , 100,000 cm 3 , 1 m 3 or 10 m 3 . Conversely, the total volume of the moving object can be greater than or equal to approximately: 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3 , 200 cm 3 , 300 cm 3 , 500 cm 3 , 750 cm 3 , 1000 cm 3 , 5000 cm 3 , 10,000 cm 3 , 100,000 cm 3 , 1 m 3 or 10 m 3 .

In manchen Ausführungsformen kann das bewegliche Objekt einen Fußabdruck (was sich auf die seitliche Querschnittsfläche bezieht, die von dem beweglichen Objekt umschlossen wird) kleiner als oder gleich etwa: 32.000 cm2, 20.000 cm2, 10.000 cm2, 1.000 cm2, 500 cm2, 100 cm2, 50 cm2, 10 cm2 oder 5 cm2 sein. Im Umkehrschluss kann der Fußabdruck größer als oder gleich etwa: 32.000 cm2, 20.000 cm2, 10.000 cm2, 1.000 cm2, 500 cm2, 100 cm2, 50 cm2, 10 cm2 oder 5 cm2 sein.In some embodiments, the moving object may be less than or equal to a footprint (which refers to the lateral cross-sectional area enclosed by the moving object) for example: 32,000 cm 2 , 20,000 cm 2 , 10,000 cm 2 , 1,000 cm 2 , 500 cm 2 , 100 cm 2 , 50 cm 2 , 10 cm 2 or 5 cm 2 . Conversely, the footprint can be greater than or equal to approximately: 32,000 cm 2 , 20,000 cm 2 , 10,000 cm 2 , 1,000 cm 2 , 500 cm 2 , 100 cm 2 , 50 cm 2 , 10 cm 2 or 5 cm 2 .

In manchen Beispielen kann das bewegliche Objekt nicht mehr als 1000 kg wiegen. Das Gewicht das beweglichen Objekts kann geringer als oder gleich etwa: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0,5 kg, 0,1 kg, 0,05 kg oder 0,01 kg sein. Im Umkehrschluss kann das Gewicht größer als oder gleich etwa: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0,5 kg, 0,1 kg, 0,05 kg oder 0,01 kg sein.In some examples, the moving object cannot weigh more than 1000 kg. The weight of the moving object can be less than or equal to about: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg , 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg , 0.1 kg, 0.05 kg or 0.01 kg. Conversely, the weight can be greater than or equal to approximately: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg, Be 0.1 kg, 0.05 kg or 0.01 kg.

In manchen Ausführungsformen kann ein bewegliches Objekt relativ zu einer Last, die von dem beweglichen Objekt getragen wird, klein sein. Die Last kann eine Nutzlast und/oder einen Träger aufweisen, wie unten detaillierter beschrieben wird. In manchen Beispielen kann ein Verhältnis eines beweglichen Objektgewichts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. In manchen Beispielen kann ein Verhältnis eines beweglichen Objektgewichts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. Optional kann ein Verhältnis eines Trägergewichts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. Wenn gewünscht, kann das Verhältnis eines beweglichen Objektgewichts zu einem Lastgewicht kleiner als oder gleich: 1:2, 1:3, 1:4, 1:5, 1:10 oder sogar geringer sein. Im Umkehrschluss kann das Verhältnis eines beweglichen Objektgewichts zu einem Lastgewicht auch größer als oder gleich: 2:1, 3:1, 4:1, 5:1, 10:1 oder sogar höher sein.In some embodiments, a moving object may be small relative to a load carried by the moving object. The load may comprise a payload and / or a carrier, as will be described in more detail below. In some examples, a ratio of a moving object weight to a load weight may be greater than, less than, or equal to about 1: 1. In some examples, a ratio of a moving object weight to a load weight may be greater than, less than, or equal to about 1: 1. Optionally, a ratio of a carrier weight to a load weight can be greater than, less than, or equal to about 1: 1. If desired, the ratio of a moving object weight to a load weight can be less than or equal to: 1: 2, 1: 3, 1: 4, 1: 5, 1:10 or even less. Conversely, the ratio of a moving object weight to a load weight can also be greater than or equal to: 2: 1, 3: 1, 4: 1, 5: 1, 10: 1 or even higher.

In manchen Ausführungsformen kann das bewegliche Objekt niedrigen Energieverbrauch aufweisen. Zum Beispiel kann das bewegliche Objekt weniger als etwa: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger verbrauchen. In manchen Beispielen kann ein Träger des beweglichen Objekts niedrigen Energieverbrauch aufweisen. Zum Beispiel kann der Träger weniger als etwa: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger verbrauchen. Optional kann eine Nutzlast des beweglichen Objekts niedrigen Energieverbrauch aufweisen, wie weniger als etwa: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger.In some embodiments, the moving object can have low power consumption. For example, the moving object may consume less than about: 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h or less. In some examples, a carrier of the moving object can have low energy consumption. For example, the wearer may consume less than about: 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h, or less. Optionally, a payload of the moving object may have low energy consumption, such as less than about: 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h, or less.

20 veranschaulicht ein unbemanntes Luftfahrzeug (UAV) 1300 in Übereinstimmung mit Ausführungsformen der vorliegenden Erfindung. Das UAV kann ein Beispiel eines beweglichen Objekts wie hierin beschrieben sein. Das UAV 1300 kann ein Antriebssystem aufweisen, das vier Rotoren 1302, 1304, 1306 und 1308 aufweist. Eine beliebige Zahl von Rotoren kann bereitgestellt sein (z.B. ein, zwei, drei, vier, fünf, sechs oder mehr). Die Rotoren können Ausführungsformen der anderswo hierin beschriebenen selbstanziehenden Rotoren sein. Die Rotoren, Rotorbaugruppen oder andere Antriebssysteme des unbemannten Luftfahrzeugs können dem unbemannten Luftfahrzeug ermöglichen, zu schweben/seine Position beizubehalten, Ausrichtung zu ändern und/oder Standort zu ändern. Der Abstand zwischen Wellen gegenüberliegender Rotoren kann eine beliebige geeignete Länge 1310 aufweisen. Zum Beispiel kann die Länge 1310 geringer als oder gleich 2 m oder geringer als oder gleich 5 m sein. In manchen Ausführungsformen kann die Länge 1310 innerhalb einer Spanne von 40 cm bis 1 m, von 10 cm bis 2 m oder von 5 cm bis 5 m sein. Jegliche Beschreibung eines UAV hierin kann auf ein bewegliches Objekt angewendet werden, wie ein bewegliches Objekt eines unterschiedlichen Typs, und umgekehrt. 20th illustrates an unmanned aerial vehicle (UAV) 1300 in accordance with embodiments of the present invention. The UAV can be an example of a moving object as described herein. The UAV 1300 may have a drive system that has four rotors 1302 , 1304 , 1306 and 1308 having. Any number of rotors can be provided (e.g., one, two, three, four, five, six, or more). The rotors can be embodiments of the self-priming rotors described elsewhere herein. The rotors, rotor assemblies, or other propulsion systems of the unmanned aerial vehicle may allow the unmanned aerial vehicle to hover / maintain position, change orientation, and / or change location. The spacing between shafts of opposing rotors can be any suitable length 1310 exhibit. For example, the length 1310 be less than or equal to 2 m or less than or equal to 5 m. In some embodiments, the length can be 1310 be within a range of 40 cm to 1 m, from 10 cm to 2 m or from 5 cm to 5 m. Any description of a UAV herein can be applied to a moving object, such as a moving object of a different type, and vice versa.

In manchen Ausführungsformen kann das bewegliche Objekt konfiguriert sein, eine Last zu tragen. Die Last kann eines oder mehreres aufweisen von Passagieren, Fracht, Ausrüstung, Instrumenten und dergleichen. Die Last kann innerhalb eines Gehäuses bereitgestellt sein. Das Gehäuse kann von einem Gehäuse des beweglichen Objekts getrennt sein oder Teil eines Gehäuses für ein bewegliches Objekt sein. Alternativ kann die Last mit einem Gehäuse bereitgestellt sein, während das bewegliche Objekt kein Gehäuse aufweist. Alternativ können Abschnitte der Last oder die gesamte Last ohne ein Gehäuse bereitgestellt sein. Die Last kann relativ zu dem beweglichen Objekt starr fixiert sein. Optional kann die Last relativ zu dem beweglichen Objekt beweglich (z.B. relativ zu dem beweglichen Objekt verschiebbar oder drehbar) sein.In some embodiments, the moving object can be configured to carry a load. The load can include one or more of passengers, cargo, equipment, instruments, and the like. The load can be provided within a housing. The housing can be separate from a housing for the moving object or it can be part of a housing for a moving object. Alternatively, the load may be provided with a housing while the movable object has no housing. Alternatively, portions of the load or the entire load can be provided without a housing. The load can be fixed rigidly relative to the moving object. Optionally, the load can be movable (e.g., slidable or rotatable relative to the movable object) relative to the movable object.

In manchen Ausführungsformen weist die Last eine Nutzlast auf. Die Nutzlast kann konfiguriert sein, keinerlei Betrieb oder Funktion durchzuführen. Alternativ kann die Nutzlast eine Nutzlast sein, die konfiguriert ist, einen Betrieb oder eine Funktion durchzuführen, auch als eine funktionale Nutzlast bekannt. Zum Beispiel kann die Nutzlast einen oder mehrere Sensoren aufweisen, um ein oder mehrere Ziele zu überwachen. Beliebige geeignete Sensoren können in die Nutzlast eingegliedert werden, wie eine Bildaufnahmevorrichtung (z.B. eine Kamera), eine Tonaufnahmevorrichtung (z.B. ein Richtmikrofon), eine Infrarotabbildungsvorrichtung oder eine Ultraviolettabbildungsvorrichtung. Der Sensor kann statische Erfassungsdaten (z.B. eine Fotografie) oder dynamische Erfassungsdaten (z.B. ein Video) bereitstellen. In manchen Ausführungsformen stellt der Sensor Erfassungsdaten für das Ziel der Nutzlast bereit. Alternativ oder in Kombination kann die Nutzlast einen oder mehrere Emitter aufweisen, um Signale an ein oder mehrere Ziele bereitzustellen. Ein beliebiger geeigneter Emitter kann verwendet werden, wie eine Beleuchtungsquelle oder eine Tonquelle. In manchen Ausführungsformen weist die Nutzlast einen oder mehrere Sendeempfänger auf, wie zur Kommunikation mit einem Modul fern von dem beweglichen Objekt. Optional kann die Nutzlast konfiguriert sein, mit der Umgebung oder einem Ziel zu interagieren. Zum Beispiel kann die Nutzlast ein Werkzeug, ein Instrument oder einen Mechanismus aufweisen, das oder der im Stande ist, Objekte zu manipulieren, wie einen Roboterarm.In some embodiments, the load includes a payload. The payload can be configured not to perform any operation or function. Alternatively, the payload may be a payload configured to perform an operation or function, also known as a functional payload. For example, the payload can include one or more sensors to monitor one or more targets. Any suitable sensors can be incorporated into the payload, such as an image pickup device (e.g., a camera), a sound pickup device (e.g., a directional microphone), an infrared imaging device, or an ultraviolet imaging device. The sensor can capture data (e.g. a photograph) or static Provide dynamic acquisition data (e.g. a video). In some embodiments, the sensor provides detection data for the target of the payload. Alternatively or in combination, the payload can have one or more emitters in order to provide signals to one or more destinations. Any suitable emitter can be used, such as a lighting source or a sound source. In some embodiments, the payload includes one or more transceivers, such as to communicate with a module remote from the moving object. Optionally, the payload can be configured to interact with the environment or a target. For example, the payload may include a tool, instrument, or mechanism capable of manipulating objects, such as a robotic arm.

Optional kann die Last einen Träger aufweisen. Der Träger kann für die Nutzlast bereitgestellt sein und die Nutzlast kann mit dem beweglichen Objekt über den Träger entweder direkt (z.B. direkt in Kontakt mit dem beweglichen Objekt) oder indirekt (z.B. nicht in Kontakt mit dem beweglichen Objekt) gekoppelt sein. Im Umkehrschluss kann die Nutzlast an dem beweglichen Objekt montiert sein, ohne einen Träger zu benötigen. Die Nutzlast kann ganzheitlich mit dem Träger gebildet sein. Alternativ kann die Nutzlast lösbar mit dem Träger gekoppelt sein. In manchen Ausführungsformen kann die Nutzlast ein oder mehrere Nutzlastelemente aufweisen und eines oder mehrere der Nutzlastelemente können relativ zu dem beweglichen Objekt und/oder dem Träger beweglich sein, wie zuvor beschrieben wurde.Optionally, the load can have a carrier. The carrier can be provided for the payload and the payload can be coupled to the moving object via the carrier either directly (e.g., directly in contact with the moving object) or indirectly (e.g. not in contact with the moving object). Conversely, the payload can be mounted on the moving object without the need for a carrier. The payload can be formed integrally with the carrier. Alternatively, the payload can be releasably coupled to the carrier. In some embodiments, the payload can include one or more payload elements, and one or more of the payload elements can be movable relative to the movable object and / or the carrier, as previously described.

Der Träger kann ganzheitlich mit dem beweglichen Objekt gebildet sein. Alternativ kann der Träger lösbar mit dem beweglichen Objekt gekoppelt sein. Der Träger kann mit dem beweglichen Objekt direkt oder indirekt gekoppelt sein. Der Träger kann Unterstützung für die Nutzlast bereitstellen (z.B. mindestens einen Teil des Gewichts der Nutzlast tragen). Der Träger kann eine geeignete Montagestruktur (z.B. eine Kardanplattform) aufweisen, die im Stande ist, die Bewegung der Nutzlast zu stabilisieren und/oder zu lenken. In manchen Ausführungsformen kann der Träger angepasst sein, den Zustand der Nutzlast (z.B. Position und/oder Ausrichtung) relativ zu dem beweglichen Objekt zu steuern. Zum Beispiel kann der Träger konfiguriert sein, sich relativ zu dem beweglichen Objekt derart zu bewegen (z.B. in Bezug auf ein, zwei oder drei Translationsgrade und/oder ein, zwei oder drei Rotationsgrade), dass die Nutzlast ihre Position und/oder Ausrichtung relativ zu einem geeigneten Referenzrahmen beibehält, ungeachtet der Bewegung des beweglichen Objekts. Der Referenzrahmen kann ein fixierter Referenzrahmen sein (z.B. die umliegende Umgebung). Alternativ kann der Referenzrahmen ein beweglicher Referenzrahmen sein (z.B. das bewegliche Objekt, ein Nutzlastziel) .The carrier can be formed integrally with the moving object. Alternatively, the carrier can be detachably coupled to the movable object. The carrier can be coupled directly or indirectly to the moving object. The carrier can provide support for the payload (e.g., carry at least a portion of the weight of the payload). The carrier may have a suitable mounting structure (e.g. a gimbal platform) capable of stabilizing and / or directing the movement of the payload. In some embodiments, the carrier can be adapted to control the state of the payload (e.g., position and / or orientation) relative to the moving object. For example, the carrier can be configured to move relative to the moving object (e.g. with respect to one, two or three degrees of translation and / or one, two or three degrees of rotation) such that the payload is relative to its position and / or orientation an appropriate frame of reference regardless of the movement of the moving object. The frame of reference can be a fixed frame of reference (e.g. the surrounding environment). Alternatively, the reference frame can be a moving reference frame (e.g. the moving object, a payload target).

In manchen Ausführungsformen kann der Träger konfiguriert sein, Bewegung der Nutzlast relativ zu dem Träger und/oder beweglichen Objekt zuzulassen. Die Bewegung kann eine Translation in Bezug auf bis zu drei Freiheitsgrade (z.B. entlang einer, zwei oder drei Achsen) oder eine Rotation in Bezug auf bis zu drei Freiheitsgrade (z.B. um eine, zwei oder drei Achsen) oder eine beliebige geeignete Kombination davon sein.In some embodiments, the carrier may be configured to allow movement of the payload relative to the carrier and / or moving object. The movement can be translation with respect to up to three degrees of freedom (e.g., along one, two, or three axes) or rotation with respect to up to three degrees of freedom (e.g., about one, two or three axes), or any suitable combination thereof.

In manchen Beispielen kann der Träger eine Trägerrahmenbaugruppe und eine Trägerbetätigungsbaugruppe aufweisen. Die Trägerrahmenbaugruppe kann strukturelle Unterstützung für die Nutzlast bereitstellen. Die Trägerrahmenbaugruppe kann individuelle Trägerrahmenkomponenten aufweisen, von denen manche relativ zueinander beweglich sein können. Die Trägerbetätigungsbaugruppe kann einen oder mehrere Aktoren (z.B. Motoren) aufweisen, die Bewegung der individuellen Trägerrahmenkomponenten betätigen. Die Aktoren können die Bewegung mehrerer Trägerrahmenkomponenten gleichzeitig zulassen oder können konfiguriert sein, die Bewegung jeweils einer einzelnen Trägerrahmenkomponente zuzulassen. Die Bewegung der Trägerrahmenkomponenten kann eine entsprechende Bewegung der Nutzlast erzeugen. Zum Beispiel kann die Trägerbetätigungsbaugruppe eine Rotation einer oder mehrerer Trägerrahmenkomponenten um eine oder mehrere Rotationsachsen (z.B. Rollachse, Nickachse oder Gierachse) betätigen. Die Rotation der einen oder mehreren Trägerrahmenkomponenten kann eine Nutzlast veranlassen, um eine oder mehrere Rotationsachsen relativ zu dem beweglichen Objekt zu rotieren. Alternativ oder in Kombination kann die Trägerbetätigungsbaugruppe eine Translation einer oder mehrerer Trägerrahmenkomponenten entlang einer oder mehrerer Translationsachsen betätigen und dadurch eine Translation der Nutzlast entlang einer oder mehrerer entsprechender Achsen relativ zu dem beweglichen Objekt erzeugen.In some examples, the carrier can include a carrier frame assembly and a carrier actuation assembly. The support frame assembly can provide structural support for the payload. The support frame assembly can include individual support frame components, some of which can be movable relative to one another. The carrier actuation assembly may include one or more actuators (e.g., motors) that actuate movement of the individual carrier frame components. The actuators can allow the movement of several carrier frame components at the same time or can be configured to allow the movement of a single carrier frame component at a time. The movement of the carrier frame components can produce a corresponding movement of the payload. For example, the carrier actuation assembly can actuate rotation of one or more carrier frame components about one or more axes of rotation (e.g., roll axis, pitch axis, or yaw axis). The rotation of the one or more support frame components can cause a payload to rotate about one or more axes of rotation relative to the moving object. Alternatively or in combination, the carrier actuation assembly can actuate a translation of one or more carrier frame components along one or more translation axes and thereby generate a translation of the payload along one or more corresponding axes relative to the movable object.

In manchen Ausführungsformen kann die Bewegung des beweglichen Objekts, des Trägers und der Nutzlast relativ zu einem fixierten Referenzrahmen (z.B. die umliegende Umgebung) und/oder zueinander von einem Endgerät gesteuert werden. Das Endgerät kann eine Fernsteuerungsvorrichtung an einem Standort fern des beweglichen Objekts, Trägers und/oder der Nutzlast sein. Das Endgerät kann an einer Stützplattform angeordnet oder daran fixiert sein. Alternativ kann das Endgerät eine handgehaltene oder am Körper tragbare Vorrichtung sein. Zum Beispiel kann das Endgerät ein Smartphone, Tablet, einen Laptop, Computer, Brillen, Handschuhe, einen Helm, ein Mikrofon oder geeignete Kombinationen davon aufweisen. Das Endgerät kann eine Benutzerschnittstelle aufweisen, wie eine Tastatur, Maus, einen Steuerhebel, Berührungsbildschirm oder eine Anzeige. Eine beliebige geeignete Benutzereingabe kann verwendet werden, um mit dem Endgerät zu interagieren, wie manuell eingegebene Befehle, Sprachsteuerung, Gestensteuerung oder Positionssteuerung (z.B. über eine Bewegung, einen Standort oder eine Neigung des Endgeräts).In some embodiments, the movement of the movable object, the carrier and the payload relative to a fixed reference frame (eg the surrounding environment) and / or to one another can be controlled by a terminal. The terminal may be a remote control device at a location remote from the moving object, carrier, and / or payload. The terminal device can be arranged on a support platform or fixed to it. Alternatively, the terminal can be a handheld device or a device that can be worn on the body. For example, the terminal device can have a smartphone, tablet, laptop, computer, glasses, gloves, helmet, microphone or suitable combinations thereof. The terminal device can have a user interface, such as a keyboard, mouse, control lever, touch screen or an ad. Any suitable user input can be used to interact with the terminal, such as manually entered commands, voice control, gesture control or position control (e.g. via a movement, a location or a tilt of the terminal).

Das Endgerät kann verwendet werden, um einen beliebigen geeigneten Zustand des beweglichen Objekts, Trägers und/oder einer Nutzlast zu steuern. Zum Beispiel kann das Endgerät verwendet werden, um die Position und/oder Ausrichtung des beweglichen Objekts, Trägers und/oder der Nutzlast relativ zu einer fixierten Referenz von und/oder zu einander zu steuern. In manchen Ausführungsformen kann das Endgerät verwendet werden, um individuelle Elemente des beweglichen Objekts, Trägers und/oder der Nutzlast zu steuern, wie die Betätigungsbaugruppe des Trägers, einen Sensor der Nutzlast oder einen Emitter der Nutzlast. Das Endgerät kann eine drahtlose Kommunikationsvorrichtung aufweisen, die angepasst ist, mit einem oder mehreren des beweglichen Objekts, Trägers oder der Nutzlast zu kommunizieren.The terminal can be used to control any suitable state of the moving object, carrier and / or payload. For example, the terminal can be used to control the position and / or orientation of the movable object, carrier and / or the payload relative to a fixed reference from and / or to one another. In some embodiments, the terminal can be used to control individual elements of the moving object, carrier, and / or the payload, such as the carrier's actuation assembly, a sensor of the payload, or an emitter of the payload. The terminal may have a wireless communication device adapted to communicate with one or more of the moving object, carrier or payload.

Das Endgerät kann eine geeignete Anzeigeeinheit zum Ansehen von Informationen des beweglichen Objekts, Trägers und/oder der Nutzlast aufweisen. Zum Beispiel kann das Endgerät konfiguriert sein, Anzeigeinformationen des beweglichen Objekts, Trägers und/oder der Nutzlast in Bezug auf Position, Translationsgeschwindigkeit, Translationsbeschleunigung, Ausrichtung, Winkelgeschwindigkeit, Winkelbeschleunigung oder beliebige geeignete Kombinationen davon anzuzeigen. In manchen Ausführungsformen kann das Endgerät Informationen anzeigen, die von der Nutzlast bereitgestellt werden, wie Daten, die von einer funktionellen Nutzlast bereitgestellt werden (z.B. Bilder, die von einer Kamera oder einer anderen Bildaufnahmevorrichtung aufgezeichnet wurden).The terminal can have a suitable display unit for viewing information about the moving object, carrier and / or the payload. For example, the terminal may be configured to display display information of the moving object, carrier, and / or payload in terms of position, translational speed, translational acceleration, orientation, angular speed, angular acceleration, or any suitable combination thereof. In some embodiments, the terminal may display information provided by the payload, such as data provided by a functional payload (e.g., images recorded by a camera or other image capture device).

Optional kann dasselbe Endgerät sowohl das bewegliche Objekt, den Träger und/oder die Nutzlast oder einen Zustand des beweglichen Objekts, Trägers und/oder der Nutzlast steuern, als auch Informationen von dem beweglichen Objekt, Träger und/oder Nutzlast empfangen und/oder anzeigen. Zum Beispiel kann ein Endgerät das Positionieren der Nutzlast relativ zu einer Umgebung steuern, während Bilddaten, die von der Nutzlast aufgenommen wurden, oder Informationen über die Position der Nutzlast angezeigt werden. Alternativ können unterschiedliche Endgeräte für unterschiedliche Funktionen verwendet werden. Zum Beispiel kann ein erstes Endgerät Bewegung oder einen Zustand des beweglichen Objekts, Trägers und/oder der Nutzlast steuern, während ein zweites Endgerät Informationen von dem beweglichen Objekt, Träger und/oder der Nutzlast empfangen und/oder anzeigen kann. Zum Beispiel kann ein erstes Endgerät verwendet werden, um das Positionieren der Nutzlast relativ zu einer Umgebung zu steuern, während ein zweites Endgerät Bilddaten anzeigt, die von der Nutzlast aufgenommen wurden. Verschiedene Kommunikationsmodi können zwischen einem beweglichen Objekt und einem integrierten Endgerät, das sowohl das bewegliche Objekt steuert als auch Daten empfängt, oder zwischen dem beweglichen Objekt und mehreren Endgeräten, die sowohl das bewegliche Objekt steuern als auch Daten empfangen, genutzt werden. Zum Beispiel können mindestens zwei unterschiedliche Kommunikationsmodi zwischen dem beweglichen Objekt und dem Endgerät, das sowohl das bewegliche Objekt steuert als auch Daten von dem beweglichen Objekt empfängt, gebildet sein.Optionally, the same terminal can control both the moving object, the carrier and / or the payload or a state of the moving object, carrier and / or the payload, and also receive and / or display information from the moving object, carrier and / or payload. For example, a terminal device can control the positioning of the payload relative to an environment while image data recorded from the payload or information about the position of the payload is displayed. Alternatively, different terminals can be used for different functions. For example, a first terminal can control movement or a state of the moving object, carrier and / or the payload, while a second terminal can receive and / or display information from the moving object, carrier and / or the payload. For example, a first terminal can be used to control the positioning of the payload relative to an environment, while a second terminal displays image data that has been recorded from the payload. Various communication modes can be used between a moving object and an integrated terminal that both controls the moving object and receives data, or between the moving object and a plurality of terminals that both control the moving object and receive data. For example, at least two different communication modes can be established between the moving object and the terminal which both controls the moving object and receives data from the moving object.

21 veranschaulicht ein bewegliches Objekt 1400, das einen Träger 1402 und eine Nutzlast 1404 aufweist, in Übereinstimmung mit Ausführungsformen. Obwohl das bewegliche Objekt 1400 als ein Flugzeug abgebildet ist, ist diese Abbildung nicht beabsichtigt, begrenzend zu sein und es kann ein beliebiger geeigneter Typ von beweglichem Objekt verwendet werden, wie zuvor hierin beschrieben wurde. Ein Fachkundiger wird begrüßen, dass beliebige der hierin beschriebenen Ausführungsformen im Kontext von Flugzeugsystemen auf ein beliebiges geeignetes bewegliches Objekt (z.B. ein UAV) angewendet werden können. In manchen Beispielen kann die Nutzlast 1404 an dem beweglichen Objekt 1400 bereitgestellt sein, ohne den Träger 1402 zu benötigen. Das bewegliche Objekt 1400 kann Antriebsmechanismen 1406, ein Erfassungssystem 1408 und ein Kommunikationssystem 1410 aufweisen. 21 illustrates a moving object 1400 who have a carrier 1402 and a payload 1404 in accordance with embodiments. Though the moving object 1400 is depicted as an airplane, this illustration is not intended to be limiting and any suitable type of moving object may be used, as previously described herein. One skilled in the art will appreciate that any of the embodiments described herein can be applied to any suitable moving object (e.g., a UAV) in the context of aircraft systems. In some examples, the payload can 1404 on the moving object 1400 be provided without the carrier 1402 to need. The moving object 1400 can drive mechanisms 1406 , a registration system 1408 and a communication system 1410 exhibit.

Die Antriebsmechanismen 1406 können eines oder mehreres von Rotoren, Propellern, Schaufeln, Maschinen, Motoren, Rädern, Achsen, Magneten oder Düsen aufweisen, wie zuvor beschrieben wurde. Zum Beispiel können die Antriebsmechanismen 1406 selbstanziehende Rotoren, Rotorbaugruppen oder andere drehende Antriebseinheiten sein, wie hierin anderswo offenbart wird. Das bewegliche Objekt kann einen oder mehr, zwei oder mehr, drei oder mehr oder vier oder mehr Antriebsmechanismen aufweisen. Die Antriebsmechanismen können alle von demselben Typ sein. Alternativ können ein oder mehrere Antriebsmechanismen unterschiedliche Typen von Antriebsmechanismen sein. Die Antriebsmechanismen 1406 können an dem beweglichen Objekt 1400 unter Verwendung beliebiger geeigneter Mittel, wie eines Stützelements (z.B. eine Antriebswelle), montiert sein, wie hierin anderswo beschrieben wird. Die Antriebsmechanismen 1406 können an einem beliebigen geeigneten Abschnitt des beweglichen Objekts 1400 montiert sein, wie an der Oberseite, dem Boden, der Vorderseite, der Rückseite, den Seiten oder geeigneten Kombinationen davon.The drive mechanisms 1406 may have one or more of rotors, propellers, blades, machines, motors, wheels, axles, magnets or nozzles, as previously described. For example, the drive mechanisms 1406 self-priming rotors, rotor assemblies, or other rotating drive units as disclosed elsewhere herein. The moving object may have one or more, two or more, three or more, or four or more drive mechanisms. The drive mechanisms can all be of the same type. Alternatively, one or more drive mechanisms can be different types of drive mechanisms. The drive mechanisms 1406 can on the moving object 1400 using any suitable means, such as a support member (e.g., drive shaft), as described elsewhere herein. The drive mechanisms 1406 can be at any suitable section of the moving object 1400 such as the top, bottom, front, back, sides, or any suitable combination thereof.

In manchen Ausführungsformen können die Antriebsmechanismen 1406 dem beweglichen Objekt 1400 ermöglichen, vertikal von einer Oberfläche abzuheben oder vertikal auf einer Oberfläche zu landen, ohne irgendeine horizontale Bewegung des beweglichen Objekts 1400 zu benötigen (z.B. ohne eine Rollbahn langzufahren). Optional können die Antriebsmechanismen 1406 betriebsfähig sein, dem beweglichen Objekt 1400 zu gestatten, in der Luft bei einer bestimmte Position und/oder Ausrichtung zu schweben. Einer oder mehrere der Antriebsmechanismen 1400 können unabhängig von den anderen Antriebsmechanismen gesteuert werden. Alternativ können die Antriebsmechanismen 1400 konfiguriert sein, gleichzeitig gesteuert zu werden. Zum Beispiel kann das bewegliche Objekt 1400 mehrere horizontal ausgerichtete Rotoren aufweisen, die Hub und/oder Vorschub an das bewegliche Objekt bereitstellen können. Die mehreren horizontal ausgerichteten Rotoren können betätigt werden, um Kapazitäten für vertikalen Start, vertikales Landen und Schweben an das bewegliche Objekt 1400 bereitzustellen. In manchen Ausführungsformen können sich einer oder mehrere der horizontal ausgerichteten Rotoren im Uhrzeigersinn drehen, während sich ein oder mehrere der horizontalen Rotoren gegen den Uhrzeigersinn drehen. Zum Beispiel kann die Anzahl der Rotoren im Uhrzeigersinn gleich der Anzahl der Rotoren gegen den Uhrzeigersinn sein. Die Rotationsrate jedes der horizontal ausgerichteten Rotoren kann unabhängig variiert werden, um den Hub und/oder Vorschub zu steuern, der von jedem Rotor erzeugt wird, und dadurch die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung des beweglichen Objekts 1400 anzupassen (z.B. in Bezug auf bis zu drei Translationsgrade und bis zu drei Rotationsgrade).In some embodiments, the drive mechanisms 1406 the moving object 1400 allow vertical take-off from a surface or vertical land on a surface without any horizontal movement of the moving object 1400 to need (e.g. without driving down a taxiway). Optionally, the drive mechanisms 1406 be operational, the moving object 1400 to allow floating in the air at a certain position and / or orientation. One or more of the drive mechanisms 1400 can be controlled independently of the other drive mechanisms. Alternatively, the drive mechanisms 1400 configured to be controlled at the same time. For example, the moving object can 1400 have a plurality of horizontally aligned rotors that can provide stroke and / or feed to the moving object. The multiple horizontally aligned rotors can be actuated to provide vertical takeoff, vertical landing, and hovering capacity to the moving object 1400 provide. In some embodiments, one or more of the horizontally aligned rotors can rotate clockwise while one or more of the horizontal rotors rotate counterclockwise. For example, the number of clockwise rotors may be equal to the number of counterclockwise rotors. The rate of rotation of each of the horizontally aligned rotors can be varied independently in order to control the stroke and / or feed generated by each rotor and thereby the spatial arrangement, speed and / or acceleration of the moving object 1400 adapt (e.g. with regard to up to three degrees of translation and up to three degrees of rotation).

Das Erfassungssystem 1408 kann einen oder mehrere Sensoren aufweisen, die die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung des beweglichen Objekts 1400 erfassen können (z.B. in Bezug auf bis zu drei Translationsgrade und bis zu drei Rotationsgrade). Der eine oder die mehreren Sensoren können globale Positionierungssystemsensoren (GPS-Sensoren), Bewegungssensoren, Trägheitssensoren, Näherungssensoren oder Bildsensoren aufweisen. Die Erfassungsdaten, die von dem Erfassungssystem 1408 bereitgestellt werden, können verwendet werden, um die räumliche Anordnung, Geschwindigkeit und/oder Ausrichtung des beweglichen Objekts 1400 zu steuern (z.B. unter Verwendung einer geeigneten Verarbeitungseinheit und/oder eines Steuerungsmoduls, wie unten beschrieben wird). Alternativ kann das Erfassungssystem 1408 verwendet werden, um Daten bezüglich der Umgebung, die das bewegliche Objekt umgibt, bereitzustellen, wie Wetterbedingungen, Nähe zu potenziellen Hindernissen, Standort geografischer Merkmale, Standort künstlicher Strukturen und dergleichen.The registration system 1408 can have one or more sensors that determine the spatial arrangement, speed and / or acceleration of the moving object 1400 can detect (e.g. in relation to up to three degrees of translation and up to three degrees of rotation). The one or more sensors can include global positioning system (GPS) sensors, motion sensors, inertial sensors, proximity sensors, or image sensors. The acquisition data received from the acquisition system 1408 can be used to determine the spatial arrangement, speed and / or orientation of the moving object 1400 to be controlled (e.g. using a suitable processing unit and / or a control module, as described below). Alternatively, the acquisition system 1408 can be used to provide data relating to the environment surrounding the moving object, such as weather conditions, proximity to potential obstacles, location of geographic features, location of artificial structures and the like.

Das Kommunikationssystem 1410 ermöglicht Kommunikation mit Endgerät 1412, das ein Kommunikationssystem 1414 aufweist, über drahtlose Signale 1416. Die Kommunikationssysteme 1410, 1414 können eine beliebige Zahl von Sendern, Empfängern und/oder Sendeempfängern aufweisen, die zur drahtlosen Kommunikation geeignet sind. Die Kommunikation kann Einwegkommunikation sein, sodass Daten in nur einer Richtung übertragen werden können. Zum Beispiel kann Einwegkommunikation nur das bewegliche Objekt 1400 involvieren, das Daten an das Endgerät 1412 sendet, oder umgekehrt. Die Daten können von einem oder mehreren Sendern des Kommunikationssystems 1410 an einen oder mehrere Empfänger des Kommunikationssystems 1412 gesendet werden, oder umgekehrt. Alternativ kann die Kommunikation Zweiwegekommunikation sein, sodass Daten in beiden Richtungen zwischen dem beweglichen Objekt 1400 und dem Endgerät 1412 gesendet werden können. Die Zweiwegekommunikation kann involvieren, Daten von einem oder mehreren Sendern des Kommunikationssystems 1410 an einen oder mehrere Empfänger des Kommunikationssystems 1414 zu senden und umgekehrt.The communication system 1410 enables communication with the end device 1412 that is a communication system 1414 has, via wireless signals 1416 . The communication systems 1410 , 1414 may have any number of transmitters, receivers and / or transceivers suitable for wireless communication. The communication can be one-way communication so that data can only be transmitted in one direction. For example, one-way communication can only be the moving object 1400 involve the data to the terminal 1412 sends, or vice versa. The data can be from one or more transmitters of the communication system 1410 to one or more recipients of the communication system 1412 sent, or vice versa. Alternatively, the communication can be two-way communication, allowing data to flow in both directions between the moving object 1400 and the end device 1412 can be sent. The two-way communication can involve data from one or more transmitters of the communication system 1410 to one or more recipients of the communication system 1414 to send and vice versa.

In manchen Ausführungsformen kann das Endgerät 1412 Steuerungsdaten an eines oder mehrere des beweglichen Objekts 1400, Trägers 1402 und der Nutzlast 104 bereitstellen und Informationen von einem oder mehreren des beweglichen Objekts 1400, Trägers 1402 und der Nutzlast 1404 empfangen (z.B. Positions- und/oder Bewegungsinformationen des beweglichen Objekts, Trägers oder der Nutzlast; Daten, die von der Nutzlast erfasst werden, wie Bilddaten, die von einer Nutzlastkamera aufgenommen werden). In manchen Beispielen können Steuerungsdaten von dem Endgerät Anweisungen für relative Positionen, Bewegungen, Betätigungen oder Steuerungen des beweglichen Objekts, Trägers und/oder der Nutzlast aufweisen. Zum Beispiel können die Steuerungsdaten in einer Modifikation des Standorts und/oder der Ausrichtung des beweglichen Objekts (z.B. über Steuerung der Antriebsmechanismen 1406) oder einer Bewegung der Nutzlast in Bezug das bewegliche Objekt (z.B. über Steuerung des Trägers 1402) resultieren. Die Steuerungsdaten von dem Endgerät können in Steuerung der Nutzlast resultieren, wie Steuerung des Betriebs einer Kamera oder anderen Bildaufnahmevorrichtung (z.B. Aufnehmen von stillen oder bewegten Bildern, Vergrößern oder Verkleinern, Einschalten oder Ausschalten, Umschalten von Abbildungsmodi, Ändern von Bildauflösung, Ändern vom Fokus, Ändern von Tiefenschärfe, Ändern von Belichtungszeit, Ändern von Betrachtungswinkel oder Blickfeld). In manchen Beispielen können die Kommunikationen von dem beweglichen Objekt, Träger und/oder der Nutzlast Informationen von einem oder mehreren Sensoren aufweisen (z.B. von dem Erfassungssystem 1408 oder von der Nutzlast 1404). Die Kommunikationen können erfasste Informationen von einem oder mehreren unterschiedlichen Sensortypen (z.B. GPS-Sensoren, Bewegungssensoren, Trägheitssensor, Näherungssensoren oder Bildsensoren) aufweisen. Solche Informationen können sich auf die Position (z.B. Standort, Ausrichtung), Bewegung oder Beschleunigung des beweglichen Objekts, Trägers und/oder der Nutzlast beziehen. Solche Informationen von einer Nutzlast können Daten, die von der Nutzlast aufgenommen werden, oder einen erfassten Zustand der Nutzlast aufweisen. Die bereitgestellten Steuerungsdaten, die von dem Endgerät 1412 gesendet werden, können konfiguriert sein, einen Zustand eines oder mehrerer des beweglichen Objekts, 1402, Trägers 1402 oder der Nutzlast 1404 zu steuern. Alternativ oder in Kombination können der Träger 1402 und die Nutzlast 1404 jeweils auch ein Kommunikationsmodul aufweisen, das konfiguriert ist, mit Endgerät 1412 zu kommunizieren, sodass das Endgerät mit jedem des beweglichen Objekts 1400, Trägers 1402 und der Nutzlast 1404 unabhängig kommunizieren kann.In some embodiments, the terminal can 1412 Control data to one or more of the moving object 1400 , Carrier 1402 and the payload 104 provide and information from one or more of the moving object 1400 , Carrier 1402 and the payload 1404 receive (e.g. position and / or movement information of the moving object, carrier or payload; data that is captured by the payload, such as image data that is recorded by a payload camera). In some examples, control data from the terminal device may include instructions for relative positions, movements, actuations or controls of the moving object, carrier and / or the payload. For example, the control data can be used in a modification of the location and / or the orientation of the moving object (e.g. via control of the drive mechanisms 1406 ) or a movement of the payload in relation to the moving object (e.g. via control of the carrier 1402 ) result. The control data from the terminal can result in control of the payload, such as controlling the operation of a camera or other image recording device (e.g. recording still or moving images, enlarging or reducing, switching on or off, switching imaging modes, changing image resolution, changing focus, Changing the depth of field, changing the exposure time, changing the viewing angle or field of view). In some examples, communications from the moving object, carrier, and / or payload may include information from one or more sensors (eg, from the sensing system 1408 or from the payload 1404 ). The communications may include captured information from one or more different types of sensors (e.g., GPS sensors, motion sensors, inertial sensors, proximity sensors, or image sensors). Such information can relate to the position (e.g. location, orientation), movement or acceleration of the moving object, carrier and / or the payload. Such information from a payload can include data received by the payload or a detected state of the payload. The control data provided and received by the terminal 1412 can be configured to indicate a state of one or more of the moving objects, 1402 , Carrier 1402 or the payload 1404 to control. Alternatively or in combination, the carrier 1402 and the payload 1404 each also have a communication module that is configured with a terminal 1412 to communicate so that the terminal device with each of the moving objects 1400 , Carrier 1402 and the payload 1404 can communicate independently.

In manchen Ausführungsformen kann das bewegliche Objekt 1400 konfiguriert sein, mit einer anderen fernen Vorrichtung zusätzlich zu dem Endgerät 1412 oder anstelle des Endgeräts 1412 zu kommunizieren. Das Endgerät 1412 kann auch konfiguriert sein, mit einer anderen fernen Vorrichtung wie auch dem beweglichen Objekt 1400 zu kommunizieren. Zum Beispiel können das bewegliche Objekt 1400 und/oder Endgerät 1412 mit einem anderen beweglichen Objekt oder einem Träger oder einer Nutzlast eines anderen beweglichen Objekts kommunizieren. Wenn gewünscht, kann die ferne Vorrichtung ein zweites Endgerät oder eine andere Rechenvorrichtung sein (z.B. Computer, Laptop, Tablet, Smartphone oder andere Mobilvorrichtung). Die ferne Vorrichtung kann konfiguriert sein, Daten an das bewegliche Objekt 1400 zu senden, Daten von dem beweglichen Objekt 1400 zu empfangen, Daten an das Endgerät 1412 zu senden und/oder Daten von dem Endgerät 1412 zu empfangen. Optional kann die ferne Vorrichtung mit dem Internet oder einem anderen Telekommunikationsnetzwerk verbunden sein, sodass Daten, die von dem beweglichen Objekt 1400 und/oder Endgerät 1412 empfangen werden, auf eine Webseite oder einen Server hochgeladen werden können.In some embodiments, the moving object can 1400 be configured with another remote device in addition to the terminal 1412 or instead of the terminal 1412 to communicate. The end device 1412 can also be configured with another remote device as well as the moving object 1400 to communicate. For example, the moving object can 1400 and / or terminal 1412 communicate with another moving object or a carrier or payload of another moving object. If desired, the remote device can be a second terminal or other computing device (e.g., computer, laptop, tablet, smartphone, or other mobile device). The remote device can be configured to send data to the moving object 1400 to send data from the moving object 1400 to receive data to the terminal 1412 to send and / or data from the terminal 1412 to recieve. Optionally, the remote device can be connected to the Internet or other telecommunications network so that data received from the moving object 1400 and / or terminal 1412 can be received, uploaded to a website or server.

22 ist eine schematische Veranschaulichung mittels eines Blockdiagramms eines Systems 1500 zum Steuern eines beweglichen Objekts in Übereinstimmung mit Ausführungsformen. Das System 1500 kann in Kombination mit einer beliebigen geeigneten Ausführungsform der hierin offenbarten Systeme, Vorrichtungen und Verfahren verwendet werden. Das System 1500 kann ein Erfassungsmodul 1502, eine Verarbeitungseinheit 1504, ein nichttransitorisches computerlesbares Medium 1506, ein Steuerungsmodul 1508 und ein Kommunikationsmodul 1510 aufweisen. 22nd Figure 3 is a schematic illustration, by means of a block diagram, of a system 1500 for controlling a moving object in accordance with embodiments. The system 1500 can be used in combination with any suitable embodiment of the systems, devices, and methods disclosed herein. The system 1500 can be an acquisition module 1502 , a processing unit 1504 , a non-transitory computer readable medium 1506 , a control module 1508 and a communication module 1510 exhibit.

Das Erfassungsmodul 1502 kann unterschiedliche Typen von Sensoren nutzen, die Informationen bezüglich der beweglichen Objekte auf unterschiedliche Weise sammeln. Unterschiedliche Typen von Sensoren können unterschiedliche Typen von Signalen oder Signale unterschiedlicher Quellen erfassen. Zum Beispiel können die Sensoren Trägheitssensoren, GPS-Sensoren, Näherungssensoren (z.B. Lidar) oder Sicht-/Bildsensoren (z.B. eine Kamera) aufweisen. Das Erfassungsmodul 1502 kann betriebsfähig mit einer Verarbeitungseinheit 1504 gekoppelt sein, die eine Vielzahl von Prozessoren aufweist. In manchen Ausführungsformen kann das Erfassungsmodul betriebsfähig mit einem Sendemodul 1512 (z.B. ein WiFi-Bildsendemodul) gekoppelt sein, das konfiguriert ist, Erfassungsdaten direkt an eine geeignete externe Vorrichtung oder ein System zu senden. Zum Beispiel kann das Sendemodul 1512 verwendet werden, um Bilder, die von einer Kamera des Erfassungsmoduls 1502 aufgenommen werden, an ein fernes Endgerät zu senden.The acquisition module 1502 can use different types of sensors that collect information related to the moving objects in different ways. Different types of sensors can detect different types of signals or signals from different sources. For example, the sensors can have inertial sensors, GPS sensors, proximity sensors (eg lidar) or vision / image sensors (eg a camera). The acquisition module 1502 can be operational with a processing unit 1504 be coupled, which has a plurality of processors. In some embodiments, the acquisition module can be operable with a transmit module 1512 (e.g. a WiFi image transmission module) configured to send capture data directly to an appropriate external device or system. For example, the transmitter module 1512 used to capture images captured by a camera of the capture module 1502 be recorded to send to a remote terminal.

Die Verarbeitungseinheit 1504 kann einen oder mehrere Prozessoren aufweisen, wie einen programmierbaren Prozessor (z.B. eine zentrale Recheneinheit (CPU)). Die Verarbeitungseinheit 1504 kann betriebsfähig mit einem nichttransitorischen computerlesbaren Medium 1506 gekoppelt sein. Das nichttransitorische computerlesbare Medium 1506 kann Logik, Code und/oder Programmanweisungen speichern, die von der Verarbeitungseinheit 1504 ausführbar sind, um einen oder mehrere Schritte durchzuführen. Das nichttransitorische computerlesbare Medium kann eine oder mehrere Speichereinheiten (z.B. entfernbare Medien oder externen Speicher, wie eine SD-Karte oder Direktzugriffspeicher (RAM)) aufweisen. In manchen Ausführungsformen können Daten von dem Erfassungsmodul 1502 direkt an die Speichereinheiten des nichttransitorischen computerlesbaren Mediums 1506 übertragen und darin gespeichert werden. Die Speichereinheiten des nichttransitorischen computerlesbaren Mediums 1506 können Logik, Code und/oder Programmanweisungen speichern, die von der Verarbeitungseinheit 1504 ausführbar sind, um eine beliebige geeignete Ausführungsform der hierin beschriebenen Verfahren durchzuführen. Zum Beispiel kann die Verarbeitungseinheit 1504 konfiguriert sein, Anweisungen auszuführen, die einen oder mehrere Prozessoren der Verarbeitungseinheit 1504 veranlassen, Erfassungsdaten zu analysieren, die von dem Erfassungsmodul erzeugt werden. Die Speichereinheiten können Erfassungsdaten von dem Erfassungsmodul speichern, die von der Verarbeitungseinheit 1504 zu verarbeiten sind. In manchen Ausführungsformen können die Speichereinheiten des nichttransitorischen computerlesbaren Mediums 1506 verwendet werden, um die Verarbeitungsergebnisse zu speichern, die von der Verarbeitungseinheit 1504 erzeugt werden.The processing unit 1504 may have one or more processors, such as a programmable processor (eg a central processing unit (CPU)). The processing unit 1504 may be operational on a non-transitory computer readable medium 1506 be coupled. The non-transitory computer-readable medium 1506 can store logic, code and / or program instructions issued by the processing unit 1504 are executable to perform one or more steps. The non-transitory computer readable medium may include one or more storage devices (e.g., removable media or external storage such as an SD card or random access memory (RAM)). In some embodiments, data can be obtained from the acquisition module 1502 directly to the storage units of the non-transitory computer-readable medium 1506 transferred and stored in it. The storage units of the non-transitory computer-readable medium 1506 can store logic, code and / or program instructions issued by the processing unit 1504 are operable to perform any suitable embodiment of the methods described herein. For example, the processing unit 1504 be configured to execute instructions that one or more processors of the processing unit 1504 cause to analyze acquisition data generated by the acquisition module. The storage units can store acquisition data from the acquisition module, which from the processing unit 1504 are to be processed. In some embodiments, the storage units of the non-transitory computer readable medium 1506 used to store the processing results obtained by the processing unit 1504 be generated.

In manchen Ausführungsformen kann die Verarbeitungseinheit 1504 betriebsfähig mit einem Steuerungsmodul 1508 gekoppelt sein, das konfiguriert ist, einen Zustand des beweglichen Objekts zu steuern. Zum Beispiel kann das Steuerungsmodul 1508 konfiguriert sein, die Antriebsmechanismen des beweglichen Objekts zu steuern, um die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung des beweglichen Objekts in Bezug auf sechs Freiheitsgrade anzupassen. Alternativ oder in Kombination kann das Steuerungsmodul 1508 einen oder mehrere eines Zustands eines Trägers, einer Nutzlast oder eines Erfassungsmoduls steuern.In some embodiments, the processing unit 1504 operational with a control module 1508 be coupled configured to control a state of the moving object. For example, the control module 1508 be configured to control the drive mechanisms of the moving object in order to adjust the spatial arrangement, speed and / or acceleration of the moving object with respect to six degrees of freedom. Alternatively or in combination, the control module 1508 control one or more of a state of a carrier, payload, or acquisition module.

Die Verarbeitungseinheit 1504 kann betriebsfähig mit einem Kommunikationsmodul 1510 gekoppelt sein, das konfiguriert ist, Daten an eine oder mehrere externe Vorrichtungen (z.B. ein Endgerät, eine Anzeigevorrichtung oder eine andere ferne Steuerung) zu senden und/oder davon zu empfangen. Beliebige geeignete Kommunikationsmittel können verwendet werden, wie kabelgebundene Kommunikation oder drahtlose Kommunikation. Zum Beispiel kann das Kommunikationsmodul 1510 eines oder mehrere von Lokalberreichsnetzwerken (LAN), Weitraumnetzwerken (WAN), Infrarot-, Funk-, WiFi-, Punkt-zu-Punkt- (P2P) Netzwerken, Telekommunikationsnetzwerken, Cloud-Kommunikation und dergleichen nutzen. Optional können Relaisstationen wie Masten, Satelliten oder Mobilstationen verwendet werden. Drahtlose Kommunikationen können Nähe-abhängig oder Nähe-unabhängig sein. In manchen Ausführungsformen kann eine Sichtlinie zur Kommunikation benötigt werden oder auch nicht. Das Kommunikationsmodul 1510 kann eines oder mehreres von Erfassungsdaten von dem Erfassungsmodul 1502, Verarbeitungsergebnissen, die von der Verarbeitungseinheit 1504 erzeugt werden, vorgegebenen Steuerungsdaten, Benutzerbefehlen von einem Endgerät oder einer Fernsteuerung, und dergleichen senden und/oder empfangen.The processing unit 1504 can be operational with a communication module 1510 be coupled that is configured to send and / or receive data to and / or from one or more external devices (e.g., a terminal, display device, or other remote controller). Any suitable means of communication can be used, such as wired communication or wireless communication. For example, the communication module 1510 use one or more of local area networks (LAN), wide area networks (WAN), infrared, radio, WiFi, point-to-point (P2P) networks, telecommunication networks, cloud communication and the like. Optional relay stations such as masts, satellites or mobile stations can be used. Wireless communications can be proximity-dependent or proximity-independent. In some embodiments, line of sight may or may not be required for communication. The communication module 1510 can be one or more of acquisition data from the acquisition module 1502 , Processing results received from the processing unit 1504 are generated, send and / or receive predetermined control data, user commands from a terminal or a remote control, and the like.

Die Komponenten des Systems 1500 können in einer beliebigen geeigneten Konfiguration angeordnet sein. Zum Beispiel können eine oder mehrere der Komponenten des Systems 1500 an dem beweglichen Objekt, Träger, der Nutzlast, dem Endgerät, dem Erfassungssystem oder einer zusätzlichen externen Vorrichtung in Kommunikation mit einem oder mehreren der vorigen liegen. Zusätzlich, obwohl 22 eine einzelne Verarbeitungseinheit 1504 und ein einzelnes nichttransitorisches computerlesbares Medium 1506 abbildet, wird ein Fachkundiger begrüßen, dass dies nicht beabsichtigt ist, begrenzend zu sein, und dass das System 1500 eine Vielzahl von Verarbeitungseinheiten und/oder nichttransitorischen computerlesbaren Medien aufweisen kann. In manchen Ausführungsformen können eine oder mehrere der Vielzahl von Verarbeitungseinheiten und/oder nichttransitorischen computerlesbaren Medien an unterschiedlichen Standorten liegen, wie an dem beweglichen Objekt, dem Träger, der Nutzlast, dem Endgerät, dem Erfassungsmodul, zusätzlichen externer Vorrichtung in Kommunikation mit einem oder mehreren der Vorigen, oder geeigneten Kombinationen davon, sodass ein beliebiger geeigneter Aspekt der Verarbeitung und/oder Speicherfunktionen, die von dem System 1500 durchgeführt werden, bei einem oder mehreren der zuvor erwähnten Standorte stattfinden kann.The components of the system 1500 can be arranged in any suitable configuration. For example, one or more of the components of the system 1500 on the moving object, carrier, payload, terminal, detection system or an additional external device in communication with one or more of the previous ones. Additionally, though 22nd a single processing unit 1504 and a single non-transitory computer readable medium 1506 one skilled in the art will appreciate that this is not intended to be limiting and that the system 1500 may include a variety of processing units and / or non-transitory computer readable media. In some embodiments, one or more of the plurality of processing units and / or non-transitory computer-readable media may be in different locations, such as the moving object, the carrier, the payload, the terminal, the acquisition module, additional external devices in communication with one or more of the Previous, or suitable combinations thereof, so that any suitable aspect of the processing and / or storage functions performed by the system 1500 can be carried out at one or more of the aforementioned locations.

Wie hierin verwendet, umschließen A und/oder B eines oder mehreres von A oder B und Kombinationen davon, wie A und B.As used herein, A and / or B encompass one or more of A or B and combinations thereof, such as A and B.

Di spezifischen Abmessungen einer beliebigen der Einrichtungen, Vorrichtungen, Systeme und Komponenten davon der vorliegenden Offenbarung können bereits abhängig von der angedachten Anwendung variiert werden, wie der Fachkundige in Anbetracht der Offenbarung hierin erkennen wird. Außerdem wird verstanden, dass die hierin beschriebenen Ausführungsformen nur zu veranschaulichenden Zwecken sind, und dass verschiedene Modifikationen oder Änderungen angesichts dessen Fachkundigen vorgeschlagen werden können und in dem Wesen und Geltungsbereich dieser Anmeldung und dem Umfang der angehängten Ansprüche umfasst sind. Zahlreiche unterschiedliche Kombinationen von hierin beschriebenen Ausführungsformen sind möglich, und solche Kombinationen werden als Teil der vorliegenden Offenbarung betrachtet. Zusätzlich können alle Merkmale, die in Verbindung mit einer beliebigen Ausführungsform hierin besprochen sind, leicht zur Verwendung in anderen Ausführungsformen hierin angepasst werden.The specific dimensions of any of the devices, devices, systems and components thereof of the present disclosure can already be varied depending on the envisaged application, as those skilled in the art will recognize in view of the disclosure herein. It is also understood that the embodiments described herein are for illustrative purposes only, and that various modifications or changes may be suggested to those skilled in the art and are encompassed within the spirit and scope of this application and the scope of the appended claims. Numerous different combinations of the embodiments described herein are possible and such combinations are considered part of the present disclosure. In addition, all of the features discussed in connection with any embodiment herein can be readily adapted for use in other embodiments herein.

Während bevorzugte Ausführungsformen der vorliegenden Erfindung hierin gezeigt und beschrieben wurden, wird den Fachkundigen ersichtlich, dass solche Ausführungsformen nur beispielhaft bereitgestellt werden. Zahlreiche Variationen, Änderungen und Ersetzungen werden nun Fachkundigen ersichtlich werden, ohne von der Erfindung abzuweichen. Es sollte verstanden werden, dass verschiedene Alternativen zu den hierin beschriebenen Ausführungsformen der Erfindung beim Umsetzen der Erfindung eingesetzt werden können. Es wird angedacht, dass die folgenden Ansprüche den Umfang der Erfindung definieren und dass Verfahren und Strukturen innerhalb des Umfangs dieser Ansprüche und deren Äquivalente davon abgedeckt werden.While preferred embodiments of the present invention have been shown and described herein, those skilled in the art will recognize that such embodiments are provided by way of example only. Numerous variations, changes, and substitutions will now become apparent to those skilled in the art without departing from the invention. It should be understood that various alternatives to the embodiments of the invention described herein can be used in practicing the invention. It is contemplated that the following claims define the scope of the invention and that methods and structures within the scope of these claims and their equivalents be covered therein.

Claims (16)

System zum Kalibrieren von Abbildungsvorrichtungen, wobei das System umfasst: erste und zweite Abbildungsvorrichtungen, die von einem unbemannten Luftfahrzeug getragen werden, wobei jede Abbildungsvorrichtung konfiguriert ist, einen Bilddatensatz aufzunehmen, der eine Vielzahl von Bildern (350, 352) eines Kalibrierungsziels (300, 500) aufweist, wobei das Kalibrierungsziel (300, 500) eine Vielzahl von Merkmalen (302, 304) in einem sich wiederholenden Muster angeordnet und eine Vielzahl von Referenzmarkierungen (502a, 502b, 502c) aufweist, wobei die Referenzmarkierungen (502a, 502b, 502c) in jedem Bild der Vielzahl von Bildern (350, 352) jeweils eindeutig identifizierbar sind, wobei die Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden, wobei die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern bilden und wobei die Vielzahl von Bildern (350, 352) mindestens ein Bild umfasst, das weniger als alle der Vielzahl von Merkmalen (302, 304) aufnimmt; und einen oder mehrere Prozessoren, die gemeinsam oder individuell konfiguriert sind zum: Empfangen der Vielzahl von Bildern (350, 352) von jeder der ersten und zweiten Abbildungsvorrichtung; Ermitteln einer räumlichen Beziehung zwischen den Referenzmarkierungen (502a, 502b, 502c) in jedem Bild der Vielzahl von Bildern (350, 352) und den Referenzmarkierungen (502a, 502b, 502c) auf dem Kalibrierungsziel (300, 500), wobei der Schritt zum Ermitteln der räumlichen Beziehung umfasst, eine erste Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel zu identifizieren, wobei Identifikation entsprechender Referenzmarkierungen basierend auf dem Positionieren der Referenzmarkierungen relativ zu Kanten oder Winkeln des Polygons durchgeführt wird; Formulieren, basierend auf der räumlichen Beziehung, einer zweiten Übereinstimmung zwischen Bildkoordinaten von Merkmalen in jedem Bild der Vielzahl von Bildern (350, 352) und globalen Koordinaten für entsprechende Merkmale auf dem Kalibrierungsziel (300, 500), basierend auf den vorgegebenen globalen Koordinaten der Referenzmarkierungen (502a, 502b, 502c); und Ermitteln von Kalibrierungsparametern für die erste und zweite Abbildungsvorrichtung, basierend auf der zweiten Übereinstimmung.A system for calibrating imaging devices, the system comprising: first and second imaging devices carried by an unmanned aerial vehicle, each imaging device configured to capture an image data set comprising a plurality of images (350, 352) of a calibration target (300, 500), the calibration target (300, 500) a plurality of features (302, 304) arranged in a repeating pattern and having a plurality of reference marks (502a, 502b, 502c), the reference marks (502a, 502b, 502c) in each image of the plurality of images (350, 352 ) are each uniquely identifiable, wherein the reference markings form vertices of an irregular polygon on the calibration target, wherein the one or more reference markings form vertices of an irregular polygon in the plurality of images and wherein the plurality of images (350, 352) comprises at least one image, that receives less than all of the plurality of features (302, 304); and one or more processors that are jointly or individually configured to: Receiving the plurality of images (350, 352) from each of the first and second imaging devices; Determining a spatial relationship between the reference marks (502a, 502b, 502c) in each image of the plurality of images (350, 352) and the reference marks (502a, 502b, 502c) on the calibration target (300, 500), wherein the step of determining the spatial relationship comprises identifying a first correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the calibration target, identifying corresponding reference marks based on the positioning of the reference marks relative to edges or Angling the polygon is performed; Formulating, based on the spatial relationship, a second correspondence between image coordinates of features in each image of the plurality of images (350, 352) and global coordinates for corresponding features on the calibration target (300, 500), based on the predetermined global coordinates of the reference marks (502a, 502b, 502c); and Determine calibration parameters for the first and second imaging device based on the second match. System nach Anspruch 1, wobei das System weiter umfasst: Verarbeiten eines oder mehrerer Bilder, die von jeder der ersten und zweiten Abbildungsvorrichtung erhalten werden, basierend auf den Kalibrierungsparametern, um eine 3D-Darstellung einer Umgebung des unbemannten Luftfahrzeugs zu erstellen.System according to Claim 1 wherein the system further comprises: processing one or more images obtained from each of the first and second imaging devices based on the calibration parameters to create a 3D representation of an environment of the unmanned aerial vehicle. System nach Anspruch 1, wobei jedes Bild der Vielzahl von Bildern (350, 352) die Referenzmarkierungen (502a, 502b, 502c) und mindestens eine Teilmenge der Vielzahl von Merkmalen (302, 304) auf dem Kalibrierungsziel (300, 500) aufnimmt.System according to Claim 1 wherein each image of the plurality of images (350, 352) captures the reference marks (502a, 502b, 502c) and at least a subset of the plurality of features (302, 304) on the calibration target (300, 500). System nach Anspruch 1, wobei die Vielzahl von Bildern (350, 352) von jeder der ersten als auch zweiten Abbildungsvorrichtung bei unterschiedlichen Positionen und Ausrichtungen relativ zu dem Kalibrierungsziel (300, 500) aufgenommen wird.System according to Claim 1 wherein the plurality of images (350, 352) are captured by each of the first and second imaging devices at different positions and orientations relative to the calibration target (300, 500). System nach Anspruch 1, wobei das Kalibrierungsziel (300, 500) ein Schachbrett ist, das eine Vielzahl von Quadraten aufweist, und die Vielzahl von Merkmalen (302, 304) Eckpunkte der Vielzahl von Quadraten aufweist.System according to Claim 1 wherein the calibration target (300, 500) is a chessboard having a plurality of squares, and the plurality of features (302, 304) includes vertices of the plurality of squares. System nach Anspruch 5, wobei die Vielzahl von Merkmalen (302, 304) vier Außenecken des Schachbretts aufweist und das mindestens eine Bild mindestens eine der vier Außenecken auslässt.System according to Claim 5 wherein the plurality of features (302, 304) includes four outside corners of the chessboard and the at least one image omits at least one of the four outside corners. System nach Anspruch 1, wobei mindestens manche der Winkel des unregelmäßigen Polygons von anderen Winkeln unterschiedliche Größen aufweisen, oder mindestens manche der Kanten des unregelmäßigen Polygons von anderen Kanten unterschiedliche Längen aufweisen.System according to Claim 1 wherein at least some of the angles of the irregular polygon have different sizes from other angles, or at least some of the edges of the irregular polygon have different lengths from other edges. System nach Anspruch 1, wobei die Referenzmarkierungen (502a, 502b, 502c) drei Referenzmarkierungen (502a, 502b, 502c) aufweisen, die Scheitelpunkte eines gleichschenkeligen oder ungleichseitigen Dreiecks bilden.System according to Claim 1 wherein the reference marks (502a, 502b, 502c) have three reference marks (502a, 502b, 502c) which form the vertices of an isosceles or unequal-sided triangle. System nach Anspruch 1, wobei der eine oder die mehreren Prozessoren weiter gemeinsam oder individuell konfiguriert sind zum: Ermitteln, mit Hilfe des einen oder der mehreren Prozessoren, von Übereinstimmungen zwischen Bildkoordinaten von Merkmalen über die Bilddatensätze, um Position und/oder Ausrichtung der ersten und zweiten Abbildungsvorrichtung relativ zueinander zu schätzen.System according to Claim 1 , wherein the one or more processors are further configured jointly or individually to: determine, with the aid of the one or more processors, correspondences between image coordinates of features via the image data sets, the position and / or orientation of the first and second imaging devices relative to one another appreciate. System nach Anspruch 1, wobei die Vielzahl von Merkmalen (302, 304) in dem sich wiederholenden Muster über einer Ebene angeordnet sind und wobei die Referenzmarkierungen (502a, 502b, 502c) eine Form bilden, die innerhalb der Ebene rotationsasymmetrisch ist.System according to Claim 1 wherein the plurality of features (302, 304) are arranged in the repeating pattern above a plane, and wherein the reference marks (502a, 502b, 502c) form a shape that is rotationally asymmetrical within the plane. System nach Anspruch 1, wobei die erste Abbildungsvorrichtung und die zweite Abbildungsvorrichtung die Bilder im Wesentlichen zur selben Zeit aufnehmen.System according to Claim 1 wherein the first imaging device and the second imaging device capture the images at substantially the same time. System nach Anspruch 1, wobei der Formulierungsschritt umfasst, Merkmale zu identifizieren, die sowohl in der Vielzahl von Bildern (350, 352), die von der ersten Kamera erhalten werden, als auch der Vielzahl von Bildern (350, 352), die von der zweiten Kamera erhalten werden, vorhanden sind.System according to Claim 1 wherein the formulating step comprises identifying features included in both the plurality of images (350, 352) obtained from the first camera and the plurality of images (350, 352) obtained from the second camera , available. System nach Anspruch 1, wobei die Kalibrierungsparameter mindestens eines einer Brennweite, einer Position des Bildmittelpunkts, Pixelgröße oder optischen Verzerrung für jede der ersten und zweiten Abbildungsvorrichtung aufweisen oder wobei die Kalibrierungsparameter eine Position und eine Ausrichtung jeder der ersten und zweiten Abbildungsvorrichtung relativ zu dem Kalibrierungsziel aufweisen.System according to Claim 1 wherein the calibration parameters include at least one of a focal length, position of the image center point, pixel size, or optical distortion for each of the first and second imaging devices, or wherein the calibration parameters include a position and orientation of each of the first and second imaging devices relative to the calibration target. System nach Anspruch 1, wobei bevorzugt jede Referenzmarkierung der Vielzahl von Referenzmarkierungen eine unterschiedliche Größe, Form und/oder Farbe hat.System according to Claim 1 , wherein each reference mark of the plurality of reference markings preferably has a different size, shape and / or color. System nach Anspruch 1, wobei jede Referenzmarkierung der Vielzahl von Referenzmarkierungen einzigartige Charakteristika oder Kennzeichnungen aufweist, die der Referenzmarkierung ermöglichen, visuell von den anderen Referenzmarkierungen der Vielzahl von Referenzmarkierungen unterschieden zu werden, wobei bevorzugt jede Referenzmarkierung der Vielzahl von Referenzmarkierungen eine unterschiedliche Größe, Form und/oder Farbe hat.System according to Claim 1 , wherein each reference mark of the plurality of reference marks has unique characteristics or identifications that enable the reference mark to be visually differentiated from the other reference marks of the plurality of reference marks, wherein preferably each reference mark of the plurality of reference marks has a different size, shape and / or color . Verwendung eines Systems nach einem der vorstehenden Ansprüche zum Kalibrieren von Abbildungsvorrichtungen, wobei die Verwendung des Systems umfasst: Verwenden des einen oder der mehreren Prozessoren des Systems, um von jeder von erster und zweiter Abbildungsvorrichtung, die von einem unbemannten Luftfahrzeug getragen werden, einen Bilddatensatz zu empfangen, der eine Vielzahl von Bildern (350, 352) eines Kalibrierungsziels (300, 500) aufweist, wobei das Kalibrierungsziel (300, 500) eine Vielzahl von Merkmalen (302, 304) in einem sich wiederholenden Muster angeordnet und eine Vielzahl von Referenzmarkierungen (502a, 502b, 502c) aufweist, wobei die Referenzmarkierungen (502a, 502b, 502c) jeweils individuell in jedem Bild der Vielzahl von Bildern (350, 352) identifizierbar sind, und wobei die Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons auf dem Kalibrierungsziel bilden, wobei die eine oder mehreren Referenzmarkierungen Scheitelpunkte eines unregelmäßigen Polygons in der Vielzahl von Bildern bilden, wobei die Vielzahl von Bildern (350, 352) mindestens ein Bild aufweist, das weniger als alle der Vielzahl von Merkmalen (302, 304) aufnimmt; Verwenden des einen oder der mehreren Prozessoren des Systems, um eine räumliche Beziehung zwischen den Referenzmarkierungen (502a, 502b, 502c) in jedem Bild der Vielzahl von Bildern (350, 352) und den Referenzmarkierungen (502a, 502b, 502c) auf dem Kalibrierungsziel (300, 500) zu ermitteln, wobei der Schritt zum Ermitteln der räumlichen Beziehung umfasst, eine erste Übereinstimmung zwischen den Scheitelpunkten des unregelmäßigen Polygons in der Vielzahl von Bildern und den Scheitelpunkten des unregelmäßigen Polygons auf dem Kalibrierungsziel zu identifizieren, wobei Identifikation entsprechender Referenzmarkierungen basierend auf der Positionierung der Referenzmarkierungen relativ zu den Kanten oder Winkeln des Polygons durchgeführt wird; Verwenden des einen oder der mehreren Prozessoren des Systems, um basierend auf der räumlichen Beziehung eine zweite Übereinstimmung zwischen Bildkoordinaten von Merkmalen in jedem Bild der Vielzahl von Bildern (350, 352) und globalen Koordinaten für entsprechende Merkmale auf dem Kalibrierungsziel (300, 500) zu formulieren; und Verwenden des einen oder der mehreren Prozessoren des Systems, um basierend auf der zweiten Übereinstimmung Kalibrierungsparameter für die erste und zweite Abbildungsvorrichtung zu ermitteln.Use of a system according to any preceding claim for calibrating imaging devices, using the system comprising: using the one or more processors of the system to apply an image dataset from each of first and second imaging devices carried by an unmanned aerial vehicle which has a plurality of images (350, 352) of a calibration target (300, 500), wherein the calibration target (300, 500) has a plurality of features (302, 304) arranged in a repeating pattern and a plurality of reference marks ( 502a, 502b, 502c), wherein the reference marks (502a, 502b, 502c) are each individually identifiable in each image of the plurality of images (350, 352), and wherein the reference marks form vertices of an irregular polygon on the calibration target, the one or more reference marks in vertices of an irregular polygon forming the plurality of images, the plurality of images (350, 352) including at least one image that captures less than all of the plurality of features (302, 304); Using the one or more processors of the system to establish a spatial relationship between the reference marks (502a, 502b, 502c) in each image of the plurality of images (350, 352) and the reference marks (502a, 502b, 502c) on the calibration target ( 300, 500), wherein the step of determining the spatial relationship comprises identifying a first correspondence between the vertices of the irregular polygon in the plurality of images and the vertices of the irregular polygon on the calibration target, identifying corresponding reference marks based on the Positioning of the reference marks relative to the edges or angles of the polygon is performed; Using the one or more processors of the system to determine, based on the spatial relationship, a second correspondence between image coordinates of features in each image of the plurality of Formulate images (350, 352) and global coordinates for corresponding features on the calibration target (300, 500); and using the one or more processors of the system to determine calibration parameters for the first and second imaging devices based on the second match.
DE202014011514.1U 2014-11-04 2014-11-04 Camera calibration Expired - Lifetime DE202014011514U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202014011514.1U DE202014011514U1 (en) 2014-11-04 2014-11-04 Camera calibration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202014011514.1U DE202014011514U1 (en) 2014-11-04 2014-11-04 Camera calibration

Publications (1)

Publication Number Publication Date
DE202014011514U1 true DE202014011514U1 (en) 2021-11-05

Family

ID=78719051

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014011514.1U Expired - Lifetime DE202014011514U1 (en) 2014-11-04 2014-11-04 Camera calibration

Country Status (1)

Country Link
DE (1) DE202014011514U1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114459423A (en) * 2022-01-24 2022-05-10 长江大学 Method for monocular measurement and calculation of distance of sailing ship

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114459423A (en) * 2022-01-24 2022-05-10 长江大学 Method for monocular measurement and calculation of distance of sailing ship

Similar Documents

Publication Publication Date Title
US10475209B2 (en) Camera calibration
US11526998B2 (en) Methods and system for infrared tracking
CN111527463B (en) Method and system for multi-target tracking
US10599149B2 (en) Salient feature based vehicle positioning
US10802509B2 (en) Selective processing of sensor data
US11644839B2 (en) Systems and methods for generating a real-time map using a movable object
EP3420428B1 (en) Systems and methods for visual target tracking
EP3803273A1 (en) Techniques for real-time mapping in a movable object environment
WO2020215188A1 (en) Method for generating flight route, control device and unmanned aerial vehicle system
WO2017206179A1 (en) Simple multi-sensor calibration
DE102015201951A1 (en) System and method for mapping, locating and correcting a spatial position
DE112017001322T5 (en) Signal processing apparatus and signal processing method
EP3430368A1 (en) Aircraft for scanning an object, and system for damage analysis for the object
CN106444837A (en) Obstacle avoiding method and obstacle avoiding system for unmanned aerial vehicle
US20210009270A1 (en) Methods and system for composing and capturing images
DE102020115499A1 (en) VEHICLE ECCENTRICITY MAPPING
JP6473188B2 (en) Method, apparatus and program for generating depth map
DE102020100230A1 (en) RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS
DE202014011514U1 (en) Camera calibration
DE102022128415A1 (en) CAMERA LOCALIZATION
DE202014011010U1 (en) Target tracking systems
DE102020127797B4 (en) Sensor method for optically detecting objects of use to detect a safety distance between objects
DE102023128808A1 (en) Systems and methods for calibrating and validating non-overlapping distance sensors of an autonomous vehicle
DE102023128810A1 (en) Systems and methods for calibrating and validating non-overlapping distance sensors of an autonomous vehicle
DE102023128809A1 (en) Systems and methods for calibrating and validating non-overlapping distance sensors of an autonomous vehicle

Legal Events

Date Code Title Description
R151 Utility model maintained after payment of second maintenance fee after six years
R207 Utility model specification
R158 Lapse of ip right after 8 years