[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102004061841B4 - Markerless tracking system for augmented reality applications - Google Patents

Markerless tracking system for augmented reality applications Download PDF

Info

Publication number
DE102004061841B4
DE102004061841B4 DE102004061841A DE102004061841A DE102004061841B4 DE 102004061841 B4 DE102004061841 B4 DE 102004061841B4 DE 102004061841 A DE102004061841 A DE 102004061841A DE 102004061841 A DE102004061841 A DE 102004061841A DE 102004061841 B4 DE102004061841 B4 DE 102004061841B4
Authority
DE
Germany
Prior art keywords
data model
initialization
initialization object
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102004061841A
Other languages
German (de)
Other versions
DE102004061841A1 (en
Inventor
Thomas Dr. Alt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Priority to DE102004061841A priority Critical patent/DE102004061841B4/en
Publication of DE102004061841A1 publication Critical patent/DE102004061841A1/en
Application granted granted Critical
Publication of DE102004061841B4 publication Critical patent/DE102004061841B4/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zum Initialisieren eines Systems, wobei mit dem System Objekte einer realen Umgebung und virtuelle Information miteinander überlagert werden können,
wobei mit einer Kamera ein Bild aufgenommen wird, welches ein Initialisierungsobjekt beinhaltet, das sich in der realen Umgebung befindet:;
dadurch gekennzeichnet,
dass das aufgenommene Bild und ein Datenmodell des Initialisierungsobjekts einem Anwender gemeinsam dargestellt werden;
dass das aufgenommene Initialisierungsobjekt und das Datenmodell des Initialisierungsobjekts überlagert werden und überlagert dargestellt werden;
dass ein Suchbereich festgelegt wird, der das aufgenommene Initialisierungsobjekt und das Datenmodell des Initialisierungsobjekts, wie überlagert, enthält;
dass der Suchbereich nach mindestens einem Merkmal des Initialisierungsobjekts abgesucht wird; und
dass die Position, Orientierung und/oder Größe des mindestens einen gefundenen Merkmals gespeichert wird.
Method for initializing a system, wherein objects of a real environment and virtual information can be superimposed with the system,
wherein a picture is taken with a camera which includes an initialization object located in the real environment:
characterized,
the captured image and a data model of the initialization object are shared with a user;
that the recorded initialization object and the data model of the initialization object are superimposed and displayed superimposed;
that a search area is set, which contains the recorded initialization object and the data model of the initialization object, as superimposed;
that the search area is searched for at least one feature of the initialization object; and
that the position, orientation and / or size of the at least one found feature is stored.

Figure 00000001
Figure 00000001

Description

Stand der TechnikState of the art

Aus dem Stand der Technik sind sogenannte Augmented Reality Systeme bekannt. Diese erlauben die Überlagerung von computergenerierten, virtuellen Informationen mit Seheindrücken der realen Umgebung. Hierzu werden die Seheindrücke der realen Welt, vorzugsweise mit auf dem Kopf getragenen halbdurchlässigen Datenbrillen, mit virtuellen Informationen gemischt. Die Einblendung der virtuellen Informationen bzw. Objekte kann dabei kontextabhängig, d. h. angepasst und abgeleitet von der jeweilig betrachteten realen Umgebung ausgeführt sein. Als Informationen können grundsätzlich jede Art von Daten wie Texte, Abbildungen etc. verwendet werden. Die reale Umgebung kann mit einer, beispielsweise auf dem Kopf des Anwenders getragenen, Kamera erfasst werden.Out the prior art are so-called augmented reality systems known. These allow the overlay of computer generated, virtual information with visual impressions of the real environment. To this end, the visual impressions of the real world, preferably with semipermeable data glasses worn on the head, with virtual Information mixed. The insertion of the virtual information or objects can be context-dependent, d. H. adapted and derived be executed by the respective considered real environment. When Information can in principle Any type of data such as texts, illustrations etc. can be used. The real environment can be with one, for example, on the head of the User worn, camera captured.

Dokumentierte Anwendungen der Technologie sehen einen Einsatz in der Produktion, im Service und in der Entwicklung komplexer Produkte vor. Auch ist der Einsatz der Technologie aus der Produktion von Flugzeugen bekannt. Nach der Druckschrift DE 198 32 974 A1 und DE 101 28 015 A1 ist der Einsatz von Augmented Reality Technologien in Produktionsumgebungen bekannt.Documented applications of technology envisage use in the production, service and development of complex products. Also, the use of technology from the production of aircraft is known. After the publication DE 198 32 974 A1 and DE 101 28 015 A1 is the use of augmented reality technologies in production environments known.

Zusätzlich sind aus dem Stand der Technik optische Positionserfassungssysteme bekannt, die die Position und oder Orientierung von Objekten in einem Vermessungsraum bestimmen. Diese sogenannten Tracking-Systeme erlauben beispielsweise die Erfassung von bis zu sechs Freiheitsgraden eines Objektes. Zum Einsatz kommen Systeme mit unterschiedlichsten physikalischen Wirkprinzipien. Gängig sind sogenannte optische Tracking-Systeme, die durch verschiedene Verfahren der computergestützten Bildverarbeitung die Position von im Vermessungsraum befindlichen Objekten und/oder die Position der Kamera über die Erkennung der Objekte bestimmen. Da die freie Suche nach Objekten mittels heute verfügbarer Rechenleistung nicht in ausreichender Geschwindigkeit möglich ist, werden vereinfachende Annahmen getroffen.In addition are known from the prior art optical position detection systems, the position and or orientation of objects in a survey room determine. These so-called tracking systems allow, for example, the Capture of up to six degrees of freedom of an object. For use come systems with different physical principles of action. Are common so-called optical tracking systems by different methods the computer-aided Image processing the location of located in the survey room Objects and / or the position of the camera on the detection of the objects determine. Because the free search for objects using currently available computing power is not possible in sufficient speed become simplistic Assumptions made.

Eine Möglichkeit zur Vereinfachung der Komplexität, ist die Ausstattung des Trackingraums mit kontrastreichen, leicht zu erkennenden Markierungen, im Folgenden als Marker bezeichnet. Dieser Ansatz hat allerdings den Nachteil, dass der Trackingraum ausgestattet werden muss und das Tracking nur im ausgestatteten Bereich möglich ist. Optische Trackingverfahren mit dieser Methode werden allgemein als markerbasierte Trackingverfahren bezeichnet.A possibility to simplify the complexity, is the equipment of the tracking room with high-contrast, easy Marks to be recognized, hereinafter referred to as markers. However, this approach has the disadvantage that the tracking room must be equipped and the tracking only in the equipped Range possible is. Optical tracking methods using this method are becoming common referred to as marker-based tracking method.

Eine andere Möglichkeit zur Vereinfachung der Komplexität ist der Einsatz von Modellen, zum Beispiel statistischen Bewegungsmodellen und/oder zusätzlichen Sensoren, zum Beispiel Beschleunigungssensoren, welche den Suchraum der Bildverarbeitungsalgorithmen einschränken. Obwohl dieser Ansatz die Komplexität vereinfacht, ohne dass eine Ausstattung des Raumes nötig ist, kann er nicht bei der Initialisierung behilflich sein. Initialisierung bedeutet in diesem Zusammenhang die Festlegung des inneren Zustands des Systems, so dass der Trackingvorgang erfolgreich und in ausreichend kurzer Zeit durchgeführt werden kann. Das System muss zuerst in einen gültigen Anfangszustand versetzt werden. Dieser Anfangszustand umfasst die ungefähre Position und Orientierung der Realität zur Kamera und vorteilhafterweise Angaben zur aktuellen Bewegung der Kamera.A different possibility to simplify the complexity is the use of models, for example statistical movement models and / or additional Sensors, for example, acceleration sensors, which the search space restrict the image processing algorithms. Although this approach the complexity simplified, without the need for the equipment of the room, he can not help with the initialization. initialization in this context means the determination of the internal state of the system, making the tracking process successful and in sufficient done a short time can be. The system must first be set to a valid initial state. This initial state includes the approximate position and orientation the reality to the camera and advantageously information about the current movement the camera.

Systeme, welche auf spezielle Markierungen (Marker) im Raum nicht angewiesen sind, sind aus folgenden Druckschriften bekannt und werden im Folgenden als markerlose Tracking-Systeme bezeichnet:

  • (Behringer, R.; Park, J.; Sundareswaran, V.: Model-Based Visual Tracking for Outdoor Augmented Reality Applications. In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 277
  • Genc, Y.; Riedel, S.; Souvannavong, F.; Akinlar, C.; Navab, N.: Marker-less Tracking for AR: A Learning-Based Approach, In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 295
  • Kar Wee Chia, Adrian David Cheok, Simon J. D. Prince: Online 6 DOF Augmented Reality Registration from Natural Features. In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 277).
Systems which do not rely on special markers in space are known from the following documents and are referred to below as markerless tracking systems:
  • (Behringer, R .; Park, J .; Sundareswaran, V .: Model-Based Visual Tracking for Outdoor Augmented Reality Applications): International Symposium on Mixed and Augmented Reality (ISMAR'02) Darmstadt 2002, p
  • Genc, Y .; Riedel, S .; Souvannavong, F .; Akinlar, C .; Navab, N .: Marker-less Tracking for AR: A Learning-Based Approach, In: International Symposium on Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, p. 295
  • KarDe Chia, Adrian David Cheok, Simon JD Prince: Online 6 DOF Augmented Reality Registration from Natural Features. In: International Symposium on Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, p. 277).

Eingangsinformation des Systems ist ein zweidimensionales Feld von Rot-, Grün- und Blauintensitäten im Kamerabild. Zusätzlich können Beschleunigungsdaten von zusätzlichen Sensoren eingelesen werden. Ausgangsdaten des Systems sind die Position und Orientierung von einem oder mehreren Objekten relativ zur Kamera. Die Elemente der Realität können dann beispielsweise ein Koordinatensystem für Augmented Reality-Informationen aufspannen. Position und Orientierung können beispielhafterweise durch eine Transformationsmatrix beschrieben werden.input information The system is a two-dimensional array of red, green, and blue intensities in the camera image. additionally can Acceleration data of additional Sensors are read. The output data of the system is the position and orientation of one or more objects relative to the camera. The elements of reality can then, for example, a coordinate system for augmented reality information span. Position and orientation can be exemplified by a transformation matrix will be described.

Zur Bestimmung der Transformationsmatrix sind unterschiedlichste Verfahren bekannt. Manche Verfahren erkennen Features, beispielsweise Kanten oder Ecken, von realen Objekten und gleichen diese mit vorher hinterlegten digitalen Modellen der Realität ab (z. B. CAD-Geometrien, z. B. Flächenmodelle mit Texturinformationen). Andere Verfahren beginnen mit einem sehr einfachen Startmodell zur Initialisierung und fügen nach dem Initialisierungsschritt dem Modell der Realität weitere, aus dem Kamerabild extrahierte, Informationen hinzu.Various methods are known for determining the transformation matrix. Some methods recognize features, such as edges or corners, of real objects and compare them with previously stored digital models of reality (eg, CAD geometries, eg, surface models with texture information). Other methods start with a very simple initialization initialization model After the initialization step, add additional information extracted from the camera image to the model of reality.

Die Bestimmung der Transformationsmatrix läuft nach der Initialisierung in folgenden prinzipiellen Schritten ab:

  • – Einfache oder mehrfache Annahme einer wahrscheinlichen Position und Orientierung vorteilhafterweise mittels eines Bewegungsmodells
  • – Einfache oder mehrfache Projektion des internen Modells in das Videobild
  • – Abgleich der Projektion mit dem Bild der Realität zum Beispiel über das Messen von Punktabständen
  • – Zuordnung von Punkten des Modells zu deren Referenz im Kamerabild
  • – Bestimmung der Transformationsmatrix zur Kamera und vorteilhafterweise Bestimmung einer statistischen Aussage zur Qualität der Transformationsmatrix
The determination of the transformation matrix takes place after the initialization in the following basic steps:
  • Simple or multiple assumption of a probable position and orientation advantageously by means of a movement model
  • - Single or multiple projection of the internal model into the video image
  • - Matching the projection with the image of reality, for example, by measuring point distances
  • - Assignment of points of the model to their reference in the camera image
  • Determination of the transformation matrix to the camera and advantageously determination of a statistical statement on the quality of the transformation matrix

In EP 1 507 235 A1 ist ein Augmented Reality System beschrieben, welches unter Verwendung eines Markers ein Datenmodell der realen Umgebung überlagert. Hierbei ist das gerenderte virtuelle Objekt kein Datenmodell des Markers, sondern ein beliebiges virtuelles Objekt, das lediglich mit Hilfe des Markers an der geeigneten Stelle im Bild platziert wird. Insbesondere wird ein Referenzwert des Markers bestimmt und mit einem entsprechenden detektierten Wert des aufgenommenen Markers verglichen, was wiederum zum Rendering des virtuellen Objekts herangezogen wird. Es wird kein Suchbereich festgelegt, der nach mindestens einem Merkmal des Markers abgesucht wird.In EP 1 507 235 A1 An Augmented Reality System is described, which superimposes a data model of the real environment using a marker. In this case, the rendered virtual object is not a data model of the marker, but any virtual object that is simply placed in the image with the help of the marker. In particular, a reference value of the marker is determined and compared with a corresponding detected value of the recorded marker, which in turn is used to render the virtual object. No search scope is set, which is scanned for at least one characteristic of the marker.

In EP 1 369 769 A2 wird ein Verfahren zur Bestimmung einer Registrierungsgenauigkeit eines Augmented Reality Systems beschrieben.In EP 1 369 769 A2 A method for determining a registration accuracy of an augmented reality system is described.

In US 2003/043270 A1 wird ein Verfahren zur Extraktion einer Tiefenkarte aus bekannten Kamera- und Tracking-Daten beschrieben.In US 2003/043270 A1 A method for extracting a depth map from known camera and tracking data is described.

In US 2003/137524 A1 ist ein Augmented Reality System beschrieben zur Vermischung eines eine reale Umgebung darstellenden Bildes und eines eine virtuelle Umgebung darstellenden Bildes.In US 2003/137524 A1 An augmented reality system is described for mixing an image representing a real environment and an image representing a virtual environment.

In Simon Prince et al.: ”3-D live: Real time Interaction for Mixed Reality”, Proc. of the 2002 ACM conference an Computer supported cooperative work, New Orleans, 2002, Louisiana, USA, Seiten 364–371 wird ein Echtzeit-3-D Augmented Reality Video-Konferenz-System beschrieben, wobei das Bild des entfernten Gesprächspartners in die einem Benutzer dargestellte reale Szene unter Verwendung eines Markers gerendert wird.In Simon Prince et al .: "3-D live: Real Time Interaction for Mixed Reality ", Proc. of the 2002 ACM conference to computer-supported cooperative work, New Orleans, 2002, Louisiana, USA, pages 364-371 describes a real-time 3-D augmented reality video conference system being the image of the distant interlocutor in the one user rendered real scene rendered using a marker becomes.

Nachteiledisadvantage

Nachteilig an den bekannten Verfahren der markerlosen Tracking-Systeme ist eine mangelnde Lösung zur Initialisierung zu Beginn des Trackingvorgangs und nach dem Verlust der Trackingobjekte, wenn also der Abgleich der Projektion mit dem Bild der Realität fehlschlägt oder eine vorteilhafterweise generierte Aussage zu Qualität diese als zu gering einstuft.adversely in the known methods of markerless tracking systems a lack of solution for initialization at the beginning of the tracking process and after the Loss of tracking objects, so if the adjustment of the projection with the picture of reality fails or an advantageously generated statement about quality of these considered too low.

Vorhandene Verfahren benötigen eine umfangreiche Initialisierungprozedur durch einen erfahrenen Benutzer (z. B. durch das Anklicken von Punkten mit der Maus). Außerdem sind keine Verfahren bekannt, welche außerdem Beschleunigungs- und oder Bewegungszustände mitinitalisieren.Existing Need procedure an extensive initialization procedure by an experienced User (eg by clicking on points with the mouse). Besides, they are no methods are known, which also acceleration and or motion states mitinitalisieren.

Aufgabe der ErfindungObject of the invention

Der Erfindung liegt die Aufgabe zu Grunde den Prozess zur Initialisierung markerlosen Tracking-Systems zu Vereinfachen und somit ein genaueres und schnelleres Tracking-System zu realisieren. Weitere Aufgaben ergeben sich aus der folgenden Beschreibung der Erfindung.Of the The invention is based on the object of the process for initialization markerless tracking system to simplify and thus more accurate and realize faster tracking system. Further tasks will be apparent from the following description of the invention.

Beschreibung der ErfindungDescription of the invention

Man unterscheidet zwischen einem Initialisierungsvorgang und einem Trackingvorgang.you distinguishes between an initialization process and a tracking process.

Während des Initialisierungsvorgangs wird ein sogenannter Marker oder ein beliebiges Objekt der realen Umgebung, im Folgenden Initialisierungsobjekt, mit der Kamera in Beziehung gesetzt, beispielsweise durch Messung der Position und/oder der Orientierung des Markers oder des Initialisierungsobjekts. Dadurch kann ein Kamerabild der realen Umgebung zugeordnet werden. Die reale Umgebung kann eine komplexe Vorrichtung und das Initialisierungsobjekt kann ein markantes Element der Vorrichtung sein.During the Initialization process will be a so-called marker or any Object of the real environment, in the following initialization object, related to the camera, for example by measurement the position and / or orientation of the marker or initialization object. As a result, a camera image can be assigned to the real environment. The real environment can be a complex device and the initialization object may be a prominent element of the device.

Während des folgenden Trackingvorgangs, das heißt der eigentliche Arbeitsvorgang, während beispielsweise ein Anwender des Systems kontextabhängige Information an einer gewünschten Position in Bezug zur realen Umgebung in einer verwendeten Anzeigeeinrichtung eingeblendet erhält, dient der Marker oder das Initialisierungsobjekt als Referenz, um die Position zu berechnen, an der die virtuelle Information an einem von der Kamera aufgenommenen Bild angezeigt oder eingeblendet werden soll. Da der Anwender seine Position und seine Orientierung zur Umgebung ändern kann, muss der Marker oder das Initialisierungsobjekt kontinuierlich nachverfolgt (Tracking) werden, um die virtuelle Information auch bei einer geänderten Position und/oder einer geänderten Orientierung des Anwenders an der korrekten Position in der Anzeigeeinrichtung anzuzeigen. Damit wird erreicht, dass die Information unabhängig von der Position und/oder der Orientierung des Anwenders in Bezug zur Realität in der Anzeigeeinrichtung angezeigt wird.During the following tracking operation, that is, the actual operation, while, for example, a user of the system receives context-dependent information displayed at a desired position relative to the real environment in a used display device, the marker or the initialization object serves as a reference to calculate the position, where the virtual information is to be displayed or displayed on an image captured by the camera. Since the user can change his position and his orientation to the environment, the marker or the initialization object must be continuously tracked (tracking) to the virtual information even with a changed position and / or a changed orientation of the user to the kor to display the correct position in the display device. This ensures that the information is displayed regardless of the position and / or orientation of the user in relation to the reality in the display device.

Wartet beispielsweise ein Anwender des Systems eine komplexe Vorrichtung, könnte das System ein Vorrichtungselement (Objekt) mit einem Rahmen (virtuelle Information) kennzeichnen, und zwar unabhängig von der aktuellen Position oder Orientierung des Anwenders, solange der Marker oder das Initialisierungsobjekt mit der Kamera erfasst werden kann.waits for example, a user of the system is a complex device, could the system a device element (object) with a frame (virtual Information), regardless of the current position or orientation of the user, as long as the marker or the initialization object can be captured with the camera.

Die Aufgabe der Erfindung wird erfindungsgemäß durch ein Verfahren zum Initialisieren eines Systems gelöst, wobei mit dem System Objekte einer realen Umgebung und virtuelle Information miteinander überlagert werden können, wobei mit einer Kamera ein Bild aufgenommen wird, welches ein Initialisierungsobjekt beinhaltet, das sich in der realen Umgebung befindet, das aufgenommene Bild und ein Datenmodell des Initialisierungsobjekts einem Anwender gemeinsam dargestellt werden, das aufgenommene Initialisierungsobjekt und das Datenmodell des Initialisierungsobjekts überlagert werden und überlagert dargestellt werden, ein Suchbereich festgelegt wird, der das aufgenommene Initialisierungsobjekt und das Datenmodell des Initialisierungsobjekts, wie überlagert, enthält, der Suchbereich nach mindestens einem Merkmal des Initialisierungsobjekts abgesucht wird und die Position, Orientie rung und/oder Größe des mindestens einen gefundenen Merkmals gespeichert wird.The The object of the invention is achieved by a method for initialization a system solved, being with the system objects of a real environment and virtual Information overlaid together can be wherein a picture is taken with a camera, which is an initialization object includes, which is in the real environment, the recorded Image and a data model of the initialization object to a user displayed together, the recorded initialization object and the data model of the initialization object are superimposed and superimposed a search range is set that captures the recorded Initialization object and the data model of the initialization object, like superimposed, contains the search area for at least one feature of the initialization object is searched and the position, Orientie tion and / or size of at least a found feature is stored.

Das System kann ein optoelektronisches System, beispielsweise ein Bildverarbeitungssystem oder ein sogenanntes Tracking-System, sein.The System may be an opto-electronic system, such as an image processing system or a so-called tracking system.

Die Kamera kann nicht-ortsfest sein, beispielsweise am Kopf eines Anwenders angeordnet sein. Es ist auch möglich, mit einer ortsfesten Kamera eine bewegte Umgebung oder ein bewegtes Objekt zu erfassen. Die Umgebung kann eine komplexe Vorrichtung zum Beispiel eine komplexe Maschine oder ein Schaltschrank sein. Das Initialisierungsobjekt kann ein besonders hervortretendes Element der komplexen Vorrichtung sein, beispielsweise ein gut sichtbares Maschinenelement oder ein Notausschalter des Schaltschranks.The Camera can be non-stationary, for example on the head of a user be arranged. It is also possible, with a fixed camera a moving environment or a moving one To capture object. The environment can be a complex device for example, be a complex machine or a control cabinet. The initialization object can be a particularly prominent element be the complex device, such as a highly visible Machine element or an emergency stop switch of the control cabinet.

Die Darstellung kann über eine halbdurchlässige Brille erfolgen, wobei der Anwender in die Umgebung blickt und auf die halbdurchlässige Brille das Datenmodell des Initialisierungsobjekts projiziert wird. In diesem Fall kann eine Kalibrierung zwischen den Augen des Anwenders, der Kamera und der halbdurchlässigen Datenbrille über die sogenannte SPAAM (single point active alignment method) erfolgen. Ebenso kann das Datenmodell des Initialisierungsobjekts auf die Netzhaut des Anwenders projiziert werden. Dabei nimmt der Anwender das Initialisierungsobjekt ohne zwischengeschaltete Bildaufnahme wahr. Ferner können das Initialisierungsobjekt und ein Datenmodell des Initialisierungsobjekts auf einem kopfgetragenem Bildschirmsystem dargestellt werden.The Presentation can be over a semipermeable Glasses are made, with the user looking into the environment and on the semipermeable Glasses the data model of the initialization object is projected. In this case, a calibration between the eyes of the user, the camera and the semi-transparent Data glasses over the so-called SPAAM (single point active alignment method) take place. Similarly, the data model of the initialization object can be applied to the Retina of the user are projected. In doing so, the user takes the initialization object without intervening image capture true. Furthermore, can the initialization object and a data model of the initialization object a head-worn screen system are shown.

Das Datenmodell des Initialisierungsobjekts kann geometrische Information, beispielsweise Linien, Eckpunkte, Radien, etc., enthalten. Das Datenmodell des Initialisierungsobjekts kann durch Linien oder Eckpunkte angezeigt werden. Ferner kann das Datenmodell eine Repräsentation einer komplexen Geometrie, beispielsweise eines Rechtecks, eines Kreises, eines Zylinders, eines Quaders, eines Kegels, eines Prismas, etc., enthalten. Ferner kann das Datenmodell ein dreidimensionales Objektdatenmodell enthalten, z. B. CAD-Daten.The Data model of the initialization object can be geometric information, For example, lines, vertices, radii, etc. included. The data model of the initialization object can be indicated by lines or vertices become. Furthermore, the data model can be a representation of a complex geometry, for example, a rectangle, a circle, a cylinder, a cuboid, a cone, a prism, etc., included. Further can the data model contain a three-dimensional object data model, z. B. CAD data.

Das Überlagern kann durch Bewegen der Kamera, so dass sich das Initialisierungsobjekt an einer vorgegebenen Position im Bild befindet, oder durch Bewegen des Datenmodells erfolgen.Overlaying Can be done by moving the camera so that the initialization object at a given position in the image, or by moving of the data model.

Bei der Festlegung des Suchbereichs können die Größe des Initialisierungsobjekts, die Größe des Datenmodels, eine Ungenauigkeit beim Überlagern des Datenmodells des Initialisierungsobjekts über das Initialisierungsobjekt, eine Größentoleranz und/oder eine Abweichung des Datenmodells vom Initialisierungsobjekt, die sich aus der noch unbekannten Position und Perspektive der Kamera ergeben, berücksichtigt werden. Ferner könne im Suchbereich Randbereiche berücksichtigt werden, die ein Bildverarbeitungsverfahren zum ordnungsgemäßen Absuchen des Suchbereichs benötigt.at the size of the initialization object, the size of the data model, an inaccuracy when overlaying the data model of the initialization object via the initialization object, a size tolerance and / or a deviation of the data model from the initialization object, the from the still unknown position and perspective of the camera result, considered become. Furthermore, could considered in the search area border areas which are an image processing method for proper screening of the search area required.

Der Suchbereich kann nach dem mindestens einen Merkmal mit Hilfe von Bildverarbeitungsverfahren abgesucht werden. Dazu können beispielsweise geometrische Filter oder Kantenfilter verwendet werden. Mögliche Bildverarbeitungsverfahren sind dem Fachmann hinreichend bekannt und brauchen an dieser Stelle nicht weiter erläutert zu werden.Of the Search range can be after the at least one characteristic with the help of Image processing procedures are searched. These can, for example, geometric Filter or edge filter can be used. Possible image processing methods are well known to those skilled in the art and need at this point not explained further to become.

Die Position, Orientierung und/oder Größe bzw. Skalierung des mindestens einen gefundenen Merkmals wird gespeichert, da diese Information beim Tracking benötigt wird.The Position, orientation and / or size or scaling of at least a found feature is stored, since this information is at Tracking needed becomes.

Das Verfahren kann das beim Absuchen gefundene mindestens eine Merkmal des Initialisierungsobjekts dem Datenmodell des Initialisierungsobjekts zuordnen. Das kann beispielsweise durch heuristische Verfahren erfolgen, wie sie dem Fachmann per se bekannt sind. Enthält das Datenmodell Kanten, können Kanten als Merkmale gesucht werden und nach ihrem Finden den entsprechenden Kanten des Datenmodells des Initialisierungsobjekts zugeordnet werden. Das Verfahren vergleicht somit das Datenmodell des Initialisierungsobjekts mit dem Bild des Initialisierungsobjekts.The method may associate the at least one feature of the initialization object found in the scan with the data model of the initialization object. This can be done, for example, by heuristic methods, as known per se to the person skilled in the art. If the data model contains edges, edges can be searched for as features and, after finding them, the corresponding one Edges of the data model of the initialization object. The method thus compares the data model of the initialization object with the image of the initialization object.

Das Verfahren kann das dargestellte Datenmodell nach Größe und/oder Orientierung derart verändern, dass es mit dem von der Kamera aufgenommenen Bild des Initialisierungsobjekts im Wesentlichen übereinstimmt. Dieser Schritt kann vor oder nach dem Überlagern des Datenmodells über das aufgenommene Initialisierungsobjekt erfolgen. Ferner kann dieser Schritt nach Festlegen des Suchbereichs, während des Absuchens und während des Zuordnens erfolgen.The Method may be the illustrated data model according to size and / or Change orientation in such a way that it is with the image of the initialization object taken by the camera essentially coincides. This step can be done before or after overlaying the data model over the recorded one Initialization object done. Further, this step may be after Set the search range while of the search and while of the assignment.

Bei dem Verfahren kann das Verändern der Größe und/oder Orientierung des Datenmodells durch Manipulation des Datenmodells durch den Anwender vor dem Festlegen des Suchbereichs erfolgen. Dies kann beispielsweise während des Überlagerns erfolgen.at The procedure can change this the size and / or Orientation of the data model through manipulation of the data model by the user before setting the search range. This can for example during of overlaying respectively.

Bei dem Verfahren kann das Verändern der Größe und/oder Orientierung des Datenmodells durch das System erfolgen. Das Verändern der Größe und/oder Orientierung des Datenmodells erfolgt vorzugsweise nach dem Festlegen des Suchbereichs. Es kann auch während des Absuchens oder während des Zuordnens erfolgen.at The procedure can change this the size and / or Orientation of the data model by the system. Changing the Size and / or Orientation of the data model is preferably done after setting of the search area. It can also be during of searching or while of the assignment.

Das Verfahren kann ferner die Kameraposition nach dem Zuordnen des mindestens einen gefundenen Merkmals des Initialisierungsobjekts mit dem Datenmodell des Initialisierungsobjekts bestimmen.The Method may further the camera position after assigning the at least a found feature of the initialization object with the data model of the initialization object.

Das Verfahren kann automatisch beendet werden, wenn eine hinreichend gute Zuordnung des mindestens einen gefundenen Merkmals des Initialisierungsobjekts mit dem Datenmodell des Initialisierungsobjekts erreicht wurde.The Procedure can be terminated automatically if sufficient good assignment of the at least one found feature of the initialization object reached with the data model of the initialization object.

Die zuvor hergeleitete und aus dem Stand der Technik hervorgehende Aufgabe wird erfindungsgemäß auch durch ein System und Verfahren gelöst, bei dem der Lösungsraum für das Finden von Features im Videobild reduziert wird.The previously derived and derived from the prior art task is also according to the invention a system and method solved in the solution space for the Finding features in the video image is reduced.

Das erfindungsgemäße Verfahren sieht die Verwendung eines digitalen, dreidimensionalen Datenmodells (200) von Objekten der realen Umgebung zur Identifikation von Features im Videobild der Kamera (400-2) vor (1). Das dreidimensionale Datenmodell (200) wird dabei dem Anwender (300), vorteilhafterweise mit einem kopfgetragenen Bildschirmsystem (Head Mounted Display) (400-1), angezeigt. Gleichzeitig wird die reale Umgebung des Anwenders, vorteilhafterweise in Form eines Videobildes der realen Umgebung, angezeigt. Der Anwender überlagert das dreidimensionale Datenmodell des Objektes mit der realen Umgebung, sodass, entsprechend der momentanen Blickrichtung des Anwenders, das Objekt der realen Umgebung (100) durch dessen digitales Datenmodell (200) überdeckt dargestellt wird.The method according to the invention provides for the use of a digital, three-dimensional data model ( 200 ) objects of the real environment for identifying features in the video image of the camera ( 400-2 ) in front ( 1 ). The three-dimensional data model ( 200 ) is the user ( 300 ), advantageously with a head-mounted display system ( 400-1 ). At the same time, the user's real environment, advantageously in the form of a video image of the real environment, is displayed. The user overlays the three-dimensional data model of the object with the real environment, so that, according to the current viewing direction of the user, the object of the real environment (FIG. 100 ) through its digital data model ( 200 ) is shown covered.

Features des realen Objektes werden über bekannte Features des digitalen Datenmodells unter Zuhilfenahme von Algorithmen identifiziert. Dies ist in 1 beispielhaft für die Eckpunkte (P1, P2, P3) eines realen Würfels (100) dargestellt. Die Dimensionen des realen Würfels sind über dessen digitales Datenmodell (200) bekannt. Zusätzlich sind die Positionen der Eckpunkte des realen Würfels in Bezug auf ein ortsfestes Koordinatensystem bekannt. Mit dem erfindungsgemäßen Verfahren wird der Suchraum im Videobild der Kamera (400-2) in dem nach Features, im Beispiel nach Punkten, gesucht wird, auf die projizierten Punkte (P'1, P'2, P'3) und/oder deren unmittelbare Umgebung beschränkt. Die Identifikation der Punkte wird dadurch signifikant reduziert, da alle weiteren gefundenen Punkte im Videobild vernachlässigt werden.Features of the real object are identified via known features of the digital data model with the aid of algorithms. This is in 1 exemplarily for the vertices (P1, P2, P3) of a real cube ( 100 ). The dimensions of the real cube are determined by its digital data model ( 200 ) known. In addition, the positions of the vertices of the real cube with respect to a fixed coordinate system are known. With the method according to the invention, the search space in the video image of the camera ( 400-2 ) is searched for features, in the example by points, limited to the projected points (P'1, P'2, P'3) and / or their immediate environment. The identification of the points is thereby significantly reduced, since all other points found in the video image are neglected.

Das erfindungsgemäße System ist in 2 dargestellt. Eingangsgrößen des Systems sind ein Videobild (400-3) der Kamera (400-2) sowie das digitale Datenmodell eines realen Objektes (200), das über das Datenhaltungssystem (800) zur Verfügung gestellt wird. Im Mischsystem (600-1) wird zunächst das Datenmodell (200) sowie das Videobild (400-3) dem Anwender (300) im Anzeigegerät (500), vorteilhafterweise in einem kopfgetragenen Bildschirmsystem (400-1), angezeigt. Das Mischsystem (600-1) übergibt das Videobild (400-3) und das Datenmodell (200) an ein Definitionssystem (600-2).The system according to the invention is in 2 shown. Input variables of the system are a video image ( 400-3 ) the camera ( 400-2 ) as well as the digital data model of a real object ( 200 ) via the data management system ( 800 ) is made available. In the mixed system ( 600-1 ), the data model ( 200 ) as well as the video image ( 400-3 ) the user ( 300 ) in the display device ( 500 ), advantageously in a head-mounted screen system ( 400-1 ). The mixing system ( 600-1 ) passes the video image ( 400-3 ) and the data model ( 200 ) to a definition system ( 600-2 ).

Durch Manipulation des Datenmodells (200) und/oder Interaktion mit dem Datenmodell erzeugt der Anwender (300) die Eingangsgröße (700) für das Definitionssystem (600-2). Das Definitionssystem (600-2) legt zweidimensionale Suchräume im Videobild (400-3) fest und übergibt deren Dimension und Lage dem Suchsystem (600-3). Das Suchsystem (600-3) sucht Features im Videobild und übergibt diese an das Zuordnungssystem (600-4). Dieses ordnet den im Videobild (400-3) gefundenen Features Features des Datenmodells (200) zu und übergibt die Koordinaten der im Videobild gefundenen Features dem Positionsbestimmungssystem (600-5). Eingangsinformation des Positionsbestimmungssystems sind zusätzlich die Koordinaten (900) des realen Objektes im ortsfesten Raumkoordinatensystem die über das Datenhaltungssystem (800) zur Verfügung gestellt werden. Das Positionsbestimmungssystems (600-5) berechnet auf Basis der Koordinaten der Features im Kamerabild sowie der Koordinaten der Features im ortsfesten Koordinatensystem (900) die Position der Kamera (400-2) in Form einer Transformationsmatrix (1000).By manipulating the data model ( 200 ) and / or interaction with the data model, the user generates ( 300 ) the input quantity ( 700 ) for the definition system ( 600-2 ). The definition system ( 600-2 ) places two-dimensional search spaces in the video image ( 400-3 ) and transfers their dimension and position to the search system ( 600-3 ). The search system ( 600-3 ) searches for features in the video image and passes them to the mapping system ( 600-4 ). This arranges the in the video picture ( 400-3 ) Features Features of the Data Model ( 200 ) and passes the coordinates of the features found in the video image to the positioning system ( 600-5 ). Input information of the position determination system are additionally the coordinates ( 900 ) of the real object in the stationary space coordinate system via the data storage system ( 800 ) to provide. The positioning system ( 600-5 ) calculated on the basis of the coordinates of the features in the camera image as well as the coordinates of the features in the fixed coordinate system ( 900 ) the position of the camera ( 400-2 ) in the form of a transformation matrix ( 1000 ).

Ausgangsgröße des Positionsbestimmungssystems (600-5) bildet die Transformationsmatrix (1000) die von weiteren Systemen, z. B. Augmented Reality Systemen, verwendet werden kann.Output of the positioning system ( 600-5 ) forms the transformation matrix ( 1000 ) of other systems, eg. As augmented reality systems, can be used.

Vorteile und Anwendungen des Systems und VerfahrensAdvantages and Applications of Systems and procedures

Vorteile des beschriebenen Systems und Verfahrens zur markerlosen Positionsbestimmung bestehen in der Einschränkung des für das Feature-Finding notwendigen Suchraum. Features, die im Videobild gefunden werden, für die Positionsbestimmung im Sinne des Trackings aber irrelevant sind werden so von der rechenintensiven Bildverarbeitung ausgeschlossen. Dadurch steigt die Performanz sowie die Stabilität des Gesamtsystems erheblich.advantages consist of the described system and method for markerless position determination in the restriction of for the feature finding necessary search space. Features included in the video image be found for the position determination in the sense of tracking but are irrelevant are thus excluded from the computationally intensive image processing. As a result, the performance and stability of the overall system increases considerably.

Mögliche Anwendungen des Systems und Verfahrens schließen insbesondere Anwendungen der Augmented Reality Technologie in den Bereiche Service und Wartung, Produktion sowie weitere Anwendungen im mobilen Umfeld ein.Possible applications The system and method in particular include applications of Augmented reality technology in the areas of service and maintenance, Production and other applications in the mobile environment.

100100
Reales ObjektReales object
200200
Dreidimensionales digitales Datenmodell des realen ObjektesThree-dimensional digital data model of the real object
300300
Anwenderuser
400-1400-1
Kopfgetragenes Bildschirmsystemhead-mounted screen system
400.2400.2
Kameracamera
400.3400.3
Videobild der Kameravideo image the camera
500500
Anzeigegerätdisplay
600.1600.1
Mischsystemmixing system
600.2600.2
Definitionssystemdefinition system
600.3600.3
Suchsystemsearch system
600.4600.4
Zuordnungssystemmapping system
600.5600.5
PositionsbestimmungssystemPositioning System
700700
BenutzerinteraktionUser Interaction
800800
DatenhaltungssystemData storage system
900900
Ortsfeste Objektkoordinatenstationary object coordinates
10001000
Transformationsmatrixtransformation matrix

Claims (16)

Verfahren zum Initialisieren eines Systems, wobei mit dem System Objekte einer realen Umgebung und virtuelle Information miteinander überlagert werden können, wobei mit einer Kamera ein Bild aufgenommen wird, welches ein Initialisierungsobjekt beinhaltet, das sich in der realen Umgebung befindet:; dadurch gekennzeichnet, dass das aufgenommene Bild und ein Datenmodell des Initialisierungsobjekts einem Anwender gemeinsam dargestellt werden; dass das aufgenommene Initialisierungsobjekt und das Datenmodell des Initialisierungsobjekts überlagert werden und überlagert dargestellt werden; dass ein Suchbereich festgelegt wird, der das aufgenommene Initialisierungsobjekt und das Datenmodell des Initialisierungsobjekts, wie überlagert, enthält; dass der Suchbereich nach mindestens einem Merkmal des Initialisierungsobjekts abgesucht wird; und dass die Position, Orientierung und/oder Größe des mindestens einen gefundenen Merkmals gespeichert wird.A method for initializing a system, wherein the system can superimpose objects of a real environment and virtual information with each other, with a camera capturing an image containing an initialization object located in the real environment: characterized in that the captured image and a data model of the initialization object are shared with a user; that the recorded initialization object and the data model of the initialization object are superimposed and displayed superimposed; that a search area is set, which contains the recorded initialization object and the data model of the initialization object, as superimposed; that the search area is searched for at least one feature of the initialization object; and that the position, orientation and / or size of the at least one found feature is stored. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das beim Absuchen gefundene mindestens eine Merkmal des Initialisierungsobjekts dem Datenmodell des Initialisierungsobjekts zugeordnet wird.Method according to claim 1, characterized in that that the at least one feature of the initialization object found during the scan is assigned to the Data model of the initialization object is assigned. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das dargestellte Datenmodell nach Größe und/oder Orientierung derart verändert wird, dass es mit dem von der Kamera aufgenommenen Bild des Initialisierungsobjekts im Wesentlichen übereinstimmt.Method according to claim 1 or 2, characterized that the illustrated data model according to size and / or orientation so is changed, that it is with the image of the initialization object taken by the camera essentially coincides. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Verändern der Größe und/oder Orientierung des Datenmodells durch Manipulation des Datenmodells durch den Anwender vor dem Festlegen des Suchbereichs erfolgt.Method according to claim 3, characterized that changing the size and / or orientation of the data model by manipulation of the data model by the user before setting the search area. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Verändern der Größe und/oder Orientierung des Datenmodells durch das System erfolgt.Method according to claim 3, characterized that changing the size and / or orientation of the data model by the system. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das Datenmodell ein dreidimensionales Objektdatenmodell enthält.Method according to one of claims 1 to 5, characterized that the data model contains a three-dimensional object data model. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das Verfahren ferner die Kameraposition nach dem Zuordnen des mindestens einen gefundenen Merkmals des Initialisierungsobjekts mit dem Datenmodell des Initialisierungsobjekts bestimmt.Method according to one of claims 1 to 6, characterized the method further comprises the camera position after assigning the at least one found feature of the initialization object determined with the data model of the initialization object. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass das Verfahren automatisch beendet wird, wenn eine hinreichend gute Zuordnung des mindestens einen gefundenen Merkmals des Initialisierungsobjekts mit dem Datenmodell des Initialisierungsobjekts erreicht wurde.Method according to one of claims 1 to 7, characterized that the procedure terminates automatically if a sufficient good assignment of the at least one found feature of the initialization object reached with the data model of the initialization object. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass der Suchraum für die Suche von Features im Kamerabild durch digitale Datenmodelle reduziert wird.Method according to one of claims 1 to 8, characterized that the search space for the search for features in the camera image through digital data models is reduced. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass ein Bewegungsmodell durch die Feststellung der Bewegung des Benutzers zum Zeitpunkt der Initialisierungsposition durch Zusatzinformationen (vorteilhafterweise Optical Flow, oder Beschleunigungssensoren) ebenfalls initialisiert wird.Method according to one of claims 1 to 9, characterized in that a movement model by detecting the movement of Benut zers at the time of initialization by additional information (advantageously optical flow, or acceleration sensors) is also initialized. System zum markerlosen Tracking von Objekten, wobei mit dem System Objekte einer realen Umgebung und virtuelle Information miteinander überlagert werden können, bestehend aus einem Mischsystem (600-1) zur gleichzeitigen Anzeige eines Videobildes und einem dreidimensionalen Da tenmodell, eines Definitionssystems (600-2) zur Festlegung von Suchräumen im Videobild, eines Suchsystems (600-3) zur Suche von Features im Kamerabild, eines Zuordnungssystems (600-4) zur Zuordnung von Features im Kamerabild zu Features des Datenmodells sowie eines Positionsbestimmungssystem (600-5) zur Bestimmung der Position der Kamera, dadurch gekennzeichnet, dass der Suchraum für im Kamerabild befindliche Features durch den Benutzer durch Manipulation eines dreidimensionalen Datenmodells eingeschränkt wird.System for markerless tracking of objects, wherein the system can superimpose objects of a real environment and virtual information, consisting of a mixing system ( 600-1 ) for the simultaneous display of a video image and a three-dimensional data model, a definition system ( 600-2 ) for defining search spaces in the video image, a search system ( 600-3 ) for finding features in the camera image, an assignment system ( 600-4 ) for assigning features in the camera image to features of the data model and a position determination system ( 600-5 ) for determining the position of the camera, characterized in that the search space for features located in the camera image is restricted by the user by manipulating a three-dimensional data model. System nach Anspruch 11, dadurch gekennzeichnet, dass ein digitales Datenmodell zur Zuordnung von Features im Videobild verwendet wird.System according to claim 11, characterized in that that a digital data model for mapping features in the video image is used. System nach Anspruch 11, dadurch gekennzeichnet, dass der Austausch von Informationen zwischen den Subsystemen Misch-, Definitions-, Such-, Zuordnungs- und Positionsbestimmungssystem per drahtlloser Übertragungstechnik stattfindet.System according to claim 11, characterized in that that the exchange of information between the subsystems mixed, Definition, search, assignment and positioning system via wireless transmission technology takes place. System nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass der Nutzer die Position, Skalierung und Orientierung des eingeblendeten digitalen Datenmodells interaktiv verändern kann, um sie seiner aktuellen Blickrichtung anzupassen und damit den Zustandsvektor des Trackingsystems anpasst.System according to one of claims 11 to 13, characterized that the user the position, scaling and orientation of the displayed digital Change data model interactively can adapt to its current line of vision and thus adjusts the state vector of the tracking system. System nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass das eingeblendete digitale Datenmodell die vom Algorithmus verwendeten Messbereiche für den Nutzer besonders hervorhebt, um die Initalisierung zu vereinfachen.System according to one of claims 11 to 14, characterized that the displayed digital data model is that of the algorithm used measuring ranges for emphasize the user to simplify initialization. System nach einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, dass das System eigenständig erkennt, wann die Initialisierungsposition erreicht ist.System according to one of claims 11 to 15, characterized that the system is self-contained Detects when the initialization position is reached.
DE102004061841A 2003-12-22 2004-12-22 Markerless tracking system for augmented reality applications Expired - Fee Related DE102004061841B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004061841A DE102004061841B4 (en) 2003-12-22 2004-12-22 Markerless tracking system for augmented reality applications

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10360447.2 2003-12-22
DE10360447 2003-12-22
DE102004061841A DE102004061841B4 (en) 2003-12-22 2004-12-22 Markerless tracking system for augmented reality applications

Publications (2)

Publication Number Publication Date
DE102004061841A1 DE102004061841A1 (en) 2005-07-14
DE102004061841B4 true DE102004061841B4 (en) 2010-09-16

Family

ID=34673017

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004061841A Expired - Fee Related DE102004061841B4 (en) 2003-12-22 2004-12-22 Markerless tracking system for augmented reality applications

Country Status (1)

Country Link
DE (1) DE102004061841B4 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006004731B4 (en) * 2006-02-02 2019-05-09 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining the position and / or orientation of a camera with respect to a real object
WO2008031369A1 (en) * 2006-09-15 2008-03-20 Siemens Aktiengesellschaft System and method for determining the position and the orientation of a user
FR2911708B1 (en) 2007-01-22 2009-07-10 Total Immersion Sa METHOD AND DEVICE FOR CREATING AT LEAST TWO KEY IMAGES CORRESPONDING TO A THREE DIMENSIONAL OBJECT.
CN102737534A (en) * 2011-04-13 2012-10-17 南京大学 Method for realizing unmarked augmented reality piano teaching system
DE102011122206A1 (en) 2011-12-23 2013-06-27 Volkswagen Aktiengesellschaft Method for representation of virtual image component i.e. augmented reality image, on transparent display of augmented reality system, involves determining position of component, and representing virtual image component by display
DE102012209664B4 (en) * 2012-06-08 2017-03-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS
DE102012014995A1 (en) * 2012-07-28 2014-01-30 Volkswagen Aktiengesellschaft Method for generating augmented reality image and/or representing virtual image component on transparent display, involves producing synthetic image of object from surrounding area to be recorded using CAD data
DE102013207063A1 (en) * 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft A method of selecting an information source from a plurality of information sources for display on a display of data glasses
DE102013207064A1 (en) 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Method for selecting an information source for display on data glasses
EP3113485A1 (en) * 2015-07-03 2017-01-04 LG Electronics Inc. Mobile terminal and method for controlling the same
US10529135B2 (en) * 2016-07-27 2020-01-07 Google Llc Low-power mode feature identification at a head mounted display

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19832974A1 (en) * 1998-07-22 2000-01-27 Siemens Ag Arrangement for generating virtual industrial system model compares system component information with real system image data to identify components in image data
DE10128015A1 (en) * 2000-06-13 2001-12-20 Volkswagen Ag Use of an augmented reality system for improving software based virtual planning of an altered production line for use in manufacturing vehicle components, which allows the virtual plan to be overlaid on the existing plan
US20030043270A1 (en) * 2001-08-29 2003-03-06 Rafey Richter A. Extracting a depth map from known camera and model tracking data
US20030137524A1 (en) * 2002-01-22 2003-07-24 Canon Kabushiki Kaisha Mixed reality presenting apparatus and image processing method
EP1369769A2 (en) * 2002-06-06 2003-12-10 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
EP1507235A1 (en) * 2003-08-15 2005-02-16 Werner G. Lonsing Method and apparatus for producing composite images which contain virtual objects

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19832974A1 (en) * 1998-07-22 2000-01-27 Siemens Ag Arrangement for generating virtual industrial system model compares system component information with real system image data to identify components in image data
DE10128015A1 (en) * 2000-06-13 2001-12-20 Volkswagen Ag Use of an augmented reality system for improving software based virtual planning of an altered production line for use in manufacturing vehicle components, which allows the virtual plan to be overlaid on the existing plan
US20030043270A1 (en) * 2001-08-29 2003-03-06 Rafey Richter A. Extracting a depth map from known camera and model tracking data
US20030137524A1 (en) * 2002-01-22 2003-07-24 Canon Kabushiki Kaisha Mixed reality presenting apparatus and image processing method
EP1369769A2 (en) * 2002-06-06 2003-12-10 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
EP1507235A1 (en) * 2003-08-15 2005-02-16 Werner G. Lonsing Method and apparatus for producing composite images which contain virtual objects

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Kar Wee Chia, Adrian David Cheok, Simon Prince "Online 6 DOF Augmented Reality Registration from Natural Features" ISMAR 2002: 305-313 *
Reinhold Behringer, Jun Park, Venkataraman Sundareswaran "Model- Based Visual Tracking for Outdoor Augmented Reality Applications" ISMAR 2002: 277-278 *
Reinhold Behringer, Jun Park, Venkataraman Sundareswaran "Model- Based Visual Tracking for Outdoor Augmented Reality Applications" ISMAR 2002: 277-278 Yakup Genc, Sebastian Riedel,Fabrice Souvannavong, Cuneyt Akinlar ,Nassir Navab "Marker-Iess Tracking for AR: A Learning-Based Approach" ISMAR 2002, 295-304 Kar Wee Chia, Adrian David Cheok, Simon Prince "Online 6 DOF Augmented Reality Registration from Natural Features" ISMAR 2002: 305-313 Simon Prince et al. "3-D live: real time interaction for mixed reality" Proc. of the 2002 ACM conference on Computer supported cooperative work, New Orleans, 2002, Louisiana, USA, Pages: 364- 371
Simon Prince et al. "3-D live: real time interaction for mixed reality" Proc. of the 2002 ACM conference on Computer supported cooperative work, New Orleans, 2002, Louisiana, USA, Pages: 364- 371 *
Yakup Genc, Sebastian Riedel,Fabrice Souvannavong, Cuneyt Akinlar ,Nassir Navab "Marker-Iess Tracking for AR: A Learning-Based Approach" ISMAR 2002, 295-304 *

Also Published As

Publication number Publication date
DE102004061841A1 (en) 2005-07-14

Similar Documents

Publication Publication Date Title
DE60133386T2 (en) DEVICE AND METHOD FOR DISPLAYING A TARGET BY IMAGE PROCESSING WITHOUT THREE DIMENSIONAL MODELING
DE69331259T2 (en) Spatial human interface through motion detection with dynamic image processing
DE102007045835B4 (en) Method and device for displaying a virtual object in a real environment
DE69732663T2 (en) METHOD FOR GENERATING AND CHANGING 3D MODELS AND CORRELATION OF SUCH MODELS WITH 2D PICTURES
DE60205662T2 (en) Apparatus and method for calculating a position of a display
DE69624550T2 (en) Device and method for extracting three-dimensional shapes
DE102007045834B4 (en) Method and device for displaying a virtual object in a real environment
US5828779A (en) Method for constructing a color table in a computer unit for the classification of picture elements in an image
EP1770607B1 (en) System and method for displaying user information, in particular of augmented reality information, using tracking information stored in RFID data storage means
EP2977961B1 (en) Method and communication device for creating and/or editing virtual objects
Zollmann et al. Interactive 4D overview and detail visualization in augmented reality
DE19955690A1 (en) System for selection of volume regions in a graphics display based upon segmentation to allow specific features to be observed
DE102004061841B4 (en) Markerless tracking system for augmented reality applications
WO2015117907A2 (en) Selectively-adaptive data processor
DE102016212236A1 (en) Interaction system and procedure
EP3982102B1 (en) Method and device for measuring the local refractive power and/or refractive power distribution of a spectacle lens
EP2528042A1 (en) Method and device for the re-meshing of 3D polygon models
DE10297343T5 (en) Expandable tracking by line auto-calibration
CN112802208B (en) Three-dimensional visualization method and device in terminal building
DE102015115394A1 (en) A method and apparatus for superimposing an image of a real scene with a virtual image and mobile device
DE69729027T2 (en) Object visualization in context
DE112019006107T5 (en) Authoring device, authoring process and authoring program
DE102018132921A1 (en) Method for operating a field device of automation technology in an augmented reality / mixed reality environment
EP2831839B1 (en) Method for automatically operating a monitoring system
DE102019214283A1 (en) Method and device for processing an image recorded by a camera

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: METAIO GMBH, 85748 GARCHING, DE

8364 No opposition during term of opposition
R082 Change of representative

Representative=s name: SCHMITT-NILSON SCHRAUD WAIBEL WOHLFROM PATENTA, DE

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R081 Change of applicant/patentee

Owner name: APPLE INC., CUPERTINO, US

Free format text: FORMER OWNER: METAIO GMBH, 85748 GARCHING, DE

R082 Change of representative

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee