[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102005061211B4 - Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche - Google Patents

Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche Download PDF

Info

Publication number
DE102005061211B4
DE102005061211B4 DE102005061211.3A DE102005061211A DE102005061211B4 DE 102005061211 B4 DE102005061211 B4 DE 102005061211B4 DE 102005061211 A DE102005061211 A DE 102005061211A DE 102005061211 B4 DE102005061211 B4 DE 102005061211B4
Authority
DE
Germany
Prior art keywords
industrial device
user
pointer
virtual
industrial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102005061211.3A
Other languages
English (en)
Other versions
DE102005061211A1 (de
Inventor
John Pretlove
Charlotte Skourup
Pierre Öberg
Thomas Pettersen
Christoffer Apneseth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Schweiz AG
Original Assignee
ABB Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Schweiz AG filed Critical ABB Schweiz AG
Publication of DE102005061211A1 publication Critical patent/DE102005061211A1/de
Application granted granted Critical
Publication of DE102005061211B4 publication Critical patent/DE102005061211B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zum Erzeugen einer Mensch-Maschine-Benutzeroberfläche für einen Benutzer zum Steuern eines industriellen oder kommerziellen Geräts oder Prozesses, gekennzeichnet durch- Auswählen des industriellen Geräts oder Prozesses mittels einer Bewegung oder Führen eines Zeigers (4) und Verfolgen der Position des Zeigers im Raum,- Erhalten von Information einer Identität des ausgewählten industriellen Geräts (7) oder Prozesses oder einer betreffenden Anlage durch Bestimmen der Position des Benutzers und seines/ihres Kopfes, und Vergleichen der bestimmten Position des Benutzers und seines/ihres Kopfes mit vordefinierten Positionen von relevanten Geräten oder Prozessen und durch Abstimmen der Identität dieses industriellen Geräts oder Prozesses mit einem physischen Standort des Geräts oder Prozesses oder mit einem Standort, eingebettet als eine Software-Dateneinheit in einem Steuer-System für das Gerät oder den Prozess,- Vergleichen dieses industriellen Geräts (7) oder Prozesses mit Steuer-System-Daten,- Aufrufen wenigstens eines gespeicherten virtuellen Bilds (14', 17'), in Abhängigkeit von der Identität dieses industriellen Geräts oder Prozesses,- Kombinieren des wenigstens einen gespeicherten virtuellen Bilds mit einem Bild (7') eines realen Objekts (7) oder Prozesses, Anzeigen der Kombination auf einer Anzeige (3), und- Bereitstellen eines virtuellen Mensch-Maschine-Benutzeroberflächen-Steuermittels (14') einem Benutzer zum Steuern des industriellen Geräts oder Prozesses, wobei das virtuelle Mensch-Maschine-Benutzeroberflächen-Steuermittel (14') eine virtuelle Steuer-Konsole (14') umfasst, mit der der Benutzer mittels dem Zeiger (4) interagieren kann, um das ausgewählte industrielle Gerät oder den Prozess zu steuern.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Verfahren und ein System, um eine Mensch-Maschine-Benutzer-Oberfläche zur Überwachung und/oder Steuerung eines industriellen Prozesses oder Geräts zu generieren. Die Erfindung kann auf vielen Gebieten, wie Öl und Gas, Elektrizitäts-Erzeugung, Übertragung, Verteilung, sowie in der Industrie, angewendet werden. Die Erfindung kann zur Überwachung, zur Steuerung und/oder zur Programmierung von industriellen Robotern für Robotik und automatischen Anwendungen, angewendet werden.
  • Hintergrund zum Stand der Technik
  • Ein Techniker oder ein Außendienst-Betreiber, in z. B. einer verfahrenstechnischen Anlage, Fabrikationsanlage, auf Plattformen vor der Küste oder einer elektrischen Stromübertragungs- oder Verteilungs-Anlage oder Schaltstation, braucht beide um mit Systemen oder Geräten in der installierten Ausstattung zu interagieren und um Zugang zu Information und Unterlagen über die installierte Ausstattung zu haben. Verschiedene Benutzer-Oberflächen, beide physische und Software-Oberflächen, für die installierte Ausstattung, Betriebs-Geräte und -Systeme und so weiter, sind oft verschieden ausgelegt, so dass die Außendienst-Betreiber lernen müssen, wie man eine Vielzahl von verschiedenen Benutzer-Oberflächen benutzt. Die verschiedenen Ausstattungs-Oberflächen können auch oft mit einander unvereinbar sein.
  • Der Außendienst-Betreiber braucht, neben interagieren mit installierter Ausstattung oder Geräten oder Systemen, Zugang zu Unterlagen jeglicher Art, was ein Handbuch, Abstammungs-Daten, Wartungs-Geschichte & Reparaturberichte und desgleichen sein können. Obgleich der Trend dazu geht, dass Teile solcher Unterlagen elektrisch erhältlich geworden sind, werden sie oft in verschiedenen Systemen und an verschiedenen Standorten gespeichert. Daher müssen die Außendienst-Betreiber, entweder die Informations-Sammlung für ihre Arbeits-Aufgabe im Vorfeld planen, oder sie müssen die weiterlaufenden Aufgaben unterbrechen, um Unterstützungs-Information und Unterlagen für die installierte Ausstattung, den Prozess oder das Gerät zu finden und dann darauf zugreifen.
  • Als ein Beispiel innerhalb von Fabrikationsanlagen, kann ein Fließband einige Roboter einschließen, die für gewöhnlich von separaten Steuergeräten und/oder Handprogrammier-Geräten gesteuert werden. Der Betreiber braucht ab einem bestimmten Punkt das interagieren mit den Robotern, um z. B. einen Status zu prüfen, Betriebs-Parameter für die Roboter zu inspizieren oder ein neues Roboter-Steuer-Programm zu erstellen. Ein genereller Missstand ist, dass der Betreiber das Interaktions-Gerät wechseln muss, in diesem Fall für jeden Roboter in Abfolge zu einer anderen Steuerung oder anderem Handprogrammier-Gerät wechseln, obgleich einige Roboter angeordnet werden können, um eine Aufgabe auf einmal zu vollführen.
  • Erweiterte Realität (ER) ist ein Verfahren des Darüberlegens von realen Welt-Darstellungen mit computergenerierten Graphiken. Idealerweise werden für die auf Sicht basierende erweiterte Realität, die computergenerierten Graphiken mit realen Welt-Bildern auf eine Art kombiniert, in welcher der Benutzer nicht in der Lage sein wird irgendeinen Unterschied zwischen der realen und der computergenerierten Graphiken zu erkennen. Der Benutzer wird eine Wahrnehmung der realen Welt-Umgebung erhalten, welche verbessert ist durch die Anwesenheit von zugefügten visuellen Bildern.
  • Erweiterte Realitäts-Techniken werden heutzutage in etlichen Anwendungen benutzt. Beispiele der Benutzung sind innerhalb von Medien, z. B. Wetterberichterstattung, Medizin, z. B. Visualisierung von inneren Organen, für gemeinschaftliche Umgebungen, z. B. virtuelle Besprechungszimmer, und in der Luftfahrt-Industrie für Kombination von realen Welt-Bildern und anderer Information über projizierte Frontscheiben-Anzeigen und/oder in Flugsimulator-Projektionen.
  • In der Hand haltbare und tragbare Steuer-Konsolen mit Interaktions-Möglichkeiten existieren bereits und das Interesse an solchen Geräten nimmt zu. Die Benutzung von Mobil-Telefonen und PDA's, als die Oberfläche für Systeme oder Geräte ist bekannt. Auch Tablet-PC's, welche z.B. in Krankenhäusern benutzt wurden, stellen eine Oberfläche bereit, die den Benutzer, durch berühren des Bildschirms, leicht herumführen und mit ihm interagieren kann.
  • Ein neu eingeführtes Gerät ist die virtuelle Tastatur. Ein Bild einer Tastatur, eine virtuelle Tastatur, wird z. B. auf einen Tisch projiziert und kann typischerweise das Eingabemittel für den eigentlichen Computer sein. Der Benutzer berührt oder drückt die Tasten des Bildes, der virtuellen Tastatur, und ein assoziatives System erkennt die spezifischen berührten Tasten, als wie wenn der Benutzer eine Standard-Tastatur bedient hat. Virtuelle Tastaturen sind als kommerzielle Produkte erhältlich, die von einigen Herstellern, z. B. Canesta, Senseboard Technologies und Samsung, angeboten werden.
  • US 6,614,422 mit dem Titel „Verfahren und Apparat zur Einspeisung von Daten durch benutzen eines virtuellen Eingabegerätes“; eröffnet digitale Benutzer-Eingabe in ein begleitendes System wie ein PDA, ein zellulares Telefon oder ein Anwendungs-Gerät durch benutzen eines virtuellen Eingabe-Geräts wie einem Bild einer Tastatur. Ein Sensor fängt dreidimensionale Positions-Information von dem Standort der Finger des Benutzers, in Bezug zu wo die Tasten auf einer eigentlichen Tastatur wären, ein. Diese Information wird in Bezug auf den Finger-Standorten und Geschwindigkeiten und Form verarbeitet, um zu bestimmen, wann eine virtuelle Taste angeschlagen wurde. Die verarbeitete digitale Information wird an ein begleitendes System ausgegeben.
  • US 6,618,425 mit dem Titel „Virtueller Laser-Betreiber“; eröffnet eine Laser-Steuerung, die einen virtuellen Laser-Betreiber umfassen. Eine Laser-Steuerung, der zusammengeschaltet ist mit einem elektrischen Entladungs-Laser, steht in Verbindung mit einem entlegenen Computer, der einen Anzeige-Bildschirm vereinigt, der eine konventionelle Tastatur nachbildet. Der Anzeige-Bildschirm hat eine Mehrheit von Bildern von Tasten, virtuellen Tasten, wobei jede eine physische Taste einer konventionellen Tastatur nachbildet. Ein Tastenanschlag wird typischerweise durch das manuelle drücken der Position einer übereinstimmenden virtuellen Taste auf einem berührungsempfindlichen Bildschirm durch, oder alternativ durch auslösen eines konventionellen Zeige-Geräts, den Betreiber ausgeführt.
  • US 2002/0075244 A1 offenbart ein interaktives videogestütztes Verfahren zur Bedienung eines Objektsystems aus einzelnen Objekten, bei dem das Objektsystem mittels eines von einer Videobild-Aufzeichnungseinrichtung aufgenommenen Videobilds in Echtzeit auf einer Anzeigeeinrichtung dargestellt wird.
  • WO 03/003185 A1 offenbart ein System zum Einrichten einer Benutzerschnittstelle, das mindestens eine Benutzerschnittstellenvorrichtung umfasst, die tragbar und klein ist, wobei sie geeignet ist, in der Hand gehalten zu werden, und die mindestens eine Augenanzeige umfasst.
  • WO 00/52536 A1 offenbart ein System, bei dem neben realen Informationen eines Prozesses, beispielsweise eines Automatisierungssystems, virtuelle Informationen ergänzt und auf einem mobilen Anzeigegerät visualisiert werden. Hierdurch können beispielsweise Füllmengen eines Tanks, einer Leitung etc. vor Ort virtuell visualisiert werden, die ansonsten nicht zugänglich sind.
  • Zusammenfassung der Erfindung
  • Ein erstes Ziel der vorliegenden Erfindung ist, ein Verfahren gemäß Anspruch 1 bereitzustellen, um zusätzliche Information, zu existierender Fabrik, zu generieren und um mit existierender Fabrik-Information für den Betreiber im Außendienst zu interagieren, die erweiterte Realitäts-Techniken zum Benutzen zur Identifizierung einer Steuer-Strategie benutzen, um einen industriellen Automatisierungs-Prozess zum Benutzen zu steuern.
  • Ein zweites Ziel der vorliegenden Erfindung ist es, eine zusätzliche Information, in Form von graphischer Information, bedienbar durch den Betreiber, bereitzustellen, um in direktem Bezug zu einer spezifischen Ausstattung und/oder Gerät zur Überwachung von, und Interaktion mit, einer spezifischen Ausstattung, Fabrik oder Prozess, aufzurufen, zu untersuchen und zu benutzen. Ein anderes Ziel ist, eine zusätzliche Information in Form von graphischer Information bereitzustellen, die durch den Betreiber bedienbar ist, um für eine spezifische Ausstattung, Fabrik oder Prozess, auf Steuerungs-Aktionen zugriff zu haben, zu untersuchen und sie auszuführen.
  • Die oberen und mehr Ziele wurden gemäß der Erfindung, durch ein Verfahren nach unabhängigem Anspruch 1, einer Benutzeroberfläche gemäß Anspruch 21 und ein System gemäß Anspruch 22 erreicht.
  • Gemäß eines ersten Aspekts der Erfindung, wird ein Verfahren zum Benutzen erweiterter Realität (ER) zur Generierung von Information für den Außendienst-Betreiber beschrieben und Interaktion mit Information, z. B. in einer verfahrenstechnischen Anlage, durch den Außendienst-Betreiber. Dieser Aspekt der Erfindung stellt Lösungen zur Funktion der Generierung und Anzeige virtueller Information in direkter Beziehung mit einer spezifischen Ausstattung und/oder Geräts zur Überwachung von und Interaktion mit der spezifischen Ausstattung oder Geräts, und/oder betreffenden Teilen des Steuerungs-Systems bereit;
  • Gemäß eines zweiten Aspekts der Erfindung, wird ein Verfahren zur Anzeige von ER virtueller Information an einen oder mehrere entlegen lokalisierte Experten, zur weiteren Interaktion, und zur weiteren Interaktion mit dem Originalbenutzer oder Betreiber beschrieben.
  • Gemäß eines dritten Aspekts der Erfindung, wird ein Verfahren zur Anzeige von ER virtueller Information beschrieben, deren generierte Anzeige-Information der Benutzer benutzen kann, um ihn/sie durch die Fabrik oder den Prozess an einen spezifischen Standort der spezifischen Ausstattung zu führen.
  • Das generelle Ziel dieser Erfindung ist, zusätzliche Information in Form von „virtueller“ Information über ein Gerät oder Prozess zu generieren und es einem Außendienst-Betreiber anzuzeigen (z.B. einem Betreiber, einem Service-Techniker, einer Wartungsperson, Originalhersteller, einem Verfahrenstechniker usw.). Zuerst wird in diesem beschriebenen Verfahren relevante Information dem Außendienst-Betreiber zum Überwachen und Interagieren mit dem industriellen Prozess oder Gerät vorgelegt. Positionsinformation muss daher aufgerufen, erfasst und/oder berechnet werden, um Aufenthaltsorte in dem Prozess, an denen sich der Betreiber gegenwärtig befindet, zu bestimmen. Verschiedene Verfolgungs- und Erkennungs-Technologien können benutzt werden, um diese Funktion auszuführen. Virtuelle Information wird generiert und dann über Bilder von der realen Welt des Prozesses oder Geräts von Interesse gelegt. Information, die sich auf Ausstattung und/oder Geräte in dem Prozess bezieht, wird direkt angezeigt, über die spezifische Ausstattung und/oder Gerät gelegt. Beispiele von Ausstattung/Geräte-Information, können online oder offline Ablesungen oder Alarme, Ereignisse sein, wie:
    • ‚Tank Füllstand:70%‘
    • ‚Motor an‘
    • ‚Alarm: Temperatur ist über max. Sollwert‘
  • Des Weiteren kann eine komplette virtuelle Steuer-Konsole zur Überwachung und Interaktion direkt auf der spezifischen Ausstattung und/oder dem spezifischen Gerät angezeigt werden.
  • Gemäß einer anderen Ausführungsform der Erfindung, wird ein System beschrieben, welches mindestens ein Verfolgungs-System und eine Anzeige (bevorzugt eine am Kopf befestigte Anzeige, tragbare Brille, kann jedoch ein PDA, ein Tablet-PC usw. sein) umfasst. Das Verfolgungs-System umfasst ein Zeige-Gerät oder interagierendes Zeige-Gerät, welches durch den Benutzer oder Betreiber benutzt wird, um zu der Ausstattung in der realen Welt zu zeigen und, um auf visuelle Bilder zu zeigen oder mit visuellen Bildern zu interagieren, virtuell und/oder real in der erweiterten Realitäts-Anzeige.
  • Der hauptsächliche Vorteil der Erfindung ist, dass relevante Information für ein spezifisches Gerät oder einen Prozess aufgerufen wird und in ein Bild generiert wird, das einem Benutzer bereitgestellt wird, welches zur gleichen Zeit untersucht werden kann, in der der Benutzer das Gerät oder den Prozess untersucht. Die Information kann so differenziert sein wie eine virtuelle Steuer-Konsole oder ein Bildschirm für das Gerät und so einfach wie Text-Information eines Herstellerhandbuchs oder eines Fehlersuche-Schemas.
  • Andere Vorteile schließen ein, dass:
    • - vorlegen virtueller Information, in der realen Welt an eine Geräteausstattung, draußen in der verfahrenstechnische Anlage, positioniert und natürlich angebracht ist,
    • - Information, die sich auf ein/e Gerät/Ausstattung bezieht, ist immer zur Hand und erhältlich,
    • - die Information kann z. B. von einer einzelnen Quelle bereitgestellt werden und/oder kann die aktuellste Version sein,
    • - relevante, zusammenhangsbewusste Information kann vorgelegt werden und/oder auf sie in einer intuitiven Art zugegriffen werden,
    • - Kontrollraum-Funktionalität kann draußen in der verfahrenstechnischen Anlage oder in Verteiler-Schaltanlage bereitgestellt werden, mit der Fähigkeit Information direkt wie Echtzeit-Prozess-Parameter, implizite Information z. B. berechnete Tasten-Vollführungs-Anzeiger, Unterlagen, zu sehen,
    • - Interaktion oder Thematisierung einer Steuerungs-Aktion für die Ausstattung oder das Gerät kann über ein virtuelles Bildschirm oder virtuelle Steuer-Konsole bereitgestellt werden,
    • - es gibt keinen Bedarf von virtuellen ,Bildschirmen' selbst, widerstandsfähiger und/oder intrinsisch sicher bescheinigt zu sein,
    • - virtuelle Anmerkungen und/oder Anweisungen sind an den Geräten einfach und effektiv „angebracht“,
    • - MMO und Steuer-Oberflächen können einfach standardisiert werden und somit einfach durch Betreiber und andere Benutzer rekonfiguriert werden,
    • - teilen und interagieren mit Anwendungs-Teilung zwischen einem oder mehr entlegen lokalisierten Experten und dem Außendienst-Betreiber ist mit der Fähigkeit bereitgestellt, für irgendeinen Informations-Empfänger „virtuelle“ Information, während Anweisung durch eine Experten-Informations-Zusammenfassung, durch den Betreiber oder durch einen Experten, während Erklärungen, Diskussionen usw. darüberzulegen,
    • - Information oder Anzeigen für den Benutzer, um Führung zu geben, um physische Standorte in der verfahrenstechnischen Anlage zu finden, werden mit Hilfe von virtueller Information bereitgestellt (entweder initialisiert durch den entfernt lokalisierten Experten oder auf Anfrage durch das System automatisch).
  • Ferner werden weitere und vorteilhafte Aspekte der Erfindung in Bezug auf einen independent Anspruch für eine graphische Benutzer-Oberfläche und einen Anspruch für ein Computer-Programm zur Implementierung des Verfahrens und einen Anspruch für ein Produkt des Computer-Programms, der das Computer-Programm umfasst, beschrieben.
  • Figurenliste
  • Ausführungsformen der Erfindung werden nun nur an Hand von Beispielen mit spezieller Bezugnahme auf die angehängten Zeichnungen beschrieben, in welchen:
    • 1 eine schematische oder Blockdiagramm- Übersicht einer Anzeige einer Mensch-Maschine-Oberfläche unter Benutzung erweiterter Realität gemäß einer Ausführungsform der Erfindung ist;
    • 2 ein schematisches Diagramm einer Mensch-Maschine-Oberfläche unter Benutzung erweiterter Realität gemäß einer Ausführungsform der Erfindung ist;
    • 3. ein schematisches Ablaufschema für ein Verfahren zur Bereitstellung einer Mensch-Maschine-Oberfläche unter Benutzung erweiterter Realität gemäß einer Ausführungsform der Erfindung ist;
    • 4 eine schematische oder Blockdiagramm- Übersicht einer Anzeige einer Mensch-Maschine-Oberfläche unter Benutzung erweiterter Realität gemäß einer anderen Ausführungsform der Erfindung ist.
  • Detaillierte Beschreibung der Ausführungsformen
  • 1 zeigt einen schematischen Überblick in welchem sich ein Benutzer 1 einem Objekt 7 annähert. Benutzer 1 hat ein Anzeigegerät 3, welches eine am Kopf befestigte Anzeige sein kann. Objekt 7 ist mit einem identifizierenden Marker 8 angeordnet. Benutzer 1 ist mit einer Kamera, bevorzugt einer Video-Kamera, und einem Zeige-Gerät 4 ausgestattet. Steuer-Ausstattung, welche in etwas Abstand von der Ausstattung von Interesse lokalisiert sein kann, ist mit der Ausstattung von Interesse (Objekt 7) über ein Steuersystem, dezentrales Steuersystem (DSA) oder auf eine andere Art verbunden. Die Steuer-Ausstattung, die entlegen sein kann, umfasst Informations-Anzeigen 17 oder Ausleser, und eine oder mehrere Steuer-Schalter oder Steuer-Konsolen 14.
  • Sich nahe der Ausstattung von Interesse, Objekt 7, aufhaltend, sieht der Benutzer 1 in der Anzeige 3, ein zusammengesetztes Bild 9, welches ein Bild 7' eines realen Objekts, ein computergeneriertes graphisches Bild 4' des Zeigers und ein oder mehrere computergenerierte Bilder 14' der Unterlagen und/oder Graphik-Objekte zur Steuerung, wie einen Bildschirm oder eine Steuer-Konsole 17' einschließt. Das computergenerierte Bild für die Ausstattung von Interesse wird abhängig von der Identität des ausgewählten Objekts 7 ausgewählt, abgerufen oder anderweitig generiert. Die Anzeige 3 ist bevorzugt eine am Kopf Befestigte, wie eine Brille. Die Figur zeigt auch, dass der Benutzer irgendwie mit einem ER-System 18 und über ein Daten-Netzwerk 10 mit einer Quelle der Unterstützungs-Unterlagen 14 verbunden ist. Die Unterlagen können Text einschließen und können im speziellen erweiterte Realitäts-Objekte und andere Graphik-Objekte einschließen. ER-System 18 umfasst ein Verfolgungs-System oder ein Sicht-System, um den gegenwärtigen Standpunkt des Benutzers zu bestimmen und Eingaben von einem Ausstattungs-Identifizierenden Marker, wie Marker 8 und/oder Zeiger 4; einem Graphik-Generator, und Oberflächen von vernetzten Unterstützungs-Systemen wie ein LAN, WLAN, DCS, AIP zu handhaben.
  • 2 ist eine schematische Ansicht, die einen Benutzer 1 zeigt, der mit einem Anzeigegerät 3 wie Brille, einem Zeiger 4 und einem Computer, wie einem tragbaren Computer 2, ausgestattet ist. Der Benutzer nähert sich einem Objekt 7, wie einem Gerät, einer Ausstattung oder System von Interesse, welches mit einem Marker 8 angeordnet ist. Der Benutzer hat eine Kamera 6 und eine Verfolgungs-Einheit 5, welche in diesem Fall auf Sicht basierend ist.
  • Der Betreiber 1 geht in der Umgebung umher. Das Verfolgungs-System 5 erkennt bekannte Identitäten (ID's) von Geräten, wie Objekt 7, in der Umgebung. In dem Fall, wo das Verfolgungs-System wie in 2 auf Sicht basierend ist, trägt der Betreiber eine Kamera 6, die an seinem Kopf angebracht ist. Die Kamera 6 nimmt direkt ein Video von der realen Welt auf. Die Kamera 6 kann auch zur erweiterten Realitäts-Visualisierung der virtuellen Steuer-Konsole benutz werden, für den Fall, dass das „Video- Durchsicht“-Verfahren („video see-through“) benutzt wird.
  • Die virtuellen Graphiken zeigen in 1 schematisch 9, wie Beispiele 17, 4', 14', eine virtuelle Steuer-Konsole 14' einschließend, entweder als „optische Durchsicht“ oder „Video-Durchsicht“ auf der tragbaren Anzeige 3 visualisiert werden, welche bevorzugt tragbare Brille oder eine am Kopf befestigte Anzeige oder eine projizierte Frontscheiben-Anzeige ist. Ebenso wie eine normale optische Anzeige, ist es auch möglich direkte Projektion von virtueller/computergenerierter Information in das Auge zu benutzen, eine „virtuelle Netzhaut-Anzeige“ ist eine alternative, wenn die zusätzliche Komplexität gerechtfertigt ist. Der Benutzer hat ein Zeige-Gerät 4 (welches auf der Anzeige als ein Bild 4' gezeigt ist), um mit den virtuellen Graphiken und im speziellen mit der virtuellen Steuer-Konsole 14' zu interagieren. Das Zeige-Gerät 4 kann ein integriertes Verfolgungs- System, z. B. GPS-überwacht, kreisel-basierend oder ultraschall-basierend, haben, um es zu befähigen auf Posen in der Umgebung zu zeigen, Posen in der Umgebung zu verfolgen, identifizieren der Positions-Koordinaten und Orientierung des Zeigers und, um mit dem System mittels dieser Positions-Information zu interagieren. Alternativ oder ebenfalls, kann die Kamera 6 benutzt werden, um als auf Sicht basierende Verfolgungs-Information für die Interaktion und Zeige-Gerät 4 bereitzustehen.
  • 3 zeigt ein Diagramm, das ein Ablaufschema für ein Verfahren gemäß einer Ausführungsform der Erfindung umfasst. Es zeigt ein Verfolgungs-System 20, eine Anwendungs-Einheit 21 und Speicher-Einheit 22 und eine Graphik-(ER)-Einheit 23. Der Betreiber benutzt ein interagierendes Gerät, wie den Zeiger 4 aus 1, 2, welcher durch ein Verfolgungs-Gerät verfolgt werden kann, welches ein, in den Zeiger, integriertes System, ein auf Sicht basierendes System 5, wie in 2 gezeigt, oder ein anderes Verfolgungs-System sein kann.
  • Jede Ausstattung, Gerät, Instrument und System in der Installations-Umgebung, das der Benutzer benutzen wird, um zu überwachen und damit, wie durch Objekt 7 repräsentiert, zu interagieren, hat an ihnen eine Art von bekannter ID 8 begreifend angebracht. Die ID's werden gespeichert in oder andererseits durch das Steuer-System abrufbar, so dass ein Verfolgungs-System, wie Verfolgungs-System 5, das spezifische Gerät/System identifizieren kann, wenn es untersucht wird. Das Verfolgungs-System 5 bestimmt die Position und Orientierung des Objekts, d.h. einer Ausstattung oder eines Geräts oder Systems, das teilweise auf dem bekannten ID 8 jedes Ding basiert. Die ID 8 ist auch angepasst an eine oder mehrere übereinstimmende computergenerierte Information in Form von virtuellen Graphikansichten wie 17', 14', die auf dem Speichermittel 22 gespeichert sind. Die virtuellen Graphiken können als graphische Teile oder Komponenten oder graphische Grundelemente gespeichert werden, welche, wenn sie zusammengesetzt, gruppiert oder generiert sind, ein virtuelles Bild wie 17', 14' formen. Alternativ zum Benutzer eines Verfolgungs-Systems, wie durch das Verfolgungs-System 5 beispielhaft erläutert, können der Zeiger und das Interaktions-Gerät (4) ein integriertes System haben, das zum identifizieren spezifischer Ausstattung, Geräte und Systeme benutzt werden kann. Die Positions-Verfolgung des Benutzers und seines Kopfes wird benutzt, um zu identifizieren was er ansieht. Ohne Bezug zum benutzten System zum Verfolgen der Position, wird dann eine absolute Position hinsichtlich Koordinaten gegen gespeicherte Positionen von Ausstattung, Geräten und Systemen in dem Steuer-System oder in einem assoziierten Computersystem abgebildet.
  • Das System hat mindestens einen vordefinierten und konfigurierten Satz von computergenerierter Information gespeichert, die die spezifische Ausstattung betrifft. Dies kann irgendeine graphische Ansicht oder Oberfläche/Bildschirm 14', Text-Anweisungen für spezifische betreffende Ausstattung umfassen. Solche graphischen Ansichten, Text und/oder Oberflächen werden gegen die bekannte ID abgebildet, die an der spezifischen Ausstattung/Gerät und/oder einer einzigartigen Position des Benutzers in der verfahrenstechnischen Anlage angebracht ist.
  • Ein tragbarer Computer 2, wie in 2 gezeigt, oder ein stationärer Computer, kann die notwendige Software beinhalten, um die erweiterte Realitäts-Steuer-Konsole 14' zu generieren, die, in dem Fall, dass die Video- Durchsicht benutzt wird, auf der Ausgabe von einem Verfolgungs-System wie dem Verfolgungs-System 5 und dem Video-Datenstrom der Kamera 6 basiert. Der tragbare Computer 2 beinhaltet auch die Software, die für das vollführen das erwünschte Überwachen, Inspizieren, Steuern usw. notwendig ist, Aufgabe oder Prozess sollen der Betreiber oder andere Benutzer ausführen, z. B. wechselseitige Kommunikation mit Ausstattung, Geräten, Instrumenten oder Systemen, Echtzeit-Daten-Verwaltung und Visualisierung. Des Weiteren kann der tragbare Computer 2 die virtuellen Graphiken generieren, welche die ER-Oberfläche für die kombinierte Ansicht 9 1 bereitstellen werden. Der tragbare Computer 2 kann zusätzlich ein Speicher-Medium umfassen, um vorher gesicherte Information zu sichern und zu aufrufen. Alternativ kann das Speicher-Medium auf einem Server lokalisiert sein, so dass das tragbare Computer-System teilweise als eine Kunden/Server-Lösung mit dem tragbaren Computer 2, der die Kunden-Funktion oder -Funktionen aufweist, funktioniert.
  • Kommunikation der Information von der Interaktion und von dem Zeige-Gerät 4 mit dem tragbaren Computer 2 wird durch eine Kabel- oder Kabellos-Verbindung bewerkstelligt. Abhängig von der Art des Verfolgungs-Systems, kann die Pose des interagierenden Zeige-Geräts 4 von dem Zeige-Gerät selbst kommen, oder von einem externen Verfolgungs-System oder z. B. von einem System, wie das Verfolgungs-System 5. Kommunikation mit der Verfolgungs-Funktion ist durch ein Kabel- oder Kabellos-Kommunikations-Medium vollführt, welches mittels optischen, IR usw. oder akustischen z. B. auf Ultraschall basierenden Gerätes bewerkstelligt werden kann.
  • Gemäß eines anderen Aspekts der Erfindung wird ein System zur Generierung und Bereitstellung virtueller Information beschrieben, die ausgewählte Prozess Ausstattung und/oder Geräte in verfahrenstechnischen Anlagen oder anderen industriellen oder kommerziellen Installationen direkt betreffen. Das System umfasst:
    • - ein oder mehrere erweiterte Realitäts-Systeme wiederum umfassend:
    • - ein in der Hand getragenes interagierendes Zeige-Gerät und ein integriertes oder externes Verfolgungs-System zur Bestimmung von Zeiger-Position und Orientierung in Bezug auf ein Welt-Koordinaten-System,
    • - ein oder mehrere tragbare Anzeigegeräte (Brille, am Kopf befestigte Anzeige oder projizierte Frontscheiben-Anzeige) zur Visualisierung von erweiterten Realitäts-Bildern, die über eine oder mehrere Ansichten der realen Welt gelegt sind. In dem Fall, dass Video- Durchsicht für erweiterte Realitäts-Visualisierung benutzt wird, kann das Anzeigegerät des Weiteren eine Kamera zum Erfassen eines Datenstroms von Bildern der Umgebung umfassen, die befestigt ist auf oder integriert ist mit dem Anzeigegerät; die Kamera kann in einer festen Position relativ zu dem Anzeigegerät, z. B. an dem Anzeigegerät befestigt, befestigt werden und das Anzeigegerät kann dann entlang der Kamera-Blickrichtung und in der Bild-Ebene der Kamera positioniert werden,
    • - einzigartige IDs werden zum markieren von Objekten von Interesse bereitgestellt, das sind die Ausstattung, Geräte und Systeme, die gegenwärtig in der Umgebung sind.
  • Das System kann auch umfassen:
    • - ein Erkennungs-System zur Erkennung der einzigartigen ID's und ein Verfolgungs-System zur Bestimmung der Objekt-Position und Orientierung in Bezug auf ein Welt-Koordinaten-System, welches Verfolgungs-System das gleiche System sein kann, das benutzt wird zum Verfolgen der Position und Orientierung des Zeigers; und/oder
    • - ein System zur Generierung einer erweiterten Realitäts-Darstellung 14', 17' der computergenerierten graphischen Information, im voraus generiert und darübergelegt, zum Darüberlegen über ein reales Welt-Bild, und/oder
    • - ein Kommunikations-System, das Stimmen-Kommunikation und Transfer der Ganzen oder Teile der erweiterten Realitäts-Oberfläche und/oder zusätzliche virtuelle Information, unterstützt.
  • Das System kann auf verschiedene Arten konfiguriert werden. Die erweiterte Realität kann angewendet werden, auf mindestens zweit verschiedenen Arten visualisiert: Video-Durchsicht, optische Durchsicht.
  • Video-Durchscheinen benutzt eine Kamera, um einen direkten Video-Datenstrom der Umgebung oder zumindest eine Reihe von Standbildern, übereinstimmend mit der Benutzer-Ansicht der Welt einzufangen. Das System kombiniert computergenerierte Graphiken 14'. 4', 17' mit dem direkten Video-Datenstrom und projiziert das kombiniert erweiterten Realitäts-Video und Bild 7' vom realen Objekt 7 auf das Anzeigegerät. Der Benutzer wird das Video mit virtueller Information darübergelegt sehen, als wenn er/sie die reale Welt sieht.
  • In dem Fall einer optischen Durchsicht-Anordnung, werden die computergenerierten Graphiken direkt auf dem Anzeigegerät registriert und folgen der Benutzeransicht der realen Welt. Die virtuellen Graphiken werden mit der realen Welt, ohne einschließen eines Videos der realen Welt, kombiniert oder überlagert. Die Video-Durchsicht-Anordnung tendiert dazu weniger anspruchsvoll bzgl. der Bildwechselfrequenz zu sein.
  • Wie oben angeführt zeigt 2 einen Benutzer 1 mit einem Anzeigegerät 3, wie einer Brille, einem Zeiger 4 und einem Computer, wie einem tragbaren Computer 2. Der Benutzer nähert sich einem Objekt 7 von Interesse, wie einem Gerät, eine Ausstattung oder ein System, das mit einem Marker 8 angeordnet ist. Der Benutzer hat eine Kamera 6 und eine Verfolgungs-Einheit 8.
  • Es werden grundsätzlich mindestens zwei Verfolgungs-Funktionen zur Generierung der Visualisierung der Prozess/Gerät-Information und des Interaktions-System benötigt. Dies ist zusätzlich zu einem Erkennungs-System zur Erkennung identifizierender Marker angefordert, die die Geräte/Prozesse in der Umgebung markieren, welche Marker dann mit jeder ID zusammenpassen.
  • Die erste Verfolgungs-Funktion macht ausfindig und bestimmt die Position und Orientierung des interagierenden Zeige-Geräts 4 und/oder der Position des Außendienst- Betreibers 1, wobei die zweite Verfolgungs-Funktion eine ID für eine Ausstattung, ein Gerät oder System in der verfahrenstechnischen Anlage ausfindig macht und bestimmt. Diese Verfolgungs-Funktionen können in einem einzelnen Verfolgungs-System, benutzt zur Verfolgung Beider oder als eine Mehrheit von Verfolgungs-Systemen, umfasst sein. Ein auf Sicht basierendes Verfolgungs-System schließt eine Kamera ein, die daran befestigt ist oder darin integriert ist, das Anzeigegerät ist eine Lösung, welche mit ER-Visualisierung kombiniert werden kann, die auf Video-Durchsicht basiert.
  • Position und Orientierung des Zeige- und interagierenden Geräts kann in einigen verschiedenen Arten bestimmt werden. Es kann z. B. ein Verfolgungs-System geben, das auf Klang, z. B. Ultraschall Verfolgungs-Systeme basiert, magnetische Verfolgungs-Systeme, optische Systeme und/oder Verfolgungs-Systeme, die auf inertial navigation mittels Beschleunigungsmesser und/oder Kreisel basieren. Ein Verfolgungs-System kann auch auf einer Erfassung einer physischen Position usw. von mechanischen Armen basieren; und es gibt auf Sicht basierende und optische Systeme und Hybrid-Systeme, die einige der vorher erwähnten Technologien kombinieren. Für einige der Verfolgungs-Systeme, kann das interagierende Zeige-Gerät 4 integrierte Sensoren zum Bestimmen der Positionen oder Orientierungen aufweisen. Solche Sensoren können z. B. Kreisel, inertiale Sensoren und/oder Beschleunigungsmesser sein. Der Bezugspunkt, oder origo des Welt-KoordinatenSystems ist bevorzugt definiert, um mit der Position des Anzeigegeräts 3 Übereinzustimmen. Wenn die Kamera 6 bevorzugt befestigt wird auf oder integriert wird mit einem Anzeigegerät 3, ist die relative Position der Kamera zu dem Anzeigegerät bekannt. Daher kann das System die Posen des interagierenden Zeige-Geräts 4 in Bezug auf der Kamera/Anzeigegerät-System bestimmen. Als eine alternative zu einem Zeiger kann eine Hand oder ein Finger des Betreibers benutzt werden, besonders falls sie/er auf irgendeine Art, z. B. durch einen Ring oder ein Armband oder ähnlichem, identifiziert oder markiert ist. Die Hand, der Arm oder Finger usw. können dann verfolgt werden, wie es der Zeiger geworden wäre.
  • In einer Ausführung bedarf das System der Erkennung vordefinierter ID's in der Umgebung. Diese ID's sind angebracht, um jede Instanz der Ausstattung, Geräts, Instruments und Systems, mit welchem der Betreiber interagieren können wollte, zu identifizieren. Gemäß der Erfindung erfolgt die Positions-basierende Identifizierung der ID für eine Maschine/Prozess durch das Bestimmen der Position des Außendienst-Betreibers und seinem/ihrem Kopf und das Vergleichen dieser Position mit vordefinierten Positionen von relevanter Ausstattung und Geräten innerhalb der verfahrenstechnischen Anlage. In diesem Fall kann das Verfolgungs-System nur zum Verfolgen des interagierenden Zeige-Geräts des Außendienst-Betreibers angeordnet werden. Alternativ zu den oben beschriebenen Verfolgungs-Systemen, zur Bestimmung der Position von einer Maschine/Prozess-ID in der Umgebung, können verschiedene Marker-Technologien zur Erkennung, wie Funktransponder, Strichcodes, Ultraschall, Funksignale, optische Signale und/oder GPS, benutzt werden.
  • Wie oben beschrieben trägt der Ingenieur, Techniker oder Außendienst-Betreiber entweder eine am Kopf befestigte Anzeige 3 oder eine Brille (HMD; Head Mounted Display; am Kopf angebrachte Anzeige) oder führt oder trägt andererseits eine mobile Anzeige, welche ein Tablet-PC, ein Handprogrammiergerät oder ein PDA sein kann. Solch eine Anzeige funktioniert wie die „Ansicht“ der erweiterten Welt.
  • Die Anwendungs-Einheit 21 beinhaltet die benötigte Software, um den erwünschten Prozess oder Aufgabe, z. B. integrierte Echtzeit-Daten mit erkanntem Gerät/System, zu vollführen und Aktionen, die auf Eingabe des interagierenden Zeige-Geräts basieren, zu vollführen. Das Verfolgungs-System wird es ermöglichen die Pose des interagierenden Zeige-Geräts 4 in 3D ausfindig zu machen und kann auch benutzt werden um das Welt-Koordinaten-System zu spezifizieren. Das interagierende Zeige-Gerät kann auch benutzt werden für zusätzliche Aufgabe, wie eine virtuelle Steuer-Konsole oder andere virtuelle Information von der in der Hand gehaltene ID zu einem spezifischen Gerät/System zu ziehen und neue Positionen in der Umgebung zu lokalisieren, auszuwählen, zu zeigen usw.. Des Weiteren weist die Anwendungs-Einheit Information auf, die die Koordinaten-Systeme betrifft. Daher ist die Anwendungs-Einheit 21 von dem/der spezifischen System/Umgebung abhängig.
  • Der Betreiber benutzt ein interagierendes Zeige-Gerät 4, welches durch ein Verfolgungs-System 20 verfolgt wird, welches mit dem interagierenden Zeige-Gerät integriert werden kann. Der Benutzer benutzt das interagierende Zeige-Gerät 4, 4' zum interagieren mit der virtuellen Steuer-Konsole 14' und zum Zeigen 4 in der Umgebung.
  • 4 zeigt eine Anzeige gemäß einer anderen Ausführungsform. Sie zeigt eine erweiterte Realitäts-Anzeige 9', ein Bild 7' des Objekts (7, 1) und ein Bild 4' des Zeigers (4 1). Es zeigt auch ein Bild der Graphik einer Steuer-Konsole 14' oder mit dem Bild 7' des Objekts überlagerte virtuelle Bildschirm. Die Steuer-Konsole kann aus einem Anzeige-Teil 80 bestehen, welches einen Menü-Kernstück-Text 83 oder eine Graphik und z. B. online Ablesungen, wie verschiedene Messungen, Sensor-Ausgaben, Temperatur, Druck, Drehzahl, Strom, Spannung, Phasenwinkel usw. zeigen kann. Die Steuer-Konsole kann auch zwei bis vier Steuer-Knöpfe aufweisen, wie Knöpfe 85, welche benutzt werden können, um Dinge oder Kernstücke zu bedienen, die in der Anzeige 80 der Steuer-Konsolen 14' gezeigt sind. Die Steuer-Konsolen-Anzeige wird bedient, durch „drücken“ eines Bilds eines Knopfes 87, mit dem Bild 4' des Zeigers, dadurch, dass der Betreiber den realen Zeiger im Raum bewegt, was darin resultiert, dass die verfolgenden und graphischen Systeme das virtuelle Zeiger-Bild 4' auf der erweiterten Realitäts-Anzeige 9' bewegen. Ein Ding auf der Anzeige kann ausgewählt werden 83, und Knöpfe 87 usw. können bedient werden, um auf mehr Information usw. zuzugreifen. Andere Auswahlen können gemacht werden, um ein Menü aufzurufen, um von einem Menü andere Dinge wie gespeicherte Daten, Trends, Wartungs-Geschichte, Unterlagen oder Kontakt mit einem Experten auszuwählen.
  • Andere Steuer-Funktionen können auf der Anzeige 9' abgespielt werden. Dies kann in Form von Bildern oder Symbolen oder Knöpfen sein, um eine Steuer-Funktion direkt auszuführen oder die Anzeige 9' auf irgendeine Art zu bedienen. Im Besonderen können Abkürzungs-Symbole, wie 91 Menü, 93 online Messungen, 94 gespeicherte Bedienungs-Daten, 96 Trends in Bedienungs-Daten, 97 Wartungs-Geschichte, 98 Unterlagen oder 99 Kontakt mit einem Experten angezeigt werden. Solche andere graphischen Bilder 91-99, die über die erweiterte Realitäts-Anzeige gelegt sind, können durch Bewegungen des realen Zeigers 4, welcher dann das Bild 4' des virtuellen Zeigers antreibt, ausgewählt und aktiviert werden.
  • Die Graphik-Einheit 23 generiert eine 3D graphische Darstellung der visuellen Information, die in Bezug auf die Benutzer-ID (999) angezeigt wird. Diese Graphik-Einheit weist eine Spezifizierung der 3D graphischen Grundelemente auf, um visualisiert zu werden. Die Graphik-Einheit 23 empfängt, basierend auf Benutzer-Eingabe und Objekt-ID und/oder Benutzer-Position und Orientierung, Information von der Anwendungs-Einheit 21 bzgl. der virtuellen graphischen Information, die angezeigt wird. Alle graphischen Grundelement-Positionen sind in Bezug auf die Welt-Koordinaten-Rahmen bevorzugt spezifiziert. Für die Programmierungs-Anwendung des Roboters relevante visuelle Information können betreiberspezifische Wegpunkte, der eigentliche Roboter-Pfad, aufgabenspezifische Information usw. sein. Das Programmieren von Roboter-Pfaden, ein benutzen von Wegpunkten, ist beschrieben in einer veröffentlichten PCT-Anwendung WO 03/99526 A1 mit dem Titel „Ein Verfahren und ein System zur Programmierung eines industriellen Roboters“, welches Dokument hierbei im Ganzen in dieser Spezifizierung mittels dieser Bezugnahme miteinbezogen ist. Die graphischen Darstellungen in den graphischen Modulen werden an die Registrierungs-Einheit 25 übermittelt.
  • Die registrierende Einheit 25 oder Registrierungs-Einheit kombiniert die virtuellen Graphiken von der Graphik-Einheit 23 mit der realen Welt-Ansicht. Für den Fall, dass das Video-Durchsicht-Verfahren benutzt wird, wird ein direktes Video des realen Welt-Bilds von der Kamera-System-Einheit 26 erfasst und mit der graphischen Darstellung von der Graphik-Einheit 23 kombiniert. Die registrierende Einheit 25 benutzt die Pose-Daten von der ID-Verfolgungs-System-Einheit 24, um die realen Welt-Bilder über die computergenerierten Graphiken in eine richtige Position, relativ zu den realen Welt-Bildern, zu legen. Mit der richtig bewerkstelligten Registrierung werden die computergenerierten Graphiken an der realen Welt-Szene virtuell „angebracht“.
  • Im Fall der Video-Durchsicht, produziert eine Kamera-Einheit 6, die an das Anzeigegerät 3, 27 angebracht ist, reale Welt-Bilder. Die Pose der Kamera und der Anzeige wird gemäß des Welt-Koordinaten-Rahmens bestimmt und die Pose wird von der registrierenden Einheit 25 benutzt, um die realen Welt-Szene über die computergenerierten Graphiken von dem Graphik-Modul 23 zu legen. Die kombinierten Bilden werden auf dem Anzeigegerät 3, 27 angezeigt.
  • Alternativ überlagert die registrierende Einheit 25 die reale Welt mit den computergenerierten Graphiken in einer optischen Durchsicht-Anordnung.
  • Eine Speicher-Einheit 22, ein Daten Server oder andere Speicher-Mittel, ermöglichen das Sichern und Laden von anwendungsbezogener Information, z. B. anwendungsbezogene Information, graphische Oberflächen für verschiedene Geräte/Systeme und System-Konfigurations-Parameter, z. B. Orts- und/oder Welt-Koordinaten-Rahmen.
  • Gemäß einer zweiten bevorzugten Ausführungsform der vorliegenden Erfindung, nähert sich der Betreiber oder ein Benutzer 1 einer spezifische Ausstattung/Gerät/Prozess an dem er interessiert ist, um weitere Information zu bekommen oder um mit Objekt 7 zu interagieren. Das System bestimmt dann automatisch die Position des Benutzers innerhalb der verfahrenstechnischen Anlage, was durch
    • - erkennen der Position des Benutzers und seines Kopfes in Bezug zu der Fabrik und der vordefinierten Positionen der Ausstattung, Geräte und Systeme innerhalb der Fabrik, bewerkstelligt wird. Ein Koordinaten-System ist spezifiziert für graphische Synchronisierung, manchmal beschrieben als Registrierung der virtuellen Graphiken mit dem Bild der realen Welt. In dem Fall, wo einzigartige Marker 8 an Ausstattung, Geräte, Instrumente und Systeme angebracht werden, existiert für jedes Gerät ein relatives und lokalen Koordinaten-System. Virtuelle Graphiken können in Bezug zu diesem lokalen Koordinaten-System synchronisiert werden. Da die absolute Position des Außendienst-Betreibers und seines Kopfes benutzt wird, wird ein absolutes Koordinaten-System, ein Welt-Koordinaten-System, definiert und die virtuellen Graphiken in Bezug zu dem Welt-Koordinaten-System synchronisiert.
  • Das System zeigt vordefinierte Ansichten, ähnlich zu denen in 9 in 1 gezeigt, an, die aus ein oder mehreren computergenerierten Graphiken 14', 17', 4' bestehen, die projiziert oder anderweitig direkt überlagert sind mit einem Bild der spezifischen Ausstattung oder Gerät 7'. Auf der Anzeige 3 sieht der Benutzer die virtuelle Information, die an der Ausstattung, dem Gerät, Instrument oder System angebracht ist. Die virtuelle Information/Graphik kann z. B. Ablesungen wie Echtzeit-Prozess-Parameter, Temperatur, Druck usw. repräsentieren; und/oder Ereignisse, Warnungen und/oder Alarme; die computergenerierten Graphiken können eine virtuelle Steuer-Konsole 14' oder einen virtuellen Bildschirm zur Interaktion mit der Ausstattung, Gerät, Instrument oder System anzeigen; kann Unterlagen anzeigen; oder eine Kombination von Dokumenten und der oberen Graphiken.
  • Gemäß einer dritten bevorzugten Ausführungsform der vorliegenden Erfindung betreibt der Benutzer das System durch tragen/halten des erweiterten Realitäts-Systems, das eine Anzeige und ein interagierendes Zeige-Gerät einschließt. Video-Durchsicht wird benutzt, um eine ER-Welt auf dem Anzeigegerät zu generieren und vorzulegen. Die Kamera, die mit dem Anzeigegerät integriert ist, wird benutzt, um einen direkten Video-Datenstrom der realen Welt einzufangen. Die Kamera ist in Bezug zu der Anzeige so lokalisiert, dass sie die gleiche Ansicht bereitstellt, die der Benutzer erhalten würde, wenn er durch das Anzeigegerät „hindurchsehen“ würde. Der direkte Video-Datenstrom, kombiniert mit computergenerierten Graphiken, wird in Echtzeit auf dem Anzeigegerät vorgelegt. Zusätzliche Funktionalität schließt Kamerazoomen mit Ausgabe der eigentlichen Kamera-Brennweite ein. Dies wird das System befähigen, die computergenerierten Graphiken, während des Zoomens, richtig anzuzeigen. Die Kamera und/oder die Kamera-Brennweiten-Ausgabe kann auch für auf Sicht basierendes Verfolgen benutzt werden, falls auf Sicht basierendes Verfolgen als Verfolgungs-System benutzt wird.
  • Das interagierende Zeige-Gerät-Verfolgungs-System verfolgt die Position des Zeige-Geräts, in Bezug zu dem lokalen oder Welt-Koordinaten-System. Die Position des Zeige-Geräts des Betreibers wird z. B. zum Rendern computergenerierter Graphiken auf einem projizierte Frontscheiben-Anzeigegerät oder auf in der Hand gehaltenem Anzeigegerät und zum Erkennen von Interaktion, Auswahl oder Zeigen auf die virtuelle Graphiken und besonders der virtuellen Graphiken, die eine virtuelle Steuer-Konsole 14' oder andere Steuer-Funktionen repräsentieren, benutzt.
  • Der Benutzer vollführt den erwünschten Prozess, z. B. Information zu überwachen, um durch verschiedene virtuelle Ansichten zu navigieren und/oder mit der virtuellen Steuer-Konsole zu interagieren. Während der Ausführung der spezifischen Aufgabe wird prozessbezogene Information mittels der computergenerierten 3D Graphiken direkt in der Ausstattung, dem Gerät, Instrument oder System generiert und visualisiert. Die Graphiken werden von der integrierten Kamera über die reale Welt-Darstellung gelegt. Wenn der Benutzer sich umherbewegt oder seinen Kopf bewegt, werden die virtuellen Graphiken generiert und/oder angepasst, sodass sie am gleichen Ort auf der spezifischen Ausstattung, Gerät, Instrument oder System positioniert zu sein scheinen, obgleich der Standpunkt des kombinierten Objekts und der Graphiken sich geändert haben kann.
  • Zusätzlich zum Anzeigen virtueller Information, direkt bezogen auf eine spezifische Ausstattung und/oder Gerät zur Überwachung von, und Interaktion mit, der spezifischen Ausstattung oder Gerät und/oder dem Steuer-System, kommunizieren in einer bevorzugten Ausführungsform, die durch das System und Verfahren bereitgestellten Anzeigen mit anderen Benutzern. Die Anzeigen werden geteilt, so dass der Benutzer auch mit lokalen oder entlegen lokalisierten Experten interagieren kann. Benutzer-Funktionen werden z. B. abhängig von der ID der Person oder angeschlossenen Personen erweitert, so dass die anderen Benutzer oder entlegene Experten virtuelle Anmerkungen oder andere graphische Geräte zu der Ansicht, die durch den Betreiber in Anzeige 3 zu sehen ist, anbringen können.
  • Die virtuelle Information schließt, wie in der Benutzer-Ansicht 9 der 1, ein graphisches Bild 4' des Zeigers 4 ein. Dieser Zeiger kann über irgendeinem Teil der Fabrik oder des Prozesses, abhängig von dem gegenwärtigen Standort des Betreibers, angezeigt werden oder darübergelegt werden. Durch untersuchen einer relativen Position des graphischen Bilds 4' des Zeigers, der über die Schemata der Fabrik, die Schemata des Prozesses, Fabrik-Aufbau, Steuer-System-Ansicht usw. gelegt wurde und untersuchen eines erwünschten ausgewählten Geräts/Prozesses, irgendwo in der Fabrik/dem Prozess, kann der Benutzer das graphische Bild 4' des Zeigers als einen Orts-Führer oder Routen-Führer durch den Fabrik-Prozess zu einem spezifischen Ort in der Fabrik benutzen. Dies bedeutet, dass der Benutzer das System benutzten kann, um seinen Weg zu einem Gerät/Objekt von Interesse zu lokalisieren und zu finden. Andere Variationen der Grundsätze der Erfindung, wie hier eröffnet, können geübt werden. Ein oder Beide, Zeiger 4 und Kamera 6, können einen kabellosen Sender und kabellosen Empfänger umfassen oder können z. B. kabellosen Funk-Sende-Empfänger (Sender-Empfänger) sein. Kabellose Kommunikation kann ausgeführt werden, durch benutzen irgendeines passenden Protokolls. Kurzstrecken-Funk-Kommunikation ist die bevorzugte Technologie, die ein Protokoll benutzt, das mit Standards kompatibel ist, die durch die „Bluetooth Spezial Interest Group“ (SIG), irgendeine Variation von IEEE-802.11, WiFi, Ultra-Weit-Band (UWB), ZigBee oder IEEE-802.15.4, IEEE-802.13 oder äquivalente oder ähnliche, thematisiert werden.
  • Generell funktioniert eine Funk-Technologie wie eine Funk-Kommunikations-Techniken vom Stand der Technik, z. B. Frequenzsprung, Spreiz-Spektrum, Ultra-Breitband usw., die irgendein passendes Frequenzband, wie das 2.4 GHz- oder 5 GHz-Band oder höher, benutzen, mit signifikanten Interferenz-Unterdrückungs-Mitteln durch z. B. Spreiz-Spektrum Technologie, die bevorzugte Art von kabelloser Kommunikation ist Frequenzsprung usw.. Ein breites Spektrum kabelloses Protokoll in welchem jedes oder irgendein Datenpaket bei anderen Frequenzen z. B. eines breiten Spektrums ca. 7 mal pro ms wieder versendet werden kann, kann benutzt werden, wie in einem Protokoll, das, entwickelt von ABB, kabellose Oberfläche für Sensoren und Aktuatoren (Wireless interface for sensors and actuators, Wisa) genannt wird. Jedoch kann eine oder mehr kabellose Kommunikation/en alternativ sein oder auch, durch Benutzung von Infrarot-Mittel (IR) und Protokolle wie IrDA, IrCOMM oder ähnliche, ausgeführt werden. Kabellose Kommunikation kann auch durch Benutzung von Klang- oder Ultraschall-Signalgebern ausgeführt werden.
  • Die Verfahren und das System, das in Bezug auf Ausführungsformen der vorliegenden Erfindung erwähnt wurde, kann für Betreibungen, wie Automobilzusammenbau und Herstellungsprozessen, die in der Automobilherstellung benutzt werden, angewendet werden. Ein Roboter oder eine Automatisierungsanwendung, die einen Roboter einschließt, kann z. B. programmiert werden, um irgendeinen der Folgenden auszuführen: Schweißen, Löten, elektrisches Löten, Nietverbinden, Putzschleifen, Lackieren, Sprühlackieren, elektrostatisches Pulveraufspritzen, Kleben, Betreibungsvollführung in Bezug zu metallverarbeitenden Prozessen wie Stranggiesen, Giesen, Druckgiesen und Produktionsverfahren für andere Materialien wie Plastikspritzblasen, Verdichtung und/oder Reaktionsguss oder Extrusion. Eine Roboter-Anwendung kann programmiert werden, um andere Betreibungen auszuführen, die so etwas wie Abweisblech, Biegeblech und/oder Walzenblech einschließen. Die Roboter-Anwendung kann eine Mehrheit von Werkzeugen umfassen, beides sind spezialisierte Werkzeuge für schweißen, lackieren usw. als auch andere mehr generelle Geräte, Zangen, Greifer, Manipulatoren usw., die bedienartigen Aufgaben wie Halten, Platzieren, Nehmen und Platzieren und sogar Verpacken von Komponenten oder Subkomponenten, in einen Behälter, ausführen.
  • Ein oder mehr Mikroprozessoren (oder Prozessoren oder Computer) umfassen eine zentrale Verarbeitungs-Einheit CPU, die die Schritte der Verfahren gemäß einem oder mehrerer Aspekte der Erfindungs-Vollführung. Dies wird mit der Hilfe eines oder mehrerer Computer-Programme vollführt, welche zumindest teilweises in Speicher gespeichert werden, der für einen oder mehrere Prozessoren zugänglich ist. Der oder jeder Prozessor kann zumindest lokalisiert sein in oder angeordnet verbunden werden mit, dem Computer oder tragbaren Computer 2. Es soll verstanden werden, dass Computer-Programme, die Verfahren gemäß der Erfindung ausführen, auch auf einen oder mehr generellen Zweck gelaufen werden können industriellen Mikroprozessoren oder Computer oder ein oder mehrere spezielle adaptierte Computer oder Prozessoren, FPGAs (Außendienst- programmierbare gate arrays) oder ASICs (Anwendungs spezifische integrierte Schaltungen) oder andere Geräte wie einfache programmierbare logische Geräte (SPLDs), komplexe programmierbare logische Geräte (CPLDs), außendienst-programmierbare System-Chips (FPSCs). Die beschriebenen Computer-Programme können auch teilweises als eine dezentralisierte Anwendung angeordnet sein, die in der Lage ist auf einigen verschiedenen Computern oder Computer-Systemen zu mehr oder wendiger der gleichen Zeit zu laufen.
  • Ein Teil des Programms kann in einem Prozessor wie oben gespeichert werden, aber auch in einem ROM, RAM, PROM, EPROM oder EEPROM-Chip oder ähnlichen Speicher-Mitteln. Das Programm kann zum Teil oder im ganzen auch lokal (oder zentral) gespeichert werden, auf oder in andere passende computer-lesbare Medien, wie einer Magnetplatte, CD-ROM oder DVD-Scheibe, Festplatte, magnetooptischen Speicher-Mitteln, in permanenten Speicher, in Flash-Speicher, als Firmware oder gespeichert auf einen Daten Server. Andere bekannte und passende Medien schießen entfernbare Speicher-Medien wie Sony-Speicher-Stick (TM) und andere entfernbare Flash-Speicher ein, die in digitalen Kameras usw. benutzt werden, Telefonen oder entfernbare Festplatten-Laufwerk usw. können auch benutzt werden. Das Programm kann auch teilweises von einem Daten-Netzwerk 10 versorgt werden, welches teilweises oder temporär ein öffentliches Netzwerk, wie das Internet, umfassen kann.
  • Es sollte angemerkt werden, dass, während die oberen Beschreibung beispielhaft gezeigte Ausführungsformen der Erfindung sind, es einige Variationen und Modifikationen gibt, welche zu der eröffneten Lösung ohne Abweichung von dem Bereich der vorliegenden Erfindung, wie in den angehängten Ansprüchen definiert, gemacht werden können.

Claims (40)

  1. Verfahren zum Erzeugen einer Mensch-Maschine-Benutzeroberfläche für einen Benutzer zum Steuern eines industriellen oder kommerziellen Geräts oder Prozesses, gekennzeichnet durch - Auswählen des industriellen Geräts oder Prozesses mittels einer Bewegung oder Führen eines Zeigers (4) und Verfolgen der Position des Zeigers im Raum, - Erhalten von Information einer Identität des ausgewählten industriellen Geräts (7) oder Prozesses oder einer betreffenden Anlage durch Bestimmen der Position des Benutzers und seines/ihres Kopfes, und Vergleichen der bestimmten Position des Benutzers und seines/ihres Kopfes mit vordefinierten Positionen von relevanten Geräten oder Prozessen und durch Abstimmen der Identität dieses industriellen Geräts oder Prozesses mit einem physischen Standort des Geräts oder Prozesses oder mit einem Standort, eingebettet als eine Software-Dateneinheit in einem Steuer-System für das Gerät oder den Prozess, - Vergleichen dieses industriellen Geräts (7) oder Prozesses mit Steuer-System-Daten, - Aufrufen wenigstens eines gespeicherten virtuellen Bilds (14', 17'), in Abhängigkeit von der Identität dieses industriellen Geräts oder Prozesses, - Kombinieren des wenigstens einen gespeicherten virtuellen Bilds mit einem Bild (7') eines realen Objekts (7) oder Prozesses, Anzeigen der Kombination auf einer Anzeige (3), und - Bereitstellen eines virtuellen Mensch-Maschine-Benutzeroberflächen-Steuermittels (14') einem Benutzer zum Steuern des industriellen Geräts oder Prozesses, wobei das virtuelle Mensch-Maschine-Benutzeroberflächen-Steuermittel (14') eine virtuelle Steuer-Konsole (14') umfasst, mit der der Benutzer mittels dem Zeiger (4) interagieren kann, um das ausgewählte industrielle Gerät oder den Prozess zu steuern.
  2. Verfahren gemäß Anspruch 1, gekennzeichnet durch Auswählen dieses industriellen Geräts mittels einer Bewegung oder Führen des Zeigers (4) im Sichtfeld einer Kamera (6) und Fotografieren der Position und/oder Bewegung des Zeigers.
  3. Verfahren gemäß Anspruch 2, gekennzeichnet durch Auswählen eines Teils des industriellen Geräts oder mindestens eines gespeicherten virtuellen Bilds mittels einer Bewegung oder Führen eines Zeigers (4) und verfolgen der Position des Zeigers, um ein computererzeugtes Bild (4') des auf der Anzeige gezeigten Zeigers zu bewegen oder zu bedienen.
  4. Verfahren gemäß Anspruch 1 oder 3, gekennzeichnet durch Aufrufen der Status-Information (17') oder Zustands-Information für einen Teils dieses industriellen Geräts oder Prozesses, abhängig von der Bedienung durch den Benutzer des virtuellen Mensch-Maschine-Benutzeroberflächen-Steuermittels (14').
  5. Verfahren gemäß Anspruch 1, 4, gekennzeichnet durch Erzeugen einer Steuer-Aktion für einen Teil dieses industriellen Geräts oder eines Prozesses oder einer Anlage, in Abhängigkeit von der Bedienung durch den Benutzer des virtuellen Mensch-Maschine-Benutzeroberflächen-Steuermittels (14').
  6. Verfahren gemäß Anspruch 1, 4, gekennzeichnet durch Erfassen einer Position des Kopfes des Benutzers (1) oder eines anderen Betreibers und Berechnen einer Position und Orientierung und/oder einer realen Welt-Koordinaten-Position.
  7. Verfahren gemäß Anspruch 1, gekennzeichnet durch Berechnen einer Position und Orientierung und/oder einer realen Welt-Koordinaten-Position dieses industriellen Geräts mittels der Bild-Ausgabe von mindestens einer Kamera (6).
  8. Verfahren gemäß Anspruch 7, gekennzeichnet durch Berechnen einer Position und Orientierung und/oder einer realen Welt-Koordinaten-Position mittels einer Brennweiten-Ausgabe von mindestens einer Kamera.
  9. Verfahren gemäß Anspruch 1, gekennzeichnet durch Auswählen dieses industriellen Geräts mittels einer Bewegung oder Führen eines Zeigers (4) und Verfolgen der Position des Zeigers im Raum, Benutzen eine Technologie basierend auf irgendeinem von der Liste aus Ultraschall, sichtbares Licht, Infrarot-Licht, ein GPS System, eine mechanische Verknüpfung.
  10. Verfahren gemäß Anspruch 7, gekennzeichnet durch Vergleichen der Identität dieses industriellen Geräts oder Prozesses mit Teilen eines bekannten Bildes dieses industriellen Geräts oder Prozesses.
  11. Verfahren gemäß Anspruch 7, gekennzeichnet durch Erfassen eines Signals, Kennzeichens oder codierten visuellen Mittels und Vergleichen des erkannten Kennzeichens mit gespeichertem Daten-Standort und/oder gespeicherter Koordinate, umfassend dieses industrielle Gerät oder diesen industriellen Prozess.
  12. Verfahren gemäß Anspruch 7, gekennzeichnet durch Erfassen eines optischen, Radio- und Klang-Signals, abgestrahlt von einem ausgewählten Teil des industriellen Geräts oder Prozesses und Vergleichen des erkannten Signals mit gespeichertem Standort und/oder gespeicherten Koordinaten-Daten, umfassend dieses industrielle Gerät oder diesen industriellen Prozess.
  13. Verfahren gemäß Anspruch 7, gekennzeichnet durch Bestimmen einer Pose oder Orientierung und/oder Richtung von Interesse für den Benutzer (1) und die Berechnung des Standorts dieses industriellen Geräts oder Prozesses, um einen physischen Standort in einem oder einen Standort in einer virtuellen Fabrik, zu bilden.
  14. Verfahren gemäß Anspruch 7, gekennzeichnet durch Identifizieren eines dieses ausgewählten industriellen Geräts oder Prozesses, Festlegen einer Position des Benutzers (1), Berechnen des Standorts dieses industriellen Geräts oder Prozesses, relativ zur Position des Benutzers, und Bereitstellen einer graphischen Orientierung eines physischen Standorts, eines Standorts in einer virtuellen Fabrik.
  15. Verfahren gemäß Anspruch 1, gekennzeichnet durch Vergleichen eines Markers (8), der sichtbar und dieses industrielle Gerät identifizierend ist, durch Erkennung von einer oder mehreren Nummern und/oder Buchstaben oder codierte Nummern und/oder Buchstaben, mit gespeicherten Daten.
  16. Verfahren gemäß Anspruch 15, gekennzeichnet durch Vergleichen eines Markers (8), der sichtbar und dieses industrielle Gerät identifizierend ist, durch Erkennung von einer oder mehreren Nummern und/oder Buchstaben in einem sichtbaren Bild, mit gespeicherten Daten.
  17. Verfahren gemäß Anspruch 1, gekennzeichnet durch Vergleichen eines Bilds dieses industriellen Geräts mit gespeicherten Daten und durch Bild-Erkennungs-Mittel dieses industrielle Gerät identifizierend.
  18. Verfahren gemäß Anspruch 1, gekennzeichnet durch Berechnen einer Position des Zeigers (4), Vergleichen der Position mit einem Standort in einer Darstellung der Fabrik und zeigen der graphischen Darstellung des Zeigers (4') über die Darstellung der Fabrik gelegt.
  19. Computer-Programm, welches, wenn es in einen Computer oder Prozessor eingelesen wird, den Computer oder Prozessor veranlasst, ein Verfahren gemäß der Schritte von irgendeinem der Ansprüche 1-18 auszuführen.
  20. Computer-lesbares Medium, umfassend ein Computer-Programm, welches, wenn es in einen Computer oder Prozessor eingelesen wird, den Computer oder Prozessor veranlasst, ein Verfahren gemäß der Schritte von irgendeinem der Ansprüche 1-18 auszuführen.
  21. Graphische Benutzer-Oberfläche einer Mensch-Maschine-Benutzeroberfläche für einen Benutzer, um ein/en industrielles/n oder kommerzielles/n Gerät oder Prozess zu steuern, gekennzeichnet, durch eine graphische Benutzer-Oberfläche (GBO) (9') zur Anzeige von Daten, die für dieses industrielle Gerät oder den industriellen Prozess relevant sind, wobei diese GBO eine graphische Benutzer-Oberfläche-Anzeige und/oder Bedienungs-Mittel (4', 14', 80, 85) für Aktivierungs-Funktionen zur Steuerung dieses industriellen Geräts oder Prozesses umfasst, wobei das industrielle Gerät oder der industrielle Prozess mittels einer Bewegung oder Führen eines Zeigers (4) und verfolgen der Position des Zeigers im Raum ausgewählt wird, und wobei die Identität dieses industriellen Geräts oder Prozesses mit einem physischen Standort des Geräts oder Prozesses verglichen wird, der durch Bestimmen der Position des Benutzers und seines/ihres Kopfes, und Vergleichen der bestimmten Position des Benutzers und seines/ihres Kopfes mit vordefinierten Positionen von relevanten Geräten oder Prozessen sowie und durch Abstimmen der Identität dieses industriellen Geräts oder Prozesses mit einem physischen Standort des Geräts oder Prozesses oder mit einem Standort, eingebettet als eine Software-Dateneinheit in einem Steuer-System für das Gerät oder den Prozess erhalten wird, , wobei das virtuelle Mensch-Maschine-Benutzeroberfläche eine virtuelle Steuer-Konsole (14') umfasst, mit der der Benutzer mittels dem Zeiger (4) interagieren kann, um das ausgewählte industrielle Gerät oder den Prozess zu steuern.
  22. System zum Erzeugen einer Mensch-Maschine-Benutzeroberfläche für einen Benutzer zu benutzen, um ein/en industrielles/n oder kommerzielles/n Gerät oder Prozess zu steuern, gekennzeichnet durch ein oder mehrere erweiterte Realitäts-Systeme, jedes umfassend: - Mittel zum Auswählen des industriellen Geräts oder Prozesses mittels einer Bewegung oder Führen des Zeigegeräts (4) und verfolgen der Position des Zeigers im Raum, - Mittel zum Vergleichen der Identität dieses industriellen Geräts oder Prozesses mit einem physischen Standort des Geräts oder Prozesses oder mit einem Standort, eingebettet als eine Software-Dateneinheit in einem Steuer-System für das Gerät oder den Prozess, - Mittel zum Erfassen eines identifizierenden Markers (8) und Mittel zum Vergleichen des identifizierten Markers mit dem industriellen Gerät oder Prozess, - ein in der Hand getragenes interagierendes Zeige-Gerät (4), mit einem verfolgenden System (5, 6, 20) zum Festlegen seiner Position und Orientierung in Bezug zu einem Welt-Koordinaten-System, zum Auswählen des industriellen Geräts oder Prozesses mittels einer Bewegung oder Führen des Zeigegeräts (4) und verfolgen der Position des Zeigers im Raum, - Mittel zum Vergleichen der Identität dieses industriellen Geräts oder Prozesses mit einem physischen Standort des Geräts oder Prozesses oder mit einem Standort, eingebettet als eine Software-Dateneinheit in einem Steuer-System für das Gerät oder den Prozess, - Mittel zu Erhalten von Information einer Identität des ausgewählten industriellen Geräts (7) oder Prozesses oder einer betreffenden Anlage durch Bestimmen der Position des Benutzers und seines/ihres Kopfes, und Vergleichen der bestimmten Position des Benutzers und seines/ihres Kopfes mit vordefinierten Positionen von relevanten Geräten oder Prozessen, - ein graphisches Bedienungs-System (23, 18), zum Erzeugen mindestens eines gespeicherten virtuellen Bilds (14', 17'), angeordnet mit Computer-Programm-Mitteln zum Steuern der Steuer-Funktionen, und - ein tragbares Anzeigegerät (3) zur Visualisierung einer erweiterten Realitäts-Anzeige, umfassend mindestens ein gespeichertes virtuelles Bild, über ein reales Welt-Bild (7') eines Teils des industriellen Geräts oder Prozesses gelegt, wobei - das System ein virtuelles Mensch-Maschine-Benutzeroberflächen-Steuermittel (14') zum Steuern des industriellen Geräts oder Prozesses erzeugt und das virtuelle Mensch-Maschine-Benutzeroberflächen-Steuermittel (14') eine virtuelle Steuer-Konsole (14') umfasst, mit der der Benutzer mittels dem Zeiger (4) interagieren kann, um das ausgewählte industrielle Gerät oder den Prozess zu steuern.
  23. System gemäß Anspruch 22, gekennzeichnet durch ein verfolgendes System zur Festlegung der Zeiger-Position, umfassend Sensor-Mittel, die in den Zeiger integriert oder eingebaut sind.
  24. System gemäß Anspruch 22, gekennzeichnet durch ein verfolgendes System zur Festlegung der Zeiger-Position, umfassend Kamera-Mittel (6), die durch den Benutzer betrieben werden.
  25. System gemäß Anspruch 22, gekennzeichnet durch ein verfolgendes System (20) zur Festlegung der Zeiger-Position, umfassend Kamera-Mittel (6), die durch den Benutzer betrieben werden, und eine verfolgende Einheit (5).
  26. System gemäß Anspruch 22, gekennzeichnet durch ein verfolgendes System (20) zur Festlegung der Zeiger-Position, umfassend eine Technologie basierend auf irgendeinem von der Liste: Ultraschall, sichtbares Licht, Infrarot-Licht, ein GPS System, eine mechanische Verknüpfung.
  27. System gemäß Anspruch 22, gekennzeichnet durch einen oder mehrere Computer-Programm-Mittel zum Festlegen der Position des Zeigers (4) in der realen Welt und Mittel zum Berechnen einer Position auf einer Anzeige für ein Bild (4') des realen Welt-Zeigers.
  28. System gemäß Anspruch 22, gekennzeichnet durch ein Anzeige-Gerät (3), angeordnet in einer bekannten Position relativ zu einer Kamera (6) oder integriert mit der Kamera.
  29. System gemäß Anspruch 25, gekennzeichnet durch eine Bild-Einfang-System-Einheit (26) oder ein Kamera-System für eine Video-Durchsicht-System-Anordnung.
  30. System gemäß Anspruch 22, gekennzeichnet durch einen identifizierenden Marker (8), relativ zu einem industriellen Gerät oder Prozess angeordnet.
  31. System gemäß Anspruch 30, gekennzeichnet durch einen identifizierenden Marker (8), umfassend irgendeinen von der Liste: numerisches Zeichen, alphanumerisches Zeichen, codiertes alphanumerisches Zeichen, maschinen-lesbares sichtbares Zeichen, Bar-Code, visuelles Zeichen eingebettet in codierte alphanumerische Information.
  32. System gemäß Anspruch 30, gekennzeichnet durch einen identifizierenden Marker (8), umfassend ein signalisierendes Mittel, umfassend irgendeinen von der Liste: IR-Detektor oder Emitter, Ultraschall-Emitter, Sensor für einen Laserstrahl, kabelloser Funk-Sender und - Empfänger.
  33. System gemäß Anspruch 22, gekennzeichnet durch verfolgende Mittel zur Erfassung einer Position des Kopfes des Benutzers (1) oder anderer Betreiber und berechnende Mittel zur Berechnung einer Position und Orientierung und/oder einer realen Welt-Koordinaten-Position des Benutzers.
  34. System gemäß Anspruch 22, gekennzeichnet durch Umfassen einer Anwendungs-Einheit (21) mit Software-Mitteln, integrierend von Echtzeit-Daten und/oder Graphiken mit einem Bild (7') des identifizierten industriellen Geräts oder Prozesses.
  35. System gemäß Anspruch 22, gekennzeichnet durch Umfassen von einer Registrierungs-Einheit (25) mit Software und/oder Hardware Mitteln zum Überlagern von Bildern der realen Welt (7') mit den computererzeugten Graphiken (14', 17') für eine optisch durchsichtige System-Anordnung.
  36. System gemäß Anspruch 22, gekennzeichnet durch Umfassen von Kommunikations-Mitteln zur stimmunterstützten Kommunikation und/oder von Teilen oder allem einer erweiterten Realitäts-Benutzeroberfläche (9, 9', 80) und/oder zusätzlicher virtueller Information (4', 14', 17', 85, 98) für eine Mehrheit an Benutzern.
  37. System gemäß Anspruch 36, gekennzeichnet durch Computer-Programm-Mittel für einen oder mehrere andere angeschlossene Benutzer zum bedienen der erweiterten Realitäts-Anzeige.
  38. System gemäß Anspruch 36, gekennzeichnet durch Computer-Programm-Mittel für einen oder mehrere andere angeschlossene Benutzer zum Anhängen von Text oder Graphik-Anmerkungen an ein Bild (4', 7', 17', 14'), umfasst in der erweiterten Realitäts-Anzeige (9, 9').
  39. System gemäß Anspruch 22, gekennzeichnet durch Umfassen von Computer-Programm-Mittel und Daten-Basis-Mittel (22) zum Handhaben von Information von Unterlagen oder anderen Quellen.
  40. System gemäß Anspruch 22, dadurch gekennzeichnet, dass eine Hand oder ein Finger des Benutzers konfigurierend in dem System angeordnet ist, wie ein interagierendes Zeige-Gerät (4) und/oder mit einem Ring, einer Umhängekette, einem Armband oder einem anderen identifizierenden Objekt angeordnet ist.
DE102005061211.3A 2004-12-22 2005-12-21 Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche Expired - Fee Related DE102005061211B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US63786804P 2004-12-22 2004-12-22
US60/637,868 2004-12-22

Publications (2)

Publication Number Publication Date
DE102005061211A1 DE102005061211A1 (de) 2006-09-07
DE102005061211B4 true DE102005061211B4 (de) 2023-04-06

Family

ID=36848269

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005061211.3A Expired - Fee Related DE102005061211B4 (de) 2004-12-22 2005-12-21 Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche

Country Status (2)

Country Link
US (1) US7787992B2 (de)
DE (1) DE102005061211B4 (de)

Families Citing this family (218)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8817045B2 (en) 2000-11-06 2014-08-26 Nant Holdings Ip, Llc Interactivity via mobile image recognition
US20030231189A1 (en) * 2002-05-31 2003-12-18 Microsoft Corporation Altering a display on a viewing device based upon a user controlled orientation of the viewing device
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
US8291309B2 (en) 2003-11-14 2012-10-16 Rockwell Automation Technologies, Inc. Systems and methods that utilize scalable vector graphics to provide web-based visualization of a device
EP1709519B1 (de) * 2003-12-31 2014-03-05 ABB Research Ltd. Virtuelle steuertafel
JP4533087B2 (ja) * 2004-10-28 2010-08-25 キヤノン株式会社 画像処理方法、画像処理装置
EP1814101A1 (de) * 2004-11-19 2007-08-01 Daem Interactive, Sl Persönliches gerät mit bilderfassungsfunktionen zur anwendung von ressourcen der ergänzten realität und entsprechendes verfahren
US7852317B2 (en) 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
US20060178758A1 (en) * 2005-02-08 2006-08-10 Israel Aircraft Industries Ltd. Training methods and systems
US20060262140A1 (en) * 2005-05-18 2006-11-23 Kujawa Gregory A Method and apparatus to facilitate visual augmentation of perceived reality
BRPI0615283A2 (pt) 2005-08-29 2011-05-17 Evryx Technologies Inc interatividade por meio de reconhecimento de imagem móvel
US7818075B2 (en) * 2006-05-03 2010-10-19 Data I/O Corporation Automated programming system employing non-text user interface
US7920071B2 (en) * 2006-05-26 2011-04-05 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method providing status and control of unmanned vehicles
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US8913003B2 (en) 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
JP4777182B2 (ja) * 2006-08-01 2011-09-21 キヤノン株式会社 複合現実感提示装置及びその制御方法、プログラム
US20080030575A1 (en) * 2006-08-03 2008-02-07 Davies Paul R System and method including augmentable imagery feature to provide remote support
WO2008048260A1 (en) * 2006-10-18 2008-04-24 Yutaka Kanayama Human-guided mapping method for mobile robot
US20080218331A1 (en) * 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US20090089682A1 (en) * 2007-09-27 2009-04-02 Rockwell Automation Technologies, Inc. Collaborative environment for sharing visualizations of industrial automation data
US7899777B2 (en) * 2007-09-27 2011-03-01 Rockwell Automation Technologies, Inc. Web-based visualization mash-ups for industrial automation
US8026933B2 (en) * 2007-09-27 2011-09-27 Rockwell Automation Technologies, Inc. Visualization system(s) and method(s) for preserving or augmenting resolution and data associated with zooming or paning in an industrial automation environment
US8677262B2 (en) * 2007-09-27 2014-03-18 Rockwell Automation Technologies, Inc. Presentation of industrial automation data as a function of relevance to user
US20100315416A1 (en) * 2007-12-10 2010-12-16 Abb Research Ltd. Computer implemented method and system for remote inspection of an industrial process
US8485038B2 (en) * 2007-12-18 2013-07-16 General Electric Company System and method for augmented reality inspection and data visualization
US9207758B2 (en) * 2008-05-30 2015-12-08 Honeywell International Inc. Operator assistance methods and systems
US8624921B2 (en) * 2008-09-30 2014-01-07 Rockwell Automation Technologies, Inc. Industrial automation visualization schemes employing overlays
US20100287500A1 (en) * 2008-11-18 2010-11-11 Honeywell International Inc. Method and system for displaying conformal symbology on a see-through display
US8700072B2 (en) 2008-12-23 2014-04-15 At&T Mobility Ii Llc Scalable message fidelity
WO2010091086A1 (en) 2009-02-03 2010-08-12 Fanuc Robotics America, Inc. Method of controlling a robotic tool
US20100309295A1 (en) * 2009-06-04 2010-12-09 Chow Kenny W Y 3d video processor integrated with head mounted display
US20110010624A1 (en) * 2009-07-10 2011-01-13 Vanslette Paul J Synchronizing audio-visual data with event data
US8292439B2 (en) * 2009-09-06 2012-10-23 Yang Pan Image projection system with adjustable cursor brightness
US20110084983A1 (en) * 2009-09-29 2011-04-14 Wavelength & Resonance LLC Systems and Methods for Interaction With a Virtual Environment
CN102656620B (zh) * 2009-11-13 2017-06-09 寇平公司 用于从标准视频流驱动3d双目眼镜的方法
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US8754931B2 (en) * 2010-01-08 2014-06-17 Kopin Corporation Video eyewear for smart phone games
DE102010004476A1 (de) * 2010-01-13 2011-07-14 KUKA Laboratories GmbH, 86165 Verfahren und Vorrichtung zum Kontrollieren einer Roboterapplikation
EP2345514A3 (de) * 2010-01-13 2017-07-19 KUKA Roboter GmbH Verfahren und Vorrichtung zum Kontrollieren einer Roboterapplikation
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
CN102906623A (zh) * 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US20120194549A1 (en) * 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses specific user interface based on a connected external device type
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US10962678B2 (en) * 2010-04-01 2021-03-30 FW Murphy Production Controls, LLC Systems and methods for collecting, displaying, analyzing, recording, and transmitting fluid hydrocarbon production monitoring and control data
US8447070B1 (en) * 2010-04-19 2013-05-21 Amazon Technologies, Inc. Approaches for device location and communication
US9122707B2 (en) 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
EP2537141B1 (de) * 2010-06-10 2016-03-30 Sartorius Stedim Biotech GmbH Montageverfahren, betriebsverfahren, erweitertes realitätssystem und computerprogrammprodukt
KR101670458B1 (ko) * 2010-06-25 2016-10-28 삼성전자주식회사 오버레이 계측 방법
KR20120000161A (ko) * 2010-06-25 2012-01-02 삼성전자주식회사 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치
JP5574854B2 (ja) * 2010-06-30 2014-08-20 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
DE102010025781B4 (de) * 2010-07-01 2022-09-22 Kuka Roboter Gmbh Tragbare Sicherheitseingabeeinrichtung für eine Robotersteuerung
KR101219933B1 (ko) * 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
KR101690955B1 (ko) * 2010-10-04 2016-12-29 삼성전자주식회사 증강 현실을 이용한 영상 데이터 생성 방법 및 재생 방법, 그리고 이를 이용한 촬영 장치
KR101688155B1 (ko) 2010-10-25 2016-12-20 엘지전자 주식회사 이동 단말기의 정보 처리 장치 및 그 방법
US10255491B2 (en) * 2010-11-19 2019-04-09 Nikon Corporation Guidance system, detection device, and position assessment device
US10475240B2 (en) 2010-11-19 2019-11-12 Fanuc Robotics America Corporation System, method, and apparatus to display three-dimensional robotic workcell data
WO2012100082A2 (en) * 2011-01-19 2012-07-26 Panelvision, Llc Interactive point of purchase system
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
DE102011013760B4 (de) 2011-03-12 2022-09-29 Volkswagen Ag Verfahren, Vorrichtung und Computerprogrammprodukt zur Informationsvermittlung mittels erweiterter Realität im Zusammenhang mit einem Straßenfahrzeug
US8861310B1 (en) 2011-03-31 2014-10-14 Amazon Technologies, Inc. Surface-based sonic location determination
US8558759B1 (en) 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US9535415B2 (en) * 2011-07-20 2017-01-03 Rockwell Automation Technologies, Inc. Software, systems, and methods for mobile visualization of industrial automation environments
JP6114271B2 (ja) 2011-08-03 2017-04-12 フルークコーポレイションFluke Corporation 保守管理システム及び保守管理方法
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9256071B1 (en) 2012-01-09 2016-02-09 Google Inc. User interface
KR101440391B1 (ko) * 2012-01-26 2014-09-17 지종현 휴대 단말기를 이용한 현장설비 제어 시스템 및 그 방법
DE102012002657A1 (de) * 2012-02-10 2013-08-14 Weber Maschinenbau Gmbh Breidenbach Vorrichtung mit erweiterter Realität
US9691241B1 (en) 2012-03-14 2017-06-27 Google Inc. Orientation of video based on the orientation of a display
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
FR2990286B1 (fr) * 2012-05-07 2019-09-06 Schneider Electric Industries Sas Procede d'affichage en realite augmentee d'une information relative a un equipement cible sur un ecran d'un dispositif electronique, produit programme d'ordinateur, dispositif electronique et equipement electrique associes
KR101334585B1 (ko) * 2012-05-29 2013-12-05 주식회사 브이터치 프로젝터를 통해 표시되는 정보를 이용하여 가상터치를 수행하는 원격 조작 장치 및 방법
US20140005807A1 (en) * 2012-06-29 2014-01-02 Black & Decker Inc. System for Enhancing Operation of Power Tools
US20140035819A1 (en) * 2012-08-03 2014-02-06 Research In Motion Limited Method and Apparatus Pertaining to an Augmented-Reality Keyboard
US9329678B2 (en) * 2012-08-14 2016-05-03 Microsoft Technology Licensing, Llc Augmented reality overlay for control devices
DE102012018716A1 (de) * 2012-09-21 2014-03-27 Robert Bosch Gmbh Vorrichtung und Verfahren zur Maschinenparametrierung mittels smart devices
TWI486629B (zh) 2012-11-21 2015-06-01 Ind Tech Res Inst 穿透型頭部穿戴式顯示系統與互動操作方法
JP6064544B2 (ja) * 2012-11-27 2017-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び端末装置
US20140152558A1 (en) * 2012-11-30 2014-06-05 Tom Salter Direct hologram manipulation using imu
US9448407B2 (en) * 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
JPWO2014129212A1 (ja) * 2013-02-22 2017-02-02 ソニー株式会社 画像表示装置及び画像表示方法、記憶媒体、並びにモニタリング・システム
US9558220B2 (en) 2013-03-04 2017-01-31 Fisher-Rosemount Systems, Inc. Big data in process control systems
US10649449B2 (en) 2013-03-04 2020-05-12 Fisher-Rosemount Systems, Inc. Distributed industrial performance monitoring and analytics
US9397836B2 (en) 2014-08-11 2016-07-19 Fisher-Rosemount Systems, Inc. Securing devices to process control systems
US9804588B2 (en) 2014-03-14 2017-10-31 Fisher-Rosemount Systems, Inc. Determining associations and alignments of process elements and measurements in a process
US9665088B2 (en) 2014-01-31 2017-05-30 Fisher-Rosemount Systems, Inc. Managing big data in process control systems
US10866952B2 (en) 2013-03-04 2020-12-15 Fisher-Rosemount Systems, Inc. Source-independent queries in distributed industrial system
US9823626B2 (en) 2014-10-06 2017-11-21 Fisher-Rosemount Systems, Inc. Regional big data in process control systems
US10678225B2 (en) 2013-03-04 2020-06-09 Fisher-Rosemount Systems, Inc. Data analytic services for distributed industrial performance monitoring
US10282676B2 (en) 2014-10-06 2019-05-07 Fisher-Rosemount Systems, Inc. Automatic signal processing-based learning in a process plant
US10223327B2 (en) 2013-03-14 2019-03-05 Fisher-Rosemount Systems, Inc. Collecting and delivering data to a big data machine in a process control system
US10649424B2 (en) 2013-03-04 2020-05-12 Fisher-Rosemount Systems, Inc. Distributed industrial performance monitoring and analytics
US10909137B2 (en) 2014-10-06 2021-02-02 Fisher-Rosemount Systems, Inc. Streaming data for analytics in process control systems
US10386827B2 (en) 2013-03-04 2019-08-20 Fisher-Rosemount Systems, Inc. Distributed industrial performance monitoring and analytics platform
DE102013102635A1 (de) * 2013-03-14 2014-09-18 Stego-Holding Gmbh Netzwerksystem und Verfahren zum Aufrufen und Darstellen von Netzwerkinformationen bezüglich einer Mehrzahl von Netzwerkkomponenten
DE112014001381T5 (de) 2013-03-15 2016-03-03 Fisher-Rosemount Systems, Inc. Emerson Process Management Datenmodellierungsstudio
US11641536B2 (en) * 2013-03-15 2023-05-02 Fluke Corporation Capture and association of measurement data
US9678484B2 (en) 2013-03-15 2017-06-13 Fisher-Rosemount Systems, Inc. Method and apparatus for seamless state transfer between user interface devices in a mobile control room
US10074402B2 (en) * 2013-05-15 2018-09-11 Abb Research Ltd. Recording and providing for display images of events associated with power equipment
WO2015027226A1 (en) 2013-08-23 2015-02-26 Nantmobile, Llc Recognition-based content management, systems and methods
ES2680576T3 (es) 2013-10-07 2018-09-10 Abb Schweiz Ag Método y dispositivo para verificar uno o más volúmenes de seguridad para una unidad mecánica móvil
US8880151B1 (en) 2013-11-27 2014-11-04 Clear Guide Medical, Llc Surgical needle for a surgical system with optical recognition
US9622720B2 (en) 2013-11-27 2017-04-18 Clear Guide Medical, Inc. Ultrasound system with stereo image guidance or tracking
KR102104136B1 (ko) * 2013-12-18 2020-05-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 제어 장치를 위한 증강 현실 오버레이
US20150185825A1 (en) * 2013-12-30 2015-07-02 Daqri, Llc Assigning a virtual user interface to a physical object
US20150199106A1 (en) * 2014-01-14 2015-07-16 Caterpillar Inc. Augmented Reality Display System
KR102238775B1 (ko) 2014-02-10 2021-04-09 삼성전자주식회사 전자 장치에서 증강 현실을 이용한 장비 관리 장치 및 방법
EP2913730B1 (de) 2014-02-28 2019-10-30 ABB Schweiz AG Verwendung eines Live-Video-Streams in einem Prozesssteuerungssystem
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
US10068173B2 (en) * 2014-05-22 2018-09-04 Invuity, Inc. Medical device featuring cladded waveguide
KR102212030B1 (ko) 2014-05-26 2021-02-04 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
JP5927242B2 (ja) * 2014-06-25 2016-06-01 株式会社デジタル 画像データ作成装置および携帯端末装置
CN112862775A (zh) * 2014-07-25 2021-05-28 柯惠Lp公司 增强手术现实环境
US10168691B2 (en) 2014-10-06 2019-01-01 Fisher-Rosemount Systems, Inc. Data pipeline for process control system analytics
US9697432B2 (en) * 2014-12-09 2017-07-04 International Business Machines Corporation Generating support instructions by leveraging augmented reality
US9685005B2 (en) 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
GB2549037B (en) * 2015-02-13 2020-12-16 Halliburton Energy Services Inc Using augmented reality to collect, process and share information
JP2016153999A (ja) * 2015-02-17 2016-08-25 横河電機株式会社 管理装置、管理システム、管理方法、管理プログラム、及び記録媒体
US20160239697A1 (en) * 2015-02-17 2016-08-18 Yokogawa Electric Corporation Manager, management system, management method, and non-transitory computer readable storage medium
US10950051B2 (en) * 2015-03-27 2021-03-16 Rockwell Automation Technologies, Inc. Systems and methods for presenting an augmented reality
US9971344B2 (en) * 2015-03-27 2018-05-15 Rockwell Automation Technologies, Inc. Systems and methods for assessing a quality of an industrial enterprise
KR102304023B1 (ko) * 2015-04-03 2021-09-24 한국과학기술원 증강현실 기반 인터렉티브 저작 서비스 제공 시스템
US9972133B2 (en) 2015-04-24 2018-05-15 Jpw Industries Inc. Wearable display for use with tool
US10007413B2 (en) * 2015-04-27 2018-06-26 Microsoft Technology Licensing, Llc Mixed environment display of attached control elements
US10099382B2 (en) 2015-04-27 2018-10-16 Microsoft Technology Licensing, Llc Mixed environment display of robotic actions
DE102015006632A1 (de) * 2015-05-21 2016-11-24 Audi Ag Verfahren zum Betreiben eines Diagnosesystems und Diagnosesystem für ein Kraftfahrzeug
DE102015209896B3 (de) 2015-05-29 2016-08-18 Kuka Roboter Gmbh Ermittlung der Roboterachswinkel und Auswahl eines Roboters mit Hilfe einer Kamera
DE102015209899B4 (de) * 2015-05-29 2019-06-19 Kuka Roboter Gmbh Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera
EP3109832A1 (de) * 2015-06-24 2016-12-28 Atos IT Solutions and Services GmbH Interaktives informationssystem für gemeinsame und erweiterte interaktive realität
WO2017026193A1 (ja) * 2015-08-12 2017-02-16 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび画像処理システム
US10528021B2 (en) 2015-10-30 2020-01-07 Rockwell Automation Technologies, Inc. Automated creation of industrial dashboards and widgets
FR3044123B1 (fr) * 2015-11-24 2019-04-05 Electricite De France Dispositif pour le pilotage a distance d'au moins un equipement electrique
WO2017097902A1 (de) * 2015-12-11 2017-06-15 Sms Group Gmbh Mobile visuelle assistenz in hütten-, walz-, schmiede- und röhrenwerken
US10313281B2 (en) 2016-01-04 2019-06-04 Rockwell Automation Technologies, Inc. Delivery of automated notifications by an industrial asset
US10503483B2 (en) 2016-02-12 2019-12-10 Fisher-Rosemount Systems, Inc. Rule builder in a process control network
JP6879294B2 (ja) * 2016-03-30 2021-06-02 日本電気株式会社 プラント管理システム、プラント管理方法、プラント管理装置、および、プラント管理プログラム
DE102016207009A1 (de) * 2016-04-26 2017-10-26 Krones Aktiengesellschaft Bediensystem für eine Maschine der Lebensmittelindustrie, insbesondere der Getränkemittelindustrie
DE102016113060A1 (de) * 2016-07-15 2018-01-18 Beckhoff Automation Gmbh Verfahren zum Steuern eines Objekts
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
TW201805598A (zh) * 2016-08-04 2018-02-16 鴻海精密工業股份有限公司 自主移動設備及建立導航路徑的方法
TWI639102B (zh) * 2016-08-10 2018-10-21 張雅如 一種指標顯示裝置、指標控制裝置、指標控制系統及其相關方法
US10318570B2 (en) 2016-08-18 2019-06-11 Rockwell Automation Technologies, Inc. Multimodal search input for an industrial search platform
US10666768B1 (en) * 2016-09-20 2020-05-26 Alarm.Com Incorporated Augmented home network visualization
US10319128B2 (en) * 2016-09-26 2019-06-11 Rockwell Automation Technologies, Inc. Augmented reality presentation of an industrial environment
US10545492B2 (en) 2016-09-26 2020-01-28 Rockwell Automation Technologies, Inc. Selective online and offline access to searchable industrial automation data
US10401839B2 (en) 2016-09-26 2019-09-03 Rockwell Automation Technologies, Inc. Workflow tracking and identification using an industrial monitoring system
EP3299931A1 (de) * 2016-09-27 2018-03-28 Alcatel Lucent Verfahren zur steuerung einer veränderten realität und system zur steuerung einer veränderten realität
DE102017123940A1 (de) 2016-10-14 2018-05-09 Blach Verwaltungs GmbH + Co. KG Augmented-Reality bei Extruderanlage
US20180122133A1 (en) * 2016-10-28 2018-05-03 Honeywell International Inc. System and method for displaying industrial asset alarms in a virtual environment
US10388075B2 (en) 2016-11-08 2019-08-20 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10735691B2 (en) 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10866631B2 (en) 2016-11-09 2020-12-15 Rockwell Automation Technologies, Inc. Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality
US10158634B2 (en) 2016-11-16 2018-12-18 Bank Of America Corporation Remote document execution and network transfer using augmented reality display devices
US11132840B2 (en) * 2017-01-16 2021-09-28 Samsung Electronics Co., Ltd Method and device for obtaining real time status and controlling of transmitting devices
KR102567007B1 (ko) 2017-02-24 2023-08-16 마시모 코오퍼레이션 의료 모니터링 데이터 표시 시스템
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
DE102017107224A1 (de) * 2017-04-04 2018-10-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Darstellung einer Bauteildokumentation
US11474496B2 (en) * 2017-04-21 2022-10-18 Rockwell Automation Technologies, Inc. System and method for creating a human-machine interface
DE202017102575U1 (de) * 2017-04-27 2018-05-02 Korsch Ag System umfassend eine Tablettiermaschine und Augmented Reality-Vorrichtung
IL252056A (en) * 2017-05-01 2018-04-30 Elbit Systems Ltd Head-up display device, system and method
US10932705B2 (en) 2017-05-08 2021-03-02 Masimo Corporation System for displaying and controlling medical monitoring data
US10878240B2 (en) 2017-06-19 2020-12-29 Honeywell International Inc. Augmented reality user interface on mobile device for presentation of information related to industrial process, control and automation system, or other system
DE112018002565B4 (de) * 2017-08-10 2021-07-01 Robert Bosch Gmbh System und Verfahren zum direkten Anlernen eines Roboters
WO2019032967A1 (en) * 2017-08-10 2019-02-14 Google Llc HAND INTERACTION SENSITIVE TO THE CONTEXT
JP2019040469A (ja) * 2017-08-25 2019-03-14 株式会社イシダ 作業支援システム
DE102017215114A1 (de) * 2017-08-30 2019-02-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Manipulatorsystem und Verfahren zum Steuern eines robotischen Manipulators
US11080931B2 (en) * 2017-09-27 2021-08-03 Fisher-Rosemount Systems, Inc. Virtual x-ray vision in a process control environment
DE102017123225A1 (de) * 2017-10-06 2019-04-11 Endress + Hauser Process Solutions Ag Smartwatch und Verfahren Instandhaltung einer Anlage der Automatisierungstechnik
CN111386511A (zh) * 2017-10-23 2020-07-07 皇家飞利浦有限公司 基于自扩展的增强现实服务指令库
WO2019090264A1 (en) * 2017-11-03 2019-05-09 Drishti Technologies, Inc. Real time anomaly detection systems and methods
US10445944B2 (en) 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method
EP3489800A1 (de) * 2017-11-27 2019-05-29 EUCHNER GmbH + Co. KG Sicherheitssystem
EP3729218A1 (de) * 2017-12-20 2020-10-28 NWS Srl Virtuelles trainingsverfahren
US10546426B2 (en) * 2018-01-05 2020-01-28 Microsoft Technology Licensing, Llc Real-world portals for virtual reality displays
EP3729216B1 (de) * 2018-01-22 2024-04-24 Siemens Aktiengesellschaft Fähigkeitsangleichung zur steuerung einer industriellen produktionsmaschine
DE102018201711B4 (de) 2018-02-05 2020-07-02 Vypii GmbH Anordnung und Verfahren zum Bereitstellen von Informationen bei einer kopftragbaren erweiterte-Realität-Vorrichtung
US10839603B2 (en) 2018-04-30 2020-11-17 Microsoft Technology Licensing, Llc Creating interactive zones in virtual environments
EP3575925B1 (de) * 2018-06-01 2020-12-30 Hewlett-Packard Enterprise Development LP Netzwerkvorrichtungsmodifikationen über benutzeroberflächen mit erweiterter realität
CN112638593B (zh) * 2018-06-26 2024-09-06 发纳科美国公司 用于机器人拾取系统的增强现实可视化技术
DE102018211429A1 (de) * 2018-07-10 2020-01-16 Robomotion Gmbh Verfahren zur Diagnose einer technischen Funktionseinheit
JP7042715B2 (ja) * 2018-07-13 2022-03-28 三菱電機株式会社 ヘッドマウント装置、サーバ装置および作業支援システム
US11535489B2 (en) 2018-08-10 2022-12-27 Otis Elevator Company Elevator calls from a wearable based on health profile
US11244509B2 (en) 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
US11137875B2 (en) 2019-02-22 2021-10-05 Microsoft Technology Licensing, Llc Mixed reality intelligent tether for dynamic attention direction
EP3730276A1 (de) * 2019-02-26 2020-10-28 Covestro Deutschland AG Verfahren und system zur steuerung eines spritzgiessprozesses
US11520323B2 (en) 2019-03-08 2022-12-06 Honeywell Limited 360° assistance for QCS scanner with mixed reality and machine learning technology
JP2020197835A (ja) * 2019-05-31 2020-12-10 ファナック株式会社 産業用機械のデータ収集設定装置
DE102019120686A1 (de) * 2019-07-31 2021-02-04 Zahoransky Automation & Molds GmbH Verfahren zum Betrieb, insbesondere zur Einrichtung, Instandsetzung und/oder Wartung, einer Spritzgießmaschine, Spritzgießmaschine, Computerprogramm und computerlesbares Medium
JP7359633B2 (ja) * 2019-10-17 2023-10-11 ファナック株式会社 ロボットシステム
US11816887B2 (en) 2020-08-04 2023-11-14 Fisher-Rosemount Systems, Inc. Quick activation techniques for industrial augmented reality applications
EP4016251A1 (de) * 2020-12-16 2022-06-22 Hitachi Energy Switzerland AG Tragbare anzeigevorrichtung mit überlagerter virtueller information
CN116438503A (zh) * 2020-12-17 2023-07-14 三星电子株式会社 电子装置和电子装置的操作方法
WO2023053368A1 (ja) * 2021-09-30 2023-04-06 ファナック株式会社 教示装置及びロボットシステム
KR102674102B1 (ko) * 2022-01-05 2024-06-13 한국전자통신연구원 비주얼 네트워크 서비스 처리 방법 및 장치
EP4250031A1 (de) * 2022-03-22 2023-09-27 Basf Se Auf erweiterter realität basiertes automatisierungssystem mit freihändiger auswahl eines virtuellen objekts
WO2024104559A1 (en) * 2022-11-14 2024-05-23 Siemens Aktiengesellschaft Augmented reality system
WO2024104560A1 (de) * 2022-11-14 2024-05-23 Siemens Aktiengesellschaft Generierung von hologrammen zur darstellung in einer augmented reality umgebung

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000052536A1 (de) 1999-03-02 2000-09-08 Siemens Aktiengesellschaft Bedien- und beobachtungssystem mit augmented reality-techniken
US20020075244A1 (en) 1991-04-08 2002-06-20 Masayuki Tani Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same
WO2003003185A1 (en) 2001-06-21 2003-01-09 Ismo Rakkolainen System for establishing a user interface
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6618425B1 (en) 1999-11-17 2003-09-09 Cymer, Inc. Virtual laser operator
WO2003099526A1 (en) 2002-05-24 2003-12-04 Abb Research Ltd A method and a system for programming an industrial robot

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0312301B1 (de) * 1987-10-16 1994-04-27 Canon Kabushiki Kaisha Gerät zur Bildherstellung
US5274456A (en) * 1987-12-28 1993-12-28 Hitachi, Ltd. Semiconductor device and video camera unit using it and their manufacturing method
JP3116710B2 (ja) * 1994-03-18 2000-12-11 株式会社日立製作所 情報端末システム
US6122520A (en) * 1998-02-13 2000-09-19 Xerox Corporation System and method for obtaining and using location specific information
US6167464A (en) * 1998-09-23 2000-12-26 Rockwell Technologies, Llc Mobile human/machine interface for use with industrial control systems for controlling the operation of process executed on spatially separate machines
US6806847B2 (en) * 1999-02-12 2004-10-19 Fisher-Rosemount Systems Inc. Portable computer in a process control environment
US7627860B2 (en) * 2001-08-14 2009-12-01 National Instruments Corporation Graphically deployment of a program with automatic conversion of program type
US6940538B2 (en) * 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
US7143149B2 (en) * 2001-09-21 2006-11-28 Abb Ab Dynamic operator functions based on operator position
JP2003216231A (ja) * 2002-01-18 2003-07-31 Hitachi Ltd 現場監視・操作装置
US7092771B2 (en) * 2002-11-14 2006-08-15 Rockwell Automation Technologies, Inc. Industrial control and monitoring method and system
US20050244047A1 (en) * 2004-04-28 2005-11-03 International Business Machines Corporation Stop motion imaging detection system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020075244A1 (en) 1991-04-08 2002-06-20 Masayuki Tani Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same
WO2000052536A1 (de) 1999-03-02 2000-09-08 Siemens Aktiengesellschaft Bedien- und beobachtungssystem mit augmented reality-techniken
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6618425B1 (en) 1999-11-17 2003-09-09 Cymer, Inc. Virtual laser operator
WO2003003185A1 (en) 2001-06-21 2003-01-09 Ismo Rakkolainen System for establishing a user interface
WO2003099526A1 (en) 2002-05-24 2003-12-04 Abb Research Ltd A method and a system for programming an industrial robot

Also Published As

Publication number Publication date
US20060241792A1 (en) 2006-10-26
US7787992B2 (en) 2010-08-31
DE102005061211A1 (de) 2006-09-07

Similar Documents

Publication Publication Date Title
DE102005061211B4 (de) Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
DE102018109463B3 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
Wang et al. Multi-modal augmented-reality assembly guidance based on bare-hand interface
EP1709519B1 (de) Virtuelle steuertafel
DE112018004395T5 (de) Virtueller zugriff auf ein zugriffsbeschränktes objekt
DE102019002898A1 (de) Robotorsimulationsvorrichtung
DE102019122343A1 (de) Abweichungskorrektur für industrielle anwendungen mit erweiterter realität
EP1447770A2 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
Jankowski et al. Usability evaluation of vr interface for mobile robot teleoperation
CN113703569A (zh) 用于工业自动化的虚拟现实和增强现实的系统和方法
CN106340217A (zh) 基于增强现实技术的制造装备智能系统及其实现方法
DE102016113060A1 (de) Verfahren zum Steuern eines Objekts
Bolano et al. Transparent robot behavior using augmented reality in close human-robot interaction
JP2010520558A (ja) 無人車両の状態および制御を提供する、拡張現実ベース型システムおよび方法
DE112005001152T5 (de) Verfahren und System zum Abrufen und Anzeigen technischer Daten für eine Industrieeinrichtung
EP3458939A1 (de) Interaktionssystem und -verfahren
DE112017008358B3 (de) Visionsbasiertes Robotersteuerungssystem
CN110751734B (zh) 一种适用于工作现场的混合现实助手系统
DE102004021379B4 (de) Bedien- und Beobachtungssystem für industrielle Anlagen und Verfahren
CN100549924C (zh) 控制装置
Wang et al. Construction of Human-Robot Cooperation Assembly Simulation System Based on Augmented Reality
Wang Improving human-machine interfaces for construction equipment operations with mixed and augmented reality
EP2697702B1 (de) Vorrichtung und verfahren zur gestensteuerung eines bildschirms in einer leitwarte
EP4186651B1 (de) System und verfahren mit einem system
CN207643147U (zh) 一种用于操控机器人的手持人机交互设备

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: ABB SCHWEIZ AG, CH

Free format text: FORMER OWNER: ABB RESEARCH LTD., ZUERICH, CH

R082 Change of representative

Representative=s name: BECKER-KURIG-STRAUS PATENTANWAELTE PARTNERSCHA, DE

Representative=s name: BECKER & KURIG PARTNERSCHAFT PATENTANWAELTE MB, DE

Representative=s name: BECKER & KURIG PARTNERSCHAFT PATENTANWAELTE PA, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee