[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE10300527A1 - System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit - Google Patents

System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit Download PDF

Info

Publication number
DE10300527A1
DE10300527A1 DE2003100527 DE10300527A DE10300527A1 DE 10300527 A1 DE10300527 A1 DE 10300527A1 DE 2003100527 DE2003100527 DE 2003100527 DE 10300527 A DE10300527 A DE 10300527A DE 10300527 A1 DE10300527 A1 DE 10300527A1
Authority
DE
Germany
Prior art keywords
virtual
camera
rotation
center
trackball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE2003100527
Other languages
English (en)
Inventor
Thomas Dipl.-Ing. Krüger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Realtime Technology AG
Original Assignee
Realtime Technology AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Realtime Technology AG filed Critical Realtime Technology AG
Priority to DE2003100527 priority Critical patent/DE10300527A1/de
Publication of DE10300527A1 publication Critical patent/DE10300527A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03549Trackballs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die Erfindung betrifft ein System zur Darstellung von virtuellen 3-D-Szenen auf einer Bilddarstellungseinheit, bei dem eine Ansicht auf die virtuelle 3-D-Szene von einem Benutzer interaktiv mittels eines Trackballs veränderbar ist. Die Ansicht auf die virtuelle 3-D-Szene ist durch ein virtuelles 3-D-Kameramodell definiert, bei dem die Position der Kamera mit zwei unabhängig einstellbaren Raumwinkeln alpha und beta um ein Rotationszentrum drehbar ist. Der Abstand der Kameraposition vom Rotationszentrum hängt von den beiden Raumwinkeln alpha und beta ab, so daß die Kamera auf einer 3-D-Oberfläche im Raum bewegbar ist. Die virtuelle 3-D-Szene ist im Rotationszentrum angeordnet und die Kamera ist unabhängig von ihrer Position stets zum Rotationszentrum hin gerichtet. Durch Drehung des Trackballs um dessen zwei Raumwinkel sind die zwei entsprechenden Raumwinkel alpha und beta des 3-D-Kameramodells einstellbar, so daß sich die Ansicht auf die virtuelle 3-D-Szene entsprechend verändert.

Description

  • Die Erfindung betrifft allgemein Systeme und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit und insbesondere ein System und ein Verfahren, bei dem eine Ansicht auf die virtuelle Szene von einem Benutzer interaktiv veränderbar ist.
  • In der Virtuellen Realität (VR) werden mit Hilfe von Methoden der Computergraphik in Echtzeit dreidimensionale (3D) Szenen visualisiert, die vom Betrachter interaktiv manipuliert werden können und ihm einen realitätsnahen Eindruck von der dargestellten Szene vermitteln. Spätestens seit viele VR-Anwendungen nicht mehr den teuren Graphik-Hochleistungsrechnersystemen vorenthalten sind und auch relativ kostengünstige Desktop Workstation Systeme und PCs (Personal Computers) in der Lage sind, auch komplexe 3D-Szenen in Echtzeit darzustellen, ist die Virtuelle Realität nicht mehr nur ein wissenschaftliches Forschungsgebiet, sondern auch Gegenstand zahlreicher konkreter anwendungsnaher industriellen Entwicklungen in den verschiedensten Bereichen, wie beispielsweise der Medizin, Architektur oder Automobilbranche, geworden. Der Mensch-Maschine-Schnittstelle dieser Anwendungen kommt dabei besondere Bedeutung zu.
  • Der Trend der letzten Jahre ging dabei dahin, dem Benutzer beim Navigieren durch die dreidimensionalen Szenerien, wie etwa durch virtuelle Museen, beim Flug durch virtuelle Blutgefäße oder bei einer virtuellen Probefahrt eines noch nicht erschienenen Fahrzeugmodells, möglichst viel Flexibilität und Interaktionsmöglichkeiten zur Verfügung zu stellen. Zeugen dieser Entwicklungen sind beispielsweise Datenhelme (HDM, Head Mounted Displays), mit denen durch Bewegung des Kopfes die Darstellung beispielsweise von dreidimensionalen Innenansichten gesteuert wird, oder Datenhandschuhe, mit denen durch komplexe Fingergestiken der Benutzer verschiedenste Interaktionsereignisse auslösen kann. Für viele praktische Anwendungen ist der Benutzer jedoch überfordert, da die Eingabegeräte zu schwierig zu bedienen sind. Außerdem kommt ein Datenhelm schon aus hygienischen Gründen für eine Vielzahl von Anwendungen nicht in Frage.
  • VR-Systeme werden auch erfolgreich im Bereich des Marketing eingesetzt, beispielsweise um Kunden komplexe Produkte etwa aus der Automobil- oder Luftfahrtbranche nahezubringen. Solche Systeme erlauben dabei die dreidimensionale realitätsnahe Darstellung von Produkten, die sich erst in einem Prototypenstadium befinden oder erst auf spezielle Kundenwünsche hin entwickelt oder zusammengestellt werden. So kann etwa das Produkt hinsichtlich zahlreicher Produktoptionen, Parameter oder Alternativen entsprechend den Kundenwünschen konfiguriert und räumlich interaktiv betrachtet werden. Beispielsweise soll an einem sog. Point of Sales (PoS), also z.B. einem Vertriebszentrum, der Kunde an einem virtuellen Fahrzeug-Produktdemonstrator sein persönliches Fahrzeug nach seinen Wünschen, etwa hinsichtlich Farbe, Design und Sonderausstattungen, zusammenstellen können und einen möglichst photorealistischen Eindruck des individuell konfigurierten Fahrzeugs erhalten, indem er die Möglichkeit hat, das Fahrzeug virtuell und interaktiv zu besichtigen, d.h. zum Beispiel im oder um das virtuelle Fahrzeug zu navigieren.
  • Da solche Systeme in der Regel von unerfahrenen Anwendern und Kunden bedient werden, spielt die einfache Bedienbarkeit der dreidimensionalen Navigation durch die VR-Szenerie eine wichtige Rolle.
  • Übliche bekannte Bedienelemente, wie eine Computermaus oder ein Joystick erfordern vom Benutzer ein hohes Geschick, um die in der realen Welt mit der Hand ausgeführten Bewegungen der Computermaus auf Navigationsbewegungen, wie das Schwenken des Blickfeldes in der virtuellen Szenerie, zu übertra gen und gedanklich zu antizipieren. Um diesen gedanklichen Übertragungsschritt bei der Steuerung der Navigation für den Benutzer zu vereinfachen, wurden bereits sog. Metaphern eingesetzt, bei denen die in der virtuellen Szenerie zur Navigation zur Verfügung stehenden Bewegungsfreiheitsgrade auf vereinfachte Bedienelemente zurückgeführt werden. So wurde beispielsweise vorgeschlagen, den Blick auf die Außenansicht eines Fahrzeugs in der künstlichen 3D-Szene dadurch zu steuern, daß der Benutzer ein handgroßes vereinfachtes Modell eines Autos in der realen Welt mit der Hand bewegt. Solche Lösungen sind jedoch nur sehr speziell auf einige wenige Einsatzgebiete beschränkt.
  • Die Erfindung stellt gemäß einem ersten Aspekt ein System zur Darstellung von virtuellen 3D-Szenen auf einer Bilddarstellungseinheit bereit, bei dem eine Ansicht auf die virtuelle 3D-Szene von einem Benutzer interaktiv mittels eines Trackballs veränderbar ist. Die Ansicht auf die virtuelle 3D-Szene ist durch ein virtuelles 3D-Kameramodell definiert ist, bei dem die Position der Kamera mit zwei unabhängig einstellbaren Raumwinkeln α und β um ein Rotationszentrum drehbar ist. Der Abstand der Kameraposition vom Rotationszentrum hängt von den beiden Raumwinkeln α und β ab, so daß die Kamera auf einer 3D-Oberfläche im Raum bewegbar ist. Die virtuelle 3D-Szene ist im Rotationszentrum angeordnet und die Kamera ist unabhängig von ihrer Position stets zum Rotationszentrum hin gerichtet. Durch Drehung des Trackballs um dessen zwei Raumwinkel sind die zwei entsprechenden Raumwinkel α und β des 3D-Kameramodells einstellbar, so daß sich die Ansicht auf die virtuelle 3D-Szene entsprechend verändert.
  • Gemäß einem weiteren Aspekt ist die Erfindung auf ein Verfahren zur Darstellung von virtuellen 3D-Szenen auf einer Bilddarstellungseinheit gerichtet, bei dem ein Benutzer eine Ansicht auf die virtuelle 3D-Szene interaktiv mittels eines Trackballs verändern kann. Die Ansicht auf die virtuelle 3D-Szene ist durch ein virtuelles 3D-Kameramodell definiert ist, bei dem die Position der Kamera mit zwei unabhängig einstellbaren Raumwinkeln α und β um ein Rotationszentrum gedreht wird. Der Abstand der Kameraposition vom Rotationszentrum hängt von den beiden Raumwinkeln α und β ab, so daß die Kamera auf einer 3D-Oberfläche im Raum bewegt wird. Die virtuelle 3D-Szene ist im Rotationszentrum angeordnet und die Kamera ist unabhängig von ihrer Position stets zum Rotationszentrum hin gerichtet. Durch Drehung des Trackballs um dessen zwei Raumwinkel werden die zwei entsprechenden Raumwinkel α und β des 3D-Kameramodells eingestellt, so daß sich die Ansicht auf die virtuelle 3D-Szene entsprechend verändert.
  • Die Erfindung wird nun anhand von bevorzugten, beispielhaften Ausführungsformen und der angeführten beispielhaften Zeichnungen näher erläutert. In den Zeichnungen zeigen:
  • 1 eine schematische Darstellung eines virtuellen Kameramodells;
  • 2 eine schematische Darstellung der Komponenten einer bevorzugten Ausführungsform des erfindungsgemäßen Systems.
  • Ein System der virtuellen Realität (VR-System) ist ein System zur Darstellung von virtuellen 3D-Szenen auf einer Bilddarstellungseinheit. Unter virtuellen 3D-Szenen versteht man in dem hier vorliegenden Zusammenhang künstliche, im Computer erstellte Modelle und Szenen, die einen Bereich der realen Welt wiedergeben. Solche Modelle können beispielsweise durch aufwendiges manuelles Modellieren entstehen oder sie basieren auf CAD-Modellen (Computer Animated Design), die aus elektronisch erstellten Konstruktionszeichnungen mit Hilfe spezieller Computerprogramme berechnet werden. Insbesondere werden hier als virtuelle 3D-Szenen Konstruktionsmodelle aus dem Bereich des Maschinenbaus und insbesondere Fahrzeugmodelle der Automobilindustrie, Flugzeugmodelle der Luftfahrtindustrie oder andere komplexe Industrieprodukte betrachtet. Es sind jedoch eine Vielzahl anderer Anwendungsgebiete beispielsweise aus dem Bereich der Medizin, Architektur, dem Bereich der Computerspiele oder dem Vertrieb von Produkten per Internet möglich, bei denen einem Benutzer eine interaktive Ansicht von virtuellen 3D-Szenen (z.B. Objekten oder Modellen) zur Verfügung gestellt werden soll.
  • Zur Generierung der virtuellen 3D-Szenen werden üblicherweise die etwa bei der Herstellung eines Fahrzeugmodells entstandenen CAD-Daten mittels be kannten Computerverfahren in ein übliches Graphik-3D-Darstellungsformat umgewandelt. Dieser Schritt wird auch Triangulierung genannt, da bei diesem Konvertierungsvorgang aus den CAD-Daten ein Oberflächenmodell des Fahrzeugs generiert wird, das in der Regel aus einer Vielzahl von Dreiecken besteht. Ein gängiger Standard zur Darstellung von Oberflächenmodellen ist der Open-GL-Standard.
  • Diese auch mit Drahtgittermodell bezeichneten Oberflächenmodelle werden dann gegebenenfalls noch manuell oder halbautomatisch nachbearbeitet, um dem Fahrzeugmodell ein photorealistisches Aussehen zu verleihen. Dabei werden insbesondere Oberflächeneigenschaften wie Textur oder Reflektionsverhalten modelliert, um das Fahrzeugmodell etwa mit Hilfe des Metalleffekts des Lacks, der Textur der Ledersitze oder auch der Überlagerung von Schatten möglichst realitätsnah wiederzugeben.
  • Da der Benutzer selbst über die Art und die Blickrichtung der Ansicht entscheidet und diese interaktiv manipulieren will, können die Ansichten nicht im Rechner vorberechnet werden. Die Graphikleistung des Rechnersystems muß also in der Lage sein, eine Ansicht des Oberflächenmodells in Echtzeit zu berechnen und darzustellen. Ein Oberflächenmodell eines Fahrzeuges kann beispielsweise aus 1,5 Millionen solcher Dreiecke bestehen, die mit Hilfe von leistungsfähigen Graphik-PCs, die mit entsprechend leistungsfähigen Graphikkarten ausgerüstet sind, wie zum Beispiel einer Open-GL-Graphikkarte, visualisiert werden können. Um die zur Verfügung stehende Graphikleistung möglichst optimal zu nutzen, wird mit bekannten Verfahren während der Visualisierung der Detaillierungsgrad, d.h. die Anzahl der zur Modellierung der Oberfläche verwendeten Dreiekke, im Nahbereich des Betrachters erhöht, um eine möglichst detaillierte und naturgetreue Abbildung zu erzielen, während im Fernbereich, in dem ein hoher Detaillierungsgrad für ein realitätsnahes Aussehen nicht notwendig ist, die Anzahl der dargestellten Dreiecke reduziert wird, um Rechenaufwand zugunsten des Nahbereichs einzusparen.
  • Unter einer Bilddarstellungseinheit wird hier insbesondere ein zweidimensionaler Bildschirm verstanden, der etwa als Plasmabildschirm oder als üblicher Röhrenbildschirm ausgebildet sein kann. Es können dabei die unterschiedlichsten Größen von Großbildschirmen bis zu kleinen Displays zum Einsatz kommen. Auch sind mit dem Begriff Bilddarstellungseinheit Projektoren umfaßt, mit denen die darzustellenden Ansichten der virtuellen 3D-Szenen beispielsweise auf eine Leinwand projiziert werden. Besonders bevorzugt werden die Ansichten von der Bilddarstellungseinheit stereoskopisch oder autostereoskopisch dargestellt. Dies kann beispielsweise Schließlich sollen unter Bilddarstellungseinheit auch alle anderen Visualisierungsgeräte fallen, wie etwa Datenbrillen, Displays in Datenhelmen (Head Mounted Displays), Bildschirme tragbarer und nichttragbarer Computer, Displays von Mobiltelefonen oder Handcomputern (PDA) oder sogar Geräte, mit denen die Bildansichten direkt auf die Netzhaut eines menschlichen Benutzers projiziert werden können.
  • Besonders bevorzugt werden die Ansichten von der Bilddarstellungseinheit stereoskopisch oder autostereoskopisch dargestellt. Diese Effekte werden beispielsweise dadurch erzielt, daß auf dem Bildschirm zwei unterschiedlich farbgefilterte oder unterschiedlich polarisierte Ansichten der virtuellen 3D-Szene überlagert werden und der Benutzer diese dann durch Brillen mit entsprechenden Farb- bzw. Polarisationfiltern betrachtet. In Datenbrillen oder Datenhelmen können diese Stereoeffekte direkt generiert werden, indem auf den Displays für jedes Auge eine entsprechend stereoskopisch versetzte Ansicht der virtuellen 3D-Szene dargestellt wird.
  • Unter Trackball versteht man bekannte Benutzereingabegeräte, bei denen eine Kugel in einer Halterung derart gelagert ist, daß sie sich beliebig um ihren Mittelpunkt drehen kann. Üblicherweise – aber hier nicht notwendigerweise – ist dabei ein Teil der Kugel, etwa eine Halbkugel, in der Halterung versenkt. Der Benutzer kann nun mit der Hand den freiliegenden Teil der Kugel zu Drehbewegungen veranlassen, die mit Hilfe von Bewegungssensoren an der Oberfläche des versenkten Teils der Kugel abgenommen werden. Aus diesen Bewegungsdaten läßt sich dann die Drehbewegung der Kugel errechnen. Bevorzugt nehmen die Bewegungssensoren Bewegungsdaten auf, die dadurch gekennzeichnet sind, daß sie Drehungen um eine bezüglich der Halterung des Trackballs horizontalen und vertikalen Achse des Trackballs beschreiben. D.h. die zwei von den Bewegungssensoren ausgegebenen Winkelparameter entsprechen Drehwinkel um eine bezüglich der Halterung des Trackballs horizontalen bzw. vertikalen Achse.
  • Bei den bevorzugten Ausführungsformen ist nun der Benutzer in der Lage, die Ansicht auf die virtuelle 3D-Szene interaktiv mittels eines Trackballs zu verändern. Dabei führt die vom Benutzer ausgeführte Drehung des Trackballs unmittelbar auch zu einer entsprechenden Drehung der Ansicht auf die virtuelle 3D-Szene. Wie sich die Ansicht auf die virtuelle 3D-Szene verändert, wird durch ein virtuelles Kameramodell definiert. Im Allgemeinen simuliert ein solches virtuelles Kameramodell die Ansicht, die ein Betrachter von der virtuellen 3D-Szene hätte, wenn er tatsächlich durch die Kamera auf die virtuelle 3D-Szene blicken würde. Diese Ansicht hängt – bei festgelegter Brennweite – in erster Linie von der Blickrichtung der Kamera auf die virtuelle 3D-Szene und vom Abstand der Kamera von der virtuellen 3D-Szene ab.
  • Die Kamerapositionen sind dabei Positionen in der virtuellen 3D-Szene, von denen aus die virtuelle Kamera, also das "Auge des Betrachters", auf den interessierenden Bereich der VR-Szene, d.h. beispielsweise das Produkt bzw. das Fahrzeug oder einzelne Teile des Produktes bzw. Fahrzeugs, blickt.
  • In den bevorzugten Ausführungsformen wird nun ein virtuelles Kameramodell definiert, bei dem die Position der Kamera mit zwei unabhängig einstellbaren Raumwinkeln α und β um ein Rotationszentrum drehbar ist. Der Abstand der Kameraposition vom Rotationszentrum hängt dabei von den beiden Raumwinkeln α und β ab, so daß sich die Kamera auf einer 3D-Oberfläche im Raum bewegt, also auf einer Fläche im Raum, die sich als Funktion von zwei Parametern, nämlich den beiden Raumwinkeln α und β, mathematisch parametrisieren läßt. Die virtuelle 3D-Szene ist dabei im Rotationszentrum angeordnet, auf das die Kamera unabhängig von ihrer Position stets hin gerichtet ist. Durch Drehung des Trackballs um dessen zwei Raumwinkel sind die zwei entsprechenden Raumwinkel α und β des 3D-Kameramodells einstellbar, so daß sich die Ansicht auf die virtuelle 3D-Szene entsprechend verändert.
  • Bevorzugt ist der Abstand der Kameraposition vom Rotationszentrum konstant, d.h. unabhängig von den beiden Raumwinkeln α und β. Die Kamera wird dann auf einer Kugeloberfläche um das Rotationszentrum gedreht. Eine Drehung des Trackballs durch den Benutzer bewirkt dann unmittelbar eine entsprechende Drehung der Kameraposition auf der Kugeloberfläche und folglich eine entsprechende Änderung der Ansicht der virtuellen 3D-Szene.
  • Anstelle der Kugeloberfläche sind auch ellipsoidartige Flächen oder quaderförmige Flächen im Raum vorteilhaft. Besonders vorteilhaft ist die Form der Fläche, auf der sich die Kamera bei Drehung des Trackballs bewegt, abhängig von der geometrischen Form des betrachteten virtuellen 3D-Objektes. So könnte sich beispielsweise bei besonders interessanten Merkmalen des virtuellen 3D-Objektes der Abstand der Kamera vom Rotationszentrum und damit dem virtuellen 3D-Objekt verringern, so daß der Betrachter mehr Details wahrnehmen kann.
  • Die Form der Fläche kann auch davon abhängen, von welcher Seite der Benutzer gerade auf das betrachtete virtuelle 3D-Objekt schaut. So kann es etwa vorteilhaft sein, bei der interaktiven Darstellung einer Seite eines Fahrzeugmodells dem Benutzer ein anderes Kameramodell anzubieten oder vorzuschreiben als bei der Präsentation der Rückseite, zum Beispiel um die Präsentation durch die resultierenden verschiedenen Ansichten abwechslungsreicher zu gestalten oder um den Benutzer auf bestimmte Merkmale und Besonderheiten des Fahrzeugmodells automatisch aufmerksam zu machen.
  • Systeme gemäß den bevorzugten Ausführungsformen werden je nach Anwendungsfeld von unterschiedlichen Benutzerkreisen bedient, wobei von unbedarften und unertahrenen Anwendern auszugehen ist. Die bevorzugten Ausführungsformen liefern dabei einen optimalen Kompromiß zwischen – einerseits – einer Einschränkung der Freiheitsgrade, mit denen der Benutzer die Ansichten interaktiv manipulieren kann, und damit dem Anspruch der einfachen Bedienbarkeit des Systems, und – andererseits – dem Gewähren von ausreichend Freiraum und Flexibilität, so daß der Benutzer den gewünschten umfassenden Eindruck von der betrachteten virtuellen 3D-Szene erhält. Eine Besonderheit der bevorzugten Ausführungsformen liegt somit in der gezielten und dosierten Einschränkung der Bewegungsmöglichkeiten der Kamera im Rahmen des virtuellen Kameramodells und damit einer Einschränkung auf die sinnvollen und für die hier relevanten Anwendungen wesentlichen Interaktionsmöglichkeiten für den Benutzer.
  • Die Kombination aus dem speziell definierten virtuellen Kameramodell in Verbindung mit dem Trackball führt zu einer intuitiven Mensch-Maschine-Schnittstelle. Zunächst zeichnen sich die bevorzugten Ausführungsformen durch eine allgemeine Einfachheit des Bedienelements, d.h. des Trackball, für den Benutzer aus. Der Trackball ist insbesondere deshalb für den Benutzer intuitiv, da die Geometrie der Bewegung des Bedienelements, also die Kugel des Trackballs, zumindest im Prinzip der Bewegung der Kamera auf einer Kugeloberfläche bzw. ellipsoidartigen Fläche oder einer ähnlichen 3D-Oberfläche im Raum nachempfunden ist. Dem Benutzer wird somit eine schlüssige Metapher zur Übertragung einer Bewegung aus der Realität in den virtuellen Raum an die Hand gegeben. Er kann sich damit leicht in dem für einen unerfahrenen Benutzer komplexen Bewegungsraum von zwei Freiheitsgraden der Rotation im dreidimensionalen Raum zurecht finden. Den bevorzugten Ausführungsformen liegen somit die Erkenntnisse zugrunde, daß einerseits die zwei Freiheitsgrade der Rotation um ein festes Rotationszentrum im dreidimensionalen Raum ausreichen, um dem Benutzer bei den hier relevanten Anwendungen genügend Freiraum zu lassen, damit er einen umfassenden und für ihn zufriedenstellenden Eindruck des betrachteten 3D-Modells erhalten kann, und andererseits, diese Freiheitsgrade so auf ein Eingabemittel abzubilden, daß dessen Bedienung für den Benutzer intuitiv sowie leicht und schnell erlernbar ist, da die Bewegungsart des Eingabemittels im wesentlichen direkt auf die Bewegung der Ansichten im virtuellen Raum abgebildet wird.
  • Außerdem lassen sich die bevorzugten Ausführungsformen durch Verwendung eines Trackballs robust gegenüber Umgebungseinflüssen gestalten und bieten eine relativ hohe Sicherheit vor Vandalismus, was insbesondere bei Verwendung der bevorzugten Ausführungsformen in Anwendungen, die öffentlich oder quasi öffentlich zugänglich sind, wie ggf. bei Point-of-Sales-Systemen, eine wichtige Rolle spielt. Ferner stellen die bevorzugten Ausführungsformen mit dem Trackball eine kostengünstige Realisierungsmöglichkeit für die Mensch-Maschine-Schnittstelle zur Verfügung.
  • Je nach Geometrie der virtuellen 3D-Szene können auch Visualisierungssituationen auftreten, wie etwa im Innenraum eines Fahrzeugmodells, bei denen eine Orientierung der Kamera weg vom Rotationszentrum günstiger ist. Deshalb ist bei einer besonders bevorzugten Ausführungsform das virtuelle Kameramodell derart veränderbar, daß die Kamera in entgegengesetzte Richtung vom Rotationszentrum weg gerichtet ist und dabei die virtuelle 3D-Szene außerhalb der Kugeloberfläche liegt. Besonders bevorzugt kann zwischen diesen beiden virtuellen Kameramodellen interaktiv vom Benutzer umgeschaltet werden. Alternativ dazu kann auch das System dem Benutzer für bestimmte vordefinierte Visualisierungssituationen vorgeben, welches der beiden virtuellen Kameramodelle eingesetzt wird, etwa abhängig von der speziellen Geometrie des zu betrachtenden 3D-Modells.
  • Im Prinzip kann eine Drehung um eine beliebig orientierte Drehachse des Trackballs auf eine Drehung um eine gegebenenfalls abweichend orientierte Drehachse des Kameramodells übertragen werden, ohne daß dadurch die intuitive Bedienbarkeit des Systems verlorengeht. In einer besonders bevorzugten Ausführungsform jedoch wird durch Drehung des Trackballs um eine bezüglich dessen Halterung horizontale Achse die Kameraposition ebenfalls um eine korrespondierende horizontale Achse des Kameramodells gedreht und entsprechend durch Drehung des Trackballs um eine bezüglich dessen Halterung vertikale Achse wird die Kameraposition um eine korrespondierende vertikale Achse des Kameramodells gedreht. Das heißt, eine horizontale Drehung der Trackballkugel wird übertragen in eine horizontale Drehbewegung der virtuellen Kamera und damit der Ansicht auf die virtuelle 3D-Szene und entsprechend wird eine vertikale Drehung der Trackballkugel übertragen in eine vertikale Drehbwegung der virtuellen Kamera. Durch diese Übereinstimmung der Drehachsen wird es dem Benutzer noch einfacher gemacht, die gedankliche Übertragung der Bedienbewegung des Trackballs auf die virtuelle Welt vorzunehmen.
  • Bei vielen Anwendungen ist es wünschenswert, dem Benutzer zusätzlich noch die Freiheit zu lassen, die Größe der betrachteten virtuellen 3D-Szene zu variieren, sich also durch Verwendung einer Zoomfunktion eine Nahansicht bzw. eine Überblicksansicht zu verschaffen. Deshalb sind bei den besonders bevorzugten Ausführungsformen Eingabemittel vorgesehen, mit denen der Abstand der Kameraposition vom Rotationszentrum bzw. von der virtuellen 3D-Szene. vom Benutzer interaktiv verändert werden kann, so daß sich die Ansicht der virtuellen 3D-Szene entsprechend vergrößert oder verkleinert. Der Benutzer kann damit den Bildausschnitt steuern, je nachdem ob er sich für ein Detail der betrachteten 3D-Szene oder für eine Übersichtsansicht interessiert.
  • Bevorzugt wird dieses Eingabemittel mit zwei Tasten realisiert, die beispielsweise in der Nähe des Trackballs angeordnet sind und entweder mit der den Trackball bedienenden Hand oder mit der anderen Hand des Benutzers betätigt werden können. Eine der Tasten steuert dabei die Vergrößerung des Abstands vom Rotationszentrum und die andere die Verkleinerung des Abstands vom Rotationszentrum. Selbstverständlich sind auch andere Ausgestaltungen solcher Eingabemittel etwa als Hebel oder Schieber möglich.
  • Besonders bevorzugt ist auch vorgesehen, daß die Drehung der Kameraposition um das Rotationszentrum und der Abstand der Kameraposition von der virtuellen 3D-Szene vom Benutzer gleichzeitig gesteuert werden können, so daß er im Prinzip in der Lage ist, einfach Flugbahnen im dreidimensionalen Raum zu steuern.
  • Bevorzugt handelt es sich bei der Kamerabewegung auf der 3D-Oberfläche im Raum nicht um eine mathematisch exakte Bewegung, sondern um eine in erster Linie "runde" Bewegung um ein Drehzentrum. Aber auch Kameramodelle mit "Ecken" und "Kanten", wie bei einer quaderförmigen Oberfläche, können für bestimmte Visualisierungsaufgaben vorteilhaft sein. Jedenfalls sind auch Schwankungen der Drehbewegung beispielsweise aufgrund technischer Ungenauigkeiten und Fluktuationen mit erfaßt. Insbesondere sind auch ellipsoidartige Bewegungen der Kameraposition vorteilhaft, bei denen sich der Abstand der Kameraposition vom Rotationszentrum während der Drehung innerhalb gewisser Grenzen ändert. Dies ist dann von Interesse, wenn etwa bei einem länglichen Objekt zur Drehung um dieses Objekt in der Ebene seiner Längsrichtung eine ellipsoidförmige Bewegung gewählt wird, bei der die lange Halbachse der Ellipse in Richtung des länglichen Objekts ausgerichtet ist, so daß sich bei der Drehung zu dieser Halbachse hin der Abstand der Kameraposition vom Rotationszentrum vergrößert und dadurch eine Kollision mit dem länglichen Objekt vermieden werden kann.
  • In 1 ist für eine besonders bevorzugte Ausführungsform ein virtuelles Kameramodell schematisch dargestellt. Die Position der Kamera 1 bewegt sich dabei auf einer Kugeloberfläche, die durch die beiden Kreise 2 und die gestrichelten Linien 4 angedeutet ist. Der Mittelpunkt der Kugel, das Rotationszentrum, ist mit 3 bezeichnet. Dort befindet sich das Zentrum der betrachteten virtuellen 3D-Szene. Wie durch den Pfeil 6 angedeutet, ist die Kamera bei ihrer Bewegung auf der Kugeloberfläche stets auf das Rotationszentrum 3 ausgerichtet, so daß der Benutzer stets auf das Zentrum der virtuellen 3D-Szene blickt, jedoch von unterschiedlichen Richtungen her, abhängig von der jeweiligen Position der Kamera 1 auf der Kugeloberfläche 2. Diese Position 1 ist definiert durch den Azimutwinkel α und den Polarwinkel β. α bestimmt dabei die horizontale Ablenkung und β die vertikale Ablenkung der Kamera 1. Die Entfernung der Kamera 1 zum Rotationszentrum 3 ist mit s angegeben.
  • In einer bevorzugten Ausführungsform ist es möglich, auf ein anderes virtuelles Kameramodell umzuschalten, bei dem die Kamera 1 vom Rotationszentrum 3 nach außen weg gerichtet ist, so daß sich die Richtung des Pfeils 6 der 1 umdrehen würde. In diesem Fall ist selbstverständlich auch die betrachtete virtuelle 3D-Szene außerhalb der Kugeloberfläche 2 angeordnet. Durch Drehen der Kugel des Trackballs bzw. durch Betätigen der Eingabetasten für die Zoomfunktion werden die Parameter α, β und s des Kameramodells gesteuert.
  • Hierbei ist es besonders vorteilhaft, wenn die Achsen des Trackballs eine feste räumliche Lage relativ zur Bilddarstellungseinheit einnehmen, d.h., daß deren Lage im Raum vom Benutzer nicht verschoben, verdreht oder verstellt werden kann oder zumindest nur innerhalb gewisser geringer Grenzen. Beispielsweise ist der Trackball fest auf einem Tisch montiert, mit dem auch die Bilddarstellungseinheit fest verbunden ist. Dadurch wird gewährleistet, daß sich die relative Lage zueinander der Achsen des virtuellen Kameramodells und des Trackballs während der Benutzung des Systems nicht ungewollt verändert und damit für den Benutzer die einfache gedankliche Übertragbarkeit der Bewegung des Trackballs auf das Kameramodell sichergestellt ist.
  • Kollisionen der Kamera mit Objekten der virtuellen 3D-Szene sind üblicherweise nicht erwünscht, da sie eine nicht-realistische Ansicht der 3D-Szene vermitteln, insbesondere da in der Realität ein Durchdringen von Objekten in der Regel ausgeschlossen ist, dies aber in der virtuellen Welt im Prinzip ohne weiteres möglich ist. Ein derart für den Benutzer unrealistischer Effekt soll demnach vermieden werden. Deshalb wird bei besonders bevorzugten Ausführungsformen der Abstand der Kameraposition vom Rotationszentrum und damit die Entfernung der Kamera vom betrachteten 3D-Objekt auf einen Bereich zwischen einem Maximal- und Minimalwert begrenzt. Der Benutzer kann sich damit also nur bis zu einem bestimmten vorher festgelegten Abstand dem betrachteten 3D-Objekt nähern und sich auch nicht weiter als vorgegeben von ihm entfernen. Bevorzugt hängen diese Maximal- und Minimalwerte von den beiden Raumwinkeln α und β ab. Dadurch können sog. "Schutzzonen" beliebiger Form definiert werden, die beispielsweise an die spezielle geometrische Form der betrachteten virtuellen 3D-Objekte angeschmiegt sind.
  • Im Nahbereich wird neben der Vermeidung von Kollisionen auch verhindert, daß die photorealistische Ansicht verlorengeht, wenn die Feinheit bzw. der Detaillierungsgrad der Modellierung aufgrund der Nähe nicht mehr ausreicht und deshalb der Betrachter die diskrete Approximierung der Realität wahrnehmen kann. Auch im Fernbereich führt das Überschreiten bestimmter Grenzen zu unrealistischen Ansichten. So entspricht etwa das Betrachten eines Fahrzeuges aus einer Entfernung, die z.B. dem Blick aus einem Flugzeug entspricht, nicht mehr einer realistischen Situation bei einer wirklichen Fahrzeugpräsentation.
  • Analog werden bevorzugt auch die Winkelbereiche eingeschränkt, d.h. die Drehung der Kameraposition ist auf einen bestimmten Bereich der Kugeloberfläche bzw. jeweils auf einen bestimmten Drehwinkelbereich der horizontalen und vertikalen Achsen begrenzt. Damit werden einerseits ebenfalls Kollisionen mit Objekten der virtuellen 3D-Szene verhindert und andererseits unrealistische Blickwinkel ausgeschlossen, wie etwa der Blick auf ein Fahrzeug von unten bzw. von Höhe des Bodens aus, oder ein sehr schräg einfallender Blickwinkel auf ein Fahrzeugteil. Mathematisch bedeutet dies, daß die freie Navigation des Benutzers dadurch eingeschränkt wird, daß sich die Parameter des Kameramodells nur zwischen bestimmten Grenzwerten bewegen können, nämlich zwischen αmin und αmax, zwischen βmin und βmax und zwischen smin und smax.
  • In einer besonders bevorzugten Ausführungsform kann der Benutzer zum Betrachten interaktiv ein Objekt oder einen Teilausschnitt aus einer komplexen virtuellen 3D-Szene auswählen. Beispiele für globale Teilansichten einer komplexen virtuellen 3D-Szene eines Fahrzeugmodells sind seine Frontansicht, Seitenansicht, Aufsicht oder die Fahrerposition, während bei Detailansichten bzw. einzelnen Objekten z.B. die Felge, Blinker, Scheinwerter, Lenkrad, Schalthebel oder die Mittelkonsole in Frage kommen. Bevorzugt kann er dabei interaktiv aus einem vorbestimmten Angebot von mehreren Kameramodellen auswählen, wobei die Kameramodelle jeweils durch ein bestimmtes Rotationszentrum und eine bestimmte Abhängigkeit des Abstandes der Kameraposition vom Rotationszentrum definiert sind. Hierzu werden als Bedienschnittstelle beispielsweise entsprechende Piktogramme auf einer graphischen Benutzeroberfläche angeboten, die etwa als Touchscreen oder mittels eines elektromechanischen Tasters ausgebildet sein kann.
  • Bevorzugt ist die Drehgeschwindigkeit der Kameraposition proportional zur Drehgeschwindigkeit des Trackballs. In einer besonderen Ausführungsform ist diese Proportionalität derart gestaltet, daß dieser erste Proportionalitätsfaktor von der Drehgeschwindigkeit des Trackballs abhängt, so daß die Werteübergabe vom Trackball an das Kameramodell mit einer Dynamik versehen wird. Bevorzugt führen dabei niedrige Drehgeschwindigkeiten des Trackballs zu überproportional niedrigen Drehgeschwindigkeiten der Kameraposition und hohe Drehgeschwindigkeit des Trackballs zu überproportional hohen Drehgeschwindigkeiten der Kameraposition, so daß langsame Trackballbewegungen überproportional langsame Kamerabewegungsänderungen zur Folge haben und schnelle Trackballbewegungen überproportional schnelle Kamerabewegungsänderungen.
  • Damit wird dem Bedürfnis des Benutzers genüge geleistet, daß er üblicherweise bei nur kleinen Änderungen der Ansicht eine hohe Genauigkeit der Einstellung der Blickrichtung wünscht und diese durch längere Drehbewegungen der Kugel des Trackballs einfacher durchführen kann, während er in der Regel bei schnellen Bewegungen offensichtlich kein Interesse an den gerade dargestellten Blickrichtungen bzw. Ansichten hat und es ihm daher entgegenkommt, daß diese auch schneller vorbeibewegt werden.
  • Auch ist die Drehung der Kameraposition selbst, also nicht wie oben die Drehgeschwindigkeit, bevorzugt proportional zur Drehung des Trackballs. In bestimmten Anwendungssituationen kann es vorteilhaft sein, daß dieser zweite Proportionalitätsfaktor von der Drehwinkelstellung der Kameraposition abhängt. Beispielsweise ist es denkbar, daß bei zentralen Blickwinkeln auf ein Objekt, bei denen sich durch Drehung der Kameraposition nur wenig in der dargestellten Ansicht ändert, dieser zweite Proportionalitätsfaktor größer gewählt wird als bei schräg einfallenden Blick auf Objekten, bei denen sich durch kleine Drehwinkeländerungen des Trackballs und damit der Kameraposition bereits große Änderungen in der dargestellten Ansicht auf die virtuelle 3D-Szene ergeben können.
  • In 2 sind für eine besonders bevorzugte Ausführungsform die Komponenten eines erfindungsgemäßen Systems schematisch dargestellt. Die einzelnen Komponenten sind mit entsprechenden Datenverbindungsleitungen miteinander verbunden. Mit dem Trackball 12 steuert der Benutzer die Drehbewegung der Kameraposition um das Rotationszentrum. Die Bewegungssensoren des Trackballs tasten die Bewegung der Kugel des Trackballs typischerweise im Zeitintervall einer 1/100 Sekunde ab und übertragen diese Werte zu einer Graphik-Workstation oder einem leistungsfähigen Graphik-PC 10, in dem diese Werte in eine Bewegung der Kameraposition des virtuellen Kameramodells umgerechnet werden. Die dabei berechneten Ansichten der virtuellen 3D-Szene werden an die Bilddarstellungseinheit 8 weitergegeben und dort visualisiert.
  • Besonders bevorzugt besteht die Bilddarstellungseinheit aus einem zweidimensionalen Plasmabildschirm oder einem anderen Großbildschirm. Typischerweise weist die Bilddarstellungseinheit eine Auflösung von 1280 × 1024 Pixel auf. Besonders bevorzugt ist der Durchmesser des Trackballs in der Größenordnung von 5 cm oder größer, d.h. in der Größenordnung einer Handinnenfläche, um dem Benutzer das Gefühl zu vermitteln, eine Drehbewegung entlang einer Kugeloberfläche zu steuern, so daß ihm die Navigation intuitiv erscheint.
  • Zur Auswahl bestimmter Teilansichten bzw. Detailansichten etwa einzelner Objekte steht dem Benutzer ein Touchscreen 16 zur Verfügung, mit dem er über die Auswahl entsprechender Piktogramme solche vordefinierte Ansichten auswählen kann. Mit den Tastern 14, die ganz in der Nähe des Trackballs angeordnet sind, um mit derselben Hand wie der Trackball bedient werden zu können, wird die Zoomfunktion gesteuert. Der Trackball 12, die Taster 14 und der Touchscreen 16 sind fest auf einem Tisch montiert, bezüglich dessen auch die Bilddarstellungseinheit 8 eine feste Lage im Raum einnimmt, etwa indem die Bilddarstellungseinheit 8 stets direkt gegenüber des Tisches angeordnet ist. Damit wird sichergestellt, daß die Lage der Achsen des Trackballs mit denen des Kameramodells übereinstimmt.

Claims (28)

  1. System zur Darstellung von virtuellen 3D-Szenen auf einer Bilddarstellungseinheit (8), bei dem eine Ansicht auf die virtuelle 3D-Szene von einem Benutzer interaktiv mittels eines Trackballs (12) veränderbar ist, wobei die Ansicht auf die virtuelle 3D-Szene durch ein virtuelles 3D-Kameramodell definiert ist, bei dem – die Position der Kamera (1) mit zwei unabhängig einstellbaren Raumwinkeln α und β um ein Rotationszentrum (3) drehbar ist, – der Abstand (s) der Kameraposition vom Rotationszentrum (3) von den beiden Raumwinkeln α und β abhängt, so daß die Kamera (1) auf einer 3D-Oberfläche im Raum bewegbar ist, – die virtuelle 3D-Szene im Rotationszentrum (3) angeordnet ist, – die Kamera (1) unabhängig von ihrer Position stets zum Rotationszentrum (3) hin gerichtet ist, und wobei durch Drehung des Trackballs (12) um dessen zwei Raumwinkel die zwei entsprechenden Raumwinkel α und β des 3D-Kameramodells einstellbar sind, so daß sich die Ansicht auf die virtuelle 3D-Szene entsprechend verändert.
  2. System nach Anspruch 1, bei dem der Abstand (s) der Kameraposition vom Rotationszentrum (3) unabhängig von den beiden Raumwinkeln α und β konstant ist, so daß die Kamera (1) auf einer Kugeloberfläche bewegbar ist.
  3. System nach Anspruch 1, bei dem der Abstand (s) der Kameraposition vom Rotationszentrum (3) derart abhängt, daß die Kamera (1) auf einer ellipsoidartigen 3D-Oberfläche im Raum bewegbar ist.
  4. System nach Anspruch 1, bei dem der Abstand (s) der Kameraposition vom Rotationszentrum (3) derart abhängt, daß die Kamera (1) auf einer quaderförmigen 3D-Oberfläche im Raum bewegbar ist.
  5. System nach Anspruch 1, bei dem die Abhängigkeit des Abstandes (s) der Kameraposition vom Rotationszentrum (3) durch die geometrische Form der dargestellten virtuellen 3D-Szene bestimmt ist.
  6. System nach Anspruch 1, bei dem die virtuelle 3D-Szene mehrere Seiten aufweist und die Abhängigkeit des Abstandes (s) der Kameraposition vom Rotationszentrum (3) davon abhängt, auf welche Seite die Kamera (1) gerade gerichtet ist.
  7. System nach einem der vorhergehenden Ansprüche, bei dem das virtuelle Kameramodell zusätzlich durch interaktive Auswahl derart veränderbar ist, daß die Kamera (1) in entgegengesetzte Richtung vom Rotationszentrum (3) weg gerichtet ist und die virtuelle 3D-Szene außerhalb der 3D-Oberfläche im Raum liegt.
  8. System nach einem der vorhergehenden Ansprüche, bei dem durch Drehung des Trackballs (12) um eine bezüglich dessen Halterung horizontale Achse die Kameraposition (1) um eine korrespondierende horizontale Achse des Kameramodells gedreht wird und durch Drehung des Trackballs (12) um eine bezüglich dessen Halterung vertikale Achse die Kameraposition (1) um eine korrespondierende vertikale Achse des Kameramodells gedreht wird.
  9. System nach einem der vorhergehenden Ansprüche, bei dem ein Eingabemittel (14) vorgesehen ist, mit dem der Abstand (s) der Kameraposition (1) vom Rotationszentrum (3) bzw. von der virtuellen 3D-Szene vom Benutzer interaktiv veränderbar ist, so daß sich die Ansicht der virtuellen 3D-Szene entsprechend vergrößert oder verkleinert.
  10. System nach Anspruch 9, bei dem das Eingabemittel zwei Tasten (14) umfaßt, von denen die eine die Vergrößerung des Abstandes (s) vom Rotationszentrum (3) und die andere die Verkleinerung des Abstandes (s) vom Rotationszentrum (3) steuert.
  11. System nach Anspruch 9 oder 10, bei dem die Drehung der Kameraposition (1) um das Rotationszentrum (3) und der Abstand (s) der Kameraposition (1) von der virtuellen 3D-Szene vom Benutzer gleichzeitig steuerbar sind.
  12. System nach einem der Ansprüche 9 bis 11, bei dem die interaktive Veränderung des Abstandes (s) der Kameraposition (1) vom Rotationszentrum (3) auf einen Bereich zwischen einem Maximal- und Minimalwert begrenzt ist.
  13. System nach Anspruch 12, bei dem der Maximal- und Minimalwert von den beiden Raumwinkeln α und β abhängt.
  14. System nach einem der vorhergehenden Ansprüche, bei dem die Drehung der Kameraposition (1) auf einen bestimmten Raumwinkelbereich der beiden Raumwinkel α und β und damit auf einen bestimmten Bereich der 3D-Oberfläche im Raum, bzw. jeweils auf einen bestimmten Drehwinkelbereich der horizontalen und vertikalen Achsen begrenzt ist.
  15. System nach einem der vorhergehenden Ansprüche, bei dem die virtuelle 3D-Szene ein vom Benutzer interaktiv wählbares Objekt oder ein interaktiv wählbarer Teilausschnitt aus einer komplexen virtuellen 3D-Szene ist.
  16. System nach einem der vorhergehenden Ansprüche, bei dem der Benutzer interaktiv aus einem vorbestimmten Angebot von mehreren Kameramodellen auswählen kann, wobei die Kameramodelle jeweils durch ein bestimmtes Rotationszentrum (3) und eine bestimmte Abhängigkeit des Abstandes (s) der Kameraposition vom Rotationszentrum (3) definiert sind.
  17. System nach einem der vorhergehenden Ansprüche, bei dem die Drehgeschwindigkeit der Kameraposition (1) proportional zur Drehgeschwindigkeit des Trackballs (12) ist.
  18. System nach Anspruch 10, bei dem dieser erste Proportionalitätsfaktor von der Drehgeschwindigkeit des Trackballs (12) abhängt.
  19. System nach Anspruch 11, bei dem niedrige Drehgeschwindigkeiten des Trackballs (12) zu überproportional niedrigen Drehgeschwindigkeiten der Kameraposition (1) führen und hohe Drehgeschwindigkeiten des Trackballs (12) zu überproportional hohen Drehgeschwindigkeiten der Kameraposition (1) führen.
  20. System nach einem der vorhergehenden Ansprüche, bei dem die Drehung der Kameraposition (1) proportional zur Drehung des Trackballs (12) ist.
  21. System nach Anspruch 13, bei dem dieser zweite Proportionalitätsfaktor von der Drehwinkelstellung der Kameraposition (1) abhängt.
  22. System nach einem der vorhergehenden Ansprüche, bei dem die Achsen des Trackballs (12) eine feste räumliche Lage relativ zur Bilddarstellungseinheit (8) einnehmen.
  23. System nach einem der vorhergehenden Ansprüche, bei dem der Durchmesser des Trackball (12) in der Größenordnung von 5 cm oder größer liegt.
  24. System nach einem der vorhergehenden Ansprüche, bei dem die Bilddarstellungseinheit (8) ein zweidimensionaler Bildschirm ist.
  25. System nach einem der vorhergehenden Ansprüche, bei dem die Ansichten von der Bilddarstellungseinheit (8) stereoskopisch oder autostereoskopisch dargestellt werden.
  26. System nach einem der vorhergehenden Ansprüche, bei dem die virtuellen 3D-Szenen künstlich erzeugte Konstruktionsmodelle aus dem Bereich des Maschinenbau und insbesondere Fahrzeugmodelle oder Flugzeugmodelle sind.
  27. Verfahren zur Darstellung von virtuellen 3D-Szenen auf einer Bilddarstellungseinheit (8), bei dem ein Benutzer die Ansicht auf die virtuelle 3D-Szene interaktiv mittels eines Trackballs (12) verändern kann, wobei die Ansicht auf die virtuelle 3D-Szene durch ein virtuelles Kameramodell definiert ist, bei dem – die Position der Kamera (1) mit zwei unabhängig einstellbaren Raumwinkeln α und β um ein Rotationszentrum (3) gedreht wird, – der Abstand (s) der Kameraposition vom Rotationszentrum (3) von den beiden Raumwinkeln α und β abhängt, so daß die Kamera (1) sich auf einer 3D-Oberfläche im Raum bewegt, – die virtuelle 3D-Szene im Rotationszentrum (3) angeordnet ist, – die Kamera (1) unabhängig von ihrer Position stets zum Rotationszentrum (3) hin gerichtet ist, und durch Drehen des Trackballs (12) um dessen zwei Raumwinkel die zwei entsprechenden Raumwinkel α und β des 3D-Kameramodells eingestellt werden, so daß sich die Ansicht auf die virtuelle 3D-Szene entsprechend verändert.
  28. Verfahren nach Anspruch 27 mit einem oder mehreren Merkmalen der Ansprüche 2 bis 26.
DE2003100527 2003-01-09 2003-01-09 System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit Ceased DE10300527A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2003100527 DE10300527A1 (de) 2003-01-09 2003-01-09 System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003100527 DE10300527A1 (de) 2003-01-09 2003-01-09 System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit

Publications (1)

Publication Number Publication Date
DE10300527A1 true DE10300527A1 (de) 2004-07-22

Family

ID=32519770

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003100527 Ceased DE10300527A1 (de) 2003-01-09 2003-01-09 System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit

Country Status (1)

Country Link
DE (1) DE10300527A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012014466A1 (de) 2012-07-21 2014-01-23 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug
WO2017191027A1 (de) 2016-05-06 2017-11-09 Audi Ag Verfahren zum betreiben eines anzeigesystems und anzeigesystem
CN111522493A (zh) * 2008-08-22 2020-08-11 谷歌有限责任公司 移动设备上的三维环境中的导航
CN115145456A (zh) * 2022-06-29 2022-10-04 重庆长安汽车股份有限公司 一种3d车模的旋转控制系统及控制方法
WO2024188126A1 (zh) * 2023-03-10 2024-09-19 法雷奥开关和传感器有限责任公司 用于机动车辆的人机交互系统及机动车辆

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19816353A1 (de) * 1998-04-03 1999-10-14 Henrick Schmitz System zur Aufzeichnung und Wiedergabe von dreidimensionalen Objekten
US5999187A (en) * 1996-06-28 1999-12-07 Resolution Technologies, Inc. Fly-through computer aided design method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999187A (en) * 1996-06-28 1999-12-07 Resolution Technologies, Inc. Fly-through computer aided design method and apparatus
DE19816353A1 (de) * 1998-04-03 1999-10-14 Henrick Schmitz System zur Aufzeichnung und Wiedergabe von dreidimensionalen Objekten

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111522493A (zh) * 2008-08-22 2020-08-11 谷歌有限责任公司 移动设备上的三维环境中的导航
DE102012014466A1 (de) 2012-07-21 2014-01-23 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug
WO2017191027A1 (de) 2016-05-06 2017-11-09 Audi Ag Verfahren zum betreiben eines anzeigesystems und anzeigesystem
DE102016005579A1 (de) 2016-05-06 2017-11-09 Audi Ag Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem
DE102016005579B4 (de) 2016-05-06 2022-05-19 Audi Ag Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem
CN115145456A (zh) * 2022-06-29 2022-10-04 重庆长安汽车股份有限公司 一种3d车模的旋转控制系统及控制方法
CN115145456B (zh) * 2022-06-29 2024-06-11 重庆长安汽车股份有限公司 一种3d车模的旋转控制系统及控制方法
WO2024188126A1 (zh) * 2023-03-10 2024-09-19 法雷奥开关和传感器有限责任公司 用于机动车辆的人机交互系统及机动车辆

Similar Documents

Publication Publication Date Title
DE112014004305B4 (de) Bildgenerierungsvorrichtung; Bildanzeigesystem; Bildgenerierungsverfahren und Bildanzeigeverfahren
DE60025926T2 (de) Steuerung der tiefenbewegung in einer anzeigevorrichtung mit mehrschichtigem bildschirm
DE102018109463C5 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
EP3067874A1 (de) Verfahren und vorrichtung zum testen eines in einem luftfahrzeug zu bedienenden geräts
DE69130198T2 (de) Bildanzeigesysteme
EP2467822B1 (de) Kontinuierliche bestimmung einer perspektive
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
DE69523717T2 (de) Verfahren und vorrichtung zur richtungssteuerung eines objektes
DE102007023506A1 (de) Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
EP3675067A1 (de) Verfahren zur darstellung von virtueller information in einer realen umgebung
EP2754298B1 (de) Auswahl von objekten in einem dreidimensionalen virtuellen szenario
EP2196892A2 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen
WO2009062492A2 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
EP3012712A1 (de) Virtuelles zeichnen in realer umgebung
DE10300527A1 (de) System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit
AT516409B1 (de) Simulator
DE102014010309B4 (de) Anzeigen von zusätzlichen Inhalten in einer virtuellen Szenerie
DE112020002550T5 (de) Virtual-Reality-Simulationen unter Verwenden von Oberflächen-Tracking
DE102013021138A1 (de) Simulationsanordnung und Verfahren zur Simulation eines Fahrzeuginnenraums
DE102018000968B4 (de) Vorrichtung zum Simulieren beweglicher realer oder fiktiver Objekte
DE102021120629B3 (de) Verfahren und Vorrichtung zur Bewegungssteuerung eines virtuell verkörperten realphysischen Avatars, Computerprogramm zur Durchführung eines solchen Verfahrens
EP2927042A2 (de) Verfahren zum anzeigen von informationen in einem fahrzeug
DE102019001778B3 (de) Verfahren und Anordnung zur Steuerung der Perspektive in immersiven Medien durch den Anwender
AT520234B1 (de) Vorrichtung zur interaktiven Präsentation von visuellen Inhalten
DE602005006243T2 (de) Rechnerunterstützes Verfahren und Rechnersystem zum Positionieren eines Zeigers

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection