DE102009032637B4 - Bildvergrößerungssystem für eine Computerschnittstelle - Google Patents
Bildvergrößerungssystem für eine Computerschnittstelle Download PDFInfo
- Publication number
- DE102009032637B4 DE102009032637B4 DE102009032637.5A DE102009032637A DE102009032637B4 DE 102009032637 B4 DE102009032637 B4 DE 102009032637B4 DE 102009032637 A DE102009032637 A DE 102009032637A DE 102009032637 B4 DE102009032637 B4 DE 102009032637B4
- Authority
- DE
- Germany
- Prior art keywords
- visual content
- input object
- scaled copy
- user interface
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 421
- 230000033001 locomotion Effects 0.000 claims abstract description 44
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 230000003993 interaction Effects 0.000 claims description 15
- 238000000034 method Methods 0.000 claims description 15
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000002996 emotional effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 241001422033 Thestylus Species 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011888 foil Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04805—Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
- Technisches Gebiet
- Die vorliegende Erfindung bezieht sich allgemein auf Schnittstellensysteme und insbesondere auf ein Bildvergrößerungssystem für eine Computerschnittstelle.
- Hintergrund
- Mit zunehmendem Ausmaß der mit einem Computer ausgeführten Tätigkeiten werden häufig neue und innovative Wege zur Schaffung einer Schnittstelle mit dem Computer entwickelt, um die Veränderungen in der Computerfunktionalität und der Zusammenschaltung zu ergänzen. So können es berührungsempfindliche Bildschirme dem Benutzer zum Beispiel ermöglichen, Computereingaben ohne Maus und/oder Tastatur vorzunehmen, so dass eine eigene Arbeitsplatzfläche zur Bedienung des Computers nicht erforderlich ist. Beispiele von berührungsempfindlichen Bildschirmen umfassen druckempfindliche Folien, Strahlunterbrechungstechniken mit am Umfang angeordneten Lichtquellen und Sensoren sowie akustische Erfassungstechniken. Hinzukommt, dass auf Computermonitoren und Anzeigegeräten visuelle Inhalte aufgrund der Fortschritte in der Anzeigetechnik in sehr viel höherer Auflösung wiedergegeben werden können. Folglich können Anwendungen geschaffen werden, die Möglichkeiten für das Zusammenwirken mit viel höher auflösenden Anzeigegeräten für den visuellen Inhalt schaffen und den Umfang des Einsatzes von Computern erweitern.
-
US 6,466,203 B2 offenbart ein tragbares Gerät mit Auto-Zoom zur graphischen Darstellung einer Webseite. Wird ein auf einem Touch-Screen dargestelltes Symbol oder Icon, welches nur eine bestimmte, relativ in Bezug auf den Touch-Screen geringe Größe aufweist, berührt bzw. drückt der Benutzer auf dieses Symbol oder Icon, so wird dieses vergrößert. Damit wird es ermöglicht, dass zum Beispiel der gesamte Inhalt einer Webseite auf dem Touch-Screen dargestellt wird, und bei der Auswahl des Tastatursymbols oder -Icons dieses vergrößert wird, so dass dem Benutzer zum Betätigen von einzelnen Buchstaben der Tastatur ausreichend große Zeichen dargestellt werden, damit er z. B. in ein Suchfeld einer Webseite einen Begriff eingeben kann.US 6,466,203 B2 bietet damit eine Vergrößerung von Inhalten eines Bereiches, die auf einem Touch-Screen dargestellt werden, so dass eine erleichterte Eingabe möglich ist. Dies geschieht bei Berührung des Touch-Screens, wobei der Vergrößerungsgrad einstellbar ist, aber nicht variabel während der Benutzung erfolgen kann. - In dem Artikel „Teksoft FingerTouch Pro released!”, Teksoft, 07-01-2008, S. 1–4, http://pdaphonehome.com/forums/mall/113076-teksoft-fingertouch-proreleased.html wird eine Anzeige für mobile Geräte, wie Mobiltelefone mit Touch-Screen, offenbart. Die darin gezeigten Systeme ermöglichen, einen Bereich, der z. B. einem Buchstaben einer auf dem Touch-Screen dargestellten Tastatur entspricht, zur Kontrolle durch den Benutzer zu vergrößern, d. h. dass dem Benutzer der durch ihn ausgewählte Buchstabe oder auch das ausgewählte Zeichen vergrößert dargestellt wird. Der Benutzer kann dann wiederum den Bereich, der den vergrößerten Buchstaben darstellt, berühren, um diesen auszuwählen. Wie bei
US 6,466,203 B2 ist die Vergrößerung nicht variabel während der Benutzung und erfolgt durch einen direkten Kontakt, z. B. von einem Finger des Benutzers, zu dem Touch-Screen. - In dem Artikel „Give your computer the finger: Touch-screen tech comes of age”, G. Anthes, Computerworld Hardware, 01-02-2008, S. 1–5 werden eine Vielzahl von Entwicklungen im Bereich von Touch-Screens beschrieben. Weiterhin werden darin mögliche Entwicklungsrichtungen und aktuelle Probleme dargestellt. Eine Schwierigkeit bei solchen Systemen betrifft zum Beispiel das „fat finger problem”, welche es vor allem bei Geräten mit kleinen Displays zu beheben gilt. Konkrete Lösungsvorschläge werden in diesem Artikel jedoch nicht aufgezeigt.
-
DE 10 2006 047 653 A1 offenbart eine Bedieneinheit mit einer Anzeigeeinheit zur Darstellung einer Bedienfläche mit mehreren in der Anzeigeeinheit dargestellten Bedienfeldern und mit einer Erfassungseinheit zur Erfassung einer Annäherung eines Bedienelements und zur örtlichen Zuordnung der Annäherung zu einem der Bedienfelder. Dasjenige Bedienfeld, das der Annäherung zugeordnet wird, wird vergrößert dargestellt. -
US 2006/0132460 A1 -
US 2005/0057524 A1 - Zusammenfassung
- Eine Ausführungsform der Erfindung umfasst ein Schnittstellensystem beziehungsweise eine Schnittstellenvorrichtung für einen Computer gemäß Hauptanspruch 1.
- Eine andere Ausführungsform der Erfindung umfasst ein Verfahren zur Bereitstellung von Eingaben an ein Computersystem gemäß nebengeordnetem Anspruch 10.
- Kurze Beschreibung der Zeichnungen
-
1 zeigt ein Beispiel eines Schaubilds für einen Computer gemäß einem Aspekt der Erfindung. -
2 zeigt ein Beispiel eines Schaubilds, das die Vergrößerung von visuellem Inhalt gemäß einem Aspekt der vorliegenden Offenbarung darstellt. -
3 zeigt ein weiteres Beispiel eines Schaubilds, das die Vergrößerung von visuellem Inhalt gemäß einem Aspekt der vorliegenden Offenbarung darstellt. -
4 zeigt noch ein weiteres Beispiel eines Schaubilds, das die Vergrößerung von visuellem Inhalt gemäß einem Aspekt der vorliegenden Offenbarung darstellt. -
5 zeigt ein anderes Beispiel eines Computerschnittstellensystems gemäß einem Aspekt der vorliegenden Offenbarung. -
6 zeigt ein Beispiel einer Benutzerschnittstelle. -
7 zeigt ein anderes Beispiel einer Benutzerschnittstelle. -
8 und9 zeigen ein Beispiel eines Schaubilds, das die Überlagerung und Bewegung von skaliertem visuellem Inhalt auf visuellen Inhalt gemäß einem Aspekt der vorliegenden Offenbarung verdeutlicht. -
10 und11 zeigen ein weiteres Beispiel eines Objekts, das die Überlagerung und Bewegung von skaliertem visuellem Inhalt auf visuellem Inhalt gemäß einem Aspekt der vorliegenden Offenbarung darstellt. -
12 zeigt ein anderes Beispiel eines Schaubilds, das die Überlagerung und Bewegung skalierten visuellen Inhalts auf visuellem Inhalt gemäß einem Aspekt der vorliegenden Offenbarung verdeutlicht. -
13 ein Beispiel eines Schaubilds, das Überlagerung von skaliertem visuellen Inhalt auf visuellem Inhalt gemäß einem Aspekt der vorliegenden Offenbarung darstellt. -
14 ein Beispiel eines Schaubilds, das die Bewegung skalierten visuellen Inhalts relativ zu visuellem Inhalt gemäß einem Aspekt der vorliegenden Offenbarung verdeutlicht. -
15 ein Beispiel eines Verfahrens zur Erzeugung von Eingaben in einen Computer. - Ausführliche Beschreibung
- Die vorliegende Erfindung bezieht sich ganz allgemein auf Schnittstellensysteme und insbesondere auf ein Bildvergrößerungssystem für eine Computerschnittstelle. Bei einem Schnittstellensystem für einen Computer kann ein Benutzerschnittstellensystem so ausgestaltet sein, dass es sowohl visuellen Inhalt anzeigen als auch von einem Benutzer gemachte Eingaben, wie beispielsweise unter Verwendung eines berührungsempfindlichen Bildschirms als Anzeigegerät und/oder eines Stereokamerasystems empfängt. Der Benutzer kann die Eingaben über ein Eingabeobjekt machen, wie z. B. einen Schreibstift, einen Stab oder einen seiner Finger. Wenn das Eingabeobjekt innerhalb eines Grenzabstandes von dem zugeordneten Anzeigegerät bewegt wird, kann das Eingabesystem das Vorhandensein des Eingabeobjekts erkennen, bevor es in Kontakt mit dem Anzeigegerät kommt. Als Beispiel sei genannt, dass das Eingabesystem ein Strahlunterbrechungssystem, akustische, kapazitive oder elektromagnetische Felderkennungs-(EMF)Techniken, eine Frequenzerkennungsabtasttechnik (RFID) oder ein Stereokamerasystem zum Erkennen der Abstandes das Eingabeobjekts von einer Normalachse, die von der Oberfläche des Anzeigegerät ausgeht, einsetzen kann.
- Wenn die Nähe des Eingabeobjekts bestimmt wird, kann das Eingabesystem einen Befehl an einen zugeordneten Grafikkontroller geben, um einen Teil des visuellen Inhalts an einem Ort auf dem Anzeigegerät zu vergrößern, an dem der Abstand des Eingabeobjekts erkannt wird. Die Vergrößerung kann derart sein, dass die umgebenden Bereiche des visuellen Inhalts abgedeckt sind, oder es kann diese so sein, dass die umgebenden Bereiche des visuellen Inhalts verzerrt sind, so dass die umgebenden Bereiche sichtbar bleiben. Der Grafikkontroller kann Daten behalten bzw. speichern, die visuellen Inhalt enthalten und auch solche, die eine skalierte Kopie des visuellen Inhalts enthalten, so dass die skalierte Kopie des visuellen Inhalts einen Skalierungsfaktor gegenüber dem visuellen Inhalt hat, der größer als 1 ist. Auf diese Weise kann der Grafikkontroller Daten an ein Anzeigegerät für den visuellen Inhalt liefern und kann den visuellen Inhalt durch Überlagerung eines Ausschnitts der skalierte Kopie des visuellen Inhalts über den korrespondierenden Teil des visuellen Inhalts vergrößern. Folglich kann der Benutzer aufgrund der Vergrößerung des Teils des visuellen Inhalts eine Geräteeingabe durch Wechselwirkung bzw. durch wechselseitiges Zusammenspiel des vergrößerten Teils des visuellen Inhalts machen, wie z. B. durch Berührung des vergrößerten Teils des visuellen Inhalts mit dem Eingabeobjekt. Somit kann ein Benutzer Eingaben auf kleinen Eingabeflächenausschnitten eines hoch auflösenden Displays vornehmen.
-
1 zeigt ein Beispiel eines Computerschnittstellensystems10 gemäß einem Aspekt der vorliegenden Offenbarung. Als ein Beispiel kann das Computerschnittstellensystem10 in einen persönlichen Computer (PC) eingebaut sein, in ein tragbares elektronisches Gerät, wie beispielsweise einen persönlichen digitalen Assistenten (PDA), oder ein Handy bzw. Mobilfunkgerät oder in einem Präsentations- oder Industriecomputer. Das Computerschnittstellensystem10 umfasst eine Computerschnittstelle12 mit der ein Benutzer die Eingabe von Daten machen kann, und kann Ausgangsdaten von einem verbundenen Rechner empfangen. Die Benutzerschnittstelle12 umfasst ein Anzeigegerät14 , das als ein beliebiges Ausgabegerät, das visuellen Inhalt anzeigt, ausgebildet sein. So kann das Anzeigegerät14 z. B. als ein Computermonitor, als ein Ausgabebildschirm eines in der Hand zu haltenden Computergeräts oder als Projektionsbildschirm ausgebildet sein. - Die Benutzerschnittstelle
12 weist ein Eingabesystem16 auf. Wie mit weiteren Einzelheiten an späterer Stelle beschrieben, kann das Eingabesystem16 mit dem Anzeigegerät14 verbunden sein oder diesem auf andere Weise zugeordnet sein oder es kann getrennt von dem Anzeigegerät14 ausgebildet sein. Das Eingabesystem16 enthält einen Nähe- oder Abstandsdetektor18 und einen Eingabedetektor20 . Der Abstandsdetektor18 kann als ein beliebiges Erkennungsgerät ausgebildet sein oder als ein System, dass das Vorhandensein eines Eingabeobjekts erkennt und das von einem Benutzer benutzt wird, um Eingaben in das Computerschnittstellensystem10 zu machen. Der Eingabedetektor20 kann zum Empfang von Geräteeingaben aufgrund eines wechselseitigen Zusammenwirkens des Eingabeobjekts mit der Benutzerschnittstelle12 ausgebildet sein. - Das Anzeigegerät
14 kann z. B. als ein berührungsempfindlicher Bildschirm ausgestaltet sein. Daher kann ein Benutzer seine oder ihre Finger als ein Eingabeobjekt vorsehen, um Geräteeingaben aufgrund des Berührens ausgewählter Bereiche des visuellen Inhalts zu machen, der auf dem Anzeigegerät14 angezeigt wird. Der Eingabedetektor20 kann folglich so ausgestaltet sein, wie das Merkmal eines berührungsempfindlichen Bildschirms des Anzeigegeräts14 . Folglich kann der Abstandsdetektor18 als ein Sensorsystem ausgestaltet sein, das erkennt, dass sich der Finger des Benutzers in der Nähe des Anzeigegeräts14 befindet, dieses aber nicht berührt. Der Abstandsdetektor18 kann beispielsweise als ein Strahlunterbrechungssystem ausgebildet sein oder kann so verwirklicht sein, dass es kapazitiv, akustisch, optisch oder elektromagnetisch das Eingabeobjekt erkennt. Als Beispiel sei genannt, dass der Finger des Benutzers unbedeckt bzw. nackt sein kann, sodass der Abstandsdetektor einzig in der Benutzerschnittstelle12 verkörpert ist. Als ein anderes Beispiel sei genannt, dass der Finger des Benutzers mit einem Handschuh bedeckt sein kann und der Handschuh einen Sender oder eine passive RFID-Marke hat, die durch den Abstandsdetektor18 erkannt werden kann. - Das Eingabeobjekt kann ferner eine Einrichtung aufweisen, die in der Hand gehalten wird, mit der der Benutzer Eingaben in das Computerschnittstellensystem
10 machen kann. Zum Beispiel könnte das Eingabeobjekt ein Schreibstift bzw. Stylus sein, wie er z. B. für PDAs verwendet wird. Der Schreibstift kann passiv sein oder könnte einen Sender oder eine passive RFID-Marke aufweisen, wie es zuvor für den Handschuh eines Benutzers beschrieben worden ist. Zusätzlich können der Abstandsdetektor18 und der Eingabedetektor20 als ein einziges Gerät ausgebildet sein. Das Eingabesystem16 kann z. B. auch als ein Stereokamerasystem ausgestaltet sein, das so gestaltet ist, dass es schnell Bilder des Eingabeobjekts aus verschiedenen physikalischen Perspektiven aufnimmt und eine dreidimensionale physikalische Lage des Eingabeobjekts auf der Grundlage eines Parallaxenabstandes des Eingabeobjekts relativ zu jeder der unterschiedlichen physikalischen Perspektiven errechenbar ist. Auf diese Weise könnte das Eingabesystem16 den Abstand bzw. die Nähe des Eingabeobjekts von dem Eingabegerät14 bestimmen und ob das Eingabeobjekt das Anzeigegerät14 berührt. Ferner könnte der Eingabedetektor20 die Geräteeingaben auf andere Weise als durch Berührung mit dem Anzeigegerät14 empfanempfangen. Der Benutzer kann z. B. auch eine Geste mit seiner oder ihrer Hand machen, die einer Geräteeingabe entspricht, sodass eine Berührung mit dem Anzeigegerät14 zur Ausführung einer Geräteeingabe nicht gemacht werden muss. - Der Zweck des Abstandsdetektors
18 , wie er später mit weiteren Einzelheiten und auch im folgenden beschrieben wird, besteht darin, es einem Benutzer zu ermöglichen, einen Teil des visuellen Inhalts zu vergrößern, der auf dem Anzeigegerät14 angezeigt wird. Auf diese Weise können Teile des sichtbaren Inhalts, die sehr klein sind und eine sehr hohe Auflösung haben, durch den Benutzer dadurch erkannt werden, dass sich das Eingabeobjekt innerhalb einer vorgegebenen Grenzabstandsnähe von dem Anzeigegerät14 befindet. Als Folge hiervon kann der Benutzer mit dem vergrößerten Ausschnitt des visuellen Inhalts zusammen- bzw. wechselwirken. So kann z. B. aus einer kleinen Gruppierung von Objekten mit feiner Auflösung in dem visuellen Inhalt, die auf dem Anzeigegerät14 angezeigt wird, individuell unter Verwendung eines groben bzw. stumpfen Eingabeobjekts, wie z. B. dem Finger des Benutzers, nach Vergrößerung der Gruppierung der Objekte mit feiner Auflösung, ausgewählt werden. Folglich kann der Benutzer oder die Benutzerin seinen oder ihren Finger oder ein anderes Eingabeobjekt nahe auf das Anzeigegerät14 hin bewegen, um den visuellen Inhalt zu vergrößern, und kann dann mit dem (z. B. berührungsempfindlichen) Ausschnitt des vergrößerten visuellen Inhalts mit dem Finger oder einem anderen Eingabeobjekt zusammenwirken, um die geeignete Geräteeingabe entsprechend dem hochauflösenden Objekt darin zu machen. - Zur Einrichtung der Vergrößerung des visuellen Inhalts ist der Abstandsdetektor
18 zum Kommunizieren der Abstandsinformation an einen Grafikkontroller22 nach Erkennung des Vorhandenseins des Eingabeobjekts innerhalb des Grenzabstands von der Oberfläche des Anzeigegeräts ausgelegt. Zum Beispiel kann die Abstandsinformation eine Lageinformation relativ zum Anzeigegerät sein, die mit der Lage des Eingabeobjekts, das sich innerhalb des Grenzabstandes befindet, korrespondiert. Der Grafikkontroller22 kann als eine Grafikkarte ausgelegt sein, wie sie in einem PC vorgesehen ist, und einen Speicher24 und ein Anzeigegerät26 für visuellen Inhalt aufweisen. - Der Speicher
24 ist so ausgestaltet, dass er Daten28 von visuellem Inhalt und Daten30 von skaliertem visuellem Inhalt speichert. Die Daten30 des skaliertem visuellen Inhalts können im wesentlichen identisch mit den Daten28 des visuellen Inhalts sein mit der Ausnahme, dass sie um einen Skalierungsfaktor von größer als 1 skaliert sind. Die Daten28 des visuellen Inhalts und die Daten30 des skaliertem visuellen Inhalts entsprechen jeweils dem visuellen Inhalt der auf dem Anzeigegerät14 angezeigt wird. Daher ist der Speicher24 zur Pufferung sowohl der Daten28 des visuellen Inhalts als auch der Daten30 des skalierten visuellen Inhalts eingerichtet, wie z. B. auf der Grundlage von Befehlen von einem Prozessor32 . Auf den Speicher24 ist über ein Anzeigegerät26 für visuellen Inhalt zugreifbar, um die Daten28 des visuellen Inhalts oder eine Kombination der Daten28 des visuellen Inhalts und der Daten30 des skalierten visuellen Inhalts an das Anzeigegerät14 zu leiten. - Als ein Beispiel des Abstandsdetektors
18 zur Erzeugung der Information bezüglich des Vorhandenseins des Eingabeobjekts an den Grafikkontroller22 ist das Anzeigegerät26 für den visuellen Inhalt zur Überlagerung der Daten30 für einen Ausschnitt des skalierten visuellen Inhalts auf den entsprechenden korrespondierenden Ort der Daten28 des visuellen Inhalts ausgelegt. Die Kombination der Daten28 des visuellen Inhalts und des überlagerten Ausschnitts der Daten30 des skalierten visuellen Inhalts wird dem Anzeigegerät14 zugeführt. Als Ergebnis hiervon erzeugt das Anzeigegerät14 den visuellen Inhalt, der den überlagerten Ausschnitt der Daten30 des skalierten visuellen Inhalts über die Daten28 des visuellen Inhalts zum Vergrößern des entsprechenden korrespondierenden Teils des visuellen Inhalts, wie er vom Benutzer erkannt wird, aufweist. - So kann z. B. das Anzeigegerät
26 für visuellen Inhalt die Daten30 des Ausschnitts des skalierten visuellen Inhalts über die Daten28 des visuellen Inhalts statisch überlagern. Daher kann der überlagerte Ausschnitt der Daten30 des vergrößerten visuellen Inhalts an einem Ort über den Daten28 des visuellen Inhalts solange fixiert bleiben, wie das Eingabeobjekt innerhalb des Grenzabstandes des Anzeigegerät14 und oberhalb des vergrößerten Teils des visuellen Inhalts verbleibt. Das Anzeigegerät26 für visuellen Inhalt kann gemäß einem anderen Beispiel den Ausschnitt der Daten30 des skalierten visuellen Inhalts auf die Daten28 des visuellen Inhalts dynamisch überlagern. Dafür kann der überlagerte Ausschnitt der Daten30 des skalierten visuellen Inhalt über die Daten28 des visuellen Inhalts bewegt werden und folglich über den visuellen Inhalt auf dem Anzeigegerät14 , während sich das Eingabeobjekt über den visuellen Inhalts auf dem Anzeigegerät14 unterhalb des Grenzabstands bewegt. Die Art und Weise mit der die Daten30 des skalierten visuellen Inhalts auf die Daten28 des visuellen Inhalts überlagert werden, wird mit weiteren Einzelheiten unter Bezugnahme auf die Beispiele der2 bis4 beschrieben. - Aufgrund der Vergrößerung des Teils des visuellen Inhalts, der auf dem Anzeigegerät
14 angezeigt wird, kann der Benutzer mit dem vergrößertem Teil des visuellen Inhalts wechselseitig zusammenzuwirken. Der Benutzer kann z. B. Geräteeingaben auf dem vergrößerten Teil des visuellen Inhalts erzeugen, wie beispielsweise durch Berühren des Anzeigegeräts14 mit dem Eingabeobjekt an einer geeigneten Stelle des vergrößerten Ausschnitts des visuellen Inhalts. Die Geräteeingabe kann folglich dem Prozessor32 zugeführt werden. Daher kann der Prozessor32 die Daten28 des visuellen Inhalts aktualisieren und die Daten30 des skalierten visuellen Inhalts aufgrund der Geräteeingabe aktualisieren oder er kann jeden Status des zugehörigen Computersystems aktualisieren, Information speichern oder eine von vielen Computerfunktionen aufgrund der Geräteeingabe auslösen. - Es versteht sich, dass das Computerschnittstellensystem
10 nicht auf das Ausführungsbeispiel nach1 beschränkt sein soll. Als ein Beispiel wurden die Benutzerschnittstelle12 und der Grafikkontroller22 in dem Ausführungsbeispiel nach1 vereinfacht dargestellt, in dem jede von vielen zusätzlichen Komponenten in jeder der Benutzerschnittstellen12 und dem Grafikkontroller22 vorgesehen sein können. Hinzu kommt, dass das Computerschnittstellensystem10 nur einen Ausschnitt aus einem größeren Computersystem darstellen kann, derart, dass die Benutzerschnittstelle12 , der Grafikkontroller22 und der Prozessor32 mit zusätzlicher Computerarchitektur versehen oder verbunden sein können. Darüber hinaus versteht es sich, dass das Eingabesystem16 nicht auf Eingaben beschränkt ist, die von einem Eingabeobjekt erzeugt werden. Das Eingabesystem16 kann z. B. auch eine Tastatur, eine Maus oder eines von vielen zusätzlichen Eingabegeräten zusätzlich zu denen, die sich unmittelbar auf das Anzeigegerät beziehen, aufweisen. Folglich kann das Computerschnittstellensystem10 auf eine von vielen Weisen ausgestaltet sein. -
2 stellt ein Beispiel eines Schaubilds40 dar, das die Vergrößerung des visuellen Inhalts gemäß einem Aspekt der vorliegenden Offenbarung zeigt. Das Schaubild40 zeigt ein Anzeigegerät42 , das im wesentlichen gleich dem Anzeigegerät14 des Ausführungsbeispiels nach1 ausgebildet sein kann. Folglich wird auf das Ausführungsbeispiel nach1 in der folgenden Beschreibung des Ausführungsbeispiels der2 Bezug genommen. - Das Anzeigegerät
42 kann z. B. ein berührungsempfindlicher Bildschirm sein. Bei dem Ausführungsbeispiel nach2 ist ein Anzeigegerät42 dargestellt, das visuellen Inhalt44 darstellt. Der visuelle Inhalt44 ist im besonderen einen virtuelles Tastenwahlblock mit Standard ASCII Zeichen. Dafür ist das Anzeigegerät42 als ein Tastfeld (Touchpad) ausgebildet, das die Tasten anzeigt, die zur Erzeugung von Geräteeingaben gepresst werden können, um Geräteingaben zu machen, die an den Prozessor32 in dem Ausführungsbeispiel von1 geleitet werden können. Das Schaubild40 zeigt ferner die Hand46 eines Benutzers, die mit dem Anzeigegerät42 wechselseitig zusammenwirkt. Bei dem Ausführungsbeispiel der2 ist der Zeigefinger48 der Hand46 des Benutzers gestreckt, so dass der Finger48 so positioniert werden kann, dass er auf eine der Tasten des visuellen Inhalts44 drücken kann. Daher wird der Finger48 als ein Eingabeobjekt benutzt. - Ähnlich wie bei dem beschriebenen Ausführungsbeispiel nach
1 wird, wenn sich der Finger48 dem Grenzabstand des Anzeigegeräts42 nähert, ein Teil50 des visuellen Inhalts44 vergrößert. Bei dem Ausführungsbeispiel nach2 ist der Teil50 des visuellen Inhalts44 , der vergrößert wird, die Taste ”0” und das etwas umgebende Detail. Die Stelle des Teils50 des visuellen Inhalts44 , die vergrößert ist, befindet sich im wesentlichen unterhalb des Fingers48 (d. h. des Eingabeobjekts) oder im wesentlichen nahe einer Normalachse, die sich von dem Bildschirm des Anzeigegerät42 , von dem aus der Grenzabstand definiert ist, erstreckt. Wie dies bei dem Beispiel nach2 gezeigt ist, wird der vergrößerte Teil50 als etwas oberhalb des Fingers48 gezeigt. Folglich versteht sich, dass sich der Mittelpunkt des vergrößerten Teils50 des visuellen Inhalts44 nicht direkt unterhalb des Eingabeobjekts befinden muss, sondern etwas außermittig von dem Eingabeobjekt sein kann, um seine Sichtbarkeit zu gewährleisten. - Wie im Ausführungsbeispiel nach
2 dargestellt, ist die Spitze des Fingers48 im wesentlichen stumpf, so dass die Berührung mit einer der nicht vergrößerten Tasten des visuellen Inhalts44 schwierig sein könnte, was zu unbeabsichtigten Tastenanschlägen führen kann. Folglich kann der Benutzer durch Vergrößern des Teils50 des visuellen Inhalts44 die beabsichtigte ”0” ohne gleichzeitige unbeabsichtigte Berührung einer der umgebenden Tasten berühren, weil der Eingabedetektor20 jeden Kontakt mit einem Teil der vergrößerten Taste ”0” als einen entsprechenden Tastenanschlag der ”0” interpretieren kann. Der vergrößerte Teil50 kann z. B. in der Position der Taste ”0” fixiert sein und die Taste ”0” solange vergrößern, wie der Finger48 über den vergrößerten Teil50 und innerhalb des Grenzabstandes verbleibt. Nach einem anderen Beispiel kann der vergrößerte Teil50 auf dem Anzeigegerät42 über den visuellen Inhalt44 bewegt werden, während sich der Finger über den visuellen Inhalt44 auf dem Anzeigegerät42 unterhalb des Grenzabstands bewegt. - Wie es ebenfalls im Beispiel nach
2 dargestellt ist, ist der vergrößerte Abschnitt50 als die umgebenden Abschnitte des visuellen Inhalts44 verdeckend gezeigt. Der vergrößerte Abschnitt50 deckt eine Gruppe von umgebenden Tasten im wurden Beispiel 2 Ausführungsbeispiel, derart ab, dass sie nicht sichtbar sind und können aufgrund der gerade vorliegenden Stelle des vergrößerten Teils50 unerreichbar sein. Eine Abdeckung ist nur eine von vielen Möglichkeiten, nachdem der vergrößerte Teil50 gegenüber dem Rest des visuellen Inhalts44 dargestellt werden kann, und folglich ist das Anzeigegerät26 (display engine) für den visuellen Inhalt nach dem Ausführungsbeispiel von1 nicht auf das Abdecken des umgebenden visuellen Inhalts44 beschränkt, wie dies in den folgenden Beispielen nach den3 und4 an späterer Stelle dargestellt wird. -
3 zeigt ein anderes Beispiel eines Schaubilds60 , das die Vergrößerung des visuellen Inhalts gemäß einem Aspekt der vorliegenden Offenbarung darstellt. Die Ansicht60 stellt virtuelle Konturen einer ersten Fläche62 von visuellem Inhalt dar. Die erste Fläche62 des visuellen Inhalts ist als im wesentlichen flach dargestellt, so wie es ein das Anzeigegerät42 betrachtender Benutzer des Computerschnittstellensystem10 nach dem Ausführungsbeispiel von1 wahrnimmt. - Das Schaubild
60 zeigt ebenfalls virtuelle Konturen einer zweiten Fläche64 des visuellen Inhalts. In dem Beispiel nach3 ist die zweite Fläche64 als eine virtuelle Folie dargestellt, wie sie beispielsweise auf einem Strukturabbild (texture mapping) in einem dreidimensionalen Renderingsystem beruht. Die zweite Fläche64 zeigt somit einen Ausschnitt66 des skalierten visuellen Inhalts der von dem ansonsten flachen visuellen Inhalts68 hervorsteht. Folglich kann das Anzeigegerät26 für visuellen Inhalt zur Überlagerung des Ausschnitts66 des skalierten visuellen Inhalts auch den visuellen Inhalt68 durch Verformen der virtuellen Membrane zum Transformieren der ersten Fläche62 in die zweite Fläche64 ausgestaltet sein. Als Folge hiervon werden die Teile des visuellen Inhalts68 , die den Ausschnitt66 des vergrößerten visuellen Inhalts umgeben, von dem Benutzer als im wesentlichen verzerrt wahrgenommen. Anders als bei dem anhand von2 beschriebenen Ausführungsbeispiel wird der umgebende visuelle Inhalt68 nicht abgedeckt, so dass er immer noch durch den Benutzer des Computerschnittstellensystems10 betrachtet werden kann. Der Benutzer kann folglich den Ort bzw. die Stelle des vergrößerten Teils des visuellen Inhalts adjustieren, wenn es sich als nötig erweist, Geräteeingaben von umgebenden Teilen des visuellen Inhalts nach deren Betrachtung zu erzeugen. -
4 zeigt ein weiteres Beispiel eines Schaubilds80 , das die Vergrößerung des visuellen Inhalts gemäß einem Aspekt der vorliegenden Offenbarung darstellt. Das Schaubild80 stellt ein Anzeigegerät82 dar, welches im wesentlichen ebenso wie das Anzeigegerät14 nach dem Ausführungsbeispiel der1 ausgestaltet sein kann. Folglich werden Bezugnahmen auf das Ausführungsbeispiel nach1 in der folgenden Beschreibung des Ausführungsbeispiels nach4 gemacht. - Das Anzeigegerät
82 kann z. B. ein berührungsempfindlicher Bildschirm sein, ähnlich dem zuvor im Zusammenhang mit dem Anzeigegerät von2 beschriebenen. Das Anzeigegerät82 ist als visuellen Inhalt84 anzeigend gezeigt, wobei das Anzeigegerät82 als ein Touchpad ausgestaltet ist, das die Tasten, die zur Erzeugung von Geräteeingaben gepresst werden können, zeigt. Das Schaubild80 stellt die Hand86 eines Benutzers dar, der mit dem visuellen Inhalt84 wechselseitig zusammenwirkt. Bei dem Beispiel nach4 ist der Zeigefinger88 der Hand86 des Benutzers so gestreckt, dass der Finger sich in einer Lage befindet, in der er eine der Tasten des visuellen Inhalts84 pressen kann. - Während sich der Finger
88 unterhalb des Grenzabstandes des Anzeigegerät82 einem Teil90 des visuellen Inhalts84 nähert, wird dieser vergrößert. Nach dem Beispiel gemäß4 ist der Teil90 des visuellen Inhalts84 , der vergrößert wird, die Taste ”2” und etwas des umgebenden Details. Der Ort des Teils90 des visuellen Inhalts84 , der vergrößert wird, befindet sich im wesentlichen unterhalb des Fingers88 (d. h. des Eingabeobjekts), oder im wesentlichen nahe einer Normalachse, die sich von dem Bildschirm des Anzeigegeräts82 erstreckt, von dem aus der Grenzabstand definiert ist. Der vergrößerte Teil90 kann z. B. in seiner Stellung fixiert bleiben, in der die Taste ”2” vergrößert ist, solange der Finger88 über dem vergrößerten Teil90 und innerhalb des Grenzabstandes verbleibt. Nach einem anderen Beispiel kann sich der vergrößerte Teil90 über den visuellen Inhalt84 auf dem Anzeigegerät82 bewegen, während sich der Finger88 über den visuellen Inhalts84 auf dem Anzeigegerät82 unterhalb des Grenzabstandes bewegt. - Wie es im Beispiel nach
4 dargestellt ist, ist der vergrößerte Teil90 als den visuellen Inhalt84 umgebenden Teile verzerrend angezeigt. Ähnlich wie es zuvor für das Ausführungsbeispiel nach3 beschreiben wurde, kann der vergrößerte Teil90 von der Transformation bzw. dem Rendering des überlagerten Ausschnitts des skalierten visuellen Inhalts über den visuellen Inhalts als Deformation der virtuellen Membrane beziehungsweise Folie hervorgegangen sein. Die umgebenden Abschnitte des visuellen Inhalts84 sind folglich verzerrt, aber dem Benutzer noch sichtbar. Als Folge hiervon kann der Benutzer in der Lage sein, den vergrößerten Teil90 zu bewegen, um mit den anderen Tasten nach deren Betrachtung zusammenwirken zu können. Der Benutzer kann somit z. B. den vergrößerten Teil90 etwas nach links für ein Zusammenwirken mit der Taste ”1” oder nach rechts für ein Zusammenwirken mit der Taste ”3” oder etwas nach oben für ein Zusammenwirken mit der Taste ”U” bewegen. -
5 zeigt ein anderes Beispiel eines Computerschnittstellensystems100 gemäß der vorliegenden Offenbarung. Das Computerschnittstellensystem100 umfasst eine erste Kamera102 , eine zweite Kamera104 , eine erste Infrarot-Lichtquelle106 und eine zweite Infrarot-Lichtquelle108 , die jeweils oberhalb einer vertikalen Anzeigefläche110 befestigt sind. Die vertikale Anzeigefläche110 kann z. B. eine Projektionswand sein. Die erste Kamera102 und die zweite Kamera104 können jeweils einen IR-Filter aufweisen, so dass die entsprechende Kamera nur Infrarot-Licht zu empfangen in der Lage ist. Die erste Infrarot-Lichtquelle106 und die zweite Infrarot-Lichtquelle108 beleuchten jeweils eine Gestenerkennungsumgebung112 , die als ein dreidimensionaler physikalischer Raum im Vordergrund der vertikalen Anzeigefläche110 , die für die ersten und zweiten Kameras102 und104 sichtbar sind, definiert ist. - Das Beispiel nach
5 ist das Eingabeobjekt114 als die Hand eines Benutzers dargestellt, und zwar derart, dass die simulierten Eingaben durch Gesten mit der Hand erzeugt werden können. Es versteht sich, dass die Benutzung einer Hand zur Erzeugung simulierter Eingaben über Handgesten nur ein Beispiel der Verwirklichung eines Computerschnittstellensystems100 ist. Beispiele anderer Arten von Eingabeobjekten können einen Schreibstift, einen Stab, einen Zeigestock oder eines einer Vielzahl anderer Geräte umfassen, die zur Erzeugung von Gesten für simulierte Eingaben verwendet werden können. Es versteht sich ferner, dass das Eingabeobjekt114 nicht speziell gestaltet oder für das Computerschnittstellensystem100 geeignet sein muss. Die nackte Hand eines Benutzers kann z. B. als Eingabeobjekt114 verwendet werden und folglich muss ein Benutzer keinen Handschuh tragen, der einen reflektierenden Stoff oder einen oder mehrere Lagesensoren zur Erzeugung von Gesteneingaben an das Computerschnittstellensystem100 gemäß einem Aspekt der Erfindung aufweist. - Bei dem Ausführungsbeispiel nach
5 empfangen die erste Kamera102 und die zweite Kamera104 jeweils getrennte Bilder des Eingabeobjekts114 , wobei jedes der durch die erste Kamera102 und die zweite Kamera104 empfangenen einzelnen Bilder einen zusammengehörigen Satz (d. h. ein passendes Paar) bilden. Beide Kameras, die erste Kamera102 und die zweite Kamera104 , können zum Beispiel schnell fotografische Standbilder mit, zum Beispiel, sechzig Aufnahmen pro Sekunde aufnehmen, so dass jedes fotografische Standbild, das von der ersten Kamera102 aufgenommen wird, passend zu einem fotografischen Standbild ist, das zu praktisch der gleichen Zeit von der zweiten Kamera104 aufgenommen wurde. Das Eingabeobjekt114 kann an verschiedenen Orten in jedem Bild des zusammengehörigen Satzes erscheinen, das von der ersten Kamera102 und der zweiten Kamera104 jeweils aufgenommen wurde, und zwar aufgrund einer Parallaxenverschiebung, die durch die unterschiedlichen Befestigungsorte der beiden Kameras, der ersten Kamera102 und der zweiten Kamera104 , verursacht ist. Daher sind die erste und die zweite Kamera102 und104 als eine Stereokamerabaugruppe zur Ortsbestimmung des Eingabeobjekts114 ausgebildet. Bei dem Ausführungsbeispiel nach5 können die erste und die zweite Kamera102 und104 jeweils unter einem Winkel auf den Mittelpunkt der vertikalen Anzeigefläche110 ausgerichtet sein, derart, dass eine genauere Orts. bzw. Lagebestimmung des Eingabeobjekts114 erfolgen kann. - Die jeweils von der ersten und der zweiten Kamera
102 und104 aufgenommenen Bilder können auf dem Infrarotlicht beruhen, das von dem Eingabeobjekt relativ zu praktisch nicht-reflektiertem Licht in der Gestenerkennungsumgebung112 reflektiert wird. Ein Objekt wird vor allem mit einer relativen Helligkeitsintensität von 1/D2 beleuchtet, worin D der Abstand von der Lichtquelle ist. Auf diese Weise erscheint ein Objekt, das zweimal so weit entfernt ist, viermal dunkler. Obwohl etwas von dem Infrarotlicht, das von der ersten und der zweiten Infrarot-Lichtquelle106 und108 vom Boden118 unterhalb der vertikalen Anzeigefläche110 reflektiert wird, kann die Intensität des reflektierten Lichtes signifikant geringer als das von dem Eingabeobjekt114 reflektierte Licht sein. - Die erste Kamera
102 und die zweite Kamera104 können ihre einander entsprechenden, getrennten Bilder von dem Eingabeobjekt114 an einen Kontroller bzw. eine Steuervorrichtung116 weiterleiten. Der Kontroller116 kann zum Beispiel in einem nicht dargestellten Computer vorgesehen sein, für den der Computerschnittstellensystem100 ausgelegt ist, um eine Schnittstelle für eine Gestenerkennung zu bilden. Es versteht sich jedoch, dass das Unterbringen eines Kontrollers nicht auf einen alleinstehenden Computer beschränkt ist, sondern dass er in eingebetteten Prozessoren enthalten sein kann. Der Kontroller116 kann die zu dem Eingabeobjekt114 gehörenden Bilder zur Erzeugung von dreidimensionalen, zum Eingabeobjekt114 gehörigen Ortsdaten verarbeiten. Der Kontroller116 kann somit eine Funktionalität haben, die praktisch gleich mit der des Eingabesystems16 , des Grafikkontrollers22 und/oder des Prozessors32 im Ausführungsbeispiel nach1 ist. - Es können zum Beispiel beide Kameras, die erste Kamera
102 und die zweite Kamera104 , jeweils unter einem vorbestimmten Winkel gegenüber dem Boden118 unterhalb der vertikalen Anzeigefläche110 montiert sein. Für ein gegebenes zusammengehöriges Paar von Bildern des Eingabeobjekts114 , wenn die vorgegebenen Winkel der beiden Kameras102 und104 gleich sind, hat jeder Punkt des Eingabeobjekts114 im zweidimensionalen Raum in einem gegebenen Bild von der Kamera102 den gleichen Abstand von einem korrespondierenden Punkt des Eingabeobjekts114 in dem entsprechenden zugehörigen Bild der Kamera104 . Als solches kann der Kontroller114 dreidimensional den physikalischen Ort des Eingabeobjekts114 aufgrund der relativen Parallaxenverschiebung des zusammengehörigen Satzes von Bildern des Eingabeobjekts114 zu einer gegebenen Zeit bestimmen. Hinzukommt, dass der Kontroller116 bei Verwendung eines Computeralgorithmusses dreidimensional physikalische Orte von Merkmalen, die zu Teilen des Eingabeobjekts114 gehören, wie zum Beispiel Finger oder Fingerspitzen, bestimmen kann. - Das Computerschnittstellensystem
100 kann ferner einen Projektor120 enthalten. Der Projektor120 kann visuellen Inhalt erzeugen, mit welchem der Benutzer wechselseitiges Zusammenwirken und Eingaben erzeugen kann. In dem Ausführungsbeispiel nach5 kann der Projektor120 visuellen Inhalt auf die vertikale Anzeigefläche110 projizieren. Da die IR-Lichtquellen106 und108 nicht mit sichtbarem Licht beleuchten, wird die IR Beleuchtung nicht mit dem vom Projektor120 projizierten visuellen Inhalt kollidieren. Der Benutzer wird folglich das Eingabeobjekt114 in dem Gestenerkennungsumfeld112 zum Simulieren von Eingaben in interaktiver Weise mit dem visuellen Inhalt einsetzen können. Weil der Kontroller116 zur Bestimmung des dreidimensionalen physikalischen Orts des Eingabeobjekts114 ausgelegt ist, kommt hinzu, dass der Kontroller114 den visuellen Inhalt abändern kann, der auf die vertikale Anzeigefläche110 projiziert wird, derart, dass ein Teil des visuellen Inhalts vergrößert wird, wenn das Eingabeobjekt114 unterhalb des Grenzabstandes, der in den Kontroller116 einprogrammiert ist, bewegt wird. Als Ergebnis hiervon kann das Eingabeobjekt114 mit dem vergrößerten Teil des visuellen Inhalts zusammenwirken und Geräteeingaben durch Berührung der vertikalen Anzeigefläche110 erzeugen, und zwar aufgrund dessen, dass der Kontroller116 den Ort des Eingabeobjekts114 im dreidimensionalen Raum als in Berührung mit der vertikalen Anzeigeflächen111 identifiziert. - Dass das Computerschnittstellensystem
100 in dem Ausführungsbeispiel nach5 nur ein Ausführungsbeispiel für einen Computerschnittstellensystem darstellen soll, versteht sich. Das Computerschnittstellensystem100 kann zum Beispiel mehr als zwei Kameras aufweisen, an vielen Orten oberhalb und/oder unterhalb der vertikalen Anzeigefläche110 , so dass jede Kamera entsprechende Bilder des Eingabeobjekts114 an den Kontrolle116 liefert. Als Beispiel kann ein Dreiwegestereo-(d. h. mit drei Okularen)Kamerasystem eingesetzt werden oder es können mehrere Kameras zur Erhöhung der visuellen Abdeckung einer großen vertikalen Anzeigefläche110 oder in Situationen, in denen der Freiraum oberhalb der vertikalen Anzeigefläche110 unzureichend ist, eingesetzt werden. In einem anderen Beispiel kann der Kontroller116 zum Einstellen von mehr als einem vorbestimmten Grenzwert ausgebildet sein, so dass ein Teil des visuellen Inhalts um einen ersten Betrag bei einem ersten Grenzabstand vergrößert wird und um einen zweiten Betrag an einem zweiten Grenzabstand vergrößert wird, der näher an der vertikalen Anzeigefläche110 liegt. Ferner könnte in einem weiteren Beispiel der Projektor120 visuellen Inhalt von hinten auf die vertikale Anzeigefläche110 projizieren oder könnte die vertikale Anzeigefläche110 eine Flüssigkristallanzeige (LCD) oder ein Plasmamonitor anstelle eines Projektionsbildschirms sein. Nach einem weiteren Beispiel könnten die IR Lichtquellen106 und108 nicht im IR Spektrum beleuchten, sondern könnten stattdessen in einem anderen bzw. unterschiedlichen Spektrum beleuchten, wie zum Beispiel in schmalen Frequenzbändern des sichtbaren Lichts, wobei jede der entsprechenden Kameras102 und104 einen entsprechenden Spektralfilter hat. Folglich kann das Computerschnittstellensystem100 auf verschiedene Weise ausgestaltet sein. -
6 zeigt ein Beispiel einer Benutzerschnittstelle130 . Die Benutzerschnittstelle130 umfasst ein Eingabesystem132 , das im wesentlichen wie das Eingabesystem60 nach dem Ausführungsbeispiel nach1 ausgebildet ist. Das Eingabesystem132 enthält vor allem einen Abstandsdetektor134 und einen Eingabedetektor136 . Die Benutzerschnittstelle130 weist ferner einen berührungsempfindlichen Bildschirm138 auf, wie er zum Beispiel von6 in einer Seitenansicht dargestellt ist. Der berührungsempfindliche Bildschirm138 kann somit einem Anzeigegerät entsprechen, wie z. B. dem Anzeigegerät14 nach dem Ausführungsbeispiel der1 . - Die Benutzerschnittstelle
130 kann auch ein Strahlunterbrechungssystem aufweisen, das einen Sender140 und einen Empfänger142 hat. Bei dem Beispiel nach6 ist der Sender140 am oberen Ende des berührungsempfindlichen Bildschirms138 dargestellt und ist der Empfänger132 am unteren Ende des berührungsempfindlichen Bildschirms138 gezeigt. Es versteht sich jedoch, dass der Sender140 auch an einer Seite des berührungsempfindlichen Bildschirms138 vorgesehen sein kann und dass der Empfänger142 auch an einer anderen Seite des berührungsempfindlichen Bildschirms138 , gegenüber dem Sender114 , angeordnet sein kann. Der Sender140 ist zur Ausstrahlung von Lichtstrahlen144 , wie zum Beispiel Infrarotlicht (IR), ausgelegt sein. Die Lichtstrahlen144 können über die Vorderseite des berührungsempfindlichen Bildschirms138 in sowohl der X- als auch der Y-Richtung, wie sie vom Benutzer vor dem berührungsempfindlichen Bildschirm138 wahrgenommen wird, ausgestrahlt werden. Der Empfänger142 ist folglich so ausgelegt, dass er die Lichtstrahlen144 empfängt. Somit kann ein dazwischen eingebrachtes Objekt die Lichtstrahlen144 unterbrechen und dadurch verhindern, dass sie zum Empfänger142 gelangen. Wenn der Empfänger keinen Teil der Lichtstrahlen144 empfängt, kann der Empfänger142 folglich in X- und Y-Richtung den Ort des Objekts relativ zur Oberfläche des berührungsempfindlichen Bildschirms138 identifizieren. - Ein Eingabeobjekt
146 , dargestellt als der Finger eines Benutzers, wird auf den berührungsempfindlichen Bildschirm138 bei dem Ausführungsbeispiel nach6 zu bewegt. Bevor der Finger146 den berührungsempfindlichen Bildschirm138 berührt, um eine Geräteeingabe über den Eingabedetektor136 zu erzeugen, unterbricht der Finger146 die Lichtstrahlen144 an einer bestimmten Stelle in X-/Y-Richtung vor dem berührungsempfindlichen Bildschirm138 . Als Ergebnis hiervor liefert der Empfänger132 Ortsinformationen an den Abstandsdetektor134 . Folglich kann der Abstandsdetektor134 so ausgelegt sein, dass er Ortsinformationen an einen nicht dargestellten Grafikkontroller liefert, wie den Grafikkontroller22 in dem Ausführungsbeispiel nach1 . Somit kann der Grafikkontroller den auf dem berührungsempfindlichen Bildschirm138 dargestellten visuellen Inhalt etwa an einer Stelle unterhalb des Fingers146 aufgrund der vom Empfänger142 ermittelten Ortsinformation vergrößern. Der Benutzer kann somit eine Geräteeingabe durch wechselseitiges Zusammenwirken mit dem vergrößerten Ausschnitt des visuellen Inhalts auslösen, wie zum Beispiel durch Berühren des berührungsempfindlichen Bildschirms138 in einem vergrößerten Ausschnitt des visuellen Inhalts. - Es soll verstanden werden, dass die Benutzerschnittstelle
130 nicht auf das Ausführungsbeispiel nach6 beschränkt ist. Beispielhaft ist der Sender140 in dem Ausführungsbeispiel nach6 als zwei Schichten von Lichtstrahlen144 aussendend gezeigt. Der Empfänger142 kann somit zur Überwachung beider Schichten der Lichtstrahlen144 ausgebildet sein. Aufgrund dessen kann der zugehörige Grafikkontroller22 so ausgelegt werden, dass er den visuellen Inhalt um einen ersten Betrag aufgrund der Unterbrechung der ersten Schicht der Lichtstrahlen144 vergrößert und diesen um einen zweiten Betrag aufgrund der Unterbrechung der zweiten Schicht der Lichtstrahlen144 vergrößert. Hinzukommt, dass zu verstehen ist, dass der Sender140 und der Empfänger142 nicht auf das im Beispiel nach6 gezeigte Strahlunterbrechungssysteme beschränkt sind. Der Sender140 kann zum Beispiel zur Erzeugung eines oder mehrerer Strahlen, die am Umfang des berührungsempfindlichen Bildschirms138 gespiegelt werden und/oder die sich über die Oberfläche des berührungsempfindlichen Bildschirms138 bewegen, ausgelegt sein. Folglich kann die Benutzerschnittstelle130 auf verschiedene Weisen ausgebildet sein. -
7 zeigt ein anderes Beispiel einer Benutzerschnittstelle160 . Die Benutzerschnittstelle160 kann in einem Computersystem oder einem tragbaren elektronischen Gerät, wie beispielsweise einem Handy und/oder einem PDA vorgesehen sein. Die Benutzerschnittstelle160 weist ein Anzeigegerät162 auf, über das ein Benutzer Eingabedaten eingeben oder von dem der Benutzer Ausgabedaten empfangen kann. Als ein Beispiel kann ein Anzeigegerät162 zur Anzeige von visuellem Inhalt und zum Empfang von Berührungseingaben von einem Eingabeobjekt164 ausgestaltet sein, das seinerseits zum Beispiel als Schreibstift, Stab oder Handschuh ausgebildet ist. Die Benutzerschnittstelle160 kann auch ein Eingabesystem166 aufweisen. Ähnlich wie es oben anhand des Beispiels nach1 beschrieben ist, weist das Eingabesystem166 einen Abstandsdetektor168 und einen Eingabedetektor170 auf. Der Eingabedetektor170 kann zum Empfangen von Geräteeingaben aufgrund einer Wechselwirkung des Eingabeobjekts164 mit dem Anzeigegerät162 , wie Berühren von Teilen des visuellen Inhalts mit dem Eingabeobjekt164 , ausgebildet sein. - Bei dem Ausführungsbeispiel nach
7 weist das Eingabeobjekt164 einen Sender172 und der Abstandsdetektor168 einen Empfänger174 auf. Der Sender172 ist somit zum übertragen eines Signals, das von dem Empfänger174 erkannt wird, ausgebildet. Als ein Beispiel kann der Sender172 ein Funksignal, ein optisches Signal, ein akustisches Signal oder ein elektromagnetisches Signal erzeugen. Daher kann der Abstandsdetektor168 zum Bestimmen eines Ortes des Eingabeobjekts164 gegenüber dem Anzeigegerät162 ausgebildet sein und zum Festlegen eines Grenzabstandes aufgrund der Eigenschaften des Signals, das von dem Sender172 ausgestrahlt wird, geeignet sein. Folglich kann ein zugehöriger nicht dargestellter Grafikkontroller den visuellen Inhalt auf dem Anzeigegerät162 an dem bestimmten Ort aufgrund eines Erkennens durch den Abstandsdetektor168 , dass das Eingabeobjekt innerhalb des Grenzabstandes bewegt worden ist, infolge des von dem Sender172 an den Empfänger174 übermittelten Signals vergrößern. - Es ist zu verstehen, dass die Benutzerschnittstelle
160 nicht auf das Ausführungsbeispiel nach7 beschränkt ist. Die Benutzerschnittstelle160 ist zum Beispiel in7 vereinfacht beispielhaft dargestellt, weshalb verschiedene zusätzliche Komponenten in der Benutzerschnittstelle160 vorgesehen sein können. Die Benutzerschnittstelle160 kann zusätzlich nur einen Teil eines vollständigen Computerschnittstellensystems wiedergeben, derart, dass die Benutzerschnittstelle160 eingeschlossen ist in oder verknüpft ist mit einer zusätzlichen Computerarchitektur. Fernerhin ist zu verstehen, dass das Eingabesystem166 nicht auf Eingaben begrenzt ist, die von dem Eingabeobjekt164 erzeugt werden. Das Eingabesystem166 kann zum Beispiel eine Tastatur, eine Maus oder irgendein weiteres Eingabegerät zusätzlich zu denen, die sich direkt auf das Anzeigegerät164 beziehen, aufweisen. Die Benutzerschnittstelle160 kann folglich in einer von vielen Arten ausgestaltet sein. - Die
8 und9 zeigen jeweils ein Ausführungsbeispiel eines Schaubilds200 , das die Überlagerung und Bewegung eines vergrößerten visuellen Inhalts202 auf den visuellen Inhalt204 gemäß einem Aspekt der vorliegenden Offenbarung darstellt. Insbesondere8 zeigt die Überlagerung eines Ausschnitts206 des skalierten visuellen Inhalts202 auf den visuellen Inhalt204 und9 stellt die Bewegung eines überlagerten Ausschnitts206 des skalierten visuellen Inhalts202 auf den visuellen Inhalt204 dar. In den Ausführungsbeispielen nach den8 und9 sind der visuelle Inhalt204 und der skalierte visuelle Inhalt202 jeweils als ebene Flächen dargestellt. Es versteht sich jedoch, dass der visuelle Inhalt204 so gezeigt ist, um das Erscheinungsbild auf einem zugehörigen, nicht dargestellten Anzeigegerät zu simulieren. Als solches ist ein Eingabeobjekt208 , das in den Beispielen der8 und9 als der Finger eines Benutzers gezeigt ist, als mit dem visuellen Inhalt204 wechselweise zusammenwirkend so dargestellt, als wäre es auf einem zugehörigen Anzeigegerät wiedergegeben. - Bei dem Beispiel nach
8 ist der vergrößerte visuelle Inhalt202 mit der dreifachen Größe des visuellen Inhalts204 wiedergegeben. Daher hat der skalierte visuelle Inhalt202 einen Skalierungsfaktor von 3 gegenüber dem visuellen Inhalt204 . Das Beispiel nach8 zeigt das Eingabeobjekt208 als sich unterhalb es Grenzabstands des visuellen Inhalts204 bewegend, wie es auf einem zugehörigen, nicht dargestellten Anzeigegerät dargestellt wird. Daher vergrößert ein nicht dargestellter Grafikkontroller einen Teil des visuellen Inhalts durch Überlagern des Ausschnitts206 des skalierten visuellen Inhalts202 auf den visuellen Inhalt204 . Der Ausschnitt206 ist hier ein im wesentlichen kreisrunder Ausschnitt des skalierten visuellen Inhalts202 , der über den visuellen Inhalt204 überlagert ist, so dass der Ausschnitt206 etwa gleich der Größe ist, die in dem Ausführungsbeispiel nach8 mit dem Durchmesser ”X” dargestellt ist, und zwar sowohl in dem visuellen Inhalt204 als auch in dem skalierten visuellen Inhalt202 . Daher ist der Ausschnitt206 etwa identisch mit sowohl dem visuellen Inhalt204 als auch dem skalierten visuellen Inhalt202 . - Der Ausschnitt
206 kann auf dem visuellen Inhalt240 so erscheinen, dass die umgebenden Teile des visuellen Inhalts204 entweder abgedeckt oder verzerrt sind, so wie es oben für das Beispiel nach den2 bis4 beschrieben ist. Der Ort des Ausschnitts206 auf dem visuellen Inhalt204 kann mit einem etwa gleichen, skalierten Ort von dem skalierten visuellen Inhalt202 korrespondieren. Mit anderen Worten, der Ausschnitt206 kann ein Ausschnitt aus dem vergrößerten visuellen Inhalt202 sein, der mit dem skalierten Ort auf dem visuellen Inhalt204 korrespondiert, was somit in einer Vergrößerung von praktisch dem gleichen visuellen Inhalt, der vom Benutzer wahrgenommen wird, resultiert. - Bei dem Beispiel nach
9 wird das Eingabeobjekt208 über den visuellen Inhalt204 (d. h. über der Oberfläche des Anzeigegeräts) um eine Strecke ”Y” bewegt. Folglich kann der zugehörige Grafikkontroller die Überlagerung des Ausschnitts206 des skalierten visuellen Inhalts202 auf den visuellen Inhalt204 während der ganzen Bewegung des Eingabeobjekts208 unterhalb des Grenzabstandes beibehalten. Die Bewegung des Ausschnitts206 über den skalierten visuellen Inhalt202 kann jedoch ebenso um den gleichen Skalierungsfaktor vergrößert werden. In dem Ausführungsbeispiel nach9 ist daher der Ausschnitt206 als über den skalierten visuellen Inhalt202 um die Strecke ”3Y” bewegt dargestellt, und damit dreimal so groß wie sich die Strecke des Ausschnitts206 über den visuellen Inhalt204 bewegt. Der Skalierungsfaktor der Bewegung ist somit etwa gleich dem Skalierungsfaktor des skalierten visuellen Inhalts202 gegenüber dem visuellen Inhalt204 . Aufgrund dessen bleibt der skalierte visuelle Inhalt202 vergrößert und gegenüber dem visuellen Inhalt204 während der Überlagerung des Ausschnittes206 des skalierten visuellen Inhalts202 auf den visuellen Inhalt204 zentriert. Mit anderen Worten, wenn der Benutzer das Eingabeobjekt208 unterhalb des Grenzabstandes bewegt, kann der Benutzer jeden Teil des visuellen Inhalts204 durch Bewegen des Eingabeobjekts208 über den visuellen Inhalt204 vergrößern, sofern er über die ganze Bewegung unterhalb des Grenzabstandes verbleibt. - Das Beispiel nach den
8 und9 zeigt daher ein Beispiel der Bewegung des skalierten visuellen Inhalts202 gegenüber dem visuellen Inhalt204 nach Überlagerung des Ausschnitts206 des skalierten visuellen Inhalts202 auf den visuellen Inhalt204 . Insbesondere zeigt das Beispiel nach den8 und9 wie die Gesamtheit des vergrößerten visuellen Inhalts202 durch Bewegen des Eingabeobjekts208 über den visuellen Inhalt204 durch den Benutzer abschnittsweise betrachtet werden kann. Da die Bewegung des Ausschnitts206 um den gleichen Skalierungsfaktor vergrößert ist wie der skalierte visuelle Inhalts202 gegenüber dem visuellen Inhalt204 , kann es für den Benutzer schwierig sein, sich zu speziellen Orten auf dem visuellen Inhalt204 zum Zusammenwirken mit jenen speziellen Orten zu bewegen, da der überlagerte Ausschnitt206 selbst auf eine kleine Bewegungen des Eingabeobjekts208 hin schnell aktualisiert wird. - Die
10 und11 stellen jeweils ein anderes Beispiel einer Ansicht220 dar, die die Überlagerung und die Bewegung des skalierten visuellen Inhalts222 auf den visuellen Inhalt224 gemäß einem Aspekt der vorliegenden Offenbarung zeigt. Insbesondere10 stellt die Überlagerung eines Ausschnitts226 des skalierten visuellen Inhalts222 auf den visuellen Inhalt224 dar und11 stellt die Bewegung des überlagerten Ausschnitts226 des skalierten visuellen Inhalts222 über den visuellen Inhalt224 dar. In dem Beispiel nach den10 und11 ist der visuelle Inhalt224 und der skalierte visuelle Inhalt222 jeweils als ebene Flächen gezeigt. Ähnlich wie es für das Beispiel nach den8 und9 beschrieben ist, versteht es sich daher, dass der visuelle Inhalt224 so gezeigt ist, dass er das Erscheinungsbild auf einem zugehörigen, nicht dargestellten Anzeigegerät simuliert, und dass ein Eingabeobjekt228 , das als der Finger eines Benutzers in dem Beispiel nach den10 und11 dargestellt ist, als mit dem visuellen Inhalt224 wechselseitig zusammenwirkend gezeigt ist, als wenn er auf einem zugehörigen Anzeigegerät wiedergegeben wäre. - Das Beispiel nach
10 stellt das Eingabeobjekt228 solange es sich unterhalb des Grenzabstandes des visuellen Inhalts224 bewegt dar, während es auf einem zugehörigen Anzeigegerät wiedergegeben wird. Ein zugehöriger, nicht dargestellter Grafikkontroller vergrößert deshalb einen Teil des visuellen Inhalts durch Überlagerung des Ausschnitts226 des skalierten visuellen Inhalts222 auf den visuellen Inhalt224 . Der Ausschnitt226 ist hier im Wesentlichen ein kreisförmiger Ausschnitt des skalierten visuellen Inhalts222 , der dem visuellen Inhalt224 überlagert ist, so dass der Ausschnitt226 etwa von gleicher Größe ist, wie er bei dem Beispiel nach7 mit einem Durchmesser ”X” sowohl für den visuellen Inhalt224 als auch für den skalierten visuellen Inhalt222 dargestellt ist. Daher ist der Ausschnitt226 etwa identisch mit sowohl dem visuellen Inhalt224 als auch dem skalierten visuellen Inhalt222 . Der Ausschnitt226 ist auf den visuellen Inhalt224 an einem Bezugspunkt227 überlagert, was mit weiteren Einzelheiten an späterer Stelle beschrieben wird, und ist fixiert, solange sich das Eingabeobjekt228 unterhalb des Grenzabstandes des visuellen Inhalts224 befindet. - Der Ausschnitt
226 kann als visueller Inhalt224 so erscheinen, dass umgebende Teile des visuellen Inhalts224 entweder abgedeckt oder verzerrt sind, so wie es zuvor für das Beispiele nach den2 bis4 beschrieben wurde. Ebenso wie es weiter oben für das Beispiel nach den8 und9 beschrieben ist, kann der Ort des Ausschnitts226 des visuellen Inhalts224 mit einem etwa gleichen, skalierten Ort des skalierten visuellen Inhalts222 korrespondieren. Mit anderen Worten, der Ausschnitt226 kann ein Ausschnitt des vergrößerten visuellen Inhalts222 sein, der dem skalierten Ort auf dem visuellen Inhalt224 entspricht, und somit in einer Vergrößerung des im wesentlichen gleichen visuellen Inhalts, wie er vom Benutzer wahrgenommen wird, resultiert. - Bei dem Beispiel nach
11 wird das Eingabeobjekt228 über dem visuellen Inhalt224 bewegt (d. h. über der Oberfläche des Anzeigegeräts) um eine Strecke ”Y” vom Bezugspunkt227 aus. Daher kann der zugehörige Grafikkontroller während der Bewegung des Eingabeobjekts228 unterhalb des Grenzabstandes die Überlagerung des Ausschnitts226 des skalierten visuellen Inhalts222 auf den visuellen Inhalt224 beibehalten. Die Bewegung des Ausschnitts226 über den skalierten visuellen Inhalt222 kann jedoch über die gleiche Strecke erfolgen wie die Bewegung des Ausschnitts226 über den skalierten visuellen Inhalt224 gegenüber dem Bezugspunkt227 . Mit anderen Worten, bei dem Beispiel nach11 wird die Bewegung des Ausschnitts226 über den skalierten visuellen Inhalt222 nicht skaliert. Bei dem Beispiel nach11 ist folglich der Ausschnitt226 als über den skalierten visuellen Inhalt222 um die Strecke ”Y” bewegt dargestellt und ist somit gleich der Strecke, die sich der Ausschnitt226 über den visuellen Inhalt224 bewegt. - Während der Benutzer das Eingabeobjekt
228 unterhalb des Grenzabstands des Anzeigegeräts bewegt, kann der Grafikkontroller den Ort des visuellen Inhalts224 an dem Bezugspunkt227 fixieren, an dem der Ausschnitt226 gegenüber dem skalierten visuellen Inhalt222 überlagert ist. Solange das Eingabeobjekt228 unterhalb des Grenzabstands verbleibt, kann folglich nur ein Ausschnitt230 des skalierten visuellen Inhalts222 durch den Benutzer auf die Bewegung des Eingabeobjekts228 über den visuellen Inhalt224 hin betrachtet werden, weil der skalierten visuelle Inhalt222 sich nicht gegenüber dem visuellen Inhalt224 bewegt. Die übrigen Teile232 des skalierten visuellen Inhalts222 sind daher für den Benutzer unzugänglich, es sei denn, der Benutzer bewegt das Eingabeobjekt228 aus dem Grenzabstand heraus zu einem anderen Ort, an dem der Benutzer das Eingabeobjekt228 für den visuellen Inhalts224 wieder unterhalb den Grenzabstand bewegen könnte. Somit kann ein anderer Ausschnitt des visuellen Inhalts vergrößert werden und kann ein entsprechender anderer Ausschnitt230 des skalierten visuellen Inhalts222 zugänglich werden. - Das Beispiel nach den
10 und11 stellt daher ein anderes Beispiel der Bewegung des skalierten visuellen Inhalts222 gegenüber dem visuellen Inhalt224 nach Überlagerung des Ausschnitts226 des skalierten visuellen Inhalts222 auf den visuellen Inhalt224 dar. Das Beispiel nach den11 und12 stellt insbesondere dar, dass nur ein begrenzter Ausschnitt des skalierten visuellen Inhalts222 durch den Benutzer aufgrund des Bewegens des Eingabeobjekts228 über dem visuellen Inhalt224 betrachtet werden kann. Da die Bewegung des Ausschnitts226 nicht skaliert wird, kann es für einen Benutzer leichter sein, sich zu einem speziellen Ort auf dem visuellen Inhalt224 für ein Zusammenwirken mit jenen speziellen Orten hin zu bewegen, weil der überlagerte Ausschnitt226 bei einer geringen Bewegung des Eingabeobjekts228 nicht schnell aktualisiert wird, anders, als dies oben am Ausführungsbeispiel nach den8 und9 beschrieben wurde. -
12 stellt ein anderes Beispiel eines Schaubilds240 dar, das die Überlagerung und Bewegung des skalierten visuellen Inhalts242 auf den visuellen Inhalt244 gemäß einem Aspekt der vorliegenden Offenbarung zeigt. Bei dem Beispiel nach12 wird ein Eingabeobjekt246 unterhalb eines Grenzabstandes des Anzeigegeräts bewegt. Als Ergebnis hiervon überlagert der nicht dargestellte Grafikkontroller, ähnlich wie dies zuvor anhand des Beispiels nach den10 und11 beschrieben wurde, einen Ausschnitt248 des skalierten visuellen Inhalts242 auf den visuellen Inhalt244 an einen fixierten Bezugsort. Die Bewegung des Ausschnitts248 des skalierten visuellen Inhalts242 ist etwa gleich auf dem visuellen Inhalt244 und dem skalierten visuellen Inhalt242 , was zu einem zugänglichen Abschnitt250 und einem unzugänglichen Abschnitt252 auf dem skalierten visuellen Inhalt242 führt. - In dem Ausführungsbeispiel nach
12 verbleibt jedoch der überlagerte Ausschnitt248 auf dem visuellen Inhalt244 während sich das Eingabeobjekt246 über den visuellen Inhalt244 bewegt, selbst nachdem das Eingabeobjekt246 sich nicht mehr oberhalb des überlagerten Ausschnitts248 befindet. Mit anderen Worten, der überlagerte Ausschnitt248 kann wachsen, während das Eingabeobjekt246 über den visuellen Inhalt244 bewegt wird. Dies ist in dem Beispiel nach12 mit Hilfe der Pfeile254 angedeutet, die die Bewegung des Eingabeobjekts246 über den visuellen Inhalt244 in dem überlagerten Ausschnitt248 zeigen. Der Ausschnitt248 kann auf den visuellen Inhalt244 überlagert verbleiben, solange der Benutzer das Eingabeobjekt246 unterhalb des Grenzabstandes belässt. Infolgedessen können durch den Benutzer größere Ausschnitte des skalierten visuellen Inhalts252 auf die Bewegung des Eingabeobjekts246 hin betrachtet werden. -
13 stellt ein Beispiel einer Darstellung260 dar, die die Überlagerung von skaliertem visuellem Inhalt262 auf visuellen Inhalt264 gemäß einem Aspekt der vorliegenden Offenbarung zeigt. In dem Ausführungsbeispiel nach13 wird ein Eingabeobjekt246 unterhalb eines Grenzabstands vom Anzeigegerät bewegt. Als Folge hiervon überlagert, ähnlich wie dies oben anhand des Beispiels nach den10 und11 beschrieben wurde, der nicht dargestellte Grafikkontroller einen Ausschnitt268 des skalierten visuellen Inhalts262 auf den visuellen Inhalt264 an einem fixierten Bezugsort. Als Folge hiervon ist die Bewegung des Ausschnitts268 des skalierten visuellen Inhalts262 etwa gleich sowohl über den visuellen Inhalt264 als auch den vergrößerten visuellen Inhalt262 , was zu einem zugänglichen Abschnitt270 und einem unzugänglichen Abschnitt272 des vergrößerten visuellen Inhalts262 führt. - Wie es zuvor anhand des Beispiels nach den
10 und11 beschrieben wurde, kann nur ein begrenzter Bereich des skalierten visuellen Inhalts262 von einem Benutzer durch Bewegung des Eingabeobjekts266 über dem visuellen Inhalt264 betrachtet werden. Folglich kann es für den Benutzer schwierig sein, vergrößerte Bilder an den äußersten Rändern des skalierten visuellen Inhalts262 aufgrund der Vergrößerung des fixierten Punktes relativ zu sowohl dem visuellen Inhalt264 als auch dem skalierten visuellen Inhalt262 zu betrachten. Daher kann der Grafikkontroller ausgestaltet sein, die Orte des visuellen Inhalts264 und des skalierten visuellen Inhalts262 relativ zueinander an ihren äußeren Rändern aufgrund der Bewegung des Eingabeobjekts266 unterhalb des Grenzabstands an einem vorgegebenen Grenzwert jenseits des äußeren Randes zu fixieren. Mit anderen Worten, der Grafikkontroller kann so ausgestaltet sein, dass er einen Rand des vergrößerten visuellen Inhalts262 gegenüber dem Rand des visuellen Inhalts264 ausrichtet und zwar aufgrund dessen, dass das Eingabeobjekt266 innerhalb eines vorbestimmten Grenzabstandes innerhalb einer Grenze zu einem korrespondierenden Rand des Benutzerschnittstellenbildschirms, auf dem der visuelle Inhalt264 angezeigt wird, bewegt wird. Beispielsweise kann die Grenze gegenüber dem Rand angenähert gleich dem Radius des Ausschnitts268 sein. Als solches ist der Ausschnitt268 des skalierten visuellen Inhalts262 am Mittelpunkt überlagert, d. h. eine gleiche Strecke von dem äußersten Rand des visuellen Inhalts264 entfernt, wie sie von dem entsprechenden äußersten Rand des skalierten visuellen Inhalts262 erscheint. - Bei dem Ausführungsbeispiel nach
13 ist der fixierte Bezugsort, an dem der skalierte visuelle Inhalt262 gegenüber dem visuellen Inhalt264 ausgerichtet wird, am entsprechenden äußersten Rand bei dem Pfeil274 dargestellt. Es versteht sich, dass die Skalierung der Überlagerung längs der anderen kartesischen Achse, die nicht gegenüber dem Rand ausgerichtet ist, durch den Grafikkontroller beibehalten wird. Folglich kann der Benutzer den vergrößerten visuellen Inhalt leicht betrachten, der sich an den wesentlichen Rändern des skalierten visuellen Inhalts264 befindet, aufgrund des Annäherns an die Oberfäche des Anzeigegeräts mit dem Eingabeobjekt266 an einem Ort, der dem auf dem visuellen Inhalt264 zu vergrößernden Inhalt etwa nahe ist. -
14 zeigt ein Beispiel eines Bilds280 , das die Bewegung des skalierten visuellen Inhalts282 gegenüber dem visuellen Inhalt284 gemäß einem Aspekt der vorliegenden Offenbarung darstellt. Bei dem Beispiel nach14 wird ein Eingabeobjekt286 unterhalb der Abstandsgrenze des Anzeigegeräts bewegt. Aufgrund dessen überlagert der nicht dargestellte Grafikkontroller, wie dies oben für das Beispiel nach den10 und11 beschrieben ist, einen Ausschnitt288 des skalierten visuellen Inhalts282 auf den visuellen Inhalt284 an einem Bezugsort. Somit erfolgt die Bewegung des Ausschnitts288 des visuellen Inhalts282 etwa gleich sowohl über den visuellen Inhalt284 als auch den skalierten visuellen Inhalt282 , was zu einem zugänglichen Abschnitt290 und einem unzugänglichen Abschnitt292 des skalierten visuellen Inhalts282 führt. Wie mit weiteren Einzelheiten an späterer Stelle beschrieben wird, ist bei dem Beispiel nach14 der Bezugsort nicht fixiert. - Wie oben in dem Beispiel nach den
10 und11 beschrieben, können nur begrenzte Ausschnitte des skalierten visuellen Inhalts282 durch einen Benutzer mittels Bewegung des Eingabeobjekts286 über den visuellen Inhalt284 betrachtet werden. Folglich kann es für den Benutzer schwer sein, vergrößerte Bilder an den äußeren Rändern des skalierten visuellen Inhalts282 aufgrund der Skalierung des Festpunktes gegenüber jedem visuellen Inhalt284 und dem skalierten visuellen Inhalt282 zu betrachten. Hinzukommt, dass ein Benutzer u. U. in der Lage sein möchte, den unzugänglichen Abschnitt292 zu betrachten, ohne dass er das Eingabeobjekt284 zurückbewegen muss und an einem anderen Ort oberhalb des auf dem Anzeigegerät wiedergegebenen visuellen Inhalts284 , neu zu positionieren. - Bei dem Ausführungsbeispiel nach
14 kann der Grafikkontroller so ausgebildet sein, dass er nach der Festlegung eines Bezugsorts zwischen dem visuellen Inhalt284 und dem skalierten visuellen Inhalt282 den skalierten visuellen Inhalt282 gegenüber dem visuellen Inhalt284 bewegt. Wenn der Benutzer das Eingabeobjekt286 unterhalb des Grenzabstandes innerhalb der Grenze eines Randes des visuellen Inhalts284 bewegt, kann der Grafikkontroller den skalierten visuellen Inhalt282 in der Richtung entgegengesetzt zum Rand des visuellen Inhalts284 bewegen. Wie für das Beispiel nach14 dargestellt, wird der skalierte visuelle Inhalt282 , wenn das Eingabeobjekt286 innerhalb eines Grenzwerts von einem Rande294 des visuellen Inhalts284 bewegt wird, in der zum Rand294 entgegengesetzten Richtung bewegt, wie dies durch den Richtungspfeil296 angedeutet ist. Bei dem Beispiel nach14 ist der skalierte visuelle Inhalt282 um die Strecke ”X” gegenüber dem visuellen Inhalt284 bewegt worden. Ein Ausschnitt298 des skalierten visuellen Inhalts282 war Teil des zugänglichen Abschnitts290 vor der Bewegung des skalierten visuellen Inhalts282 und ist nun als Teil des nicht zugänglichen Abschnitts292 dargestellt. In gleicher Weise war ein Ausschnitt300 des skalierten visuellen Inhalts282 Teil des nicht zugänglichen Abschnitts292 vor der Bewegung des skalierten visuellen Inhalts282 und ist nun als Teil des zugänglichen Abschnitts290 dargestellt. Der skalierten visuelle Inhalt282 kann in der Richtung296 weiterbewegt werden, bis der Benutzer das Eingabeobjekt286 aus der Grenze vom Rand294 wegbewegt oder weiter als den Grenzabstand von der Oberfläche des Anzeigegeräts wegbewegt, oder bis der Rand294 des visuellen Inhalts284 gegenüber dem korrespondierenden Rand des skalierten visuellen Inhalts282 ausgerichtet ist. - Es versteht sich, dass auch andere Weisen, in denen der skalierten visuelle Inhalt
282 gegenüber dem visuellen Inhalt284 bewegt wird, realisiert werden können. Als ein Beispiel einer andere Eingabe in ein angeschlossenes Computersystem, wie zum Beispiel eine aufgrund einer Geste oder eine Eingabe von Peripheriegerät, kann zur Bewegung des skalierten visuellen Inhalts282 gegenüber dem visuellen Inhalt284 vorgesehen sein. Als ein anderes Beispiel kann ein gegebener Computerschnittstellenbildschirm das Beispiel der11 und12 bezüglich der Überlagerung und/oder Bewegung des skalierten visuellen Inhalts282 relativ zum visuellen Inhalt284 vorgesehen sein. Folglich kann jede von mehreren Ausführungsformen der Überlagerung und/oder Bewegung des skalierten visuellen Inhalts relativ zum visuellen Inhalt verwirklicht werden. - Aufgrund der zuvor beschriebenen strukturellen und funktionellen Merkmale wird die Methodologie gemäß den verschiedenen Aspekten der vorliegenden Erfindung durch Bezugnahme auf
15 noch besser verdeutlicht. Während zum Zwecke der Vereinfachung der Erläuterung die Methodologien als aufeinander folgend und nacheinander auszuführen beschrieben werden, versteht es sich, dass die vorliegende Erfindung nicht auf die dargestellte Reihenfolge beschränkt ist, da einige Aspekte gemäß der vorliegenden Erfindung in anderer Reihenfolge und/oder gleichzeitig mit anderen als den dargestellten und beschriebenen Aspekten auftreten. Darüber hinaus müssen nicht alle dargestellten Merkmale zur Ausführung einer Methodologie bzw. mit einer Methode gemäß einem Aspekt der vorliegenden Erfindung erforderlich sein. -
15 stellt ein Ausführungsbeispiel des Verfahrens350 zum Erzeugen von Eingaben in ein Computersystem dar. Bei352 wird visueller Inhalt auf einem Computerschnittstellenbildschirm wiedergegeben. Der Computerschnittstellenbildschirm kann eine Benutzerschnittstelle, ein Computermonitor, ein Projektionsschirm oder ein Bildschirm eines Handys bzw. Mobiltelefons oder ein PDA sein. Computermonitordaten können den visuellen Inhalt darstellen. Bei354 wird das Vorhandensein eines Eingabeobjekts unterhalb des Grenzabstands des Computerschnittstellenbildschirms längs einer Normalachse des Computerschnittstellenbildschirms (einer Normalen auf dem Bildschirm) erkannt. Das Eingabeobjekt kann der Finger eines Benutzers, ein Schreibstift oder ein Stab sein. Das Eingabeobjekt kann einen Sender aufweisen, der ein Signal aussendet, so dass Signalcharakteristiken für eine Erkennung des Ortes und des Abstands des Eingabeobjekts gegenüber dem Computerschnittstellenbildschirm erkannt werden können. Das Signal kann ein kapazitives Signal, ein akustisches Signal, ein Funksignal, ein optisches Signal oder ein elektromagnetisches Signal sein. Nach einem anderen Beispiel kann der Computerschnittstellenbildschirm ein System zur Laserstrahlunterbrechung aufweisen oder es kann eine Stereokameragruppe vorgesehen sein. - Bei
356 ist ein Teil eines visuellen Inhalts an einem Ort vergrößert, der im wesentlichen auf den Fußpunkt der Normalachse zentriert ist. Die Vergrößerung kann das Ergebnis der Überlagerung von Daten des skalierten visuellen Inhalts über den visuellen Inhalt sein. Die Überlagerung kann derart sein, dass umgebender visueller Inhalt um den überlagerten skalierten visuellen Inhalt abgedeckt oder verzerrt ist. Bei358 wird eine wechselseitige Zusammenwirkung zwischen dem Eingabeobjekt und dem vergrößerten Ausschnitt des visuellen Inhalts erkannt. Das wechselseitige Zusammenwirken bzw. das Zusammenspiel kann eine Berührung des Eingabeobjekts mit dem Computerschnittstellenbildschirm sein oder es könnte eine entsprechende Geste mit dem Eingabeobjekt sein. Bei360 wird eine Geräteeingabe durch ein wechselseitiges Zusammenwirken des Eingabeobjekts mit dem vergrößerten Teil des visuellen Inhalts eingeleitet. Die Geräteeingabe kann eine Computereingabe sein, wie z. B. ein Mausklick.
Claims (14)
- Ein Schnittstellensystem für einen Computer, das umfasst: einen Bildschirm für eine Benutzerschnittstelle, der für das Anzeigen von visuellem Inhalt ausgebildet ist, ein Eingabesystem, das zur Erkennung des Vorhandenseins eines Eingabeobjekts unterhalb eines Grenzabstands auf einer Normalachse des Benutzerschnittstellenbildschirms mit Hilfe entweder einer Stereokamerabaugruppe, eines Laserstrahlunterbrechungssystems, eines kapazitiven Erkennungssystems, eines akustischen Erkennungssystems, eines elektromagnetischen Erkennungssystems oder eines Funkfrequenz-Erkennungssystems ausgebildet ist, wobei das Eingabeobjekt den Bildschirm nicht berührt, eine Anzeige-Engine für den visuellen Inhalt, die zur Vergrößerung des Teils des visuellen Inhalts durch Überlagern eines Ausschnitts einer skalierten Kopie des visuellen Inhalts über den visuellen Inhalt ausgelegt ist, und einen Grafikkontroller, der ausgebildet ist: zur Vergrößerung eines Teils des visuellen Inhalts, der sich in der näheren Umgebung des Fußpunkts der Normalachse auf dem Benutzerschnittstellenbildschirm befindet, eine fixierte Position der skalierten Kopie des visuellen Inhalts relativ zum visuellen Inhalt auf eine Bewegung des Eingabeobjekts unterhalb des Grenzabstandes hin festzulegen, so dass der überlagerte Ausschnitt der skalierten Kopie des visuellen Inhalts entlang der skalierten Kopie des visuellen Inhalts um eine erste Strecke aufgrund einer unterhalb des Grenzabstandes erfolgenden Bewegung des Eingabeobjekts entlang dem Benutzerschnittstellenbildschirm um eine zweite Strecke bewegt wird, wobei die erste Strecke und die zweite Strecke bezüglich der festen Position etwa gleich groß sind, und zusammenhängende Ausschnitte der skalierten Kopie des visuellen Inhalts aufgrund einer unterhalb des Grenzabstandes erfolgenden ununterbrochenen Bewegung des Eingabeobjekts entlang dem Benutzerschnittstellenbildschirm auf den visuellen Inhalt zu überlagern, wobei der überlagerte Ausschnitt auf dem visuellen Inhalt verbleibt, während sich das Eingabeobjekt über den visuellen Inhalt bewegt, selbst nachdem das Eingabeobjekt sich nicht mehr oberhalb des überlagerten Ausschnitts befindet.
- Das System nach Anspruch 1, bei dem das Eingabesystem einen Eingabedetektor aufweist, der zum Empfangen einer Geräteeingabe auf der Grundlage eines wechselseitigen Zusammenwirkens des Eingabeobjekts mit dem vergrößerten Teil des visuellen Inhalts ausgebildet ist.
- Das System nach Anspruch 2, bei dem der Eingabedetektor entweder als dem Benutzerschnittstellenbildschirm zugeordneter berührungsempfindlicher Bildschirm oder als eine Stereokamerabaugruppe ausgebildet ist, die zur Erkennung eines Ortes des Eingabeobjekts aufgrund einer Parallaxenverschiebung des Eingabeobjekts, wie es von jeder der Kameras der Stereokamerabaugruppe aufgenommen wird, ausgebildet ist.
- Das System nach Anspruch 1, bei dem das Eingabeobjekt einen Sender umfasst und bei dem das Eingabesystem mit dem Benutzerschnittstellenbildschirm gekoppelt ist und einen Empfänger aufweist, wobei der Empfänger zum Empfang von von dem Sender ausgesendeten Signalen ausgebildet ist, um das Vorhandensein des Eingabeobjekts unterhalb des Grenzabstands vom Benutzerschnittstellenbildschirm zu erkennen.
- Das System nach Anspruch 1, das ferner umfasst: einen Speicher, der zum Behalten von Daten ausgebildet ist, die den visuellen Inhalt und die skalierte Kopie des visuellen Inhalt umfassen, wobei die skalierte Kopie des visuellen Inhalt einen Skalierungsfaktor gegenüber dem visuellen Inhalt hat, der größer als 1 ist.
- Das System nach Anspruch 5, bei dem der Grafikkontroller derart ausgebildet ist, dass er entweder die Teile des visuellen Inhalts, die den überlagerten Ausschnitt der skalierten Kopie des visuellen Inhalts umgeben, abdeckt oder die Teile des visuellen Inhalts, die den überlagerten Ausschnitt der skalierten Kopie des visuellen Inhalts umgeben, verzerrt.
- Das System nach Anspruch 1, bei dem der Grafikkontroller derart ausgebildet ist, dass er einen Rand der skalierten Kopie des visuellen Inhalts auf einen entsprechenden Rand des visuellen Inhalts als die fixierte Position ausrichtet, aufgrund dessen, dass sich der Fußpunkt der Normalachse innerhalb eines Grenzbereichs eines korrespondierenden Rands des Benutzerschnittstellenbildschirms befindet, und dass der Grafikkontroller ferner zum Überlagern des Ausschnitts der skalierten Kopie des visuellen Inhalts an einem Punkt auf dem Ausschnitt der skalierten Kopie des visuellen Inhalts, der um eine dritte Strecke gegenüber dem Rand der skalierten Kopie des visuellen Inhalts verschoben ist, über einen korrespondierenden Punkt des visuellen Inhalts, der um die dritte Strecke gegenüber dem Rand des visuellen Inhalts verschoben ist, ausgebildet ist.
- Das System nach Anspruch 1, bei dem im Anschluss an das Überlagern des Ausschnitts der skalierten Kopie des visuellen Inhalts über den visuellen Inhalt durch den Grafikkontroller der Grafikkontroller ferner zur Bewegung der skalierten Kopie des visuellen Inhalts relativ zum visuellen Inhalt in einer Richtung, die einem Rand des Benutzerschnittstellenbildschirms gegenüber liegt, auf eine Bewegung des Eingabeobjekts innerhalb eines Randbereichs des Benutzerschnittstellenbildschirms hin konfiguriert ist.
- Das System nach Anspruch 1, bei dem der Grenzabstand ein erster Grenzabstand ist, bei dem der Grafikkontroller zur Vergrößerung des Teils des visuellen Inhalts um einen ersten Betrag an dem ersten Grenzabstand und um einen zweiten Betrag an einem zweiten Grenzabstand relativ zur Oberfläche des Benutzerschnittstellenbildschirms ausgebildet ist.
- Ein Verfahren zur Bereitstellung von Eingaben an ein Computersystem, bei dem das Verfahren umfasst: Anzeigen von visuellem Inhalt auf einem Bildschirm für eine Benutzerschnittstelle; Erkennen des Vorhandenseins eines Eingabeobjekts unterhalb des Grenzabstands vom Benutzerschnittstellenbildschirm auf einer Normalachse des Benutzerschnittstellenbildschirms mit Hilfe entweder einer Stereokamerabaugruppe, eines Laserstrahlunterbrechungssystems, eines kapazitiven Erkennungssystems, eines akustischen Erkennungssystems, eines elektromagnetischen Erkennungssystems oder eines Funkfrequenz-Erkennungssystems, wobei das Eingabeobjekt den Bildschirm nicht berührt; Vergrößern eines Teils des visuellen Inhaltes an einem Ort, der im wesentlichen auf den Fußpunkt der Normalachse zentriert ist, das Vergrößern des Teils des visuellen Inhalts das Überlagern eines Ausschnitts einer skalierten Kopie des visuellen Inhalts auf den visuellen Inhalt umfasst; Festlegen einer fixierten Position der skalierten Kopie des visuellen Inhalts relativ zu dem visuellen Inhalt auf eine Bewegung des Eingabeobjekts unterhalb eines Grenzabstands hin; Bewegen des Eingabeobjekts um eine Strecke von der fixierten Position aus entlang dem Benutzerschnittstellenbildschirm unterhalb des Grenzabstands; Bewegen des überlagerten Ausschnitts der skalierten Kopie des visuellen Inhalts um die Strecke von der fixierten Position aus entlang der skalierten Kopie des visuellen Inhalts; Überlagern zusammenhängender Ausschnitte der skalierten Kopie des visuellen Inhalts auf den visuellen Inhalt aufgrund einer unterhalb des Grenzabstandes erfolgenden ununterbrochenen Bewegung des Eingabeobjekts entlang dem Benutzerschnittstellenbildschirm, wobei der überlagerte Ausschnitt auf dem visuellen Inhalt verbleibt, während sich das Eingabeobjekt über den visuellen Inhalt bewegt, selbst nachdem das Eingabeobjekt sich nicht mehr oberhalb des überlagerten Ausschnitts befindet; Erkennen eines wechselseitigen Zusammenwirkens des Eingabeobjekts mit dem vergrößerten Teil des visuellen Inhalts; und Auslösen einer Geräteeingabe aufgrund des wechselseitigen Zusammenwirkens des Eingabeobjekts mit dem vergrößerten Teil des visuellen Inhalts.
- Das Verfahren nach Anspruch 10, das ferner das Behalten von Daten, die den visuellen Inhalt und die skalierte Kopie des visuellen Inhalts umfasst, wobei die skalierte Kopie des visuellen Inhalts einen Skalierungsfaktor gegenüber dem visuellen Inhalt aufweist, der größer als 1 ist.
- System nach Anspruch 1, bei dem der Graphikkontroller ausgebildet ist zum überlagern eines Ausschnitts der skalierten Kopie des visuellen Inhalts auf den visuellen Inhalt für die Vergrößerung eines entsprechenden Teils des visuellen Inhalts an dem Fußpunkt der Normalachse aufgrund des erkannten Vorhandenseins des Eingabeobjekts, zur Festlegung einer fixierten Position der skalierten Kopie des visuellen Inhalts relativ zu dem visuellen Inhalt auf eine Bewegung des Eingabeobjekts unterhalb des Grenzabstands hin, und zur Bewegung des überlagerten Ausschnitts der skalierten Kopie des visuellen Inhalts um eine Strecke entlang der skalierten Kopie des visuellen Inhaltes aufgrund der Bewegung des Eingabeobjekts um die Strecke entlang des Benutzerschnittstellenbildschirms innerhalb des Grenzabstands relativ zu der fixierten Position.
- Das System nach Anspruch 1, das ferner eine Vorrichtung zum Auslösen einer Geräteeingabe aufgrund eines wechselseitigen Zusammenwirkens des Eingabeobjekts mit dem entsprechenden vergrößerten Teil des visuellen Inhalts umfasst.
- Das System nach Anspruch 1, bei dem der Graphikkontroller ferner zum Überlagern des Ausschnitts der skalierten Kopie des visuellen Inhalts auf den visuellen Inhalt durch Transformieren des überlagerten Ausschnitts der skalierten Kopie des visuellen Inhalts in eine virtuelle dreidimensionale erhöhte Fläche auf dem virtuellen Inhalt ausgebildet ist, so dass Übergangsabschnitte des visuellen Inhalts, die den überlagerten Ausschnitt der skalierten Kopie des visuellen Inhalt umgeben, verzerrt sind.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/183,786 | 2008-07-31 | ||
US12/183,786 US9658765B2 (en) | 2008-07-31 | 2008-07-31 | Image magnification system for computer interface |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102009032637A1 DE102009032637A1 (de) | 2010-03-04 |
DE102009032637B4 true DE102009032637B4 (de) | 2014-05-15 |
Family
ID=41057954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009032637.5A Expired - Fee Related DE102009032637B4 (de) | 2008-07-31 | 2009-07-10 | Bildvergrößerungssystem für eine Computerschnittstelle |
Country Status (3)
Country | Link |
---|---|
US (1) | US9658765B2 (de) |
DE (1) | DE102009032637B4 (de) |
GB (1) | GB2462171B (de) |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100913962B1 (ko) * | 2007-05-14 | 2009-08-26 | 삼성전자주식회사 | 이동통신 단말기의 문자 입력 방법 및 장치 |
US8432365B2 (en) * | 2007-08-30 | 2013-04-30 | Lg Electronics Inc. | Apparatus and method for providing feedback for three-dimensional touchscreen |
US8219936B2 (en) * | 2007-08-30 | 2012-07-10 | Lg Electronics Inc. | User interface for a mobile device using a user's gesture in the proximity of an electronic device |
US9092134B2 (en) * | 2008-02-04 | 2015-07-28 | Nokia Technologies Oy | User touch display interface providing an expanded selection area for a user selectable object |
US8730169B2 (en) * | 2009-10-29 | 2014-05-20 | Pixart Imaging Inc. | Hybrid pointing device |
JP4752887B2 (ja) | 2008-09-12 | 2011-08-17 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
US8237666B2 (en) * | 2008-10-10 | 2012-08-07 | At&T Intellectual Property I, L.P. | Augmented I/O for limited form factor user-interfaces |
US8253713B2 (en) | 2008-10-23 | 2012-08-28 | At&T Intellectual Property I, L.P. | Tracking approaching or hovering objects for user-interfaces |
US8217910B2 (en) | 2008-12-19 | 2012-07-10 | Verizon Patent And Licensing Inc. | Morphing touch screen layout |
US8289286B2 (en) * | 2008-12-19 | 2012-10-16 | Verizon Patent And Licensing Inc. | Zooming keyboard/keypad |
US20100302176A1 (en) * | 2009-05-29 | 2010-12-02 | Nokia Corporation | Zoom-in functionality |
JP5218293B2 (ja) * | 2009-06-22 | 2013-06-26 | ソニー株式会社 | 情報処理装置、表示制御方法、およびプログラム |
US20120013532A1 (en) * | 2009-10-29 | 2012-01-19 | Pixart Imaging Inc. | Hybrid pointing device |
US8581847B2 (en) | 2009-10-29 | 2013-11-12 | Pixart Imaging Inc. | Hybrid pointing device |
JP2011150414A (ja) * | 2010-01-19 | 2011-08-04 | Sony Corp | 情報処理装置、操作入力決定方法及び操作入力決定プログラム |
JP5636678B2 (ja) * | 2010-01-19 | 2014-12-10 | ソニー株式会社 | 表示制御装置、表示制御方法及び表示制御プログラム |
JP2011150413A (ja) | 2010-01-19 | 2011-08-04 | Sony Corp | 情報処理装置、操作入力方法及び操作入力プログラム |
JP2011170834A (ja) * | 2010-01-19 | 2011-09-01 | Sony Corp | 情報処理装置、操作予測方法及び操作予測プログラム |
JP5676113B2 (ja) * | 2010-01-27 | 2015-02-25 | 京セラ株式会社 | 携帯電子機器 |
US8648836B2 (en) | 2010-04-30 | 2014-02-11 | Pixart Imaging Inc. | Hybrid pointing device |
US8760403B2 (en) | 2010-04-30 | 2014-06-24 | Pixart Imaging Inc. | Hybrid human-interface device |
US20120050007A1 (en) * | 2010-08-24 | 2012-03-01 | Babak Forutanpour | Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display |
JP2012058921A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP5732784B2 (ja) * | 2010-09-07 | 2015-06-10 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
US8522158B2 (en) | 2010-10-19 | 2013-08-27 | Apple Inc. | Systems, methods, and computer-readable media for providing a dynamic loupe for displayed information |
US9043732B2 (en) * | 2010-10-21 | 2015-05-26 | Nokia Corporation | Apparatus and method for user input for controlling displayed information |
JP2012094008A (ja) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | 携帯電子機器 |
US10146426B2 (en) * | 2010-11-09 | 2018-12-04 | Nokia Technologies Oy | Apparatus and method for user input for controlling displayed information |
JP5703703B2 (ja) | 2010-11-11 | 2015-04-22 | ソニー株式会社 | 情報処理装置、立体視表示方法及びプログラム |
JP2012133729A (ja) * | 2010-12-24 | 2012-07-12 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
KR101290145B1 (ko) * | 2011-05-31 | 2013-07-26 | 삼성전자주식회사 | 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치 |
EP2549362A2 (de) * | 2011-07-19 | 2013-01-23 | Samsung Electronics Co., Ltd. | Elektronische Vorrichtung und Verfahren zur Messung der Eingabegeste und Eingabe eines ausgewählten Symbols |
US9293107B2 (en) | 2011-09-20 | 2016-03-22 | Microsoft Technology Licensing, Llc | Adjusting user interfaces based on entity location |
US10684768B2 (en) * | 2011-10-14 | 2020-06-16 | Autodesk, Inc. | Enhanced target selection for a touch-based input enabled user interface |
US10504485B2 (en) | 2011-12-21 | 2019-12-10 | Nokia Tehnologies Oy | Display motion quality improvement |
EP2624116B1 (de) | 2012-02-03 | 2017-09-06 | EchoStar Technologies L.L.C. | Mittels Nähenerkennung gesteuertes Anzeigezoom |
EP2634687A3 (de) * | 2012-02-28 | 2016-10-12 | Sony Mobile Communications, Inc. | Endgerät |
CN104285202B (zh) * | 2012-03-14 | 2018-02-02 | 诺基亚技术有限公司 | 触屏悬停输入处理方法和装置 |
JP5828800B2 (ja) | 2012-04-23 | 2015-12-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 表示装置、表示制御方法及びプログラム |
JP5620440B2 (ja) | 2012-08-09 | 2014-11-05 | パナソニックインテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 表示制御装置、表示制御方法及びプログラム |
US9429912B2 (en) * | 2012-08-17 | 2016-08-30 | Microsoft Technology Licensing, Llc | Mixed reality holographic object development |
US9310895B2 (en) | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
TWI517992B (zh) * | 2012-11-13 | 2016-01-21 | 義晶科技股份有限公司 | 車用影像系統及其影像之顯示控制方法 |
EP2932438B1 (de) * | 2012-12-14 | 2020-04-01 | Avery Dennison Corporation | Rfid vorrichtungen für direkte interaktion |
US20140189579A1 (en) * | 2013-01-02 | 2014-07-03 | Zrro Technologies (2009) Ltd. | System and method for controlling zooming and/or scrolling |
US20140191985A1 (en) * | 2013-01-07 | 2014-07-10 | Acer Incorporated | Method and device for controlling electronic device |
GB2509541A (en) | 2013-01-08 | 2014-07-09 | Ibm | Display tool with a magnifier with a crosshair tool. |
US20140198081A1 (en) * | 2013-01-11 | 2014-07-17 | Research In Motion Limited | Image zoom control using stylus force sensing |
US20140208263A1 (en) * | 2013-01-24 | 2014-07-24 | Victor Maklouf | System and method for dynamically displaying characters over a screen of a computerized mobile device |
US20140267082A1 (en) * | 2013-03-15 | 2014-09-18 | Lenovo (Singapore) Pte, Ltd. | Enlarging touch screen portions |
US20140282239A1 (en) * | 2013-03-15 | 2014-09-18 | Lenovo (Singapore) Pte, Ltd. | Selecting a touch screen hot spot |
KR102118084B1 (ko) * | 2013-03-22 | 2020-06-02 | 삼성전자주식회사 | 터치스크린을 구비한 디바이스에서 화면 표시 방법 및 장치 |
US9645651B2 (en) | 2013-09-24 | 2017-05-09 | Microsoft Technology Licensing, Llc | Presentation of a control interface on a touch-enabled device based on a motion or absence thereof |
US11256410B2 (en) | 2014-01-22 | 2022-02-22 | Lenovo (Singapore) Pte. Ltd. | Automatic launch and data fill of application |
US9986225B2 (en) * | 2014-02-14 | 2018-05-29 | Autodesk, Inc. | Techniques for cut-away stereo content in a stereoscopic display |
TWI566167B (zh) * | 2014-04-24 | 2017-01-11 | 宏碁股份有限公司 | 電子裝置以及使用者介面顯示方法 |
US10817124B2 (en) * | 2014-06-03 | 2020-10-27 | Lenovo (Singapore) Pte. Ltd. | Presenting user interface on a first device based on detection of a second device within a proximity to the first device |
US10346992B2 (en) * | 2014-07-30 | 2019-07-09 | Sony Corporation | Information processing apparatus, information processing method, and program |
US9594489B2 (en) | 2014-08-12 | 2017-03-14 | Microsoft Technology Licensing, Llc | Hover-based interaction with rendered content |
JP6051183B2 (ja) * | 2014-08-19 | 2016-12-27 | 京セラドキュメントソリューションズ株式会社 | 表示制御装置及び電子機器 |
DE102014012810A1 (de) * | 2014-08-28 | 2016-03-03 | Maximilian Notar | Buttonvergrößerungsverfahren bei Touchscreens bei Annäherung an die Bildschirmoberfläche |
US20160179325A1 (en) * | 2014-12-19 | 2016-06-23 | Delphi Technologies, Inc. | Touch-sensitive display with hover location magnification |
US10261584B2 (en) | 2015-08-24 | 2019-04-16 | Rambus Inc. | Touchless user interface for handheld and wearable computers |
KR102474244B1 (ko) * | 2015-11-20 | 2022-12-06 | 삼성전자주식회사 | 영상 표시 장치 및 그 동작방법 |
CN105426021A (zh) * | 2015-12-21 | 2016-03-23 | 魅族科技(中国)有限公司 | 一种显示字符的方法以及终端 |
KR102347402B1 (ko) * | 2016-05-29 | 2022-01-04 | 도쿄엘렉트론가부시키가이샤 | 측벽 이미지 전사 방법 |
JP2019139485A (ja) * | 2018-02-09 | 2019-08-22 | 京セラドキュメントソリューションズ株式会社 | 入力受付装置 |
US11648951B2 (en) | 2018-10-29 | 2023-05-16 | Motional Ad Llc | Systems and methods for controlling actuators based on load characteristics and passenger comfort |
US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
GB2607172B (en) * | 2019-04-25 | 2023-11-01 | Motional Ad Llc | Graphical user interface for display of autonomous vehicle behaviors |
US11472291B2 (en) * | 2019-04-25 | 2022-10-18 | Motional Ad Llc | Graphical user interface for display of autonomous vehicle behaviors |
JP2022138883A (ja) * | 2021-03-11 | 2022-09-26 | セイコーエプソン株式会社 | 画像生成方法、制御方法、および情報処理装置 |
CN115016653B (zh) * | 2021-07-27 | 2024-04-19 | 荣耀终端有限公司 | 切换输入法样式的方法、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6466203B2 (en) * | 1998-04-17 | 2002-10-15 | Koninklijke Philips Electronics N.V. | Hand-held with auto-zoom for graphical display of Web page |
US20050057524A1 (en) * | 2003-09-16 | 2005-03-17 | Hill Douglas B. | Gesture recognition method and touch system incorporating the same |
US20060132460A1 (en) * | 2004-12-22 | 2006-06-22 | Microsoft Corporation | Touch screen accuracy |
DE102006047653A1 (de) * | 2006-10-09 | 2008-04-10 | Robert Bosch Gmbh | Bedieneinheit und Verfahren zur Darstellung eines Tastenfeldes |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4762990A (en) * | 1985-10-21 | 1988-08-09 | International Business Machines Corporation | Data processing input interface determining position of object |
JPH02153415A (ja) * | 1988-12-06 | 1990-06-13 | Hitachi Ltd | キーボード装置 |
JP2648558B2 (ja) * | 1993-06-29 | 1997-09-03 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 情報選択装置及び情報選択方法 |
US5434370A (en) * | 1993-11-05 | 1995-07-18 | Microfield Graphics, Inc. | Marking system with pen-up/pen-down tracking |
JP3744552B2 (ja) * | 1994-03-07 | 2006-02-15 | 富士通株式会社 | ペン入力装置 |
US5754348A (en) * | 1996-05-14 | 1998-05-19 | Planetweb, Inc. | Method for context-preserving magnification of digital image regions |
US6144962A (en) * | 1996-10-15 | 2000-11-07 | Mercury Interactive Corporation | Visualization of web sites and hierarchical data structures |
US7760187B2 (en) * | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
JP2003005912A (ja) * | 2001-06-20 | 2003-01-10 | Hitachi Ltd | タッチパネル付きディスプレイ装置及び表示方法 |
JP4153350B2 (ja) * | 2002-05-13 | 2008-09-24 | 株式会社リコー | タッチパネル付きディスプレイ装置、タッチパネル付きディスプレイ装置の制御方法およびその方法をコンピュータに実行させるためのプログラム |
KR20030097310A (ko) * | 2002-06-20 | 2003-12-31 | 삼성전자주식회사 | 디스플레이장치의 화상크기조절방법 및 그화상크기조절시스템과 화상크기조절방법을 수행하는프로그램이 저장된 기록매체 |
JP3952896B2 (ja) * | 2002-07-30 | 2007-08-01 | キヤノン株式会社 | 座標入力装置及びその制御方法、プログラム |
CA2407383A1 (en) * | 2002-10-10 | 2004-04-10 | Idelix Software Inc. | Editing multiple layers of a presentation using detail-in-context lenses |
EP1567927B1 (de) * | 2002-11-29 | 2013-07-10 | Koninklijke Philips Electronics N.V. | System und Verfahren für eine Benutzerschnittstelle mit verschobener Darstellung der Berührungsfläche |
JP2004302958A (ja) * | 2003-03-31 | 2004-10-28 | Kyocera Mita Corp | 情報入力装置及び画像形成装置 |
JP4035497B2 (ja) * | 2003-09-26 | 2008-01-23 | キヤノン株式会社 | 画像表示システム、画像表示装置、画像表示方法ならびにプログラム |
US8106927B2 (en) * | 2004-05-28 | 2012-01-31 | Noregin Assets N.V., L.L.C. | Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci |
JP2006031499A (ja) * | 2004-07-20 | 2006-02-02 | Denso Corp | 情報入力表示装置 |
US7653883B2 (en) * | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
JP4479962B2 (ja) * | 2005-02-25 | 2010-06-09 | ソニー エリクソン モバイル コミュニケーションズ, エービー | 入力処理プログラム、携帯端末装置、及び入力処理方法 |
TW200701082A (en) * | 2005-06-23 | 2007-01-01 | Elan Microelectronics Corp | Scroll control method used in the touch panel |
US7900158B2 (en) * | 2005-08-04 | 2011-03-01 | Microsoft Corporation | Virtual magnifying glass with intuitive use enhancements |
US7949955B2 (en) * | 2005-08-04 | 2011-05-24 | Microsoft Corporation | Virtual magnifying glass system architecture |
US7966573B2 (en) * | 2006-02-17 | 2011-06-21 | Microsoft Corporation | Method and system for improving interaction with a user interface |
DE102007039669A1 (de) * | 2007-08-22 | 2009-02-26 | Navigon Ag | Anzeigeeinrichtung mit Bildfläche |
US8085242B2 (en) * | 2007-09-10 | 2011-12-27 | Ricoh Company, Ltd. | Input control device and image forming apparatus |
US9030418B2 (en) | 2008-06-24 | 2015-05-12 | Lg Electronics Inc. | Mobile terminal capable of sensing proximity touch |
-
2008
- 2008-07-31 US US12/183,786 patent/US9658765B2/en active Active
-
2009
- 2009-07-10 DE DE102009032637.5A patent/DE102009032637B4/de not_active Expired - Fee Related
- 2009-07-15 GB GB0912243.3A patent/GB2462171B/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6466203B2 (en) * | 1998-04-17 | 2002-10-15 | Koninklijke Philips Electronics N.V. | Hand-held with auto-zoom for graphical display of Web page |
US20050057524A1 (en) * | 2003-09-16 | 2005-03-17 | Hill Douglas B. | Gesture recognition method and touch system incorporating the same |
US20060132460A1 (en) * | 2004-12-22 | 2006-06-22 | Microsoft Corporation | Touch screen accuracy |
DE102006047653A1 (de) * | 2006-10-09 | 2008-04-10 | Robert Bosch Gmbh | Bedieneinheit und Verfahren zur Darstellung eines Tastenfeldes |
Non-Patent Citations (2)
Title |
---|
Artikel: "Teksoft FingerTouch Pro released!", Teksoft, 07-01-2008, S. 1-4, http://pdaphonehome.com/forums/mall/113076-teksoft-fingertouch-pro-released.html * |
G. Anthes: "Give your computer the finger: Touch-screen tech comes of age", Computerworld Hardware, February 01, 2008, S. 1-5 * |
Also Published As
Publication number | Publication date |
---|---|
GB2462171A (en) | 2010-02-03 |
GB2462171B (en) | 2013-04-10 |
GB0912243D0 (en) | 2009-08-26 |
DE102009032637A1 (de) | 2010-03-04 |
US20100026723A1 (en) | 2010-02-04 |
US9658765B2 (en) | 2017-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009032637B4 (de) | Bildvergrößerungssystem für eine Computerschnittstelle | |
DE102009025236B4 (de) | Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm | |
EP2331361B1 (de) | Verfahren und vorrichtung zum anzeigen von informationen, insbesondere in einem fahrzeug | |
DE102018116244A1 (de) | Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle | |
EP1998996B1 (de) | Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung | |
DE102018005131A1 (de) | Mobiles Gerät mit Frontkamera und maximierter Bildschirmoberfläche | |
DE602004011676T2 (de) | Tragbares Kommunikationsgerät mit einer dreidimensionalen Anzeigevorrichtung | |
DE102009023875A1 (de) | Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche | |
EP2017756A1 (de) | Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung | |
EP2750914B1 (de) | Verfahren und vorrichtung zum bereitstellen einer nutzerschnittstelle, insbesondere in einem fahrzeug | |
EP2196892B1 (de) | Verfahren und Vorrichtung zum Anzeigen von Informationen | |
DE102008028223A1 (de) | Modusabhängige Verarbeitung von Berührungsdaten | |
DE112010002760T5 (de) | Benutzerschnittstelle | |
DE102012020607B4 (de) | Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements | |
DE102016107202A1 (de) | Anzeigesystem | |
DE202017105674U1 (de) | Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands | |
DE112022001036T5 (de) | Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und bildverarbeitungssystem | |
DE102019202512A1 (de) | Verfahren und Anordnung zur Ausgabe eines HUD auf einem HMD | |
DE102015226153A1 (de) | Anzeigevorrichtung und Bedieneinrichtung | |
DE102015218954A1 (de) | Steuerverfahren und elektronische Vorrichtung | |
DE112020003221T5 (de) | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm | |
DE102019107103B4 (de) | Verfahren und system zur objektsegmentierung in einer mixed-reality- umgebung | |
DE102004027289B4 (de) | Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument | |
DE102011119082A1 (de) | Vorrichtungsanordnung zur Schaffung eines interaktiven Bildschirms aus einem Bildschirm | |
CN108932054B (zh) | 显示装置、显示方法和非暂时性的记录介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R081 | Change of applicant/patentee |
Owner name: NORTHROP GRUMMAN SYSTEMS CORPORATION (N.D.GES., US Free format text: FORMER OWNER: NORTHROP GRUMMAN SPACE & MISSION SYSTEMS CORPORATION, LOS ANGELES, CALIF., US Effective date: 20120809 Owner name: NORTHROP GRUMMAN SYSTEMS CORPORATION (N.D.GES., US Free format text: FORMER OWNER: NORTHROP GRUMMAN SPACE & MISSION SYSTEMS CORPORATION, LOS ANGELES, US Effective date: 20120809 Owner name: NORTHROP GRUMMAN SYSTEMS CORP. (N.D.GES.D. STA, US Free format text: FORMER OWNER: NORTHROP GRUMMAN SPACE & MISSION SYSTEMS CORPORATION, LOS ANGELES, US Effective date: 20120809 |
|
R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE Effective date: 20120809 Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE Effective date: 20120809 |
|
R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE |
|
R081 | Change of applicant/patentee |
Owner name: NORTHROP GRUMMAN SYSTEMS CORPORATION (N.D.GES., US Free format text: FORMER OWNER: NORTHROP GRUMMAN SYSTEMS CORP. (N.D.GES.D. STAATES DELAWARE), LOS ANGELES, CALIF., US Effective date: 20121210 Owner name: NORTHROP GRUMMAN SYSTEMS CORPORATION (N.D.GES., US Free format text: FORMER OWNER: NORTHROP GRUMMAN SYSTEMS CORP. (N.D.GES.D. STAATES DELAWARE), LOS ANGELES, US Effective date: 20121210 |
|
R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE Effective date: 20121210 Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE Effective date: 20121210 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R020 | Patent grant now final |
Effective date: 20150217 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |