[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2007014557A1 - Verfahren und vorrichtung zur autostereoskopischen wiedergabe von 3d-darstellungen - Google Patents

Verfahren und vorrichtung zur autostereoskopischen wiedergabe von 3d-darstellungen Download PDF

Info

Publication number
WO2007014557A1
WO2007014557A1 PCT/DE2006/001365 DE2006001365W WO2007014557A1 WO 2007014557 A1 WO2007014557 A1 WO 2007014557A1 DE 2006001365 W DE2006001365 W DE 2006001365W WO 2007014557 A1 WO2007014557 A1 WO 2007014557A1
Authority
WO
WIPO (PCT)
Prior art keywords
subpixel
subpixels
color
screen
image
Prior art date
Application number
PCT/DE2006/001365
Other languages
English (en)
French (fr)
Inventor
Siegbert Hentschke
Eduard Fuchs
Thorsten Elle
Original Assignee
Siegbert Hentschke
Eduard Fuchs
Thorsten Elle
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siegbert Hentschke, Eduard Fuchs, Thorsten Elle filed Critical Siegbert Hentschke
Publication of WO2007014557A1 publication Critical patent/WO2007014557A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects

Definitions

  • the invention relates to a method of the type specified in the preamble of claim 1 and a device suitable for carrying out this method.
  • HR filtering high resolution filtering
  • the technical problem of the present invention is the methods and devices described at the beginning are to be improved in order to achieve both real-time capability and high resolution.
  • the invention has the advantage that in each case in narrow surrounding zones of polygon lines of a vector-based image, a special, taking place on the basis of Subpixelmustern control of the screen subpixel is made. This makes it possible to repeat once created subpixel pattern as often as necessary, which significantly reduces the computational effort, at least in the area of the polygon lines. If it is also taken into account that the described HR filtering in the regions delimited by the polygonal lines, in which there are no or only minor changes in color and brightness, does not bring any significant qualitative advantages, then HR filtering can take place therein According to the invention areas completely omitted. As a result, significant parts of the previously required computing times are saved and, according to the invention, 3D representations are made possible in real time and with high resolution.
  • Fig. 1 shows schematically a known 3D reproduction system
  • FIG. 2 shows optical beam paths for the right and left eye when using a raster lens provided with cylindrical lenses for a part of a horizontal subpixel line of a screen of the display system according to FIG. 1;
  • FIG. 3 schematically shows the generation and combing of perspectives for autostereoscopic 3D representations
  • FIG. 4 schematically shows the representation of gray stripes on a colored background in each case in the case of a resolution in the image pixel region (A1, A2) and in a resolution according to the invention in the subpixel region (B1, B2);
  • FIG. 8 is a flow chart of pre-filtering for HR 3D subpixel filtering
  • FIG. 1 and 2 show schematically a reproduction system according to the invention for
  • the display system includes a screen 1, in particular a flat screen (TFT or plasma screen), in front of which a grid disk 2 designed here as a lenticular screen is arranged.
  • the z. B. contains a memory provided with a graphics card, the od of a camera. Like. Supplied, electrical signals from pictures, scenes od. Like. Are dubbed in real time. Alternatively, these signals can come from a mass storage and constantly be delivered new. The pictures can also be used otherwise. B. in point form, be stored on the map. From the processor unit 3, right and left image signals for in Fig. 1 schematically indicated by rectangles, right and left images 4 and 5 are generated in original size and in pixel form and z. B. stored in each a right and left memory. These image signals are then fed to a block 6 and in this, based on the screen width, z. B.
  • image signals for narrow, indicated by further rectangles, right and left images 7 and 8 are obtained.
  • the image signals in block 6 can, if required, be subjected entirely and / or in selected areas to a treatment which will be briefly described at the outset as HR filtering.
  • the signals of the compressed images 7 and 8 are supplied to another block 9, in which they are decomposed into signals for right and left image strips 10 and 11.
  • the calculation of the image stripe signals is preferably adaptive, i. H. depending on the position of a viewer in front of the screen, including in particular the respective initial position of the image strips 10 and 11 on the screen after each movement must be determined new and accurate.
  • the image strip signals are also interleaved or multiplexed in block 9, so that the associated image strips 10, 11 alternate in the line direction as shown in FIG. 1, while in the column direction (vertical) z. B. are continuous.
  • the signals representing the right and left image strips 10, 11 are finally fed via a conventional interface 12 to the monitor provided with the screen 1 or the like.
  • the viewer is associated, for example, with an eye tracker 14 whose signals are fed to the processor unit 3 and the blocks containing the blocks 6 and 9, hereinafter referred to overall as the coding unit.
  • the display system of Fig. 1 may be provided in a conventional manner with a 3D mouse 15, an input controller 16, a 3D library 17, and, if necessary, a personal-specific adjuster 18 Be provided settings.
  • Fig. 2 shows in the top row schematically some with the reference numeral R.
  • FIG. 2 shows that in front of the subpixels representing the screen 1, there is arranged a lenticular disk 20 shown in cross section, which has a glass pane 21 and a plurality of vertically extending cylindrical lenses (eg a few 100) arranged side by side. B. on the observer facing broadside of the glass sheet 21 are mounted, of which, however, Fig. 2 shows only two cylindrical lenses 22a and 22b. Finally, Fig. 2 shows schematically the optical beam path, starting from each of a right and left eye 23, 24 of a viewer.
  • the lenticular disk 20 is dimensioned and arranged such that at least the right and left image strips produced by the subpixels R, G and B in a selected area of the screen 1 appear to be overlapping-free or disjoint to the viewer, and the order of colors at the transition from a right (left) subpixel strip to the respective preceding or following right (left) SubpixelstMail always steadily continues. This is z. B. from Fig. 2 can be seen.
  • the right subpixel strip 25a starts on the left with a green subpixel and right ends with a red subpixel
  • the next right subpixel strip 25b also begins on the left with a green subpixel and ends on the right with a red subpixel, so that - viewed over both subpixel strips - the color order G, B, R etc. is continuously obtained from left to right.
  • the color order GBR, GBR, etc., for the left subpixel strips 26a, 26b is continuous, as viewed from left to right.
  • the right (left) subpixel strips 25, 26 are automatically spaced apart from one another in that the gaps between a lateral end (e.g., 26c in Fig. 2) of a right (left) subpixel strip and a facing lateral end (e.g., 26d) in Fig. 2 are from one in the row direction and / or subsequent right (left) subpixel stripe corresponds exactly to an integer multiple of an image pixel (or the number of pixel colors present).
  • FIG. 2 shows that the coding unit 6, 9 is so controllable and the grid disc 20 is dimensioned and arranged such that at least those right and left image stripes, e.g. 28 and 29, which are generated in a selected area of the screen 1 (eg in the left half thereof), are seen by the viewer without overlapping.
  • the right-hand image strips 28 are generated by the right subpixel strips 25 and the left image strips 29 by the left subpixel strips 26 and all the right or left image strips 28 and 29, of which in FIG two are shown by the grid plate 20 to a the spatial vision enabling right or left image for the right and left eye 23, 24 are summarized, wherein the screen plate 20 is one of the preceding compression in the block 6 (Fig. 1) corresponding stretching of the images.
  • a protective sequence 30 (FIG. 2) can be arranged.
  • the pixels z. B. in block 6 (Fig. 1) of the repeatedly mentioned HR filtering.
  • a brightness filter having a plurality of coefficients is applied in such a way that a constant gray value in the original image provides a corresponding average gray value in the target image.
  • Fig. 3 shows schematically the generation of a 3D representation on the screen, from here only the lenticular disk 20 is shown.
  • two perspectives P1, P2 of a simple, cuboid object are shown, it being understood that more than two perspectives P1, P2... Pi can also be present in multi-view representations.
  • the individual cuboids are each bounded by surfaces 31, 32, 33, etc.
  • a section of the surface 32 is also shown in Fig. 4. It is additionally assumed for a particularly simple case that the surface 32 is provided with an oblique, gray or white, bounded by parallel and straight side edges strip 34 of the width of an image pixel. In conventional image processing, which works on the basis of image pixels, this has the consequence that on the screen all arranged along the strip 34, in Fig. 4 superimposed nine image pixels are displayed in gray.
  • the resulting representation is shown in the image Al of FIG. 4 in the compressed arrangement obtained by the drive input of the screen pixels and in the image A2 of FIG. 4 by the arrangement which occurs when the image Al is viewed through the lenticular screen through which a line-wise stretched representation is obtained.
  • the strip 34 not as in Al, A2 the. from the polygon line 35 met or traversed image pixels, but only to associate with the traversed by the polygon line 35 subpixels.
  • image Bl is assumed that the polygon line 35 in each case passes through a subpixel 36, 37, 38... 39, the subpixel 36 turning green, the subpixel 37 red, the subpixel 38 blue and the subpixel 39 is also blue, as evidenced by the different shading of the individual subpixels.
  • the subpixels 36... 39, which lie on the polygonal line 35 are therefore initially calculated.
  • the image Bl shows, like the image Al, the conditions on the screen and the image B2 and the image A2 the conditions when viewed through the cylindrical lens. 0
  • each subpixel 36 .... 39 passing through the polygonal line 35 is assigned an environmental zone which contains the subpixel passed through and subpixels immediately adjacent in a tight environment.
  • the surrounding zone of the subpixel 36 is formed overall by a red subpixel 40 located to the left of the polygonal line 35, the subpixel 36 and a blue subpixel 41 lying to the right of the polygon line 35. Accordingly, the procedure in the other lines is such that the blue subpixel 39, a green subpixel 42 lying to the left and a red subpixel 43 located to the right form a surrounding zone associated with the subpixel 39.
  • the strip 34 z. B. be gray. Therefore, the same color value as sub-pixel 40 and 41 is given the same color value as sub-pixel 36 and sub-pixels 42, 43, as well as sub-pixel 39.
  • a polygon line 46 indicating the color transition is determined from the vector data. Then be traversed by the polygon line 46 and lying on her
  • Subpixels calculated here by the reference numerals 46, 48, 49 50 are calculated. Depending on the case, this is a green, blue or red subpixel.
  • each subpixel 47 to 50 passed through an ambient zone of a plurality of subpixels immediately adjacent in a line.
  • subpixels 50 are assigned two subpixels 51, 52 immediately following to the left and three subpixels 53, 54 and 55 immediately following to the right, and these subpixels 50 to 55 form the surrounding zone.
  • the subpixels 50 to 55 lying in this surrounding zone are driven in accordance with a predetermined subpixel pattern defined on both sides of the polygon line 46 as a function of the brightness and / or color values. This means in Fig. 5 that z. B.
  • Subpixels 51, 52 lying on polygonal line 46 and the affected subpixel 50 are displayed in the color of area Fl, ie subpixels 50 to 52 are given the values Gl, Bl and Rl.
  • the subpixels 53 to 55 are driven by the values of the right face F2, that is, G2, B2 and R2.
  • the transition area between the areas Fl and F2 is much finer graded than if the separation were made on the basis of image pixels.
  • FIG. 5 shows that green, blue and red subpixels follow one another along the polygonal line 46 and therefore a subpixel pattern is required for each color.
  • the subpixel patterns to be used in individual cases are largely freely selectable and can be defined as a function of the respective colors / brightnesses.
  • the subpixel pattern provided here in the surrounding zone 57 and stored here as HR filtering could be stored in a simple manner on the surrounding zones 57a to 57c, thereby saving considerable computing times and at least making it easier to achieve real-time capability.
  • FIG. 8 A hardware device capable of generating the luminance signals Y and the color difference signals DG, DB and DR in real time is schematically shown in Fig. 8 with reference to a flow chart for HR 3D subpixel adaptation.
  • FIG. 9 shows schematically and by way of example how color and brightness values for the HD-3D subpixel filtering (HR filtering) can be distributed to the surrounding subpixels by means of a luminance filter h L used for this purpose and a chrominance filter hc.
  • the target subpixel S (n, m) is formed from the red, green and blue environment pixels of the original image R (ni, mk), G (ni, mk), B (ni, mk).
  • HR filtering is performed, which is suitable for stereo image generation with a DELL M60 laptop with vertical lens raster and 1920 • 1200 TFT pixels.
  • the data means that one lens of the lenticular lens extends over twelve subpixels of the screen, three lenses of the right and left images are simultaneously seen at a time, and the jump from the end of a right image to the beginning of the next right is nine subpixels.
  • three subpixels form an interlaced (combed) image strip for the left image, whereas the remaining six subpixels are in reserve serve and allow slight head movements to the right or left (see PCT WO 2004/081863 A2).
  • the six subpixels per image strip only three are ever seen through a lens. Consequently, under the next lens, a repetition of the last three subpixels of the previous lens must be made while the next three subpixels of the respective source are removed again.
  • the brightness filter used is the filter given by way of example in the following table, which extends over three lines and seven (horizontally adjacent) subpixels.
  • the coefficients in the columns H 1 _ 3 , H 1 -0 and H 1 _ 3 belong to the color 1, the coefficients H 1 -2 and H u to the color 2 and the coefficients H ;. 2 and H; 2 to the color 3.
  • the total of all coefficients is equal to 1.
  • the filter is applied in such a way that the coefficients in a first step are multiplied by the G, B or R values of seven adjacent subpixels of the right or left original image and a first subpixel of an associated one Image pixels of the screen are added, for three lines of the original one above the other.
  • the filter is shifted in such a way that the coefficients are now applied to seven subpixels of the original, which are offset by exactly three in the row direction of the subpixels used in the first step.
  • the obtained sum is added to the second subpixel of the image pixel of the screen already used in the first step.
  • an offset by three subpixels in the original and an offset by one subpixel of the target image again takes place.
  • the color filter used by way of example in Table 2 below likewise extends over three lines and seven horizontally adjacent subpixels.
  • the sum total of all coefficients is equal to 1.
  • the coefficients C 1 -3 to Q 3 are applied in a first step to the color 1 (eg G) of seven adjacent image pixels of the original, the sum obtained being one associated subpixels of the same color 1 on the screen is assigned.
  • the remaining color information of the original is distributed to assigned target pixels.
  • the filtering operation can be expressed by the following formula.
  • DC (n, m, 0) DR (n, m)
  • DC (n, m, l) DG (n, m)
  • DC (n, m, 2) DB (n, m).
  • the upsetting operation during filtering can be carried out without additional expenditure by the following renumbering:
  • the invention is not limited to the described embodiments, which can be modified in many ways. This applies first of all to the type of concealment described by way of example, the number of subpixels per image strip as well as the type and geometry of the raster disc and the screen. It is also clear that there may be cases in which the pixels are not three, but z. B. two or more than three differently colored subpixels are formed and / or the subpixels within the image pixels are not row by row next to each other, but at least partially arranged one above the other. The mappings and subpixel patterns must then be adjusted accordingly. In addition, of course, the invention can also be applied to other screens, in particular plasma screens, which enable digital and subpixel accurate control.
  • the assignment of the subpixels used for the brightness and color control or their distribution to adjacent subpixels or within the surrounding zones as described in the context of HR filtering can also be changed and adapted to the specific needs. Furthermore, the number of intended perspectives or locations from which the 3D representations can be viewed is variable within wide limits. Furthermore, the subpixel patterns used in the described surrounding zones can be varied in many ways and adapted to those in the Individual case existing conditions adapted. In principle, it does not matter during which stage of the image transmission the subpixel patterns are formed and assigned to the surrounding zones. In particular, it would be possible to select those that are similar to the desired pattern or come as close as possible to fill the surrounding zones from already stored subpixel patterns. This would significantly reduce the number of subpixel patterns that need to be stored to capture all conceivable cases. Finally, it is understood that the various features may be applied in combinations other than those described and illustrated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Es werden ein Verfahren und eine Vorrichtung zur autostereoskopischen Wiedergabe von 3D-Darstellungen mit einem Bildschirm beschrieben, der eine Vielzahl von in Zeilen und Spalten angeordneten Bildpixeln enthält, die je eine vorgegebene Anzahl von Subpixeln (G, B, R) unterschiedlicher Farben aufweisen, wobei die Subpixel (G,B, R) derart verkämmt angesteuert werden, dass in jeder Zeile des Bildschirms abwechselnd aufeinander folgende Subpixelstreifen entstehen, die mit einer vor dem Bildschirm angeordneten Rasterscheibe zu rechten und linken Bildern zusammengefaßt werden. Die Bilddaten werden in 3D-Vektorform anhand von Eckpunkten gespeichert, die durch Polygonlinien (35) verbindbar sind. Denjenigen Subpixeln (36 bis 39), die von einer Polygonlinie (35) durchlaufen werden, wird je eine Umgebungszone zugeordnet, die das durchlaufene Subpixel (z. B. 36) und unmittelbar benachbarte Subpixel (z. B. 40, 41) enthält. Die in dieser Umgebungszone befindlichen Subpixel (z. B. 36, 40, 41) werden dann entsprechend einem von den Helligkeits- und/oder Farbwerten beidseitig der Polygonlinie (35) abhängigen Subpixelmuster angesteuert.

Description

Verfahren und Vorrichtung zur autostereoskopischen Wiedergabe von 3D-Darstellun-
Die Erfindung betrifft ein Verfahren der im Oberbegriff des Anspruchs 1 angegebenen Gattung und eine zur Durchführung dieses Verfahrens geeignete Vorrichtung.
Verfahren und Vorrichtungen dieser Art sind bekannt (z. B. PAM in EP 0 836 332 Al). Bei ihrer Anwendung werden die aus je einem roten, grünen und blauen Subpixel (G, B, R) gebildeten Bildpixel eines Bildschirms zeilenweise so angesteuert, dass abwechselnd vertikale, rechte und linke Sύbpixelstreifen entstehen, die zur Erzeugung zugeordneter, rechter und linker Bildstreifen dienen. Diese Bildstreifen werden mit Hilfe einer vor dem Bildschirm angeordneten Rasterscheibe zu den für 3D-Dar- Stellungen benötigten, rechten und linken Bildern zusammengefasst.
Bei einer bekannten Weiterentwicklung dieser Verfahren und Vorrichtungen (PARSC in PCT WO 2004/081863 A2) ist vorgesehen, die originalen rechten und linken Bilder zunächst in Zeilenrichtung auf z. B. ein Drittel ihrer Breite zu stauchen und dann mit Hilfe der vor dem Bildschirm angeordneten Rasterscheibe wieder auf das ursprüngliche Maß zu strecken. Zur Vermeidung von Farbstörungen und zur Verbesserung der Auflösung werden die Helligkeits- und Farbwerte der verschiedenen Bildpixel mit Hilfe von Helligkeits- und Farbfiltern in unterschiedlicher Weise und so auf die Subpixel des Bildschirms verteilt, dass die Helligkeitsinformation nahezu unverändert bleibt, während die Farbinformation um ca. zwei Drittel reduziert wird. Trotz der Stauchung der Ursprungsbilder auf ein Drittel geht daher praktisch keine Helligkeitsinformation verloren, und die gewählte Farbverteilung führt trotz des Informationsver- lustes dazu, dass die Farbqualität für einen Betechter allenfalls geringfügig verschlechtert wird. Diese als HR-Filterung (High Resolution Filterung) bezeichnete Maßnahme macht von der bekannten Eigenschaft Gebrauch, dass das menschliche Auge aufgrund seiner physiologischen Gegebenheiten Helligkeitsschwankungen stärker als Farbschwankungen wahrnimmt.
Ein bei der HR-Filterung noch nicht befriedigend gelöstes Problem besteht darin, dass wegen der hohen erforderlichen Rechenleistungen, die z. B. durch Bildschirmgrößen mit 1024 • 768 Bildpixeln, 50 Bilder pro Sekunde und zwei Filter mit z. B. je sieben oder mehr Filterkoeffizienten bedingt sind, die Echtzeitfähigkeit verloren gehen kann.
Alternativ wäre es möglich, die erforderliche Stauchung der Originalbilder dadurch herbeizuführen, dass man jedes zweite und dritte Bildpixel wegfallen lässt. Dadurch würde der Rechenaufwand erheblich reduziert. Nachteilig wäre jedoch, dass bei der nachträglichen Verbreiterung der Bildpunkte auf das Dreifache vergleichsweise grobe Raster und dadurch insbesondere bei schrägen Kanten stark treppenstufenförmige und unschön wirkende Begrenzungslinien erhalten würden. Außerdem würden sich Aliasfehler ergeben. Diese könnten zwar dadurch vermieden werden, dass bei der Stauchung jeweils eine Mittelwertbildung über je drei Bildpixel vorgenommen wird. Das würde jedoch eine Reduzierung der Auflösung auf ca. ein Drittel zur Folge haben.
Aus den genannten Gründen kann heute zwischen einer autostereoskopischen Darstellung mit hohem Auflösungsvermögen und nicht, immer ausreichender Echtzeitfähigkeit und einer 3D-Darstellung in Echtzeit, jedoch mit mäßiger Auflösung gewählt werden. .
Ausgehend davon besteht das technische Problem der vorliegenden Erfindung darin, die eingangs bezeichneten Verfahren und Vorrichtungen dahingegen zu verbessern, dass sowohl Echtzeitrahigkeit erreicht als auch eine hohe Auflösung erzielt wird.
Zur Lösung dieser Aufgabe dienen ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Vorrichtung, die zur Durchführung dieses Verfahrens eingerichtet ist.
Die Erfindung bringt den Vorteil mit sich, dass jeweils in schmalen Umgebungszonen von Polygonlinien eines auf Vektorbasis vorliegenden Bildes eine spezielle, anhand von Subpixelmustern erfolgende Ansteuerung der Bildschirm-Subpixel vorgenommen wird. Dadurch ist es möglich, einmal geschaffene Subpixelmuster so oft wie nötig zu wiederholen, was zumindest im Bereich der Polygonlinien den Rechenaufwand erheblich reduziert. Wird außerdem berücksichtigt, dass die beschriebene HR-Filte- rung in den von den Polygonlinien umgrenzten Bereichen, in denen keine oder nur geringfügige Färb- und Helligkeitsänderungen stattfinden, keine wesentlichen qualitati- ven Vorteile mit sich bringt, dann kann die HR-Filterung in diesen Bereichen erfindungsgemäß auch ganz unterbleiben. Dadurch werden wesentliche Teile der bisher benötigten Rechenzeiten eingespart und erfindungsgemäß 3D-Darstellungen in Echtzeit und mit hoher Auflösung ermöglicht.
Weitere vorteilhafte Merkmale der Erfindung ergeben sich aus den Unteransprüchen.
Die Erfindung wird nachfolgend in Verbindung mit den beiliegenden Zeichnungen an Ausführungsbeispielen näher erläutert. Es zeigen:
Fig. 1 schematisch ein bekanntes 3D- Wiedergabesystem;
Fig. 2 optische Strahlengänge für das rechte und linke Auge bei Anwendung einer mit Zylinderlinsen versehenen Rasterscheibe für einen Teil einer horizontalen Subpixelzei- Ie eines Bildschirms des Wiedergabesystems nach Fig. 1;
Fig. 3 schematisch das Generieren und Verkämmen von Perspektiven für autostereo- skope 3D-Darstellungen; - A -
Fig. 4 schematisch die Darstellung von grauen Streifen auf einem farbigen Untergrund jeweils bei einer Äufösung im Bildpixelbereich (Al, A2) und bei einer erfindungsgemäßen Auflösung im Subpixelbereich (Bl, B2);
Fig. 5 und 6 die erfindungsgemäße Behandlung von Übergängen zwischen zwei Farbflächen;
Fig. 7 schematisch die erfindungsgemäße Generierung von 3D-Darstellungen;
Fig. 8 ein Ablaufdiagramm der Vorfilterung zur HR-3D-Subpixelfilterung; und
Fig. 9 je einen Luminanz-Filter hL und einen Chrominanz-Filter hc zur HR-3D- Subpixelfilterung.
Fig. 1 und 2 zeigen schematisch ein erfindungsgemäßes Wiedergabesystem für
3D-Darstellungen, die Bilder oder Szenen beinhalten können. Das Wiedergabesystem enthält einen Bildschirm 1 , insbesondere einen Flachbildschirm (TFT- oder Plasma- Bildschirm), vor dem eine hier als Linsenrasterscheibe ausgebildete Rasterscheibe 2 angeordnet ist. Der Bildschirm 1 enthält gemäß Fig. 2 in einer Vielzahl von z. B. 768 bis 1200 (horizontalen) Zeilen eine Vielzahl von nebeneinander liegenden, z. B. je 1024 bis 1920 Bildpixeln, die aus je drei nebeneinander liegenden, farbigen Subpixeln in den Farben rot (= R), grün (= G) und blau (= B) zusammengesetzt sind. Innerhalb jedes Bildpixels ist die Reihenfolge der Subpixel stets dieselbe, z. B. RGB.
Zur Erzeugung von 3 D-Darstellungen dient eine Prozessoreinheit 3, die z. B. eine mit einem Speicher versehene Grafikkarte enthält, auf die in Echtzeit die von einer Kamera od. dgl. gelieferten, elektrischen Signale von Bildern, Szenen od. dgl. überspielt werden. Alternativ können diese Signale auch aus einem Massenspeicher kommen und ständig neu geliefert werden. Die Bilder können auch sonstwie z. B. in Punktform, auf der Karte abgelegt sein. Von der Prozessoreinheit 3 werden rechte und linke Bildsignale für in Fig. 1 schematisch durch Rechtecke angedeutete, rechte bzw. linke Bilder 4 und 5 in Originalgröße und in Pixelform erzeugt und z. B. in je einem rechten und linken Speicher abgelegt. Diese Bildsignale werden dann einem Block 6 zugeführt und in diesem, bezogen auf die Bildschirmbreite, z. B. auf je ein Drittel ihrer ursprünglichen Breite und insbesondere in demselben Verhältnis gestaucht, wie sie später durch die Rasterscheibe 2 wieder vergrößert werden. Dadurch werden Bildsignale für schmale, durch weitere Rechtecke angedeutete, rechte und linke Bilder 7 und 8 erhalten. Außerdem können die Bildsignale im Block 6 bei Bedarf ganz und/oder in ausgewählten Bereichen einer weiter unten erläuterten, eingangs kurz als HR-Filterung bezeichneten Behandlung unterworfen werden.
Die Signale der gestauchten Bilder 7 und 8 werden einem weiteren Block 9 zugeführt, in dem sie in Signale für rechte und linke Bildstreifen 10 und 11 zerlegt werden. Die Berechnung der Bildstreifensignale erfolgt vorzugsweise adaptiv, d. h. in Abhängigkeit von der Position eines Betrachters vor dem Bildschirm, wozu insbesondere die jeweilige Anfangsposition der Bildstreifen 10 und 11 auf dem Bildschirm nach jeder Bewegung neu und genau ermittelt werden muss. Die Bildstreifensignale werden im Block 9 außerdem verkämmt bzw. gemultiplext, so dass sich die zugehörigen BiId- streifen 10, 11 entsprechend Fig. 1 in Zeilenrichtung miteinander abwechseln, während sie in Spaltenrichtung (vertikal) z. B. durchgehend sind. Die die rechten und linken Bildstreifen 10, 11 repräsentierenden Signale werden schließlich über eine übliche Schnittstelle 12 dem mit dem Bildschirm 1 versehenen Monitor od. dgl. zugeführt.
Damit die Berechnung der Bildstreifensignale adaptiv erfolgen kann, ist dem Betrachter beispielsweise ein Eye-Tracker 14 zugeordnet, dessen Signale der Prozessoreinheit 3 und der die Blöcke 6 und 9 enthaltenden, nachfolgend insgesamt als Codiereinheit bezeichneten Einrichtung zugeführt werden. Außerdem kann das Wiedergabesystem der Fig. 1 in üblicher Weise mit einer 3D-Maus 15, einer Eingabesteuerung 16, einer 3D-Bibliothek 17 und ggf. einer Einstellvorrichtung 18 für personenspezifische Einstellungen versehen sein.
Fig. 2 zeigt in der obersten Reihe schematisch einige mit den Bezugszeichen R
(= rot), B (= grün) und B (= blau) bezeichnete Subpixel des Flachbildschirms 1 der Fig. 1, wobei je drei solcher Subpixel R, G, B und von links nach rechts in jedem Bildpixel stets dieselbe Reihenfolge, z. B. RGB-RGB usw. haben. Weiter zeigt Fig. 2, dass vor den den Bildschirm 1 repäsentierenden Subpixeln eine in Querschnitt dargestellte Linsenrasterscheibe 20 angeordnet ist, die eine Glasscheibe 21 und eine Mehrzahl von nebeneinander angeordneten, vertikal erstreckten Zylinderlinsen (z. B. einige 100) aufweist, die z. B. auf der dem Betrachter zugewandten Breitseite der Glasscheibe 21 angebracht sind, von denen jedoch Fig. 2 nur zwei Zylinderlinsen 22a und 22b zeigt. Schließlich zeigt Fig. 2 schematisch den optischen Strahlengang, ausgehend von je einem rechten bzw. linken Auge 23, 24 eines Betrachters.
Erfindungsgemäß ist die Linsenrasterscheibe 20 so dimensioniert und angeordnet, dass zumindest die in einem ausgewählten Bereich des Bildschirms 1 von den Subpixeln R, G und B erzeugten, rechten und linken Bildstreifen für den Betrachter überlappungsfrei bzw. disjunkt erscheinen und sich die Reihenfolge der Farben beim Übergang von einem rechten (linken) Subpixelstreifen zum jeweils vorhergehenden oder nachfolgen- den rechten (linken) Subpixelstreifen stets stetig fortsetzt. Dies ist z. B. aus Fig. 2 ersichtlich. Hier sind abwechselnd rechte bzw. linke, aus je sechs Subpixeln R, G und B gebildete Subpixelstreifen 25a, 25b bzw. 26a, 26b dargestellt, wobei der rechte Subpixelstreifen 25a links mit einem grünen Subpixel beginnt und rechts mit einem roten Subpixel endet, während der nächste rechte Subpixelstreifen 25b links ebenfalls mit einem grünen Subpixel beginnt und rechts mit einem roten Subpixel endet, so dass - über beide Subpixelstreifen betrachtet - von links nach rechts durchgehend stetig die Farbreihenfolge G, B, R usw. erhalten wird. Entsprechend ergibt sich für die linken Subpixelstreifen 26a, 26b durchgehend die Farbreihenfolge GBR, GBR usw. , wiederum von links nach rechts betrachtet.
Wenn die Zahl der nebeneinander liegenden Subpixel sowohl in den rechten als auch in den linken Subpixelstreifen 25, 26 in Fig. 2 einem ganzzahligen Vielfachen der Farbenzahl bzw. einem ganzzahligen Vielfachen einer Bildpixelbreite entspricht und die Subpixelstreifen 25, 26 ohne Zwischenräume aneinander grenzen, dann sind die rechten (linken) Subpixelstreifen 25, 26 automatisch so voneinander beabstandet, dass die Zwischenräume bzw. Sichtsprünge zwischen einem seitlichen Ende (z. B. 26c in Fig. 2) eines rechten (linken) Subpixelstreifens und einem zugewandten seitlichen Ende (z. B. 26d) in Fig. 2 von einem in Zeilenrichtung vorhergehenden und/oder nachfolgenden rechten (linken) Subpixelstreifen genau einem ganzzahligen Vielfachen eines Bildpixels (bzw. der vorhandenen Anzahl der Pixelfarben) entspricht. Als nachteilig könnte dabei allerdings empfunden werden, dass die rechten und linken Subpixelstreifen jeweils unmittelbar aneinander grenzen, was bei ungenauer Positionierung der Rasterscheibe 20 und bei geringen Bewegungen des Betrachters zu Bildstörungen führen könnte. Daher wird in Weiterbildung der Erfindung vorgeschlagen, zwischen den Subpixelstreifen 25, 26 weitere Subpixel R, G bzw. B vorzusehen. Dies ist in Fig. 2 dadurch sichtbar gemacht, dass zwischen den Subpixelstreifen 25a und 26a bzw. 26a und 25b bzw. 25b und 26b jeweils drei weitere Subpixel 27a, 27b bzw. 27c angeordnet sind. Diese weiteren Subpixel 27 dienen einerseits der besseren räumlichen Trennung der Subpixelstreifen 25, 26 und ermöglichen andererseits begrenzte Kopfbewegungen eines Betrachters, wie weiter unten näher erläutert ist, ohne dadurch Bildstörungen zu verursachen. Letzteres gilt insbesondere dann, wenn die Zahl der weiteren Subpixel 27 vorzugsweise einem ganzzahligen Vielfachen der Bildpixelbreite bzw. der vorhandenen Pixelfarben (hier drei) entspricht.
Weiter zeigt Fig. 2, dass die Codiereinheit 6, 9 so steuerbar und die Rasterscheibe 20 so dimensioniert und angeordnet ist, dass zumindest diejenigen rechten und linken Bildstreifen, z. B. 28 und 29, die in einem ausgewählten Bereich des Bildschirms 1 (z. B. in dessen linker Hälfte) erzeugt werden, vom Betrachter überlappungsfrei gesehen werden. Dabei ist klar, dass in Fig. 2 die rechten Bildstreifen 28 durch die rechten Subpixelstreifen 25 und die linken Bildstreifen 29 durch die linken Subpixel- streifen 26 erzeugt werden und alle rechten bzw. linken Bildstreifen 28 und 29, von denen in Fig. 2 nur zwei gezeigt sind, durch die Rasterscheibe 20 zu einem das räumliche Sehen ermöglichenden rechten bzw. linken Bild für das rechte bzw. linke Auge 23, 24 zusammengefasst werden, wobei durch die Rasterscheibe 20 eine der vorhergehenden Stauchung in dem Block 6 (Fig. 1) entsprechende Streckung der Bilder erfolgt.
Zwischen der Rasterscheibe 20 und dem Bildschirm 1 kann eine Schutzfolge 30 (Fig. 2) angeordnet sein.
Zur Verbesserung der Auflösung, die durch die Stauchung der Bilder auf etwa ein Dritter ihrer Breite (in Zeilenrichtung) stark reduziert ist, können die Bildpunkte z. B. im Block 6 (Fig. 1) der mehrfach genannten HR-Filterung unterzogen werden. Dabei wird in einem ersten Schritt ein Helligkeitsfilter mit einer Mehrzahl von Koeffizienten derart angewendet, dass ein gleichbleibender Grauwert im Originalbild einen entsprechenden mittleren Grauwert im Zielbild liefert. Mit anderen Worten werden die Helligkeitswerte Y = (G + B + R)/3 von drei nebeneinander liegenden Bildpixeln des Originals in einer von den Filterkoeffizienten abhängigen Weise auf die drei Subpixel eines zugeordneten Bildpixels auf dem Bildschirm verteilt.
In einem zweiten Schritt wird die Farbinformation mit einer reduzierten örtlichen Auflösung hinzugefügt. Dies erfolgt dadurch, die Farbdifferenzwerte DG = G - Y, DB = B - Y und DR = R - Y mit einem ebenfalls eine Mehrzahl von Koeffizienten aufweisenden Farbfilter behandelt und dann in den gestauchten Bildern den Helligkeitswerten Y = (G + B + R)/3 hinzuaddiert werden. Für die rechten und linken Bilder werden zweckmäßig dieselben Operationen durchgeführt.
Verfahren und Vorrichtungen der beschriebenen Art sind bekannt. Insoweit wird insbesondere auf das Dokument PCT WO 2004/081863 A2 verwiesen, das hiermit zur Vermeidung von Wiederholungen zum Gegenstand der vorliegenden Offenbarung gemacht wird.
Fig. 3 zeigt schematisch die Erzeugung einer 3D-Darstellung auf dem Bildschirm, von dem hier nur die Linsenrasterscheibe 20 dargestellt ist. In der obersten Reihe der Fig. 3 sind zwei Perspektiven Pl, P2 eines einfachen, quaderförmigen Gegenstandes dargestellt, wobei klar ist, dass bei Multi- View-Darstellungen auch mehr als zwei Perspektiven Pl, P2 .... Pi vorhanden sein können. Die einzelnen Quader sind jeweils durch Flächen 31, 32, 33 usw. begrenzt.
In der zweiten Reihe der Fig. 3 sind die aus den Perspektiven Pl und P2 erhaltenen, gestauchten Perspektiven PSl und PS2 und weitere gestauchte, z. B. aus Perspektiven P3 und P4 erhaltene Perspektiven PS3 und PS4 dargestellt.
In der dritten Reihe der Fig. 3 sind schließlich schematisch die auf den Bildschirm kopierten Subpixelstreifen angedeutet.
In Fig. 3 ist vorausgesetzt, dass die einzelnen Flächen überall gleiche Färb- und Helligkeitswerte aufweisen, d. h. z. B. die Fläche 31 durchgehend den Wert Yl = (Gl, Bl, Rl), die Fläche 32 durchgehend den Wert Y2 = (G2, B2, R2) und die Fläche 33 durchgehend den Wert Y3 = (G3, B3, R3) besitzt. Für die anderen Perspektiven P2 .... Pi gilt im Beispiel sinngemäß dasselbe.
Ein Ausschnitt der Fläche 32 ist auch in Fig. 4 dargestellt. Dabei ist für einen besonders einfachen Fall zusätzlich angenommen, dass die Fläche 32 mit einem schräg verlaufenden, grauen oder weißen, durch parallele und gerade Seitenkanten begrenzten Streifen 34 von der Breite eines Bildpixels versehen ist. Bei der herkömmlichen Bildverarbeitung, die auf der Basis von Bildpixeln arbeitet, hat das zur Folge, dass auf dem Bildschirm alle längs des Streifens 34 angeordneten, in Fig. 4 übereinander liegenden neun Bildpixel grau dargestellt werden. Die sich dadurch ergebende Darstellung ist im Bild Al der Fig. 4 in der gestauchten, durch die Ansteuerang der Bildschirmpixel erhaltenen Anordnung und im Bild A2 der Fig. 4 durch diejenige Anordnung gezeigt, die sich bei der Betrachtung des Bildes Al durch die Linsenraster- scheibe hindurch ergibt, durch die eine in Zeilenrichtung gedehnte Darstellung erhalten wird. Daraus ist ersichtlich, dass die neun in Fig. 4 dargestellten Bildpixel im sichtbaren Bild A2 zu einem stark ausgeprägten, treppenstufenförmigen Verlauf des Streifens 34 zwischen zwei beispielhaft eingezeichneten, übertrieben dick dargestellten Begrenzungslinien 34a und 34b führen. Dadurch sind die ursprünglich geraden Seitenkanten des Streifens 34 stark verzerrt. Eine feinere Auflösung ist hier nicht möglich.
Demgegenüber wird erfindungsgemäß vorgeschlagen, die Bilder, insbesondere die gestauchten Bilder vektoriell abzuspeichern. Bei dieser Art der Speicherung werden nur die die Eckpunkte von Polygonflächen abgespeichert, wobei die Polygonflächen 0 durch gedachte, die Eckpunkte verbindende Polygonlinien begrenzt sind. Innerhalb einer Polygonfläche ist dabei stets dieselbe Farbe (G, B, R) vorhanden. Dadurch ergeben sich für die Fläche 32 zwei nicht dargestellte Eckpunkte, zwischen denen eine den Streifen 34 markierende Polygonlinie 35 verläuft, die auch als Kante aufgefasst werden kann, längs der sich die Werte G, B, R entsprechend dem darzustellenden 5 Streifen 34 ändern. Die Berechnung der Polygonlinien 35 erfolgt über die Software, und zwar vorzugsweise nicht anhand der Perspektiven, sondern anhand der Flächen, die sich nach der Projektion der Perspektiven auf die Bildschirmebene ergeben, unter Anwendung einer geeigneten Grafikkarte.
0 Erfindungsgemäß wird weiter vorgesehen, dem Streifen 34 nicht wie in Al, A2 die . von der Polygonlinie 35 getroffenen bzw. durchlaufenen Bildpixel, sondern nur die von der Polygonlinie 35 durchlaufenen Subpixel zuzuordnen. Dabei ist zur Vereinfachung der Beschreibung in Fig. 4, Bild Bl angenommen, dass die Polygonlinie 35 jeweils ein Subpixel 36, 37, 38 .... 39 durchläuft, wobei das Subpixel 36 grün, das 5 Subpixel 37 rot, das Subpixel 38 blau und das Subpixel 39 ebenfalls blau ist, was an der unterschiedlichen Schattierung der einzelnen Subpixel erkennbar ist. Es werden daher zunächst die Subpixel 36 .... 39 berechnet, die auf der Polygonlinie 35 liegen. Dabei zeigt das Bild Bl wie das Bild Al die Verhältnisse am Bildschirm und das Bild B2 wie das Bild A2 die Verhältnisse bei Betrachtung durch die Zylinderlinse. 0
Da der Streifen 34 grau oder auch weiß mit G = B = R dargestellt werden soll, wird erfindungsgemäß jedem von der Polygonlinie 35 durchlaufenden Subpixel 36 .... 39 je eine Umgebungszone zugeordnet, die das durchlaufene Subpixel und in einer engen Umgebung unmittelbar benachbarte Subpixel enthält. Im Bild Bl von Fig. 4 wird die Umgebungszone des Subpixels 36 insgesamt durch ein links von der Polygonlinie 35 liegendes, rotes Subpixel 40, das Subpixel 36 und ein rechts von der Polygonlinie 35 liegendes, blaues Subpixel 41 gebildet. Entsprechend wird in den anderen Zeilen vorgegangen, so dass das blaue Subpixel 39, ein links daneben liegendes grünes Subpixel 42 und ein rechts daneben liegendes rotes Subpixel 43 eine dem Subpixel 39 zugeordnete Umgebungszone bilden. .
Schließlich wird softwaremäßig festgelegt, dass die erläuterten Umgebungszonen nach einem vorgegebenen, von den Helligkeits- und/oder Farbwerten beidseitig der Polygonlinie 35 abhängigen Subpixelmuster angesteuert werden. Im Ausführungsbeispiel soll der Streifen 34 z. B. grau sein. Daher wird den Subpixeln 40 und 41 derselbe Farbwert wie dem Subpixel 36 und den Subpixeln 42, 43 derselbe Farbwert wie dem Subpixel 39 gegeben. Längs des gesamten Streifens 34 haben daher jeweils die von der Polygonlinie 35 durchlaufenen und die beiden Nachbar-Subpixel dieselben Farbwerte G = B = R.
Bei der beschriebenen Vorgehensweise ist es lediglich erforderlich, für jeweils ein grünes, rotes und blaues Subpixel 36, 37, 38 die Umgebungszonen und die diesen zugeordneten Subpixelmuster auszurechnen. Dieselben Subpixelmuster werden dann längs des gesamten Streifens 34 wiederholt. Die einmal ermittelten Subpixelmuster können außerdem gespeichert und und an anderen Stellen im Bild wieder verwendet werden, wo es erforderlich oder erwünscht ist. Soll im Streifen 34 überall G = B = R gelten, dann genügt im Prinzip auch die Ermittlung einer einzigen Umgebungszone und eines zugehörigen Subpixelmusters. In jedem Fall wird die Rechenzeit für den Bereich des Streifens 34 erheblich reduziert.
Das Ergebnis der beschriebenen Verfahrensweise zeigt das Bild B2 in Fig. 4, wobei allerdings die unterste Zeile abweichend vom Bild Bl ein RGB-Bildpixel ist und das Bildpixel 39, 42, 43 aus Bl die zweite Zeile von unten in B2 bildet. Nach der Verbreiterung des gestauchten Bildes Bl durch die Linsenrasterscheibe (Bild B2) werden längs des Streifens 34 neun, in Spaltenrichtung aufeinander folgende, aus je drei Subpixeln bestehende Bildpixel erhalten. In diesen gilt jeweils G = B = R, wobei die Reihenfolge der Farben in jedem Bildpixel abweichend von den Bildern Al, A2 jeweils von links nach rechts und von Zeile zu Zeile wechselt (z. B. unterste Zeile R, G und B, in der nächsten Zeile dagegen G, B und R usw. in B2). Insbesondere zeigt Bild B2 im Vergleich zu Bild A2, dass der treppenstufenförmige Verlauf längs Begrenzungslinien 44a und 44b im Bild B2 wesentlich weniger stark ausgeprägt und die Auflösung daher verbessert ist.
Alternativ wäre es möglich, den Streifen 34 farbig auszubilden, in welchem Fall mittels des Subpixelmusters vorgegeben wird, dass die Subpixel entsprechend unterschiedliche G-, B- und R- Werte haben.
Soll ein scharfkantiger Übergang zwischen zwei farbigen Flächen vorgesehen werden, wie in Fig. 5 für zwei Flächen mit den Farben Fl = (Gl, Bl, Rl) und F2 = (G2, B2, R2) dargestellt ist, wird erfindungsgemäß analog zu Fig. 4 vorgegangen. Es wird zunächst aus den Vektordaten eine den Farbübergang anzeigende Polygonlinie 46 ermittelt. Danach werden von der Polygonlinie 46 durchlaufene bzw. auf ihr liegende
Subpixel berechnet, die hier durch die Bezugszeichen 46, 48, 49 50 angegeben sind. Je nach Fall handelt es sich dabei um ein grünes, blaues oder rotes Subpixel.
Es wird nun jedem durchlaufenen Subpixel 47 bis 50 eine Umgebungszone aus mehreren, hier in einer Zeile unmittelbar benachbarten Subpixeln zugeordnet. Im Beispiel werden dem Subpixel 50 zwei unmittelbar links folgende Subpixel 51, 52 sowie drei unmittelbar rechts folgende Subpixel 53, 54 und 55 zugeordnet, und diese Subpixel 50 bis 55 bilden die Umgebungszone. Schließlich werden die in dieser Umgebungszone liegenden Subpixel 50 bis 55 entsprechend einem vorgegebenen, in Abhängigkeit von den Helligkeits- und/oder Farbwerten beidseitig der Polygonlinie 46 festgelegten Subpixelmuster angesteuert. Das bedeutet in Fig. 5, dass z. B. die links ■ von Polygonlinie 46 liegenden Subpixel 51, 52 und das getroffene Subpixel 50 in der Farbe der Fläche Fl dargestellt werden, d. h. die Subpixel 50 bis 52 erhalten die Werte Gl, Bl und Rl. Dagegen werden die Subpixel 53 bis 55 mit den Werten der rechten Fläche F2, d. h. mit G2, B2 und R2 angesteuert. Alternativ wäre es aber auch möglich, die Subpixel 51, 53 und 54 entsprechend der Farbe/Helligkeit der Fläche F2 und die Subpixel 51, 52 und ein weiteres Subpixel entsprechend der Farbe/Helligkeit der Fläche Fl anzusteuern. Auch hier ergibt sich, dass der Übergangsbereich zwischen den Flächen Fl und F2 viel feiner abgestuft ist, als wenn die Trennung auf der Basis von Bildpixeln vorgenommen würde.
Eine weitere Möglichkeit für den Fall der Fig. 5 wäre, mittels des Subpixelmusters für die Subpixel 50 bis 52 die Werte G3 = B3 = R3 so festzulegen, dass sich insgesamt dieselbe Helligkeit Y = (G3 -I- B3 + R3)/3 wie in der Fläche Fl ergibt, und entsprechend für die Subpixel 53 bis 55 vorzugehen. In diesem Fall würde zwischen den Flächen Fl, F2 ein kaum sichtbarer, grauer Streifen erzeugt.
Im übrigen zeigt Fig. 5, dass längs der Polygonlinie 46 grüne, blaue und rote Subpixel aufeinander folgen und daher für jede Farbe je ein Subpixelmuster erforderlich ist.
Die im Einzelfall anzuwendenden Subpixelmuster sind weitgehend frei wählbar und in Abhängigkeit von den jeweiligen Farben/Helligkeiten festzulegen. Außerdem ist es möglich, die Umgebungszonen nicht aus drei (Fig. 4) oder sechs (Fig. 5) Subpixeln, sondern aus einer anderen Anzahl von Subpixeln zu bilden, was auch Umgebungszonen einschließt, die sich über mehr als eine Bildschirmzeile erstrecken. Zweckmäßig sollten jedoch alle Umgebungszonen insgesamt jeweils gleich viele grüne, blaue und rote Subpixel enthalten.
In komplexeren Fällen kann es erwünscht sein, die als brauchbar erwiesene HR- Filterung anzuwenden, insbesondere wenn dies in Echtzeit möglich ist. In diesem Fall könnte entsprechend Fig. 6 vorgesehen sein, einer Mehrzahl von in Spaltenrichtung aufeinander folgenden Subpixeln, die sämtlich von einer Polygonlinie 56 durchlaufen werden, eine vergleichsweise große Umgebungszone 57 zuzuordnen, auf alle in dieser Umgebungszone 57 liegenden Subpixel eine HR-Filterung anzuwenden und diese HR- Filterung in entsprechenden, längs der Polygonlinie 56 aufeinander folgenden Umgebungszonen 57a, 57b, 57c usw. zu wiederholen. Auch in diesem Fall könnte das in der Umgebungszone 57 vorgesehene, hier als HR-Filterung ausgeführte Subpixelmu- ster abgespeichert und damit auf einfache Weise auf die Umgebungszonen 57a bis 57c übertragen werden, wodurch erhebliche Rechenzeiten eingespart und das Erreichen der Echtzeitfähigkeit zumindest erleichert würde.
Aus allen beschriebenen Fällen ergibt sich, dass die Grundidee der vorliegenden Erfindung darin besteht, nur schmale Umgebungszonen der Polygonlinien 35, 46, 56 auf Subpixelebene zu generieren und dadurch die Auflösung in diesen Umgebungszonen zu vergrößern.
Mit der HR-Filterung durchgeführte Berechnungen und Versuche haben gezeigt, dass die anhand der Fig. 4 und 5 beschriebenen Subpixelmuster in den angegebenen Bereichen eine gute bzw. sehr gute Approximation der HR-Filterung darstellen. Außerdem hat sich ergeben, dass eine HR-Filterung in den von Polygonlinien umgrenzten Flächen (z. B. Fl und F2) keine Vorteile mit sich bringt. Daher ist es erfmdungsgemäß möglich, in entsprechender Anwendung des sog. Renderns die in Fig. 3 dargestellten Perspektiven dadurch zu generieren, dass entsprechend Fig. 7 von Polygonlinien 61, 62, 63, 64 umgrenzte Flächenbereiche der Perspektiven (z. B. 65 von PSl in Fig. 7) unverändert gelassen werden, während im Bereich der Übergänge bzw. Kanten, an denen die Polygonlinien 61 bis 64 liegen, die oben beschriebene, subpixelgenaue Anpassung erfolgt, wie in Fig. 7 durch die Ansichten PUl bis PU4 mit Übergangsbereichen 66 bis 69 usw. angedeutet ist. Die Gesamtbilder bzw. Gesamtperspektiven PSUl bis PSU4 (Fig. 7) ergeben sich dann durch Zusammenführen der Polygonflächen (z. B. 65) und der Übergangsbereiche (z. B. 66 bis 69).
Auf die beschriebene Weise können unter erheblicher Einsparung an Rechenzeit und damit in Echtzeit autostereoskopische 3D-Darstellungen realisiert werden, die trotz der beschriebenen Vereinfachungen eine hohe Qualität hinsichtlich Auflösung und; Farbe haben.
Eine Hardwareanordnung, die dazu in der Lage ist, die Helligkeitssignale Y und die Farbdifferenzsignale DG, DB und DR in Echtzeit zu erzeugen, ist schematisch in Fig. 8 anhand eines Ablaufdiagramms zur HR-3D-Subpixelfϊlterung gezeigt. Dagegen zeigt Fig. 9 schematisch und beispielhaft, wie zur HD-3D-Subpixelfilterung (HR- Filterung) mittels je eines dazu verwendeten Luminanzfilters hL und eines Chrominanzfilters hc Färb- und Helligkeitswerte auf die umgebenden Subpixel verteilt werden können.
Bei einem Echtzeitfilter wird aus den roten, grünen und blauen Umgebungspixeln des Urbildes R(n-i, m-k), G(n-i, m-k), B(n-i, m-k) das Ziel-Subpixel S(n,m) gebildet - über die Filter-Koeffizienten HL(i,k) und HC(i,k), für die Luminanz bzw. Chrominanzdifferenz.
Im folgenden wird ein konkretes Beispiel eine HR-Filterung ausgeführt, die sich für eine Stereo Bild-Erzeugung mit einem DELL-Laptop M60 mit senkrechter Linsenra- sterscheibe und 1920 • 1200 TFT-Pixeln eignet.
Parameter:
Senkrechte Linsen, Lenspitch = 12 SP, SPSeen = 3 SP, 2 x 1/4 is seen (right and left), SPJump = 9; gestauchte Bilder (rechts und links) von 1920 auf 1920/4*3 = 1440 • 1200; Format Y = int{R + G + B)/3}, DR = Y - R, DB = Y - B. . '
Die Angaben bedeuten insbesondere, dass sich hier eine Linse der Linsenrasterscheibe über zwölf Subpixel des Bildschirms erstreckt, pro Linse jeweils drei Subpixel des rechten und linken Bildes gleichzeitig gesehen werden und der Sprung vom Ende eines rechten Bildstreifens zum Anfang des nächsten rechten Bildstreifens neun Subpixel beträgt. Von diesen bilden drei Subpixel einen dazwischen liegenden (verkämmten) Bildstreifen für das linke Bild, wohingegen die übrigen sechs Subpixel als Reserve dienen und geringfügige Kopfbewegungen nach rechts bzw. links ermöglichen (vgl. PCT WO 2004/081863 A2). Dabei werden von den sechs Subpixeln pro Bildstreifen immer nur drei durch eine Linse gesehen. Folglich muss unter der nächsten Linse eine Wiederholung der letzten drei Subpixel der vorhergehenden Linse vorgenommen werden, während die nächsen drei Subpixel der jeweiligen Quelle neu entnommen werden. Außerdem wird eine Stauchung von 1920 Bildpixeln auf ein Viertel, d. h. 440 Bildpixel vorgenommen, die je drei Subpixel, d. h. insgesamt 1440 Subpixel enthalten.
Als Helligkeitsfilter wird der in der nachfolgenden Tabelle beispielhaft angegebene Filter verwendet, der sich über drei Zeilen und sieben (horizontal benachbarte) Subpixel erstreckt. Dabei gehören die Koeffizienten in den Spalten H1 _3, H1 -0 und H1 _3 jeweils zur Farbe 1, die Koeffizienten H1 -2 und Hu zur Farbe 2 und die Koeffizienten H;.2 und H; 2 zur Farbe 3.
Tabelle 1
# Hir2 Hi,-! Hj1-O Hu Hil2 Hi,3
I = -1 -0 .7/12 0 .4/12 0 .6/12 -1/12 0 .6/12 0 .4/12 -0 .7/12
I = 0 -1 .6/12 0 .8/12 1 .2/12 12/12 1 .2/12 0 .8/12 -1 .6/12
I = 1 -0 .7/12 0 .4/12 0 .6/12 -1/12 0 .6/12 0 .4/12 -0 .7/12
Die Summe der Koeffizienten, die zu den Subpixeln gleicher Farbe gehören, beträgt 1/3 (z. B. gilt für die Farbe 1 hier 2 x (-0,7/12 - 1,6/12 - 0,7/12) - 1/12 + 12/12 - 1/12 = 1/3. Die Gesamtsumme aller Koeffizienten ist gleich 1.
Der Filter wird in der Weise angewendet, dass die Koeffizienten in einem ersten Schritt mit den G-, B- bzw. R-Werten von sieben benachbarten Subpixeln des rechten oder linken Originalbildes multipliziert und einem ersten Subpixel eines zugeordneten Bildpixels des Bildschirms hinzuaddiert werden, und zwar für drei übereinander liegenden Zeilen des Originals. In einem zweiten Schritt wird der Filter in der Weise verschoben, dass die Koeffizienten jetzt auf sieben Subpixeln des Originals angewendet werden, die zu den im ersten Schritt verwendeten Subpixeln in Zeilenrichtung um genau drei versetzt sind. Die erhaltene Summe wird dem zweiten Subpixel des bereits im ersten Schritt verwendeten Bildpixels des Bildschirms hinzugefügt. Im dritten Schritt erfolgt wiederum ein Versatz um drei Subpixel im Original und ein Versatz um ein Subpixel des Zielbildes. Da die Koeffizienten für die drei Farben jeweils in der Summe ein Drittel betragen, wird auf diese Weise die Helligkeitsinformation von drei Bildpixeln bzw. neun Subpixeln des Originals, als Grauwert auf das betreffende eine Bildpixel des Zielpixels übertragen, bei dem für diese Werte G = B = R gilt. Diese Art der Filterung wird über das gesamte Original fortgesetzt.
Der verwendete, in der nachfolgenden Tabelle 2 beispielhaft angegebene Farbfilter erstreckt sich ebenfalls über drei Zeilen und sieben horizontal benachbarte Subpixel. Die Gesamtsumme aller Koeffizienten ist gleich 1. Im Gegensatz zur Helligkeitsfilterung werden die Koeffizienten C1 -3 bis Q3 in einem ersten Schritt auf die Farbe 1 (z. B. G) von sieben benachbarten Bildpixeln des Original angewendet, wobei die erhaltene Summe einem zugeordneten Subpixel derselben Farbe 1 auf dem Bildschirm zugeordnet wird. In weiteren Schritten werden die übrigen Farbinformationen des Originals auf zugeordnete Zielpixel verteilt.
Tabelle 2
Figure imgf000019_0001
ie angegebenen Koeffizienten sind jeweils mit 1/36 zu multiplizieren, so dass sich ie Gesamtsumme zu 36/36 = 1 errechnet.
Die Filteroperation kann durch folgende Formel ausgedrückt werden.
Sei DC(n,m,0) = DR(n,m), DC(n,m,l) = DG(n,m) und DC(n,m,2) = DB(n,m).
Die Anzahl der Subpixel ist für jedes gefilterte Bild (rechts, links) für den DELL- Laptop M60, wie oben angegeben, NSP = 1920/4*3 = 1440. Das gefilterte Bild besteht dann aus NSP/3 = NP = 480 Pixel.
Zeilen und Spalten können beim Filtern modulo operieren, d. h. (i)mod(1200), (k)mod(1440). Mit (n)mod(M) = n -M*int(n/M).
Für n = 0 bis 1200-1, m = 0 bis 1440-1 gilt dann
SP(n, m) = ∑ Y1 [Y (n -i, m -k)- FL(i, k) + DC(n -i,m - k, (m) mod(3)) FC(i, k)]
Ist man bereit, im Ergebnisbild Subpixel-Sprünge in Kauf zu nehmen, so kann die Stauchoperation beim Filtern ohne Zusatzaufwand mit durchgeführt werden durch folgende Umnummerierung:
Figure imgf000020_0001
mit f(n-i) = int[(n-i) • 4/3]
und
f(m-k) = int[(m-k) • 4/3]. Weitere Einzelheiten lassen sich PCT WO 2004/081863 A2 entnehmen.
Dieselben Filterkoeffizienten können bei schräger Anordnung der Zylinderlinsen vor dem Bildschirm angewendet werden (vgl. hierzu PCT WO 2004/081863 A2, Fig. 9). Dabei können die Linsen z. B. mit einem Versatz von einem Bildpixel auf sechs (oder zwölf) Zeilen angeordnet sein, woraus sich ein Versatz LSL = 1/6 bzw. = 1/12 ergibt. Für LSL = 1/6 gilt außerdem
SPPitch = 12 sqr(l + l/62) = 12,6553; SPSprung = 12; SP(gesehen) = SPPitch - SPSprung,
während für LSL = 1/12 gelten würde SPPitch = 12,0416.
Die Erfindung ist nicht auf die beschriebenen Ausführungsbeispiele beschränkt, die auf vielfache Weise abgewandelt werden können. Dies gilt zunächst für die beispielhaft beschriebene Art der Verkämmung, die Zahl der Subpixel pro Bildstreifen sowie die Art und die Geometrie der Rasterscheibe und des Bildschirms. Weiter ist klar, dass es auch Fälle geben kann, in denen die Bildpunkte nicht aus drei, sondern aus z. B. zwei oder mehr als drei unterschiedlich farbigen Subpixeln gebildet werden und/oder die Subpixel innerhalb der Bildpixel nicht zeilenweise nebeneinander, sondern zumindest teilweise auch übereinander angeordnet sind. Die Zuordnungen und Subpixelmuster müssen dann entsprechend angepasst werden. Außerdem läßt sich die Erfindung natürlich auch bei anderen Bildschirmen, insbesondere bei Plasma-Bildschirmen anwenden, die eine digitale und subpixelgenaue Ansteuerung ermöglichen. Auch die im Rahmen der HR-Filterung beschriebene Zuordnung der für die Helligkeits- und Farbsteuerung verwendeten Subpixel bzw. deren Verteilung auf benachbarte Subpixel oder innerhalb der Umgebungszonen kann geändert und den speziellen Bedürfnissen angepasst werden. Weiterhin ist die Zahl der vorgesehenen Perspektiven bzw. Standorte, von denen aus die 3D-Darstellungen betrachtet werden können, in weiten Grenzen variabel. Ferner können die Subpixelmuster, die in den beschriebenen Umgebungszonen angewendet werden, in vielfacher Weise variiert und an die im Einzelfall vorliegenden Verhältnisse angepasst werden. Dabei ist es im Prinzip gleichgültig, während welcher Verfahrensstufe der Bildübertragung die Subpixelmuster gebildet und den Umgebungszonen zugeordnet werden. Insbesondere wäre es möglich, zur Auffüllung der Umgebungszonen aus bereits gespeicherten Subpixelmustern diejenigen auszuwählen, die dem gewünschten Muster ähnlich sind oder möglichst nahekommen. Hierdurch ließe sich die Zahl der Subpixelmuster, die zur Erfassung aller denkbaren Fälle gespeichert werden müssen, wesentlich reduzieren. Schließlich versteht sich, dass die verschiedenen Merkmale auch in anderen als den beschriebenen und dargestellten Kombinationen angewendet werden können.

Claims

Ansprüche
1. Verfahren zur autostereoskopischen Wiedergabe von 3D-Darstellungen mit einem Bildschirm (1), der eine Vielzahl von in Zeilen und Spalten angeordneten Bildpixeln enthält, die je eine vorgegebene Anzahl von Subpixeln (G, B, R) unterschiedlicher Farben aufweisen, wobei die Subpixel (G, B, R) derart verkämmt angesteuert werden, dass in jeder Zeile des Bildschirms (1) abwechselnd aufeinander folgende Subpixel- > streifen (25, 26) entstehen, die wenigstens zwei Bildstreifen (28, 29) für unterschiedliche Betrachtungsrichtungen erzeugen, und mit einer vor dem Bildschirm (1) angeordneten Rasterscheibe (20) zum Zusammenfassen der Bildstreifen (28, 29) zu rechten und linken Bildern, dadurch gekennzeichnet, dass die zur Erzeugung der 3D-Dar- Stellungen erforderlichen Daten in 3D-Vektorform anhand von Eckpunkten gespeichert werden, die durch Polygonlinien (35, 46, 56) verbindbar sind, dass in Bereichen der Subpixelstreifen (25, 26), die von einer Polygonlinie (35, 46, 50) durchlaufen werden, zumindest ausgewählten der durchlaufenen Subpixel (36 bis 39, 47 bis 50) je eine Umgebungszone zugeordnet wird, die das durchlaufene Subpixel (z. B. 36) und unmittelbar benachbarte Subpixel (z. B. 40, 41) enthält, und dass die in dieser Umgebungszone befindlichen Subpixel (z. B. 36, 40, 41) dann entsprechend einem von den Helligkeits- und/oder Farbwerten beidseitig der Polygonlinie (35, 46, 56) abhängigen Subpixelmuster angesteuert werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in dem Fall, dass die Polygonlinie (35) längs eines Subpixelstreifens (34) in einer einfarbigen Fläche (32) des Bildes verläuft, das Subpixelmuster durch die Vorschrift gegeben ist, dass das jeweils von der Polygonlinie (35) durchlaufene Subpixel (36 bis 39) des Streifens (34) und die beiden in derselben Zeile des Bildschirms unmittelbar rechts bzw. links daneben liegenden Subpixel (40, 41 bzw. 42, 43) jeweils mit demselben Farbwert derart angesteuert werden, dass längs der gesamten Polygonlinie (35) in jeder Zeile des Streifens (34) G = B = R gilt.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in dem Fall, dass die Polygonlinie (46) längs einer Kante verläuft, die den Übergang von zwei unterschiedlichen Farbfiächen (Fl, F2) bildet, das Subpixelmuster durch die Vorschrift gegeben ist, dass die jeweils von der Polygonlinie (46) durchlaufenen Subpixel (47 bis 50) und in einer der beiden Farbflächen (Fl, F2) unmittelbar daneben liegende Subpixel (51, 52) mit der Farbe und Helligkeit dieser Farbfläche (Fl) dargestellt werden, während Subpixel (53 bis 55), die in der anderen Farbfläche (F2) und in derselben Zeile ebenfalls unmittelbar neben den von der Polygonlinie (46) durchlaufenen Subpixeln (50) liegen, mit der Farbe und Helligkeit der anderen Farbfläche (F2) dargestellt werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Zahl der mit der Farbe und Helligkeit der einen oder anderen Farbfläche (Fl, F2) dargestellten Subpixel (50 bis 55) wenigstens drei beträgt.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Subpixelmuster durch wenigstens einen Filter gegeben ist, der eine vorgewählte Anzahl von je einem Subpixel in der Umgebungszone (57, 57a bis 57c) zugeordneten Koeffizienten aufweist.
6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass das Subpixelmuster bei allen oder wenigstens ausgewählten, entsprechend gebildeten und längs der gesamten Polygonlinie (35, 46, 56) aufeinander folgenden Umgebungszonen (z. B. 57, 57a bis 57c) angewendet wird.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass das Subpixelmuster durch je einen Helligkeits- und einen Farbdifferenzfilter gegeben ist.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die G-, B- und R- Werte außerhalb der Umgebungszonen (z. B. 57, 57a bis 57c) unverändert gelassen werden.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass sich die Subpixelmuster in Abhängigkeit davon unterscheiden, welche Farbe ein von der Polygonlinie durchlaufenes Subpixel aufweist.
10. Vorrichtung zur autostereoskopischen Wiedergabe von 3D-Darstellungen, dadurch gekennzeichnet, dass sie zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 9 eingerichtet ist.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Rasterscheibe eine Linsenrasterscheibe (22) ist.
12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass der Bildschirm (1) ein TFT-Bildschirm ist.
PCT/DE2006/001365 2005-08-02 2006-08-02 Verfahren und vorrichtung zur autostereoskopischen wiedergabe von 3d-darstellungen WO2007014557A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005036744A DE102005036744B4 (de) 2005-08-02 2005-08-02 Verfahren und Vorrichtung zur autostereoskopischen Wiedergabe von 3D-Darstellungen
DE102005036744.5 2005-08-02

Publications (1)

Publication Number Publication Date
WO2007014557A1 true WO2007014557A1 (de) 2007-02-08

Family

ID=37463548

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2006/001365 WO2007014557A1 (de) 2005-08-02 2006-08-02 Verfahren und vorrichtung zur autostereoskopischen wiedergabe von 3d-darstellungen

Country Status (2)

Country Link
DE (1) DE102005036744B4 (de)
WO (1) WO2007014557A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007043574A1 (de) 2007-09-13 2009-04-09 Hentschke, Siegbert, Prof. Dr.-Ing. Auto-Stereoskope Multi User 3D Fenster Technik für Flachbildschirme (ASMUW 3D)
CN101127207B (zh) * 2007-09-26 2010-06-02 北大方正集团有限公司 一种提高灰度字形显示质量的方法及装置
DE102012003789A1 (de) 2012-02-25 2013-08-29 3 D Graphics Gmbh Monitor zur stereoskopischen 3D-Bilddarstellung und zugehöriges Betriebsverfahren für eine wahrnehmungsgerechte Kodierung

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2358980A (en) * 2000-02-07 2001-08-08 British Broadcasting Corp Processing of images for 3D display.
EP1158813A2 (de) * 2000-05-23 2001-11-28 Sharp Kabushiki Kaisha Bildanzeigevorrichtung, Verfahren zur Bildanzeige und -aufnahme

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7061507B1 (en) * 2000-11-12 2006-06-13 Bitboys, Inc. Antialiasing method and apparatus for video applications
US7839430B2 (en) * 2003-03-12 2010-11-23 Siegbert Hentschke Autostereoscopic reproduction system for 3-D displays

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2358980A (en) * 2000-02-07 2001-08-08 British Broadcasting Corp Processing of images for 3D display.
EP1158813A2 (de) * 2000-05-23 2001-11-28 Sharp Kabushiki Kaisha Bildanzeigevorrichtung, Verfahren zur Bildanzeige und -aufnahme

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007043574A1 (de) 2007-09-13 2009-04-09 Hentschke, Siegbert, Prof. Dr.-Ing. Auto-Stereoskope Multi User 3D Fenster Technik für Flachbildschirme (ASMUW 3D)
CN101127207B (zh) * 2007-09-26 2010-06-02 北大方正集团有限公司 一种提高灰度字形显示质量的方法及装置
DE102012003789A1 (de) 2012-02-25 2013-08-29 3 D Graphics Gmbh Monitor zur stereoskopischen 3D-Bilddarstellung und zugehöriges Betriebsverfahren für eine wahrnehmungsgerechte Kodierung

Also Published As

Publication number Publication date
DE102005036744B4 (de) 2009-07-23
DE102005036744A1 (de) 2007-02-15

Similar Documents

Publication Publication Date Title
EP2472889B1 (de) Verfahren zur autosteroskopischen Darstellung von Bildinformationen mit einer Anpassung an Änderungen der Kopfposition des Betrachters
DE19827590C2 (de) Verfahren und Vorrichtung zur Autostereoskopie
EP1602243A2 (de) Autostereoskopisches wiedergabesystem für 3d darstellungen
DE10003326C2 (de) Verfahren und Anordnung zur räumlichen Darstellung
EP1820354B1 (de) Verfahren zur autostereoskopischen erzeugung von dreidimensionalen bildinformationen aus gerasterten subpixelausz]gen und anordnung zur verfahrensdurchf]hrung
DE10145133C1 (de) Verfahren zur räumlichen Darstellung
WO1998027451A1 (de) Verfahren und anordnung zur dreidimensionalen darstellung von information
EP2143282A1 (de) Verfahren und anordnung zur dreidimensionalen darstellung
DE102008062790A1 (de) Verfahren und Anordnung zur räumlichen Darstellung
EP3170307B1 (de) Verfahren zur darstellung einer dreidimensionalen szene auf einem autostereoskopischen monitor
DE20002149U1 (de) Anordnung zur räumlichen Darstellung einer Szene/eines Gegenstandes
DE102009013912A1 (de) Verfahren und Anordnung zur räumlichen Darstellung
WO2007014557A1 (de) Verfahren und vorrichtung zur autostereoskopischen wiedergabe von 3d-darstellungen
EP1535202A1 (de) Verfahren zur simulation von optischen bauteilen zur stereoskopischen erzeugung von r umlichen endr cken
DE102010018083B4 (de) Gleichzeitige Wiedergabe einer Mehrzahl von Bildern mittels einer zweidimensionalen Bilddarstellungs-Matrix
DE102006012059B3 (de) Verfahren zur autostereoskopischen Erzeugung von dreidimensionalen Bildinformationen aus gerasterten Subpixelauszügen mit Dunkeltastung von einzelnen Subpixeln.
WO2021008780A1 (de) Basisdisplay für eine autostereoskopische displayanordnung
DE102009022049B4 (de) Verfahren und Anordnung zur räumlichen Darstellung
DE19736035A1 (de) Anordnung und Verfahren zur dreidimensionalen Darstellung von Information
DE10046788B4 (de) Verfahren und Vorrichtung zur Erzeugung eines Kombinationsbildes aus in einem Datensatz gespeicherten Bildinformationen
DE102023209284A1 (de) Verfahren und Vorrichtung zum Wiedergeben eines dreidimensionalen Videobildsignals
DE10311389A1 (de) Positionsadaptives, autostereoskopes 3D-Wiedergabesystem (PARSC)
WO1998046004A2 (de) Verfahren zur verbesserung der bildauflösung bei farbbildwiedergabe- und farbbildaufnahmegeräten
WO1998046004A9 (de) Verfahren zur verbesserung der bildauflösung bei farbbildwiedergabe- und farbbildaufnahmegeräten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase

Ref document number: 06775804

Country of ref document: EP

Kind code of ref document: A1