Das InfoTip Kompendium

Ein kostenloser Service der InfoTip Service GmbH

Zum Anfang der
Seite scrollen

Grundlagen der 3D-Technik

Inhaltsverzeichnis

1. Einleitung

Seit die Menschheit versucht ihre Umwelt in Bildern oder Zeichnungen einzufangen, experimentieren Künstler diese Bilder oder Zeichnungen so zu gestalten, wie die Wirklichkeit ist: räumlich. Höhlenzeichnungen werden so angelegt, dass die Form der Felsen die Konturen des Bildes verstärken. Später versuchte man zweidimensionale Flächen wie Wände oder Decken durch Einbringen von perspektivischen Verzeichnungen optisch zu vergrößern. In der modernen Zeit, seit etwa 150 Jahren, experimentiert man mit immer aufwendiger technischer Finesse herum, um die große Welt im Kleinen räumlich, also dreidimensional (3D) darzustellen. Den Anfang machte 1838 Charles Wheatstone mit seinem Stereoscope. Das war noch vor der Erfindung der Fotografie (1839) durch Louis Draguerre. Seit dem lodert die 3D-Technik alle paar Jahre mal wieder heftig auf - um wieder in Vergessenheit zu geraten. Mit der neuesten Technologie ist sie wiedergekommen um zu bleiben. Denn mittlerweile hat die 3D-Technik sämtliche Medien durchdrungen. Spätestens mit James Cameron's Film "Avatar - Aufbruch nach Pandora" (2009) hat sich die 3D-Technik in der Filmindustrie fest etabliert. Prophezeiungen sagen voraus, dass es in wenigen Jahren fast nur noch 3D-Filme in den Kinos geben wird. Mit viel 3D-Quellmaterial sind natürlich die besten Voraussetzungen geschaffen, dass 3D auch ins Heimkino, also über TV oder Beamer,  Einzug halten kann. So stand die Internationale Funkausstellung 2010 in Berlin als erste CE-Messe ganz im Zeichen von 3D fürs Wohnzimmer.
Viele der heute eingesetzten 3D-Techniken sind schon über 100 Jahre alt, aber viele neue Verfahren befinden sich in der Entwicklung. Das Hauptziel ist dahin gerichtet, dass Displays und Projektionen ohne störende Brillen und von mehreren Personen gleichzeitig dreidimensionale Bilder liefern. Das Holodeck ist bald kein Science-Fiction mehr.

2. Die Physiologie des räumlichen Sehens

2.1. Die Anfänge

Der erste Wissenschaftler, der sich systematisch mit dem Phänomen des räumlichen Sehens beschäftigte, war der englische Physiker Sir Charles Wheatstone. Er entdeckte Anfang der 1830er Jahre, dass für ein räumliches Sehen zwei Augen notwendig sind. 1838 veröffentlichte er seine Arbeiten und stellte das Stereoscope (Abb.1 u. 2) vor. Dieses Gerät bestand aus einem Paar Spiegeln, die, rechtwinklig zueinander angeordnet, auf zwei seitlich angebrachte Wände gerichtet wurden. Der Beobachter schaute mit dem linken Auge in den linken, mit dem rechten Auge in den rechten Spiegel.

 Wheatstone's Stereoscope   Praktische Anwendung eines Stereoscopes
Abb. 1: Wheatstone's Stereoscope [1]   Abb. 2: Anwendung eines Stereoscopes [2]

Die Betrachtung von zwei ähnlichen Zeichnungen (Abb. 3) an den Wänden des Stereoscopes erzeugte eine Illusion der Tiefe.

Abb. 3: Bilderpaare
Abb. 3: Bilderpaare [3]

Die Analyse von Sehbehinderungen von Soldaten, die im 1. Weltkrieg Schussverletzungen am Gehirn erlitten hatten, lieferten den Medizinern erste wichtige Hinweise wo und wie das Sehen beim Menschen funktioniert. Erst Jahrzehnte später entschlüsselten die späteren Nobelpreisträger David Hubel und Torsten Wiesel wie der Visuelle Cortex im Gehirn das vom optischen Nerv gesendete Bild in Millionen von einzelnen Teilen zerlegt.

2.2. Der menschliche Sehapparat

Das vom Objekt reflektierte Licht wird zuerst an der Hornhaut, der fixen äußeren Linse des Auges, abgelenkt. Die pigmentdurchzogene Iris steuert durch die Größe ihrer Öffnung die Lichtmenge, die in das Auge eintritt (Adaption). Um die innere Linse herum ist ein ringförmiger Muskel,  der Ziliarmuskel, angeordnet, über dessen Spannung das Abbild des Objektes auf der Netzhaut (Retina) scharf gestellt wird.
Die Photonen des Bildes aktivieren in der Netzhaut liegende Fotorezeptoren. Anhand ihrer Form unterscheidet man zwei Typen von Fotorezeptoren. Die Zapfen reagieren auf farbiges Licht, während die Stäbchen auf Helligkeitsunterschiede reagieren. Die Empfindlichkeit des menschlichen Auges ist für farbiges Sehen sehr viel geringer als die für Hell und Dunkel.
Zwar ist der größte Teil der Netzhaut mit Sinneszellen bedeckt, das Scharfsehen entsteht beim Menschen jedoch auf nur 0,02 Prozent der Netzhautfläche, dem sogenannten Gelben Fleck.

Abb. 4: Der menschliche Sehapparat
Abb. 4: Der menschliche Sehapparat

Beim Betrachten eines Gegenstandes kommt ein konstantes und scharfes Bild erst dadurch zustande, dass die Augenmuskeln unbewusst nacheinander verschiedene Ausschnitte des Objektes auf einer Fläche von etwa 1,0° vor der Sehgrube, dem Zentrum des Gelben Flecks, abbilden. Das Auge ist so immer in kleinsten Bewegungen begriffen, indem ein Punkt für Sekundenbruchteile fixiert wird, um dann eine minimale, ruckartige Bewegung zum nächsten Punkt folgen zu lassen. Aus diesem Abtasten wird schließlich das Gesamtbild generiert.
Die Signale von den Zapfen und Stäbchen werden in den darüber liegenden Ganglienzellen weiterverarbeitet. Die faserförmigen Fortsätze (Axome) der Ganglienzellen bilden den Sehnerv. Dieser verlässt das Auge und mündet in die Sehnervkreuzung an der Gehirnbasis. Hier kreuzen etwa die Hälfte aller Fasern des Sehnervs auf die andere Seite des Gehirns. Diese Kreuzung ist für das räumliche Sehen unentbehrlich.
Die Fasern der Sehnerven enden an den Seitlichen Kniehöckern. Diese bestehen aus sechs Schichten von Zellen. Jede Schicht überträgt besondere Informationen wie Bewegung, Gestalt, Farbe und Details. Über die Sehstrahlung werden diese Informationen an den Visuellen Cortex weitergereicht. Im Cortex (und in Dutzenden weiteren Bereichen) werden die Information dann ausgewertet, interpretiert und räumlich modelliert.

2.3. Die räumliche Wahrnehmung

Abb. 5: Räumliche Tiefeninformation durch Parallaxe
Abb. 5: Räumliche Tiefeninformation durch Parallaxe

Zur räumlichen Wahrnehmung gehören neben den rein optischen Reizen noch etliche andere Informationen. Was wir als räumlich empfinden ist eine Mischung aus physiologischen Reizen, Gelerntem und unbewusstem Verhalten.

Der Abstand zwischen den Augen beträgt beim Menschen ca. 6,5 cm. Durch diesen Abstand wird ein Objekt von beiden Augen aus leicht unterschiedlichen Perspektiven gesehen. Dadurch ergeben sich seitliche Verschiebungen zwischen verschiedenen Punkten im Raum. Bis zu einer Entfernung von ca. 10 m kann diese Parallaxe vom Gehirn als räumliche Tiefeninformation interpretiert werden.

Bei der Betrachtung von nahen Gegenständen werden die Augen nach innen gedreht. Diese gegensinnige Abweichung der Blickachsen von der Parallelität (Konvergenz) ist abhängig vom der Entfernung zum Objekt. Bis zu einem Abstand von etwa 3 Metern kann das Gehirn aus der Konvergenz der Blickachsen Informationen über die Entfernung entnehmen.
Um ein Objekt im Raum scharf sehen zu können, wird die Krümmung der inneren Linsen durch die Spannung des sie umgebenden Ziliarmuskels angepasst (Akkommodation). Mit der Zeit lernt man, welche Entfernung mit welcher Stärke der Krümmung zusammenhängt, sodass auch umgekehrt aus der Änderung der Linsenkrümmung ein Rückschluss auf die räumliche Tiefe möglich ist.

Abb. 6. Räumliche Tiefe in einem zweidimensionalen Bild
Abb. 6. Räumliche Tiefe in einem zweidimensionalen Bild

Ist eine stereoskopische Betrachtung nicht möglich oder betrachtet man eine Abbildung, z.B. eine Fotografie oder ein Gemälde, kann das Gehirn aufgrund früher gemachter Erfahrungen eine räumliche Zuordnung von Objekten rekonstruieren. So wissen wir, dass die Ränder einer Straße parallel verlaufen und sich nicht am Horizont zu einem Punkt vereinen. Auch wirken Objekte in größerer Ferne heller, unschärfer und etwas bläulich, was durch Wasserdampf und Schwebstoffe in der Atmosphäre verursacht wird (Abb. 6). Dieser Effekt führt dazu, dass in Wüsten die Entfernungen verkürzt erscheinen.

Abb. 7: Überdeckung
Abb. 7: Überdeckung

 

Aufgrund der Eigenart unseres Wahrnehmungsapparates, fehlende Teilstücke von bekannten Formen unwillkürlich im Geiste zu ergänzen, vermuten wir in dem Fall, in dem eine Form eine andere überdeckt, ein Hintereinander (Abb. 7).

Abb. 8: Relative Größe
Abb. 8: Relative Größe

 

Ist die Größe eines Objektes bekannt, können wir aus der relativen Größe der Abbildung auf der Netzhaut die Entfernung zum Objekt abschätzen (Abb. 8).

Abb. 9: Kulissenwirkung (Foto: InfoTip)
Abb. 9: Kulissenwirkung (Foto: InfoTip)

 

 

 

Diese Eigenschaften nutzen beispielsweise Bühnenbauer um Kulissen mit weiträumiger Wirkung (Abb. 9) zu simulieren.

Abb. 10: Universitätskirche in Wien mit Trompe-l'œil-Deckenfresken
Abb. 10: Universitätskirche in Wien mit Trompe-l'œil-Deckenfresken [4]

Die räumliche Wahrnehmung ist also nicht nur ein rein physisches Phänomen, sondern ist die Summe aus vielfältigen sensorischen Empfindungen und angelernten Erfahrungen, die das Gehirn einfach voraussetzt. Diese Tatsache lässt sich aber auch dazu verwenden, um das Gehirn und die räumliche Wahrnehmung zu täuschen. Das Prinzip der optischen Täuschung wird seit Jahrhunderten in der Kunst und Architektur eingesetzt, z.B. bei Trompe-l’œil (frz. „täusche das Auge“)-Gemälden. Mittels geschickter perspektivischer Darstellung wird hierbei eine nicht vorhandene Räumlichkeit vortäuscht. So werden mit Wand- und Deckenmalereien eine scheinbare Vergrößerung der Architektur und ein Ausblick auf Phantasielandschaften erzeugt (Abb. 10).

3. Stereoskopische Abbildungen

3.1. Die klassischen Stereoskope nach dem Side-by-Side-Verfahren

Schon kurze Zeit nach der Erfindung der Fotografie (1839) durch Louis Draguerre kombinierte man diese mit Wheatsone's Stereoskopen. 1849 stellte Sir David Brewster (1781–1868), schottischer Physiker und Privatgelehrter, die erste Zweiobjektiv-Kamera vor, mit der man zum ersten Mal bewegte Schnappschüsse stereoskopisch festhalten konnte. Bis dahin mussten die Stereohalbbilder nacheinander belichtet und die Kamera zwischen den beiden Aufnahmen im Augenabstand verschoben werden, was bei bewegten Motiven zu unterschiedlichen Bildinhalten führen konnte, die keinen räumlichen Eindruck ermöglichten.
1894 konstruiert Jules Richard die erste tragbare Stereokamera. Um 1900 wird die 3D-Fotografie populär und und Scharen von Fotografen nehmen auf ihren Exkursionen durch die ganze Welt auch stereoskopische Fotos auf, die von Verlagen als Stereokarten in großen Stückzahlen angeboten wurden.

Abb. 11: Stereobetrachter mit Stereokarte, ca. 1915 (Foto: InfoTip/Tschirschwitz)
Abb. 11: Stereobetrachter mit Stereokarte, ca. 1915
Abb. 12: Glyphoscope, Richard, Paris, ca. 1905, Stereokamera und Stereobetrachter (Foto: InfoTip/Tschirschwitz)
Abb. 12: Glyphoscope, Richard, Paris, ca. 1905, Stereokamera und Stereobetrachter

Eine sehr große Beliebtheit und Verbreitung fand der View-Master. Seit Jahrzehnten ist der View-Master nicht aus den Kinderzimmern wegzudenken. Entstanden ist der View-Master gegen 1939 als Unterhaltungssystem für Zuhause. Zur damaligen Zeit stellte er eine Verbesserung gegenüber den verbreiteten Stereoskopen dar, bei denen zum Betrachten des nächsten Bildes eine neue Fotokarte eingelegt werden musste.  Thematische Schwerpunkte der Bilder waren zuerst pittoreske Touristenattraktionen und wissenschaftliche Dokumentationen. Das größte Werk, das medizinische Lehrbuch "Stereoscopic Atlas of Human Anatomy" enthielt 221 Bildscheiben mit über 1500 farbigen Abbildungen des menschlichen Körpers.  Später folgten für den Massenmarkt Bilder aus Filmen und Fernsehserien.

Abb. 13: View-Master, ca. 1965
Abb. 13: View-Master, ca. 1965 [5]

Das Medium der View-Master ist eine runde Scheibe aus Pappe mit 90mm Durchmesser, in die 7 Farb-Dia-Paare eingelassen sind. Jedes Einzelbild hat ein Format von 10,5 x 11,75 mm. Mit einem seitlich am View-Master-Betrachter angebrachten Hebel kann die Scheibe einfach weitergeschaltet werden.
Erhältlich waren auch spezielle Stereokameras und leere Bildscheiben, mit denen man eigene Fotos für den View-Master herstellen konnte.
Die Produktion des klassischen View-Masters wurde 2009 eingestellt.

3.2. Stereoskopie nach dem Anaglyphenverfahren

Sind die beiden stereoskopischen Halbbilder im Side-by-Side-Verfahren nebeneinander angeordnet, so sind sie beim Anaglyphenbild einander überlagert. Die Trennung der Bilder erfolgt über über unterschiedliche Polarisation oder, weitaus verbreiteter, über eine farbliche Kodierung. Der Erfinder des farbanaglyptischen Verfahrens, Wilhelm Rollmann, beschrieb die Funktion 1853 so:
"... Man zeichnet zwei zusammengehörige Körperansichten um denselben Mittelpunkt, die eine für das rechte, die andere für das linke Auge. Wenn es nun ein Mittel giebt, jede Ansicht nur dem Auge sichtbar zu machen, für welches es bestimmt ist, die andere demselben aber gleichzeitig auszulöschen, so muß man offenbar beim Ansehen der Doppelzeichnung und Anwendung dieses Mittels das entsprechende Relief sehen. Es läßt sich dieß Unsichtbarmachen je einer Ansicht für das entgegengesetzte Auge beinahe vollkommen dadurch erreichen, daß man die Zeichnungen in Farben ausführt und sie durch passend gefärbte Gläser besieht. Mir gelang das gut  bei einer blau und gelben Zeichnung. Durch ein rothes Glas gesehen, zeigten sich fast nur die blauen Linien, durch blaues hingegen nur die gelben ..."

Das Farbanaglyhenverfahren lässt sich auch auf Fotos und Bewegtbilder (Film und Video) übertragen. Voraussetzung ist, dass das Bildmaterial in getrennten Bildern für das rechte und das linke Auge zu Verfügung steht. Die beiden Halbbilder werden in Komplementärfarben eingefärbt. Bei digital vorliegendem Bildmaterial im RGB-Modus kann dies beispielsweise durch Entfernen des Rot-Kanals für das rechte Auge und des Grün-Kanals für das linke Auge leicht vorgenommen werden. Anschließend werden beide Halbbilder ineinander kopiert (z.B. im Adobe Photoshop mit negativer Multiplikation, siehe Abb. 14).

Abb. 14: Prinzip eines Anaglyphenbildes
Abb. 14: Prinzip eines Anaglyphenbildes
Abb. 15: Blau-Rot-Anaglyphenbrille
Abb. 15: Blau-Rot-Anaglyphenbrille

Zur Trennung der beiden Halbbilder beim Betrachten wird eine Anaglyphenbrille (Abb. 15) benötigt, deren Gläser entsprechend eingefärbt sind. Klassische Anaglyphenbilder verwenden (wie Rollmann) Rot für das linke Auge und Blau für das rechte. Rot/Blau-Anaglyphen eignen sich allerdings nur eingeschränkt für die Verwendung bei farbigen Bildern. Hierfür eignen sich Rot/Cyan (" Deep Vision") - oder Magenta/Grün (" TrioScopics")-Kombinationen wesentlich besser.

Anaglyphen-Filme waren in den 1950er-Jahren sehr beliebt. Da für die Projektion ein normaler Kino-Projektor ausreichte und für den 3D-Effekt lediglich eine billige Anaglyhen-Brille benötigt wurde, waren praktisch alle Kinos ohne Umrüstung 3D-tauglich.
Einen weiteren Höhepunkt verzeichnete das Anaglyphenverfahren Anfang der 1980er-Jahre, als einige Hersteller von TV-Geräten mit elektronischen Schaltungen (z.B. ABDY = Anaglyph By Delay) auf der Basis des Anaglyhenverfahrens versuchten, aus dem normalen, zweidimensionalen, Farbfernsehsignal einen dreidimensionalen Bildeindruck zu erzeugen.

Das modernste Anaglyphenverfahren ist das vom DaimlerChrysler-Spinoff InfiTec entwickelte Wellenlängenmultiplex-Verfahren mit Interferenzfiltertechnik. Dieses von der Firma Dolby lizensierte und unter dem Namen "Digital Dolby 3D" vermarktete Verfahren eignet sich nur für Projektion. Schlüsselelement ist ein im Strahlengang (im Projektor integriert oder außerhalb vor der Projektionsoptik) befindliches rotierendes Farbrad, das wie ein Bandpass für das linke und rechte Auge unterschiedliche Spektralanteile aus dem Projektionsstrahl sequentiell herausfiltert. Eine mit entsprechenden Filtern ausgestattete Brille trennt dann die Teilbilder voneinander. Eine detailierte Beschreibung des Verfahrens finden Sie weiter unten im Kapitel "3D-Projektionsverfahren".

3.3. Linsenraster-Bilder

Abb.16: Aufbau eines Linsenraster-Bildes
Abb.16: Aufbau eines Linsenraster-Bildes

Das Linsenrasterverfahren (auch Lentikularverfahren oder Prismenrasterverfahren) ist eine Technik, in der mit  Lentikular-Linsen ein räumliches Bild oder eine Bewegung erzeugt wird. Das Linsenrasterverfahren wird heute zumeist bei gedruckten Bildern eingesetzt. Auch autostereoskopische Displays (Monitore oder TV) verwenden diese Technik.

Um ein 3D-Linsenrasterbild zu erzeugen, werden das rechte und linke Teilbild eines Stereobildes in exakt bemessene Streifen zerlegt und abwechselnd ineinander verkämmt (" interlaced", Abb. 16). In der Praxis übernimmt eine spezialisierte Software diesen Prozess. Die Ausgabe des verkämmten Bildes erfolgt auf einem Drucker mit hoher Qualität auf Papier. Auf das verkämmte Bild wird anschließend eine Linsenrasterfolie aufgebracht. Auch ein Druck direkt auf die Rückseite von Linsenrasterfolie ist möglich.

Abb. 16a: Funktionsweise eines Linsenraster-Bildes
Abb. 16a: Funktionsweise eines Linsenraster-Bildes

Eine Linsenrasterfolie besteht aus einem transparenten Kunststoff, in dem winzige optische Linsen (Abb. 16a) oder Prismen eingeprägt sind. Sind die Linsen vertikal (Abb. 16a) ausgerichtet, der erscheint beim Betrachten ein räumliches Bild, da aus einem Blickwinkel beide Teilbilder erfasst werden. Die Linsen, bzw. Prismen trennen aber die Bilder durch Brechung so,  dass jedes Auge nur ein Halbbild sieht. Das wahrgenommene, räumlich erscheinende, Bild ist autostereoskopisch, d.h. man benötigt keine Hilfsmittel um den 3D-Effekt wahrzunehmen.

Abb. 17 Linsenraster-Bild als "Wackelbild"
Abb. 17 Linsenraster-Bild als "Wackelbild"

Bei einer horizontalen Ausrichtung der Linsen kann durch Ändern des Blickwinkels, z.B. durch Neigen des Bildes, eine Bewegung oder Morphen simuliert werden. Im einfachsten Fall, wenn nur zwei Bilder verwendet werden, springt das Bild nur von einem zum anderen ("Wackelbild", Abb. 17). Komplexer aufgebaute Linsenrasterbilder können aus weit über Hundert Teilbildern bestehen. Diese liefern dann geschmeidige Animationen von Bewegung oder Verwandlung.

4. 3D-Verfahren für Monitore und TV-Geräte ("Direct View"-Geräte)

4.1. Direct View-Geräte mit Shutterbrille

Dreidimensionales Sehen mit Shutterbrillen funktioniert nach dem Prinzip, dass die Trennung des Lichts für das linke Auge und dem rechten Auge durch abwechselnde Abdunkelung ("teilbild-sequentielle Abfolge") vorgenommen wird. Das Bild auf dem Bildschirm oder der Leinwand zeigt dabei abwechselnd das Bild für das linke Auge, dann das für das rechte. Erfolgt der Wechsel zwischen den Teilbildern ausreichend schnell, integriert das Gehirn die beiden Teilbilder zu einem räumlichen Bild.
Eine Shutterbrille (shutter = Verschluss, Klappe) enthält aktive elektronische Komponenten, die über kleine, in die Brille eingebaute Batterien oder Akkus versorgt werden. Die Brillengläser bestehen aus einer LC- (Flüssigkristall-) Zelle zwischen zwei Polfiltern. Wird an die LC-Zelle eine Spannung angelegt, verdunkelt sich das Brillenglas und wird undurchsichtig. Gleichzeitig wird das jeweils andere Brillenglas transparent. Um die Bilder auf dem Bildschirm dem richtigen Auge zuordnen zu können, muss das Umschalten der Brillengläser  mit den Bilder auf dem Bildschirm synchronisiert werden. Im Consumer-Bereich wird diese Synchronisation meist über Infrarot-Licht vorgenommen. Im Rahmen des TV-Gerätes ist ein kleiner IR-Sender eingebaut, der ein Synchronsignal aussendet. Dieses wird von einem IR-Empfänger in der Brille aufgefangen und ausgewertet. Professionelle Geräte verwenden zur Synchronisation auch Blutooth.
Um einen flimmerfreien Bildeindruck zu erhalten, muss die Ansteuerungselektronik in der Brille die Brillengläser abwechselnd 50/60 mal in der Sekunde dunkel schalten. Das bedeutet, dass das Display auch 100/120 Teilbilder in der Sekunde liefern muss, was nur bei Geräten der neuesten Bauart  der Fall ist.

Abb. 18: Direct View-TV mit Shutterbrille
Abb. 18: Direct View-TV mit Shutterbrille

Nachteile des Verfahrens sind die halbierte Helligkeit des Bildes, da ja immer nur ein Halbbild zur Zeit dargestellt werden kann und die Kosten der Shutterbrille.

Shutterbrillen für den Consumer-Bereich sollen möglichst lange verwendbar bleiben. Daher ist die Konstruktion stabiler als bei Brillen für den Kino-Bereich und die Batterien sind leicht auswechselbar. Dies macht Shutterbrillen für den Endverbraucher relativ teuer (ca. 80-120 €).
Da in den LCD-Displays der TV-Geräte und Monitore selber Polfilter verwendet werden und das Licht aus dem Display somit selbst polarisiert ist, müssen Brillentyp und Display aufeinander abgestimmt sein, da sonst ein starker Helligkeitsverlust auftreten kann.

4.2. Direct View-TV mit Prismenraster-Maske (Split Image-Verfahren)

Abb. 19: Direct View-TV mit Prismenraster-Maske
Abb. 19: Direct View-TV mit Prismenraster-Maske

Displays mit Prismenraster-Maske sind autostereoskopisch. Das heißt, der Betrachter kann auf zusätzliche Sehhilfen wie Polarisations-, Farb-, oder Shutter- Brillen verzichten.
Wie beim Linsenrasterbild enthält ein Bild auf dem Display beide Teilbilder des Stereobildes. In jeweils ein Pixel breiten senkrechten Streifen sind abwechselnd ein Stück eines rechten Teilbildes und des linken Teilbildes abgebildet, dann wieder ein Streifen des linken Teilbildes usw. Vor jeweils einem Streifenpaar befindet sich ein Prisma der Prismenraster-Maske. Die Lichtbrechung in den Prismen sorgt dafür, dass das linke Auge des Betrachters nur das Licht aus den Streifen aus dem linken Teilbild erreicht und das rechte Auge nur das aus den Streifen des rechten Teilbildes.
Nachteil dieses Verfahrens ist, dass der Bereich des stereoskopischen Effekts nur in einem begrenzten Bereich wahrzunehmen ist.  Nur eine Person, und diese in einer direkten Position in einem bestimmten Abstand zum Display, kann 3D sehen.

Das Split Image-Verfahren ist die Basis für Weiterentwicklungen von einer ganzen Reihe von autostereoskopischen Systemen, so z.B. beim Fraunhofer-Institut für Nachrichtentechnik/Heinrich Hertz-Institut und mehreren industriellen Unternehmen.

4.3. Direct View-TV mit Polfilterbrille

Abb. 20: Direct View-TV mit Polfilterbrille
Abb. 20: Direct View-TV mit Polfilterbrille

Die 3D-Darstellung der Bilder auf den Displays basiert auf dem Einsatz von zirkularen Polarisationsfiltern. Die 3D-Bilder werden mit Hilfe eines Streifengitters im Horizontal-Interlaced-Verfahren erzeugt. Die von oben interlaced dargestellten ungeraden horizontalen Zeilen enthalten dabei die Information für das rechte Auge, die geraden Zeilen das Bild für das linke Auge. Auf dem Display ist eine Filterscheibe aufgeklebt, bei der sich im Abstand von jeweils einer Zeile die Polarisation ändert. Da die Zeilen nun unterschiedlich polarisiert sind, sieht man mit aufgesetzter Polarisationsbrille nur die für das jeweilige Auge bestimmten Bilder.  Das Filter-Glas ermöglicht beides, das Betrachten des Bildes mit und ohne 3D-Brille, somit können die Geräte auch für 2D-Wiedergaben verwendet werden.

5. 3D-Projektionsverfahren

In der Blütezeit von 3D-Kinos in den 1950er Jahren verwendete man hauptsächlich zwei Projektoren und zwei Filmkopien (für jedes Auge eine). Da meist Polarisationsfilter zur Kanaltrennung eingesetzt wurden, waren teure Silberleinwände und Polfilterbrillen für die Zuschauer notwendig. Schwierig war auch die Synchronisation zwischen den beiden Projektoren. Schon leichte Asynchronitäten, wie sie z.B. nach dem Kleben von einem gerissenen Film auftreten können, führten bei vielen Zuschauern zu Unbehagen und Kopfschmerzen.
In modernen 3D-Kinos sind daher, abgesehen von den wenigen IMAX-Kinos, ausschließlich digitale Projektionssysteme zu finden. Zur Bilderzeugung werden DLP- (Digital Light Processing) oder LCOS- (Liquid Crystal on Silicon) Chips eingesetzt. Das Filmmaterial befindet sich entweder auf mobilen Festplatten oder wird vor der Vorstellung auf einen im Kino befindlichen, lokalen Server geladen. Auch Streamingtechniken über Satellit oder eine Glasfaseranbindung an einen zentralen Server des Filmverleih sind möglich.
Zurzeit (2010) zeigen die meisten 3D-Kinos eine Bildauflösung von 2K (2048 x 1080 Pixel). Nur wenige Lichtspielhäuser sind schon mit den wesentlich teureren 4K-Projektoren (4096 x 2160 Pixel) ausgestattet, die natürlich einen optimalen Bildeindruck liefern.

5.1. Doppelprojektion mit linearer Polarisation

Bei der Doppelprojektion werden wie in klassischen "analogen" 3D-Kinos zwei Projektoren eingesetzt, die ihre Bilder auf eine gemeinsame Leinwand werfen. Im Strahlengang jedes der Projektoren befindet sich ein linearer Polfilter. Die Polfilter in den Projektoren sind um 90° zueinander verdreht. Entsprechend polarisierende Gläser oder Folien in einer Polfilterbrille trennen die Bilder für das linke und rechte Auge.

Der Vorteil  für den Kinobetreiber ist die große Helligkeit des 3D-Bildes. Daher können auch große Säle beschickt werden. Die Trennung zwischen den Kanälen ist sehr gut (wenn man den Kopf gerade hält). Auch sind die Polfilterbrillen sehr preiswert (und meist Einweg).
Nachteilig an diesem Verfahren sind die hohen Kosten bei der Anschaffung von zwei Projektoren und einer Silberleinwand.
Um die Polarisation des Lichts bis zum Betrachter aufrecht zu erhalten, kann als Projektionsfläche keine herkömmliche Kino-Leinwand verwendet werden, da deren diffuses Reflektionsverhalten die Polarisation des Lichts verwischt. Deshalb ist beim Doppelprojektionsverfahren die Verwendung von speziell beschichteten (und teuren) Silberleinwänden notwendig.

Abb. 21: Doppelprojektion mit linearer Polarisation
Abb. 21: Doppelprojektion mit linearer Polarisation

5.2. Teilbildsequentielle Projektion mit zirkularer Polarisation

Abb.23: Linear polarisiertes Licht (blau u. rot) und zirkular polarisiertes Licht (schwarz)
Abb.23: Linear polarisiertes Licht (blau u. rot) und zirkular polarisiertes Licht (schwarz) [6]

Im Gegensatz zum linearen ist beim zirkularen Polarisationsfilter die Schwingungsebene des durchgelassenen Lichtes nicht geradlinig, sondern spiralförmig drehend (zirkulare Polarisation). Erreicht wird dies durch einen normalen linearen Polfilter, dem eine diagonal versetzte Verzögerungsschicht (λ/4-Plättchen) nachgeschaltet wird. Dieses besteht normalerweise aus einem doppeltbrechenden Kristall.

Abb. 22: Projektion mit zirkularer Polarisation (RealD)
Abb. 22: Projektion mit zirkularer Polarisation (RealD)
Abb. 24: Zirkular polarisierte 3D-Brille (RealD)
Abb. 24: Zirkular polarisierte 3D-Brille (RealD)

Den gleichen Verzögerungseffekt, den das feststoffliche, kristalline λ/4-Plättchen erzeugt, kann auch durch großflächige LC-Zellen (LLCC = Large Liquid Crystal Cell) mit speziellen, doppeltbrechenden Flüssigkristallen erreicht werden. Mit steilen Ansteuerspannungen aus Push-Pull-Treiberstufen kann dann die Drehrichtung des Lichts in solch einem Polarisator sehr schnell hin- und her geschaltet werden.
Nach diesem Prinzip arbeitet auch die Z-Screen (Abb. 25) der Firma RealD, die zur Zeit (2010) Marktführer als Ausstatter für 3D-Kinos ist.
Die Z-Screen wird in den Strahlengang des Lichts zwischen Projektor und der Leinwand platziert. Vom Videosignalprozessor im Projektor synchronisiert, schaltet der Polarisator mit einem Vielfachen der Bildfrequenz zwischen linksdrehend und rechtsdrehend um. Der Betrachter benötigt allerdings auch bei diesem Verfahren eine 3D-Brille. Die Brillengläser bestehen jeweils aus einem rechts- und einem linkspolarisierenden Kunststoff. Die unterschiedliche Polarisation sorgt für die Trennung von linkem und rechten Teilbild.

Abb. 25: Polarisator "Z-Screen"
Abb. 25: Polarisator "Z-Screen" von RealD [7]

Die Vorteile des RealD-Verfahrens sind die preiswerten passiven Brillen (Abgabepreis an Kinos ca. 1 €), die bei pfleglichem Umgang mehrmals benutzt werden können, und dass nur ein, wenn auch leistungsstarker, Projektor benötigt wird. Positiv für den Betrachter ist, wegen der zirkularen Polarisation der Bilder, dass eine seitliche Neigung des Kopfes kaum einen Einfluss auf die Bildqualität hat.
Nachteilig wirkt sich aus, dass auf eine Silberleinwand projiziert werden muss und letztlich dass hohe Lizenzabgaben an RealD geleistet werden müssen.

Abb. 25a: Ein NEC NC2500 3-DLP-Projektor mit Z-Screen-Vorsatz im Cinestar Garbsen
Abb. 25a: Ein NEC NC2500 3-DLP-Projektor mit Z-Screen-Vorsatz im Cinestar Garbsen

5.3. Teilbildsequentielle Projektion mit Shutterbrille

Die Funktionsweise einer teilbildsequentiellen Projektion mit Shutterbrillen folgt den gleichen Prinzipien wie das Erzeugen des räumlichen Bildeindrucks bei Direct View-Geräten (siehe Kapitel 4.1. Direct View-Geräte mit Shutterbrille): Es werden nacheinander die einzelnen Teilbilder auf die Leinwand projiziert. Die Bildtrennung wird beim Betrachter mittels einer vom Filmserver über Infrarot-Impulse synchronisierten Shutterbrille.
Vorteile des Systems sind die Projektion auf herkömmliche Leinwände und dass nur ein (aber leistungsfähiger) Projektor benötigt wird. Eine Kopfneigung des Betrachters ist ohne große Qualitätsverluste möglich.
Nachteilig wirken sich die teuren Shutterbrillen aus, deren Batterie nicht gewechselt werden kann und nach ca. 200-300 Vorstellungen verbraucht ist.
Die 3-Brillen nach jeder Vorstellung einzusammeln und zu reinigen hat sich als problembehaftet herausgestellt. Auch haben wegen der Mehrfachverwendung der Brillen viele Kinobesucher Bedenken mit der Hygiene von wiederverwendeten Brillen.
Dieses 3D-Projektionverfahren wird unter der Bezeichnung " XPand" an Kinobetreiber vertrieben.

Abb. 26: Teilbildsequentielle Projektion mit Shutterbrille (XPanD)
Abb. 26: Teilbildsequentielle Projektion mit Shutterbrille (XPanD)

5.4. Wellenlängenmultiplex-Projektion mit Interferenzfilter-Brille

Das in das menschliche Auge gelangende Licht wird durch die drei Typen von Rezeptoren in die drei Spektralbereiche Rot (L-Typ,  long wavelength receptor), Grün (M-Typ, medium wavelength receptor) und Blau (S-Typ, short wavelength receptor) aufgeteilt. Die maximale Empfindlichkeit der Rezeptoren liegt bei 600 nm für Rot, 550 nm für Grün und 450 nm für Blau. Für die Farbton-Empfindung ist die spektrale Bandbreite (also die Anzahl der enthaltenen Farbtöne) eines einfarbigen Strahlers weniger entscheidend als die Farbsättigung. Selbst mit extrem monochromen Strahlern, wie z.B. mit Lasern,  kann durch Mischung ein umfangreicher Farbraum abgebildet werden. Diese Unempfindlichkeit des menschlichen  Wahrnehmungsvermögens für Farben wird beim Wellenlängenmultiplex-Verfahren ausgenutzt, um die Trennung der Bilder für rechte Auge von denen fürs linke Auge vorzunehmen.

Abb. 27: Projektion mit Interferenzfilter-Brille (Digital Dolby 3D)
Abb. 27: Projektion mit Interferenzfilter-Brille (Digital Dolby 3D)
Abb. 28: Farbrad
Abb. 28: Farbrad [8]

Die zentrale Technologie hinter dem Verfahren ist eine rotierende Filterscheibe im Projektionsstrahl. Dieses Farbrad kann im Projektor integriert sein, kann sich aber auch außerhalb befinden.
Die Filterscheibe ist in zwei gleich große Segmente geteilt. Eine Sektion filtert das Licht für das rechte Auge, die andere das für das linke Auge. Beide Filter wirken wie Multi-Bandpässe, haben aber unterschiedliche optische Eigenschaften. Das Segment für das rechte Augen lässt die drei Primärfarben Rot, Grün, Blau in den Wellenlängen 629 nm, 532 nm und 446 nm durch. Das Segment für das linke Auge lässt ebenfalls die drei Primärfarben passieren, aber mit den Wellenlängen 615 nm, 518 nm und 432 nm. Die Bandbreite jeder der Einzelfarben beträgt nur 50 nm.

Abb. 29: Prinzip des Wellenlängenmultiplex-Verfahrens
Abb. 29: Prinzip des Wellenlängenmultiplex-Verfahrens
Abb. 30: Dolby 3D Interferenzfilter-Brille
Abb. 30: Dolby 3D Interferenzfilter-Brille [8]

Um die beiden Farbtriplets, die den Betrachter sequentiell (= als Multiplex) erreichen, voneinander zu trennen, wird eine Interferenzbrille verwendet. Die Gläser dieser Brille sind mit dielektrischen Materialien mehrfachbeschichtet. Die Mehrfachbeschichtung wirkt ähnlich einem Saugkreis in der Funktechnik: nur in Resonanz befindliche Schwingungen werden durchgelassen. So können die Farbtriplets für beide Augen exakt ausgefiltert werden. Dieses Verfahren hat den zusätzlichen Vorteil, dass Streulicht, z.B. durch eine unvollständige Abdunkelung, ausgeblendet wird und das projizierte Bild brillanter wirkt.
Die leichte Farbverschiebung im Bild des linken Auges ins rötliche und das des rechten Auge ins grünliche wird beim gleichzeitigen Betrachten von beiden Teilbildern  nicht wahrgenommen. Manche Lichtquellen (z.B. bestimmte UHP-Lampen) in Projektionsgeräten erzeugen durch ihre ausgeprägten Emissionslinien allerdings so starke Farbfehler, dass eine elektronische Farbkorrektur in der Signalverarbeitung des Projektors notwendig wird.
Vorteile des Systems sind die Projektion auf herkömmliche Leinwände und dass nur ein Projektor verwendet wird. Eine Kopfneigung des Betrachters ist ohne Qualitätsverluste möglich.
Nachteilig wirken sich die hohen Kosten für das empfindliche Farbrad und die teuren Interferenzbrillen aus.

Das Wellenlängenmultiplex-Verfahren ist von infitec, einem Spinoff der Firma DaimlerChrysler, entwickelt worden und ist an die Firma Dolby lizenziert. Als " Digital Dolby 3D" ist es in mehreren Tausend Kinos weltweit installiert.

6. Übertragung von 3D-Videosignalen in der Consumer-Elektronik

In der Consumer-Elektronik stehen, abgesehen von computerbasierten Systemen, zwei 3D-Signaltypen zur Verfügung. Blu-ray-Player, Satelliten- und Kabelempfänger und Spielkonsolen werden über HDMI angeschlossen. Hier gilt der Standard HDMI 1.4a. Als integrierte Lösungen kommen auch noch im TV-Gerät eingebaute Empfangsteile in Frage.
Bei der Signalübertragung kommen zurzeit (2010) zwei Verfahren zur Anwendung. Ein über HDMI an das Display angeschlossener Blu-ray-Player liefert ein 3D-Bild immer im Frame Packing-Verfahren.
Beim Frame Packing-Format werden die Bilder für beide Augen zusammen in einem "Super-Frame" übertragen. Dabei befindet sich im oberen Teil des Frames das Bild für das linke, im unteren Teil das für das rechte Auge. Beide Bilder sind durch einen Leerraum getrennt. Bei der Übertragung von Full-HD-Bildern in 3D kommt man so auf Frames mit einer Gesamtauflösung von 1920 × 2205 Pixel. Die 2205 Zeilen setzen sich dabei aus 2 × 1080 (Vactive) Zeilen und einem Leerraum von 45 Zeilen (Vactive_space) zusammen.
Das Frame Packing-Format wird auch für Spiele vorgeschrieben. Dabei ist die Vollbild-Auflösung für jedes Auge 1280 × 720 Pixel (720p). Für die Übertragung wird daraus ein 1280 × 1470 Pixel großes Frame gebaut (2 × 720 Zeilen plus 30 Leerzeilen).

Abb. 31: 3D-Signal im Frame Packing-Verfahren
Abb. 31: 3D-Signal im Frame Packing-Verfahren

3D-Material, das von HDTV-Sendern übertragen wird, muss zu 2D-Sendungen bezüglich der erlaubten Datenraten und benötigter Bandbreite kompatibel sein. Deshalb wird hier das Side-by-Side-Verfahren eingesetzt.
Beim Side-by-Side-Verfahren wird die horizontale Auflösung der Bilder durch Subsampling halbiert (beispielsweise von 1920 x 1080 auf 960 x 1080). Im Frame werden dann die Bilder nebeneinander angeordnet. Die Vertikalfrequenz, die Datenrate und die benötigte Bandbreite des 3D-Bilderpaares ist gleich der eines einzelnen 2D-Bildes. Die verminderte horizontale Auflösung wird vom Betrachter meist nicht wahrgenommen.

 

 

Abb. 32: 3D-Signal im Side-by-Side-Verfahren
Abb. 32: 3D-Signal im Side-by-Side-Verfahren

REFERENZEN

Abbildungen

[1] Abb. 1: "Wheatstone's Stereoscope": Lizenz: Public Domain via Wikimedia Commons, Quelle: http:/commons.wikimedia.org/wiki/File%3APSM_V21_D049_Wheatstone_stereoscope_1.jpg

[2] Abb. 2: "Praktische Anwendung eines Stereoscopes": Lizenz: Gemeinfrei

[3] Abb. 3: "Bilderpaare": Lizenz: Gemeinfrei Quelle: aus "Contributions to the Physiology of Vision.—Part the First. On some remarkable, and hitherto unobserved, Phenomena of Binocular Vision. By CHARLES WHEATSTONE" veröffentlicht in "Philosophical Transactions" of the Royal Society of London,1883 Vol. 128, pp. 371 - 394

[4]Foto "Abb. 10: Universitätskirche in Wien mit Trompe-l'œil-Deckenfresken" von I, Alberto Fernandez Fernandez; Lizenz: GFDL (http://www.gnu.org/copyleft/fdl.html), CC-BY-SA-3.0 (http://creativecommons.org/licenses/by-sa/3.0/) oder CC-BY-2.5 (http://creativecommons.org/licenses/by/2.5) via Wikimedia Commons",
Quelle: http://commons.wikimedia.org/wiki/File%3AFresco_with_Trompe_l'oeuil_-_Andrea_Pozzo_-Jesuit_Church_Vienna.jpg

[5] Abb. 13: "View-Master, ca. 1965" : Lizenz: Gemeinfrei,
Quelle: http://commons.wikimedia.org/wiki/File:Stereoscoop_VM.jpg?uselang=de

[6] Abb. 23: "Linear polarisiertes Licht " von Averse: Lizenz: CC-BY-SA-2.0 (http://creativecommons.org/licenses/by-sa/2.0) via Wikimedia Commons"
Quelle: http://commons.wikimedia.org/wiki/File%3ARising_circular.gif"

[7] Foto: "Polarisator "Z-Screen" Quelle: RealD Pressefoto aus www.reald.com/Content/Files/REALD3DSystems.pdf

[8] Fotos: "Farbrad" und "Interferenzfilterbrille" Quelle: dolby.com
http://www.dolby.com/us/en/professional/cinema/products/dolby-3d-cinema-system.html

 

Weblinks

Informationen zum Read 3d-Verfahren:
www.reald.com/Content/Files/REALD3DSystems.pdf

Dokumentation zum Wellenlängenmultiplex-Verfahren (Dolby 3D)
http://www.infitec.net/index.php/de/corporate/documentation

Rechtshinweis

Sofern auf dieser Seite markenrechtlich geschützte Begriffe, geschützte (Wort- und/oder Bild-) Marken oder geschützte Produktnamen genannt werden, weisen wir ausdrücklich darauf hin, dass die Nennung dieser Marken, Namen und Begriffe hier ausschließlich der redaktionellen Beschreibung bzw. der Identifikation der genannten Produkte und/oder Hersteller bzw. der beschriebenen Technologien dienen.

Alle Rechte an den in diesem Kompendium erwähnten geschützten Marken- und/oder Produktnamen sind Eigentum der jeweiligen Rechteinhaber und werden hiermit ausdrücklich anerkannt. Alle in unseren Artikeln genannten und ggfs. durch Dritte geschützte Marken- und Warenzeichen unterliegen uneingeschränkt den Bestimmungen des jeweils gültigen Kennzeichenrechts sowie den Besitzrechten der jeweiligen eingetragenen Eigentümer.

Die Nennung von Produktnamen, Produkten und/oder der jeweiligen Produkthersteller dient ausschließlich Informationszwecken und stellt keine Werbung dar. InfoTip übernimmt hinsichtlich der Auswahl, Leistung oder Verwendbarkeit dieser Produkte keine Gewähr.

Sollten dennoch wider unserer Absicht Rechte Dritter verletzt werden, so bitten wir um eine Benachrichtigung ohne Kostennote.