Das InfoTip Kompendium

Ein kostenloser Service der InfoTip Service GmbH

Zum Anfang der
Seite scrollen

Bildsensoren

Inhaltsverzeichnis

1. Allgemeines

Ein Bild sagt mehr als tausend Worte - Solange es den Menschen gibt versucht er mit Bildern, die er auf Höhlenwände, Knochen, Holz, Papyrus oder Leinwand malt, Erinnerungen lebendig zu erhalten, Geschichten zu erzählen oder sich einfach an der Schönheit zu erfreuen. Mit der kulturellen und technischen Entwicklung des Menschen wurden seine Bilder und Darstellungen immer differenzierter und dem Leben ähnlicher. Neben der, der Kunst zuzurechnenden Abbildung der Umwelt, wächst im Laufe der Zeit aber auch in der Wissenschaft das Interesse an dem, was wir heute als " Bildgebende Verfahren" bezeichnen.

Abb. 1.01: Camera Obscura
Abb. 1.01: Camera Obscura [1]

Ende des 13. Jahrhunderts setzen Astronomen zum ersten Mal, wenn auch einfachste, technische Hilfsmittel ein. Zur Beobachtung von Sonnenflecken projizierten sie die Sonne auf die Mattscheibe einer Lochkamera (Camera Obscura). Die Camera Obscura kann somit als das erste bildgebende Verfahren bezeichnet werden.

Schritt die Weiterentwicklung von bildgebenden Verfahren aller Art anfangs gemächlich voran, so explodierte sie förmlich zusammen mit der Entwicklung der modernen Halbleiter- und Computertechnik. Bildgebende Verfahren dienen heute nicht mehr nur dazu sich daran zu erfreuen oder Momente zu konservieren, sondern sie sind ein knallhartes Geschäft. Digitale Consumer-Fotoapparate und Camcorder werden in Millionenstückzahlen gebaut. Mittels Satelliten können Aktivitäten in fremden Ländern überwacht werden oder nach Rohstoffen exploriert werden. Es lassen sich Umweltschäden und deren Verursacher nachweisen und das Wetter so genau wie nie zuvor vorhersagen. Bilder der Oberfläche von wolkenverhüllten Planeten und Röntgenbilder von Lichtjahren entfernter Galaxien helfen bei der Entschlüsselung der Rätsel, woher wir kommen.
Weitere, mehr irdische Anwendungen lassen sich z.B. in der Medizintechnik finden. Kernspintomografie und Dopplerultraschall unterstützen den Arzt bei der Diagnose und der Wahl der Therapie. Erst schnelle Halbleiter-Röntgendetektoren ermöglichen es den Medizinern mittels Herzkatheter Koronar-Erkrankungen des Herzens zu erkennen und zu behandeln.

1.1 Die Fotografie

Die Entwicklung von optischen Linsen für Fernrohre und Mikroskope im 16. Jahrhundert sind weitere wichtige Etappen zum eigentlichen Ziel, dem dauerhaften Abbilden der Wirklichkeit auf einem Medium, der Fotografie.
Die älteste bekannte Fotografie wird Joseph Nicéphore Nièpce zugeschrieben, der 1826 die fotografische Platte erfand. Diese war eine mit Asphalt beschichtete Zinnplatte, die über acht Stunden in einer Camerea Obscura belichtet wurde. Die in dieser Zeit stärker belichteten Partien der Asphaltschicht härteten dabei aus, die weniger belichteten Teile der Schicht konnten im folgenden "Entwicklungsprozess" mit Lavendelöl und Petroleum [1] ausgewaschen werden. Niépce arbeitete dann ab 1829 mit Louis Daguerre zusammen. Gemeinsam schufen sie die Daguerreotypie, das erste praktische Fotografieverfahren.
Der Ausgangspunkt einer fotografischen Platte für die Daguerreotypie war eine polierte, mit einer dünnen Silberschicht versehene Kupferplatte, die Jod-, Brom- oder  Chlordämpfen ausgesetzt wurde. Dabei bildet sich  eine lichtempfindliche Schicht aus Silberjodid bzw. Silberbromid (= Silberhalogenide). Diese wandeln sich während der Belichtung durch Reduktion in metallisches Silber um.
Nach der Belichtung der Platte wurde diese mit Quecksilberdämpfen entwickelt. Bei der Entwicklung lagerte sich ein hauchdünner Film von Quecksilber auf den belichteten Partien ab. Die unbelichteten Partieren wurden beim Fixiervorgang in Thiosulfat- oder Zyankali-Bädern ausgewaschen. Wegen der hohen mechanischen Empfindlichkeit des entwickelten Bildes wurde es unmittelbar nach der Fixierung auf eine Glasscheibe montiert und luftdicht versiegelt. Eine Daguerreotypie ist somit immer ein Unikat, da sie nicht vervielfältigt werden kann.
Die Grundprinzipien der (chemischen, "analogen") Fotografie haben sich seit der Daguerreotypie bis zu den heute verwendeten Filmen kaum verändert.
Vom statischen Daguerreotypie zum Film mit bewegten Bildern ist es dann nur noch ein kleiner Schritt.

Abb. 1.02: Aufbau eines modernen Kleinbild-Farbnegativfilms
Abbb. 1.02: Aufbau eines modernen Kleinbild-Farbnegativfilms [2]

Allerdings hatten diese fotografisch erzeugten Bilder einen Nachteil: Man konnte sie nicht in Echtzeit von einem Ort zu einem anderen übertragen. Viele Wissenschaftler und Erfinder schufen sinnreiche Apparaturen, aber nur wenige funktionierten zufriedenstellend. Die, die funktionierten, verwendeten ein neues "Medium", dass sich Ende des 19. Jahrhunderts erst noch durchsetzen musste: die Elektrizität bzw. den Elektromagnetismus.

Das für den Menschen sichtbare Licht ist Teil des elektromagnetischen Frequenzspektrum. So erscheint es selbstverständlich, dass Bilderzeugung, -übertragung und -wiedergabe eng mit dem Elektromagnetismus verknüpft sind.

2. Elektromechanische Bildabtaster

2.1 Nipkowscheibe

Am 15. Januar 1885 wurde vom Kaiserlichen Patentamt Paul Nipkow rückwirkend zum 6. Januar 1884 das Patent auf das "Elektrische Teleskop" zugesprochen. Kernstück dieses Gerätes war eine Scheibe, in die spiralförmig 24 Löcher eingebracht waren. Wenn die Scheibe rotiert, tasten die Löcher zeilenförmig nacheinander von außen nach innen das abzubildende Objekt ab. Die Abtastfläche, also der Bildsensor, ist ein kleiner maskierter Bereich der Scheibe, in dem unabhängig von der Stellung der Scheibe immer nur ein Loch sichtbar ist. Vor dem Abtastbereich befindet sich eine Optik, die den abzubildenden Gegenstand auf die Scheibe fokussiert. Auf der dem Objekt abgewandten Seite der Scheibe fokussiert wiederum eine zweite Optik den Abtastbereich auf eine Fotozelle. Diese moduliert den sie durchfließenden elektrischen Strom entsprechend der Helligkeit des jeweils in der Abtastfläche befindlichen Loches. Das abzubildende Objekt wird somit sequentiell abgetastet.
Der mit der Helligkeitsinformation amplitudenmodulierte Strom wird auf der Übertragungsstrecke verstärkt und treibt eine Lampe im Empfänger. Die Helligkeit der Lampe ändert sich mit dem sie durchfließenden Strom. Das Licht der Lampe wird mit einer Optik auf die Abtastfläche der Nipkowscheibe im Empfänger projiziert.
Beide Nipkowscheiben laufen synchron, d.h. durch eine starre Verbindung der Achsen oder Lagengeber an den Achsen wird gewährleistet, dass sich in jedem Augenblick die Löcher in der Empfängerscheibe in der gleichen Position wie die der Senderscheibe befinden. So erzeugt jetzt die Lampe im Empfänger auf der der Lampe abgewandten Seite Leuchtpunkte mit der gleichen Helligkeit und an der gleichen Stelle wie beim abzubildenden Gegenstand.

Abb. 2.01: Bildübertragung mit Nipkow-Scheiben
Abb. 2.01: Bildübertragung mit Nipkow-Scheiben

Nachteilig bei der Bildabtastung mit einer Nipkowscheibe waren einmal die immens hohe benötigte Beleuchtung (ca. 70 000 Lux [Quelle: de.wikipedia]) und die niedrige erreichbare Auflösung von maximal ca. 440 Zeilen.
 
Aufgrund des hohen technischen Aufwands und der unbefriedigenden Bildqualität vermochte sich ein Fernsehsystem auf der Basis der Nipkowscheibe nicht durchzusetzen. Es gab viele Versuche in vielen Ländern, aber ein kommerzieller Erfolg blieb aus.
Bis 1940 wurde die Nipkowscheibe noch in Abtastern von Lichtfilm eingesetzt, wurde aber auch da bald von den elektronischen Bildabtastern abgelöst.

3. Elektronische Bildabtaster mit Kathodenstrahlröhren

3.1 Historisches

Abb. 3.01: Vladimir Zworykin mit einem Ikonoskop
Abb. 3.01: Vladimir Zworykin mit einem Ikonoskop [3]

Die erste Voraussetzung für eine elektronische Übertragung von Bildern ist die Möglichkeit diese auch elektronisch abzubilden. Mit der Erfindung der Kathodenstrahlröhre 1897 durch Karl Ferdinand Braun war der erste Schritt in diese Richtung getan. Eine weitere wichtige Etappe war die Erfindung der Ikonoskop-Röhre durch Vladimir Zworykin (1923) und deren Realisierung durch Philo Farnsworths Sondenröhre, die nach einem ähnlichen Prinzip funktionierte (1926). Das Ikonoskop bzw. die Sondenröhre  waren die ersten Bildwandler mit elektronischer, zeilenweiser Abtastung des Bildes.
Aber es dauerte noch einige Jahre bis auf der Basis der Braunschen Röhre und dem Ikonoskop ein wirklich brauchbares Fernsehsystem realisiert werden konnte. Eine wichtige Rolle in dieser Entwicklung spielte Manfred von Ardenne, der im August 1931 auf der 8. Großen Deutschen Funkausstellung als erster ein vollständig elektronisches Fernsehsystem vorstellte.

Während der Olympischen Spiele 1936 in Berlin wurden mit enormen technischen Aufwand die ersten Live-Fernsehsendungen im Regelbetrieb nach diesem Verfahren übertragen. Die von Emil Mechau bei Telefunken entwickelte fahrbare Kamera (auch spöttisch "Fernseh-Kanone" oder "Olympia-Kanone" genannt) beeindruckte schon allein durch ihre Abmessungen: 2,20 Meter lang, das Objektiv (45 kg schwer) mit einer 1,6 m Brennweite, Linsendurchmesser 40 cm. Das auf den Bildwandler projizierte Bild wurde 25 mal in der Sekunde mit einer Auflösung von 180 Zeilen abgetastet. Kernkomponente dieser Kamera war ein von Telefunken hergestelltes Ikonoskop als elektronischer Bildwandler.

Abb. 3.03: Die "Olympia-Kanone" bei den Olypischen Spielen 1936 in Berlin (hinter der Kamera Walter Bruch, der spätere Erfinder des PAL-Farbfernsehsystems)
Abb. 3.03: Die "Olympia-Kanone" bei den Olypischen Spielen 1936 in Berlin (hinter der Kamera Walter Bruch, der spätere Erfinder des PAL-Farbfernsehsystems)[4]

3.2 Ikonoskop

Aufbau und Funktionsweise

Die wichtigsten Bestandteile dieser Elektronenröhre sind die Mosaikplatte, die Elektronenkanone und das Ablenksystem.

Die Mosaikplatte besteht aus drei Schichten. Als Trägerelement und Isolator dient eine Scheibe aus Glimmer. Die dem Eintrittsfenster zugewandte Seite der Glimmerscheibe ist mit winzigen voneinander isoliert stehenden Punkten aus feinen Körnern eines photosensitiven Materials (z.B. mit Cäsium oder Cäsiumoxid bedampftes Silbergranulat) versehen. Jeder dieser Punkte entspricht einem Pixel im Bild. Das Muster dieser Schicht gab der Mosaikplatte auch ihren Namen.  Die Rückseite der Glimmerscheibe ist mit einer dünnen Schicht Silber überzogen, die über den Elektrodenanschluss und einem Arbeitswiderstand mit dem Videoverstärker verbunden ist.
Jeder der Punkte auf der Vorderseite der Glimmerscheibe bildet mit der Silberschicht auf der Rückseite einen kleinen Kondensator. Die Glimmerscheibe selber dient als Dielektrikum. Wird mittels der Optik ein Bild auf die lichtempfindliche Seite der Mosaikplatte projiziert, gibt jeder der lichtempfindlichen Punkte Elektronen ab (der sog. Äußere Photoelektrische Effekt). Das bedeutet, dass zwischen der Silberschicht und dem Punkt eine elektrische Ladung entsteht. Die Höhe der Ladung ist abhängig von der Helligkeit des Lichts, das auf den Punkt trifft. Es entsteht somit auf der Mosaikplatte ein elektrisches Ladungsabbild des optischen Bildes.

Das Ladungsabbild wird mit einem Elektronenstrahl abgetastet. Erzeugt und gebündelt wird der Elektronenstrahl in einer Elektronenkanone, die sich schräg unterhalb der Mosaikplatte in einem abgesetzten Hals des Röhrenkörpers befindet. Der Elektronenstrahl wird durch eine Hochspannung auf dem als Ring ausgebildeten Anodenbelag relativ stark beschleunigt.  Sägezahnförmige Ströme durch die Ablenkspulen lenken den Elektronenstrahl horizontal und vertikal soweit ab, dass er zeilenweise den kompletten aktiven Bereich der Mosaikplatte bestreichen kann.

Bei der Abtastung des Ladungsbildes ändert sich der Strahlstrom entsprechend der Höhe der punktförmigen Ladungen auf der Mosaikplatte. Helle Stellen im optischen Bild erzeugen viele freie Elektronen, was zu einer hohen negativen Ladung führt. An solchen Stellen sinkt der Strahlstrom. An Stellen, die im optischen Bild dunkel sind, erhöht sich der Strahlstrom, weil die punktförmige Kapazität umgeladen wird. Diese Umladung erzeugt einen proportionalen Strom durch den Arbeitswiderstand RA. Der resultierende Spannungsabfall über RA ist somit umgekehrt proportional zur Helligkeit des gerade abgetasteten Pixels. Dieses Videosignal wird weiter verstärkt und vom Sender abgestrahlt.

Abb. 3.04: Funktionsprinzip eines Ikonoskops
Abb. 3.04: Funktionsprinzip eines Ikonoskops

Um Schwächen auszumerzen ist das Ikonoskop zu vielen Varianten weiterentwickelt worden. Der Hauptnachteil des Ikonoskop liegt, neben der geringen Empfindlichkeit darin, dass die Photokathode und der Speicher des Ladungsbilds eine Einheit bilden. Aus der photosensiblen Schicht aufgrund der hohen Elektronenbeschleunigung herausgeschlagene Sekundärelektronen können in dieser Konstruktion die Ladungsverhältnisse in den benachbarten Pixeln beeinflussen, was zu einer Verschlechterung der Bildqualität (Rauschen usw.) führt.

3.3 Superikonoskop

Eine wesentliche Verbesserung der Empfindlichkeit und der Auflösung brachte die Weiterentwicklung des Ikonoskops, das Superikonoskop. Der wichtigste konstruktive Unterschied zwischen beiden ist, dass die Photokathode und der Speicher des Ladungsbildes, die Speicher- oder Mosaikplatte, voneinander getrennt sind.

Funktionsweise

Das Lichtbild wird mit einem Objektiv auf die teiltransparente Photokathode fokussiert. Durch den Äußeren Photoelektrischen Effekt werden durch die einfallenden Photonen in der lichtempfindlichen Schicht (Photo-) Elektronen freigesetzt. Es entsteht auf der Photokathode ein Ladungsbild des Lichtbildes. Mit einer Konzentrierspule wird ein magnetisches Feld erzeugt, das auf die Elektronen des Ladungsbildes wie eine Optik auf Licht wirkt. Diese "elektronenoptische Linse" projiziert das Ladungsbild auf die Mosaikplatte, die wie die Mosaikplatte eines Ikonoskops aufgebaut ist. Zwischen der lichtempfindlichen Granulatschicht auf der Vorderseite und dem Silberbelag auf der Rückseite entsteht ein weiteres Ladungsbild, das wie beim Ikonoskop mit einem Elektronenstrahl abgetastet wird. Durch die hohe Elektronenausbeute in der Photokathode hat das Superikonoskop einen wesentlich höheren Wirkungsgrad.
Aus der Mosaikplatte herausgeschlagene Sekundärelektronen werden weitgehend von einem Anodenbelag im Inneren des Glaskolben "abgesaugt".

Abb. 3.05: Funktionsprinzip eines Superikonoskops
Abb. 3.05: Funktionsprinzip eines Superikonoskops

Das Superikonoskop war bis in die 1950er die Bildaufnahmeröhre per se. Die grundlegenden Konstruktionsprinzipien des Superikonoskops wurden in praktisch alle Neuentwicklungen von Bildaufnahmeröhren bis in die nahe Vergangenheit übernommen. Abgelöst wurde das Superikonoskop durch das Orthicon (bis ca. 1968) und dem Vidicon (bis ca. 1980).

3.4 Orthicon/Image Orthicon (dt. Super-Orthikon)

Der mit hohen Spannungen stark beschleunigte Elektronenstrahl verursacht bei dem Ikonoskop, Superikonoskop und ähnlichen Konstruktionen starke Probleme mit der Sekundärelektronenemission, die sich u.a. als Rauschen im Bild bemerkbar macht. Die Bauweise des von RCA ab ca. 1940 ursprünglich für das Militär entwickelten Orthicons vermeidet dieses unerwünschte Phänomen.
Ein Orthicon/Superorthicon besteht aus drei Segmenten: dem Bildwandler, bestehend aus der Photokathode und der Speicherplatte, dem Abtastteil und der Elektronenkanone mit dem Elektronenvervielfacher.
Das auf die stark negativ (ca. -600V) vorgespannte  Photokathode projizierte optische Bild erzeugt hier ein elektronenoptisches Bild. Dessen Elektronen werden in Richtung der auf Massepotential liegenden Speicherplatte (auch "Target" genannt) beschleunigt. Ablenkspulen wirken als magnetische Linse. Die Speicherplatte ist eine hauchdünne, mit Cäsiumkristallen beschichtete Glasfolie. Die Cäsiumkristalle wirken wie kleine Kondensatoren, die von der Photokathode auftreffenden Photoelektronen geladen werden. Auf der Speicherplatte bildet sich dementsprechend ein (auf Masse bezogenes) positives Ladungsbild aus, in dem die hellsten Stellen im optischen Bild die höchste Ladung haben.
Da Cäsium eine kleine Austrittsarbeit hat, entstehen bei dem Auftreffen der Photoelektronen auf die Speicherplatte viele Sekundärelektronen. Diese werden von einem vor der Speicherplatte befindlichen, sehr feinmaschigen, Gitternetz (ca. 200 Drähte pro Zentimeter) aufgefangen und abgeleitet.
Die auf Massepotential liegende Elektronenkanone erzeugt einen Elektronenstrahl, der durch die wie eine Anode wirkende Dynode 1 beschleunigt wird. Die mit sägezahnförmigen Strömen angesteuerten Ablenkspulen lenken den scharf fokussierten Elektronenstrahl in einem präzisen Abtastraster.
Eine kurz vor der Rückseite angebrachte Bremselektrode auf niedrigem positiven Potential (ca. 0-125V) entschleunigt den Elektronenstrahl, sodass dessen Elektronen mit nur geringer Energie auf die Rückseite der Speicherplatte auftreffen. Da die Speicherplatte leicht positiv geladen ist, werden die Elektronen bis zu einem gewissen Schwellwert absorbiert ohne Sekundärelektronen zu erzeugen.
Zu der positiven Ladung der Vorderseite addiert sich nun eine negative Ladung der Rückseite der Speicherplatte. Überschreitet die negative Ladung den Schwellwert, können die Elektronen nicht mehr absorbiert werden und werden von der negativ geladenen Rückseite reflektiert. Die Anzahl der reflektierten Elektronen ist proportional zur negativen Ladung, die wiederum abhängig von der Helligkeit des Bildpunkts ist.

Abb. 3.06: Funktionsprinzip eines Image Orthicons

Die reflektierten Elektronen werden nun von der Dynode 1 (der ersten Elektrode eines Elektronenvervielfachers) angezogen und beschleunigt. Beim Auftreffen auf die Dynode 1 werden aus dem Dynodenmaterial Sekundärelektronen herausgeschlagen, die wiederum von der Dynode 2 angezogen und beschleunigt, dort weitere Sekundärelektronen erzeugen. In weiteren Stufen des Elektronenvervielfachers (siehe auch Kapitel "6.1 Photovervielfacher") werden die ursprünglich wenigen reflektierten Primärelektronen zu einem dichten Elektronenschauer multipliziert, der auf die Signalplatte auftrifft. Das erzeugt einen von der Helligkeit den Bildpunkts abhängigen Strom durch den Arbeitswiderständ RA. Die über RA abfallende Signalspannung kann dann verstärkt und weiter verarbeitet werden.
Der durch den Elektronenvervielfacher (gegenüber dem Ikonoskop rund das vierhundertfache) gesteigerte Wirkungsgrad des Image Orthicon erlaubte die Verwendung auch bei normaler Beleuchtung und im Außeneinsatz bei bedecktem Himmel.

3.5 Vidicon

Abb. 3.07: 2/3" Vidicon
Abb. 3.07: 2/3" Vidicon [5]

Das Vidicon und seine Varianten stellen die letzte Generation von Bildaufnahmeröhren (bis auf Sonderanwendungen) dar. Entwickelt wurde dieser Bildsensor Mitte der 1950er Jahre ebenfalls von der Firma RCA als vereinfachte Alternative zu den mechanisch und elektronisch recht komplexen Superikonoskop und Image Orthicon.

Der hauptsächliche Unterschied des Vidicons zu anderen Bildaufnahmeröhren ist, neben der wesentlich kleineren und leichteren Bauform, dass die photoempfindliche Schicht auf der Signalelektrode ("Target") aus einem Halbleitermaterial (Selen, Arsen, Tellur, Antimonsulfid) besteht. Diese kann mit einem "langsamen" Elektronenstrahl abgetastet werden, was die Entstehung von Sekundärelektronen vermindert und den Energieverbrauch der Röhre senkt.

Abb. 3.08: Funktionsprinzip eines Vidicons
Abb. 3.08: Funktionsprinzip eines Vidicons

Der aus zwei Schichten bestehende Bildwandler (Target) ist direkt auf das Eintrittsfenster des optischen Bildes aufgebracht. In einem Hochvakuumverfahren wird zuerst auf das Glasfenster ein dünner Film aus transparenten, leitfähigen Indiumzinnoxid (ITO) aufgedampft. Diese Signalelektrode ist mit einem metallenem Kontaktring verbunden. Das Halbleitermaterial der auf der Signalelektrode aufgebrachten photosensitiven Schicht ist ein Photoleiter. Das heißt, die elektrische Leitfähigkeit, bzw. der elektrische Widerstand eines Bildpunkts auf der photoempfindlichen Schicht ist abhängig von der Helligkeit.
Wird das Bild mit den Elektronenstrahl abgetastet, fließt ein Strom (Größenordnung: 10-9 A = nA) von der Kathode der Elektronenkanone durch den Bildpunkt auf der photoempfindlichen Schicht, der Signallelektrode und dem Arbeitswiderstand RA nach Masse. Die Höhe des Strahlstroms ist dabei abhängig  vom elektrischen Widerstand des Bildpunkts. Ein feinmaschiges Gitter vor dem Target dient als Kollimator und verhindert ein Ablenken der Elektronen von der sich negativ aufladenden Photoschicht.

Die Empfindlichkeit des Vidicons ist nochmals etwa zweihundertmal höher als die des Image Orthicons. Nachteilig hingegen wirkt sich die Trägheit der Photoschicht aus, die zu einer starken Schlieren- und Fahnenbildung bei sich schnell bewegenden Bildinhalten führte. In Weiterentwicklungen des Vidicons durch Philips ("Plumbicon") wurden Bleioxid oder eine Mischung aus Selen, Arsen und Tellur (SeAsTe -> Saticon (Hitachi, Sony, Thomson)) als Photoschicht verwendet, was diese Effekte drastisch reduzierte.

Auch heute noch werden Kameras mit Vidicons zur Überwachung z.B. von hoch strahlungsbelasteten Umgebungen wie in Kernkraftwerken und Forschungseinrichtungen eingesetzt.

3.6 Röhren-Farbkameras

Bis zum 25. August 1965 10:57 Uhr war Fernsehen in Deutschland in Schwarz-Weiß. Dann drückte Willy Brandt während der 25. Deutschen Funkausstellung in Berlin auf den berühmten roten Knopf und seitdem war auch in Deutschland die Fernsehwelt farbig (in den USA schon seit 1953).

Abb. 3.09: Farbfernsehkamera KCU 40 auf Briefmarke (1982)
Abb. 3.09: Farbfernsehkamera KCU 40 auf Briefmarke (1982) [6]

Besonders auffällig und vielen Zuschauern von damals sind noch die eleganten, auf riesigen fahrbaren Stativen befestigten blau-weißen Kameras, die bei Live-Übertragungen aus den Studios eingesetzt wurden, in Erinnerung. Eine solche Kamera KCU 40 der Firma Bosch Fernseh GmbH ("Fese") kostete 1969  gut 250.000 DM. Ein Objektiv von Schneider-Kreuznach dazu nochmals 60.000 DM. Bei solchen Preisen war natürlich eine Verwendung im Consumer-Bereich ausgeschlossen, zumal die zur Kamera "passenden" Magnetband-Aufzeichnungsgeräte mit gut 400.000 DM zu Buche schlugen.
Erst Ende der 1970er Jahre wurden Video-Kameras und Aufzeichnungsgeräte, wenn zunächst auch nur in Schwarz-Weiß, für den den privaten Gebrauch erschwinglich.
Bildaufnahmeröhren sind zwar helligkeits-, aber nicht farbempfindlich. Um ein farbiges (Bewegt-) Bild auf elektronischem Weg zu erzeugen, muss das Licht des abzubildenden Objekts, wie in den einzelnen Schichten eines Films in der Farbfotografie, mit Filtern in die drei Grundfarben Rot, Grün und Blau zerlegt werden. Jede Farbkomponente ist dann separat in einem Bildwandler in sein elektronisches Farbwertsignal umzuwandeln. Die drei Farbwertsignale sind dann, jedes für sich, in dem gewünschten Farbraum weiter zu verarbeiten.

Generell können zwei wichtige Grundkonstruktionen von elektronischen Farbkameras unterschieden werden: 3-Röhrensysteme und Bildaufnahmeröhren mit integriertem Farbfilter.

3.6.1 Dreiröhren-Kameras - die Profis

Professionelle Studiokameras sind zumeist auf schweren, fahrbaren Stativen ("Pumpe" oder "Pedestal") befestigt. Die Bedienung kann manuell, aber auch ferngesteuert aus einem Regieraum heraus vorgenommen werden. Elektronisch gesteuerte Servomotoren übernehmen dann die Kontrolle über alle Funktionen. Die Bild- und Tonaufzeichnung erfolgt getrennt, damit sie separat nachbearbeitet werden können. Die von der Kamera gelieferte Bildqualität ist hochwertig (Auflösung > 5  MHz). Es werden praktisch ausschließlich 3-Röhrensysteme eingesetzt.
Bei der am häufigsten eingesetzten Konstruktion von 3-Röhrenkameras wird das vom aufzunehmenden Objekt einfallende Licht in einem Strahlteiler, der aus zwei dichroitischen Prismen besteht, durch Interferenz, Teil- und Totalreflexion in drei monochrome Einzelstrahlen aufgeteilt. Jeder Einzelstrahl stellt ein Teilspektrum, zumeist die drei Grundfarben Rot, Grün und Blau ("RGB"), des einfallenden Lichts dar. Jeder Einzelstrahl wird von einer eigenen Bildwandlerröhre abgetastet und die Farbwertesignale in separaten Kanälen elektronisch weiterbearbeitet.

Abb. 3.10: Prinzip einer 3-Röhrenfarbkamera
Abb. 3.10: Prinzip einer 3-Röhrenfarbkamera

Kameras für die Elektronische Berichterstattung müssen kompakt und mobil sein, da sie von den Außenteams zumeist auf der Schulter getragen werden müssen. Kennzeichnend für diesen Typ Kamera ist, dass ein Aufzeichnungsgerät in das Kameragehäuse integriert ist. Die geforderte Bildqualität muss zwar nicht ganz an die von Studiokameras heranreichen, muss aber trotzdem sehr gut sein. Auch bei mobilen professionellen Kameras wurden daher praktisch ausschließlich 3-Röhrenkameras mit kompakten Bildwandlern (z.B. mit drei Plumbicons oder Saticons) eingesetzt.

3.6.2 Röhrenkameras mit Farbfilter - für den Consumer-Markt

Technische Geräte für den Consumer-Markt sind immer ein Kompromiss zwischen einfacher Bedienung, Qualität und Preis. Ab ca. 1976 wurden Schulterkameras mit umhängbaren Videorecorder angeboten, diese wurden aber schon bald von günstigeren, handlicheren Camcordern (Camera mit Recorder) vom Markt verdrängt.
3-Röhrenkameras sind für einen "Hausgebrauch" eindeutig zu unhandlich, technisch viel zu aufwändig und damit zu teuer. Daher wurde bei Kameras für den Consumer-Markt aus Kostengründen nur ein einziger Bildwandler mit geringerer Auflösung eingesetzt. (Dieses war absolut unproblematisch, da zu der Zeit auch die magnetischen Aufzeichnungsgeräte in ihrer Auflösung begrenzt waren (Luminanzauflösung bei VHS ca. 2,8 MHz).)

Da bei Consumer-Kameras zur Aufnahme des Bildes nur ein Bildwandler zur Verfügung stand, wurde in den ersten Kameragenerationen Streifenfilter, wie sie in Abb. 3.11 dargestellt sind, zur Gewinnung der Farbkomponenten aus dem natürlichen Bild verwendet. Die Farbinformation eines Farbpixels ist hier, je nach Filtertyp, auf drei oder vier Streifen verteilt. Bei der Abtastung eines Bildpunktes wird dessen vollständige Farbinformation also zeitlich nacheinander übertragen.
Streifenfilter können außen, vor dem Eintrittsfenster des Bildwandlers, aber auch innen, nahe an der photoempfindlichen Schicht angebracht sein. Die meisten Streifenfilter sind mehrschichtige Interferenzfilter (dichroitische Filter), die aus Metallverbindungen hergestellt sind. Neben reinen RGB-Filtern werden auch Filter mit Komplementärfarben eingesetzt. Diese haben gegenüber Grundfarbenfilter den Vorteil, dass sie nahezu die doppelte Lichtmenge passieren lassen. Cyan ist beispielsweise die Komplementärfarbe zu Rot und lässt Grün und Blau durch. Gelb ist die Komplementärfarbe zu Blau und lässt Rot und Grün passieren.

Abb. 3.11: Varianten von Streifenfiltern
Abb. 3.11: Varianten von Streifenfiltern
Abb. 3.12: Rückgewinnung der Farbinformation
Abb. 3.12: Rückgewinnung der Farbinformation

Über eine an die Streifenfilter angepasste elektronische Matrix lassen sich mithilfe von Gatesignalen die Grundfarben aus der Signalspannung (S) des Bildwandlers durch Addition und Subtraktion der Farbinformationen (hier: Blau, Cyan, Magenta und Weiß) wiedergewinnen (Abb. 3.12).
Die Basisfrequenz (Trägerfrequenz) der Gatesignale richtet sich nach der effektiven Abtastbreite des Bildwandlers, der Abtastperiode und der Anzahl der Streifensegmente. Das "Gatesignal" für Blau ist im nebenstehenden Beispiel eine Gleichspannung.

Einige Varianten von Streifenfilter weisen in ihrem Muster schwarze Flächen oder Masken auf. Während der Abtastung dieser Flächen ist der Strahlstrom am niedrigsten. Dieser sog. Dunkelstromwert wird für den Abgleich der Kameraelektronik benötigt.

Streifenfilter sind zwar relativ einfach und kostengünstig herzustellen, haben aber den großen Nachteil, dass sie unvermeidbar  Moiré-Störungen im Bild verursachen. Deshalb wurden spätere Generation von Bildwandlern mit Mosaikfiltern ausgestattet, wie sie auch heute noch in der digitalen Foto- und Videotechnik verwendet werden.

Abb. 3.13: Gerätekombination JVC GC-4800/PV-4800 (1975)
Abb. 3.13: Gerätekombination JVC GC-4800/PV-4800 (1975)) [7]

Die Farbkamera GC-4800 von JVC (hier mit dem transportablen Videorecorder PV-4800) wurde ab 1975 verkauft. Die GC-4800 war eine 2-Röhrenkamera (beides 2/3" Vidicons, elektrostatische Fokussierung, elektromagnetische Ablenkung) mit einem 1,5" CRT-Sucher.
Eine Aufnahmeröhre erzeugte nur das Luminanzsignal (Y), die zweite Röhre (C) lieferte die Farbkomponentensignale Rot und Blau. Die Zerlegung des natürlichen Bildes in die Primärfarben erfolgte mit einem Streifenfilter bestehend aus 54 BMCW-Segmenten (siehe Abb. 3.11).
Gewicht der Kamera: 3,8 kg
Gewicht des Recorders: 8,2 kg (inkl. Akkus)
Preis: unbekannt

4. Elektronische Bildabtaster mit Halbleitern

Die Entwicklung von hochauflösenden digitalen Bildwandlern auf der Basis von Halbleitern hat zu einem radikalen Umbruch in den den Bildaufzeichnungsverfahren geführt und hat die klassischen Medien wie Film und Fotopapier fast vollständig abgelöst. Diese neuen Sensoren basieren hauptsächlich auf zwei Technologien:
- CCD (Charge Coupled Device = engl. "Ladungsgekoppeltes Bauelement")
- CMOS (Complementary Metal-Oxide Semiconductor = engl. "komplementärer Metalloxid-Halbleiter")
Beide Technologien wurden eigentlich für andere Zwecke in den 1960er und 1970er Jahren entwickelt. Das CCD sollte ursprünglich als Speicher in digitalen Schaltungen (als Schieberegister) Anwendung finden. Der Begriff CMOS beschreibt zum Einen einen Herstellungsprozess für Halbleiterschaltungen, zum Anderen eine weit verbreitete Familie von Logikbausteinen. Die Entdeckung der Verwendbarkeit beider Halbleiterelemente als Bildsensoren wurde erst nachträglich gemacht.
Kernelemente beider Sensortypen sind die Photodiode und der Innere photoelektrische Effekt. CCD- und CMOS-Sensoren sind helligkeitsempfindlich. Die Farbinformation eines abgelichteten Objekts muss durch Farbfilter gewonnen werden.

Abb. 4.01: Prinzip des Inneren photo-elektrischen Effekts in einem Siliziumkristall
Abb. 4.01: Prinzip des Inneren photo-elektrischen Effekts in einem Siliziumkristall

Innerer photoelektrischer Effekt

Der Innere photoelektrische Effekt ist ein Phänomen, das ausschließlich in Halbleitern auftritt. Dabei werden zwei Arten unterschieden: die Photoleitung und der Photovoltaische Effekt. Für die Funktionsweise von CCD- und CMOS-Bildsensoren ist allerdings nur die Photoleitung relevant.
Das Grundprinzip der Photoleitung ist die Erhöhung der elektrischen Leitfähigkeit eines Halbleiters durch Bildung von freien Ladungsträgern bei der Bestrahlung mit Photonen. Wird ein Halbleitermaterial mit Photonen bestrahlt, können Elektronen bei Zusammenstößen durch die Absorption von Energie aus dem Valenzband in das energetisch höhergelegene Leitungsband gehoben werden. Dabei verlassen die Elektronen den Kristallverbund und werden zu freien Ladungsträgern. An der Stelle, wo sich ein Elektron im Kristallverbund befand, bildet sich ein positiv geladenes "Defektelektron" oder Loch, das ebenfalls beweglich ist. Beim Inneren photoelektrischen Effekt werden freie Elektronen und Löcher immer paarweise gebildet.
Die Stärke mit der der Innere photoelektrische Effekt auftritt, bzw. wie stark sich die Leitfähigkeit des Halbleiters ändert, ist weitestgehend vom Halbleitermaterial selber und der Wellenlänge des einstrahlenden Lichts abhängig.

4.1 CCD (Charge Coupled Device)

Das CCD wurde 1969 bei AT & T Bell Labs als Ansteuerungsbaustein für Blasenspeicher (ein nichtflüchtiger, bitorientierter Festspeicher) entwickelt. Das Funktionsprinzip des CCD beruht auf der Fähigkeit, dass Ladungen entlang der Oberfläche eines Halbleiters transportiert werden können. Neben der Funktion als Schieberegister dachte man auch an eine Nutzung als Verzögerungsleitung, ähnlich  eines BBD (Bucket Brigade Device = engl. "Eimerkettenspeicher").
Nachdem man aber die Lichtempfindlichkeit von CCDs entdeckt hatte, wurden schnell die ersten zweidimensionalen Arrays zum Zweck der Bildwandlung entwickelt.

4.1.1 Funktionsweise

Ein CCD für Bildwandler besteht aus einem ein- oder zweidimensionalen Array aus Fotodioden. Erstere werden beispielsweise für Scanner in Bürogeräten wie Kopierer oder Faxgeräten eingesetzt. Für digitale Fotoapparate werden zweidimensionale Arrays verwendet.
Die einzelnen Zellen des Arrays werden von transparenten Elektroden aus ITO gebildet, die sich von einer isolierenden Schicht aus Siliziumdioxid getrennt, auf einem p-dotierten Siliziumsubstrat befinden.  Das von einer Optik auf das Array projizierte Licht (= Bild) erzeugt in jeder Zelle aufgrund des Inneren photoelektrischen Effekts freie Ladungsträger bestehend aus Elektronen-Loch-Paaren. Die Anzahl der Ladungsträger wird von der Lichtmenge bestimmt.
Wird an die Elektrode eine positive Spannung angelegt, trennen sich die Ladungsträger. Die Elektronen wandern tief in das Siliziumsubstrat und bilden dort einen sog. Potentialtopf oder Ladungspool. Die Löcher fließen in die Elektrode ab.  Werden die Elektroden des Arrays zeitlich nacheinander eingeschaltet, wandert der Potentialtopf von Elektrode zu Elektrode bis über die letzte Elektrode die Ladung abgeleitet (= ausgelesen) wird und in einer elektronischen Schaltung verstärkt und weiter verarbeitet werden kann.

Abb. 4.02: Ladungsverschiebung in einem CCD
Abb. 4.02: Ladungsverschiebung in einem CCD

4.1.2 CCD-Typen

CCD-Bildsensoren können in verschiedenen Architekturen implementiert werden. Die Architekturen unterscheiden sich darin auf welche Weise die Problematik der zeitlichen Begrenzung der Lichtmenge, die auf den Sensor fällt, angegangen wird.

Full Frame-CCD

Full Frame-CCDs sind die am einfachsten aufgebauten Sensoren und können mit sehr hohen Auflösungen hergestellt werden. Sie verfügen nur über ein einzeiliges Transferregister als Zwischenspeicher und die Verschlusszeit kann nicht über die Sensorsteuerung eingestellt werden. Der Sensor muss sich daher hinter einem mechanischen Verschluss befinden, weil die lichtempfindliche Sensorfläche nur während der Belichtungszeit dem Licht ausgesetzt werden darf.   Fiele während des Auslesevorgangs des CCD weiterhin Licht auf die Zellen, würden dort weiterhin Ladungen entstehen und das Bild verschmieren (sog. Smearing). Full Frame-CCDs werden hauptsächlich für fotografische Zwecke in Wissenschaft und Astronomie eingesetzt.

Abb. 4.03: Full Frame-CCD
Abb. 4.03: Full Frame-CCD

Die Zellen von Full Frame-CCDs sind spaltenweise miteinander verbunden. Die jeweils letzte Zelle jeder Spalte ist mit einem Überzug vor Licht geschützt. Zusammen bilden sie das horizontal angeordnete Transferregister. In diesen Zellen werden während der Belichtung keine Ladungen aufgebaut.
Zum Auslesen der CCD-Zellen werden die Ladungen vertikal um eine Zeile verschoben. Die in den Zellen des Transferregisters werden anschließend durch ein horizontales Verschieben ausgelesen, verstärkt und dann in einem Analog/Digitalwandler in eine digitale Information umgewandelt.

Frame Transfer-CCD

Ein Frame Transfer-CCD ist in zwei Bereiche aufgeteilt. Beide Bereiche werden in einem Prozess hergestellt, nur erhält der Bereich der Transferregister einen lichtdichten Überzug.
Das natürliche Bild wird auf den Zellen im aktiven Sensorbereich abgebildet. Nach der Belichtung wird das gespeicherte Bild, bzw. die Ladungen in den Zellen, sehr schnell in die Transferregister übertragen. Das Auslesen der Ladungen aus den Transferregistern gestaltet sich dann wie beim Full Frame-CCD. Während des Auslesen des Bildes kann schon das nächste Bild im aktiven Sensorbereich belichtet werden. Sollen wie in der normalen Fotografie üblich, sehr kurze Belichtungszeiten realisiert werden, müssen Geräte mit Frame Transfer-CCDs ebenfalls mit mechanischen Verschlüssen (z.B. Umlaufblenden bei professionellen Videokameras) ausgestattet sein.
Nachteilig an Frame Transfer-CCDs ist, da für jeden Bildpunkt zwei Zellen benötigt werden, eine relativ große Bauweise erforderlich wird.

Abb. 4.04: Frame Transfer-CCD
Abb. 4.04: Frame Transfer-CCD
Interline Transfer-CCD

Interline Transfer-CCDs haben etwa die gleichen mechanischen Abmessungen wie Full Frame-CCDs, verfügen aber wie Frame Transfer-CCDs über zwei Typen von Zellen: lichtempfindliche Sensorzellen und daneben jeweils eine abgedeckte Zelle als Zwischenspeicher. Am Ende der Belichtungszeit werden für alle Pixel gleichzeitig die Ladungen aus den Sensorzellen in die Zwischenspeicher übernommen und von dort durch vertikales und horizontales Verschieben ausgelesen.
Vorteilhaft bei Interline Transfer-CCDs ist, dass wegen der schnellen und vollständigen Übernahme der Bildinformation aus den Sensorzellen in die Zwischenspeicher kein mechanischer Verschluss benötigt wird. Nachteilig wirkt sich bei dieser Konstruktion der geringere Füllfaktor der Sensoren aus. Dieses führt zu einer geringeren Lichtempfindlichkeit bzw. einer höheren Rauschneigung bei wenig Licht. Eine Möglichkeit dieses zu kompensieren ist das Aufbringen von Mikrolinsen, die das einfallende Licht sammeln, über den Sensorzellen.
Ein weiterer Nachteil bei Interline Transfer-CCDs ist die Anfälligkeit gegenüber dem Smear-Effekt. Der macht sich durch durch senkrechte helle Streifen an Lichtern (sehr helle Stellen) im Bild bemerkbar. Ursache für diesen Effekt ist die relativ lange Auslesezeit der Zwischenspeicher. Es gelangen durch Beugung Photonen in die abgedunkelten Zwischenspeicherzellen und lassen dort  parasitäre Ladungen entstehen.

Abb. 4.05: Interline Transfer-CCD
Abb. 4.05: Interline Transfer-CCD
Frame Interline Transfer-CCD

Das Frame Interline Transfer-CCD kombiniert das Prinzip des Full Transfer-CCD mit dem des Interline Transfer-CCD. Bei dieser Konstruktion können die Ladungen aus den aktiven Sensorzellen sehr schnell in die Zwischenspeicherzellen und von dort aus ebenso schnell in die vollständig lichtdichten Transferregister übertragen werden. Parasitäre Ladungen können sich daher nicht aufbauen und der Smear-Effekt wird minimiert. Nachteilig auf die Herstellungskosten wirkt sich aus, dass pro Bildpunkt drei Zellen benötigt werden.
Wie beim Interline Transfer-CCD kann bei Geräten mit Frame Interline Transfer-CCDs die Belichtungssteuerung elektronisch vorgenommen werden. Ein mechanischer Verschluss wird daher nicht benötigt.

Abb. 4.06: Frame Interline Transfer-CCD
Abb. 4.06: Frame Interline Transfer-CCD

4.2 CMOS-Sensoren

Die technisch sehr vielfältig verwendbare CMOS-Technologie wurde bereits 1963 patentiert. Sie findet Anwendung in digitalen logischen Bausteinen (Gatter. Flipflops, usw.), Microcomputer und Microcontroller, Speichern (RAMs) aber auch in analogen Schaltungen wie z.B. Operationsverstärkern.
Wie es die Bezeichnung CMOS = Complementary Metal-Oxide Semiconductor = komplementärer Metalloxid-Halbleiter schon beschreibt, sind CMOS-Schaltungen typischerweise Komplementärschaltungen, bestehend aus n-Kanal- und p-Kanal- Feldeffekttransistoren (MOSFETs) auf einem gemeinsamen Substrat. CMOS-Schaltungen sind sehr hochohmig. Das bedeutet, dass nur kleine Ströme fließen. Dementsprechend ist die Leistungsaufnahme und auch die Verlustleistung dieser Schaltungen sehr niedrig. Weiterhin zeichnen sich CMOS-Schaltungen durch einen hohen Störabstand, geringes Rauschen und eine hohe Bandbreite aus.

Active Pixel Sensor (APS)

CMOS-Bildsensoren vom APS-Typ (Active Pixel Sensor = aktiver Pixelsensor) wie sie heute nur noch verwendet werden, wurden zwischen 1993 und 1995 am Jet Propulsion Labratory nahe Pasadena/Kalifornien als Prototypen entwickelt. Ein Spin-off brachte die CMOS-Sensoren dann zur Marktreife (zuerst für optische Computermäuse, Webcams usw., dann für Fotoapparate und Camcorder).
Active Pixel bedeutet, dass zu jedem Sensorelement neben dem eigentlichen Photosensor und den dazugehörenden Schalttransistoren zusätzlich noch eine Verstärkerschaltung zum Auslesen des Signals gehört. Anfänglich reduzierten diese Hilfsschaltungen die lichtempfindliche Fläche des Sensors auf etwa ein Drittel, was sich in einer recht schlechten Lichtempfindlichkeit und einem hohen Bildrauschen äußerte.
Erst die Weiterentwicklungen durch die Erhöhung der Integrationsdichte und die Verwendung von Mikrolinsen, die das einfallende Licht auf die lichtempfindliche Fläche der Sensorzelle konzentrieren, machten CMOS-Bildsensoren wirklich praxistauglich und für den Markt einsatzfähig.

Abb. 4.07: APS-Zelle
Abb. 4.07: APS-Zelle

Die einfachste Form einer APS-Zelle besteht aus einer Photodiode (DPH), die den Lichtensor darstellt und drei Feldeffekttransistoren. Mit einem Resetimpuls wird der Resettransistor TRESET kurz durchgeschaltet. Damit wird die Kathode der Photodiode DPH auf einen definierten Wert VRESET vorgespannt und so deren Sperrschichtkapazität mit einer definierten Ladung versehen.
Bei der folgenden Belichtung wird die Sperrschichtkapazität abhängig von der Lichtstärke und der Belichtungszeit mehr oder weniger stark vom Photostrom entladen. Am Ende der Belichtungszeit wird die verbliebene Ladung über den Verstärkertransistor TV (meist ein Source-Follower als Impedanzwandler, Verstärkung=1) ausgelesen und über Selektionstransistor TSEL einem Analog-Digital-Wandler zugeführt.

Abb. 4.08: Auslesen eines CMOS-Sensors
Abb. 4.08: Auslesen eines CMOS-Sensors
Vorteile eines CMOS-Bildsensors gegenüber einem CCD-Sensor
  • Der Hauptvorteil gegenüber einem CCD-Bildsensor ist, dass ein CMOS-Sensor preiswerter gefertigt werden kann. Für die Adresslogik, deren Ansteuerstufen und für die bildsignalverarbeitenden Stufen kann die gleiche Fertigungstechnologie eingesetzt werden. Das bedeutet, dass diese Stufen mit dem Sensorarray zusammen auf einem Chip integriert werden können.
  • CMOS-Sensoren haben einen geringeren Stromverbrauch.
  • CMOS-Bildsensoren nehmen das Lichtspektrum bis in den Infrarotbereich auf. Als zusätzliches Feature kann bei manchen Kameras und Camcordern das sich normalerweise im Strahlengang befindliche Infrarotsperrfilter weggeklappt werden. Dann sind, mit entsprechender IR-Beleuchtung, Aufnahmen in absoluter Dunkelheit möglich.
  • Ein CMOS-Bildsensor ist unempfindlich gegenüber Smearing und Blooming.
  • Dadurch, dass jede CMOS-Sensorzelle direkt adressiert, ausgelesen und verarbeitet werden kann, sind Funktionen wie digitales Zoomen und elektronischer Bildstabilisator möglich.
Nachteile
  • Aufgrund des geringeren Füllfaktors des CMOS-Sensorarrays eine geringere Lichtempfindlichkeit.
  • Durch das sequentielle Belichtungs- und Ausleseverfahren  können unter bestimmten Bedingungen merkwürdige Bildverzerrungen ("Rolling Shutter-Effekt") auftreten.
Abb. 4.09: 16,2 Megapixel CMOS-Sensor in einer digitalen SLR-Fotokamera (Spiegel hochgeklappt, Verschluss geöffnet)
Abb. 4.09: 16,2 Megapixel CMOS-Sensor in einer digitalen SLR-Fotokamera (Spiegel hochgeklappt, Verschluss geöffnet)

4.3 Farbsensoren

Wie schon in der Einführung zu diesem Kapitel vermerkt wurde sind CCD- und CMOS-Sensoren lediglich helligkeitsempfindlich. Die Farbinformation eines abgelichteten Objektes muss durch Farbfilter gewonnen werden. Entweder werden hierzu drei Sensorchips über dichroitische Prismen zu einem Wandler mit drei Farbkanälen zusammengeführt (siehe auch Kapitel "Dreiröhren-Kameras") oder man überzieht einen einzelnen Bildsensor mit einem schachbrettartigen oder wabenförmigen farbigen Muster, einem Mosaikfilter.
Der Anteil der einzelnen Farben an der Gesamtfläche des Filters ist abhängig von der Physiologie des menschlichen Sehens. Für die Grundfarbe Grün ist unser Auge besonders empfindlich. Über 70 Prozent unseres Helligkeitsempfindens wird von Grün gestellt (Rot: 21%, Blau:7% ). Deshalb ist Grün bei allen Varianten von Mosaikfiltern mit dem höchsten Flächenanteil vertreten.
Wie bei Röhren-Farbkameras werden neben reinen RGB-Filtern auch Filter mit Komplementärfarben eingesetzt. Das Bayer-Filter (nach dem Erfinder Bryce E. Bayer) ist allerdings am gebräuchlichsten. In diesem Filter wechseln sich zeilenweise rote und grüne Felder mit blauen und grünen Feldern ab. Das bedeutet, dass in keiner Zeile alle drei Grundfarben vorhanden sind. Um nun alle Farben in allen Zeilen naturgetreu wiedergeben zu können, muss der Farbwert für jedes Pixel im Bild aus den Farbwerten der benachbarten Pixeln interpoliert werden (engl.: Demosaicing). Dieses übernehmen Signalprozessoren mittels spezieller Algorithmen.
Die meisten Mosaikfilter sind von einer schwarzen Maske umgeben. Über die unter der Maske liegenden Pixel kann das Grundrauschen des Sensors gemessen und in Farbwertberechnung mit einbezogen werden.

Abb. 4.10: Einige Varianten von Farbfiltern
Abb. 4.10: Einige Varianten von Farbfiltern

4.4 Backside Illumination Sensor (BSI)

Backside Illumination Sensor oder Back-illuminated Sensor (= Rückwärtige Belichtung) ist eine für den Consumer-Markt relativ neue Variante (Einführung 2009) von CCD und CMOS-Sensoren, deren Technologie bislang nur in sehr lichtempfindlichen Überwachungskameras und Sensoren für die Astronomie verwendet wurde. Mittlerweile (2014) werden BSI-Sensoren auch in Mobiltelefone und mobilen Computern eingebaut.

Abb. 4.11: Vergleich Rückseitenbelichteter Sensor / Frontseitenbelichteter Sensor
Abb. 4.11: Vergleich Rückseitenbelichteter Sensor / Frontseitenbelichteter Sensor [8]

Traditionelle Frontseitenbelichtete Bildsensoren sind ähnlich einem menschlichen Auge aufgebaut. Aus produktionstechnischen Gründen ordnete man bei Frontseitenbelichtete Bildsensoren vorn die Linse, in der Mitte die Transistoren und Leiterbahnen der aktiven Matrix (welche den Axonen der Ganglienzellen des Auges entsprechen) und hinten die lichtempfindlichen Sensoren (= Zapfen und Stäbchen) an. Der Nachteil dieser Konstruktion ist, das einfallendes Licht teilweise von der Matrix reflektiert und an ihr gebeugt wird. Dieses verringert die Lichtmenge, die auf die Sensorzelle fallen kann.
Rückseitenbelichtete Bildwandler ähneln mehr dem Auge eines Kopffüßlers. Hier findet die Reizweiterleitung hinter den Sinneszellen statt. Beim Rückseitenbelichtete Bildwandler liegt die aktive Matrix also hinter den Photodioden. Diese Anordnung bringt gegenüber einem vergleichbaren Fronseitenbelichtetem Bildwandler eine Verbesserung des Signal/Rauschabstandes von etwa 8 dB (+6 dB Empfindlichkeit, -2dB Rauschen).

5. Scanner

Kennzeichnend für (Digital-) Kameras ist, dass der Bildsensor eine zweidimensionale Anordnung von vielen einzelnen lichtempfindlichen Zellen ist. Diese Anordnung eines Flächensensors begrenzt die die Auflösung des aufgenommenen Bildes auf die maximale Anzahl der Pixel des Sensors. Bei einem Scanner (engl. = Abtaster) hingegen besteht der Sensor aus nur einer einzigen lichtempfindlichen Zelle oder aus mehreren Zellen, die zu einem eindimensionalen Array angeordnet sind. Dieses Array tastet in einen optomechanischen Verfahren das zu scannende Objekt ab. Wie und womit der Scanvorgang durchgeführt wird, ist abhängig vom Scannertyp. Stellvertretend sollen hier nur der Office-Scanner und der Fernerkundungsscanner, wie er in Erdbeobachtungssatelliten (z.B. dem Landsat 7) zum Einsatz kommt, angesprochen werden.

5.1. Office-Scanner

Office-Scanner sind zumeist Flachbettscanner bei denen Schriftstücke auf ein Vorlagenglas gelegt werden und zeilenweise von einer auf einem beweglichen Schlitten ("Support") befindlichen CCD-Zeile abgetastet wird. Mit auf dem Schlitten befindet sich auch eine Lichtquelle (LEDs oder Kaltkathodenlampen) zur Beleuchtung des Scanbereiches der Vorlage. Ein Lichtleiter wirkt als Diffusor und gewährleistet eine gleichmäßige Lichtverteilung. In modernen Farb-Scannern wird eine RGB-LED zur Beleuchtung eingesetzt. Die einzelnen farbigen LEDs werden nacheinander eingeschaltet um die farbigen Anteile der Vorlage zu erfassen. In älteren Scannern waren die CCDs mit Farbfiltern versehen, was das Auflösungsvermögen herabsetzte.

Abb. 5.01: Aufsicht auf den Scanschlitten eines Office-Scanners
Abb. 5.01: Aufsicht auf den Scanschlitten eines Office-Scanners

Der Scanschlitten läuft, von einem Schrittmotor über einen Zahnriemen angetrieben, auf einem präzisen Führungsprofil. Mittels Endschalter kann während eines Initiallaufes die Position des Schlittens bestimmt werden.
Die während des Scans von der CCD-Zeile erfassten Helligkeitsinformationen werden über ein sehr flexibles Flachbandkabel einem Signalprozessor zugeführt, der aus den sequentiellen Scandaten ein zweidimensionales Bild erzeugt.

Abb. 5.02: Funktionsprinzips eines Office-Scanners (Seitenansicht)
Abb. 5.02: Funktionsprinzips eines Office-Scanners (Seitenansicht)

 

5.2 Fernerkundungsscanner

Aufgabe und Prinzip der Fernerkundung

Fernerkundung ist die Beschaffung von Informationen über ein Objekt ohne in einen körperlichen Kontakt mit dem Objekt zu treten. Im modernen Sprachgebrauch ist damit die Erkundung der Erdoberfläche aus der Luft oder aus dem Weltraum gemeint. Die Erfassung kann passiv, z.B. durch Messen der reflektierten oder abgegebenen (elektromagnetischen) Strahlung sein oder aktiv, z.B. mit Radar, vorgenommen werden.
Abhängig von der Beschaffenheit der Erdoberfläche werden unterschiedliche spektrale Anteile der elektromagnetischen Strahlung reflektiert oder absorbiert. Mit Hilfe von spezialisierten Sensoren lassen sich neben dem sichtbaren Licht auch unsichtbare Strahlungsanteile erfassen. Beide zusammen bilden für jede Landschaft oder Phänomen ein charakteristisches Reflexionsspektrum (sog. " Spektrale Signatur"), das, wenn kalibriert, auch kleinste Änderungen in einer Landschaft über einen Zeitraum hinweg aufzeigen kann.

Die für die Fernerkundung geforderten Auflösungen der bildgebenden Instrumente ist so hoch, dass Flächensensoren wie sie in  Fotoapparaten eingesetzt werden, praktisch nicht verwendbar sind. Die Datenmenge der Bildinformation ist so groß, dass sie nur von Scannern geliefert werden können. Das grundlegende Funktionsprinzip von Fernerkundungsscannern soll hier am Beispiel des Erdsensors ETM+ (Enhanced Thematic Mapper plus = verbesserter Fachkartograph) des zivilen Erdbeobachtungssatelliten Landsat-7 aufgezeigt werden.

Landsat

Die Satelliten der Landsat-Serie erkunden seit 1972 die Erdoberfläche, erfassen Veränderungen und kartographieren natürliche Ressourcen. Landsat-7 wird wie seine Vorgänger von der NASA und der USGS (U.S. Geological Survey) betrieben. Die erfassten Daten stehen wissenschaftlichen, privaten und kommerziellen Institutionen und den Ordnungsbehörden zur Verfügung. So stammen z.B. die meisten Aufnahmen in Google Earth von Landsat-Satelliten.

Abb. 5.03: Landsat-7 mit dem Erdsensor ETM+
Abb. 5.03: Landsat-7 mit dem Erdsensor ETM+ [9]

Der 4,30 m lange, 2,80 m hohe, 2.200 kg schwere und 660 Mio. Dollar teure Landsat-7 wurde am 15. April 1999 in seine 705 km hohe Umlaufbahn geschossen. Diese ist so gewählt, dass Landsat-7 die Erde jeden Tag 14 mal umkreist. Innerhalb von 16 Tagen kann so die komplette Erdoberfläche einmal erfasst werden. Der beim Überflug erfasste Pfad (FOV = Field of View) ist jeweils ca. 185 km breit. Seine acht Fernerkundungssensoren im ETM+ erzeugen einen Datenstrom von ca. 150 MBit/s, die in einem 378 GBit Solid State Recorder (SSR) zwischengespeichert werden. Befindet sich der Satellit in Reichweite einer Bodenstation, werden die Daten zur Erde überspielt.

Der Landsat-7 Erdsensor
Die Detektoren des Erdsensors sind in zwei Gruppen (Prime Focal Plane und Cold Focal Plane = Primäre Fokusebene und kalte Fokusebene) auf einem gemeinsamen Träger untergebracht.
Ein bidirektional schwingender Schwenkspiegel tastet die Sichtlinie auf der Erdoberfläche abwechselnd in West-Ostrichtung und Ost-Westrichtung ab. Die Flugrichtung des Satelliten ist während der Erkundung von Nord nach Süd. Der mit einem Schwenk ("Sweep") des Spiegels abgetastete Teil des Pfades ist ca. 480 m tief (IFOV = Instantaneous Field of View).
Ein Ritchey-Chretien-Teleskop mit zwei Spiegeln fokussiert das einfallende Licht auf die Detektorebene. In Abb. 5.04 nicht dargestellte optische Subsysteme im Teleskop korrigieren Abbildungsfehler mittels einer Bewegungskompensation und teilen das Licht auf die beiden Detektorgruppen auf.

Der Erdsensor besteht aus zwei Detektorgruppen. Die Primäre Fokusebene (Prime Focus Plane) ist aus monolithischen Silizium gefertigt und besteht aus fünf Detektor-Arrays: Band 1 bis Band 4 und Band 8, dem panchromatischen Band. Die Arrays für Band 1-4 verfügen über jeweils 16 Einzeldetektoren, die zueinander versetzt in zwei Reihen angeordnet sind. Das Array für Band 8 setzt sich aus 32 Einzeldetektoren zusammen, die ebenfalls in zwei Reihen angeordnet sind. Das Fokussystem des Teleskops ist auf das Band 8-Array optimiert, da dieses die höchste räumliche Auflösung hat.
Die Kalte Fokusebene befindet sich auf einem Kühlelement, der die Detektoren auf 90°K-92°K hält. Die Kalte Fokusebene enthält die Detektor-Arrays für die Bänder 5, 6 und 7. Die Arrays für die Bänder 5 und 7 bestehen aus je 16 Einzeldetektoren aus Indiumantimonid. Das Band 6-Array besteht aus acht Detektorelementen, die aus Quecksilber-Cadmium-Tellurid (MCT) gefertigt sind.
Die Detektor-Arrays werden von links nach rechts (vorwärts) und von rechts nach links (zurück) vom Spiegel mit Licht bestrichen. Mit jedem Schwenk des Spiegels wird, wie bereits oben beschrieben, ein ca. 185 km langer und ca. 450 m breiter Streifen der Erdoberfläche quer zur Flugrichtung abgetastet und auf die Detektoren projiziert. Daraus ergibt sich z.B. für das Band 8-Array eine räumliche Auflösung von (450 m/32 (Detektoren) =) 15 m pro Pixel.

Abb. 5.05: Anordnung der Detektoren im Erdsensor ETM+
Abb. 5.05: Anordnung der Detektoren im Erdsensor ETM+
Abb. 5.06: Spektrale Bänder des Landsat-7 Erdsensors und spektrale Signaturen von Erdboden, Vegetation und Wasser.
Abb. 5.06: Spektrale Bänder des Landsat-7 Erdsensors und spektrale Signaturen von Erdboden, Vegetation und Wasser. (Das Band 6 liegt außerhalb der Skalierung des Graphen)

Um das Reflexionsspektrum der abgetasteten Erdoberfläche zu erfassen sind die Detektor-Arrays mit unterschiedlichen Spektralfiltern versehen. Diese wirken wie optische Bandpass-Filter. Die Detektor-Arrays Band 1-3 erfassen im sichtbaren Bereich die Farben Rot, Grün und Blau. Band 8 ist ein sogenanntes panchromatisches Band, d.h. dass der Sensor nahezu über das gesamte Spektrum des sichtbaren Lichts empfindlich ist. Beim Landsat-7 ist dies der Kanal mit der höchsten Empfindlichkeit und der höchsten räumlichen Auflösung.

Tab. 1: Die Sensoren des Landsat-7
Tab. 1: Die Sensoren des Landsat-7

Alle Bänder oder Kanäle bis auf Band 6 zeichnen von der Erdoberfläche (oder Wolken) reflektierte Strahlung auf. Band 6 hingegen ist für thermische Infrarotstrahlung (104-125 nm) sensibilisiert. Objekte, die Energie in Form von Hitze erzeugen oder  Energie absorbieren und dann wieder abstrahlen tun dieses normalerweise im langwelligen thermischen Infrarotbereich.

Die Kombination der Daten vom panchromatischen Sensor mit den Informationen von den anderen, weniger empfindlichen Detektor-Arrays, kann mittels spezieller mathematischer Algorithmen (unter Miteinbeziehung der bekannten spektralen Signaturen) wesentlich  mehr Informationen liefern als es nur ein einzelner Sensor vermag.

Abb. 5.07: Die Elbe überflutet (aufgenommen von Landsat-7)
Abb. 5.07: Die Elbe überflutet
(aufgenommen von Landsat-7 am 20.08.2008 und 14.08.2002) [10]

6. Bildsensoren für nichtsichtbare Strahlung

Die Bezeichnung "nichtsichtbare" Strahlung ist eine sehr subjektive Aussage, denn gegenüber anderen Lebewesen ist das menschliche Sehvermögen teilweise sehr eingeschränkt. Sichtbar für den Menschen ist Licht im Bereich der Wellenlängen  λviolett=380 nm bis λrot=750 nm. Dieses ist kein Zufall, sondern ist in der Evolution des Menschen begründet. Als hauptsächlich tagaktives Lebewesen steht uns stets genügend Licht zur Verfügung um das Leben ausreichend sicher auszugestalten. Die Sinnesorgane von Lebewesen, die andere Nischen des Lebens besetzen, sind aus dem gleichen Grund ungleich sensibler.
Die Augen vieler nachtaktiver Tiere, z.B. Katzen und Hunde,  sind mit dem Tapetum lucidum ausgestattet. Das Tapetum ist eine dünne Schicht direkt hinter der  Netzhaut des Auges. In dieser Schicht sind bei nachtaktiven Tieren kristalline Aminosäuren, Salze oder Pigmente eingebettet, die das die Netzhaut passierende Licht zurück auf die lichtempfindlichen Rezeptoren reflektieren. Diese spiegelnde Schicht wirkt wie in natürlicher Restlichtverstärker. So reicht einer Katze ein Siebtel der Lichtmenge zum Sehen, die ein Mensch benötigt.
Auch verfügen viele Tiere über ein erweitertes Sehspektrum. Das Sehvermögen reicht bei Rehwild beispielsweise bis in den nahen Infrarotbereich (< 780 nm) und Bienen sehen bis in den UV-Bereich (ca. 300 nm) hinein. Um dem Menschen ähnliche Fähigkeiten zu verleihen können zwei Strategien verfolgt werden:

  • Das noch vorhandene Restlicht (Mondschein, Sternenlicht, Streuung ferner Lichtquellen durch die Atmosphäre usw.) wird mit technischen Mitteln soweit verstärkt, dass ein Mensch es wahrnehmen kann. Hier kommen Photovervielfacher zum Einsatz.
  • Die Transformation von unsichtbarem Licht/Strahlung (UV, IR, Röntgen-) in sichtbares Licht. Hierbei kommen Sensoren wie Szintillatoren und Bolometer zum Einsatz.

6.1 Photovervielfacher

Photovervielfacher (oder Photomultiplier (PMTs)) sind sehr vielseitige, empfindliche Detektoren für Strahlungsenergie im UV-, optischen, IR- und Nah-IR-Bereich des elektromagnetischen Spektrums. Sie können den durch einfallende Photonen erzeugten Strom über mehrere Stufen hinweg millionenfach verstärken. Die Empfindlichkeit dieses Sensortyps ist so hoch, dass sogar einzelne Photonen nachgewiesen werden können. Selbst die neueste Halbleitertechnik ist nicht in der Lage diese betagte Vakuumröhrentechnologie vollständig zu ersetzen.

Funktionsprinzip

Die Funktion einer Photovervielfacherröhre basiert auf zwei physikalischen Prinzipien:

Äußerer Photoelektrischer Effekt

Der Photoelektrische Effekt ist ein Schlüsselphänomen in der Quantenphysik. Es ist eine Wechselwirkung zwischen Photonen und Materie. Bestrahlt man eine metallische  oder Halbleiteroberfläche mit Photonen, werden diese absorbiert. Die dadurch aufgenommene Energie löst Elektronen aus dem Metall bzw. Halbleiter. Die freien Elektronen bilden eine Wolke um die als Photokathode bezeichnete Oberfläche. Da die Ladungsträger in diesem Fall die Elektronenquelle verlassen, wird dieses Phänomen als Photoemission oder Äußerer Photoelektrischer Effekt bezeichnet.

Sekundärelektronenemission

Die Sekundärelektronenemission beruht auf den gleichen Prinzipien wie der photoelektrische Effekt: Schießt man energiereiche (= beschleunigte) Elektronen im flachen Winkel auf die Oberfläche von Metallen oder Halbleiter, werden mehrere Elektronen geringerer Energie aus dem Material herausgeschlagen. Die Anzahl dieser Sekundärelektronen ist abhängig von der Energie des Primärelektrons, dem Auftreffwinkel auf die Oberfläche und dem Material der Oberfläche. Oberflächen oder deren Beschichtungen mit geringer Austrittsarbeit verstärken den Effekt.

6.1.1 Photovervielfacher mit Dynoden

Die Konstruktion eines Photovervielfachers ähnelt der einer normalen Elektronenröhre: In einer evakuierten Glasröhre befindet sich eine Kathode als Elektronenquelle, eine Anode als Gegenelektrode und zwischen diesen Elektroden mehrere Gitter um den Elektronenfluss zu steuern. Zwischen Anode und Kathode wird von außen eine hohe Spannung angelegt. Diese ist so gepolt, dass die negativ geladenen Elektronen aus einer Elektronenwolke um die Kathode herum in Richtung Anode wandern. Die Geschwindigkeit bzw. die Beschleunigung der Elektronen ist abhängig von der Spannungsdifferenz zwischen Anode und Kathode.

Abb. 6.01: Photovervielfacher mit Dynoden
Abb. 6.01: Photovervielfacher mit Dynoden

Die (Photo-) Kathode eines Photovervielfachers besteht aus einer nur wenige Nanometer dicken Schicht Metalls oder eines Halbleiters auf der Innenseite des Eintrittsfensters. Dieses besteht aus Borosilikatglas oder anderen Gläser mit vergleichbaren optischen Eigenschaften. Photonen, die durch das Eintrittsfenster auf die Photoschicht treffen, schlagen ein sog. Photoelektron frei.
Eine hohe Spannung (>1000V) zwischen Anode und Kathode wird über eine Widerstandsreihe in ihre Teilspannungen heruntergeteilt. Jede dieser Teilspannungen liegt an einer Elektrode, die in Photovervielfachern als Dynoden bezeichnet werden. Von der Kathode ausgehend ergibt sich somit eine steigende Spannungstreppe im System.
Schlägt nun ein Photon in dem Photokathodenmaterial ein Elektron frei, wird dieses von der ersten Dynode angezogen. Trifft das Elektron auf der Oberfläche der Dynode auf, erzeugt es zwei oder mehr Sekundärelektroden, welche aufgrund des höhen Potentials wiederum von der nächsten Dynode angezogen und beschleunigt werden. Jedes auf die zweite Dynode auftreffendes Sekundärelektron erzeugt wiederum mehrere Sekundärelektronen.
Mit ausreichend hoher Gesamtspannung und über mehrere Dynodenstufen hinweg kann ein einzelnes Photoelektron millionenfach vermehrt werden. Die auf die Anode eintreffenden Elektronen erzeugen im Arbeitswiderstand RA einen (Anoden-) Strom. Der dadurch über RA entstehende Spannungsabfall kann als Signalspannung weiter verstärkt und dann ausgewertet werden.

Photovervielfacher des hier beschriebenen Vakuumröhrentyps sind Einzeldetektoren. Das bedeutet, ein einzelner Sensor ist nicht bildgebend. Sie werden hauptsächlich in Messgeräten wie Spektrometer Blutanalysegeräte und Durchflussmesser eingesetzt. Verbunde von vielen Einzeldetektoren (z.B. das IceCube-Experiment in der Antarktis mit 86 Strängen und 5160 Detektoren, Rauminhalt: 1km3) werden in der Wissenschaft zum Nachweis von Teilchen über die Tscherenkov-Strahlung verwendet.

Erst das Zusammenfügen von mehreren Photovervielfachern wie in der Mikrokanalplatte oder das Einfügen in eine Scannerkonstruktion (z.B. PET) machen bildgebende Verfahren möglich.

6.1.2 Mikrokanalplatten

Mikrokanalplatten-Photomultiplier (engl. micro channel plate photomultiplier, MCP-PMT oder  MCP) können aus Tausenden einzelner Photovervielfacher bestehen. Sie sind daher als Bestandteil bildgebender Verfahren mit flächigen Bildsensoren geeignet.
Mikrokanalplatten sind zumeist kreisrunde Glas- oder Keramikscheiben mit 18-150 μm Durchmesser und einigen Zehntel Millimeter bis 1 Millimeter Stärke. In Abständen ("Pitch") von 3 - 32 μm befinden sich durchgehende Löcher, die Mikrokanäle, von 2-35 μm Durchmesser. Abhängig von der Anwendung der Mikrokanalplatte, können die Kanäle um bis zu 19° entlang der Längsachse geneigt sein.
Die Stirnseiten der Scheibe sind mit einer dünnen Schicht Metall bedampft. Diese bilden die Eingangs- und Ausgangselektrode. Die Innenseiten der Mikrokanäle sind mit einem Halbleiter oder Materialien wie NiCr ("NiChrome", eine Heizleiter-Legierung), Cäsiumjodid, Gold o.ä. beschichtet.
Jeder der Kanäle durch die Scheibe wirkt wie ein einzelner Sekundärelektronenvervielfacher und wird deswegen auch als Kanalelektronenvervielfacher bezeichnet.

Abb. 6.02: Prinzip der Sekundärelektronenvervielfachung in einem Mikrokanal
Abb. 6.02: Prinzip der Sekundärelektronenvervielfachung in einem Mikrokanal

Funktionsprinzip
Beim Kanalelektronenvervielfacher kommen die gleichen Prinzipien wie beim stufenweise wirkenden Sekundärelektronenvervielfacher mit Dynoden zur Anwendung.
Über die Eingangs- und Ausgangselektroden wird eine hohe Spannung (1000-1200V) angelegt. Trifft ein Elektron (z.B. aus einer Photokathode) auf die innere Wand eines Mikrokanals werden Sekundärelektronen erzeugt. Diese werden von der an die Elektroden angelegten Hochspannung beschleunigt. Auch sie prallen gegen die Kanalwände, wo sie ebenfalls Sekundärelektronen herausschlagen. Dieser Vorgang wiederholt sich viele Male und resultiert in einem Elektronenschauer, der den Mikrokanal durch die Ausgangselektrode verlässt.

Abb. 6.03: Struktur einer Mikrokanalplatte
Abb. 6.03: Struktur einer Mikrokanalplatte

Die Neigung der Mikrokanäle relativ zu den Elektroden verstärkt den Wirkungsgrad und sorgt zusätzlich dafür, dass auch senkrecht zur Eingangselektrode auftreffende Primärelektronen mit Sicherheit auf eine Kanalwand aufschlagen.
Die Vorteile der Mikrokanalplatte gegenüber Dynodenröhren sind:

  •    Die zweidimensionale Erfassung mit hoher räumlicher Auflösung
  •     Hohe Verstärkung bei kleinen Abmessungen
  •     Niedriger Energieverbrauch
  •     Hohe Reaktionsgeschwindigkeit
  •     Unempfindlichkeit gegenüber Magnetfeldern

Abhängig vom Material der Innenbeschichtung der Kanäle können Mikrokanalplatten geladene Teilchen, UV-, Gamma-, und Röntgenstrahlung und Neutronen detektieren. Die häufigste Anwendung von Mikrokanalplatten dürfte wohl die in Nachtsichtgeräten bzw. Restlichtverstärkern sein.

6.2 Anwendungen mit Photovervielfachern

6.2.1 Positronen-Emissions-Tomographie (PET)

Die Positronen-Emissions-Tomographie (oder kurz PET) ist ein bildgebendes diagnostisches Verfahren in der Nuklearmedizin. Es liefert dreidimensionale Bilder von funktionalen Prozessen im Körper. Dem Patienten werden hierzu kurzlebige, schwach radioaktive organische Substanzen (z.B. mit radioaktiven Fluor markierter Traubenzucker) als Tracer (sog. Radiopharmakon) in die Blutbahn gespritzt.
Tracer geben bei ihrem radioaktiven Zerfall Teilchenstrahlung ab, die in Echtzeit direkt oder indirekt nachgewiesen werden können. Bei der PET werden Positronen, also Antiteilchen zu negativ geladenen Elektronen, angewendet.
Abhängig von der Stoffwechselrate von Organen und Gewebe reichert sich der Tracer dort unterschiedlich schnell an. Tumoren und Metastasen haben einen höheren Energiestoffwechsel, nehmen mehr vom Tracer auf und geben daher mehr Teilchenstrahlung ab. So können Stoffwechselvorgänge sichtbar gemacht werden.

Funktionsprinzip

Nach einer definierten Wartezeit nach der Injektion  des Tracers wird dessen Verteilung im Körper über die abgegebene Strahlungsmenge schichtweise gemessen und aufgezeichnet. Nach Bearbeitung in einem Bildprozessor kann anhand von PET-Bildern zwischen gesundem Gewebe und z.B. Krebstumoren unterschieden werden.

Das dem Patienten injizierte Radiopharmakon emittiert bei seinem Zerfall ein positiv geladenes Positron und ein Neutrino. Das Neutrino ist für den Prozess nicht von Belang.
Trifft ein Positron im Körper des Patienten auf Elektron löschen sich beide unter Abgabe von zwei hochenergetischen Photonen gegenseitig aus (sog. Annihilation). Beide Photonen fliegen als langwellige Gammastrahlung ("Vernichtungsstrahlung") in genau entgegengesetzte Richtungen auseinander.

Abb. 6.04: Prinzip einer PET-Untersuchung
Abb. 6.04: Prinzip einer PET-Untersuchung
Abb. 6.05: PET-Ganzkörperaufnahme (= Übersichtsdarstellung) zur Befundung
Abb. 6.05: PET- Ganzkörperaufnahme [11]

Das PET-Gerät besteht aus einem ringförmig angeordneten Array aus Photovervielfachern. Der Patient liegt im Zentrum des Arrays. Die bei der Annihilation freigesetzten Photonen treffen auf zwei gegenüberliegende Photovervielfacher, wo sie elektrische Impulse auslösen. Diese werden von einem Koinzidenzdetektor erfasst.
Aus der Häufigkeit und der räumlichen Verteilung der Zerfallsereignisse kann die Verteilung des Tracers im Körper des Patienten gemessen und in einem Schnittbild dargestellt werden.
Für die Diagnosestellung erzeugt eine Grafiksoftware aus den einzelnen Schichtbildern ein dreidimensionales Gesamtbild.

6.2.2 Restlichtverstärker und Nachtsichtgeräte

Nachts sind alle Katzen grau - Ein Beweis dafür, dass das menschliche Sehvermögen bei fehlendem Licht sehr eingeschränkt ist. Deshalb ist ein Angriff bei Nacht eine der ältesten Militärtaktiken.
Getrieben von der Idee den Gegner auch bei Nacht erkennen und bekämpfen zu können wurden ab etwa 1940 elektronische Bildverstärker entwickelt und natürlich auch zuerst nur vom Militär eingesetzt. Selbst heute noch gibt es Beschränkungen in der Verbreitung dieser Geräte. Nachtsichtgeräte der aktuellen 4. Generation (mit bildverarbeitenden Signalprozessoren und ECCDs (name="electron_bombarded_CCDs">electron bombarded CCDs) und der (fast 20 Jahre alten !) Vorgängergeneration mit Bildsensoren auf der Basis von Galliumarsenid (GaAs) sind nur Armeen und Behörden zugänglich.

Funktionsweise von Nachtsichtgeräten

In der freien Natur gibt es keine völlige Dunkelheit. Das Licht von Mond und Sternen, Streulicht von entfernten Siedlungen oder Fahrzeugen sind, selbst bei bedecktem Himmel, immer vorhanden. In einer sternenklaren Vollmondnacht kann eine Beleuchtungsstärke von etwa 0,25 Lux gemessen werden. Ein bewölkter Nachthimmel ohne Mond und Fremdlichter hat ca. 0,00013 Lux. Diese wenigen zur Verfügung stehenden Photonen können nun so oft vervielfacht werden, dass ein Mensch ein deutliches Bild wahrnehmen kann.

Abb. 6.06: Funktionsprinzip eines (passiven) Nachtsichtgerätes (2. Generation)
Abb. 6.06: Funktionsprinzip eines (passiven) Nachtsichtgerätes (2. Generation)

Das Restlicht wird in einem Objektiv auf eine Photokathode fokussiert. Die einfallenden Photonen lösen durch den photoelektrischen Effekt Photoelektronen aus dem Kathodenmaterial heraus. Eine unter Hochspannung stehende Mikrokanalplatte zieht die Elektronen an, beschleunigt sie und vervielfacht ihre Anzahl. Der Elektronenschauer trifft auf einen an der Ausgangselektrode der Mikrokanalplatte befindlichen Phosphorschirm, wobei nun jedes Elektron jeweils ein Photon freischlägt: Ein auf dem Kopf stehendes und seitenversehrtes, helles Abbild der aufgenommenen Szene wird auf dem Phosphorschirm sichtbar. Eine kompakte Faseroptik aus Lichtleitern vergrößert und korrigiert das Bild pixelweise und projiziert es auf das Austrittsfenster oder einen flächigen Bildsensor (z.B. CCD).
Eine besondere Variante bilden die aktiven Nachtsichtgeräte. Diese verwenden nicht nur das vorhandene Restlicht, sondern sie nutzen auch Infrarotlicht, das von warmen Objekten oder speziellen IR-Scheinwerfern oder Lasern abgestrahlt wird, um den Beobachtungsraum zu illuminieren. Infrarotsensible Nachtsichtgeräte benötigen allerdings eine spezielle, sehr empfindliche Kathodenbeschichtung.

6.3 Szintillatoren

Szintillatoren sind Sensoren, die besonders energiereiche elektromagnetische und Teilchenstrahlung, die sog. ionisierende Strahlung, nachweisen können. Ionisierende Strahlung verfügt über genügend kinetische oder Quantenenergie um Elektronen aus einem Atom oder einem Molekül herauszuschlagen oder Atombindungen zu lösen. Die verbleibenden Ionen oder Molekülreste sind positiv geladen. Ionisierende Strahlung kommt in der Natur als Höhenstrahlung und durch den Zerfall von radioaktiven Stoffen (Alpha-, Beta-, Gammastrahlung) vor oder kann, wie die Röntgenstrahlung und harte UV-Strahlung, künstlich erzeugt werden.
Szintillatoren bestehen aus einem Material, das bei Durchgang und Anregung durch energiereiche Photonen oder geladenen Teilchen Licht abgibt. Diese Lumineszenz entsteht dadurch, dass das Material beim Zusammenstoß Energie aufnimmt und als Licht wieder abgibt (Szintillation= lat. Funkeln, Flackern). Einer der Ersten, die diesen Effekt beobachteten war Wilhelm Conrad Röntgen. Der bemerkte, dass, wenn er die von ihm konstruierte Kathodenstrahlröhre in Betrieb nahm, ein mit Barium-Platin-Cyanid bestrichenes Stück Karton aufleuchtete. So konnte er eine neue Art von Strahlung, die Röntgen- oder X-Strahlung, erstmalig nachweisen.

Abb. 6.07: Prinzip eines digitalen Sensors mit Szintillator
Abb. 6.07: Prinzip eines digitalen Sensors mit Szintillator

Szintillierende Materialen bestehen aus organischen oder anorganischen Kristallen, organischen Flüssigkeiten, Edelgasen, Kunststoffen oder speziellen Gläsern. Qualitätsmerkmale sind eine gute Lichtausbeute, eine hohe Transparenz damit das erzeugte Licht abgeführt werden kann und ein zum Detektor passendes Emissionsspektrum (sichtbares Licht oder UV).
Szintillationsdetektoren verschiedenster Bauarten dienen auch heute noch als Messgeber in der Teilchenphysik, Strahlenschutz und Radiologie. Sie bestehen aus einem szintillierenden Medium, einen (optionalen) Lichtleiter und einem Photodetektor. Als Photodetektoren kommen Photodioden, CCDs oder auch Photovervielfacher zur Anwendung.

Abb. 6.08: Granulare und kristalline Szintillatoren in Flatpanels
Abb. 6.08: Granulare und kristalline Szintillatoren in Flatpanels

6.3.1 Szintillatoren als Bildgeber in der Radiologie

In der medizinischen Radiologie haben vollelektronische Röntgengeräte mit Szintillator-Flatpanels den klassischen Röntgenfilm praktisch vollständig ersetzt. Diese Bildsensoren bestehen zumeist aus Zellen mit granularen oder kristallinen Szintillatoren wie Phosphor oder Caesiumiodid (CsI). Letzteres hat die Eigenschaft als eine dichte Anordnung dünner Nadeln mit einem Durchmesser von jeweils 10 bis 20 Mikrometern zu wachsen. Diese Nadeln wirken als Lichtleiter für die in Eingangsnähe der entstehenden Photonen, so dass sehr dicke (bis zu 1 mm) Szintillationsschichten mit dennoch hoher Auflösung eingesetzt werden können. Da Cäsium eine hohe Atomdichte aufweist, ist es ein hervorragendes Material zur Absorption von Röntgenstrahlen und setzt die auftreffende Strahlung sehr effizient in Licht um.
Das entstehende Licht wird in einem Photodioden-Array in lokale elektrische Ladungen umgewandelt, die mittels einer TFT-Matrix (TFT = Dünnfilmtransistor) ausgelesen werden können. Ein Signalprozessor weist jedem Pixel im Röntgenbild eine der jeweiligen Ladung entsprechenden Helligkeit zu.

Abb. 6.09: Moderne Röntgenapparate verwenden Szintillator-Flatpanels als Bildgeber
Abb. 6.09: Moderne Röntgenapparate verwenden Szintillator-Flatpanels als Bildgeber [12]

6.4 Bolometer

Bolometer (von bole = griech. etwas geworfenes) sind Sensoren, die die Energie über das gesamte elektromagnetische Spektrum messen können. Ein Bolometer besteht grundsätzlich aus einem Absorber (z.B. eine geschwärzte Metallfolie oder spezielle Halbleiter) und einer thermischen Masse mit konstanter Temperatur als Wärmeableiter.

Funktionsprinzip

Das Funktionsprinzip beruht auf der Absorption der Strahlung (z.B. Infrarot). Daraus resultiert eine Erwärmung des Sensormaterials und bewirkt eine temperaturabhängige Änderung dessen elektrischen Widerstandes. Die Widerstandsänderung des Bolometerelements kann z.B. mittels einer Messbrücke in eine Spannungsinformation gewandelt und dann verstärkt werden.

6.4.1 Bolometer in der Radioastronomie

Einzelne oder kleine Arrays von tiefstgekühlten Bolometerelementen werden in der Astronomie, z.B. für Beobachtungen und Messungen im Fernen Infrarot-Bereich oder von Terahertzstrahlung (" Submillimeterwellen"), eingesetzt. In der Teilchenphysik dienen Bolometer-Elemente als Teilchendetektoren.
Abb. 6.11 zeigt das Array einer Submillimeter-Bolometer-Kamera (" SABOCA") im Llano de Chajnantor Observatorium in der Atacama-Wüste (Nordchile). Eine einzelne Bolometerzelle hat eine Größe von ca. 1 mm. Das ganze Array misst ca. 15 mm. Im Betrieb befindet sich vor dem Array ein monolithischer Block aus 37 konischen Hornantennen.

Abb. 6.11: Array der Submillimeter-Bolometer-Kamera ( Abb. 6.12: Die Orion Molekular Wolke (OMC-1) bei 350 mm mit SABOCA aufgenommen
Abb. 6.11: Array der Submillimeter-Bolometer-Kamera ("SABOCA") [13] Abb. 6.12: Die Orion Molekular Wolke (OMC-1) bei 350 mm mit SABOCA aufgenommen. [13]

6.4.2 Mikrobolometer als Bildgeber in Wärmebildkameras

Miniaturisierte Varianten des Bolometers sind die Mikrobolometer. Mikrobolometer sind Arrays von Bolometerelementen, die spezifisch als Bildsensoren in Wärmebildkameras eingesetzt werden. Die maximale Empfindlichkeit liegt im Infrarotbereich bei einer Wellenlänge von 700 bis 1400 nm. Eine aktive Kühlung des Sensors ist dabei auch bei normalen Umgebungstemperaturen nicht notwendig.
Wärmebildkameras haben gegenüber Restlicht- und Nachtsichtgeräten den Vorteil, dass sie auch bei absoluter Dunkelheit und durch Rauch und Nebel hindurch funktionieren. Eine Infrarotquelle in der Größe eines Menschen kann bei geeigneter Umgebung noch aus einer Entfernung von ca. 450 m ausgemacht werden. Wärmebildkameras werden daher nicht nur vom Militär und den Ordnungsbehörden zur Überwachung und Objektschutz eingesetzt. Viele zivile Anwendungen finden sich z.B. bei der Feuerwehr (Lokalisierung von Personen und Brandherden) und im Bauwesen (Nachweis von Temperaturbrücken in Gebäuden).

Abb. 6.13: Mikrobolometer-Zelle
Abb. 6.13: Mikrobolometer-Zelle

Mikrobolometer werden in einem mikroelektromechanischen Verfahren (MEMS = Microelectromechanical System) hergestellt. Auf einer Basis aus CMOS, mit der die Ausleseelektronik realisiert ist, befindet sich auf metallischen Elektroden eine teiltransparente Membran aus Vanadiumoxid oder amorphem Silizium. Die Sensorfläche der Membran ist über elektrisch leitende, aber thermisch isolierende Stege mit der Ausleseelektronik verbunden.

Treffen Infrarot-Photonen auf die Sensorfläche wird ihre Energie vom Membranmaterial absorbiert. Das Membranmaterial erwärmt sich. Die über die Elektroden angelegte Vorspannung ändert sich, da sich der Messstrom durch die Membran aufgrund des sich ändernden Wärmewiderstandes ändert. Weil das Mikrobolometer-Array  komplett in einem Vakuum eingeschlossen und versiegelt ist, kann die von der Membran aufgenommene Energie einfach abgestrahlt werden.
Bei Strukturgrößen von 17-25μm beträgt die optische Auflösung von Mikrobolometer-Arrays gegenwärtig von 160×120 Pixel bis zu 1024x768 Pixel. Aufgrund des sehr komplizierten Herstellungsprozesses und geringen Stückzahlen können größere, schnelle Mikrobolometer-Arrays leicht mehrere 10.000 € kosten. Ebenfalls sehr kostspielig sind die Objektive von Wärmbildkameras. Sie müssen aus Spezialgläsern gefertigt sein, die besondere optische Eigenschaften haben.

Abb. 6.14: Wärmebildkamera E8 des Herstellers FLIR
Abb. 6.14: Wärmebildkamera E8 des Herstellers FLIR [14]

 

 

 

Mikrobolometer-Array: 320x240 Pixel
Bildfrequenz: 9 Bilder/Sekunde
Temperaturumfang: -20 bis 250°C
Auflösung Temperatur: 0,06°
Preis (2014): ca. 7000 €

REFERENZEN

Abbildungen

[1] Abbildung "Abb. 1.01: Camera Obscura": Lizenz: See page for author [Public domain], via Wikimedia Commons,
Quelle: http://commons.wikimedia.org/wiki/File%3ACamera_obscura_1.jpg

[2] Quelle: Datenblatt des Color-Negativfilms Fuji superia reala PDF: http://www.fujifilm.com/products/consumer_film/pdf/superia_reala_datasheet.pdf;
Zeichnung neu erstellt und übersetzt durch InfoTip

[3] Foto "Abb. 3.01: Vladimir Zworykin mit einem Ikonoskop": Lizenz: Public Domain via Wikimedia Commons, Quelle: "Zworykin_and_iconoscope.jpg" by Hugo Gernsback 
http://commons.wikimedia.org/wiki/File%3AZworykin_and_iconoscope.jpg

[4] Foto "Abb. 3.03: Die "Olympia-Kanone" bei den Olypischen Spielen 1936... ": Lizenz: Creative Commons [CC BY-SA 3.0], via Wikimedia Commons; Quelle: "Olympia-Kanone_1936.jpg" by Telefunken-Bild, Berlin (Telefunken-Bild, Berlin)
http://commons.wikimedia.org/wiki/File%3AOlympia-Kanone_1936.jpg

[5] Foto "Abb. 3.07: 2/3" Vidicon": Lizenz: GFDL, CC-BY-SA-3.0, CC BY-SA 2.5 or CC BY-SA 2.1 via Wikimedia Commons; Quelle: "Vidicon_tube.jpg" by Sphl (Own work)
http://commons.wikimedia.org/wiki/File%3AVidicon_tube.jpg

[6] Foto "Abb. 3.09: Farbfernsehkamera KCU 40 auf Briefmarke": Lizenz: Public Domain (?) via Wikimedia Commons; Quelle: "Stamps_of_Germany_(Berlin)_1982,_MiNr_668.jpg" by Nightflyer
http://commons.wikimedia.org/wiki/File:Stamps_of_Germany_%28Berlin%29_1982,_MiNr_668.jpg

[7] Foto: "Abb. 3.13: Gerätekombination JVC GC-4800/PV-4800 (1975)" Quelle: Ausschnitt aus einem Prospekt für die Gerätekombination GC-4800/PV-4800 der Fa. JVC (1975); http://jdl.jvc-europe.com/

[8] Abbildung "Abb. 4.11: Vergleich Rückseitenbelichteter Sensor / Frontseitenbelichteter Sensor" Quelle: Sony Pressemitteilung am 11. 06.2008 http://www.sony.net/SonyInfo/News/Press/200806/08-069E/index.html; Zeichnungen neu erstellt und übersetzt durch InfoTip.

[9] Abbildung "Abb. 5.03: Landsat-7 mit dem Erdsensor ETM+" Lizenz: Public Domain via Wikimedia Commons; Quelle: "Landsat-7.jpg" by NASA (http://landsat.gsfc.nasa.gov/images/media.html); http://commons.wikimedia.org/wiki/File%3ALandsat-7.jpg

[10] Abbildung "Abb. 5.07: Die Elbe überflutet ..." Lizenz: Public Domain; Quelle: "elbe_ls7_2002232_lrg.jpg" by NASA (http://landsat.gsfc.nasa.gov/images/media.html); http://visibleearth.nasa.gov/view.php?id=2731

[11] Abbildung "Abb. 6.05: PET- Ganzkörperaufnahme" Lizenz: Public Domain via Wikimedia Commons; Quelle: "APET-MIPS-anim.gif" by Jens Maus (http://jens-maus.de/) (Own work); http://commons.wikimedia.org/wiki/File%3APET-MIPS-anim.gif

[12] Foto: "anrad Szintillator-Flatpanels" Quelle: analogic Produktfoto; http://www.analogic.com/modules/Pages01/GetPage.aspx?PageID=1875&ContentID=3439

[13] Foto: "Bolometer-Array" und "Orion Molekular Wolke" Quelle: Max-Planck Institut für Radioastronomie/Atacama Pathfinder EXperiment APEX (http://www.apex-telescope.org/instruments/); http://www.eso.org/sci/publications/messenger/archive/no.139-mar10/messenger-no139-20-23.pdf

[14] Foto: "Wärmebildkamera FLIR E8" Quelle: FLIR Produktinformation http://www.flir.de/instruments/display/?id=61194

 

 

Zuletzt bearbeitet am 8.Februar 2017

Rechtshinweis

Sofern auf dieser Seite markenrechtlich geschützte Begriffe, geschützte (Wort- und/oder Bild-) Marken oder geschützte Produktnamen genannt werden, weisen wir ausdrücklich darauf hin, dass die Nennung dieser Marken, Namen und Begriffe hier ausschließlich der redaktionellen Beschreibung bzw. der Identifikation der genannten Produkte und/oder Hersteller bzw. der beschriebenen Technologien dienen.

Alle Rechte an den in diesem Kompendium erwähnten geschützten Marken- und/oder Produktnamen sind Eigentum der jeweiligen Rechteinhaber und werden hiermit ausdrücklich anerkannt. Alle in unseren Artikeln genannten und ggfs. durch Dritte geschützte Marken- und Warenzeichen unterliegen uneingeschränkt den Bestimmungen des jeweils gültigen Kennzeichenrechts sowie den Besitzrechten der jeweiligen eingetragenen Eigentümer.

Die Nennung von Produktnamen, Produkten und/oder der jeweiligen Produkthersteller dient ausschließlich Informationszwecken und stellt keine Werbung dar. InfoTip übernimmt hinsichtlich der Auswahl, Leistung oder Verwendbarkeit dieser Produkte keine Gewähr.

Sollten dennoch wider unserer Absicht Rechte Dritter verletzt werden, so bitten wir um eine Benachrichtigung ohne Kostennote.