Das InfoTip Kompendium

Ein kostenloser Service der InfoTip Service GmbH

Zum Anfang der
Seite scrollen

HDMI - High Definition Multimedia Interface

Inhaltsverzeichnis

1. Allgemeines

Mit dem Übergang der Multimedia -Inhalte ("Contents") von analogen auf digitale Formate wurde eine Revolution entzündet, wie die Inhalte erzeugt, übertragen und konsumiert werden. Dieses betrifft jede Art von Inhalten: Musik und Sprache, Bilder, Film und TV. Die neuen Übertragungsformate der Inhalte ermöglichen doch eine verlustlose Übertragung, Speicherung und Vervielfältigung. Besonders an der Übertragung und Speicherung von hochauflösenden Videoinhalten entbrannten lange Diskussionen zwischen den Verbrauchern, den Herstellern von Geräten der Unterhaltungselektronik und den den Eigentümern (Produzenten, Verleihern) der Inhalte. Die Interessen der Parteien gingen dabei in einigen Bereichen diametral auseinander. Der Verbraucher erwartete eine kostengünstige und flexible Handhabung von Geräten und Technik, der Hersteller eine einfache und billige Implementierung und der Content Provider erwartete eine vollständige Kontrolle über sein Eigentum.
Das schwächste Glied in der Kette der Verteilung von digitalen Inhalten und was eine schnelle Einführung behinderte, war schnell ausgemacht: Es waren die Wohnzimmer der Verbraucher. Hier waren die Schnittstellen, die an allem Ungemach schuld waren. Diese Schnittstellen galt es nun so umzugestalten, dass sie natürlich erst einmal in der Lage waren digitale HDTV -Signale über vernünftige Abstände zu übertagen. Dabei aber durften die übertragenen Daten dürften nicht für andere Zwecke (Speichern, Vervielfältigen) missbraucht werden können.
Das technische Problem der Übertragung von HDTV-Signalen zwischen zwei Geräten war bereits Ende der 1990er mit der DVI-Schnittstelle gelöst. Im Jahr 2000 wurde auch endlich mit Intel's HDCP (High-bandwidth Digital Content Protection) ein Schutzverfahren vorgestellt, dass die Bedenken der Filmindustrie zerstreuen konnte und schließlich deren Unterstützung fand. Schon bald wurden die ersten Geräte, HDTV-Bildschirme, Projektoren, Set-Top Boxen und DVD-Player mit DVI-Anschlüssen ausgeliefert.
Aber DVI hat seine Grenzen schnell aufgezeigt: Es blieb das Problem mit der getrennten Verkabelung von Video und Audio und der mangelnden Intelligenz von DVI-Systemen. DVI ist halt eine einfache Punkt-zu-Punkt-Verbindung zwischen zwei Geräten.

Abb. 1: Logo HDMI
Abb. 1: Logo HDMI [1]

Aus dieser Erkenntnis heraus entwickelte eine Firmengruppe (Hitachi, Matsushita, Philips, Silicon Image, Sony, Thomson und Toshiba) auf der Basis von DVI einen neuen Standard, der digitales Video und digitales Audio über ein einziges Kabel übertragen konnte und über eine digitale Verbindung auch Steuerungsfunktionen erlaubte. Im Dezember 2002 wurde dieser Standard als HDMI (High Definition Multimedia Interface) 1.0 vorgestellt. Erweiterungen des Standards erfolgten im Mai 2004 (HDMI 1.1 ), August 2005 (HDMI 1.2), Dezember 2005 (HDMI 1.2a), 2006 (HDMI 1.3 /a/b/c), Mai 2009 (HDMI 1.4) und im März 2010. Grundsätzlich ist HDMI aber noch rückwärtskompatibel zu DVI.

Tabelle 1: Entwicklung der HDMI-Schnittstelle
Tabelle 1: Entwicklung der HDMI-Schnittstelle

2. HDMI Grundlagen

2.1 Aufbau eines minimalen HDMI-Systems

Eine HDMI-Verbindung zwischen zwei Geräten der CE wird grundsätzlich mit einem Kabel, das neunzehn Leiter hat, hergestellt. Die Verbindungsleitungen lassen sich zwei Funktionsgruppen zuordnen: der Signalübertragung und der Plug & Play- (System-) Steuerung. Das beim HDMI verwendete Datenübertragungsverfahren für Video- und Audiosignale beruht auf dem von Silicon Image aus dem LVDS ( LVDS =Low Voltage Differential Signalling) weiterentwickelten  TMDS ( TMDS=Transition Minimized Differential Signaling). Ein HDMI-Link besteht aus vier abgeschirmten Twisted Pair -Leitungspaaren (Rot, Grün, Blau und Clock).
Die Steuerung und Signalisierung eines HDMI-Systems wird über zwei serielle Bussysteme vorgenommen. Ein I2C-Bus-System ist für die DDC2 Plug & Play Funktionen zuständig. Über diesen Bus wird auch die Kommunikation zwischen Wiedergabegerät und Anzeigegerät / Umschalter / Verteiler für das HDCP-Schutzverfahren abgewickelt. Eine weitere serielle Datenverbindung ist mit dem CEC (Consumer Electronics Control)-Bus implementiert. CEC bietet integrierte, die Bedienung vereinfachende, komponentenübergreifende Kontroll- und Steuerfunktionen.

Abb. 1: Prinzipbild eines einfachen HDMI-Systems aus zwei Komponenten
Abb. 1: Prinzipbild eines einfachen HDMI-Systems aus zwei Komponenten

2.2 Der Zusammenhang zwischen Auflösung, Datenrate und Bandbreite

Über das HDMI wird das Videosignal unkomprimiert übertragen. Der Bandbreitenbedarf für ein solches digitales Videosignales ist natürlich immens und steigt proportional zur Auflösung des Bildes. Die Auflösung und somit die Bildqualität eines dargestellten Bildes ist davon abhängig, mit welcher Datenrate das Videosignal übertragen werden kann. Bereits in seiner ursprünglichen Version 1 hatte der HDMI-Standard eine maximale Clockfrequenz von 165 MHz vorgesehen. Damit ließen sich über TMDS bis zu 4,95 GBit/s (brutto) übertragen. Später wurde mit der Version 1.3 durch die Definition geeigneter Verbindungskabel die Clockfrequenz auf bis  340MHz ermöglicht, was die erlaubte Datenrate auf über 10 GBit/s verdoppelte.

Abbildung 2 vergleicht einige wichtige physische Bildauflösungen, die in der CE Anwendung finden. Die Angabe der rein sichtbaren Auflösung sagt aber nichts über die benötigten Resourcen, die zur Übertragung von Bewegtbildern in diesem Format benötigt werden. Beispielsweise benötigen Bildröhren- (Cathode Ray Tube, CRT-) Anzeigen zusätzlich zu den Zeiten in denen der Elektronenstrahl das sichtbare Bild auf den Bildschirm schreibt, bestimmte Zeiten um den Elektronenstrahl wieder in die horizontale und vertikale Ausgangsposition zurückzubringen. Diese Zeiten, in der der Bildschirm hierzu dunkelgetastet (Austastung = Blanking) ist, muss in der Berechnung mit berücksichtigt werden (Abb. 3). Einen weiteren unmittelbaren Einfluss auf die zu übertragende Datenmenge hat die Farbtiefe des Bildes. Bislang reichten 8 Bit pro Farbkanal, also 24 Bit für RGB, für die bisher verfügbaren Leuchtstoffe der Anzeigen aus. Mit den 256 Stufen pro Kanal lassen sich so 16,7 Millionen Farben darstellen. Neue Werkstoffe und neue Wiedergabetechniken ermöglichen aber bereits heute die Darstellung von erweiterten Farbräumen mit Milliarden von Farben. Um diese Farbräume darstellen zu können, muss das Farbsignal mit 30, 36 oder gar 48 Bit kodiert werden.

Abb. 2: Vergleich der physischen Auflösungen
Abb. 2: Vergleich der physischen Auflösungen
Abb. 3: Austastbereiche
Abb. 3: Austastbereiche

Die für die Darstellung auf einem bestimmten digitalen Anzeigegerät benötigte Datenraten und Bandbreiten lassen sich nach der Formel:

Benötigte Bandbreite = (Anzahl sichtbare Pixel + Anzahl Pixel für Blanking) * Refresh Rate * Farbtiefe

recht einfach berechnen. Bei einer Übertragung per HDMI steigt durch die 8b/10B- (8Bit-nach-10Bit-) Kodierung beim TMDS die erforderliche Datenrate allerdings um 25% (= Overhead). Pro Takt werden beim TMDS 3 x 10 Bit Nutzinformation übertragen. Der TMDS-Clock muss somit 1/30 der TMDS-Datenrate betragen. Tabelle 2 zeigt einige wichtige TV-Auflösungen und deren Bandbreitenbedarf. Die Anzahl der Blanking-Pixel entspricht dem VESA -Standard  CVT (Coordinated Video Timing). Auflösungen bis einschließlich 1920 x 1080p / 50 Hz sind mit den Standard-Blanking-Werten aufgeführt, wie sie auch von analogen Anzeigen mit Bildröhren gefordert werden. Die höheren Auflösungen ab 1920 X 1080 / 60Hz sind nach VESA CVT-RB mit Reduced Blanking , also kürzeren Blankingzeiten, dargestellt. Diese Auflösungen können nur von digitalen Anzeigen wie LCD, Plasma oder DLP verarbeitet werden.

Tabelle 2: Aufstellung einiger TV-Auflösungen und deren Bandbreitenbedarf
Tabelle 2: Aufstellung einiger TV-Auflösungen und deren Bandbreitenbedarf

Tabelle 2 zeigt auch, dass es bereits mit HDMI 1.0 möglich war Videosignale in Full-HD-Auflösung zu übertragen. Für Signale mit 60Hz-Refresh, wie sie z.B. von Spielkonsolen kommen, musste dieses allerdings mit reduzierten Blankingzeiten geschehen.
Seit der Erweiterung des Standards auf HDMI 1.3 konnen durch den Einsatz einer Pre-Emphasis ("Anspitzen") des Signales in der Videoquelle und eine Equalizer -Schaltung im Receiver die Verluste im Kabel wirksam kompensiert werden. Zusammen mit einer neu eingeführten Quellenterminierung konnte die mögliche TMDS-Datenrate soweit (>10GBit/s) hochgesetzt werden, dass selbst 4k-Videos mit einem Single Link übertragen werden können.

3. Plug & Play

HDMI verwendet bidirektionale Datenkommunikation und die erheblich gestiegene Leistung der in den Geräten eingesetzten Prozessoren und Microcontroller um den Benutzer eine möglichst einfache Inbetriebnahme und Nutzung von mit HDMI verbundenen Systemen zu ermöglichen.

3.1 DDC (Display Data Channel) und Extended Display Identification Data (EDID) (HDMI 1.0)

Als wichtigste Komponente zur automatischen Konfiguration verfügt das HDMI-System über einen DDC-Kanal  (Display Data Channel). Der DCC ist ein I2C-Bus über den eine HDMI-Quelle das EDID-ROM im HDMI-Empfänger auslesen kann. Dieses kann ein Anzeigegerät, aber auch ein HDMI Switch oder Repeater sein. Das EDID-ROM ist meist ein (schreibgeschütztes) EEPROM direkt an der HDMI-Eingangsbuchse. In dem EEPROM sind alle Bildauflösungen und Refresh-Raten aufgelistet, die das Display darstellen kann. Gammawerte und Farbraumwerte lassen die HDMI-Quelle ihr Videoausgangssignal optimal an die Eigenschaften des Display anpassen. Daneben sind im EDID-EEPROM auch Typenbezeichnung und Seriennummer der Displays gespeichert, die eine eindeutige Identifikation des Displays in Multidisplay-Systemen ermöglicht. Die Angabe der Latenzzeit zwischen Audio- und Videosignalverarbeitung u. a. erweitern die Angaben.
Bei Geräten mit HDCP dient der DDC-Bus auch zur Kommunikation bei der Authentifizierung des HDCP-Receivers gegenüber dem HDCP-Transmitter.
Zum DCC gehört eine separate 5V-Betriebsspannung (hier 5V_DDC), die es ermöglicht, das EDID-ROM auch dann auszulesen, wenn das Anzeigegerät ausgeschaltet ist. Das Auslesen des EDID-EEPROMs wird durch das Signal HOT_PLUG_IN, welches beim Verbinden der HDMI-Geräte oder den Reset des Microcontroller im Anzeigegerät erzeugt wird, ausgelöst.

Abb. 4: DCC und EDID-ROM in einem HDMI-System
Abb. 4: DCC und EDID-ROM in einem HDMI-System

3.2 CEC-(Consumer Electronics Control-) Bus (HDMI 1.2a)

Mit der Erweiterung des HDMI-Standards auf Version 1.2a wurde ein neuer Kommunikationskanal, der CEC- (Consumer Electronics Control-) Bus eingeführt. Dieser Einleitungsbus soll die automatische Steuerung von Geräten in Systemen mit HDMI-Interface grundlegend vereinfachen. Ziel ist es, dass die Geräte im System einander automatisch erkennen und miteinander kommunizieren können. Dadurch lassen sich dann auch alle Geräte im System über nur eine einzige Fernbedienung  oder ein Nahbedienfeld steuern.
CEC geht von einer baumähnlichen Struktur aus, wobei das Display die Wurzel ("root device") bildet. Switches bilden die Verzweigungen und die AV-Quellen sind die Blätter. In einer Konfiguration, wie sie in Abbildung 5 gezeigt wird, soll CEC beispielsweise dafür sorgen, dass, wenn eine DVD in den DVD-Player gelegt wird, bei Druck auf die Starttaste alle zur Wiedergabe benötigten Geräte eingeschaltet werden und die Ausgangssignale des DVD-Players vollautomatisch geroutet werden.

Abb. 5: HDMI CEC-System
Abb. 5: HDMI CEC-System
Datenübertragung

Der CEC-Bus baut technologisch auf den AV-Link des SCART-Interfaces auf. Als Einleitungsbus ("Party Line") verbindet er bis zu zehn AV-Geräte miteinander über die normale HDMI-Verkabelung.
Im Leerlaufbetrieb wird die CEC-Bus-Spannung über Pull Up-Widerstande auf 2,5-3,6V gelegt. Geräte auf dem Bus geben Daten aus, indem sie die Busspannung auf 0-0,6V ziehen. Alle Geräte auf dem Bus überwachen den Pegel auf der Leitung. Die Kommunikation erfolgt immer zwischen einem Initiator und einem (oder mehrere) Empfänger (" Follower "). Beide, Initiator und Empfänger, können Bits erzeugen bzw. senden. Die vom Initiator erzeugten Bits stellen Daten bereit, die von den Empfängern erzeugten Bits sind Empfangsbestätigungen (Acknowledge).
Eine Kommunikation startet immer mit einem 4,5ms langen Startbit (siehe Abb. 6). Dann folgt eine 3,7ms lange L-Phase. Die folgenden Daten sind in 10 Bit lange Header- und Datenblöcke paketiert. Die nominelle Datenbitdauer beträgt 2,4ms. Die Datenübertragungsrate liegt somit bei 417 Bit/s.
Startbit, Headerblock und ein oder mehrere Datenblocks bilden einen Frame (Rahmen). Jede CEC-Steuerinformation besteht aus mindestens einem Frame. Jeder gesendete 8-Bit Datensatz wird wird mit einem EOM- (End Of Message-) Bit abgeschlossen. Ein L-Pegel bedeutet, dass noch weitere Blocks folgen, ein H-Pegel kennzeichnet eine komplett übertragene Meldung. Der Empfänger quittiert den Empfang indem er das ACK - (Acknowledge-) Bit auf L-Pegel zieht. Wird irgendein Block in einem Frame nicht per ACK quittiert, wird dieser Frame bis zu fünf mal neu gesendet ( Retransmissions).
Da der CEC-Bus ein Einleitungsbus ist, besteht die Gefahr, dass zwei Geräte gleichzeitig senden wollen. Die CEC-Spezifikationen geben daher signalfreie Pausen vor dem Senden vor. Um auch anderen Geräten die Möglichkeit zu Senden zu geben, muss jeder Initiator vor dem vor dem Senden eines neuen Frames länger warten als ein neuer Initiator, der einen Frame senden will. Die Wartezeiten für Retransmissions sind natürlich am kürzesten. Wollen zwei Geräte gleichzeitig senden, entscheidet ein Priorisierungsschema wer zuerst senden darf.

Abb. 6: Struktur der CEC Datenübertragung
Abb. 6: Struktur der CEC Datenübertragung
Adressierung

CEC-Geräte haben eine physikalische Adresse und eine logische Adresse. Bei jedem HOT-PLUG liest jede CEC-Quelle das EDID-ROM des an ihr angeschlossenen HDMI-Empfängers aus und verwendet sie als physikalische Adresse. Die logische Adresse wird mit den anderen CEC-Geräten auf dem Bus ausgehandelt und ist mit vom Gerätetyp abhängig.

CEC Geräte-Achitektur

Die CEC-Spezifikationen geben keine feste Gerätearchitektur vor. Es ist den Geräteherstellern und natürlich auch den Halbleiterherstellern überlassen wo im Gerät welche Funktion ausgeführt wird. Beim HDMI-Gerät 1 im Bild 7 ist beispielsweise der physikalische Layer ( PHY) , der den Zugriff auf den Bus herstellt, als separater Baustein ausgelegt. Der darüberliegende UART - (Universal Asynchronous Receiver Transmitter-) Layer, der die eingehenden Daten de-serialisiert und die ausgehenden Date serialisiert, ist in diesem Beispiel als Programm in der Firmware des  Microcontroller ausgeführt.
Im HDMI-Gerät 2 sind der physikalische Layer und der UART-Layer in einem eigenen Baustein oder sogar im HDMI-Transmitter selber als Hardware integriert. Die gewonnenen Daten werden dann über den Systembus, z.B. einem I2C-Bus, zum Microcontroller übertragen.

Kommunikations- und Basis-Codes

Oberhalb des UART-Layers befindet sich ein Treiber-Layer, der die vom HDMI spezifizierten CEC-Meldungen zum Senden zusammenstellt oder, bei eingehenden Meldungen, diese interpretiert. Diese Meldungen veranlassen den Microcontroller dann bestimmte Funktionen im Gerät auszulösen.

Tabelle 3:CEC Basis Codes (Quelle: Wikipedia.de)
Tabelle 3:CEC Basis Codes (Quelle: Wikipedia.de)
ABB. 7: Beispiele für CEC System Architekturen
ABB. 7: Beispiele für CEC System Architekturen
Herstellerbezogene Codes und Herstellerbezeichnungen

Neben den in den HDMI-Spezifikationen festgelegten Basis-Codes haben viele CE-Hersteller etliche zusätzliche Funktionen in ihre CEC-tauglichen Geräte eingebaut. Diese produktbezogenen Codes sind zwangsläufig proprietär und können zu Geräten anderer Hersteller inkompatibel sein. Die volle Bandbreite eines spezifischen CEC-Befehlssatzes wird nur in einem System aus Produkten eines einzigen Herstellers garantiert sein. Um sich von Mitbewerbern abzugrenzen, haben fast alle Hersteller eigene Bezeichnungen für den CEC-Bus kreiert.

Tabelle 4:Herstellerbezeichnungen für den CEC-Bus (Quelle: Wikipedia.de)
Tabelle 4:Herstellerbezeichnungen für den CEC-Bus (Quelle: Wikipedia.de)

4. HDCP (HDMI 1.0)

HDMI ist als Verbindung zwischen Wiedergabegerät (Set-Top-Box, Blu-ray-Player, ...) und dem Anzeigegerät das letzte Glied in der Signalübertragungskette. Für die Vertreiber von digitalen, audiovisuellen Inhalten muss daher sichergestellt werden, dass an dieser Stelle keine 1:1-Kopien der Inhalte erstellt werden können oder eine unerlaubte Nutzung stattfinden kann. Um die Wirkung  von DRM - (Digital Rights Management-) Funktionen (z.B. CA =Conditional Access) und Kopierschutzsystemen (z.B. AACS) durchzusetzen, bietet HDMI die Möglichkeit die Übertragung der digitalen Videosignale mit HDCP (High-bandwidth Digital Content Protection) zu schützen. Hierzu verwendet HDCP Authentifizierungs- und Verschlüsselungsverfahren.
Ehe Videodaten über eine HDCP-geschützte Verbindung übertragen werden, initiiert der HDMI-HDCP-Transmitter über den DDC-Bus (DSDA/DSCL) einen Authentifizierungsprozess. Durch einen Schlüsselaustausch versichert sich der Transmitter, dass der angeschlossene DVI-HDCP-Receiver die Videosignale empfangen darf. Hierzu hat jeder Transmitter und Receiver 40 einzigartige, 56 Bit lange, geheime Schlüssel (HDCP KEYS) in einem (EE)PROM gespeichert. Der Identifizierungs- und Authentifizierungsprozess läuft in mehreren Stufen ab, bis nach einer Einigung auf einen Session Key (einen Einmalschlüssel), die mit dem Session Key verschlüsselten Daten über die TMDS-Verbindung übertragen werden. Alle 128 Bilder oder mindestens alle zwei Sekunden hat sich der Receiver beim Transmitter erneut zu authentifizieren.

5. Erweiterte Farbtiefen und Farbräume
     (HDMI 1.3 und 1.4)

Der bislang in Videoapplikationen am meisten verwendete Farbraum ist RGB (Rot-Grün-Blau). Andere Farbmodelle sind, gerade für die neuen Videoanwendungen wie HDTV-Camcorder,  digitale Diashows oder Spielkonsolen, sehr wichtig geworden. Denn nur mit einer höheren Farbauflösung und mit erweiterten Farbräumen lassen sich Videoaufnahmen und Bilder naturgetreu darstellen.

Abb. 8 und 9: Simulierte Beispiele für Farbübergänge mit einer begrenzten Farbpalette
Abb. 8 und 9: Simulierte Beispiele für Farbübergänge mit einer begrenzten Farbpalette

Die heutige Standardauflösung ist 8 Bit für jeden Farbkanal. Damit lassen sich 256 Farbstufen darstellen. Mit den drei Primärfarben R, G und B und 24 Bit Farbauflösung lassen sich somit lediglich ca. 16,7 Millionen Farben darstellen. Kombiniert mit dem eingeschränkten Farbspektrum, das eine Bildröhre, LCD-Display o.ä. erzeugen kann, führt die Begrenzung in bestimmten Wiedergabesituationen zu sichtbaren Artefakten in Form von Farbbänderungen. Die Anzeige kann hierbei nicht alle feinen Farbtonunterschiede darstellen und es werden ähnliche Bereiche des Bildes in einem Farbton zusammengefasst.

Abb. 10 und 11: Simulierte Beispiele für Farbübergänge mit einer erweiterten Farbpalette
Abb. 10 und 11: Simulierte Beispiele für Farbübergänge mit einer erweiterten Farbpalette

Erweiterte Farbräume, wie " Deep Color" sie ermöglicht, kodieren Farben mit 10, 12 oder 16 Bit pro Farbkanal. So lassen sich Milliarden von Farbtönen darstellen. Die Bildqualität steigt, da das Bild schärfer, detailreicher wird und das Kontrastverhältnis steigt. In modernen (hochpreisigen) Anzeigegeräten sind die Signalwege und die Signalverarbeitung bereits auf diese hohe Auflösung ausgelegt  und auch die Bildschirme verfügen über Leuchtstoffe mit einem erweiterten Gamut , damit sie diese Vielfalt von Farben darstellen können. 

Abb. 12 Logo x.v.Color
Abb. 12 Logo x.v.Color [2]

Die erweiterten Farbräume wie  x.v.Color (= xvYCC) definieren größere Paletten von verfügbaren Farben, als das traditionelle RGB-Model sie bieten kann und näher am vollen, für den Menschen sichtbaren Farbumfang liegen. Die zusätzlich benötigten Daten zur Definition des jeweils verwendeten Farbraums werden in Metadaten parallel zum Nutzdatenstrom zum Anzeigegerät übertragen. Die Synchronisation der verwendeten Farbräume zwischen den digitalen Inhalten, dem HDMI-Sender und dem HDMI-Anzeigegerät ist äußerst wichtig, da die Verwendung einer falschen Farbpalette zu starken Qualitätsverlusten oder sogar zu Farbfehlern führen würde.

6. LIP-SYNC (HDMI 1.3)

In allen modernen digitalen TV-Geräten werden heute Videoprozessoren eingesetzt, die sehr komplexe Signalverarbeitungsstufen beinhalten. Die Formatumwandlung (Scaling) auf die physische Auflösung des Displays, das Deinterlacing des Videosignals und die Funktionen zur Bildoptimierung (Rauschunterdrückung, Farbkorrektur) erfordern das Zwischenspeichern und Analysieren von mehreren Bildern  gleichzeitig. Jede Zwischenspeicherstufe bedeutet bei einem 50Hz-Gerät eine Verzögerung des Bildes um 20ms. Da meist 2 bis 5 Bilder im Zwischenspeicher gehalten werden, können somit im Videoprocessing Latenzzeiten bis zu 100ms auftreten. Dieser Effekt beeinflusst die Synchronität zwischen Bild und Ton erheblich. Unterschiede von mehr als 50ms zwischen Ton und Bild nimmt der Mensch als störend wahr. In die Audiosignalstufen von TV-Geräten werden daher Schaltkreise eingefügt, die das Audiosignal um die Latenzzeit der Videostufen verzögert.
Wird das Audiosignal aber nicht über die im TV-Gerät eingebauten Lautsprecher sondern über einen externen AV-Receiver wiedergegeben, kann die Latenzzeit der Videostufen nicht vom TV-Gerät ausgeglichen werden. Der Zuschauer bemerkt eine Asynchronität zwischen Ton und Bild. Es gibt zwar AV-Receiver, die ebenfalls Verzögerungsstufen eingebaut haben, aber der Abgleich durch den Benutzer ist schwierig und ungenau, da er "nach Gefühl" gemacht werden muss und auch vom Format des jeweiligen Videoeingangssignales (interlaced/progressiv) abhängig ist.
Das mit HDMI 1.3 eingeführte Lip-Sync Feature ermöglicht es Geräten, die eine Verzögerung des Videosignals verursachen, diese Information an andere angeschlossene Geräte weiterzugeben. Die Werte für die Video- und Audiolatenzzeiten sind hierzu mit im EDID-Datensatz im EDID-ROM des Anzeigegerätes abgelegt. Entsprechend (mit dem Lip-Sync Feature) ausgestattete AV-Receiver können automatisch diese Daten auslesen und dann die für den Ton benötigte Verzögerung korrekt einstellen.

7. Audio Return Channel (HDMI 1.4)

Der Audio Return Channel (= Audio Rückkanal) im HMDI 1.4 ermöglicht es ein Audiosignal, z.B. von einem TV-Gerät mit eingebautem Tuner, "upstream" über ein HDMI-Kabel zu einem AV-Receiver oder Surround Audio Controller zu übertragen.

Abb. 13: Konventionelle HDMI-Verkabelung
Abb. 13: Konventionelle HDMI-Verkabelung

Der normale Aufbau eines HDMI-Systems bringt es mit sich, dass sich das Anzeigegerät oder TV-Gerät downstream von der Audio- oder Video-Quelle befindet. Hat jedoch der Nutzer ein TV-Gerät mit eingebautem Tuner oder DVD-Player und will das Audiosignal upstream zu einem Audiosystem übertragen, musste er die Geräte bisher mit separaten analogen (Cinch-) Kabeln oder über SPDIF miteinander verbinden. Befindet sich die Anlage im TV-Modus, wird die HDMI-Verbindung zwischen Audioanlage und dem TV-Gerät nicht benötigt und liegt brach.

Abb.14: Verkabelung mit Audio Return Channel
Abb.14: Verkabelung mit Audio Return Channel

Audio Return Channel-vorbereitete TV-Geräte können Audiosignale über HDMI nicht nur empfangen, sondern auch senden. Die HDMI-Eingangsbuchse wird im TV-Betrieb zu einer Audio-Ausgangsbuchse und sendet das Audio Return-Signal. Audio Return Channel-vorbereitete AV-Receiver o.ä. verfügen ebenfalls über umkonfigurierbare HDMI-Buchsen. Je nach System- oder Benutzereinstellung kann die HDMI-Buchse, über die das AV-Signal zum TV läuft, zu einem Audioeingang umkonfiguriert werden. Das vom TV-Gerät kommende digitale Audiosignal wird über das ganz normale HDMI-Kabel übertragen. Die Lip-Sync-Funktion stellt sicher, dass Bild und Ton synchron bleiben.

Audio Return Channel-vorbereitete HDMI-Buchsen sollen von den Herstellern mit " ARC " (Audio ReturnChannel) gekennzeichnet werden.

8. HDMI Ethernet Channel (HDMI 1.4)

Die HDMI Ethernet Channel-Technologie soll die Vorzüge der einfachen HDMI-Verkabelung auf die Verkabelung eines Home-Networks auf Ethernet ausweiten. Kabel mit HDMI Ethernet Channel verfügen über einen separaten bidirektionalen Datenkanal für bis zu 100MBit/s.

Abb. 15: Konventionelle HDMI- und Ethernet Verkabelung
Abb. 15: Konventionelle HDMI- und Ethernet Verkabelung

Immer mehr Geräte der CE verfügen über IP -basierte Netzwerkanschlüsse. Angefangen von typischen Streaming-Anwendungen wie Video-on-Demand über Set Top-Boxen oder Media Player, über Online Gaming zum Internet-Browsen bis zum einfachen Rückkanal für Pay-TV-Decoder ist die Netzwerkfähigkeit ein Muss. Die Verkabelung eines solches System ist komplex und fehlerträchtig.

Abb. 16: Verkabelung mit HDMI Ethernet Channel
Abb. 16: Verkabelung mit HDMI Ethernet Channel

Die Verkabelung von HDMI Ethernet Channel-kompatiblen Geräten gestaltet sich sehr einfach. Das ganze System benötigt nur einen LAN /Internet-Zugang. Da HDMI Ethernet Channel-kompatible Geräte den Standards von DLNA , UPnP u. a. entsprechen, wird auch die Installation und Konfiguration des Systems wesentlich vereinfacht. So können beispielsweise digitale Inhalte auch in ihrem nativen Format zwischen den Geräten, z.B. zur Aufnahme, überspielt werden.

9. 3D-Übertragungsstandards

Seit der Version 1.4 (Mai 2009) wird die Übertragung von 3D-Videosignalen per HDMI-Kabel unterstützt.  Da man aber nicht wusste, welche Formate sich technisch bewähren würden, wurden keine genauen Spezifikationen aufgestellt. So wurde 3D-Video bis zu zu einer Auflösung von 1080p ermöglicht. Unterstützt werden sowohl Verfahren, die die Pixelzahl oder Bildfrequenz verdoppeln (Frame Packing) als auch solche, die zwei Bildkanäle in einen verschachteln (Side-by-Side und Top-and-Bottom).
Die genauen Spezifikationen wurden im  März 2010 mit der Version HDMI 1.4a nachgeholt. Diese neue Fassung schreibt die 3D-Formate für Broadcast, Spiele und Video-Content vor (" 3D Mandatory Formats") bindend vor.

Tabelle 5: Formate, die von 3D-Anzeigegeräten unterstützt werden müssen
Tabelle 5: Formate, die von 3D-Anzeigegeräten unterstützt werden müssen

Frame Packing für progressives Video

Beim Frame Packing-Format werden die Bilder für beide Augen zusammen in einem Frame übertragen. Dabei befindet sich im oberen Teil des Frames das Bild für das linke, im unteren Teil das für das rechte Auge. Beide Bilder sind durch einen Leerraum getrennt. Bei der Übertragung von Full-HD-Bildern in 3D kommt man so auf Frames mit einer Gesamtauflösung von 1920 × 2205 Pixel. Die 2205 Zeilen setzen sich dabei aus 2 × 1080 (Vactive) Zeilen und einem Leerraum von 45 Zeilen (Vactive_space) zusammen.
Das Frame Packing-Format wird auch für Spiele vorgeschrieben. Dabei ist die Vollbild-Auflösung für jedes Auge 1280 × 720 Pixel (720p). Für die Übertragung wird daraus ein 1280 × 1470 Pixel großes Frame gebaut (2 × 720 Zeilen plus 30 Leerzeilen).

Abb. 17: Frame Packing für progressives Video
Abb. 17: Frame Packing für progressives Video

Frame Packing für interlaced Video

Für das Halbbildformat befindet sich in einem Frame (von oben nach unten) das erste Halbbild für das linke Auge, das erste Halbbild (odd=ungerade) für das rechte Auge, das zweite Halbbild (even=gerade) für das linke und das zweite Halbbild für das rechte Auge. Zwischen den einzelnen Halbbildern liegt jeweils ein Leerraum, insgesamt also drei.

Abb. 18: Frame Packing für progressives Video
Abb. 18: Frame Packing für progressives Video

Side-By-Side

Beim Side-By-Side-Verfahren wird die horizontale Auflösung der Bilder durch Subsampling halbiert. Im Frame werden dann die Bilder nebeneinander angeordnet. Die Vertikalfrequenz des 3D-Bilderpaares ist gleich der eines einzelnen 2D-Bildes.

Abb. 19:Side-By-Side-Verfahren
Abb. 19:Side-By-Side-Verfahren

Top-and-Bottom

Beim Top-and-Bottom-Verfahren wird die vertikale Auflösung der Bilder durch Subsampling halbiert. Im Frame werden dann die Bilder untereinander angeordnet. Die Vertikalfrequenz des 3D-Bilderpaares ist gleich der eines einzelnen 2D-Bildes.

Abb. 20: Top-and-Bottom-Verfahren
Abb. 20: Top-and-Bottom-Verfahren

10. UHD / 4K-Unterstützung

Mit der Entwicklung von 4K- / UHD (Ultra High Definition)-TV-Geräten und Projektoren bedurfte es mehr Bandbreite um die hohen Auflösungen und Bildwechselfrequenzen der künftigen AV-Signale zu übertragen. Die Spezifikation von HDMI-1.4 sieht zwar auch schon die Übertragung von 4K-Signalen vor, doch erlaubte die zur Verfügung stehende Bandbreite lediglich Auflösungen von 4096 x 2160 Pixel bei 24 Hz oder 3840 x 2160 Pixel bei 30Hz. Diese Einschränkung erlaubt aber z.B. nicht die Wiedergabe von 4K 3D-Filmen oder die Darstellung des erweiterten Farbraums, wie es der neue Standard BT.2020 (12 Bit RGB) vorsieht.

Um HDMI an die kommende Entwicklung anzupassen wurden die zuletzt 2010 geänderten Spezifikationen im September 2015 und nochmals im April 2015 in der Spezifikation zur HDMI-2 bzw. HDMI-2a erweitert. Dabei wurde der Standard BT.2020 weitgehend übernommen.

Die wichtigste Neuerung, die HDMI-2 mit sich bringt, ist die Erhöhung der Datenrate auf bis zu 18 GBit/s brutto bzw. 14,4 GBit/s ohne Overhead. Dabei ist HDMI-2 rückkompatibel zu den Vorgängervarianten. Auch werden keine neuen Kabel benötigt, da alle Änderungen in den Tranceiver-Chips vorgenommen wurden.

Mit einem Single Link, also mit nur einer HDMI-Verbindung, kann aber dennoch nicht der vollständige Standard BT.2020 abgedeckt werden. Tabelle 2 zeigt, dass mit einer HDMI-2-Verbindung maximal UHD-Signale mit 60 Hz Bildfrequenz und einem Chroma-Subsampling von 4:2:0 mit 8 Bit Farbtiefe übertragen werden können. Hierbei wird das Luminanzsignal auf zwei TMDS-Kanäle verteilt und die Chromasignale Cb und Cr gemeinsam auf dem dritten TMDS-Kanal. Voraussetzung ist natürlich, dass Quelle und Display beide diese Betriebsart unterstützen.

Die Steigerung der Übertragungsbandbreite ermöglicht nicht nur die Übertragung der neuen UHD-Videoformate (siehe Tabelle 6) sondern auch ein Audiosignal mit bis zu 32 Kanälen. Für die Übertragung von Audiosignalen in höchster Qualität können Sampleraten bis zu 1536 kHz verwendet werden.

Tabelle 6: Von HDMI-2 unterstützte Formate (rot = neu)
Tabelle 6: Von HDMI-2 unterstützte Formate (rot = neu)

Weitere Neuerungen in HDMI-2:

  • Parallele Übertragung von zwei separaten Videostreams für Dual View (für unterschiedliche Bilder auf speziellen 3D-Bildschirmen).
  • Parallele Übertragung von vier Audiostreams an bis zu vier Usern (aber nur in einem Tonformat!).
  • Unterstützung von 21 : 9 Bildschirmen.
  • Dynamische Synchronisation von Audio- und Videostreams.
  • Erweiterter CEC-Befehlssatz für die Bedienung von allen AV-Geräten mit nur einer Fernbedienung.

 

Neuerungen im HMDI-2a-Standard

Mit HDMI-2a wird nun auch offiziell HDR (High Dynamic Range Image = Bild mit hohem Dynamikumfang) unterstützt. HDR ist eine Technik, die digitale Bilder und Videos mit großen Helligkeitsunterschieden sehr detailreich wiedergeben vermag.
Um solche HDR-Bilder korrekt wiedergeben zu können, benötigt das Wiedergabegerät (Monitore, Ultra-HD Blu-ray Disc-Player o.ä.) Informationen über den Kompressionsvorgang und den Farbraum des darzustellenden Bildes, weil bei einer Wiedergabe mit Standardwerten das Bild u. a. in den Farben übersättigt und mit falschem Farbton angezeigt wird. Diese Informationen sind als Metadaten in der Bilddatei bzw. Videostream enthalten. Zusätzlich benötigt das Wiedergabegerät auch Informationen über die Eigenschaften des Displays. Diese Daten können über die HDMI-Verbindung aus dem EDID-ROM des Displays ausgelesen werden.

 

Abb. 21: Vergleich zwischen einem Standard- und einem HDR-Bild
Abb. 21: Vergleich zwischen einem Standard- und einem HDR-Bild

11. HDMI-Kabel und Verbinder

11.1 Kabel

Die HDMI-Spezifikationen geben keine maximale Längen vor. Die maximale Länge hängt allein von der Konstruktion des Kabels und und von den verwendeten Materialien ab. Mit HDMI 1.3 können senderseitig die TMDS-Signale mit einer Pre-Emphasis vorverzerrt und mit adaptiven Equalizer in den Empfängern an die Kabeleigenschafte angepasst werden um die frequenzabhängige Dämpfung des Kabels zu kompensieren. So können Kabellängen bis zu 15m erreicht werden. Darüber hinaus gehende Entfernungen können mit zwischengeschalteten Repeatern (mit externer Spannungsversorgung) überbrückt werden. Noch größere Entfernungen erfordern HDMI-Extender auf der Basis von doppelten CAT5/6-Kabel (bis zu 50m) oder gar Lichtwellenleiter (bis 300m).
Das Hauptproblem bei hohen Kabellängen bildet weniger die Übertragung des Nutzsignales als die Übertragung des DCC. Dieses I2C-Bus-Signal kann durch die Kabelkapazität und -dämpfung derart verzerrt werden, dass die Kommunikation und Authentifizierung zwischen HDCP-Transmitter und -Receiver nicht mehr korrekt funktioniert. Dann können leicht Bildstörungen oder -aussetzer auftreten.

Kabeltypen

Um eine Verwirrung darüber zu vermeiden welches Kabel welches Videoformat unterstützt, wurden mit der Standarderweiterung auf HDMI 1.3 zwei Kabelkategorien geschaffen. Weiterhin wurden Werte für Dämpfung, Symmetrie der Kabellängen ( interpair skew), Übersprechen und  der differentiellen Impedanz vorgegeben.
Standard (HDMI 1.3): Kategorie 1-Kabel dürfen nur als "Standard" bezeichnet werden. Sie müssen auf eine Pixelfrequenz von mindestens 74,5 MHz (=2,23 GBit/s -> 720p und 1080i / 60Hz) getestet und zertifiziert worden sein. Diese Kabel sind relativ preiswert und decken den größten Teil des Marktes ab.
High-Speed (HDMI 1.3): Nur Kategorie 2-Kabel dürfen mit " High-Speed " gekennzeichnet werden. Diese Kabel unterstützen alle HDMI-Datenraten bis über 340 MHz (>10,2 GBit/s).
Kabel mit Ethernet (HDMI 1.4): Diese Kabel haben die gleichen Leistungsmerkmale wie Standard- oder High-Speed-Kabel, verfügen aber einen zusätzlichen "HDMI Ethernet Channel", der einen bidirektionalen Datenverkehr bis 100MBit/s erlaubt.
Automotive HDMI-Kabel (HDMI 1.4): Speziell für den Einsatz in Fahrzeugen gedacht, sind diese Kabel robuster und mit Verriegelungen ausgestattet. Um den Umweltbedingungen standzuhalten sind z.B. die Steckverbinder vibrationsfest und für einen weiten Temperaturbereich ausgelegt.

11.2 Verbinder

HDMI Typ A

Abb. 11.1: HDMI Typ A-Buchse
Abb. 11.1: HDMI Typ A-Buchse

Der HDMI Type A-Verbinder ist der Standard HDMI-Verbinder.  Er kann up- und downstreamseitig eingesetzt werden. 

Haltbarkeit: >10 000 Steckzyklen

 

 



Abb. 11.2: HDMI Typ A-Buchse
Abb. 11.3: HDMI Typ A-Stecker
Tabelle 7: Kontaktbelegung HDMI-Verbinder A
Tabelle 7: Kontaktbelegung HDMI-Verbinder A

HDMI Typ B

Abb. 11.4: HDMI Typ B-Buchse
Abb. 11.4: HDMI Typ B-Buchse

HDMI-Verbinder Typ B sind in der normalen CE nicht zu finden. Dieser Steckertyp ist  Professional-Anwendungen vorbehalten. Typ B-Verbinder verfügen über zwei TMDS-Links. Dieses verdoppelt die erreichbare Datenübertragungsrate über die Kabelverbindung.

Tabelle 8: Kontaktbelegungen
Tabelle 8: Kontaktbelegungen

HDMI Typ C

Abb. 11.5: HDMI Typ C-Buchse
Abb. 11.5: HDMI Typ C-Buchse

Der HDMI Typ C - oder Mini-Verbinder wurde mit der Standarderweiterung HDMI 1.3 (2006) eingeführt. Hauptsächlich wird dieser Verbinder in mobilen Geräten wie Camcordern und digitalen Fotoapparaten eingesetzt.

Kontaktbelegung wie HDMI Typ A
Haltbarkeit: >10 000 Steckzyklen

HDMI Typ D

Abb. 11.6: HDMI Typ D-Buchse
Abb. 11.6: HDMI Typ D-Buchse

Der HDMI Typ D - oder Micro-Verbinder wurde mit der Standarderweiterung HDMI 1.4 (2009). eingeführt. Er hat zwar die gleiche Bauhöhe wie der Typ C-Stecker, ist aber wesentlich schmaler. Zielanwendungen sind ebenfalls mobile Geräte.  Der HDMI Typ D-Verbinder ist der kleinste Standardverbinder für High Definition Video-Übertragung.

Abb.11.7: HDMI Typ D-Stecker
Abb.11.7: HDMI Typ D-Stecker

 

Kontaktbelegung wie HDMI Typ A
Haltbarkeit: >10 000 Steckzyklen

 

 

REFERENZEN

Abbildungen

[1] Das HDMI Logo ist ein geschütztes Warenzeichen der HDMI Licensing, LLC Quelle:hdmi.org: http://www.hdmi.org/images/marketing_materials/HDMI_black.jpg

[2] Das x.v.Color Logo ist ein geschütztes Warenzeichen der HDMI Licensing, LLC Quelle:hdmi.org: http://www.hdmi.org/images/marketing_materials/xvColour_Final.jpg

Zuletzt bearbeitet am 27. Juli 2015

Rechtshinweis

Sofern auf dieser Seite markenrechtlich geschützte Begriffe, geschützte (Wort- und/oder Bild-) Marken oder geschützte Produktnamen genannt werden, weisen wir ausdrücklich darauf hin, dass die Nennung dieser Marken, Namen und Begriffe hier ausschließlich der redaktionellen Beschreibung bzw. der Identifikation der genannten Produkte und/oder Hersteller bzw. der beschriebenen Technologien dienen.

Alle Rechte an den in diesem Kompendium erwähnten geschützten Marken- und/oder Produktnamen sind Eigentum der jeweiligen Rechteinhaber und werden hiermit ausdrücklich anerkannt. Alle in unseren Artikeln genannten und ggfs. durch Dritte geschützte Marken- und Warenzeichen unterliegen uneingeschränkt den Bestimmungen des jeweils gültigen Kennzeichenrechts sowie den Besitzrechten der jeweiligen eingetragenen Eigentümer.

Die Nennung von Produktnamen, Produkten und/oder der jeweiligen Produkthersteller dient ausschließlich Informationszwecken und stellt keine Werbung dar. InfoTip übernimmt hinsichtlich der Auswahl, Leistung oder Verwendbarkeit dieser Produkte keine Gewähr.

Sollten dennoch wider unserer Absicht Rechte Dritter verletzt werden, so bitten wir um eine Benachrichtigung ohne Kostennote.