Das InfoTip Kompendium

Ein kostenloser Service der InfoTip Service GmbH

Zum Anfang der
Seite scrollen

Netzwerkverteiler - Netzwerkkomponenten

Inhaltsverzeichnis

1. Netzwerkstrukturen

Die Aufgabe von Netzwerken ist es Computer und aktive Netzwerkkomponenten so miteinander zu verbinden, sodass diese Daten austauschen oder gemeinsam nutzen können. Weiterhin kann über Netzwerke auch kommuniziert werden. Die physische Verbindung zwischen den Computern kann auf vielerlei Weise (Kabel, Glasfaser, Funk) vorgenommen werden. Die Kommunikationsstrukturen werden durch die logische Netzwerktopologie und durch Netzwerkprotokolle definiert. Die Topologie eines Netzwerkes ist im hohen Maße abhängig von den Bedürfnissen, die das Netzwerk zu erfüllen hat. Ein einfaches Ad-Hoc-WLAN benötigt keinerlei Installation oder Wartung. Es konfiguriert sich selber und alle Teilnehmer haben gleiche Rechte, auch der eventuell mitlauschende Nachbar. Anders ist es bei fest installierten Netzwerken. Prinzipiell kommen für ein Netzwerk zwei logische Netztopologien in Frage.

Abb. 1.01: Peer-to-Peer-System ohne zentrale Infrastruktur
Abb. 1.01: Peer-to-Peer-System ohne zentrale Infrastruktur
Peer-to-Peer- (P2P-) Netzwerk

Die loseste Netzwerk-Struktur ist ein Peer-to-Peer- (engl. peer für „Gleichgestellter“, „Ebenbürtiger“) Netzwerk. Hierin sind eigenständige Computer unstrukturiert miteinander verbunden. Alle Computer im Netzwerk sind gleichberechtigt und können sowohl Dienste in Anspruch nehmen als auch Dienste zur Verfügung stellen. Der Vorteil von P2P-Netzen ist ihre Heterogenität. Computer unterschiedlicher Bauart, Betriebssysteme, Leistung, Bandbreite und Onlinezeit lassen sich miteinander verbinden. Der große Nachteil ist die nicht garantierte Verfügbarkeit von Diensten und die schwere Administrierbarkeit des Netzwerks.

Abb. 1.02: Zentralisiertes Server-Client-Modell
Abb. 1.02: Zentralisiertes Server-Client-Modell
Server-Client-Netzwerk

Das Client-Server-Modell ist das Standardkonzept für die Verteilung von Aufgaben innerhalb eines Netzwerkes. Ein Server ist ein Programm, das auf die Kontaktaufnahme eines Client-Programmes wartet und nach Kontaktaufnahme mit diesem Nachrichten austauscht. Der Computer auf dem der Server läuft wird als Host bezeichnet. Die Dienste, die ein Server bereitstellt, können unterschiedlichster Art sein.  Bei den Aufgaben kann es sich um Standardaufgaben (Email-Versand, Email-Empfang, Web-Zugriff, etc.) oder um spezifische Aufgaben einer Software oder eines Programms handeln.

Der zur Zeit am weitesten verbreitete Standard für lokale Computer-Netzwerke ist Ethernet in seinen verschiedenen Varianten. Die aktuellen Spezifikationen von Ethernet sind in der IEEE802.3 und IEEE802.11 (für drahtlose Netze) festgelegt. Der Standard legt Kabeltypen, Steckverbinder, die Signalisierung, Paketformate und Protokolle fest. Physikalisch gesehen ist Ethernet ein Bus, an den die Stationen elektrisch parallel angeschlossen sind. Als Übertragungsmedien werden Twisted Pair-Kabel, Lichtwellenleiter und Funk eingesetzt (siehe auch die Artikel "Übertragungsmedien" und "WLAN").

Abb. 1.03: Bus-Topologie von Ethernet
Abb. 1.03: Bus-Topologie von Ethernet

Die logische Struktur eines Netzes ist die Art und Weise, wie die einzelnen Stationen miteinander verbunden werden. Bei der Verkabelung von LANs muss man aber zwischen logischer Struktur und Verkabelungsstruktur unterscheiden. So sieht ein Netz mit logischer Bustopologie bei der Verkabelung mit 'Twisted Pair'-Kabeln wie ein Sternnetz aus.

2. Physische Netze

Im physischen Netz erfolgt die physikalische Übertragung der Daten. Hier sind die elektrischen, mechanischen, funktionalen und prozeduralen Parameter für die physikalische Verbindung zweier Einheiten festgelegt (z. B. Pegel, Modulation, Kabel, Stecker, Übertragungsrate, etc.). Jedes Computer-Netzwerk besteht, neben den Computern und Servern, aus einer Vielzahl von Netzwerkkomponenten, die unterschiedliche Aufgaben zu erfüllen haben. Hierbei unterscheidet man nach passiven und aktiven Komponenten.
Als passive Netzwerkkomponenten werden Gegenstände bezeichnet, die ohne jegliche Stromversorgung auskommen. Dazu zählen insbesondere: Leitungen, Kabel und Patchkabel, Anschlussdosen, Stecker und Buchsen.
Aktive Netzwerkkomponenten sind alle Geräte, die aktiv Signale verarbeiten bzw. verstärken können. Sie benötigen dazu eine Stromversorgung. Zu dieser Gruppe gehören Hubs und Switches, Router, Bridges und Hardware-Firewalls. Ein Bestandteil eines Computers kann ebenfalls eine Netzwerkkomponente sein, z. B. eine Netzwerkkarte ("NIC") oder eine ISDN-Karte.

Abb. 2.01: Serverrack in einem mittelständischen Unternehmen. Links daneben das Anschluss- und Verteilerrack
Abb. 2.01: Serverrack in einem mittelständischen Unternehmen. Links daneben das Anschluss- und Verteilerrack
Abb. 2.02: Anschluss-u. Verteilerrack der EDV in Abb. 2.01 Nicht sichtbar: WLAN-Access-Point auf dem Rack
Abb. 2.02: Anschluss-u. Verteilerrack der EDV in Abb. 2.01 Nicht sichtbar: WLAN-Access-Point auf dem Rack

3. Netzverteiler

Um Computer oder andere Geräte an ein Netzwerk anzuschließen, Netzwerke im Rahmen einer strukturierten Verkabelung zu segmentieren oder um mehrere Teilnetze miteinander zu verbinden, werden Netzwerkkomponenten benötigt, die wie Verteiler funktionieren. In einfachsten Fall, wie z.B. im veralteten Cheaper-Net, kann dieses ein passiver Koaxial-T-Stecker sein. In modernen Netzwerken werden aktive Verteiler eingesetzt, die zusätzlich die in die Segmente weitergeleiteten  Signale regenerieren (d.h. die ursprüngliche Amplitude und Flankensteilheit der Impulse wiederherstellen) und die Kollision von Datenpaketen verhindern.

Abb. 3.01: Ring-, Stern- und Baumtopologie
Abb. 3.01: Ring-, Stern- und Baumtopologie

In der Praxis führt der Bus-Charakter von Ethernet zu Stern- oder Baumstrukturen, in deren Knoten Hubs ("Naben") oder Switches ("Schalter") die Signalverteilung übernehmen. Hubs und Switches sind mit einer Anzahl Anschlussbuchsen, sogenannte Ports,  ausgestattet, an denen jeweils ein Gerät angeschlossen ist. Bei der Verteilung der Signale wird hierbei zwischen Shared Media und Switched Media unterschieden. Beim Shared Media müssen sich mehrere Teilnehmer einen Übertragungskanal teilen. Beim Switched Media wird eine dedizierte Verbindung zwischen zwei Teilnehmern hergestellt.

Abb. 3.02: Der Hub im OSI-Modell
Abb. 3.02: Der Hub im OSI-Modell

3.1. Hubs

Der Hub gehört zur Klasse der Multiport-Repeater. Wie es der Name Repeater (Wiederholer, Verstärker, Regenerator) bereits verrät, werden an einem Port eingehende Datenpakete nicht nur verstärkt, sondern komplett erneuert und erst dann an allen anderen Ports ausgegeben. So werden Störungen an den eingehenden Datenpaketen aus dem Netzwerk erst gar nicht  weitergegeben, sondern die betroffenen Datenpakete gleich verworfen.
Da der Hub seine Pakete nicht zielgerichtet an allen seiner Ports ausgibt, stellt er somit  ein Shared Medium dar, auch wenn jede Station über ein eigenes Kabel mit dem Hub verbunden ist. Das bedeutet, dass sich alle Teilnehmer im Netz die zur Verfügung stehende Übertragungsbandbreite teilen müssen. Ein Hub arbeitet somit auf der der untersten Ebene, der Bitübertragungsschicht des OSI-Schichtenmodells.

Die einfache Funktionsweise macht Hubs zwar kostengünstig, bedingt aber auch einige entscheidende Nachteile:

  • nur gibt eine Übertragungsrate und zwar die des langsamsten Teilnehmers
  • höhere Geschwindigkeiten als 100 MBit/s sind nicht möglich
  • ein Hub arbeitet im Halbduplexverfahren, d.h. kann ein Datenpaket entweder empfangen oder senden.     Sendet ein Teilnehmer Daten, sind somit alle anderen Leitungen belegt.
  • wollen zwei oder mehr Teilnehmer gleichzeitig senden, kommt es zu Kollisionen und somit zur Zerstörung der Datenpakete
  • der Datenverkehr kann von jedem Teilnehmer mitgehört werden
  • Der Kaskadierung von Hubs sind enge Grenzen gesetzt ("Repeaterregel").
    Bei einer Kaskadierung werden spezielle Uplink-Ports (X-Ports) am Hub oder Crosslink-Kabel eingesetzt.

Da Hubs heute gegenüber Switches kaum einen Kostenvorteil bieten und mit ebendiesen Nachteilen behaftet sind, werden Ethernet-Hubs kaum noch angeboten bzw. in Ethernet-Netzwerken eingesetzt. Zur Sicherheitsüberwachung werden gelegentlich spezielle Hubs zum Kopieren des kompletten Datenstroms in einem Netzsegment verwendet.

Abb. 3.04: Prinzip eines Hubs
Abb. 3.04: Prinzip eines Hubs
Abb. 3.05: Ethernet-Hub mit vier Ports (Quelle: [1])
Abb. 3.05: Ethernet-Hub mit vier Ports [1]

3.2. Switches

Abb. 3.06: Prinzip eines Switches
Abb. 3.06: Prinzip eines Switches

Wie es der Name Switch (= Schalter) bereits beschreibt, verbinden diese Geräte Netzsegmente oder Stationen über Schalter. Im Gegensatz zum Hub werden die Datenpakete zielgerichtet nur zu den Ports weitergeleitet, an denen die jeweiligen Empfänger angeschlossen sind. Der Switch liest hierzu bei Erhalt eines Ethernet-Datenpaketes die 48 Bit lange MAC-Adresse (in Abb. 3.09 die Quelladresse 00:23:54:58:B6:99)  und legt dazu einen Eintrag in der sogenannten SAT (Source-Address-Table) an. In der SAT wird neben der MAC-Adresse auch der physikalische Port, an dem diese empfangen wurde, gespeichert. Nach dieser Lernphase wird jedes weitere Datenpaket an diese MAC-Adresse nur noch an den in der SAT gelisteten Port weitergeleitet. Pakete zu unbekannten Adressen werden an alle Ports weitergeleitet.
Bei einfachen Switches kann die SAT mehrere Hundert Einträge erfassen, bei professionellen Switches mehrere Tausend. Der Inhalt der SAT wird automatisch überwacht. Wird ein MAC-Eintrag nicht in kurzen Intervallen aufgerufen, "altert" der Eintrag. Wird ein Eintrag längere Zeit nicht mehr aufgerufen, wird er gelöscht. So kann die Größe der SAT begrenzt werden.
Switches verfügen meist über vier (SOHO- (Small Office/Home-) Verteilung), zwölf (Etagenverteilung) oder 48 (Rechenzentren, Gebäudeverteilung) Ports. Alle Ports können unabhängig voneinander gleichzeitig miteinander verbunden werden (Abb. 3.06). Das bedeutet, dass mehrere Datenpakete den Switch gleichzeitig passieren können.

Dieses intelligente, direkte Routing vermeidet Datenverkehr in den nicht angesprochenen Netzsegmenten, was die Gesamtdatenübertragungsrate im Netzwerk erheblich steigert. Auch die Rate der Paketkollisionen sinkt drastisch. Dadurch, dass gleichzeitig mehrere Verbindungen hergestellt werden, wird zudem verhindert, dass Daten von anderen Teilnehmern mitgehört werden können.
Weil die Datenpakete im Switch zwischengespeichert (gepuffert) werden, ist es möglich Teilnehmer mit unterschiedlichen Übertragungsraten zu integrieren. Zudem ist bei den meisten Übertragungsmedien auch ein Vollduplexbetrieb möglich. Dies bedeutet, dass an einem Port gleichzeitig Daten gesendet und empfangen werden können, wodurch die Übertragungsrate verdoppelt wird. Da in diesem Fall auch Kollisionen nicht mehr möglich sind, wird die Übertragungsrate nochmals erhöht.
Im Gegensatz zu Ethernet Hubs können Ethernet-Switches auch bei höheren Datenübertragungsraten als 10 MBit/s kaskadiert werden. Für Switches gelten keine Repeaterregeln. Sie können deshalb praktisch beliebig kaskadiert werden ("Baum-Topologie", Abb. 3.01).

Abb. 3.07: Switches im OSI-Model
Abb. 3.07: Switches im OSI-Model

Die Verarbeitung der MAC-Adresse erfolgt in der Schicht 2 des OSI-Referenz-Models. Einfache Switches, die nur über Grundfunktionen verfügen, werden daher als Level-2-Switches bezeichnet. Da sie nicht konfiguriert werden brauchen sind sie "Unmanaged Switches".  Switches mit erweiterten Funktionen, die auch höhere Protokolle verwenden, bezeichnet man als Level-3- oder Multilayer-Switches.

Abb. 3.08: Komponenten eines 5-Port Layer-2 Gigabit-Switches
Abb. 3.08: Komponenten eines 5-Port Layer-2 Gigabit-Switches

Da die erweiterten Funktionen von einem Netzwerkadministrator konfiguriert werden müssen, sind Level-3-Switches sogenannte "Managed Switches". Bei einer Verarbeitung mit Layer 3 fallen mehr Informationen an, was natürlich eine wesentlich aufwendigere und somit teurere Hardware voraussetzt. Managed Switches sind meist in Racks nahe den Servern montiert (Abb. 3.10).

3.3. Level-2 Switches

Level-2-Switches werden zumeist in der Gruppen- oder Etagenverteilung eingesetzt. Die Anzahl der Ports ist daher auf vier bis zwölf begrenzt. Die im Switch implementierten Funktionen sind ausschließlich auf die fehlerfreie Übertragung und Verteilung der empfangenen Datenpakete ausgerichtet.

Prinzip der Paketweiterleitung

Das Verteilprinzip einfacher Switches ist "Store-and-Forward". Ein vom Switch empfangenes Ethernet-Paket wird dabei zunächst komplett gespeichert. Nach der Auswertung der Zieladresse wird eine Prüfsumme über den Paket-Header und die Nutzdaten berechnet. Die Prüfsumme wird mit der am Paketende übertragenen CRC-Prüfsumme verglichen. Bei Übereinstimmung wird das Paket zum Ziel-Port weitergeleitet. Bei Differenzen wird das Paket verworfen. Auf diese Weise werden defekte Datenpakete nicht im Netzwerk weiterverbreitet.

Abb. 3.09: Aufbau eines Ethernet-Pakets
Abb. 3.09: Aufbau eines Ethernet-Pakets
Flusskontrolle

Die Ethernet-Flusskontrolle (Flow Control) soll sicherstellen, das schnelle  Ethernet-Komponenten von nicht zu viele Datenpakete an langsamere Ethernet-Teilnehmer senden, da dieses ja zu Datenverlusten führen würde. In den ersten Jahren nach Einführung von Ethernet lief dieses im Halbduplex-Modus. Durch die Verwendung des CSMA/CD-Protokolls wurde sichergestellt, dass immer nur ein Teilnehmer im Netz senden kann. So wurden Paketkollisionen vermieden und dadurch auch der Datenfluss automatisch geregelt.
Mit der Einführung von Fast Ethernet (100BaseTX) und Gigabit-Ethernet (1000BaseTX) und der damit verbundenen Einführung des Vollduplex-Betriebes konnte dieses Verfahren nicht mehr eingesetzt werden. Daher wurde eine Signalisierung geschaffen, welche die Datenübertragung bei Ethernet temporär stoppt. Droht eine Station (Computer oder Switch) zu überlasten, sendet sie ein Signal, dass sie keine Pakete mehr verarbeiten kann. Hierzu schickt sie ein PAUSE-Frame mit der gewünschten Wartezeit an die MAC-Adresse des Senders oder an alle Geräte im Netzsegment (über die reservierte Multicast-MAC-Adresse 01-80-C2-00-00-01).

3.4. Managed Switches / Level-3 Switches

Level-3- oder Multilayer-Switches stellen, neben den typischen Layer-2-Switchfunktionen, noch weitere Funktionen bereit, mit denen ein Netzwerkadministrator ein Netzwerk unter Berücksichtigung von Sicherheitsaspekten und Leistungsfähigkeit  optimieren kann. Auch eine Erfassung und Überwachung von Netzwerkaktivität und -status ist über eine integrierte Software möglich.  Die Steuerung und Verwaltung solcher Switches erfolgt über die Kommandozeile einer Konsole oder heute meist über eine Web-Oberfläche. Daher haben Managed Switches auch eine eigene IP-Adresse und müssen wie ein normaler Teilnehmer in das Netzwerk eingefügt werden.

Abb. 3.10: Managed Switch
Abb. 3.10: Managed Switch

3.4.1. Paketweiterleitungsverfahren in Managed Switches

Professionelle Switches haben neben der Standardmethode "Store and Forward" weitere, schnelle, Strategien um Datenpakete weiterzuleiten. Dieses ermöglicht auf Grund der geringeren Latenzzeit (Verzögerung durchs Verarbeiten) eine höhere Datendurchsatzrate.

  • Cut Through: Der Switch liest den Header des Ethernet-Datenpakets nur bis zur Ziel-MAC-Adresse und reicht das Paket dann sofort an den Ziel-Port weiter. Eine Prüfung auf Fehler im Paket erfolgt nicht. Diese müssen entweder durch andere Level-2-Komponenten oder durch höhere Netzwerkprotokolle (z.B. TCP) abgefangen werden.
  • Fragment Free ist eine Methode zwischen "Store and Forward" und Cut Through. Nach der Ethernet-Spezifikationen sollten Paketkollisionen während der ersten 64 Bytes eines Paket ( = Mindestläge eines Ethernet-Paketes) detektiert werden können. Daher überprüft Fragment Free nur die 64 Byte-Mindestlänge des Pakets und sendet es dann an den Ziel-Port weiter. Pakete, die kürzer als 64 Byte sind, sind meist Fragmente beschädigter Pakete und werden verworfen. Fehler in den Nutzdaten müssen ebenfalls durch höhere Netzwerkprotokolle abgefangen werden.
  • Adaptives Switching: Eine Methode, die automatisch die zum Zeitpunkt am besten angepasste der obigen Verfahren wählt. Es wird ein optimaler Kompromiss zwischen verworfenen Paketen und Geschwindigkeit angestrebt.

3.4.2. Zusätzliche Ports und Portfunktionen

Professionelle Switches verfügen neben den üblichen RJ45-Buchsen zum Anschließen von Stationen und weiteren Netzwerksegmenten oftmals noch weitere Anschlussports. Dies können auch mit spezialisierten Funktionen belegt werden.

  • Eine Sub-D-Buchse, meist an der Gerätefront, erlaubt den Anschluss einer Konsole über eine serielle Schnittstelle (RS232) zur Konfiguration des Switches.
  • Uplink-Ports sind dedizierte Ports die Switches miteinander oder z.B. mit Servern verbinden. Zur Erhöhung der Paketdurchsatzrate sind Uplink-Ports oftmals in einer schnelleren Ethernet-Technologie ausgeführt als die übrigen Ports.
  • Das MDI (Medium Dependent Interface) ist ein Ethernet- (Uplink) Port bei dem der Sender (Tx) eines Gerätes mit dem Empfänger (Rx) eines anderen Gerätes verbunden ist. Da bei der Verwendung von Twisted-Pair-Kabeln jedes Gerät getrennte Leitungsadern zum Senden und zum Empfangen benutzt, müssen MDIs dabei so verbunden werden, dass jeweils die Sendeleitungen des einen Gerätes an den Empfangsleitungen des Anderen liegen. Beim Anschluss ist daher ein Crossoverkabel zu verwenden.
  • Beim MDIX (Medium Dependent Interface Crossover) ist die Überkreuzschaltung von Sende- und Empfangsleitungen bereits im Anschluss vorhanden. Daher können normale Patch-Kabel verwendet werden.
  • Auto-MDI(X): Moderne Switches können selbstständig die Sende- und Empfangsleitungen eines angeschlossenen Gerätes erkennen und sich darauf einzustellen. Hierbei ist der Kabeltyps (gekreuzt oder 1:1) egal. Alle Gigabit-Ethernet-fähigen Geräte müssen Auto-MDI(X) beherrschen.
  • Beim Stacking ("Stapeln") wird aus mehreren einzelnen Switches ein gemeinsamer logischer Switch mit höherer Portanzahl und gemeinsamem Management konfiguriert. Stacking-Ports sind besondere Ports, die mit besonders hoher Übertragungsrate und geringer Latenzzeit arbeiten. Beim Stacking werden die Switches, die in der Regel vom gleichen Hersteller und aus der gleichen Modellreihe stammen müssen, mit einem speziellen Stack-Kabel miteinander verbunden. [1]
  • Kanal-/Port-Bündelung auch: Link-/Port-Aggregation (IEEE, Dell, HP), Trunking (Sun u.a.), Teaming (Novell), Bonding (Linux), Etherchannel (Cisco) bezeichnet die Zusammenlegung von mehreren physikalisch getrennten Ethernet-Verbindungen zu einer einzigen logischen. Hierbei werden mindestens jeweils zwei Ports eines Switches so konfiguriert, dass sie wie ein einzelner Port mit doppelter Geschwindigkeit erscheinen.
Abb. 3.11: Erhöhung der Übertragungsbandbreite durch Port-Aggregation
Abb. 3.11: Erhöhung der Übertragungsbandbreite durch Port-Aggregation
  • Port-Spiegelung: Bei der Port-Spiegelung (Port Mirroring) wird der Netzwerkdatenverkehr überwacht und gespiegelt indem Kopien aller eingehenden und ausgehenden Pakete von ausgewählten Ports an einen Überwachungsport weitergeleitet werden. Ein am Überwachungsport angeschlossener Computer mit einer Überwachungssoftware (Netzwerksniffer, Intrusion Detection System) untersucht den Inhalt jedes Pakets auf Signaturen (z.B. Schlüsselwörter, IP-Adressen, Protokolle, ...) und Plausibilität. Verdächtige Pakete werden in einem Log-File protokolliert.

3.4.3. Funktionen zur logischen Administration von Netzwerken

3.4.3.1. VLAN (Virtual Local Area Network)

Moderne lokale Netzwerke können heute leicht einige Hundert oder Tausend Teilnehmer umfassen. Aus Performance-, Sicherheits- und Administrationsaspekten heraus kann es dann vorteilhaft sein, ein großes physischen Netzwerk in kleinere logische Einheiten zu segmentieren. Dabei dürfen dann natürlich nicht die physische Struktur des Netzes und die Standorte der angeschlossenen Stationen leiden. Die Segmentierung kann mit der Schaffung von Teilnehmergruppen in virtuellen Netzwerken (VLAN) vorgenommen werden.
Ein VLAN ist ein logisches Teilnetz innerhalb eines physischen Netzwerkes. Das gesamte physische Netzwerks wird hierbei in mehrere logische Netze aufgeteilt. Ein VLAN kann sich über ein oder auch über mehrere Netzwerksegmente ausbreiten. Die verbindenden Switches müssen VLAN-tauglich sein, d.h. sie müssen die um die VLAN-Tags (Abb. 3.12) erweiterten Ethernet-Datenpakete auswerten können. Der Switch darf Pakete eines VLAN nur innerhalb dieses VLAN verteilen und darf sie auf keinen Fall in ein anderes VLAN weiterleiten. Jedes VLAN wird somit eigenständig. Es kann aus den anderen VLANs heraus nicht abgehört oder gestört werden.

Abb. 3.12: Ethernet-Paket mit VLAN-Tag
Abb. 3.12: Ethernet-Paket mit VLAN-Tag

Ein VLAN-Tag besteht aus 4 Bytes. Die beiden ersten Bytes enthalten den festen Wert 0x8100 (TPI = Tag Protocol Identifier) als Kennzeichnung für ein Tag nach dem Standard IEEE 802.1q. Die nächsten beiden Bytes sind der Tag Control Identifier (TCI). In den beiden Bytes stehen die ersten drei Bit für die Priorität der Pakete für das jeweilige VLAN. Mit diesen drei Bit lassen sich die Pakete in eine von sieben Prioritätsklassen (CoS = Class of Service) zuweisen. Ist ein VLAN beispielsweise für VoIP-Telefonie reserviert, kann dem entsprechenden VLAN-Datenstrom die höchste Prioritätsklasse 7 zugeteilt bekommen. Die Datenpakete des VLANs werden am Ausgangsqueue des Switches bevorzugt und vor niedriger priorisierten Paketen abgesendet.
Der 1-Bit Canonical Format Identifier (CFI) ist eine Markierung für das Format der MAC-Adressen. Die restlichen 12 Bit werden für die VLAN-ID vergeben.

Abb. 3.13 zeigt die Konfiguration von VLANs auf einem Switch. Die Ports 1 bis 8 sind Anschlüsse für Teilnehmer im VLAN 2 (VLAN-ID 2/Schulung). Die entsprechenden Ports sind als Ausgänge (Egress) freigeschaltet. Da diese Ports ausschließlich an Computer bzw. Switches zur Weiterverteilung gehen, werden die ausgehenden Datenpakete nicht mit VLAN-Tags versehen. Port 23 gehört ebenfalls zum VLAN 2. Es ist der Uplink zum Server. Da der Uplink über weitere Switches mit weiteren VLANs führt, werden die ausgehenden Datenpakete mit dem zum VLAN 2 gehörenden Tags versehen.
Ein weiteres VLAN mit den Ports 9 bis 22 und Port 24 kann mit VLAN 2 (bzw. auch umgekehrt) nicht verbunden werden, da diese Ports für VLAN 2 gesperrt sind.

Abb. 3.13: Konfiguration eines VLAN auf einem Managed Switch
Abb. 3.13: Konfiguration eines VLAN auf einem Managed Switch
QoS (Quality of Service)

In Computernetzwerken und in paketorientierten Kommunikationsnetzwerken bietet QoS die Möglichkeit die vorhandenen Netzwerkressourcen entsprechend den tatsächlichen Bedürfnissen anzupassen. Mit QoS können Netzwerkadministratoren bestimmen, welcher Netzwerkdatenverkehr entsprechend festgelegter Prioritäten, Anwendungstypen sowie Quell- und Zieladressen weitergeleitet wird und wie dies geschieht. Die Ziele von QoS sind geringe Laufzeitschwankungen, geringe Paketverlustraten und Synchronität zwischen Sender und Empfänger. QoS umfasst die gesamte Strecke zwischen den Teilnehmern.

Priorisierung

Bei bestimmten Anwendungen mit Datenverkehr wie Voice over IP (VoIP), Video (IPTV, VoD, Video-Streaming) und Echtzeitdaten ist QoS erforderlich, da dieser laufzeitkritische Datenverkehr am Ausgang des Switches (oder Routers) einer Queue ("Warteschlange") mit hoher Priorität zugeordnet werden muss, während der übrige Verkehr in Queues mit geringerer Priorität gelangt. Das Ergebnis ist ein optimierter Datenfluss für Netzwerkverkehr mit hohen Anforderungen.
Eine solche Priorisierung kann auf verschiedenen Schichten und über mehrere Protokolle vorgenommen werden. Dabei ist die Reichweite ein wesentlicher Faktor. Eine Priorisierung im Layer 2 mit CoS im VLAN-Tag geht normalerweise am ersten Router verloren, weil der Ethernet-Header dort abgestreift wird und durch den Header des Protokolls des nächsten Übertragungsverfahrens (PPP, ATM, ...) ersetzt wird.
Wirkungsvoller ist daher eine zusätzliche Priorisierung im Layer 3 (Vermittlungsschicht) oder im Layer 4 (Transportschicht), die die Grenzen des LAN überschreiten kann. Im IP-Header sind zwei Positionen für eine mögliche Priorisierung vorgesehen: Im zweiten Byte kann ein "Type of Service" definiert werden und im zehnten Byte ("Protokoll") ist das nächst höhere Protokoll in der Transportschicht angegeben.
Die ursprüngliche Spezifikation von IPv4 definierte ein Type-of-Service-Byte (ToS-Byte) im IP-Header. Drei Bits (Abb. 3.14 Bits 0 bis 2) kodierten eine Präzedenz zwischen 0 und 7, drei weitere Bits (Bits 3 bis 5) markierten Pakete für geringe Latenz, hohen Durchsatz und hohe Verlässlichkeit.

Das neuere DiffServ (Differentiated Services) beschreibt ein alternatives Verfahren um die Bits des ToS-Bytes zu nutzen: Die ursprünglichen sechs Bits (nun „DS-Feld“ genannt) kodieren einen "Differentiated Services Codepoint" (DSCP) zwischen 0 und 63. Die verbleibenden zwei Bit werden  für "Explicit Congestion Notification" (ECN), einer Erweiterung des Netzwerkprotokolls TCP/IP zur Überlastkontrolle, verwendet.
DSCPs dienen lediglich der Klassifizierung, nicht aber der Priorisierung. Das heißt, dass ein höherer Zahlenwert nicht unbedingt einer bevorzugten Behandlung entspricht. Stattdessen verweist ein DSCP auf ein Weiterleitungsverhalten. Dieses spezifiziert, wie mit einem Paket zu verfahren ist. "Expedited Forwarding" beschreibt ein Verhalten für Pakete, die eine geringe Latenz benötigen. "Assured Forwarding" beschreibt ein Verhalten, das Pakete in vier Klassen mit je drei Prioritäten aufteilt. Das Standardverhalten mit dem Codepoint 0 wird "Best Effort" genannt.[1] Beim Standardverhalten wird der Datenverkehr der Warteschlange mit der niedrigsten Priorität zugewiesen, und die Zustellung von Paketen ist nicht garantiert.

Abb.3.14: Quality of Service-Kennzeichnungen im IP-Header
Abb.3.14: Quality of Service-Kennzeichnungen im IP-Header

Eine weitere Kennzeichnung, die für eine Priorisierung von Datenpaketen genutzt werden kann, ist das Protokollfeld im IP-Header. In diesem Feld steht welches Protokoll die Transportschicht diese IP-Pakets verwendet. Für Multimedia-Streams wie VoIP oder IPTV ist kennzeichnend, dass als Transportprotokoll das verbindungslose UDP (User Datagram Protocol) verwendet wird. Im Switch integrierte Paketfilter können anhand dieses Merkmals Pakete mit Multimediadaten im Datenstrom erkennen und bevorzugt weiterleiten.

Bandbreitenzuweisung

Um einen störungsfreien Betrieb von VoIP-Anlagen oder einen ruckelfreien Empfang von IPTV zu gewährleisten ist eine Mindestbandbreite bzw. Datendurchsatz erforderlich. Ein VoIP-Gespräch mit dem Standard-Codec G.711 benötigt z. B. eine Bandbreite von 87,2kBit/s (Nutzdaten 64kBit/s plus 23,2kBit/s Protokolloverhead). Mit einem Standard-ADSL-Anschluss mit einer Upload-Geschwindigkeit von 256kBit/s sind also gerade einmal zwei Gesprächsverbindungen gleichzeitig möglich. In einer Firma mit vielen telefonierenden Mitarbeitern kann der DSL-Anschluss schnell an die technischen Grenzen kommen, besonders wenn zusätzlich zum Datenaufkommen durch die VoIP-Telefonie auch noch weiterer Internetverkehr mit Up- und Downloads hinzukommt.
Die sicherste Methode einen störungsfreien VoIP-Betrieb zu gewährleisten ist es, jedem Port bzw. Netzsegment mit VoIP eine Mindestbandbreite zu reservieren und die verbleibende Restbandbreite für den allgemeinen Internetverkehr dynamisch freizugeben.

Tabelle 1: Bandbreitenbedarf von Streaming-Diensten
Tabelle 1: Bandbreitenbedarf von Streaming-Diensten
3.4.3.3. Broadcast-Storm

Ein Broadcast-Storm ist eine übermäßig große Anzahl von Broadcastnachrichten, die gleichzeitig von einem einzelnen Port in einem Netzwerk gesendet werden. Beim Weiterleiten von Layer-2-Frames werden Broadcast- und Multicastframes an alle Ports der Broadcast-Domäne gesendet. Die Rückmeldungen auf die weitergeleiteten Nachrichten belasten das Netzwerk, wodurch Netzwerkressourcen strapaziert bzw. Netzwerkausfälle verursacht werden. Ausgelöst werden Broadcast-Storms z.B. durch DoS- (Denial of Service-) Attacken von außen oder aber auch durch eine falsche Verkabelung
Mit der in manchen Switches vorhandenen Storm-Kontrollfunktion lässt sich automatisch oder manuell eingestellt die Menge der vom Switch angenommenen und weitergeleiteten Multicast- und Broadcast-Frames begrenzen.

3.4.3.4. IGMP-Snooping

Das Internet Group Management Protocol (IGMP) ermöglicht IPv4-Multicasting (Gruppenkommunikation) im Internet. IP-Multicasting ist die Verteilung von IP-Paketen unter einer IP-Adresse an mehrere Stationen gleichzeitig. IGMP bietet dabei die Möglichkeit dynamisch Gruppen zu verwalten.
Normalerweise sendet ein Switch Broadcast- und Multicastframes an alle Ports der Broadcast-Domäne, was zu einer unnützen Belastung für das Netzwerk und die angeschlossenen Stationen werden kann. Beim IGMP-Snooping (snooping = schnüffeln) lauscht der Switch in die Kommunikation zwischen Stationen und Router. So erhält er eine Übersicht welche Ports IP-Multicasts benötigen und welche nicht. Bei den Ports, die kein Multicast benötigen, werden diese aus dem Datenstrom herausgefiltert.

3.4.3.5. SNMP (Simple Network Management Protocol)

Das SNMP ist ein Netzwerkprotokoll um Netzwerkelemente von einer zentralen Station (Manager) aus zu überwachen und zu steuern. SNMP-basierte Software kommuniziert hierzu über z.B. in Switches integrierte SNMP-Agents.
Die Werte, die vom Manager über eine gemanagte Netzwerkkomponente ausgelesen und verändert werden können, werden in einer Management Information Base (kurz MIB) beschrieben. Dabei handelt es sich um Beschreibungsdateien, z.B. Netzwerkaktivität und Statusinformationen, in denen die einzelnen Werte tabellarisch aufgeführt werden. Die MIB ist jeweils spezifisch für eine bestimmte Komponente oder eine Klasse von Komponenten.

4. Prinzipielle Funktionsweise eines Switches

Ein Switch gliedert sich generell in drei Funktionssegmente: Die Ein- und Ausgangsstufen, ein schneller Bus oder Zwischenspeicher (Switching Fabric) und die Steuerfunktionen.

Die wohl am häufigsten verwendete physikalische Verbindung zwischen Ethernet-Komponenten ist das Twisted-Pair-Kabel mit RJ45-Steckern. Die entsprechenden Anschlussbuchsen im Switch sind aus EMV-Gründen metallisch abgeschirmt und enthalten meist bereits die Übertrager ("Magnetics"), die eine elektrische Potentialtrennung zwischen dem Bus und der Elektronik im Switch und eine Gleichtakt-Unterdrückung (siehe Kapitel Power over Ethernet) vornehmen.
Das Physical Layer Interface (PHYS) ist ein Transceiver, der die empfangenen analogen Hochfrequenzsignale demoduliert und in einen digitalen Datenstrom umwandelt und, umgekehrt, einen zu sendenden Datenstrom in ein HF-Signal umwandelt. Abhängig vom Übertragungsverfahren (10/100/1000Base-T) werden zwei oder vier Leitungspaare verwendet.
Die Media Access Control- (MAC-) Einheit vollzieht Steuerfunktionen für den Medienzugriff beim Empfangen und Senden von Datenpaketen. Beim Empfangen werden die Präambel und  Start Frame Delimiter  (SFD) des Ethernet-Frames in der RxMAC-Einheit abgestreift und das verbleibende Ethernet-Paket auf Gültigkeit überprüft. Entsprechend der Weiterleitungsmethode werden die Pakete in den Eingangspuffer weitergeleitet oder verworfen. Defekte empfangene Frames oder Pause-Frames oder Kollisionen beim Senden werden dem Management Information Base Counter (Zähler) gemeldet.
Jeder Eingangs-/Ausgangskanal eines Switches verfügt über einen FIFO (First In-First Out-) Speicher als Pufferspeicher. Die FIFOs befreien das Switching System von den Echtzeitanforderungen des Netzwerks. Das Auffüllen bzw. Entleeren der FIFOs wird vom Portmanager über Schwellwerte geregelt. Der Eingangspuffer RxFIFO kann mehrere Ethernet-Paket gleichzeitig enthalten. Hier findet die Flusskontrolle statt. Droht der Buffer überzulaufen, kann abhängig vom Übertragungsverfahren ein zu schneller  Sender aufgefordert werden keine Datenpakete mehr zu schicken.  Weiterhin werden im RxFIFO  die Ziel- und Absender-MAC-Adresse ausgelesen und an den Portmanager weitergeleitet, der sie ggf. in der Source Address Table (SAT) einträgt. Ist ein VLAN-Tag enthalten, werden VLAN-ID und Priorität des Pakets ausgelesen. Anschließend wird das Paket als paralleles Datenwort in den gemeinsamen Speicher (Shared Buffer) geschoben.
Beruhend auf den Informationen aus dem Portmanager befüllt und entleert der Buffermanager den gemeinsamen Speicher. Ist Platz im gemeinsamen Speicher wird ein neues Paket angefordert und dem Zielport zugeordnet. Für jeden Zielport sind vier Warteschlangen (Queues) eingerichtet. Entsprechend der Priorität des Pakets wird es an das Ende einer der Warteschlangen angereiht (Output Queueing). Ist im Ausgangspuffer TxFIFO Platz für ein Paket wird nach der Priorität gewichtet das nächste Paket serialisiert und zum Senden nachgeladen.
Vor dem Senden werden in der TxMAC-Einheit die Ethernet-Frames aus Ethernet-Paket, Präambel, SFD und, falls notwendig, dem VLAN-Tag zusammengesetzt und zum PHYS weitergeleitet.
Die grundlegende Steuerung des Switches erfolgt über Statusmaschinen, die feste Logiken bilden und keine Software benötigen. Höhere Funktionen und die Kommunikation über SNMP setzt aber einen zusätzlichen Microcontroller voraus. Die Konfiguration des Switches wird in einem EEPROM gespeichert.

Abb. 4.01: Prinzipieller Aufbau eines Switches
Abb. 4.01: Prinzipieller Aufbau eines Switches

5. Power over Ethernet (PoE)

Abb. 5.01: Ein über einen PoE-Splitter versorgter Access-Point
Abb. 5.01: Ein über einen PoE-Splitter versorgter Access-Point [2]

Power over Ethernet (PoE) ist ein Verfahren um netzwerkfähige Kleingeräte (PD = Powered Device) wie IP-Telefone, Drucker-Server oder WLAN-Access-Punkte über die Ethernet-Verkabelung mit Betriebsspannung zu versorgen. Der große Vorteil von PoE ist, dass die angeschlossenen Geräte kein zusätzliches Netzteil oder Stromanschluss benötigen.
So können, z.B. bei einer IP-Telefonanlage in einer Firma, die Kosten einer zusätzlichen Netzspannungsinstallation eingespart werden. Auch können Geräte an exponierter oder schwer zugänglichen Stellen einfacher installiert werden. Ein weiterer Vorteil ist, dass über PoE versorgte Geräte mit über eine USV (Unterbrechungsfreie Spannungsversorgung) auch bei einem Stromausfall weiterbetrieben werden können.

Die Stromversorgung der Powered Devices kann dabei durch sogenannte Endspan-Devices oder Midspan-Devices (Einheiten zwischen Switch und Endgerät) erfolgen. Als Midspan-Devices werden zumeist Hubs oder sogenannte PoE-Injektoren eingesetzt, die Strom in beide Richtungen der Verteilung liefern.

Endspan-Devices sind meistens entsprechend konstruierte Switches (PSE = Power Source Equipment) mit kräftigen Netzteilen. Die maximal erlaubte Leistung pro Port/Kabel beträgt nach der Spezifikation IEEE802.3af 14,4W. Die neuere Spezifikation IEEE802.3at erlaubt 25,5W. Die übertragene Betriebsspannung beträgt an der Stromquelle 48V DC (-4V/+9V) und am Verbraucher, wegen der Kabelverluste, 37-57V. Der maximal erlaubte Strom ist 350mA (IEEE802.3af/IEEE802.3at Typ 1) bzw. 600mA (IEEE802.3at Typ 2). Durch die relativ hohe Spannung wird die Verlustleistung in den Kabeln vermindert.

Betriebsspannungsversorgung der Powered Devices

Das Prinzip der Phantomspeisung (überlagerte Gleichspannung/Gleichtakt) oder die Verwendung freier Leitungen (Spare-Pair-Speisung) erlauben die gleichzeitige Übertragung von Daten und Betriebsspannung in einem Kabel. Die Spare-Pair-Speisung wird vorzugsweise in 10Base-T und 100Base-T-Netzen eingesetzt. Da diese Übertragungsverfahren für die Datenübertragung nur zwei Leitungspaare (Pin 1/2 und 3/6) verwenden, können die zwei verbleibenden freien Leitungspaare für die Stromübertragung verwendet werden.
10/100/1000Base-T-Netze verwenden jedoch alle vier Leiterpaare im Kabel; hier ist nur eine Phantomspeisung möglich. Dabei wird die Gleichspannung jeweils zwischen zwei Leitungspaaren angelegt. Bei der Phantomspeisung gibt es zwei Modi, die sich durch die gleichstromführenden Leiterpaare unterscheiden. Mode A verwendet die Leiterpaare 3 und 4 (Pins 1/2 und 7/8), Mode B verwendet die Leiterpaare 1 und 2 (Pins 4/5 und 3/6). Im welchen Mode der Strom übertragen wird, bestimmt das PSE. Endgeräte, die nur einen Mode unterstützen, sind vom Standard her nicht vorgesehen.

Abb. 5.01: Prinzip Power over Ethernet
Abb. 5.01: Prinzip Power over Ethernet
Leistungsklassen und Erkennung von PoE-Endgeräten

PoE-taugliche Endgeräte sind in vier Leistungsklassen eingeteilt (Tabelle 2). Um Schäden an Nicht-PoE-Geräten zu vermeiden, erfolgt die Erkennung der PoE-Tauglichkeit und der Leistungsklasse eines PD über eine mehrstufige Aktivierungsprozedur.
Hierbei  kommt das als "Resistive Power Discovery" bezeichnetes Verfahren zum Einsatz. Dabei legt das PSE zunächst mehrfach eine nur minimale Spannung auf die Adern, mit der sich im Normalfall kein Gerät beschädigen lässt. Es erkennt dabei, ob und wo der Energieverbraucher einen 25-kOhm-Abschlusswiderstand besitzt und damit PoE-fähig ist. Daraufhin wird der Verbraucher mit einer geringen Leistung versorgt und muss nun signalisieren zu welcher von vier im Standard definierten Leistungsklassen er gehört. Erst dann bekommt das PD die volle Betriebsspannung und kann den Normalbetrieb aufnehmen.

Tabelle 2: Aktivierungsprozedur von PoE-Endgeräten
Tabelle 2: Aktivierungsprozedur von PoE-Endgeräten
Tabelle 3: PoE-Leistungsklassen
Tabelle 3: PoE-Leistungsklassen

Die Leistungsklasse ist nur für IEEE802.3at Type 2-Endgeräte erlaubt. Zur Aktivierung sind die Messströme der Klasse 2 und der Marke 2 erforderlich. Ein IEEE802.3af-Gerät, dass einen Klasse 4-Klassifizierungsstrom zieht, wird als nicht konform erkannt und wird wie ein Klasse 0-Gerät behandelt.

Konfiguration über Ethernet Layer-2 LLDP

Manche PDs lassen sich auch über Ethernet Layer-2 LLDP (Link Layer Discovery Protokoll) konfigurieren. Das LLDP ist ein herstellerunabhängiges Protokoll, über das Netzwerkkomponenten Informationen über ihre Identität, Eigenschaften und ihre benachbarte Umgebung austauschen können. Hierzu senden die Geräte speziell gekennzeichnete LLDP-Ethernet-Frames an eine vorgegebene Multicast-MAC-Adresse. Die Initialisierung eines PDs folgt diesen Regeln:

  • Das PSE prüft das PD auf Leistungsklasse 3 und versorgt es entsprechend.
  • Das PD läuft an und sendet dem PSE: Ich bin ein PD, meine maximale Leistungsaufnahme ist x Watt und ich fordere maximal x Watt an.
  • Das PSE antwortet: Ich bin ein PSE, du darfst maximal x Watt verbrauchen.
  • Das PD darf die vom PSE vorgegebene Leistung in Anspruch nehmen.

 

REFERENZEN

Abbildungen

[1] Foto "Abb. 3.05: Ethernet-Hub mit vier Ports"
Lizenz: Public Domain via Wikimedia Commons
Quelle: "4 port netgear ethernet hub.jpg" by plugwash  
http://upload.wikimedia.org/wikipedia/commons/d/d9/4_port_netgear_ethernet_hub.jpg

[2] Foto "Abb. 5.01: Ein über einen PoE-Splitter versorgter Access-Point"
Lizenz: Public Domain via Wikimedia Commons
Quelle: "PoE_Access_Point_v2.jpg" by Pelzi (talk · contribs) (Own work) 
http://commons.wikimedia.org/wiki/File%3APoE_Access_Point_v2.jpg

 

Weblinks

1. Informationen zu den IEEE802-Standards (PDF-Downloads) http://standards.ieee.org/about/get/index.html

Rechtshinweis

Sofern auf dieser Seite markenrechtlich geschützte Begriffe, geschützte (Wort- und/oder Bild-) Marken oder geschützte Produktnamen genannt werden, weisen wir ausdrücklich darauf hin, dass die Nennung dieser Marken, Namen und Begriffe hier ausschließlich der redaktionellen Beschreibung bzw. der Identifikation der genannten Produkte und/oder Hersteller bzw. der beschriebenen Technologien dienen.

Alle Rechte an den in diesem Kompendium erwähnten geschützten Marken- und/oder Produktnamen sind Eigentum der jeweiligen Rechteinhaber und werden hiermit ausdrücklich anerkannt. Alle in unseren Artikeln genannten und ggfs. durch Dritte geschützte Marken- und Warenzeichen unterliegen uneingeschränkt den Bestimmungen des jeweils gültigen Kennzeichenrechts sowie den Besitzrechten der jeweiligen eingetragenen Eigentümer.

Die Nennung von Produktnamen, Produkten und/oder der jeweiligen Produkthersteller dient ausschließlich Informationszwecken und stellt keine Werbung dar. InfoTip übernimmt hinsichtlich der Auswahl, Leistung oder Verwendbarkeit dieser Produkte keine Gewähr.

Sollten dennoch wider unserer Absicht Rechte Dritter verletzt werden, so bitten wir um eine Benachrichtigung ohne Kostennote.