Inhaltsverzeichnis:
Definition - Was bedeutet 8b / 10b-Codierung?
Die 8b / 10b-Codierung ist ein Telekommunikationsleitungscode, in dem jedes 8-Bit-Datenbyte in ein 10-Bit-Übertragungszeichen umgewandelt wird. Die 8b / 10b-Codierung wurde von IBM erfunden und wird für die Übertragung von Daten über Enterprise-Systemverbindungen, Gigabit-Ethernet und über Fibre Channel verwendet. Diese Codierung unterstützt die kontinuierliche Übertragung mit einer ausgeglichenen Anzahl von Nullen und Einsen im Codestream. 8b / 10b können auch Einzelbit-Übertragungsfehler erkennen.
Techopedia erklärt die 8b / 10b-Codierung
8b / 10b-Code wurde 1983 im IBM Journal of Research and Development definiert. Es ordnet 8 Bit auf 10 Bit Symbole zu, um einen Gleichstromabgleich zu erzielen. Diese Art von Code bietet auch Statusänderungen für eine angemessene Taktwiederherstellung.
Die Codierung wird in Hardware der Verbindungsschicht ausgeführt und ist vor den oberen Schichten des Softwarestapels verborgen. Acht Datenbits werden als 10-Bit-Einheiten übertragen, die als Symbole oder Zeichen bezeichnet werden. Niedrigere Datenbits werden in eine 6-Bit-Gruppe codiert, und die oberen drei Bits werden in 4-Bit-Gruppen codiert. Die Codebits werden kombiniert, um ein 10-Bit-Symbol zu bilden, das auf der Leitung übertragen wird.
Die Codierung reduziert die Anzahl der Neuübertragungen, da die Kombination des Codierungsschemas mit der Prüfsumme eine Datenrekonstruktion ermöglicht. Dieser Algorithmus fügt jedem Zeichen einen Overhead von bis zu 25% hinzu. Da serielle Schnittstellen wie Fibre-Channels keine Takte haben, um die Gültigkeit von Bits zu identifizieren, werden Taktinformationen in Datenströmen codiert.
Der Codierungsprozess stellt 10-Bit-Zeichen bereit, die den Codierungsregeln entsprechen. Sie werden nicht zur Darstellung von Datenzeichen verwendet, sondern als Sonderzeichen, mit deren Hilfe Verwaltungsfunktionen oder Steuerelemente identifiziert werden können. Insgesamt erkennen sie Notationsstrukturen, wie sie in Fehlermeldungen zu sehen sind. Während der Zeichenübertragung werden zwei zusätzliche Bits, die als laufende Disparitäten bezeichnet werden, zusammen mit anderen Bits in den Datenstrom aufgenommen. Hierbei handelt es sich um Variablen, die sicherstellen, dass die Anzahl der übertragenen "1" -Bits nahezu der Anzahl der übertragenen "0" -Bits entspricht.