Inhaltsverzeichnis:
Definition - Was bedeutet Gigabit (Gb)?
Gigabit (Gb) ist eine Datenmesseinheit, die auf digitale Datenübertragungsraten (DTR) und Download-Geschwindigkeiten angewendet wird. Ein GB entspricht einer Milliarde (1.000.000.000 oder 10 9 ) Bits.
Das Internationale Einheitensystem (SI) definiert das Giga-Präfix als 10 9 Multiplikator für die Datenspeicherung oder als eine Milliarde (1.000.000.000) Bits. Das binäre Giga-Präfix repräsentiert 1.073.741.824 (1024 3 oder 2 30 ) Bits. Das SI- und Binärdifferential beträgt ungefähr 4, 86 Prozent.
Techopedia erklärt Gigabit (GB)
Zentraleinheiten (CPU) sind mit Datensteuerungsanweisungen für Bits aufgebaut - die kleinste Datenmesseinheit. Bits sind magnetisierte und polarisierte Binärziffern, die gespeicherte digitale Daten in einem Direktzugriffsspeicher (RAM) oder einem Nur-Lese-Speicher (ROM) darstellen. Ein Bit wird in Sekunden gemessen und durch Hochspannungswerte 0 (ein) oder 1 (aus) gekennzeichnet.
Die meisten Netzwerke verwenden die SI-Version von Gb zur Messung von Modem-, FireWire- oder USB-Geschwindigkeiten (Universal Serial Bus), wohingegen die binäre Version von Gb sich selten auf die DTR-Geschwindigkeit bezieht und RAM und Glasfaserkabel misst. Softwaregruppen und Dateisysteme kombinieren häufig Binär- und SI-GB-Einheiten entsprechend den Anforderungen.
Im Jahr 2000 hat das Institut für Elektrotechnik und Elektronik (IEEE) die formelle Genehmigung der Internationalen Elektrotechnischen Kommission (IEC) für SI-Metrikpräfixe (z. B. MB als eine Million Byte und KB als eintausend Byte) übernommen. Neu hinzugefügte Metrikbegriffe umfassen:
- Kibibyte (KiB) entspricht 1.024 Bytes.
- Mebibyte (MiB) entspricht 1.048.576 Bytes.
- Gibibyte (GiB) entspricht 1.073.741.824 Byte.
