Zuhause Hardware Was ist ein Gigabit (GB)? - Definition aus techopedia

Was ist ein Gigabit (GB)? - Definition aus techopedia

Inhaltsverzeichnis:

Anonim

Definition - Was bedeutet Gigabit (Gb)?

Gigabit (Gb) ist eine Datenmesseinheit, die auf digitale Datenübertragungsraten (DTR) und Download-Geschwindigkeiten angewendet wird. Ein GB entspricht einer Milliarde (1.000.000.000 oder 10 9 ) Bits.

Das Internationale Einheitensystem (SI) definiert das Giga-Präfix als 10 9 Multiplikator für die Datenspeicherung oder als eine Milliarde (1.000.000.000) Bits. Das binäre Giga-Präfix repräsentiert 1.073.741.824 (1024 3 oder 2 30 ) Bits. Das SI- und Binärdifferential beträgt ungefähr 4, 86 ​​Prozent.

Techopedia erklärt Gigabit (GB)

Zentraleinheiten (CPU) sind mit Datensteuerungsanweisungen für Bits aufgebaut - die kleinste Datenmesseinheit. Bits sind magnetisierte und polarisierte Binärziffern, die gespeicherte digitale Daten in einem Direktzugriffsspeicher (RAM) oder einem Nur-Lese-Speicher (ROM) darstellen. Ein Bit wird in Sekunden gemessen und durch Hochspannungswerte 0 (ein) oder 1 (aus) gekennzeichnet.

Die meisten Netzwerke verwenden die SI-Version von Gb zur Messung von Modem-, FireWire- oder USB-Geschwindigkeiten (Universal Serial Bus), wohingegen die binäre Version von Gb sich selten auf die DTR-Geschwindigkeit bezieht und RAM und Glasfaserkabel misst. Softwaregruppen und Dateisysteme kombinieren häufig Binär- und SI-GB-Einheiten entsprechend den Anforderungen.

Im Jahr 2000 hat das Institut für Elektrotechnik und Elektronik (IEEE) die formelle Genehmigung der Internationalen Elektrotechnischen Kommission (IEC) für SI-Metrikpräfixe (z. B. MB als eine Million Byte und KB als eintausend Byte) übernommen. Neu hinzugefügte Metrikbegriffe umfassen:

  • Kibibyte (KiB) entspricht 1.024 Bytes.

  • Mebibyte (MiB) entspricht 1.048.576 Bytes.

  • Gibibyte (GiB) entspricht 1.073.741.824 Byte.
Was ist ein Gigabit (GB)? - Definition aus techopedia