Inhaltsverzeichnis:
Definition - Was bedeutet Gigahertz (GHz)?
Gigahertz (GHz) ist eine Frequenzeinheit, die die Anzahl der Zyklen pro Sekunde misst. Hertz (Hz) bezieht sich auf die Anzahl der Zyklen pro Sekunde mit periodischen Intervallen von 1 Sekunde. Ein Megahertz (MHz) entspricht 1.000.000 Hz. Ein Gigahertz entspricht 1.000 Megahertz (MHz) oder 1.000.000.000 Hz.
Gigahertz wird oft verwendet, um die Taktrate der Zentraleinheit (CPU) zu messen. Im Allgemeinen weisen höhere CPU-Taktraten auf schnellere Computer hin. Zu den geschwindigkeitsbeeinflussenden Faktoren zählen die Pipeline-Tiefe, Befehlssätze, der interne Cache, die Netzwerk- / Busgeschwindigkeit, die Festplattenleistung und das Softwaredesign.
Techopedia erklärt Gigahertz (GHz)
Ein Gigahertz entspricht 1.000.000.000 Hz oder 1.000 MHz und hat eine Frequenzmessung mit periodischen 1-Sekunden-Zyklen. Eine Nanosekunde ist eine Milliardstelsekunde oder ein Tausendstel einer Mikrosekunde. Die numerische Reihenfolge einer Nanosekunde beträgt 10 oder 0, 000000001. Hertz basiert auf Gesamtumdrehungen pro Sekunde, dh eine volle Sekunde entspricht 1 Hz. Ein Kilohertz entspricht 1.000 Umdrehungen pro Sekunde. Ein Megahertz entspricht 1 Million Umdrehungen pro Sekunde. Ein Gigahertz entspricht 1 Milliarde Zyklen pro Sekunde.
Die Taktfrequenz, die auch in Hertz gemessen wird, bezieht sich auf die Taktfrequenz der Synchronschaltung, beispielsweise einer CPU. Ein Taktzyklus dauert nur 1 Nanosekunde und wechselt zwischen 0 und 1. Moderne und nicht eingebettete CPUs können einen einzelnen Taktzyklus von weniger als 1 Nanosekunde haben. CPU Megahertz bezieht sich normalerweise auf Taktrate, Frequenz oder Geschwindigkeit. Die Taktrate wird von einem Quarzoszillator gemessen, der hochpräzise und unveränderliche elektrische Signale und Taktsignale erzeugt, Empfänger und Frequenzen stabilisiert und die Zeit verfolgt. Die Oszillatorschaltung bringt ihrem Kristall jede Nanosekunde eine kleine Menge Elektrizität, die in Hertz gemessen wird.