Inhaltsverzeichnis:
Definition - Was bedeutet Füllrate?
Die Füllrate bezieht sich auf die Anzahl der Pixel, die eine Grafikkarte pro Sekunde rendern oder in den Speicher schreiben kann. Sie wird in Megapixeln oder Gigapixeln pro Sekunde gemessen, die durch Multiplizieren der Taktfrequenz der Grafikverarbeitungseinheit (GPU) mit der Anzahl der Rasteroperationen (ROPs) erhalten werden. GPUs mit höheren Füllraten können Videos mit höheren Auflösungen und Bildraten anzeigen als GPUs mit niedrigeren Füllraten.
Es gibt keinen Standard für die Berechnung und Berichterstattung der Füllrate. Daher haben Unternehmen ihre eigenen Methoden für die Berechnung der Füllrate entwickelt. Einige multiplizieren die Taktfrequenz mit der Anzahl der Textureinheiten, andere multiplizieren die Frequenz mit der Anzahl der Pixel-Pipelines. Unabhängig von der Methode ergibt die Berechnung einen theoretischen Wert, der die tatsächliche Leistung möglicherweise vollständig wiedergibt oder nicht.
Techopedia erklärt die Füllrate
Die Füllrate ist eine GPU-Leistungsbewertung, die der Fähigkeit entspricht, Pixel zu rendern und qualitativ hochwertige Videos zu produzieren. Die tatsächliche Füllrate hängt von vielen Faktoren ab, einschließlich anderer Systemhardware und sogar von Treibern. Die Füllrate wurde in der Vergangenheit als Leistungsindikator verwendet, aber mit dem Wechsel der GPU-Technologie ändern sich auch die Leistungsindikatoren.
Die Komplexität einer Szene kann erhöht werden, indem Pixel überzeichnet werden. Dies geschieht, wenn ein Objekt über ein anderes gezogen und dieses verdeckt wird. Diese Komplexität ist eine Verschwendung, da eines der Objekte nicht sichtbar ist. Wenn die Szene komplexer ist, als die Füllrate verarbeiten kann, sinkt die Bildrate, wodurch die Grafik ruckelt.







