Die Anzahl der TeraFLOPS (TFLOPS) gibt an, wie viele Billionen ma­the­ma­ti­sche Be­rech­nun­gen mit Fließ­kom­ma­zah­len ein Rechner in einer Sekunde ausführen kann. Dieser Wert dient als Maß für die Leis­tungs­fä­hig­keit von Pro­zes­so­ren, ins­be­son­de­re von GPUs und Su­per­com­pu­tern. TFLOPS sind besonders relevant für An­wen­dun­gen mit in­ten­si­ven Be­rech­nun­gen wie künst­li­che In­tel­li­genz, wis­sen­schaft­li­che Si­mu­la­tio­nen und ma­schi­nel­les Lernen.

Was sind FLOPS und wozu werden sie genutzt?

FLOPS ist eine Abkürzung für Floating Point Operations per Second. Hierbei handelt es sich um eine Maß­ein­heit für die Re­chen­leis­tung eines Computers. Eine Floating-Point-Operation ist eine ma­the­ma­ti­sche Be­rech­nung mit Fließ­kom­ma­zah­len, die im Gegensatz zu Ganz­zah­len auch De­zi­mal­stel­len enthalten können. Dies ist besonders wichtig für re­chen­in­ten­si­ve An­wen­dun­gen, bei denen ein hohes Maß an Präzision gefragt ist.

FLOPS werden haupt­säch­lich in wis­sen­schaft­li­chen Be­rech­nun­gen, Si­mu­la­tio­nen, künst­li­cher In­tel­li­genz, ma­schi­nel­lem Lernen und gra­fi­schen An­wen­dun­gen verwendet. Sie spielen eine zentrale Rolle in diversen Bereichen wie der me­di­zi­ni­schen Bild­ver­ar­bei­tung und in phy­si­ka­li­schen Si­mu­la­tio­nen. Auch in der Fi­nanz­bran­che, etwa bei der Analyse von Markt­da­ten, sind FLOPS ent­schei­dend. In der Gaming-Industrie bestimmen sie die Gra­fik­leis­tung moderner GPUs. Dank stei­gen­der FLOPS-Zahlen können moderne Computer immer rea­lis­ti­sche­re phy­si­ka­li­sche Effekte und hoch­auf­lö­sen­de Grafiken berechnen.

Die Messung von FLOPS erfolgt ty­pi­scher­wei­se durch eigens dafür ent­wi­ckel­te Benchmark-Tests, die die Anzahl der Gleit­kom­ma­ope­ra­tio­nen pro Sekunde ermitteln. Häufig ver­wen­de­te Bench­marks sind LINPACK, das vor allem für Su­per­com­pu­ter genutzt wird, und die FP32/FP64-Bench­marks, die die Re­chen­leis­tung von GPUs bewerten. Bei den Tests werden komplexe ma­the­ma­ti­sche Be­rech­nun­gen durch­ge­führt, um fest­zu­stel­len, wie viele Ope­ra­tio­nen pro Sekunde ein System be­wäl­ti­gen kann. Her­stel­ler geben FLOPS-Werte oft theo­re­tisch basierend auf der Ar­chi­tek­tur an, während reale An­wen­dun­gen je nach Workload und Effizienz abweichen können.

Dedicated Server
De­di­zier­te Server mit mo­derns­ten Pro­zes­so­ren
  • 100 % En­ter­pri­se-Hardware
  • Kon­fi­gu­rier­ba­re Hardware-Aus­stat­tung
  • ISO-zer­ti­fi­zier­te Re­chen­zen­tren

Wie viele FLOPS ent­spre­chen einem TeraFLOPS?

Ein TeraFLOPS ent­spricht genau einer Billion (1.000.000.000.000 oder 1012) Floating-Point-Ope­ra­tio­nen pro Sekunde. Dies bedeutet, dass ein Prozessor mit 1 TFLOPS eine Billion ma­the­ma­ti­sche Ope­ra­tio­nen mit Fließ­kom­ma­zah­len innerhalb einer einzigen Sekunde ausführen kann.

Zum Vergleich: Ein Computer, der nur ein einziges FLOP pro Sekunde erreicht, würde über 31.000 Jahre benötigen, um eine so große Anzahl an Be­rech­nun­gen durch­zu­füh­ren. Daher ist ein TeraFLOPS eine äußerst leis­tungs­star­ke Re­chen­ein­heit, die moderne An­wen­dun­gen in Echtzeit er­mög­licht.

Welche weiteren FLOPS-Einheiten gibt es und wie kann man sie in TFLOPS umrechnen?

Es gibt ver­schie­de­ne FLOPS-Einheiten, die sich je nach Re­chen­leis­tung eines Systems un­ter­schei­den. Die Um­rech­nung in TFLOPS erfolgt durch Zeh­ner­po­ten­zen:

Einheit FLOPS-Wert Um­rech­nung in TFLOPS
KiloFLOPS 103 FLOPS (1.000) 10-9 TFLOPS
MegaFLOPS 106 FLOPS (1 Million) 10-6 TFLOPS
GigaFLOPS 109 FLOPS (1 Milliarde) 10-3 TFLOPS
TeraFLOPS 1012 FLOPS (1 Billion) 1 TFLOP
PetaFLOPS 1015 FLOPS (1 Billiarde) 103 TFLOPS
ExaFLOPS 1018 FLOPS (1 Trillion) 106 TFLOPS

Su­per­com­pu­ter werden heut­zu­ta­ge in PetaFLOPS und sogar ExaFLOPS gemessen, während High-End-Gra­fik­kar­ten häufig in TeraFLOPS bewertet werden.

Wie viele FLOPS erreichen moderne Computer und GPUs?

Moderne Computer im Bereich High-Per­for­mance-Computing und GPUs haben mitt­ler­wei­le be­ein­dru­cken­de FLOPS-Werte erreicht. So erreicht die NVIDIA H100, eine der leis­tungs­fä­higs­ten GPUs für KI- und Re­chen­zen­trums­an­wen­dun­gen, bis zu 989 TeraFLOPS für FP32-Ten­sor­co­re-Be­rech­nun­gen. Dies macht sie ideal für große neuronale Netzwerke und Si­mu­la­tio­nen.

Die NVIDIA A30, eine für Re­chen­zen­tren op­ti­mier­te GPU, kommt auf etwa 10 TFLOPS und ist besonders für KI-Training und Inferenz geeignet. Zum Vergleich erreicht eine NVIDIA RTX 4090, die sich an Ga­me­rin­nen und Gamer richtet, über­tak­tet über 100 TFLOPS und er­mög­licht extrem rea­lis­ti­sche Grafiken.

Su­per­com­pu­ter sind noch weitaus leis­tungs­fä­hi­ger: Der Frontier-Su­per­com­pu­ter über­schrei­tet die 1-ExaFLOPS-Marke und wird für hoch­kom­ple­xe wis­sen­schaft­li­che Si­mu­la­tio­nen ein­ge­setzt. Auch andere Hoch­leis­tungs-Su­per­com­pu­ter wie der Fugaku aus Japan, die in der Forschung ein­ge­setzt werden, bewegen sich etwa in diesem Leis­tungs­be­reich.

GPU Server
Leistung neu definiert – mit RTX PRO 6000 GPUs auf de­di­zier­ter Hardware
  • Neue NVIDIA RTX PRO 6000 Blackwell Hoch­leis­tungs-GPUs verfügbar
  • Un­über­trof­fe­ne Per­for­mance für komplexe KI- und Da­ten­auf­ga­ben
  • Gehostet in sicheren und zu­ver­läs­si­gen Re­chen­zen­tren
  • Flexible Preise – basierend auf Ihrem tat­säch­li­chen Verbrauch
Zum Hauptmenü