Hopper-GPUs sind die neueste Ge­ne­ra­ti­on von NVIDIAs High-Per­for­mance-GPUs, die speziell für KI und HPC ent­wi­ckelt wurden und die Ska­lie­rung ver­schie­dens­ter Workloads er­mög­li­chen. Sie basieren auf einer in­no­va­ti­ven Ar­chi­tek­tur mit leis­tungs­star­ken Tensor-Kernen und kom­bi­nie­ren diverse fort­schritt­li­che Tech­no­lo­gien für maximale Effizienz. NVIDIAs Hopper-GPUs eignen sich unter anderem für KI-Inferenz, Deep-Learning-Training und ge­ne­ra­ti­ve KI.

Die Ar­chi­tek­tur der Hopper-GPUs von NVIDIA

Die Be­zeich­nung „Hopper-GPU“ leitet sich von der Hopper-Ar­chi­tek­tur ab, die als GPU-Mi­kro­ar­chi­tek­tur das Fundament der High-Per­for­mance-Gra­fik­pro­zes­so­ren bildet und für KI-Workloads sowie HPC-An­wen­dun­gen optimiert ist. Hopper-GPUs werden von TSMC im 4-Nanometer-Verfahren gefertigt und verfügen über 80 Mil­li­ar­den Tran­sis­to­ren, wodurch sie zu den fort­schritt­lichs­ten, auf dem Markt er­hält­li­chen Gra­fik­kar­ten gehören.

Mit der Hopper-Ar­chi­tek­tur kom­bi­niert NVIDIA die neueste Ge­ne­ra­ti­on der Tensor-Kerne mit fünf weg­wei­sen­den In­no­va­tio­nen: Trans­for­mer-Engine, NVLink/NVSwitch/NVLink-Switch-Systeme, Con­fi­den­ti­al Computing, Multi-Instanz-GPUs (MIGs) der zweiten Ge­ne­ra­ti­on und DPX-An­wei­sun­gen. Dank dieser Tech­no­lo­gien erreichen Hopper-GPUs gegenüber der vor­he­ri­gen Ge­ne­ra­ti­on eine bis zu 30-fache Be­schleu­ni­gung bei KI-Inferenz (basierend auf dem Megatron 530B Chatbot von NVIDIA – dem um­fang­reichs­ten ge­ne­ra­ti­ven Sprach­mo­dell der Welt).

GPU Server
De­di­zier­te Hardware mit hoch­per­for­man­ter Gra­fik­kar­te

Greifen Sie beim Handling großer Da­ten­men­gen flexibel auf GPU-gestützte Re­chen­leis­tung zurück. Mit Pay-as-you-go zahlen Sie nur, wenn Sie die Res­sour­cen tat­säch­lich benötigen – mi­nu­ten­ge­nau ab­ge­rech­net.

Die in­no­va­ti­ven Funk­tio­nen der Hopper-GPUs

Hopper-GPUs verfügen über ver­schie­de­ne neuartige Funk­tio­nen, die zur Ver­bes­se­rung der Leistung, Effizienz und Ska­lier­bar­keit beitragen. Nach­fol­gend stellen wir Ihnen die wich­tigs­ten Neue­run­gen vor:

  • Trans­for­mer Engine: Mithilfe der Trans­for­mer Engine ist es Hopper-GPUs möglich, KI-Modelle bis zu neunmal schneller zu trai­nie­ren. Bei In­fe­renz­auf­ga­ben im Bereich der Sprach­mo­del­le erreichen die GPUs ver­gli­chen mit der Vor­gän­ger­ge­ne­ra­ti­on eine bis zu 30-fache Be­schleu­ni­gung.
  • NVLink-Switch-System: Die vierte Ge­ne­ra­ti­on von NVLink liefert eine bi­di­rek­tio­na­le GPU-Band­brei­te von 900 GB/s, während NVSwitch für eine bessere Ska­lier­bar­keit von H200-Clustern sorgt. Dadurch wird si­cher­ge­stellt, dass sich KI-Modelle mit Billionen von Pa­ra­me­tern effizient ver­ar­bei­ten lassen.
  • Con­fi­den­ti­al Computing: Die Hopper-Ar­chi­tek­tur ge­währ­leis­tet, dass Ihre Daten, KI-Modelle und Al­go­rith­men auch während der Ver­ar­bei­tung geschützt sind.
  • Multi-Instanz-GPU (MIG) 2.0: Die zweite Ge­ne­ra­ti­on der MIG-Tech­no­lo­gie erlaubt es, eine einzelne Hopper-GPU in bis zu sieben isolierte Instanzen auf­zu­tei­len. Dadurch können mehrere Personen gleich­zei­tig ver­schie­de­ne Workloads ver­ar­bei­ten, ohne sich ge­gen­sei­tig zu be­ein­träch­ti­gen.
  • DPX-An­wei­sun­gen: Durch DPX-An­wei­sun­gen lassen sich dynamisch pro­gram­mier­te Al­go­rith­men bis zu sie­ben­fach so schnell berechnen wie mit GPUs der Ampere-Ar­chi­tek­tur.
Hinweis

Im Ratgeber „Server-GPUs im Vergleich“ stellen wir Ihnen die besten Gra­fik­pro­zes­so­ren für Ihren Server vor. Alles Wis­sens­wer­te rund um das Thema GPU-Server erfahren Sie ebenfalls im Digital Guide.

An­wen­dungs­fäl­le: Wofür sich Hopper-GPUs eignen

Die auf der Hopper-Ar­chi­tek­tur ba­sie­ren­den NVIDIA-GPUs sind für High-Per­for­mance-Workloads un­ter­schied­lichs­ter Art ausgelegt. Als zentrale Ein­satz­ge­bie­te von Hopper-GPUs gelten:

  • In­fe­renz­auf­ga­ben: Die Gra­fik­pro­zes­so­ren zählen zu den bran­chen­füh­ren­den Lösungen für den pro­duk­ti­ven Einsatz von KI-Inferenz. Ob Emp­feh­lungs­sys­te­me im E-Commerce, me­di­zi­ni­sche Dia­gnos­tik oder Echt­zeit­vor­her­sa­gen für autonomes Fahren – Hopper-GPUs können riesige Da­ten­men­gen schnell und effizient ver­ar­bei­ten.
  • Ge­ne­ra­ti­ve KI: Die High-End-GPUs liefern die not­wen­di­ge Re­chen­power, um Tools mit Ge­ne­ra­ti­ve AI zu trai­nie­ren und aus­zu­füh­ren. Die parallele Ver­ar­bei­tung gestattet ef­fi­zi­en­te­re Be­rech­nun­gen bei kreativen Aufgaben wie Text-, Bild- und Vi­deo­ge­ne­rie­rung.
  • Deep-Learning-Training: Mit ihrer hohen Re­chen­leis­tung eignen sich Hopper-GPUs optimal, um große neuronale Netzwerke zu trai­nie­ren. Die Hopper-Ar­chi­tek­tur sorgt für eine deutliche Ver­kür­zung der Trai­nings­zei­ten von KI-Modellen.
  • Kon­ver­sa­ti­ons-KI: Aufgrund ihrer Op­ti­mie­rung für die Ver­ar­bei­tung na­tür­li­cher Sprache (NLP) eignen sich Hopper-GPUs ideal für KI-gestützte Sprach­sys­te­me wie virtuelle As­sis­ten­ten und KI-Chatbots. Sie be­schleu­ni­gen die Ver­ar­bei­tung großer KI-Modelle und ge­währ­leis­ten eine re­ak­ti­ons­schnel­le In­ter­ak­ti­on, die sich nahtlos in Ge­schäfts­pro­zes­se in­te­grie­ren lässt – etwa in den Support.
  • Da­ten­ana­ly­se und Big Data: Hopper-GPUs be­wäl­ti­gen riesige Da­ten­men­gen mit hoher Ge­schwin­dig­keit und be­schleu­ni­gen komplexe Be­rech­nun­gen durch massive Par­al­lel­ver­ar­bei­tung. Dies er­mög­licht es Un­ter­neh­men, Big Data schneller aus­zu­wer­ten, um Prognosen auf­zu­stel­len und die richtigen Maßnahmen in die Wege zu leiten.
  • Wis­sen­schaft und Forschung: Da die GPUs für HPC-An­wen­dun­gen ausgelegt sind, eignen sie sich ideal für hoch­kom­ple­xe Si­mu­la­tio­nen und Be­rech­nun­gen. Hopper-GPUs werden bei­spiels­wei­se in der As­tro­phy­sik, für die Kli­ma­mo­del­lie­rung und in der Com­pu­ter­che­mie genutzt.

Aktuelle Modelle von NVIDIA

Mit der NVIDIA H100 und der NVIDIA H200 hat das US-ame­ri­ka­ni­sche Un­ter­neh­men bereits zwei Hopper GPUs auf den Markt gebracht. Die NVIDIA A30 beruht dagegen noch auf der Ampere-Ar­chi­tek­tur. Genau genommen handelt es sich bei der H200 jedoch nicht wirklich um ein ei­gen­stän­di­ges Modell, sondern eher um eine Wei­ter­ent­wick­lung der H100. Worin sich die beiden GPUs un­ter­schei­den, ver­an­schau­licht die nach­fol­gen­de Übersicht:

  • Speicher und Band­brei­te: Während die NVIDIA H100 mit einem 80 GB großen HBM3-Speicher aus­ge­stat­tet ist, verfügt die H200-GPU über einen HBM3e-Speicher mit einer Kapazität von 141 GB. Auch hin­sicht­lich der Spei­cher­band­brei­te liegt die H200 mit 4,8 TB/s gegenüber 2 TB/s bei der H100 deutlich vorn.
  • Leistung für KI-Inferenz: Im Vergleich stellt die NVIDIA H200 eine doppelt so hohe In­fe­renz­leis­tung für Modelle wie LLaMA 2-70 B bereit. Dies gestattet nicht nur eine schnel­le­re Ver­ar­bei­tung, sondern auch eine ef­fi­zi­en­te Ska­lie­rung.
  • HPC-An­wen­dun­gen und wis­sen­schaft­li­che Be­rech­nun­gen: Die H100 bietet bereits ein erst­klas­si­ges Leis­tungs­ni­veau für komplexe Be­rech­nun­gen, das die H200 noch über­trumpft. Die In­fe­renz­ge­schwin­dig­keit fällt bis zu doppelt so hoch aus, die HPC-Leistung rund 20 Prozent höher.
Zum Hauptmenü