PNY zeigt Nvidia A100 Tensor-Core-GPU auf Ampere-Architektur

Drucken
Details
Geschrieben von Matthias Fengler
Veröffentlicht: 24. September 2020

PNY erweitert das eigene Sortiment an GPUs um die neue NVIDIA A100 PCIe-Grafikkarte. Die neue A100 soll im wissenschaftlichen Bereich die KI-Berechnung in eine neue Ära katapultieren, indem sie eine beispiellose Beschleunigung in jeder Größenordnung für KI liefert und Datenanalysen und High-Performance Computing (HPC) auf ein neues Niveau hebt.

 

 

Die Nachfrage nach Beschleunigung von KI-Technologien ist hoch und Forschungs-Projekte, die zunehmend auf künstliche Intelligenz setzen, werden immer komplexer. Die NVIDIA A100 PCIe-Karte von PNY wurde zur Beschleunigung von AI- und HPC-Workflows, leistungsstarken Datenanalyse und Grafikdarstellungen entwickelt und ist für den Einsatz in Rechenzentren konzipiert. Mit seiner Ampere-Architektur bietet die NVIDIA A100 bis zu 20-mal mehr Leistung gegenüber der Vorgängergeneration.

pny a100 tensor
noch kein finales Produktbild

Der Grafikprozessor basiert auf der neuen Ampere-Architektur mit insgesamt 6912 Cuda-Kernen, 432 Tensor-Kernen, 40 GB HBM2-Speicher mit 5120 Bit breitem Speicherbus für 312 Tflops an Deep Learning-Rechenleistung. Interessant ist das die Grafikkarten trotz einer TDP von 250 Watt komplett passiv gekühlt werden soll. Bei der Leistung liegt sie zwischen 3070 und 3090, was zumindest die reinen CUDA-Core betrifft, übertrifft aber die "Spieler-Karten" in der Vielzahl der Tensor-Cores deutlich: 432 Einheiten der A100 zu 328 Einheiten zur RTX 3090. Diese speziellen Verarbeitungseinheiten, die über CUDA aufgerufen werden, haben genau eine Aufgabe: Sie sollen so schnell wie möglich Matrixmultiplikationen durchführen bzw. aggregieren. So ist die Grafikkarte speziell für den Bereich Künstliche Intelligenz optimiert. Auch beim Speicher stehen dem Nutzer mit 40GB HBM2 ECC-Speicher doppelt soviel zur Verfügung, wenn man sie mit der RTX 3090 denn vergleichen möchte.

 

Technischen Daten: 

  • Neue Generation NVLINK
  • Architektur GPU : AMPERE
  • Speicher : 40GB HBM2
  • CUDA Cores : 6912
  • Tensor Cores: 432
  • Rechenleistung : 312 Tflops bei Deep Learning
  • FP32 Compute: 19,5 Tflops
  • FP64 Compute: 9,7 Tflops
  • System-Schnittstelle : PCIe Gen4
  • Multi-Instanz-GPU-Technologie: bis 7 GPU
  • Passive Kühlung
  • Verbrauch : 250 W max.
  • API : CUDA, DirectCompute, OpenCL, OpenACC

 

Sicherlich keine alltägliche Karte und eher uninteressant im Gaming-Sektor, aber interessant was mit der Ampere-Generation möglich ist und dann noch passiv gekühlt. Die Tesla-Karten besitzen aber alle dieses Feature der passiven Kühlung. Man muss bedenken, dass bei dem angepeilten Einsatzgebiet andere Bedingungen herrschen: Klimatisierte Räume, Serverfarmen mit leistungsstarken und lauten Industrielüftern etc.
Einen genauen Preis konnten wir nicht in Erfahrung bringen, aber die professionellen Karten sind erfahrungsgemäß deutlich teurer, als die aus dem Consumer-Bereich. 

Quelle: PNY

An dieser Diskussion teilnehmen.
Anmelden
Diskutiert diesen Artikel im Forum (0 Antworten).