Nvidia hat hier 21,1 Milliarden Transistoren zu 5.120 Shader-Kernen zusammengefügt. Obwohl man inzwischen auf eine Strukturweite von 12 Nanometern heruntergegangen ist, kommt man so auf eine Die-Fläche von immerhin 815 Quadratmillimetern.
Der Vorgänger des Produktes ist in der Pascal-Serie von Nvidia zu suchen. Gegenüber dieser konnte die Leistungsfähigkeit um rund 40 Prozent gesteigert werden. So kommt der Chip bei Berechnungen mit einfacher Genauigkeit nun auf eine Performance von bis zu 15 Billionen Floating-Point-Operations, also 15 Teraflops.
Schneller denkende KIs
Einen klaren Einsatzzweck hat Nvidia im Grunde bereits durch die Architektur des Gesamtproduktes vorweggenommen. 640 Tensor-Kerne sorgen für eine optimale Verteilung der Instruktionen - und besonders gut funktioniert das bei Datenanalysen, wie sie im Deep Learning an der Tagesordnung sind. Der Tesla V100 soll also in erster Linie dafür sorgen, dass Künstliche Intelligenzen wesentlich performanter agieren können.Billig ist die Aufrüstung der eigenen Infrastruktur allerdings nicht. Nvidia will beispielsweise fertige Server liefern, in denen acht Tesla V100 verbaut sind. Diese sollen dann satte 149.000 Dollar kosten. Geliefert werden können die Geräte ohnehin erst im dritten Quartal, so dass noch etwas Zeit zum sparen ist.