Jetzt auch mobil Kommentieren!

Nvidia-Chef: Wir sind viel schneller als das Mooresche Gesetz

Von Christian Kahle am 03.04.2018 08:59 Uhr
32 Kommentare
Während immer wieder darüber spekuliert wird, wie lange die Chip-Branche es noch schafft, in ihrer Entwicklung dem Mooreschen Gesetz zu folgen, weist der Weg der Grafik-Prozessoren zumindest hinsichtlich der Performance in eine gänzlich andere Richtung. Hier ist man quasi in einem Turbo-Modus unterwegs.

Das Mooresche Gesetz geht auf den Intel-Mitbegründer Gordon Moore zurück und ist eigentlich eher eine grobe Prognose, die es inzwischen in verschiedenen Ausführungen gibt. Eigentlich bezog sie sich ursprünglich darauf, dass die Komplexität einer Architektur sich durch die wachsende Zahl von Transistoren in regelmäßigen Abständen verdoppelt. Vielfach wurde das im Laufe der Zeit darauf vereinfacht, dass man alle anderthalb bis zwei Jahre eine Verdoppelung der Prozessor-Leistung erwarten kann.

"Es passiert gerade ein neues Gesetz", erklärte Jensen Huang nun aber. Als der Chef des GPU-Herstellers Nvidia auf der Hausmesse GPU Technology Conference (GTC) die Bühne betrat, zog sich die wesentlich beschleunigte Entwicklung durch seine Keynote. Anhand verschiedener Beispiele zeigte er auf, dass die eigenen Chips sehr viel schneller vorankommen, als es das Mooresche Gesetz prognostizierte.

Titan V: Nvidia stellt die leistungsstärkste GPU aller Zeiten vor
Geht man nach der Vorhersage des Intel-Gründers, sollte die Performance binnen der vergangenen fünf Jahre etwa um den Faktor 10 gestiegen sein. Wie Huang nun aber klarmachte, sind die aktuellen Nvidia-Chips sogar 25 Mal leistungsfähiger als die Produkte, die vor fünf Jahren die Spitze darstellten. Das gilt zumindest auf Grundlage von Standard-Benchmarks.

KI schafft man noch viel schneller

Wesentlich beeindruckendere Verbesserungen gab es sogar, wenn man sich bestimmte Anwendungen anschaut, die in der heutigen IT-Praxis eine zunehmend wichtige Rolle spielen. Das betrifft insbesondere das Training von KI-Algorithmen, die aus der Analyse riesiger Datenbestände lernen.

AlexNet, der Algorithmus eines Neuronalen Netzwerkes, wurde vor fünf Jahren noch auf zwei GTX 580 durch das Trainings-Pensum getrieben. Für die Analyse von 15 Millionen Bildern, die dafür nötig war, wurden damals noch sechs Tage gebraucht. Auf der neuesten Hardware - der kürzlich angekündigten DGX-2 - schaffte man die gleiche Arbeit binnen nur noch 18 Minuten, teilte Huang mit.
whatsapp
Jede Woche neu: Top-News per E-Mail
32 Kommentare lesen & antworten
Verwandte Themen
Nvidia
Hoch © 2000 - 2018 WinFuture Impressum Datenschutz