X
Kommentare zu:

Abgespeckt: GeForce RTX 3080 Ti soll nur 12 GB Speicher erhalten

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] Dante2000 am 09.02. 07:59
+10 -
Ein weiterer Paper-Launch....
Anfangs, zur Ankündigung der 3000er, ärgerte ich mich, das ich knapp ein Jahr zuvor noch eine 2080 TI gekauft habe. Mittlerweile bin ich darüber glücklich, da die neuen 3000er defakto nicht zu kaufen sind (Für den OVP). Ob da jetzt ein weiteres Modell dazu kommt oder sogar entfernt wird, ändert ohnehin nichts an den nicht vorhandenen Kaufmöglichkeiten.
[o2] Nero FX am 09.02. 08:09
+1 -
Ein Weiterer Grund eine AMD Karte zu kaufen. Das Sie 20GB nicht wollten ok verstehe ich. Aber 16GB hätten es sein müssen. 12GB gehört auf eine RTX 3060 nicht auf eine High End Karte.
[re:1] P-A-O am 09.02. 15:26
+ -
@Nero FX: genau so sehe ich das auch. Hab versucht eine 3080 zu kaufen, bei Release und natürlich nichts bekommen. Dann kamen die Gerüchte um die ti mit 20 Gigabyte, was ich mir schon damals nicht wirklich vorstellen konnte. Nicht weil es nicht möglich wäre, sondern weil man der eigenen Karte (3090) Konkurrenz machen würde. Eine 3080ti mit 20, ja selbst mit 16 Gigabyte würde sehr vielen 3090 Käufern den Grund nehmen überhaupt eine 3090 zu kaufen. So viel schneller ist die Karte nicht um die Preisdifferenz rechtfertigen zu können.
Wenn jetzt aber wirklich die 3080ti mit 12 Gigabyte kommt bin ich froh bei einer 6800XT zugeschlagen zu haben als ich die Möglichkeit dazu hatte.
[re:2] Stefan1200 am 09.02. 16:35
+ -
@Nero FX: 16 GByte geht nicht, wenn man das Speicherinterface mindestens auf dem Niveau der 3080 halten möchte. Es geht nur 12 oder 20 GByte. Sonst müsste man mit dem Speicherinterface runter auf die 256 bit, wie bei der 3060 oder AMD Karten.
[re:1] Nero FX am 10.02. 08:56
+ -
@Stefan1200: Nvidia wird einfach das Speicherinterface verändern und die Taktraten "anpassen". So ist jede Konfiguration möglich, nichts anderes ist doch die 3080, 320Bit Speicherinterface, dadurch nur 10GB RAM. Man hätte es natürlich bei 384Bit belassen können und dafür 12GB mit geringerer Taktrate (ggf. GDDR6 statt GDDR6X) fahren können.

Dann wäre die Karte aber zu nachhaltig und man könnte keine neue Karte mit 12GB im Folgejahr verkaufen.
[o3] DerLars86 am 09.02. 08:45
+ -
Die Frage ist wirklich wann kommt die 40er Reihe, da die Preise so im Arsch sind, dass es keinen Sinn macht eine 30er Karte zu kaufen. ich habe derzeit eine 1080ti mit 11 GB warum sollte ich wechseln... NUR für RTX und 40 FPS mehr ???? und dafür vierstellig investieren.
[re:1] dahoood am 09.02. 09:16
+1 -
@DerLars86: Nachdem NVIDIA gesehen hat, dass der Markt bereit ist viel mehr zu zahlen als erforderlich, werden die Preise wieder anziehen...NVIDIA produziert verdammt gutes Zeugs, bleibt aber irgendwo ein arroganter Haufen...
[re:1] Nero FX am 09.02. 15:46
+ -
@dahoood: Das wird man sehen, ich Schätze Nvidia auch so ein das Sie die Preise oben halten wollen, sobald aber Konkurrenz (AMD, Intel (?)) kommen geht das nicht mehr.
[o4] DON666 am 09.02. 09:21
+2 -
"Nur" 12 GB? Verwöhntes Pack, ich muss hier mit 4 GB auskommen, die sollen sich mal nicht so anstellen... ^^
[re:1] bigspid am 09.02. 09:29
+3 -
@DON666: Das sind die gleichen Leute die über den kleinen Hubraum eines Sportwagens schimpfen, und dass der Kleintransporter für günstiger doch viiel mehr hat. "Das kann doch gar nicht reichen!!1!" :D
[re:1] Nero FX am 09.02. 15:50
+ -
@bigspid: Hier geht es eher um Preis/Leistung. Selbst Nvidia hatte bereits 11GB in der 1080 TI. 2 Generationen weiter und dann nur 1GB RAM mehr, obwohl 4K Gaming immer mehr in den Fokus rückt? AMD bietet ja auch 16GB selbst mit der RX 6800 (ohne XT). Sobald die Lieferbarkeit gegeben ist wird sich ganz schnell zeigen was die Kunden wollen.
[re:1] bigspid am 09.02. 18:30
+1 -
@Nero FX: Du begreifst es auch nicht. Du sprichst von Preis/Leistung und vergleichst unterschiedliche Typen von Videospeicher ohne die ganzen übrigen Faktoren zu berücksichtigen. Die reine Größe den Videospeichers sagt kaum etwas aus, genauso wie die reine TFLOPs Zahl auch sehr wenig über die tatsächliche Leistungsfähigkeit aussagt.

Es geht um den Durchsatz, also darum die benötigten Daten zu verrechnen, um daraus ein Bild zu generieren. Es geht nicht darum ein möglichst großes Lager für Texturen bereit zu stellen. Wenn der Videospeicher unendlich schnell schreiben kann und die Zugriffszeiten auf die Daten von der SSD/HDD bei 0 Sekunden liegen, dann genügt ein Videospeicher von 2GB schon völlig aus. Da aber alles doch etwas langsamer geht als "unendlich schnell" (ich beziehe mich auf den Datentransfer, nicht die Renderingzeiten), brauchen wir doch ein etwas größeres Lager. Bis aber die 10GB einer 3080 vollständig ausgereizt werden, sind wir bei Frameraten, bei denen du nicht mit der Karte spielen willst. Die Renderingleistung der aktuellen GraKa Generationen reichen bei den Engines von heute einfach nicht aus, um einen spürbar größeren Videospeicher mit GDDRX6 auszureizen, warum also mehr verbauen?
AMD verbaut GDDR6 Speicher, die Anbindung ist auch spürbar langsamer, daher wird hier mit mehr Speicher kompensiert. Kannst es dir in etwa vorstellen wie die Größe des Hubraums eines Turbo-Motors und den entsprechenden Turbolader. Nimmst du einen "größeren" Turbolader, kannst du den kleineren Hubraum kompensieren. Den großen Hubraum kannst du aber nur dann nicht kompensieren, wenn eine große Last befördert werden muss, bspw. bei einem LKW. Auch einen großen VRAM kannst du bei CAD Anwendungen nicht mit etwas anderem kompensieren. An die entsorechenden Käufer richtet sich auch die 3090. Aber Gamer? Die brauchen nur fürs große Ego "mehr GB VRAM".
[re:1] Nero FX am 10.02. 08:46
+ -
@bigspid: Du wiederspricht dir selbst. Bei Nvidia spielt Speichermenge bei GDDR6X keine Rolle da ist es die Bandbreite, bei AMD behauptest du das man wegen der Banbdreite mehr Speicher verbaut...AMD nutzt aber nur ein 256Bit Speicherinterface.

Natürlich kann man mit mehr Speicher das Löschen/Verwerfen verzögern und das Laden von Textturen vorziehen aber Ersatz für die Banbdreite ist Speicher nur in ganz kleinem Rahmen.

Um das 256Bit Speicherinterface zu kompensieren nutzt AMD bei der RX 6800/6900 auf einen schnellen Cache zwischen Grafikspeicher und Recheneinheiten.

Das hilft aber alles nicht, Ich sehe ganz klar bei 4K Gaming das die 11GB einer 1080 TI ausgeschöpft werden. Da hilft keine bessere Anbindung wenn die Texturen noch einmal so groß sind.

Nvidia limitiert hier absichtlich um den letzten € aus dem "Kunden" zu quetschen und Jubelst Ihnen zu.
[re:2] Rulf am 09.02. 18:02
+1 -
@DON666: 12gb sollten selbst für uhd mehr als genug sein...
[o5] caZper am 09.02. 10:23
+1 -
Nvidia weiß mit hoher Wahrscheinlichkeit ganz genau wieviel VRAM der Großteil der Spieler in Wirklichkeit benötigt. Es wird wohl nur ein sehr geringer Teil der Spielerschaft, auch in Zukunft und mit 4k, an die Grenze der 12GB kommen. Laut den Steam Statistiken nutzen aktuell nur 7% der Spieler eine QHD Auflösung und nur 2% eine 4k Auflösung.
Und ja Ausnahmen, gerade mit Mods, bestätigen die Regel. Sind aber nun mal nicht die Regel. Warum sollte Nvidia also nun also die Grafikkarte, wegen mehr VRAM, für alle insgesamt teurer machen? Die ein zwei Hanseln die das wirklich brauchen kaufen sich eine 3090 oder warten auf Custom Modelle der Nvidia Partner.
Ich kann mir aber auch zusätzlich vorstellen das die Verfügbarkeit von Komponenten in Nvidias Entscheidung mit reinspielt. Und wenn ich nicht falsche liege, gibt es beim VRAM auch Unterschiede bei der angezeigten/ausgelesenen VRAM Usage zum tasächlich genutzten, adressierten, reservierten VRAM die ein Spiel nutzt.
[re:1] Laggy am 09.02. 11:08
+1 -
@caZper: Richtig. Die VRAM Belegung hat wenig mit dem Bedarf zu tun.

Die Spiele füllen den vorhandenen VRAM aus, um Engpässe abzufangen. Die Spiele sind noch immer darauf ausgelegt von einer langsamen HDD zu starten (wie in den alten Konsolen) es werden also möglichst viele Daten im RAM und VRAM gehalten um die extrem langsamen Zugriffe auf HDD zu minimieren oder Euckler zu vermeiden wenn mal ein Virenscanner oder ähnliches auf die HDD zugreift und sie kurz auslastet.

Je schneller der Speicher ist (SSD) desto weniger relevant wird dieses Vorausladen. Wenn die SSD Daten jederzeit schnell genug liefern kann, muss weniger vorausgelaufen werden. Somit bringt das Caching keinen messbaren Vorteil mehr.
In Zukunft werden die Spiele sogar explizit auf PCIe 4.0 nvme SSDs ausgelegt incl direkter Anbindung der SSD an den Grafikchip ohne Umwege über die CPU. Dadurch kann das Streaming neuer Daten von SSD nochmal deutlich agressiver stattfinden und das Caching weiter reduziert werden. Dadurch kann der VRAM Footprint eines Spiel vermutlich stark reduziert werden bzw für aufwändigere Assets genutzt werden. Die Effizienz der VRAM Nutzung steigt also, wenn der Massenspeicher sehr viel schneller und zuverlässiger Daten liefern kann.
Das alles wird am PC mit DX12 Ultimate Sampler Feedback Streaming und Direct Storage umgesetzt. Bei den Neuen Konsolen wurde es auch groß beworben.
Ich denke Nvidia ist sich dessen genau bewusst (sie haben die Spec. ja auch in ihren GPUs umgesetzt) und wissen daher ganz gut, wie viel VRAM in absehbarer Zeit notwendig ist. Dass die Ausstattung bei aktuellen Spielen etwas knapp bemessen erscheint, da würde ich zustimmen. Aber ich denke mit DX12 Ultimate wird man das Thema neu bewerten müssen.
[re:1] mil0 am 09.02. 11:36
+ -
@Laggy: Raytracing in "normalen" Auflösungen will dann doch das ein oder andere MB mehr. Probier es doch mal in Minecraft RT aus. Wenn man nicht gerade die absolut niedrigsten RT Einstellungen setzt, dann sind 8 GB schnell auch bei 1440p mit DLSS belegt, womit die interne Auflösung ja wohl doch niedriger ist.
[re:1] Laggy am 09.02. 11:59
+ -
@mil0: Minecraft RT ist doch vollständiges Path Tracing. Sprich alles wird mit RT berechnet. Dass das viel Perfromance und Speicher braucht ist richtig, aber sowas werden wir in absehbarer Zeit in normalen Spielen nicht sehen.
Eher wird RT weiter zurückgefahren und optimiert, da das RT auch auf den Konsolen laufen soll. Und diese haben einen abgespeckten RX6000 Chip, welche bekanntermaßen bei der RT Leistung gegenüber Nvidia zurückliegt.

RT wird die nächsten Jahre vermutlich nur sehr moderat genutzt, wenn die Konsolen weiterhin (wie immer) den Ton angeben, was in den Spielen umgesetzt wird.

Dass RT mehr Grafikspeicher benötigt ist natürlich richtig.
Trotzdem kann man das alles erst abschließend bewerten, wenn DX12 Ultimate da ist.
Ob es wirklich so einen großen Unterschied macht, wie beworben wird sich zeigen müssen. Vielleicht bleibt auch alles so wie es ist und in 2-3 Jahren brauchen wir zwingend 16 GB VRAM. Aber ich würde mich erst über zu wenig VRAM beschweren wollen, wenn ich diese Unbekannten streichen kann. Sonst macht es halt wenig Sinn.

Der Punkt ist, dass man aktuell nicht beurteilen kann, ob in den nächsten paar Jahren die 16 GB VRAM bei AMD nützlicher sind, als die höhere RT Leistung und DLSS bei Nvidia. Man kann schätzen, glauben und mutmaßen, aber man weiß es nicht. DX12 Ultimate ist bei dem Thema eine große unbekannte die alles in die eine oder andere Richtung kippen kann und sobald wir hier mehr wissen muss man das Thema wie gesagt neu bewerten.

Ein bisschen Skepsis ist halt imho auch bei AMD angebracht. Auch wenn die vielleicht wüssten, dass in Zukunft Nvidias Speicherausstattung ausreichen wird, so würde ich an AMDs Stelle so oder so auch 16 GB verbauen, weil es sich nunmal gut verkauft.
AMD hat weniger RT Leistung und kein DLSS. Die Karten sind rar und die Preise hoch. Nichts ist naheliegender, als hier mit üppiger Speicherausstattung auf Kundenfang zu gehen, denn sonst hätte wohl jeder zu nvidia gegriffen. Der Speicher ist somit bei den Specs aktuell das einzige wirkliche Verkaufsargument.
[re:2] caZper am 09.02. 11:45
+ -
@Laggy:
Danke für deinen Beitrag und Erläuterung. =)

edit:

@mil0
Ich glaube Nvidia orientiert sich weniger an Einzelbeispielen sondern mehr auf Sachen wie das 2/3 der Spieler noch 1080p nutzen, siehe Steam Statistiken.
Da ich bei den Nvidia Meetings nicht dabei bin ist das natürlich nur eine Vermutung.
Und vielen Dank für deinen Kommentar, das mit Minecraft und Raytracing -auch wenn exotisch- kannte ich noch nicht.
[o6] Schildbrecher am 09.02. 11:18
+1 -3
Freut mich... somit kein Wertverfall meiner Strix 3090, die ich bei Amazon für 1614€ bekam.
Danke Nvidia, dass ihr nicht den 3090 Käufern mit einer 3080 Ti in den A**** tritt.
[o7] avril|L am 09.02. 17:46
+ -
Also meine RTX 2080 tut es noch. Wann kommt die 4000er Reihe ? :D
[re:1] Rulf am 09.02. 17:59
+ -
@avril|L: so du denn nur fhd zockst tut sie auch in ein paar jahren noch...
[re:1] avril|L am 09.02. 19:09
+ -
@Rulf: Na klar reicht meine noch einige Jahre. Aktuell zock ich mit 3440x1440 (34"), davor mit 3440x1080 (49").
[o8] Rulf am 09.02. 17:58
+1 -
so kann man trotz extrem knappen/teurem gddr6x speicher eben mehr karten verkaufen...genug ausselektierte gpus scheinen ja vorhanden zu sein...
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture