AMD: DLSS-Pendant FidelityFX Super Resolution soll bald erscheinen

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] H3LD am 09.02. 16:38
+ -
Wird das dann wohl auch bei PS5 und Series Konsolen funktionieren?
[re:1] Ryou-sama am 09.02. 17:01
+4 -
@H3LD: Bei Series X/S schon, bei der PS5 nicht. Die Xbox Series hat volle RDNA 2.0 und DirectX 12 Ultimate-Unterstützung, womit Super Resolution unterstützt wird. Die PS5 hingegen bietet nur einige wenige Features von RDNA 2.0 und unterstützt auch kein DX 12.

Sony hat aber letztes Jahr ein Patent, für ihre eigene Lösung von Super Resolution, eingereicht. Ob dieses Feature allerdings auch schon in der PS5 per Update Einzug hält ist fraglich.
[re:1] NightStorm1000 am 10.02. 11:21
+ -
@Ryou-sama: Kommt im Grunde darauf an ob AMD ihren Feature Satz in Vulkan zugänglich macht, da dies die Haupt Grafik API der PS5 ist.

Da sie schon immer sehr Open Source nahe waren und ihre eigenen API Mantle im Grunde die Basis für Vulkan bildete nehme ich mal schwer an dass dies auch passieren wird.

Wahrscheinlich nur ein Jahr später oder so.
[o2] happy_dogshit am 09.02. 16:39
+5 -1
Braucht man nur noch eine Grafikkarte dazu.....
[o3] Alexmitter am 09.02. 17:00
+ -1
"ist zumindest Nvidias DLSS-Technologie mittlerweile kaum mehr vom nativen Ren­der­ing zu unterscheiden"
Nein, nicht wirklich. DLSS ist keine Magie und ich bevorzuge klar das Bild das bei nativer Auflösung entstanden ist. DLSS sieht okish aus, vom Hocker haut es mich aber nicht.
[re:1] ThreeM am 09.02. 17:21
+ -
@Alexmitter: Dlss sieht Teilweise besser aus als die native Auflösung... Diverse Berichte, u ter anderem von Digital Foundry belegen dies.
[re:1] Alexmitter am 09.02. 17:30
+ -1
@ThreeM: "Dlss sieht Teilweise besser aus als die native Auflösung.."
Wenn man weniger Details, verschwindende dünne Objekte wie Zäune und ein verwaschenes Bild bevorzugt, ja, dann sieht es besser aus.

"Diverse Berichte, u ter anderem von Digital Foundry belegen dies."
Digital Foundry? Noch nie gehört.
[re:1] ThreeM am 09.02. 17:36
+ -
@Alexmitter: Je nach Implementierung. Cyberpunk zum Beispiel kann sehr von profitieren.
[re:2] Laggy am 09.02. 19:21
+5 -
@Alexmitter: Gerade so feine Details wie Zäune, oder Stromleitungen sehen mit DLSS meist besser aus und haben weniger lücken, als mit nativer Auflösung und TAA. Gerade dort wirkt es wahre Wunder und generiert Details die vorher nicht da waren. Dass DLSS nicht immer durchweg besser ist, ja das stimmt. Es gibt eben Bereiche in denen DLSS besser abschneidet und es gibt Bildbereiche in denen Nativ besser aussieht.
Zudem erzeugt DLSS in 4K deutlich bessere Ergebnisse als in 1440p oder 1080p. Das sollte man immer bedenken. Ach ja, und natürlich reden wir von Spielen mit DLSS 2.0 support. Die erste Version war völliger Mist.

Bei 1440p hängt es oft davon ob, wie gut die TAA implementierung ist, was dann für die Entscheidung sorgt, ob ich DLSS bevorzuge oder nicht. Bei CoD Cold War finde ich in 1440p die native Auflösung tatsächlich auch unterm Strich besser. Auch bei Cyberpunk sagt mit native TAA fast mehr zu. Der Performanceunterschied ist aber so gewaltig, dass man DLSS für den Performance gain durchaus nutzen kann. Das Bild ist eben nur minimal schlechter.
Bei Death Stranding oder Control würd ich aber jederzeit DLSS nutzen. Das sieht deutlich besser aus, als nativ. (Weil die TAA Implementierung dort auch nicht zu den besten gehört)

Wenn du Digital Foundry nicht kennst, scheinst du dich wenig mit dem Thema zu beschäftigen. Nahezu jede Tech Seite hat den YouTube Kanal von Digital Foundry schon referenziert. Auch in sämtlichen tech Foren und auch Reddit usw. werden die Videos extrem oft verlinkt. Das ist der wohl beste und professionellste Kanal auf YouTube, wenn es um die technische Analyse neuer Spiele und deren Grafikfeatures geht. Der Fokus liegt da weniger auf klassischem Hardware Benchmarking sondern eher auf Spieleengines und Grafik sowie Performanceanalyse der Spiele auf Konsolen und Vergleiche zum PC. Da bekommt man oft infos die man sonst nirgends bekommt, da das Team einen ziemlichen Aufwand für die Analysen betreibt.

Ach ja, was ich noch sagen will bezüglich DLSS "ist keine Magie". Na ja wie mans betrachtet. Wenn man bedenkt, wie niedrig aufgelöst die interne Renderauflösung mit DLSS ist und wie gut das Ergebnis ist, ist das um welten besser als klassisches upscaling. Das muss man einfach anerkennen.

Man muss verstehen, dass sowohl TAA als auch DLSS auf temporaler Verrechnung basieren. Da werden Bildinformationen (samples) über mehrere Frames hinweg gesammelt, bewegung wird über vektoren getracked und dann werden die gesammelten Bildinformationen der szene verwendet um das nächste Bild mit neuen Details und Kantenglättung zu verbessern. Man sammelt hier über Zeit tatsächlich echte Bildinformation, die ins finale Bild mit einfließen.

Das ganze ist jedoch mathematisch unglaublich komplex, weswegen Nvidia einen "KI" Algorithmus darauf trainiert hat, der eben besser ist, als das was mit den bisherigen TAA Implementierungen machbar war. Sogar so gut, dass man die Auflösung stark reduzieren kann und immernoch ein super Bild dabei rauskommt. Nvidia nennts halt DLSS, auch wenn es in der Theorie dem Grundprinzip von TAA entspricht.

Ursprünglich wollte Nvidia auch eine DLSS Version anbieten, das intern in nativer Auflösung rechnet (also keinen Performancevorteil bringt und kein Upscaling betreibt) aber einfach als alternative Kantenglättung einen enormen Bildqualitätsgewinn bringen soll. Aber das kommt dann wohl erst mit DLSS 3.0.
[o4] Rulf am 09.02. 17:45
+ -2
zusätzliche rechenschritte = zusätzliches lag = nix für powergamer...
[re:1] ThreeM am 09.02. 18:01
+ -
@Rulf: Dlss hat keinen Einfluss auf den Inputlag
[re:1] Rulf am 09.02. 18:04
+ -
@ThreeM: weil es nvidia direkt in hw berechnet...
[re:1] ThreeM am 09.02. 18:47
+ -
@Rulf: Nvidia nutzt für Dlss keine Tensor Cores mehr sondern ganz normale Shadereinheiten. So wie es AMD auch machen wird. Von daher gehe ich davon aus das es auch bei AMD keinen zusätzlichen Inputlag geben wird.
[o5] Knuffig am 10.02. 03:22
+ -
AMD hat mehrfach gesagt, dass ihre Lösung nicht auf AI basieren wird.
[o6] KarstenS am 10.02. 06:56
+ -
Was im Artikel wichtiges fehlt, bei der Ankündigung im Herbst jedoch gesagt wurde: AMDs Version soll ohne vorher profilierte Metadaten arbeiten.

Das dürfte der größte Schwachpunkt des Systems sein und ich glaube nicht wirklich daran, dass AMDs Lösung so jemals nennenswert besser sein wird als andere reine Upscaling Lösungen. Man kann nicht einfach aus dem Nichts fehlende Bildinformationen generieren. Wenn es so einfach wäre, gäbe es schon lange perfektes Upscaling.

Das hat auch NVIDIA erkannt und genau aus diesem Grund gibt es die Metadaten in Form von Profilen, welche die Lücke zum Nichts schließen sollen.
[re:1] Laggy am 10.02. 08:39
+ -
@KarstenS: TAA generiert auch schon fehlende Bildinformationen, da diese aus mehreren alten Frames über Zeit gewonnen werden. Deswegen ja auch der Name Temporal AntiAliasing. Das ist überhaupt nix neues.

Das Grundprinzip ist seit Jahren in From von TAA im Einsatz. DLSS erweitert das ganze "nur" mit Deep Learning.
[re:1] KarstenS am 10.02. 11:38
+ -
@Laggy: "mehrere alte Frames" ist nicht "Nichts". Allerdings auch nicht wirklich viel mehr, da die alten Frames auch nur die gleiche Auflösung haben und damit nach wie vor keine Referenz für "wie es mit hoher Auslösung aussehen würde" darstellt.
[re:1] Laggy am 10.02. 18:23
+ -
@KarstenS: Doch, weil du mit den Infos der alten Frames die gesamte Spielszene praktisch mit einer größeren Anzahl an Bildpunkten abtastest, als mit nur einem Frame. Die Auflösung eines einzelnen Frames spielt keine Rolle, wenn du beliebig viele Frames miteinander verrechnen könntest. (Da die szene in bewegung ist, ist die Anzahl der zu verrechneten Frames aber begrenz bzw. hängt davon ab, wie schnell sich die Kamera bewegt)

Klassisches AntiAliasing basiert ja auch darauf, dass die Szene feiner abgetastet wird und diese Bildinformationen genutzt werden, um den Farbwert eines Pixels genauer zu bestimmen. Dadurch erscheint das Bild am Ende schärfer, detaillierter und mit weniger Aliasing.

Anstatt jedoch wie bei klassischem MSAA oder SSAA die feinere Abtastung in form von zusätzliche Samples für jeden Frame mühsam von der GPU berechnen zu lassen, nutzt man beim TAA eben die Samples/Pixel der vergangenen Bilder.

Dadurch dass sich bei jedem Bild die Position der Kamera oder des Inhalts ein wenig ändert, tastest du mit jedem neuen Frame eine Szene oder ein Objekt noch präziser und hochauflösender ab, wenn du die Samples am Ende wieder zusammenrechnest.

Aber auch für eine statische Kamera gibt es z.B. die Lösung, dass die Kamera "gejittert" wird. Sprich die Kameraposition verschiebt sich bei jedem neuen Frame z.B. um einen halben Pixel. Wenn man z.B. vier leicht verschobene Kamerapositionen aufnimmt, entspricht die gewonnene Bildinformation der vierfachen Auflösung. Manche Entwickler nennen ihre TAA Lösung deswegen auch TSSAA. (Temporal Super-Sampling)

Dein Smartphone macht übrigens beim fotografieren genau das selbe. Während der Sucher aktiv ist, nimmt das Smartphone kontinuierlich einen Stream an Fotos auf. Sobald du den Auslöser drückst, werden mehrere Aufnahmen die dem Aufnahmezeitpunkt am nähsten kommen verrechnet. Hier entsteht praktisch der gleiche Effekt, wie beim TAA. Die gewinnst Bildinformationen indem du die Szene einfach mehrfach abtastest und die Bilder verrechnest.
Auch die Rauschunterdrückung wird so realisiert. Wenn du mehrere Aufnahmen der gleichen Szene z.B. in Photoshop halbtrasparent übereinander legst, löscht sich das Bildrauschen automatisch aus, da es bei jedem Bild anders aussieht. Der eigentliche Bildinhalt bleibt jedoch logischerweise enthalten. Nennt sich auch Stacking Verfahren.
So kann man verlustfreie Rauschunterdrückung betreiben und braucht keinen Entrauschfilter, der auch echte Bildinformationen zerstört.

Aber gut, bevor ich jetzt noch in die elektronische Signalverarbeitung abdrifte solls das gewesen sein.
[o7] NightStorm1000 am 10.02. 11:24
+ -
Was man mit DLSS macht kann man genau so gut mit Variable Shading auch machen. Hitman 3 beweist das es äußerst gut funktioniert.
Desktop-Version anzeigen
Hoch © 2021 WinFuture Impressum Datenschutz Cookies