• Hallo Gast,

    du hast Fragen zum PCGH-Abo oder zur Bestellung eines (Sonder)hefts von PC Games Hardware? Dann wirf einen Blick auf unser PCGH Abo-FAQ mit Antworten zu den wichtigsten Fragen. Hilfreich bei der Suche nach dem nächstgelegenen Händler, bei dem die aktuelle PC Games Hardware ausliegt, ist die Website Mykiosk. Gib dort deine Postleitzahl und PC Games Hardware (Magazin/DVD/Spezial/Sonderheft) in die Suchfelder ein und dir werden die Verkaufsstellen in deiner Nähe aufgezeigt. Wenn du PCGH digital (über App, Tablet, Smartphone oder im Webbrowser) lesen willst, haben wir eine entsprechende Anleitung für dich zusammengestellt.

Special PCGH fragt die Community: Wie steht ihr eigentlich zu Upscaling-Technologien wie zu DLSS, FSR und XeSS?

Auch aber den Stromverbrauch von Grafikkarten nur zum zocken sehe ich auch kritisch sorry ist einfach so.
Nein die dicken Autos bekommen einen kleinen e motor und akku und werden dann noch mit einem e Kennzeichen belohnt das ist verarsche pur ... ohne den e antrieb verbraucht das dicke suv schiff immer noch zu viel Benzin oder Diesel aber so kann man es ja machen.

Dennoch muss auch beim Zocken ein umdenken stattfinden, man kann das eine nicht anprangern aber das andere verteidigen Heuchelei ist das... spiele werden doch null optimiert für den PC
Sehe ich genauso… man sollte nicht die eine Umweltsünde mit der anderen entschuldigen. Es wird uns nur gelingen, wenn wir überall unseren Beitrag leisten.

Fest steht, dass mein aktueller PC unter Last fast den 3 fachen Stromverbrauch abruft als mein letzter von 2016 und einige Spiele, die das aktuell auch brauchen, kaum oder eher schlechter aussehen als Games vor 6 Jahren. Da wird sich gerade auch bei Konsolen-Ports kaum angestrengt. Einfach so da hin gerotzt.
 
Selten mal ausprobiert, bin aber zum Entschluss gekommen, dass mir die Bildqualität zu sehr leidet oder der Mehrwert zu gering ist. Also weiterhin mit nativen Frames unterwegs.
Wenn man sich aktuelle Demos mit Unreal Engine 5 und aufwärts anschaut und diese in zukünftigen Games so implementiert wird mit den Anforderungen an Hardware, dann sei einfach froh, das es Upscalling gibt.

Weil deine 580 wird nativ definitiv keine zweistelligen Framerates gestemmt bekommen.
Bitte ab hier nicht mehr über Staubsauger, Leuchtmittel oder Autos diskutieren, weil reichlich
:offtopic:
Ging´s schon wieder los ? :lol:

Geht doch bitte einfach ein in Forum für Staubsauger, wenn ihr euch da so enthusiastisch drüber austauschen möchtet :-D
 
Ich finde auch die Grafik bei Diablo IV für die Anforderungen zu schwach. Da hätte man mehr rausholen und effizienter die Hardware nutzen können.
Diablo 4 ist ein schlechtes Beispiel, das läuft selbst auf einer inzwischen uralten GTX 1060 und RX 580 noch gut. Die Optimierung kann hier definitiv als sehr gut bezeichnet werden.
 
Oder halt DLDSR und gleichzeitig in-Game DLSS kombinieren, dann bekommt man ohne Mods in etwa DLAA.
nein.. DLDSR + DLSS ist richtig eingestellt um einiges besser als DLAA da es bedingt durch die höhere Auflösung auch eine höhere Renderreichweite hat
DLSS2 Quality ist sehr brauchbar. Die niedrigeren Settings verlieren zu viel an Qualität IMO.

DLSS3/Frame Generation geht von der Qualität garnicht, abgesehen von der zusätzlichen Latenz. In Bewegung produziert ist den totalen Texturmatsch. Qualitätsvergleiche mit statischen Szenen ist wertlos, da sieht FG natürlich gut aus.
Also ich kann mich in meinen games mit Framegen nicht beschweren das ich irgentwelche Artefakte sehe..
und die Latenz ist nebensache.. da liegt ne AMD karte ohne Framegeneration gleich auf oder ist sogar schlechter
 
Dlss FSr und xess (bisher nicht genutzt)
Ursprünglich war dlss dazu da das Bild zu denoisen was die tensor core in den rtx gpu tun das wurde komplett mit nen upscaler ersetzt.
zwar wird noch teilweise die bvh bei rt denoised ist aber nicht Hauptbestandteil des codes
Somit ist das DL reines marketing.
ich nutze diese upscaler ausschließlich bei dxr spielen die meine gpu in die region unter 40fps bewegt
Ob das dlss oder fsr ist ist mir egal tendenziell nutze ich eher nvidia dlss aber lieber, da dieser qualitativ besser ist.
 
DLSS3/Frame Generation geht von der Qualität garnicht, abgesehen von der zusätzlichen Latenz. In Bewegung produziert ist den totalen Texturmatsch. Qualitätsvergleiche mit statischen Szenen ist wertlos, da sieht FG natürlich gut aus.
Kann ich, offen gestanden, nicht bestätigen. Die Latenz ist zwar teilweise* spürbar, aber niemals in einem unspielbaren Bereich.

*Teilweise deswegen, weil es z.B. in Cyberpunk 2077 vorbildlich umgesetzt wurde. Ich merke rein gar nichts von einer höheren Latenz, wenn ich FG anstelle. In Spider-Man: Miles Morales ist sie spürbar, aber vollkommen angemessen.

Auch die Bildqualität ist top bei allen Spielen, in denen ich FG nutze.
 
Von FG halte ich gar nix nvidia hat sich mit der Intigration von frame generation bei dlss3 kein gefallen getan damit verbaut man sich zukünftige code Verbesserungen und Fixiert diese Verbesserungen nur auf aktuell gen ab rtx40
dazu das diese generierten fps Falsche annahmen macht neben dem problem der Bildfehler die durch das interpolierten zusätzlichen frame erzeugt wird.
Den fehlerfrei ist das nie die frage die sich stellt wie schnell das Bild dargestellt wird
darum macht Fg da wo es darauf ankäme kein Sinn
Optisch fällt es auf und die Latenz verschlimmert das gameplay somit muss bei FG min 80fps anliegen
Was den Sinn dahinter fraglich erscheint kein unterschied optisch und gameplay hat man ab 120fps dann wird klar wie unsinnig dieses feature ist.
Wo der OFA Sinn machen würde wäre Simulationen mit kaum Spieler Interaktion um dann ein flüssigeres Bild zu haben. Etwa dem MS flight sim oder anno
 
Naja als ich 2016 battlefront II gespielt habe, war ich hin und weg von der Grafik, gerade noch als Star Wars Enthusiast. Auch heute noch, sieht das richtig gut aus.

4 Jahre später, Outer Worlds… höhere Anforderungen und sieht definitiv schlechter aus.

Da gibt es genug Fälle.

Warum soll das blödsinn sein? Finde da gibt es genug objektive Beispiele..
Naja, ich finde man muss beachten, dass je höher die Qualität ist, desto schwerer und teurer wird es das noch weiter zu steigern. Ich sehe immer deutliche Qualitätssteigerungen bei neuen Spielen zu älteren Titeln. Sie liegen manchmal aber im Detail und sind nicht auf den ersten Blick zu erkennen.

Ich hab nur den Kopf geschüttelt wo ich die ersten Kommentare gesehen hab, wie die Anforderungen von Jedi Survivor doch viel zu hoch seien und Fallen Order genau so aussähe. Zwischen den beiden Spielen liegen Lichtjahre in Details, Geometrie, Texturen, Beleuchtung, etc.

Oder das Geschwätz mit Last Of Us Part 1 am PC. Das Spiel hat super gute Texturen, sehr detaillierte Geometrie, hohen Detailgrad in der Spielwelt. Aber da muss man sich dann so einen Unsinn anhören es wäre ja noch die gleiche Engine wie damals PS3 und so.

Das gleiche mit Forspoken. Das Spiel verdient sicher einiges an Kritik und ich sehe die auch, aber was Effekte angeht und Partikel is das mein neuer Benchmark. Texturen waren auch klasse, auch wenn die Welt etwas steril wirkte, das lässt sich nicht leugnen. Aber die Anforderungen sind schon gerechtfertigt, wenn man sich die Assets und Geometrie und Effekte anschaut.

Auf der einen Seite wird immer nach besserer Grafik verlangt und man schaut sich immer fasziniert Techdemos an von Engines wie jetzt UE5 und Co - aber wenn dann die Spiele rauskommen mit dieser Grafik und man sie mit seiner Karte nicht vernünftig spielen kann, sind sie natürlich immer "unoptimiert".
 
Das hier ist die Zukunft.....nennt sich Asynchronous Reprojection. Wird schon bei VR Brillen genutzt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Upscaling war der Grund, warum ich 2021 Cyberpunk 2077 überhaupt zocken konnte.

Zu der Zeit werkelte hier noch eine R9 270x (2GB) vor sich hin, und nativ ging gar nichts, oder ich sage mal, 25 fps waren selbst mir zu wenig :D

Zuerst das interne FidelityFX (CAS) genutzt, dann das externe Tool Losless Scaling, und letztlich das nachträglich implementierte FSR.

Natürlich sah das nicht wirklich schön aus, aber das schiebe ich nicht hauptsächlich dem Upscaling in die Schuhe, sondern den niedrigen Einstellungen, die ich zusätzlich wählen musste, um das Ganze flüssig auf 40fps zu bekommen.

Also ja, Upscaling finde ich nicht nur begrüßenswert, sondern wird die Zukunft sein, weil die Anforderungen irgendwann selbst von Highend-Karten nicht mehr per Rohleistung zu stemmen sind.

Spätestens wenn die Bildqualität subjektiv nicht mehr nur oft, wie heute, sondern durchgängig ojektivierbar, nachweislich besser ist als nativ, dann werden Vorbehalte so manch reaktionärer Nativ-Verteidiger ad acta gelegt werden müssen. Die nächste Generation Zocker wird daran keinen Gedanken mehr verschwenden.
270x? Du bist aber hart drauf. Du hast wohl vor gar nichts Angst ?
 
Diablo 4 ist ein schlechtes Beispiel, das läuft selbst auf einer inzwischen uralten GTX 1060 und RX 580 noch gut. Die Optimierung kann hier definitiv als sehr gut bezeichnet werden.
Also auf meiner 3090 TI gibt es immer wieder framedrops, beim Betreten von Städten usw. Gut ich spiele auch auf 4K und Max settings…

Kann schon sein, dass Diablo IV mit einer RX 580 in very low details auf FHD irgendwie läuft.

Aber so wie es auf meiner Hardware läuft, zeigt mir, dass da mehr gehen muss. Die Grafik unter 4K sieht bei weitem nicht so aus, dass sie wie aktuell über 700 Watt Strom aus der Dose ziehen muss.
Ich hab nur den Kopf geschüttelt wo ich die ersten Kommentare gesehen hab, wie die Anforderungen von Jedi Survivor doch viel zu hoch seien und Fallen Order genau so aussähe. Zwischen den beiden Spielen liegen Lichtjahre in Details, Geometrie, Texturen, Beleuchtung, etc.
Ich fand die Grafik bei Fallen Order schon nicht so toll. Aber das wäre gar nicht mein Thema gewesen, mehr hat mich das (schlauchartige) Gameplay gestört. Solche Spiele sind einfach nix für mich. Da mal entlanghangeln, hier hin hüpfen. Solche Konsolen-Playstyles sind nicht mein Ding. Damit kann man mich nicht hinter den Ofen hervorholen, nichtmal als Star Wars Enthusiast. Jedi Survivor habe ich mir dann gleich gar nicht mehr angesehen.
 
Zuletzt bearbeitet:
Also auf meiner 3090 TI gibt es immer wieder framedrops, beim Betreten von Städten usw. Gut ich spiele auch auf 4K und Max settings…
Bin ebenfalls 3090 Ti Nutzer und kann nur von wenigen Framedrops berichten. Zu beachten ist auch, dass einige Performanceprobleme serverbedingt sind und nicht vom Client (also dir) ausgehen.

Kann schon sein, dass Diablo IV mit einer RX 580 in very low details auf FHD irgendwie läuft.
Laut ComputerBase Bench sogar mit Ultra Details in 1080p. Spätestens wenn die Texturen 1-2 Stufen runtergestellt und FSR eingeschaltet wird, läuft es easy mit durchgehend 60 FPS+. Für 7 Jahre alte Midrange Karten mehr als beachtlich.

Aber so wie es auf meiner Hardware läuft, zeigt mir, dass da mehr gehen muss. Die Grafik unter 4K sieht bei weitem nicht so aus, dass sie wie aktuell über 700 Watt Strom aus der Dose ziehen muss.
Nun gut, eine 3090 Ti Stock laufen zu lassen macht halt auch wenig Sinn. Meine läuft mit 1935 MHz bei 0,9v und zieht dank DLSS in Diablo 4 220-280 Watt. Die CPU schläft ohnehin fast ein bei der geringen Last im Spiel.
 
Außer FSR 2 würde ich nichts benutzen und das nur auf der höchsten Qualität.
Es ist praktisch, wenn das Spiel sehr Hardware-fordernd ist.
Dennoch gibt es andere Features, die WESENTLICH wichtiger sind. Mind. 120 FPS (am Besten mit FPS Begrenzer im Spiel) und Ultrawide Unterstützung.
FG ist Quatsch und Augenwischerei, deshalb werd ich FSR 3 wohl auch nie verwenden. Ich bin sehr sensibel, was Bilddarstellungsfehler angeht, und die produziert FG ja am laufenden Band.
 
Bin ebenfalls 3090 Ti Nutzer und kann nur von wenigen Framedrops berichten. Zu beachten ist auch, dass einige Performanceprobleme serverbedingt sind und nicht vom Client (also dir) ausgehen.


Laut ComputerBase Bench sogar mit Ultra Details in 1080p. Spätestens wenn die Texturen 1-2 Stufen runtergestellt und FSR eingeschaltet wird, läuft es easy mit durchgehend 60 FPS+. Für 7 Jahre alte Midrange Karten mehr als beachtlich.


Nun gut, eine 3090 Ti Stock laufen zu lassen macht halt auch wenig Sinn. Meine läuft mit 1935 MHz bei 0,9v und zieht dank DLSS in Diablo 4 220-280 Watt. Die CPU schläft ohnehin fast ein bei der geringen Last im Spiel.
Aber alleine das zeigt doch, dass die Optimierung nicht ideal ist. Wenn das Game selbst auf mid range GPUs mit 60 FPS läuft und bei meiner 3090 TI von 144 FPS (VSYNC) teilweise auf 60-70 Frames droppt, wenn ich die Stadt betrete. Bei meinem Sohn mit 3080, genau dasselbe. Wenn es bei einer mid range so gut läuft, müsstest du 200+ FPS konstant haben.

Nach Optimierung von settings bei D4 ist der Strombedarf auch runter gegangen. Dennoch nicht ideal… ist mir schon bei WoW aufgefallen.
 
Zuletzt bearbeitet:
Nutze kein Upscaling wenn die Leistung reicht. Nativ bzw. Nativ+Downsampling bekommt immer den Vorzug, solange der Rechner das packt.

Nur am Laptop braucht die 3080 16GB ab und zu ein wenig "Überzeugung" für maximale Einstellungen mit RT; da sieht man die Nachteile auch wegen des kleineren Displays(15'/1440p) kaum und kann Tearing über Gsync/Freesync vermeiden. DLSS "Balanced" nutze ich dann, falls verfügbar; XeSS/FSR sind aber optisch nicht unterscheidbar(bei der Pixeldichte). Subjektiv ist XeSS aber ziemlich gut, da flimmern RT-Pfützen gefühlt nicht so hart, wie bei DLSS, FPS sind aber niedriger als mit DLSS.

Nativ ist aber optisch klar besser(objektiv->was nicht da ist wird nicht gerendert). Gerade mit KI-Upscaling entstehen ja Artefakte, weil etwas "da sein müsste" was nicht da ist(sieht subjektiv evtl. besser aus, aber entspricht nicht immer der dargestellten Szene). Wer ein gutes Bild will ohne "Halluzinationen" bleibt nativ oder greift zu Downsampling/SSAA, das ist nur leider das Gegenteil von High-FPS :P.
Einen Tod stirbt man da immer, je nach Spiel kann da die Priorität deshalb auch anders sein. Low Fps im Taktik-Shooter ist Mist, aber Singleplayerspiele(gerade langsamere Puzzlegames oder RPGs) sollen maximal gut aussehen.
 
Aber alleine da steigt doch, dass die Optimierung nicht ideal ist. Wenn das Game selbst auf mid range GPUs mit 60 FPS läuft und bei meiner 3090 TI vom 144 FPS (VSYNC) teilweise auf 60-70 Frames droppt, wenn ich die Stadt betrete.
Permanente Drops hatte ich nur in der Beta, in der finalen Version seit Release läuft es mindestens zu 95% ohne Probleme.

Nach Optimierung von settings bei D4 ist der Strombedarf auch runter gegangen. Dennoch nicht ideal… ist mir schon bei WoW aufgefallen.
WoW ist nur bei aktiviertem MSAA und in Gebieten mit viel Vegetation vergleichsweise fordernd. Die RT-Schatten sind zudem ein absurder Performancekiller für minimalen Gewinn bei der Optik, lohnt sich absolut null. Der Grafikstil von WoW profitiert kaum von guten Schatten, RT-GI würde deutlich mehr helfen.
 
DLSS mit FPS-Limit und Undervolting spart Strom und Wärme im Sommer, von der Optik hat sich DLSS toll entwickelt, man kann ein aktuelles DLSS und zusätzlich wenn möglich Frame Generation ruhig anschalten.
 
Das hier ist die Zukunft.....nennt sich Asynchronous Reprojection. Wird schon bei VR Brillen genutzt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
DLSS3 Frame Generation macht fast das gleiche.
 
Zurück