News DLSS/DLAA + FSR 3 Frame Generation: Ghost of Tsushima macht es erstmals möglich

Wie nutzt du Radeon Chill, also welche Einstellungen bzw FPS bei Min und Max? Hab mich damit nie wirklich auseinandergesetzt, hab im Treiber einfach nen Framelimit (Steuerung der Zielbildfrequenz) von 120 drin.

Bei dem Spiel jetzt mit 60 min und 70 max.
Früher habe ich chill meistens nur als Limiter benutzt. Aber so lässt sich echt ne Menge Strom sparen. Wenn du stehst, dich langsam bewegst oder in cutscenes reichen 60 ja locker.
Wieso gibt's eigentlich bei fsr kein ultra quality mehr?
 
Zuletzt bearbeitet:
Mit FSR könnte es ggf noch mehr Probleme mit anderen Programmen geben. Hab via parsec mit meinem gaming PC verbunden da ich unter der Woche aktuell außerhalb von zuhause agiere und mir ist das Spiel 30x im splash screen gecrasht bzw zeigte nur nen blackscreen mit Hintergrundsounds bis zum nixxes splash art. Spätestens dann ging es selbst akkustisch nicht mehr weiter....

Der launcher erschien leider nach dem ersten mal nicht mehr obwohl ich explizit nicht den haken gesetzt hatte. So konnte ich erst frame generation nach dems beim 30. Lief abschalten.

Ich muss aber noch weitere tests durchführen ggf ging auch was bei der Installroutine schief. Nach dem das Spiel ging hatte ich aber keinen Lust weitere Tests durchzuführen.... Übers Wochenende würde ich weitere Erkenntnisse teilen....

Das lob dürfte aber wohl eher an sucker punch gehen. Die haben ja bereits auf der ps4 mit ultra langsamer hdd geschafft dass das spiel flussig und schnell lädt....

Geschafft haben sie das unter anderem durch gezielte Redundanz von Dateien um zugehörige Dateien nah beeinander liegen zu haben und somit die Zugriffszeiten zu verkürzen. Hab ich mal in nem tech video gehört.

Dlaa ist in meinen Augen aktuell die beste AA Methode und basiert dabei auf dlss. Insofern ja. Hätte auch nicht gedacht mich eines Tages über die Technologie zu freuen :)

Kann ich bestätigen. Gelegentlich wenn die szenerie stark wechselt merkt man kurze performance einbrüche welche meiner Vermutung nach hervorgerufen werden wenn der vram die neuen Daten zu spät erhält. Aber toi toi toi wenns läuft dann läufts. (vega 64 8gb vram)
Also jetzt kann ich es mit Sicherheit sagen. Frame Generation lässt meine Vega 64 zuverlässig das Spiel crashen. Schade, die paar Sekunden die es gerade eben lief sah Performance, Input etc. eigentlich echt toll aus. Naja dann halt ohne :D Vermutlich ist deshalb auch ne 5500XT als Minimalvoraussetzung bei AMD angegeben obwohl die Leistungstechnisch weit hinter einer vega 64 liegt...
 
Das sind doch mal gute News. Ich hatte mich schon damit abgefunden das ich es erst Ende dieses Anfang nächstes Jahr zocken kann wenn ein neuer PC kommt. Aber so bin ich doch geneigt es zumindestensmal anzutesten mit meinr RTX 2080 und UWQHD Monitor.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

MfG
Raff
 
Wow, GoT läuft ja wirklich fantastisch. =)

Hab den Prolog gespielt in 4K + DLSS Quality und sonst alles auf Anschlag was geht.
Ergebnis: Je nach Spielsituation zwischen 70 und 100 fps - ohne FG und, Achtung, im Stromsparprofil meiner 4080 (=2400 MHz, 0,925v, 180W cap)!

Das ist bei der gebotenen Grafik ja irre gut. :what:


...und die CPU steht bei allcore 3600 MHz@1v (ebenfalls Sparprofil) und bleibt unter 50W und in aller Regel unter 15% Auslastung. GoT läuft CPU-seitig anscheinend auf ner Kartoffel.
 
Nun frage ich mich WARUM Fake Frames den nicht mit NV 2XXX und 3XXX geht wenn es doch mit AMD Software geht?

Na wer glaubt jetzt auch NV verarscht uns....
 
Wow, GoT läuft ja wirklich fantastisch. =)

Hab den Prolog gespielt in 4K + DLSS Quality und sonst alles auf Anschlag was geht.
Ergebnis: Je nach Spielsituation zwischen 70 und 100 fps - ohne FG und, Achtung, im Stromsparprofil meiner 4080 (=2400 MHz, 0,925v, 180W cap)!
Jo, das Spiel zählt nicht zu den Brutalo-Heizern. Ich habe auf meiner RTX 4090 @ ULV auch höchstens ~250 Watt gesehen, meist um 220 herum (die härtesten Spiele fordern 300 Watt).

Nun, nach vier Stunden, bin ich zwar restlos von den Qualitäten des Spiels überzeugt - allen voran der Art Style und die herrlich flüssige Präsentation -, allerdings habe ich immer noch keinen echten GPU-Worstcase gefunden. Bricht's bei jemandem auffällig ein? Falls ja, würde ich gerne mal ein Save ausprobieren, eventuell lassen die sich übertragen ... :-)

MfG
Raff
 
Nun frage ich mich WARUM Fake Frames den nicht mit NV 2XXX und 3XXX geht wenn es doch mit AMD Software geht?

Na wer glaubt jetzt auch NV verarscht uns....
AMDs Frame Generation hat halt deutlich höhere Latenzen.
Und oft Ghosting ohne Ende gerade, wenn viele Details da sind die sich bewegen.
Ich weiß ja nicht was gut optimiert sein soll heute!
Es ist ein PS4 Spiel das Grafisch aufgewertet wurde, aber viel ist das nicht.
Das man 4K nativ nicht mal einer 4070 ohne DLSS mit 60 Fps konstant hinbekommt ist alles andere als gut Optimiert!

Die 4070 ist 3 mal so schnell wie eine PS4 und es ist Problem das es nativ 4K 60 Fps läuft?
Nur weil etwas mit Ai Getrickste läuft ist es doch nicht gut.

Es besteht aus niedrigen Texturen und Copy Paste Grass und Bäumen.
Das sollte schon echt besser laufen, mindestens sollte das auf einer 1080ti noch in 4K 60 laufen.
Wenn nicht auf Ultra dann auf High, aber das tut es trotzdem nicht.
Dann wäre es optimiert und nicht wenn man auf solchen GPUs DLSS einsetzen muss.
DLSS sollte erst benutz werden müssen wenn RT oben drauf kommt.

Außerdem ohne DLAA sieht es schrecklich aus.
 
Zuletzt bearbeitet:
Jo, das Spiel zählt nicht zu den Brutalo-Heizern. Ich habe auf meiner RTX 4090 @ ULV auch höchstens ~250 Watt gesehen, meist um 220 herum (die härtesten Spiele fordern 300 Watt).

Nun, nach vier Stunden, bin ich zwar restlos von den Qualitäten des Spiels überzeugt - allen voran der Art Style und die herrlich flüssige Präsentation -, allerdings habe ich immer noch keinen echten GPU-Worstcase gefunden. Bricht's bei jemandem auffällig ein? Falls ja, würde ich gerne mal ein Save ausprobieren, eventuell lassen die sich übertragen ... :-)

MfG
Raff
momentan habe ich ca. 3-4 stunden gespielt und keine auffälligkeiten festgestellt. ich spiele das spiel auf einer 6800 mit 3600x und da laufen und bisher hat das spiel nicht die 60 fps marke unterschritten oder mal einen sehr hohen anstieg der auslastung gezeigt, in sehr hohen einstellungen und 2k auflösung. empfohlen sind bei der grafikkarte ja die hohen einstellungen. von daher kann man auch von gut gesetzten systamanforderungen sprechen, die ja oftmals nicht so gut hinhauen. welche kantenglättungsmethode würdest du empfehlen? mfg
 
Nun, nach vier Stunden, bin ich zwar restlos von den Qualitäten des Spiels überzeugt - allen voran der Art Style und die herrlich flüssige Präsentation -, allerdings habe ich immer noch keinen echten GPU-Worstcase gefunden.

Bei Horizon Forbidden West ist die Siedlung Flottenende im Burning Shores DLC der absolute CPU Worstcase, also noch schlimmer als eure Szene. Vielleicht wartest du, bis du im DLC Ikki Island bist, nach Erledigung des ersten Gebiets.
 
bin pos. überrascht von dem Spiel - bisher passt alles.

allerdings habe ich immer noch keinen echten GPU-Worstcase gefunden. Bricht's bei jemandem auffällig ein? Falls ja, würde ich gerne mal ein Save ausprobieren, eventuell lassen die sich übertragen
bisher durchgehend bei 100 - 130 fps, wenn 100 fps der Worstcase ist ? i guess not :-D ( WQHD + DLAA )
Ich werde mal weiter beobachten.
 
Zurück