Theme editor

GPU GPUs - News, Tests, Treiber, etc.

GPU
Wie ist eigentlich eure Erfahrung, mit den dargestellten, vielen Frames und den gefühlten an der Maus?
Kann nur das "normale" FG benutzen, da 4070. Hatte das in Dying Light the Beast benutzt und jetzt gerade aktuell in Atomic Heart - was ich sogar mit Controller spiele - und merke keinen Input-Lag, bzw irgendeine Input-Verzögerung.
Grund FPS liegen aber auch schon über 60 FPS.
 
x2 ist nur FG, MFG ist alles ab x3.

Aber die Aussage passt irgendwie nicht, wie kannst Du x2 nicht bemerken und x3 z.Bsp. schon?

Um das mal zu visualisieren anhand von gemessenen Werten:

2025-01-27-image-2-p.webp



In Star Wars Outlaws haben wir hier bei einer Basisframerate von 109 ohne FG/MFG eine Latenz von 23.4, bei FG (also x2) steigt dieser auf 29.6, das ist eine Steigerung von 26,5% der Latenz. Von x2 auf x3 steigt dieser lediglich weitere 4%, auf x4 lediglich um weitere 3,9%.



Ein weiteres Beispiel (Hogwarts Legacy) mit niedrigerer Basisframerate (78):

2025-01-27-image-3-p.webp



Hier beträgt der Sprung auf x2 etwa 16,7%, auf x3 5,5% und auf x4 4,2%.

Worauf ich hinaus will:

Je höher die MFG Multiplikator, desto geringer die Auswirkung auf die Latenz, den größten Sprung gibt es immer beim Einschalten von FG, also x2.

Daher würde ich dazu raten wenn man schon FG einschaltet, dass dieser ruhig so eingestellt werden kann damit die maximale Bildwiederholfrequenz erreicht wird. Die 3-5% mehr Latenz die man bei höherem MFG Multiplikator hat wird man nicht merken wenn sich x2, also FG bereits gut anfühlt.

Das einzige was sehr wohl passieren kann sind Bildfehler bei höherem MFG Multiplikator, die halten sich bei DLSS 4.0 bereits meiner Meinung nach in Grenzen, mit 4.5 sowieso.

Wie ist eigentlich eure Erfahrung, mit den dargestellten, vielen Frames und den gefühlten an der Maus?

Grüße
Ich nutze in jedem Spiel eine Kombination aus DLDSR (AI Downsampling), DLSS und wenn vorhanden FG/MFG. Lediglich in MP Spielen wie z.Bsp. Battlefield 6 nutze ich kein FG, da ist jede ms Latenz zu viel schlecht. Aber in SP Spielen wo Grafik und Bildqualität wichtiger sind nutze ich es immer, und erreiche dadurch echt ein tolles Bild. Speziell jetzt mit DLSS 4.5 wo selbst der Performance Mode den alten Quality Mode übertrifft und damit jede Menge Performance freischaufelt.
 
image.webp

Bist du dir sicher das es Hogwarts Legacy ist?
;)
 
Ach Cyberpunk meine ich
:Fresse:




Interessant:

DLSS Performance 4.5 mit M Preset ist in 1440P besser als FSR4 Quality:

Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.



Das ist eigentlich katastrophal für AMD, denn damit hat Nvidia effektiv noch mehr an Leistung dazu gewonnen, die bessere Bildqualität gibt es für deutlich mehr FPS.
 
Zuletzt bearbeitet von einem Moderator:
x2 ist nur FG, MFG ist alles ab x3.

Aber die Aussage passt irgendwie nicht, wie kannst Du x2 nicht bemerken und x3 z.Bsp. schon?
x3 hatte ich gar nicht ausprobiert. Auf x4 eingestellt fingen die HUD Symbole an sich zu verzerren und die Eingabe indirekter zu werden. Auf x2 war wieder alles gut.
 
Wenn AMD wieder erst nach Nvidia dran ist kann es nicht gut für die PR sein. Somit auch nicht für die Marktanteile. Dieses "Hinterherrennen" in Sachen Veröffentlichung von Hardware und Softwarefeatures kann kaum förderlich sein. Schade da AMD auch mal Vorreiter war und Nvidia bei DX12 was vorführen konnte.

Mal sehen was diese ganze Entwicklung dann auch für PS6/Next Xbox bedeutet. Aber da dürfte klar sein dass es eh wieder nur Teile der neuen Architektur werden aber nicht die volle Entwicklungsstufe.
 
Thread owner
Es ist einfach unglaublich, wie weit nVidia AMD voraus sind. Und im Gegensatz zu Intel vs AMD bei CPUs verharrt Jensen auch nicht im Winterschlaf. Ich denke nicht, dass AMD das zu Jensens Lebzeiten noch aufholen kann. Wenn, dann nur, weil sie eine völlig neue Technologie entwickeln, aber auch dann ist wieder das Problem, was AMD schon seit jeher hat, dass es sich erstmal verbreiten muss...
 
Das ist richtig, aber wenn Nvidia alleine läuft, haben wir wieder das Thema Alleinstellung da und somit kosten dann die Karten 30-40% mehr, weil sie es können. Ich hoffe daher selbst wenn weit abgeschlagen immer Konkurrenz da ist, um die Preise in einem für heutige Verhältnisse im Rahmen zu halten. Das gute bei mir ich bin ein 60/120FPS Zocker. Ich brauche keine 3999 FPS. Kann auch Games mit 40FPS zocken auch wenn das schon wirklich meine Schmerzgrenze ist.
 
Über die Konsolen können sie sich auch nicht groß vermarkten. Steht halt für die breite Masse nicht fett "AMD" drauf. Selbst wenn kaufen sie dann meist keinen Gaming-Rechner mit dedizierter GPU nebenher.

Die stecken da wirklich in einem Kreislauf drin wo man schon auf größeren Fehler das Marktführers hoffen muss den man nicht so schnell ausbügeln kann. Wie es halt bei Intel mit den CPUs gelaufen ist.

Mir ist es ja auch egal welcher Hersteller in meinem Rechner steckt und habe ja Mischung drin. Aber es war auch bei RDNA4 schon der Ticken Unsicherheit wie schnell und gut AMD da Features langfristig umsetzt. Momentan sorgen sie ja leider beim RDNA2 und RDNA3 Support für nicht ideales Marketing.

GPU Sparte ist halt leider noch nicht so weit wie der CPU Bereich.
 
Es ist einfach unglaublich, wie weit nVidia AMD voraus sind. Und im Gegensatz zu Intel vs AMD bei CPUs verharrt Jensen auch nicht im Winterschlaf.
Der Winterschlaf bei den blauen hat so langsam sein Ende gefunden:

Core Ultra 300; Erste Intel Arc B390 Benchmarks - ComputerBase

In dem Gesamtpaket hat AMD da gerade nichts entgegen zu setzen und lässt erahnen was mit den großen Chips möglicherweise auf AMD zu kommt.

+ Dem Punkt das sie auf ihren Chips immer noch kein FSR4 freigegeben haben.

Da ist Intel dann mit MFG und XeSS ebenfalls voraus.



Keine Ahnung warum die roten Jungs so dermaßen pennen... Schade. Aber vielleicht kommt da - endlich - was.
 
Wenn AMD wieder erst nach Nvidia dran ist kann es nicht gut für die PR sein. Somit auch nicht für die Marktanteile. Dieses "Hinterherrennen" in Sachen Veröffentlichung von Hardware und Softwarefeatures kann kaum förderlich sein. Schade da AMD auch mal Vorreiter war und Nvidia bei DX12 was vorführen konnte.

Mal sehen was diese ganze Entwicklung dann auch für PS6/Next Xbox bedeutet. Aber da dürfte klar sein dass es eh wieder nur Teile der neuen Architektur werden aber nicht die volle Entwicklungsstufe.
Ich sehe das nicht so schlimm, schließlich hat sich AMD aus dem HighEnd Rennen verabschiedet. Vielleicht kriegen sie ja mal die Kurve und orientieren sich mehr an guten P/L Karten. Im 300 - 500er Bereich denke ich gäbe es massive Möglichkeiten sich breit zu machen und das haben sie, nach meiner Einschätzung in der aktuellen Gen auch gemacht.

Ich bin grundsätzlich gespannt wie sich die Preise entwickeln, man liest ja so Einiges, dass GPUs ab diesem Jahr deutlich teurer werden sollen.

Grüße
 
Der Winterschlaf bei den blauen hat so langsam sein Ende gefunden:

Core Ultra 300; Erste Intel Arc B390 Benchmarks - ComputerBase

In dem Gesamtpaket hat AMD da gerade nichts entgegen zu setzen und lässt erahnen was mit den großen Chips möglicherweise auf AMD zu kommt.

+ Dem Punkt das sie auf ihren Chips immer noch kein FSR4 freigegeben haben.

Da ist Intel dann mit MFG und XeSS ebenfalls voraus.



Keine Ahnung warum die roten Jungs so dermaßen pennen... Schade. Aber vielleicht kommt da - endlich - was.
Und genau das ist doch der Punkt. Werden hier MFG und XeSS mit FSR3 verglichen? Das sagt ja nichts über die eigentliche Leistung mehr aus, sondern nur noch, wer die geilere Software hat. Ich finde das schwierig.

Grüße
 
Netzteile und Kühler etc auch, dank Verteuerungen von Kupfer u.a.

Ums kurz zu machen: Es wird alles teurer. Insbesondere Geräte mit Arbeits/Flashspeicher.

Und genau das ist doch der Punkt. Werden hier MFG und XeSS mit FSR3 verglichen? Das sagt ja nichts über die eigentliche Leistung mehr aus, sondern nur noch, wer die geilere Software hat. Ich finde das schwierig.

Grüße
Find ich nicht schwierig, weil die Software immer mehr mit verantwortlich ist für das gebotene Bild + Leistung.

Was bringt mir die beste Rohleistung wenn das Bild unterm Strich aussieht wie Minecraft?

Oder ich aber derartig viel Rohleistung bräuchte - das die Effezienz derartig in den Keller geht weil die Konkurrenz das selbe Bild+Leistung mit eben bedeutend weniger Verbrauch erreicht. Oder anders gesagt, ihre Rohleistung effizienter nutzt für mehr FPS bei anständigen Bild als man selbst zu leisten vermag.

Das Komplett Paket ist immer bedeutsamer.
 
@DaStash

High-End macht aber gar nicht den größen Umsatz.

Ganze sind ja die unteren Klassen die Kohle bringen. Aber ohne PR durch High-End und neue Features vor der Konkurrenz verkaufst nicht plötzlich gleich viel 9060, 9070 (XT) wie die Konkurrenz.

Wirkt sich auf das gesamte Image aus. Ohne dass man da mit Sachen vor Nvidia ins Gespräch kommt wird sich auch im PC Bereich der blinde Griff zu Team Green nicht aufbrechen lassen.

Bei Intel hat man gesehen dass man es drehen kann. Intel selber macht die Aufholjagt gerade bei den APUs Markt. Unmöglich ist es nicht. AMD legt halt zu spät bei den GPUs nach bzw macht einen langen Support teils schwierig.

Vorher waren sie mit "Fine Wine" als Vorreiter da, jetzt brauchte man 2 GPU Gens um überhaupt aufhardwarebeschleunigtes Upscaling/MFG umzustellen. Harte Cut kam viel zu spät und ganzen RDNA2/RDNA3 Besitzer bekommen nicht mal ein Fallback auch wenn es etwas langsamer läuft. Muss wieder die Community wie mit Optiscaler ran. Wirkt nach Außen nicht ideal.
 
Netzteile und Kühler etc auch, dank Verteuerungen von Kupfer u.a.

Ums kurz zu machen: Es wird alles teurer. Insbesondere Geräte mit Arbeits/Flashspeicher.

Find ich nicht schwierig, weil die Software immer mehr mit verantwortlich ist für das gebotene Bild + Leistung.

Was bringt mir die beste Rohleistung wenn das Bild unterm Strich aussieht wie Minecraft?

Oder ich aber derartig viel Rohleistung bräuchte - das die Effezienz derartig in den Keller geht weil die Konkurrenz das selbe Bild+Leistung mit eben bedeutend weniger Verbrauch erreicht.
Verrückt, dann können Konsolen auch deutlich teurer werden und halten immer noch den relativen Abstand ein. Also nichts mehr mit 600 € Release Preis.

Grüße
 
Haltet mich für doof aber Highend interessiert mich heute gar nicht mehr! Klar würde ich eine 5090 nicht aus dem Fenster werfen wenn ich eine bekommen würde! Aber ich habe mir in den letzten Jahren wirklich angewöhnt eine Mittelklasse oder eine höhere Mittelklasse zu kaufen anstatt auf das High End Produkt zu setzen. Bei mir war es dann so, dass ich trotz High End mir trotzdem die neue High End Karte bei einer neuen Gen geholt habe, obwohl 10-20% nur Mehrleistung da waren.

Bei Mittelklasse merkst du den Sprung zur neuen Gen dann besser. Selbstverständlich muss man an den Settings schrauben aber da sind wir wieder bei der Glaubensfrage wie viele Prozent der User erkennen wirklich den Unterschied zwischen "Ultra vs. Sehr hoch"
 
Verrückt, dann können Konsolen auch deutlich teurer werden und halten immer noch den relativen Abstand ein. Also nichts mehr mit 600 € Release Preis.

Grüße
Stell dich eher auf 800 bis 1000Euro ein ^^. Ich weiß da werden jetzt einige sagen Mainstream und Konsolen sind für das Volk aber solange die Preise machen können was sie wollen, werden wir keine Konsolen mehr für 499€ sehen.
 
Zurück
Oben Unten