GPU GPUs - News, Tests, Treiber, etc.

GPU
Solange AMD in 2 Konsolen drinstecken dürfte es wohl schwierig werden sich da nur auf Nvidia zu konzentrieren. Eine Nintendo Switch wird kaum die allerneueste Nvidia Technik stemmen.

Klar, sie haben den PC Markt in Griff aber solange es weltweit immer noch starken Konsolenmarkt gibt glaube ich nicht dass man sich erlauben kann Games nur für RTX GPU zu optimieren bzw sich dann Arbeit zu sparen.

Früher hatten Konsolen komplett eigene Architektur die quasi auch proprietär war und PC Games erscheinen häufig erst 6 Monate später wegen der Hardwarebandbreite.

Innerhalb der PC Plattform kann es da natürlich zu fehlender Optimierung kommen. Bei über 90% Marktanteil ist kaum abzuwenden bei dem Ungleichgewicht. Glaube jetzt nicht dass es in den nächsten Jahren nur noch Games in Fallout 76 Optik erscheinen weil Nvidia Ki es eh hübscher macht. Würde dann auf PS6 und Next Xbox kaum gut ankommen und allen PC Handheld die AMD APU nutzen.
 
Ich möchte mal darauf hinweisen, dass durchaus eine Gefahr im Missbrauch der Monopolstellung seitens Nvidia - in Zukunft - entstehen könnte.

Was ich konkret damit meine, ist zum Beispiel, dass solche proprietäre Technik eine Zweiklassengesellschaft fördern könnte.
Das ist in der Tat eine Gefahr. Ich sehe es nur nicht so einseitig, indem man Nvidia allein die Schuld zuschiebt.

Vielleicht bin ich naiv, aber es herrschen doch eigentlich freie Marktverhältnisse, was hindert also Intel oder AMD daran mehr Geld in die Forschung neuer Techniken zu setzen, die dann den Markt aufmischen.
Ich bin da eh emotionslos. Mein Herz gehört keiner Firma und wenn AMD morgen die bessere GPU entwickelt, dann tschüss Nvidia.
Beitrag automatisch zusammengeführt:

Würde dann auf PS6 und Next Xbox kaum gut ankommen und allen PC Handheld die AMD APU nutzen.
Bin sehr gespannt, wie die Konkurrenz auf DLSS5 reagieren wird. Wenn es auch nur ansatzweise so ausschauen wird, wie im Showcase, wird es zwischen PC und Konsolen in Zukunft wieder krasse grafische Unterschiede geben. Das könnte PCs auch einen heftigen Boost verpassen.

Spätestens PS7 wird dann wahrscheinlich seitens AMD was ähnliches haben (FSR5?)
 
Das ist in der Tat eine Gefahr. Ich sehe es nur nicht so einseitig, indem man Nvidia allein die Schuld zuschiebt.

Vielleicht bin ich naiv, aber es herrschen doch eigentlich freie Marktverhältnisse, was hindert also Intel oder AMD daran mehr Geld in die Forschung neuer Techniken zu setzen, die dann den Markt aufmischen.
Ich bin da eh emotionslos. Mein Herz gehört keiner Firma und wenn AMD morgen die bessere GPU entwickelt, dann tschüss Nvidia.
Jensen Huang hat gesagt : "The fact that everything is scarce is fantastic for us."

Timestamped:

Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.

Nvidia hat einfach eine dominante Marktposition von >90% und Knappheit wird von Nvidia als Vorteil für das Unternehmen genutzt, weil sie höhere Preise und Gewinne ermöglicht.

EDIT:
Man könnte sogar soweit gehen und die Behauptung aufstellen, ob es seitens einer marktsteuernden Mega-Corp. nicht möglich wäre, den Markt absichtlich zu verknappen, um die Macht über- und Druck auf diesen weiter ausbauen zu können.
 
Zuletzt bearbeitet:
Spätestens PS7 wird dann wahrscheinlich seitens AMD was ähnliches haben (FSR5?)
Naja, da ML Hardwarebeschleunigung auch in den nächsten Konsolen sitzt würde ich nicht mal wetten dass es bis zu PS7 dauert. Wird man irgendwie auf AMD APU umsetzen können wenn da eine NPU drin ist. Vermutlich kannst es sogar in einer Lite Variante auf der PS5 Pro vielleicht machen.
 
Das ist in der Tat eine Gefahr. Ich sehe es nur nicht so einseitig, indem man Nvidia allein die Schuld zuschiebt.

Vielleicht bin ich naiv, aber es herrschen doch eigentlich freie Marktverhältnisse, was hindert also Intel oder AMD daran mehr Geld in die Forschung neuer Techniken zu setzen, die dann den Markt aufmischen.
So wollte ich das auch nicht ausdrücken, dass Nvidia da als alleiniger Schuldiger dasteht.

Es könnte sich aber eine Zukunft abzeichnen, wo Publisher sich genötigt sehen - aufgrund der proprietären Technik - Entwickler anzuweisen, nur noch auf eine bestimmte Technik hin zu optimieren und alles andere fällt dann hinten runter, zumindest im PC Bereich - Konsolen können sich da noch dagegen stemmen durch AMD.

Meine Kernaussage ist nur, man sollte Techniken - die evtl. mal deutlich invasiver einschreiten könnten, als sie es jetzt tun - immer auch mit einem kritischem Auge betrachten.
DLSS ist ohne Zweifel eine beeindruckende Technik und doch bin kritisch eingestellt, wenn diese Technik so invasiv in Spiele eingreift, wie jüngst Nvidia - wenn auch sehr plump und noch gar nicht Marktreif - gezeigt hat.
 
Wobei DLSS5 ja keine Implementierung direkt durch den Entwickler erfordert. Die "können" DLSS5 gleich anbieten und wohl in gewissen Rahmen konfigurieren. Müssen aber immer noch an Leute ohne die passende GPU denken und somit DLSS 4 und FSR anbieten.

AMD kann selber so eine Art "Filter" entwickeln der sich per Treiber auf das Grundgerüst des Games anwenden lässt. Glaube hier hat Nvidia viel weniger Möglichkeiten es alleine für sich zu beanspruchen. Da scheinbar nicht fest im Game gleich integriert wird. Übersehe ich da jetzt etwas? Bisher scheint es doch eher optionale Sache zu sein.
 
Zuletzt bearbeitet:
Ich freue mich auf jeden Fall schon mal sehr im Herbst Phantom Blade 0 und RE Requiem nochmal mit DLSS5 auszuprobieren. Glaube zwar, dass das ohne Ende laggen wird, wie Frame Generation, aber mich interessiert schon sehr, wie sich die Optik auf das Spielerlebnis auswirken wird. Gerade Requiem würde diese realistische Beleuchtung extrem atmosphärischer gestalten. Kann es kaum abwarten. Hoffentlich kommt es Anfang Herbst.
 
Hier gibt es 12 Minuten ungeschnittenes Material zu DLSS5 in Starfield:
Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.

Ich finde das sieht grandios aus speziell die ganze Beleuchtung.
 
Um hier einem Missversänbdnis vorzubeugen - welcher Ton?
Immer möglich etwas in den falschen Hals zu bekommen.

Ist aber auch egal. Ich möchte hier nicht den Oberlehrer mimen; nur wenn wir hier so ausgiebig diskutieren, möchte ich wissen, worüber und warum.
Lassen wir das, wird für ein Forum auch zu lang.
Darum nochmal, meinerseits bestand da kein Unterton, sondern Interesse daran, zu erfahren, warum du die angesprochenen Punkte in den Videos nicht für valide bzw. nachvollziehbar hältst.
Ok. ;)
Da bin ich mir halt einfach nicht so sicher.
Das ist erstmal die Aussage von Nvidia und bisher gibt es keine haltbare Begründung das anzuzweifeln.
Natürlich gibt es irgendwo eine Logik dahinter, die DLSS5 sagt, wo und wie viel Schattierung hier und da jetzt nötig ist. Aber diese Logik beruht auf Datensätzen von Bildern wie Gesichtern, Haaren, Stoffen und nicht auf echten Berechnungen von beispielsweise Lichtquellen. Aber wie schon beschrieben, die große, neue Reflexion in Graces Auge beruht auf keine Berechnung der Lichtquelle, sondern darauf, dass sich DLSS5 denkt, dass es so fotorealisitscher aussieht, so ist das Modell trainiert. DLSS5 hat nur den 2D Frame und keine 3D Informationen über die Szene, also sonst nichts, was außerhalb des Bildes liegt.
Foto aus welchem Post meinst du nochmal?
Wenn du Post 617 meinst, dann ist da sehrwohl eine Lichtquelle. Die laut Aussage Nvidia, auf Position usw. zurück berechnet wird. Diese wurde nicht neu erfunden.
Das sind zumindest die Informationen, die man den Fragen und Antworten des Videos entnehmen kann.
Die man auch anders interpretieren kann.
Ja darauf darf man gespannt sein. Es steht und fällt mit den Möglichkeiten, dieses Modell frei an die eigenen Bedürfnisse anzupassen.
Bisher wissen wir davon aber nicht viel und wir sehen nur die Bullshots, die NVIDIA präsentiert hat.


DLSS 5 hat keinen Zugriff auf die 3D-Geometrie, Lichtquellen oder das PBR aus dem Spiel.
Sage ich ja nicht. Diese Informationen sollen laut Nvidia aus dem Bild zurück berechnet werden. So Nvidia liegen diese Daten ja doch vor, halt im Bild. Wenn das gut gemacht / funktioniert, spricht da nichts gegen. Wobei ich theoretisch gedacht hätte das es so aufwendiger wird und nicht einfacher.
Es bekommt nur das fertig vorgerenderte 2D-Bild und die Bewegungsdaten geliefert
Die KI versucht zwar, Dinge wie Charaktere, Haare oder Stoffe aus diesem Bild zu erkennen, aber sie rekonstruiert oder nutzt nicht die originale 3D-Struktur oder Materialien.
Stattdessen erzeugt sie einfach ein neues Bild, das "fotorealistischer" aussehen soll, basierend auf dem, worauf sie trainiert wurde.


Ein paar Probleme, die ich sehe:

Die Befürchtung ist, dass Entwickler keine echte Kontrolle über die DLSS5 Interpretation des Outputs bekommen könnten.
Da gibt es bisher nur die Zusage von Nvidia das die volle Kontrolle beim Entwickler liegt.
Die KI könnte Inhalte dazudichten, da sie diese aufgrund ihres Trainings an bestimmten Stellen für angebracht hält, siehe die Frisur des Starfield-Charakters.
Wie gesagt, beim späteren Einsatz entscheidet der Entwickler.
Hast du ein Bild Vergleich zu der Frisur? Dannn würde man sicher an einem Beispiel über das selbe reden.
Die KI interpretiert Konturen falsch und gibt dadurch Fehler aus, wie der verschwindende Arm des Fußballspielers
Schaue ich mir nochmal an. Aber klar, auch DLSS5 wird mit der Zeit noch weiter reifen.
Originale PBR Informationen werden vom Output der KI-Interpretation überschrieben, es entstehen zwar fotorealistischere, aber falsche Reflexionen.
Spiele könnten dadurch zu einem optischen Einheitsbrei verwässern
Hilf mir bitte kurz auf die Sprünge. PBR.
Anhand der Informationen, die NVIDIA durch ihre Antworten an den Youtuber weiter oben (ich kenne nichtmal seinen Namen) geschickt hat, entsteht ein anderer Eindruck.
DLSS5 rekonstruiert keine Lichtquellenpositionen, es inferiert nur, wie Licht und Schatten aussehen könnten.
Es gab Antworten auch an anderer Stelle.
Halte ich anhand der durch Nvidia getätigten Aussagen für falsch. Kann sein, das die Antworten bei Daniel Owen das so suggerieren. ich bekomme jetzt auch nicht alle Quellen aus dem Kopf rekonstruiert. Aber an anderer Stelle hat Nvidia auch schon gesagt, das alle Informationen, nach denen gefragt wurde, DLSS5 sich aus dem Bild zurück rechnet. Aussage Herr Lederjacke in irgendeiner Pressekonferenz.
Es ist beeindruckend, das finde ich auch, gerade die Vorstellung, soetwas lokal bei Bewegtbildern zu sehen.
Aber im Kern finde ich die Herangehensweise, Umsetzung und Motivation fraglich. Diese Kritik versuche ich hier zu verdeutlichen.
Welche Motivation, herangehensweise denn?
Ich glaube hier wird bei manchen etwas vermischt und zwar das was bisher bekannt unterschiedlich interpretiert wird, mit einer Erwartungshaltung.
Bei allem was ich bisher an Aussagen, von Nvidia gelesen, gehört habe kommt ein anderes Gesamtbild heraus und dadurch treffen hier dann natürlich Welten aufeinander.

Wenn dem so wäre, dass
Youtuber XY fünf Fragen an Nvidia gestellt hat, darauf Antworten bekommen hat, diese dann bei auf zwei Arten interpretiert werden können und an anderer Stelle Nvidia klar, auf eine andere Frage geantwortet hat, die die anderen Fragen beinhaltet, oder abdeckt. Dann ist schnell klar, warum in den Foren dieser Welt die DLSS5 Hütte brennt.
Ich habe oben schon einige Mängel benannt.
Es gibt für DLSS5 allerdings keine Lichtquellen, darum funktioniert das auch nicht sehr gut.
Wie schon geschrieben, laut Lederjacke, zieht sich DLSS5 aus den Informationen, die man aus dem Ursprungsbild ziehen kann. Auch Lichtquellen usw.. Darum funktioniert das auch schon so verdammt gut. ;) (Spaß am Rande muss erlaubt sein)
Was DLSS 5 macht, ist, ein Bild zu generieren, das fotorealistisch aussehen soll - aber das gelingt nur oberflächlich, weil es keine echten Lichtquellen oder Materialien kennt.
Laut Lederjacke ist das nicht das was DLSS5 macht und auch nicht was ich am Lichtquellen-Grace-Auge-Post sehe. Denn ich sehe im Ursprungsbild, das sich Lichtquelle in Position und intensität durchaus ableiten lassen würden. Dazu die Aussagen, von Lederjacke.
Den Rest wird die Praxis später zeigen.
Da bin ich mir nicht so sicher.
Ach doch, wenn man bedenkt, das die lauten immer in der Masse nur einen kleinen Teil ausmachen. (Du bist damit nicht gemeint)
Es gibt glaube ich noch keinen Entwickler, der selber Hand angelegt hat und quasi ein Optimum seines Spiels unter DLSS5 gezeigt hat.
Daher gibt bisher in den gezigten Szenen NVIDIA vor, wie DLSS5 über den Look des Spiels entscheidet.
Meiner Meinung nach eine falsche Aussage ;)
Ich würde es so sehen,
Das Nvidia in den gezeigten Szenen nur einen Ausblick gibt, wie DLSS5 aussehen kann. Denn DLSS5 entscheidet nicht selber. DLSS5 ist kein unkontrollierter Filter.
Ich find die Diskussion ja auch spannend. Aktuell sehe ich es als zweischneidiges Schwert, dessen Balance noch nicht stimmt. Bin also noch skeptisch und kritisch, bis mir das Gegenteil bewiesen wird. :Vulkan:
Ich nehme es als den möglichen Ausblick (weil auch die Aussage steht, das der Entwickler die volle Kontrolle behält) und auf der Basis ist es schlicht beeindruckend und macht viel Lust auf mehr und wie es die Entwickler dann die ersten male einsetzen.

"Lebe lang und in Frieden"
 
Zurück
Oben