Um hier einem Missversänbdnis vorzubeugen - welcher Ton?
Immer möglich etwas in den falschen Hals zu bekommen.
Ist aber auch egal. Ich möchte hier nicht den Oberlehrer mimen; nur wenn wir hier so ausgiebig diskutieren, möchte ich wissen, worüber und warum.
Lassen wir das, wird für ein Forum auch zu lang.
Darum nochmal, meinerseits bestand da kein Unterton, sondern Interesse daran, zu erfahren, warum du die angesprochenen Punkte in den Videos nicht für valide bzw. nachvollziehbar hältst.
Ok.
Da bin ich mir halt einfach nicht so sicher.
Das ist erstmal die Aussage von Nvidia und bisher gibt es keine haltbare Begründung das anzuzweifeln.
Natürlich gibt es irgendwo eine Logik dahinter, die DLSS5 sagt, wo und wie viel Schattierung hier und da jetzt nötig ist. Aber diese Logik beruht auf Datensätzen von Bildern wie Gesichtern, Haaren, Stoffen und nicht auf echten Berechnungen von beispielsweise Lichtquellen. Aber wie schon beschrieben, die große, neue Reflexion in Graces Auge beruht auf keine Berechnung der Lichtquelle, sondern darauf, dass sich DLSS5 denkt, dass es so fotorealisitscher aussieht, so ist das Modell trainiert. DLSS5 hat nur den 2D Frame und keine 3D Informationen über die Szene, also sonst nichts, was außerhalb des Bildes liegt.
Foto aus welchem Post meinst du nochmal?
Wenn du Post 617 meinst, dann ist da sehrwohl eine Lichtquelle. Die laut Aussage Nvidia, auf Position usw. zurück berechnet wird. Diese wurde nicht neu erfunden.
Das sind zumindest die Informationen, die man den Fragen und Antworten des Videos entnehmen kann.
Die man auch anders interpretieren kann.
Ja darauf darf man gespannt sein. Es steht und fällt mit den Möglichkeiten, dieses Modell frei an die eigenen Bedürfnisse anzupassen.
Bisher wissen wir davon aber nicht viel und wir sehen nur die Bullshots, die NVIDIA präsentiert hat.
DLSS 5 hat keinen Zugriff auf die 3D-Geometrie, Lichtquellen oder das PBR aus dem Spiel.
Sage ich ja nicht. Diese Informationen sollen laut Nvidia aus dem Bild zurück berechnet werden. So Nvidia liegen diese Daten ja doch vor, halt im Bild. Wenn das gut gemacht / funktioniert, spricht da nichts gegen. Wobei ich theoretisch gedacht hätte das es so aufwendiger wird und nicht einfacher.
Es bekommt nur das fertig vorgerenderte 2D-Bild und die Bewegungsdaten geliefert
Die KI versucht zwar, Dinge wie Charaktere, Haare oder Stoffe aus diesem Bild zu erkennen, aber sie rekonstruiert oder nutzt nicht die originale 3D-Struktur oder Materialien.
Stattdessen erzeugt sie einfach ein neues Bild, das "fotorealistischer" aussehen soll, basierend auf dem, worauf sie trainiert wurde.
Ein paar Probleme, die ich sehe:
Die Befürchtung ist, dass Entwickler keine echte Kontrolle über die DLSS5 Interpretation des Outputs bekommen könnten.
Da gibt es bisher nur die Zusage von Nvidia das die volle Kontrolle beim Entwickler liegt.
Die KI könnte Inhalte dazudichten, da sie diese aufgrund ihres Trainings an bestimmten Stellen für angebracht hält, siehe die Frisur des Starfield-Charakters.
Wie gesagt, beim späteren Einsatz entscheidet der Entwickler.
Hast du ein Bild Vergleich zu der Frisur? Dannn würde man sicher an einem Beispiel über das selbe reden.
Die KI interpretiert Konturen falsch und gibt dadurch Fehler aus, wie der verschwindende Arm des Fußballspielers
Schaue ich mir nochmal an. Aber klar, auch DLSS5 wird mit der Zeit noch weiter reifen.
Originale PBR Informationen werden vom Output der KI-Interpretation überschrieben, es entstehen zwar fotorealistischere, aber falsche Reflexionen.
Spiele könnten dadurch zu einem optischen Einheitsbrei verwässern
Hilf mir bitte kurz auf die Sprünge. PBR.
Anhand der Informationen, die NVIDIA durch ihre Antworten an den Youtuber weiter oben (ich kenne nichtmal seinen Namen) geschickt hat, entsteht ein anderer Eindruck.
DLSS5 rekonstruiert keine Lichtquellenpositionen, es inferiert nur, wie Licht und Schatten aussehen könnten.
Es gab Antworten auch an anderer Stelle.
Halte ich anhand der durch Nvidia getätigten Aussagen für falsch. Kann sein, das die Antworten bei Daniel Owen das so suggerieren. ich bekomme jetzt auch nicht alle Quellen aus dem Kopf rekonstruiert. Aber an anderer Stelle hat Nvidia auch schon gesagt, das alle Informationen, nach denen gefragt wurde, DLSS5 sich aus dem Bild zurück rechnet. Aussage Herr Lederjacke in irgendeiner Pressekonferenz.
Es ist beeindruckend, das finde ich auch, gerade die Vorstellung, soetwas lokal bei Bewegtbildern zu sehen.
Aber im Kern finde ich die Herangehensweise, Umsetzung und Motivation fraglich. Diese Kritik versuche ich hier zu verdeutlichen.
Welche Motivation, herangehensweise denn?
Ich glaube hier wird bei manchen etwas vermischt und zwar das was bisher bekannt unterschiedlich interpretiert wird, mit einer Erwartungshaltung.
Bei allem was ich bisher an Aussagen, von Nvidia gelesen, gehört habe kommt ein anderes Gesamtbild heraus und dadurch treffen hier dann natürlich Welten aufeinander.
Wenn dem so wäre, dass
Youtuber XY fünf Fragen an Nvidia gestellt hat, darauf Antworten bekommen hat, diese dann bei auf zwei Arten interpretiert werden können und an anderer Stelle Nvidia klar, auf eine andere Frage geantwortet hat, die die anderen Fragen beinhaltet, oder abdeckt. Dann ist schnell klar, warum in den Foren dieser Welt die DLSS5 Hütte brennt.
Ich habe oben schon einige Mängel benannt.
Es gibt für DLSS5 allerdings keine Lichtquellen, darum funktioniert das auch nicht sehr gut.
Wie schon geschrieben, laut Lederjacke, zieht sich DLSS5 aus den Informationen, die man aus dem Ursprungsbild ziehen kann. Auch Lichtquellen usw.. Darum funktioniert das auch schon so verdammt gut.

(Spaß am Rande muss erlaubt sein)
Was DLSS 5 macht, ist, ein Bild zu generieren, das fotorealistisch aussehen soll - aber das gelingt nur oberflächlich, weil es keine echten Lichtquellen oder Materialien kennt.
Laut Lederjacke ist das nicht das was DLSS5 macht und auch nicht was ich am Lichtquellen-Grace-Auge-Post sehe. Denn ich sehe im Ursprungsbild, das sich Lichtquelle in Position und intensität durchaus ableiten lassen würden. Dazu die Aussagen, von Lederjacke.
Den Rest wird die Praxis später zeigen.
Da bin ich mir nicht so sicher.
Ach doch, wenn man bedenkt, das die lauten immer in der Masse nur einen kleinen Teil ausmachen. (Du bist damit nicht gemeint)
Es gibt glaube ich noch keinen Entwickler, der selber Hand angelegt hat und quasi ein Optimum seines Spiels unter DLSS5 gezeigt hat.
Daher gibt bisher in den gezigten Szenen NVIDIA vor, wie DLSS5 über den Look des Spiels entscheidet.
Meiner Meinung nach eine falsche Aussage

Ich würde es so sehen,
Das Nvidia in den gezeigten Szenen nur einen Ausblick gibt, wie DLSS5 aussehen kann. Denn DLSS5 entscheidet nicht selber. DLSS5 ist kein unkontrollierter Filter.
Ich find die Diskussion ja auch spannend. Aktuell sehe ich es als zweischneidiges Schwert, dessen Balance noch nicht stimmt. Bin also noch skeptisch und kritisch, bis mir das Gegenteil bewiesen wird.
Ich nehme es als den möglichen Ausblick (weil auch die Aussage steht, das der Entwickler die volle Kontrolle behält) und auf der Basis ist es schlicht beeindruckend und macht viel Lust auf mehr und wie es die Entwickler dann die ersten male einsetzen.
"Lebe lang und in Frieden"