Technik - Ecke zum Plaudern

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.457
Erhaltene Likes
2.831
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Hast du nicht ne 3060/12 gb? Für FHD ist die IMHO noch voll ausreichend.

Was ich faszinierend finde:
Bitte, Anmelden oder Registrieren um die Links zu sehen!
.... laut diversen Youtubern kostet dieser "Hack" etwa 10% der Frames, die FSR3 liefern kann - aber sieht besser (weniger "grieselig") bzw. praktisch gut genug aus. Und eben auch auf alten Grakas wie den 6800XT & Co sowie diversen Nvidias der 3000+ Serie.

Was so etwas Open Source nicht alles leisten kann. Bin mir übrigens nicht sicher, ob dieser Leak nicht ganz bewusst war und ein Open Source Angriff von AMD auf DLSS als (angebliches) Verkaufsargument ist. Weil dann Spieleentwickler mit "läuft auf allen / folgenden Karten" nur einmal was ins Spiel implementieren und das Thema Scaling somit erledigt haben.
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.385
Erhaltene Likes
5.809
Daran ist eigentlich nichts Open Source. Deswegen ist es ja ein Leak.
Das INT8 Modell ist ein fertig trainiertes Modell, das man nur so als Binary nehmen kann. Genau wie das FP8 Modell, dass es ja offiziell gibt.
Es ist nicht ungewöhnlich, dass man im Laufe der Entwicklungen "Übergangskrücken" baut, um das Konzept, an dem man arbeitet, weitestgehend auf alter Hardware erst einmal zu erproben und daran zu tweaken. So ist dieses IN8 Modell ziemlich sicher in das besagte Development Kit hinein gelangt. Ob es jetzt bewusst "vergessen" wurde wieder zu entfernen oder ein Versehen war, Spekulation.
Da AMD aber in der Tat an mehr generischen Modellen Arbeiten... Hab diesen FSR 4 Code-Name vergessen... ist das durchaus für Nvidia womöglich unangenehm, weil diese Modelle dann ja auf jede HW überführt werden können, egal ob Nvidia CUDA oder auf die Arc's von Intel.

Bin auch mal gespannt, wann das Engines direkt AI adaptieren und gewisse Dinge nicht klassisch rendern lassen, sondern ähnlich wie Kopfkino ein Konzept von Effekt oder Grafik erstellen und die AI das zu einem Bild tüddeln lassen. Das könnte vielleicht so das "next big thing" in der Branche werden, um ausufernde Texturgrößen und Mesh-Komplexität einzudämmen. Nvidia selbst arbeitet ja schon an AI Modellen die Texturen komprimiert. Indem nicht "das grüne Gras" in Form einer physischen Bild-Textur im Speicher hängt, sondern nur eine konzeptionelle Beschreibung dieser Textur und die AI macht dann was daraus.
Am Ende wäre sowas gar nicht so unclever, weil das natürlich die Freiheitsgrade förmlich explodieren lässt. Warum in einem Spiel Texturen haben für ein und das selbe Haus, aber einmal mit sauberer Fassade und einmal, sagen wir mit Brandschäden!? Lass das doch die AI entsprechend der Beschreibung aus dem Grundmodell umsetzen...

Na, mal sehen was da noch so kommt. Klar ist aber, man wird auch in Zukunft plausible Gründe finden, warum du und ich neue HW kaufen müssen. :ROFLMAO:
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
682
Erhaltene Likes
1.183
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Das wäre tatsächlich extrem interessant. Die Frage ist dann nur im Prinzip inwiefern das Modell, welches für die jeweilige Anforderungen läuft und ob man sogar so spezifisch sein kann und mehrere verschiedene Modelle für unterschiedliche Dinge laufen lassen würde.
Die Frage ist jedoch: Wie groß sind die jeweiligen Modelle dann und in welchem Speicher werden sie ausgeführt?

Vllt hab ich ja nur nen Denkfehler weil ich da an die LLM's denke die ich auf meinem Unraid laufen hab ( und die Bild-Ki's mit entsprechenden Modellen ).
Die Modelle sind ja schon teils recht groß und dafür brauchste halt ne Menge Speicher. Auf der RTX 4070 ( in meinem Unraid ) ist das ein oder andere schon "grenzwertig", grade nach Auflösung es generierten Bildes.

Mal angenommen du würdest kein Gras als "physische tatsächlich vorhandene Textur" im Spiel platzieren. Dann müsste man doch der Ki entsprechenden Headroom geben und an Stelle XY ( wo eigentlich das Gras sein sollte ) zu sagen "erstelle an dieser Stelle Gras in Auflösung XY". Das würde natürlich ne Menge Variation reinbringen weil nicht jedes bisschen Gras gefühlt gleich aussieht weils... z.B in so nem Skyrim nur 3 versch. Texturen für Gras gibt ( nur als Beispiel jetzt mal ). Aber das Modell, welches dann für die Generierung des Grases zuständig wäre ( oder halt für die Fassade von Haus XY ) muss ja durchaus trainiert sein und anhand der Trainingsdaten entsprechend groß.

Korrigiere mich gerne wenn ich da nen dicken Denkfehler hab xD
Mir kommt das logisch und unlogisch zugleich vor....
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja mehr und schnellere VRAM eben... umso mehr man per Ki macht, desto uninteressanter wird ( zumindest ists bei LLM's und Bild-Ki's so ) der Core. Du lädst ja eigentlich nur nen kleines Package in den VRAM und da findet der Großteil der "Arbeit" statt.


PS: Hab ich das eigentlich richtig mitbekommen? Waren die RTX 5000 "Super" Karten nur nen Gerüst und die kommen doch nicht? Hab mich so auf ne 5080 mit 24Gb gefreut....
Und mein Sohn sich dann über meine 4070Ti Super... ( Bei dem werkelt ja noch die Heizung drin die sich 3080 Ti nennt xD )
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.457
Erhaltene Likes
2.831
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Im VRAM auf der GPU-Seite. Bzw. bei APUs wie einer "Playstation 6" (siehe die Leaks unter
Bitte, Anmelden oder Registrieren um die Links zu sehen!
) werden CPU und GPU auf einem Bord mit superschnellem (und geteiltem) Ram verheiratet. Jedenfalls so lange, bis Ram auf Mainboard und eben GPU "schnell genug" ist um mal eben was swappen zu können. Nachteil: mal eben die CPU upgraden oder das Ram aufstocken ist nicht drin. Hat Apple bisher nicht daran gehindert, mit den Macbooks & Co trotzdem deutlich Geld zu verdienen.

Ich würds feiern, eine z.B. RDNA5 CPU mit ausreichend Kernen (also aktuell 6C12T) und genügendem Speed sowie eine für FHD/WQHD ausreichende iGPU als z.B. ITX Board kaufen zu können. Siehe auch die Leaks zu Intel&Nvidia -
Bitte, Anmelden oder Registrieren um die Links zu sehen!
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.385
Erhaltene Likes
5.809
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Das macht DLSS und FSR doch heute schon mit spezialisierten Modellen. Oder wie meinst du, dass diese Modelle die Auflösung aus einer grobkörnigen Darstellung hin zu einer geleckten HiRes-Grafik rendern?
Das kann für so eine Texturgenerierung recht ähnlich laufen. Vor allem dürfen sie ja inbesondere nicht sehr groß sein, weil ein großes Modell entsprechend länger rechnet, was für Echtzeit-Simulation aka Gaming nicht brauchbar wäre.
So kann man dann schon spezifische Modelle Trainieren, die auf Basis eines grobkörnigen Pixelbreis entsprechende Dinge ableiten. Das läuft dann eben nicht wie bei einem LLM, dass man mit dem Teil redet. Der komplette Sprachteil fällt weg. Es geht dann nur noch um die reine benötigte Funktion. Sagen wir, um sich das vorstellen zu können, wie Teslas Autopilot. Die Sensoren texten da ja keine LLM zu mit ineffizientem Gebrabbel. Da gehen direkt Rohdaten in ein neuronales Netzwerk und hinten kommt ein Ergebnis raus. Wie ein Wasserfilter: Du kippst oben Pisse rein und unten kommt "Felsquellwasser" wieder raus. Da unterhälst du dich ja nicht mit einer LLM nach dem Motto: Stell dir vor du wärst ein Wasserfilter und ich würde dir auf's Dach pissen...
Das ist dann eben nicht generisch, sondern spezifisch in der Funktion. Schon wird es klein, weil viel weniger Parameter für die gewünschte Aufgabe nötig sind.
 
Kommentieren
Oben