Technik - Ecke zum Plaudern

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.457
Erhaltene Likes
2.831
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Hast du nicht ne 3060/12 gb? Für FHD ist die IMHO noch voll ausreichend.

Was ich faszinierend finde:
Bitte, Anmelden oder Registrieren um die Links zu sehen!
.... laut diversen Youtubern kostet dieser "Hack" etwa 10% der Frames, die FSR3 liefern kann - aber sieht besser (weniger "grieselig") bzw. praktisch gut genug aus. Und eben auch auf alten Grakas wie den 6800XT & Co sowie diversen Nvidias der 3000+ Serie.

Was so etwas Open Source nicht alles leisten kann. Bin mir übrigens nicht sicher, ob dieser Leak nicht ganz bewusst war und ein Open Source Angriff von AMD auf DLSS als (angebliches) Verkaufsargument ist. Weil dann Spieleentwickler mit "läuft auf allen / folgenden Karten" nur einmal was ins Spiel implementieren und das Thema Scaling somit erledigt haben.
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.387
Erhaltene Likes
5.813
Daran ist eigentlich nichts Open Source. Deswegen ist es ja ein Leak.
Das INT8 Modell ist ein fertig trainiertes Modell, das man nur so als Binary nehmen kann. Genau wie das FP8 Modell, dass es ja offiziell gibt.
Es ist nicht ungewöhnlich, dass man im Laufe der Entwicklungen "Übergangskrücken" baut, um das Konzept, an dem man arbeitet, weitestgehend auf alter Hardware erst einmal zu erproben und daran zu tweaken. So ist dieses IN8 Modell ziemlich sicher in das besagte Development Kit hinein gelangt. Ob es jetzt bewusst "vergessen" wurde wieder zu entfernen oder ein Versehen war, Spekulation.
Da AMD aber in der Tat an mehr generischen Modellen Arbeiten... Hab diesen FSR 4 Code-Name vergessen... ist das durchaus für Nvidia womöglich unangenehm, weil diese Modelle dann ja auf jede HW überführt werden können, egal ob Nvidia CUDA oder auf die Arc's von Intel.

Bin auch mal gespannt, wann das Engines direkt AI adaptieren und gewisse Dinge nicht klassisch rendern lassen, sondern ähnlich wie Kopfkino ein Konzept von Effekt oder Grafik erstellen und die AI das zu einem Bild tüddeln lassen. Das könnte vielleicht so das "next big thing" in der Branche werden, um ausufernde Texturgrößen und Mesh-Komplexität einzudämmen. Nvidia selbst arbeitet ja schon an AI Modellen die Texturen komprimiert. Indem nicht "das grüne Gras" in Form einer physischen Bild-Textur im Speicher hängt, sondern nur eine konzeptionelle Beschreibung dieser Textur und die AI macht dann was daraus.
Am Ende wäre sowas gar nicht so unclever, weil das natürlich die Freiheitsgrade förmlich explodieren lässt. Warum in einem Spiel Texturen haben für ein und das selbe Haus, aber einmal mit sauberer Fassade und einmal, sagen wir mit Brandschäden!? Lass das doch die AI entsprechend der Beschreibung aus dem Grundmodell umsetzen...

Na, mal sehen was da noch so kommt. Klar ist aber, man wird auch in Zukunft plausible Gründe finden, warum du und ich neue HW kaufen müssen. :ROFLMAO:
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
683
Erhaltene Likes
1.184
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Das wäre tatsächlich extrem interessant. Die Frage ist dann nur im Prinzip inwiefern das Modell, welches für die jeweilige Anforderungen läuft und ob man sogar so spezifisch sein kann und mehrere verschiedene Modelle für unterschiedliche Dinge laufen lassen würde.
Die Frage ist jedoch: Wie groß sind die jeweiligen Modelle dann und in welchem Speicher werden sie ausgeführt?

Vllt hab ich ja nur nen Denkfehler weil ich da an die LLM's denke die ich auf meinem Unraid laufen hab ( und die Bild-Ki's mit entsprechenden Modellen ).
Die Modelle sind ja schon teils recht groß und dafür brauchste halt ne Menge Speicher. Auf der RTX 4070 ( in meinem Unraid ) ist das ein oder andere schon "grenzwertig", grade nach Auflösung es generierten Bildes.

Mal angenommen du würdest kein Gras als "physische tatsächlich vorhandene Textur" im Spiel platzieren. Dann müsste man doch der Ki entsprechenden Headroom geben und an Stelle XY ( wo eigentlich das Gras sein sollte ) zu sagen "erstelle an dieser Stelle Gras in Auflösung XY". Das würde natürlich ne Menge Variation reinbringen weil nicht jedes bisschen Gras gefühlt gleich aussieht weils... z.B in so nem Skyrim nur 3 versch. Texturen für Gras gibt ( nur als Beispiel jetzt mal ). Aber das Modell, welches dann für die Generierung des Grases zuständig wäre ( oder halt für die Fassade von Haus XY ) muss ja durchaus trainiert sein und anhand der Trainingsdaten entsprechend groß.

Korrigiere mich gerne wenn ich da nen dicken Denkfehler hab xD
Mir kommt das logisch und unlogisch zugleich vor....
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja mehr und schnellere VRAM eben... umso mehr man per Ki macht, desto uninteressanter wird ( zumindest ists bei LLM's und Bild-Ki's so ) der Core. Du lädst ja eigentlich nur nen kleines Package in den VRAM und da findet der Großteil der "Arbeit" statt.


PS: Hab ich das eigentlich richtig mitbekommen? Waren die RTX 5000 "Super" Karten nur nen Gerüst und die kommen doch nicht? Hab mich so auf ne 5080 mit 24Gb gefreut....
Und mein Sohn sich dann über meine 4070Ti Super... ( Bei dem werkelt ja noch die Heizung drin die sich 3080 Ti nennt xD )
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.457
Erhaltene Likes
2.831
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Im VRAM auf der GPU-Seite. Bzw. bei APUs wie einer "Playstation 6" (siehe die Leaks unter
Bitte, Anmelden oder Registrieren um die Links zu sehen!
) werden CPU und GPU auf einem Bord mit superschnellem (und geteiltem) Ram verheiratet. Jedenfalls so lange, bis Ram auf Mainboard und eben GPU "schnell genug" ist um mal eben was swappen zu können. Nachteil: mal eben die CPU upgraden oder das Ram aufstocken ist nicht drin. Hat Apple bisher nicht daran gehindert, mit den Macbooks & Co trotzdem deutlich Geld zu verdienen.

Ich würds feiern, eine z.B. RDNA5 CPU mit ausreichend Kernen (also aktuell 6C12T) und genügendem Speed sowie eine für FHD/WQHD ausreichende iGPU als z.B. ITX Board kaufen zu können. Siehe auch die Leaks zu Intel&Nvidia -
Bitte, Anmelden oder Registrieren um die Links zu sehen!
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.387
Erhaltene Likes
5.813
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Das macht DLSS und FSR doch heute schon mit spezialisierten Modellen. Oder wie meinst du, dass diese Modelle die Auflösung aus einer grobkörnigen Darstellung hin zu einer geleckten HiRes-Grafik rendern?
Das kann für so eine Texturgenerierung recht ähnlich laufen. Vor allem dürfen sie ja inbesondere nicht sehr groß sein, weil ein großes Modell entsprechend länger rechnet, was für Echtzeit-Simulation aka Gaming nicht brauchbar wäre.
So kann man dann schon spezifische Modelle Trainieren, die auf Basis eines grobkörnigen Pixelbreis entsprechende Dinge ableiten. Das läuft dann eben nicht wie bei einem LLM, dass man mit dem Teil redet. Der komplette Sprachteil fällt weg. Es geht dann nur noch um die reine benötigte Funktion. Sagen wir, um sich das vorstellen zu können, wie Teslas Autopilot. Die Sensoren texten da ja keine LLM zu mit ineffizientem Gebrabbel. Da gehen direkt Rohdaten in ein neuronales Netzwerk und hinten kommt ein Ergebnis raus. Wie ein Wasserfilter: Du kippst oben Pisse rein und unten kommt "Felsquellwasser" wieder raus. Da unterhälst du dich ja nicht mit einer LLM nach dem Motto: Stell dir vor du wärst ein Wasserfilter und ich würde dir auf's Dach pissen...
Das ist dann eben nicht generisch, sondern spezifisch in der Funktion. Schon wird es klein, weil viel weniger Parameter für die gewünschte Aufgabe nötig sind.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.387
Erhaltene Likes
5.813
Naja... 5 Mrd. $ in Form von Anteilen sind letztlich auch "nur" 3,5% der Anteilsscheine.
Da hält ja VW mehr an Toyota und da kommt jetzt auch keiner auf die Idee von, wie es hier stellenweise der Fall ist, Verschmelzung zu reden oder gar, dass Nvidia jetzt bei Intel den Ton angibt. Naja, das ist doch arg übertrieben.
Es ist halt eine Investition mit gezielte Absicht in einem bestimmten Bereich. So dass man einfach seine Argumentation hinreichend verdeutlicht.
Das scheinen so einige auch mittlerweile zu realisieren, Angesichts des nunmehr doch schon wieder arg bereinigten Börsengewinns von Donnerstag Mittag. Da ist nämlich ein Drittel schon wieder von weg.
Am Ende hat man hier nämlich nicht einmal sowas wie ein Joint-Venture. Es ist einfach nur eine Projektarbeit in enger Abstimmung, wie das tagtäglich x-fach bei Firmen auf dieser Welt passiert. Das da am Ende überhaupt was brauchbares bei raus kommt, muss sich ja auch erst einmal zeigen. Viele solche Kooperationen verlaufen nämlich nach einer gewissen Zeit im Sand, weil Firmenpolitik die nötige Felxibilität nicht bietet, die das Vorhaben von beiden Partnern gemeinsam abverlangt. Dann kommt man auch schnell nicht mehr weiter und legt dann, nach einer gewissen Lernphase des "auf der Stelle tretens", sein Vorhaben auf Eis oder beendet es sogar ganz offiziell.

Deswegen würde ich da jetzt nicht viel erwarten. Ich halte es sogar mehr für ein Kummel-Spiel, von Seiten der US-Administration, um Intel nicht abstürzen zu lassen und sich Geld von Orten zu "leihen", wo es a) gerade herumliegt, b) es nicht das eigene ist und c) ein Druckmittel besteht um da für eine entsprechende Verflüssigung dieser Mittel zu sorgen...
Für mich ist das eine Finanzspritze um bei Intel die Vermeidung ggf. nicht wieder rückabwickelbare Einschnitte vornehmen zu müssen - z.B. Verkauf von Fabs.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
683
Erhaltene Likes
1.184
@xNecromindx :

Danke erstmal für die Korrektur xD
Hab mich schon die ganze Zeit gefragt wo mein Denkansatz falsch war :-D

So oder so:
Alles ziemlich spannend. Ob zwischen Intel und Nvidia "in Kooperation" soviel bei rumkommt würde ich auch erstmal bezweifeln.
Finde den Fakt allerdings irgendwie funny, das Intel damals Nvidia kaufen wollte, und jetzt, Jahre später Nvidia Anteile von Intel kauft :-D

Ne Intel CPU mit ner Nvidia iGPU+Tensor Kerne wäre natürlich durchaus interessant. Aber ich würde jetzt mal nicht davon ausgehen, dass man so etwas
in nächster Zeit sehen wird. Vor allem nicht in Gaming/Consumer-PC's.

Vllt nen toller Ansatz, aber wer weis ob der genauso fallen gelassen wird wie viele Dinge und Ideen.
Wie war das nochmal mit PhysX? Ich fands geil xD Dennoch -> Weg.
Intel-Grafikkarten? Oh je... ich glaub nicht, dass da noch so viel kommt.
NPU's ( bei CPU's ) ... hört man auch immer weniger von.
Raytracing bei AMD?... Kleiner Spaß xD

Spannende Zeiten... wie immer eben :-D
Wäre jedenfalls schön wenn Intel mal irgendwann was cooles raushaut. Warte noch immer drauf, dass "DIE CPU" rauskommt die meinen 5950x ablösen wird.
Aktuell? Da sehe ich lediglich den 9950x als "sinnhaft"... Aber aktuell halt perverse Preise für "merke ich im Alltag vermutlich eh kaum" weil der 5950x schon so
verflucht gut ist ( aber schon sehnsüchtig darauf wartet, dass er in mein Proxmox kommt ).

Auf die FSR4 Geschichte bin ich mal gespannt. Aber ich kann mir kaum vorstellen, dass das Dingen so offen gehalten wird, dass es auch für Nvidia-User verfügbar sein wird.
AMD ist ja jetzt auch kein Wohlfahrtsverein der sagen wird: "Hey ihr habt ne alte Nvidia GPU? Aaaaaaaach hier nimm mal FSR4, die ist doch noch top, brauchst keine neue kaufen" xD
FSR3 ist ja auch AMD-Only ( zumindest FG wenn ihc mich recht entsinne ).

Interessant wäre auch was bei Nvidia als "nächstes" kommt. Für mich waren die letzten Gens halt 2000=Hier haste RTX, 3000=Hier haste RTX was auch gut läuft xD, 4000=Gönn mir mal FrameGen, 5000=Gönn dir mal geiles FrameGen xD

Würde mega gerne mal MfG in Action sehen. Tatsächlich aktuell immer wieder der Grund wieso ich überlege auf ne 5080 upzugraden. Die 4070Ti Super ist zwar noch für mein 3440x1440 "schnell genug" ( wie @RobMitchum so gerne sagt ). Aber mit so ner 5080 könnte dann auch nen 49 Zoller auf den Tisch einkehren mit 5120x1440 xD
Oder zumindest die 180Hz meines 3440x1440 eher ausreizen ( zumindest in mehr Games, als es die 4070TiS kann )
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.387
Erhaltene Likes
5.813
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Hatte Intel doch eine Zeit lang mit einem AMD GPU Chiplet gemacht.
War schnell wieder weg. Zu teuer, dafür zu wenig Leistung und Abhängigkeiten, die man als Unternehmen auch nicht unbedingt will.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Ist nicht weg!? Gibt es nach wie vor. Einzig der alte 32 Bit Support wurde mittlerweile mit der 5000ner Gen eingestellt. Für 64 bit Anwendungen (die es heute ja nun im Standard einfach sind) läuft das weiterhin...

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Es soll ja jetzt noch die große Battlemage kommen. Es sind wohl schon aus mehreren Quellen Karton-Layouts für die Verpackung aufgetaucht. Sowas deutet meist darauf hin, dass da schon Platinen in Produktion sind...

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Sind heute einfach da... redet keiner mehr drüber.
Solche Buzzwords sind nur so lange interessant, wie es Leute gibt, die sich einen drauf runterholen. Ist das irgendwann verflogen, taucht das auch in Marketingmaterial nicht mehr auf. Oder wer druckt heute noch 4k-Logos in sein Marketingmaterial um sich damit hervor zu tun!? Der Reiz ist da weg. Es wird als gegeben hingenommen und ist dann eben nur noch eine Angabe in der Spezifikation.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Das ist ein zweischneidiges Schwert. Das kann gut geht, oder eben auch nicht.
Dabei geht es darum, wie gut man dann einen für sich günstigen Standard im Markt etablieren kann.
Erinnerst du dich noch an dem FreeSync / G-Sync Wettkamp im Markt, zwischen Nvidia und maßgeblich AMD? Hier hat AMD tatsächlich gewonnen, weil heute supportet auch Nvidia Freesync, nachdem sie in winzigen Tippelschritten sich dem angenährt haben, einfach weil der Markt sich dafür entschieden hat.
So hat AMD das auch mit der x64-Extension gemacht. Technisch jetzt nicht die cleverste Lösung, aber im Markt eine funktionierende Lösung, weil sie kompatibel, einfach zu nutzen und durch "eh da" sich dann verbreitet hat.
Manchmal kann man durch so eine Strategie sich selbst vielleicht keinen Vorteil erarbeiten, aber zumindest der Konkurrenz massiv schaden. Dafür entscheidet man sich eben immer, wenn man realisiert, dass man auf absehbare Zeit einfach nicht in der Lage ist ein eigenen Momentum für seine Standards zu etablieren. Dann gibt man dem Markt ein "goody", dass es dankend aufnimmt und für einen dann zum Standard macht.

Ob die sich dafür entscheiden, dass muss man dann sehen. Die Schwierigkeit die hier besteht ist nämlich, dass die Fähigkeit dazu allein nicht ausreicht, sondern so ein Upscaling-Modell muss sich im Markt ja nicht nur hinsichtlich der vielseitigen Anwendbarkeit behaupten, sondern auch hinsichtlich einer entsprechenden Darstellungsqualität. So bringt es ja nichts, wenn es offen ist, aber wie FSR 1.0 aussieht, wenn Nvidia lustig DLSS v5 schon macht. Dann wird es der Markt nicht akzeptieren. Aber wenn es min. ebenbürtig ist, dann könnte Nvidia auch ganz schnell mit DLSS im Markt eine Randgruppe sein. Nämlich dann, wenn, wegen einfacher Verfügbarkeit und universeller Einsetzbarkeit, ein Großteil der Games eben hauptsächlich da drauf setzen und optimieren.

Ob das passiert, naja, wird man sehen. Es wäre aber unternehmerisch in AMDs Position nicht dumm so etwas zu machen. Denn selber werden sie da nie Dominanz erarbeiten können. Aber Nvidia die Suppe versalzen wäre drin.
 
Kommentieren
Oben