Technik - Ecke zum Plaudern

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.508
Erhaltene Likes
2.902
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Hast du nicht ne 3060/12 gb? Für FHD ist die IMHO noch voll ausreichend.

Was ich faszinierend finde:
Bitte, Anmelden oder Registrieren um die Links zu sehen!
.... laut diversen Youtubern kostet dieser "Hack" etwa 10% der Frames, die FSR3 liefern kann - aber sieht besser (weniger "grieselig") bzw. praktisch gut genug aus. Und eben auch auf alten Grakas wie den 6800XT & Co sowie diversen Nvidias der 3000+ Serie.

Was so etwas Open Source nicht alles leisten kann. Bin mir übrigens nicht sicher, ob dieser Leak nicht ganz bewusst war und ein Open Source Angriff von AMD auf DLSS als (angebliches) Verkaufsargument ist. Weil dann Spieleentwickler mit "läuft auf allen / folgenden Karten" nur einmal was ins Spiel implementieren und das Thema Scaling somit erledigt haben.
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
Daran ist eigentlich nichts Open Source. Deswegen ist es ja ein Leak.
Das INT8 Modell ist ein fertig trainiertes Modell, das man nur so als Binary nehmen kann. Genau wie das FP8 Modell, dass es ja offiziell gibt.
Es ist nicht ungewöhnlich, dass man im Laufe der Entwicklungen "Übergangskrücken" baut, um das Konzept, an dem man arbeitet, weitestgehend auf alter Hardware erst einmal zu erproben und daran zu tweaken. So ist dieses IN8 Modell ziemlich sicher in das besagte Development Kit hinein gelangt. Ob es jetzt bewusst "vergessen" wurde wieder zu entfernen oder ein Versehen war, Spekulation.
Da AMD aber in der Tat an mehr generischen Modellen Arbeiten... Hab diesen FSR 4 Code-Name vergessen... ist das durchaus für Nvidia womöglich unangenehm, weil diese Modelle dann ja auf jede HW überführt werden können, egal ob Nvidia CUDA oder auf die Arc's von Intel.

Bin auch mal gespannt, wann das Engines direkt AI adaptieren und gewisse Dinge nicht klassisch rendern lassen, sondern ähnlich wie Kopfkino ein Konzept von Effekt oder Grafik erstellen und die AI das zu einem Bild tüddeln lassen. Das könnte vielleicht so das "next big thing" in der Branche werden, um ausufernde Texturgrößen und Mesh-Komplexität einzudämmen. Nvidia selbst arbeitet ja schon an AI Modellen die Texturen komprimiert. Indem nicht "das grüne Gras" in Form einer physischen Bild-Textur im Speicher hängt, sondern nur eine konzeptionelle Beschreibung dieser Textur und die AI macht dann was daraus.
Am Ende wäre sowas gar nicht so unclever, weil das natürlich die Freiheitsgrade förmlich explodieren lässt. Warum in einem Spiel Texturen haben für ein und das selbe Haus, aber einmal mit sauberer Fassade und einmal, sagen wir mit Brandschäden!? Lass das doch die AI entsprechend der Beschreibung aus dem Grundmodell umsetzen...

Na, mal sehen was da noch so kommt. Klar ist aber, man wird auch in Zukunft plausible Gründe finden, warum du und ich neue HW kaufen müssen. :ROFLMAO:
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
713
Erhaltene Likes
1.224
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Das wäre tatsächlich extrem interessant. Die Frage ist dann nur im Prinzip inwiefern das Modell, welches für die jeweilige Anforderungen läuft und ob man sogar so spezifisch sein kann und mehrere verschiedene Modelle für unterschiedliche Dinge laufen lassen würde.
Die Frage ist jedoch: Wie groß sind die jeweiligen Modelle dann und in welchem Speicher werden sie ausgeführt?

Vllt hab ich ja nur nen Denkfehler weil ich da an die LLM's denke die ich auf meinem Unraid laufen hab ( und die Bild-Ki's mit entsprechenden Modellen ).
Die Modelle sind ja schon teils recht groß und dafür brauchste halt ne Menge Speicher. Auf der RTX 4070 ( in meinem Unraid ) ist das ein oder andere schon "grenzwertig", grade nach Auflösung es generierten Bildes.

Mal angenommen du würdest kein Gras als "physische tatsächlich vorhandene Textur" im Spiel platzieren. Dann müsste man doch der Ki entsprechenden Headroom geben und an Stelle XY ( wo eigentlich das Gras sein sollte ) zu sagen "erstelle an dieser Stelle Gras in Auflösung XY". Das würde natürlich ne Menge Variation reinbringen weil nicht jedes bisschen Gras gefühlt gleich aussieht weils... z.B in so nem Skyrim nur 3 versch. Texturen für Gras gibt ( nur als Beispiel jetzt mal ). Aber das Modell, welches dann für die Generierung des Grases zuständig wäre ( oder halt für die Fassade von Haus XY ) muss ja durchaus trainiert sein und anhand der Trainingsdaten entsprechend groß.

Korrigiere mich gerne wenn ich da nen dicken Denkfehler hab xD
Mir kommt das logisch und unlogisch zugleich vor....
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja mehr und schnellere VRAM eben... umso mehr man per Ki macht, desto uninteressanter wird ( zumindest ists bei LLM's und Bild-Ki's so ) der Core. Du lädst ja eigentlich nur nen kleines Package in den VRAM und da findet der Großteil der "Arbeit" statt.


PS: Hab ich das eigentlich richtig mitbekommen? Waren die RTX 5000 "Super" Karten nur nen Gerüst und die kommen doch nicht? Hab mich so auf ne 5080 mit 24Gb gefreut....
Und mein Sohn sich dann über meine 4070Ti Super... ( Bei dem werkelt ja noch die Heizung drin die sich 3080 Ti nennt xD )
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.508
Erhaltene Likes
2.902
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Im VRAM auf der GPU-Seite. Bzw. bei APUs wie einer "Playstation 6" (siehe die Leaks unter
Bitte, Anmelden oder Registrieren um die Links zu sehen!
) werden CPU und GPU auf einem Bord mit superschnellem (und geteiltem) Ram verheiratet. Jedenfalls so lange, bis Ram auf Mainboard und eben GPU "schnell genug" ist um mal eben was swappen zu können. Nachteil: mal eben die CPU upgraden oder das Ram aufstocken ist nicht drin. Hat Apple bisher nicht daran gehindert, mit den Macbooks & Co trotzdem deutlich Geld zu verdienen.

Ich würds feiern, eine z.B. RDNA5 CPU mit ausreichend Kernen (also aktuell 6C12T) und genügendem Speed sowie eine für FHD/WQHD ausreichende iGPU als z.B. ITX Board kaufen zu können. Siehe auch die Leaks zu Intel&Nvidia -
Bitte, Anmelden oder Registrieren um die Links zu sehen!
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Das macht DLSS und FSR doch heute schon mit spezialisierten Modellen. Oder wie meinst du, dass diese Modelle die Auflösung aus einer grobkörnigen Darstellung hin zu einer geleckten HiRes-Grafik rendern?
Das kann für so eine Texturgenerierung recht ähnlich laufen. Vor allem dürfen sie ja inbesondere nicht sehr groß sein, weil ein großes Modell entsprechend länger rechnet, was für Echtzeit-Simulation aka Gaming nicht brauchbar wäre.
So kann man dann schon spezifische Modelle Trainieren, die auf Basis eines grobkörnigen Pixelbreis entsprechende Dinge ableiten. Das läuft dann eben nicht wie bei einem LLM, dass man mit dem Teil redet. Der komplette Sprachteil fällt weg. Es geht dann nur noch um die reine benötigte Funktion. Sagen wir, um sich das vorstellen zu können, wie Teslas Autopilot. Die Sensoren texten da ja keine LLM zu mit ineffizientem Gebrabbel. Da gehen direkt Rohdaten in ein neuronales Netzwerk und hinten kommt ein Ergebnis raus. Wie ein Wasserfilter: Du kippst oben Pisse rein und unten kommt "Felsquellwasser" wieder raus. Da unterhälst du dich ja nicht mit einer LLM nach dem Motto: Stell dir vor du wärst ein Wasserfilter und ich würde dir auf's Dach pissen...
Das ist dann eben nicht generisch, sondern spezifisch in der Funktion. Schon wird es klein, weil viel weniger Parameter für die gewünschte Aufgabe nötig sind.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
Naja... 5 Mrd. $ in Form von Anteilen sind letztlich auch "nur" 3,5% der Anteilsscheine.
Da hält ja VW mehr an Toyota und da kommt jetzt auch keiner auf die Idee von, wie es hier stellenweise der Fall ist, Verschmelzung zu reden oder gar, dass Nvidia jetzt bei Intel den Ton angibt. Naja, das ist doch arg übertrieben.
Es ist halt eine Investition mit gezielte Absicht in einem bestimmten Bereich. So dass man einfach seine Argumentation hinreichend verdeutlicht.
Das scheinen so einige auch mittlerweile zu realisieren, Angesichts des nunmehr doch schon wieder arg bereinigten Börsengewinns von Donnerstag Mittag. Da ist nämlich ein Drittel schon wieder von weg.
Am Ende hat man hier nämlich nicht einmal sowas wie ein Joint-Venture. Es ist einfach nur eine Projektarbeit in enger Abstimmung, wie das tagtäglich x-fach bei Firmen auf dieser Welt passiert. Das da am Ende überhaupt was brauchbares bei raus kommt, muss sich ja auch erst einmal zeigen. Viele solche Kooperationen verlaufen nämlich nach einer gewissen Zeit im Sand, weil Firmenpolitik die nötige Felxibilität nicht bietet, die das Vorhaben von beiden Partnern gemeinsam abverlangt. Dann kommt man auch schnell nicht mehr weiter und legt dann, nach einer gewissen Lernphase des "auf der Stelle tretens", sein Vorhaben auf Eis oder beendet es sogar ganz offiziell.

Deswegen würde ich da jetzt nicht viel erwarten. Ich halte es sogar mehr für ein Kummel-Spiel, von Seiten der US-Administration, um Intel nicht abstürzen zu lassen und sich Geld von Orten zu "leihen", wo es a) gerade herumliegt, b) es nicht das eigene ist und c) ein Druckmittel besteht um da für eine entsprechende Verflüssigung dieser Mittel zu sorgen...
Für mich ist das eine Finanzspritze um bei Intel die Vermeidung ggf. nicht wieder rückabwickelbare Einschnitte vornehmen zu müssen - z.B. Verkauf von Fabs.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
713
Erhaltene Likes
1.224
@xNecromindx :

Danke erstmal für die Korrektur xD
Hab mich schon die ganze Zeit gefragt wo mein Denkansatz falsch war :-D

So oder so:
Alles ziemlich spannend. Ob zwischen Intel und Nvidia "in Kooperation" soviel bei rumkommt würde ich auch erstmal bezweifeln.
Finde den Fakt allerdings irgendwie funny, das Intel damals Nvidia kaufen wollte, und jetzt, Jahre später Nvidia Anteile von Intel kauft :-D

Ne Intel CPU mit ner Nvidia iGPU+Tensor Kerne wäre natürlich durchaus interessant. Aber ich würde jetzt mal nicht davon ausgehen, dass man so etwas
in nächster Zeit sehen wird. Vor allem nicht in Gaming/Consumer-PC's.

Vllt nen toller Ansatz, aber wer weis ob der genauso fallen gelassen wird wie viele Dinge und Ideen.
Wie war das nochmal mit PhysX? Ich fands geil xD Dennoch -> Weg.
Intel-Grafikkarten? Oh je... ich glaub nicht, dass da noch so viel kommt.
NPU's ( bei CPU's ) ... hört man auch immer weniger von.
Raytracing bei AMD?... Kleiner Spaß xD

Spannende Zeiten... wie immer eben :-D
Wäre jedenfalls schön wenn Intel mal irgendwann was cooles raushaut. Warte noch immer drauf, dass "DIE CPU" rauskommt die meinen 5950x ablösen wird.
Aktuell? Da sehe ich lediglich den 9950x als "sinnhaft"... Aber aktuell halt perverse Preise für "merke ich im Alltag vermutlich eh kaum" weil der 5950x schon so
verflucht gut ist ( aber schon sehnsüchtig darauf wartet, dass er in mein Proxmox kommt ).

Auf die FSR4 Geschichte bin ich mal gespannt. Aber ich kann mir kaum vorstellen, dass das Dingen so offen gehalten wird, dass es auch für Nvidia-User verfügbar sein wird.
AMD ist ja jetzt auch kein Wohlfahrtsverein der sagen wird: "Hey ihr habt ne alte Nvidia GPU? Aaaaaaaach hier nimm mal FSR4, die ist doch noch top, brauchst keine neue kaufen" xD
FSR3 ist ja auch AMD-Only ( zumindest FG wenn ihc mich recht entsinne ).

Interessant wäre auch was bei Nvidia als "nächstes" kommt. Für mich waren die letzten Gens halt 2000=Hier haste RTX, 3000=Hier haste RTX was auch gut läuft xD, 4000=Gönn mir mal FrameGen, 5000=Gönn dir mal geiles FrameGen xD

Würde mega gerne mal MfG in Action sehen. Tatsächlich aktuell immer wieder der Grund wieso ich überlege auf ne 5080 upzugraden. Die 4070Ti Super ist zwar noch für mein 3440x1440 "schnell genug" ( wie @RobMitchum so gerne sagt ). Aber mit so ner 5080 könnte dann auch nen 49 Zoller auf den Tisch einkehren mit 5120x1440 xD
Oder zumindest die 180Hz meines 3440x1440 eher ausreizen ( zumindest in mehr Games, als es die 4070TiS kann )
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Hatte Intel doch eine Zeit lang mit einem AMD GPU Chiplet gemacht.
War schnell wieder weg. Zu teuer, dafür zu wenig Leistung und Abhängigkeiten, die man als Unternehmen auch nicht unbedingt will.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Ist nicht weg!? Gibt es nach wie vor. Einzig der alte 32 Bit Support wurde mittlerweile mit der 5000ner Gen eingestellt. Für 64 bit Anwendungen (die es heute ja nun im Standard einfach sind) läuft das weiterhin...

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Es soll ja jetzt noch die große Battlemage kommen. Es sind wohl schon aus mehreren Quellen Karton-Layouts für die Verpackung aufgetaucht. Sowas deutet meist darauf hin, dass da schon Platinen in Produktion sind...

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Sind heute einfach da... redet keiner mehr drüber.
Solche Buzzwords sind nur so lange interessant, wie es Leute gibt, die sich einen drauf runterholen. Ist das irgendwann verflogen, taucht das auch in Marketingmaterial nicht mehr auf. Oder wer druckt heute noch 4k-Logos in sein Marketingmaterial um sich damit hervor zu tun!? Der Reiz ist da weg. Es wird als gegeben hingenommen und ist dann eben nur noch eine Angabe in der Spezifikation.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Das ist ein zweischneidiges Schwert. Das kann gut geht, oder eben auch nicht.
Dabei geht es darum, wie gut man dann einen für sich günstigen Standard im Markt etablieren kann.
Erinnerst du dich noch an dem FreeSync / G-Sync Wettkamp im Markt, zwischen Nvidia und maßgeblich AMD? Hier hat AMD tatsächlich gewonnen, weil heute supportet auch Nvidia Freesync, nachdem sie in winzigen Tippelschritten sich dem angenährt haben, einfach weil der Markt sich dafür entschieden hat.
So hat AMD das auch mit der x64-Extension gemacht. Technisch jetzt nicht die cleverste Lösung, aber im Markt eine funktionierende Lösung, weil sie kompatibel, einfach zu nutzen und durch "eh da" sich dann verbreitet hat.
Manchmal kann man durch so eine Strategie sich selbst vielleicht keinen Vorteil erarbeiten, aber zumindest der Konkurrenz massiv schaden. Dafür entscheidet man sich eben immer, wenn man realisiert, dass man auf absehbare Zeit einfach nicht in der Lage ist ein eigenen Momentum für seine Standards zu etablieren. Dann gibt man dem Markt ein "goody", dass es dankend aufnimmt und für einen dann zum Standard macht.

Ob die sich dafür entscheiden, dass muss man dann sehen. Die Schwierigkeit die hier besteht ist nämlich, dass die Fähigkeit dazu allein nicht ausreicht, sondern so ein Upscaling-Modell muss sich im Markt ja nicht nur hinsichtlich der vielseitigen Anwendbarkeit behaupten, sondern auch hinsichtlich einer entsprechenden Darstellungsqualität. So bringt es ja nichts, wenn es offen ist, aber wie FSR 1.0 aussieht, wenn Nvidia lustig DLSS v5 schon macht. Dann wird es der Markt nicht akzeptieren. Aber wenn es min. ebenbürtig ist, dann könnte Nvidia auch ganz schnell mit DLSS im Markt eine Randgruppe sein. Nämlich dann, wenn, wegen einfacher Verfügbarkeit und universeller Einsetzbarkeit, ein Großteil der Games eben hauptsächlich da drauf setzen und optimieren.

Ob das passiert, naja, wird man sehen. Es wäre aber unternehmerisch in AMDs Position nicht dumm so etwas zu machen. Denn selber werden sie da nie Dominanz erarbeiten können. Aber Nvidia die Suppe versalzen wäre drin.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Achso, wollte da auch noch erwähnen:
Sehe den Sinn darin nicht. Ich habs bei Indiana Jones jetzt mit dem neuen DLC probiert und mal einen Teil mit MFG aktiviert gespielt. Also ich habe es wieder abgeschaltet. Erst einmal habe ich keine Ahnung was ich mit der Zahl von 120, oder 240FPS auf dem Pimmelmeter soll, aber hauptsächlich das Spielgefühl war unangenehm. Es war irgendwie "ruckelig" - ging mir auf die Nerven. Also hab ich wieder nativ + Vsync aktiviert.
Äußert sich auf einem High-FPS Monitor vielleicht anders, aber auch in denen sehe ich keinen Sinn.
Für mich ist MFG nen Marketing-Blub.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.508
Erhaltene Likes
2.902
Ich hab zu Zeiten meiner 6600XT (plus 10% OC) das AFMF (Fake Frames) gerne genutzt. Kommt ein Frame zu spät, dann wird interpoliert. Als Stotterbremse durch Ruckler (egal welcher Art) passt das. Aber es macht keine neue RDNA2 Experience. Würde mir jemand sagen, dass ich demnächst zwei Fake Frames je echtem Frame bekommen kann - "fi** dich". Wenns einen Stotterer überdecken kann - ok. Aber es bringt Latenz rein und eben nicht wirklich was an Spielgenuss.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
713
Erhaltene Likes
1.224
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Aber insofern "weg", dass man es irgendwie nirgends mehr als Feature sieht. Letzten Games die mir damit einfallen sind Borderlands 2, Witcher 3 und Fallout 4. Und zumindest bei Borderlands 2 führts doch meine ich mit RTX 5000 zu krassen Problemen oder nicht?
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Oh doch? Krass, hatte ich nicht aufm Schirm, dachte das sei nun auch begraben.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Erinnert mich so hart an das "8k" was auf den PS5 Kartons stand xD
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Stimmt du hast Recht... Freesync hat sich da durchgesetzt obwohl grade am Anfang immer so alle auf Gsync geschworen haben. Sieht man auch bei neueren Monitoren glaube gar nicht mehr. Meine beiden 34er können es. Beziehungsweise der LG (laut Nvidia Control Panel) "offiziell" und beim AOC kann ich es einschalten, aber da steht glaube sowas wie, dass die Kompatibilität nicht gewährleistet ist oder so.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ach krass, dachte das sei "so viel besser" und die Latenzen seien besser als beim normalen FG ( irgendwo gelesen ). Das normale FG finde ich "naja". Habs bisher nur bei Ark SA mal getestet, da steigt die Latenz aber merklich auf -> Ekelhaft an. Und bei dem Oblivion Remaster. Und beim Oblivion Remaster muss ich tatsächlich sagen, dass es "ok" war. Latenz kaum merklich, Bildrate ging hoch und es fühlte sich tatsächlich flüssiger an.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Naja, es ist uralt. Wen juckt das in der Spec-List?
Das wird halt einfach genutzt wenn da, wenn nicht, dann nicht.
Kommt hinzu, dass PhysiX ja nur etwas Share/CUDA-Code ist, der auf der Karte läuft. Das ist heute, seit es schon lange programmierbare Shader gibt, auch anders/selber für Engines realisierbar.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Wie soll das gehen?
Ein "Frame" ist ein Berechnungsdurchlauf in der Engine. Das heißt die muss einmal durchtickern um Kollisionen, Bewegung, Interaktion und alles sonstige für den Timeslot zu berechnen.
Ein Frame der in der Engine nicht durchläuft, ist ein Frame indem keine Interaktion mit der Gameengine besteht hinsichtlich jeder User-Interaktion.
Was die mit Latenzverbesserungen meinen sind Spielereien um das Lag so gering wie möglich zu gestalten.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
So, AMD Treiber Rant incomming....:

Was für KACKTREIBER hat AMD bitte!?
Ich habe jetzt 3 Stunden damit verbracht den Treiber für die RX 9060XT unter Windows Server 2025 zum Laufen zu bringen.
Die haben in ihrem Kacktreiber die Server-Editionen durch gewisse Anpassungen gezielt ausgeklammert - völlig ohne technischen Grund.
Die PRO Treiber hingegen, die man für Workstations nutzen soll, sind speziell so angepasst, dass sie die Desktop-Karten nicht supporten.
Um das jetzt zum Laufen zu bringen musste ich das Treiberpaket von AMD manuell entpacken - weil man das nur als Scheiße 800MB EXE herunterladen kann - um dann an die Treiberdateien zu kommen, um dann wiederum die INF-Datei zu editieren, um die Blockade zu entfernen.
Kann man mangels dann fehlender Signierung nicht so installieren, also extra in "nicht signierte Treiber zulassen" booten....
Alter Verwalter 🤬
Bei den Nvidia-Karten steckt man die einfach rein, läd den Treiber, installiert - fertig.

Dann geht es weiter, dass die AI Beschleunigung nicht funktioniert. Tja... ex gibt keine ofiziellen ROCm Treiber für die 9000ner Karten 🤬🤬🤬🤬
zum Glück habe ich ne Implementierung gefunden, die nutzbar ist.

Hätte ich nicht ein kleines Stück vom Kunstoff des Shrouds wegbrechen müssen, weil da ein Stecker auf dem Board störte an der Stelle, ich hätte mich nach einer Stunde nicht weiter hingesetzt und gefummelt, ich hätte das wieder eingepackt und zurück geschickt.

Naja, immerhin AV1 Encodung geht nun... wow :rolleyes:
 
Kommentieren

MrHonk

mit Baby Bruno
Registriert
6 Mai 2021
Beiträge
993
Erhaltene Likes
2.105
Ja, das ist Kacke, aber AMD ist damit nicht alleine - Intel blockiert treiberseitig auch einige Netzwerkchips, z.B. die
Bitte, Anmelden oder Registrieren um die Links zu sehen!
. Zum Glück gibt es auch dafür die Workarounds, so wie du es mit der AMD-Karte machen musstest. Intel blockiert die Netzwerkkarten ganz gezielt nach dem Motto "Wer das Geld hat sich Windows Server leisten zu können, der hat auch das Geld für unsere Business-Reihen".

Ist totale 🤬🤬🤬 sowas...
 
Kommentieren

Master_3

Namhafter Pirat
Registriert
26 Februar 2024
Beiträge
187
Erhaltene Likes
365
Ich missbrauche den Thread mal für ein Technisches anliegen.

Ich hab hier 32GB DDR4 Speicher (2 Module á 16GB) mit 3200mhz via XMP.
Das hat ewig lange gut gelaufen doch irgendwann, nach einem Bios Update läuft der Ram nur noch mit 3000Mhz stabil (XMP an und dann statt der 3200mhz einfach auf 3000).
Das XMP Profil sieht für die 3200Mhz 1,35v vor - diese langen für die 3000mhz Problemlos, aber ich komm ums verrecken nicht auf die 3200mhz zurück - ich hab Spaßeshalber die Spannung auf 1,55v angehoben, aber keine Chance.

Irgendwie lässt mich das Gefühl nicht los, dass irgendeine andere Option mir hier einen Streich spielt....

Einer ne Idee? Bin bei der ganzen Spannungsverteilung jetzt kein Ass um ehrlich zu sein...
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
Was für eine CPU?
Speziell bei AMD steckt in fast jedem Update auch eine neue AGESA mit drin. Das kann schon deutliche Unterschiede machen.
Aber auch bei Intel gibt es Micro-Code Updates, die Auswirkung haben.

Oft hilft es die Timings etwas entspannter zu machen, also ein, zwei oder drei Clocks dazu zu geben.

Im Zweifel musst du halt das alte BIOS wieder rein flashen und dann entweder alle Settings mal Screenshotten und vergleichen oder einfach beim älteren BIOS bleiben. Denn manchmal stecken für gewisse Module bestimmte Tweaks in den BIOS-Versionen, die du "von außen" nicht wirklich siehst. Wenn die neue Version den nicht hat oder er verändert wurde, dann wirst du das quasi nie heraus finden, was da jetzt der genaue Unterschied ist.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
713
Erhaltene Likes
1.224
@xNecromindx

Warum ne 9060xt für AI-Beschleunigung und keine Nvidia?
Hab ich da irgendwas verpasst und AMD hat da extrem aufgeholt?

Mein letzter Stand ist noch, dass ( zumindest in Dingen wie Stable-Diffusion oder auch Progs wie TopazVideoAI ) selbst ne Mittelklasse Nvidia nen Stück über ner High-End AMD-Karte liegt.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.451
Erhaltene Likes
5.931
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Weil ich die hauptsächlich zum Transcoden auf AV1 wollte und zum andern sind die RX 9000 Karten mit einem extrem geringen Idle-Verbrauch gesegnet. Im Idle zieht die Karte derzeit im Server gerade einmal 5W - weil da kein Monitor dran hängt bzw. die Karte für Grafik-Ausgabe nicht genutzt wird und der Treiber die GPU tatsächlich auch Clock 0MHz runterdreht und die Spannung auch komplett abschaltet - die wird also wirklich faktisch abgeschaltet im Betrieb. Das sind derzeit die energiesparensten dGPUs die es im Markt gibt.
Und eine Nvidia ist mir zu teuer. Die einzige 16GB Karte wäre die 5060ti 16GB und die ist mehr als 100 Euro teurer. Dafür leistet sie so viel mehr aber auch nicht. Selbst 300 fand ich schon zu viel jetzt für so eine Spielerei...

An sich hätte ich da auch gar keine dGPU eingebaut. Aber der Xeon ist so alt, das seine iGPU AV1 nicht kann. Für h264 und h265 reicht der prima. Aber eben AV1 geht nicht, weil auf der CPU ist das echtzeit aussichtslos. Da Encodung bei AV1 ist extrem komplex (aka Rechenaufwendig).
 
Kommentieren

GuyFawkes667

Namhafter Pirat
Registriert
21 September 2021
Beiträge
1.818
Erhaltene Likes
4.220
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Etwas spät, aber... NOPE!! 😅 🤣
Klar, wenn die Games etwas älter sind haut die noch rein. Mit Abstrichen wohlgemerkt.
Ohne RT möchte ich aber nicht mehr zocken und mit DLSS auch nicht.
Somit ist die schon arg an Ihren Leistungsgrenzen am werkeln.
Selbst Minecraft 1.21 mit normaler Engine OHNE RT werkelt zum Teil nur noch auf 40FPS@90%>GPU-Usage.
Da kommt die einfach nicht mehr hinter her.
 
Kommentieren
Oben