Technik - Ecke zum Plaudern

WolfKakashi

Namhafter Pirat
Registriert
29 April 2022
Beiträge
232
Erhaltene Likes
400
Ich muss jetzt mal ganz ehrlich bei der ewigen VRam Diskussion reingrätschen.
Ich zocke auf WQHD mit meiner 1080Ti und ich hatte selten ein Game welches mehr wie 7 oder 8 GB gebraucht hätte. Nur Space Engineers brauchte auf mittleren Einstellungen 11GB (mehr habe ich nicht)
Cyberpunk, Witcher 3 (ok ist aus 2015) Destiny 2, Palworld, Satisfactory, Cities Skylines etc. Ich persönlich wäre bis jetzt mit einer 8GB Karte gut ausgekommen.
Skyrim und Fallout mit jeweils 200 Mods sind auch bei weniger als 8GB. 2 meiner Arbeitskollegen haben sich das große Modpaket von Skyrim runtergeladen mit ca 3500 Mods, da kommt deren 4090 auch nicht mehr mit, ist aber schon übertrieben.
Mal sehen was die neuen Games so brauchen.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.239
Erhaltene Likes
2.503
Kommt aufs Spiel an ... siehe
als etwas detaillierter Beitrag. Kommt wie üblich auf die Game-Engine an, die Settings .... Wer alles auf Ultra dreht hat "Spass" oder eben nicht.

Siehe auch

Was mich als Besitzer einer 3070(ti) ärgern würde - die Karte wäre auch heute noch für "alles auf High/Ultra" gut genug von der GPU her, aber eben nicht mehr vom Speicher. Und da DLSS genau wie RT auch Speicher kostet - das ist knapper, als es hätte sein müssen. Bei der 3070 als Mittelklasse-Karte damals konntest du IMHO noch drüber nachdenken, ob 8 oder 12/16 gb angemessen wären. Aber die 3070 Ti hätte genau wie die 3080 nicht so knapp bestückt gehört, das fand ich bei dem Preisschild durchaus frech.

Und ja, meine 6600XT hat auch nur 8 gb und ich spiele WQHD. Aber eben "alles auf Ultra und gut ist" kann die nicht, war nie dafür gemacht. Mit "Medium to High" komm ich noch hin, kostet eben etwas Zeit, an den Settings eines Spiels zu fummeln und zu gucken, mit welchen Einstellungen aktuelle Titel halbwegs gehen. Weil unter 45 Hz will ich nicht fallen, da mein Screen "60/70" Synced kann.
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.660
Das VRAM Argument kaufe ich auch nicht. Ich habe selber eine 3070 mit 8GB. Das juckt mich kein Stück.
Wenn man natürlich wie ein gestörter an den Schrauben in den Settings dreht, dann kann man jeden VRAM füllen.
Bei dem Indianer Jones Spiel hat das Spiel dann auch gesagt, dass ich bei Texturdetails nicht mehr als Mittel einstellen kann und höheres wegen Speicher Performance kostet.
Ob man das aber jetzt auf High oder Ultra setzte, das kann man sich in die Haare schmieren. Der Unterschied war völlig egal. Ja, wenn man dann mit dem Character stumpf mit der Nase gegen die Wand gelaufen ist, sahen die Mauersteine etwas "detaillierter" aus. Was soll so ein gestörter Quatsch!? Ich lauf in so einem Game doch nicht alle Wände ab und zähle die Pixel.

By the way: Man kann die 3070 übrigens auf 16GB aufbohren. Falls meine mal wieder Artifakte zeigt und ich da sowieso richtig dran muss, werde ich mal überlegen die RAM Chips zu tauschen und sie aufzubohren. Nur um mal zu zeigen wie sinnlos das Argument ist. Weil dann kann ich exakt diesen einen Grafik-Chip einmal mit 8GB testen und einmal mit 16GB (das könnte man sogar umschaltbar machen...). Dann sind diese ganzen Unschärfen mit dem Vergleich von Äpfeln und Birnen komplett raus.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.239
Erhaltene Likes
2.503
Siehe

Trotzdem: Besser haben und nicht brauchen als umgekehrt. Zudem fressen neue Titel tendenziell immer mehr Ram, Framegen braucht genau wie HW Raytracing ebenfalls etwas mehr Ram als "Native" von Haus aus sehen will. Nun lausig optimierte Texturen bei neuen Titeln und du hast ne Microstutter-Party.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.660
Suchen wir uns jetzt wieder den passenden Benchmark zur Meinung?
Irgendein grausig optimiertes Spiel soll jetzt herhalten, um zu argumentieren, dass man mehr "braucht"?
Ich denke, dass Indiana Jones und der Kreis vom Dingensbummenspillemann mit Release Dezember 2024 wohl ganz sicher zu den neusten Titel gehört, die man derzeit so spielen kann. Und spielen kann man es. Ganz ohne Probleme. Und bei 1080p oder 1440p braucht man keinen Framegen-Quatsch. Ruckeln habe ich da auch keins gesehen. Da muss man einfach mal realistisch bleiben. Das alles immerhin mit einer 2 Gens. alten Karte, die jetzt dieses Jahr auf 5 Jahre kommt.
 
Kommentieren

level9

Pirate of the 777-Seas
Crew
Registriert
12 Mai 2021
Beiträge
1.538
Erhaltene Likes
5.219
Ist halt auch wieder dieses Enthusiasten-Problem. Die letzten 3% aus irgendwas 'rausholen kostet halt immer exponentiell mehr.
Bislang, natürlich habe ich da auch nicht solche übertriebenenen Ansprüche, bekomme ich sogar noch alles mit einer 2070 Super ans Laufen und es läuft alles (*was als Retail released ist) spielbar gut - auch mit einer 8GB Karte. Natürlich red' ich "nur" von FullHD.

Na klar is' damit kein 4k Texturengedöhns, Raytracing und am Besten noch Pathtracing möglich. Aber: Braucht es das auch wirklich?
Klar, wer jetzt sagt: Ich will das - shut up und gib' Dein Money aus.
Wer allerdings "nur" spielen will... also ich denke, da geht auch immernoch 8 GB eine Weile lang.

Auf der anderen Seite muss man natürlich auch sagen... Was kostet es den Hersteller denn, ein paar GB mehr auf so eine Karte zu flanschen... dass das nicht gemacht wird ist ja genau die Absicht, den Gamern zu suggerieren: Da wird sich das eng, also blätter' mal schön Deine Scheinchen hin.....
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.660
Genau, es wird zur Klassen-Abgrenzung genutzt.
Wenn du bei dem fauligen Fallobst das Teletröt mit doppelt Flash-Speicher haben willst, dann kostet das saftig Aufpreis. Der hat aber nichts mit den tatsächlichen Mehrkosten für den Speicher als solches zu tun.

Und am Ende hängt es nicht nur davon ab, womit man sich begnügt, es hängt auch stark davon ab, was man da für Games spielt.
Insbesondere Titel, wo es um Wettbewerb geht, also hier beispielhaft Shooter, die Begnügen sich mit weit weniger Speicher. Da werden kleine Maps geladen und die Assets sind so gestaltet, das unter keinen Umständen Laderuckler entstehen können, über die Spieler dann meckern, weil sie das als Grund nehmen, warum sie unterlegen waren.
Das betrifft also einen großen Teil aller Spieler, die sich in Online-Titeln tummeln. Für diese große Masse wird es selbst auf längere Sicht völlig egal sein, womit sie da spielen, weil selbst ein älteres Notebook allemal genügt. Da gibt es nur die paar Beschmierten, die bei Counterstrike meinen, sie brauchen Elfendrölfzigtrillionen FPS. Die kaufen dann einen 9800X3D und eine 4090, aber nicht wegen dem riesigen VRAM.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.239
Erhaltene Likes
2.503
Meine 6600XT ist etwa das Niveau deiner 2070S, nur hab ich eben WQHD. Wobei ich bei Nvidia den Verdachte hatte auf "Upselling". Mach unten bewusst was kleines rein und dann wird im zweifel eben was größeres gekauft. Siehe den 8 gb Launch der 4060, welche erst die 659€ UVP der 4070 mit 12 gb für mehr Speicher hatte. Was damals fast die doppelte UVP war.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.660
So wie bei AMD schon seit min. 10 Jahren "16GB" als Verkaufsargument vorgeschoben wird, weil das ja so "zukunftssicher" ist.
Ja, wer kennt nicht all die Leute, die sich eine Vega mit 16GB gekauft haben, damit sie ganz Zukunftssicher noch heute... ähm... nee... eher doch nicht mehr damit spielen.
Es ist ein primitiver Fressinstinkt des Menschen lieber den Teller mit "mehr drauf" zu nehmen, weil man meint, sonst käme man zu kurz. Das ist nicht rational, das ist emotional oder wohl mehr noch Urinstinkt.

Mittlerweile ist eben der RT-Kram ein zusätzlicher Speicherfresser, weswegen 8GB nunmehr an einem Scheideweg stehen. Es ist aber eben nicht so, dass man damit nicht mehr spielen könnte. Und das Argument heraus zu kramen, dass man damit ja nicht "zukunftssicher" sei, unterschlägt den schlichten Umstand, dass es in 5 Jahren das Mehr an VRAM eben auch nicht bringt, weil die GPU als solche dann bei neuen Titel schlapp macht.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.239
Erhaltene Likes
2.503
Ah, deine quasi 5 Jahre alte GPU macht in etwa 2026 schlapp weil die dann aktuelle Titel nicht mehr packt und am Speicher liegts nicht?

Ich versuche nur deine Logik zu verstehen. Und ja, mir sind die Zusammenhänge aus Busbreite und Speicherhipgröße etwa bekannt. Was übrigens erklärt, warum die 3060 statt 6 gb wie die 2060 dann 12 bekommen musste, weil 6 gb war wohl selbst Nvidia als Geizhals beim Speicher zu wenig. Bei der 3060 Ti und deren breiterem Bus haben dann 8 GB gereicht, die nächste Ausbaustufe wären halt 16 gewesen.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.660
Ich kann dir nicht folgen. Was ist der Punkt?
Worauf zielt die Frage ab? Das ich zum Jahrmarkt fahr und eine Wahrsagerin beauftrage, was 2026 das Problem mit meiner Grafikkarte ist?

Was ich dir aber mit Gewissheit stand Heute sagen ist, dass eine Vega64 mit 16GB, obwohl sie 16GB VRAM hat, bei aktuellen Titeln hoffnungslos ausgelutscht ist. Und was ich dir ebenso mit Gewissheit sagen kann ist, dass Alan Wake 2, immerhin nun auch schon aus Herbst 2023, auf meiner 3070 mit diversen RT-Features auf Wenig bis Mittel und High bis Ultra-Settings bei den Grafikeinstellungen eine Ruckelparade mit weniger als 30fps hinlegt. Dabei ist der VRAM dann mit lediglich 7GB belegt...
Was ich also weiß ist, dass der 32cm Pimmel auch nix bringt, wenn das wo der dran hängt, nur 2 Minuten durchhält.

Du willst aber nun argumentieren, dass ich potenziell 2026 mit der 3070 ja gar kein Problem in aktuellen Games hätte, wenn sie denn 16GB mitbrächte.
Das ist ein so dermaßen großer Trugschluss, dass es dafür eigentlich gar keiner Erklärung bedürfte...
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.239
Erhaltene Likes
2.503
Was ich sagen wollte, dass du dir selbst widersprichst. 16 gb zu Zeiten, wo 6-8 gb völlig OK waren - rausgeschmissenes Geld. 8 gb mit einer CPU, die wegen DLSS, RT und was weiss ich eher mehr brauchen könnte - kannste diskutieren.

Mich hat getriggert, dass du "Und das Argument heraus zu kramen, dass man damit ja nicht "zukunftssicher" sei, unterschlägt den schlichten Umstand, dass es in 5 Jahren das Mehr an VRAM eben auch nicht bringt, weil die GPU als solche dann bei neuen Titel schlapp macht." anführst. Du steht bei etwa 5 Jahre nach Kauf/Release.

Die 3070 hat meiner Ansicht nach das Potenzial gehabt, mit "mehr Speicher" klar besser zu altern. Siehe die 1080 bzw. deren Ti mit 8/11 gb - statt 4 gb wie damals üblich), die auch heute noch für FHD völlig OK ist. Chance vertan finde ich. Die GPU ist schnell genug, deren Speicherausbau eher nicht.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.660
Ich widerspreche mir nicht. Wo siehst du das?
Eine 3070 hatte 8GB. Das hat auch gelangt. Das langt auch heute noch. Die 3070 nährt sich aber, was das aufgefahrene Featureset von Games betrifft, einem End-Of-Life aus insgesamt einer Reihe von Gründen: Entweder du aktivierst RT-Features und sie geht in die Knie oder du drehst Texturen auf Ultra in höhen Auflösungen und sie bekommt Probleme mit dem Nachladen. Beides zusammen muss aber "besser" sein, damit sie weiterhin eine Chance hat. Das sieht man eben auch bei einer auf 16GB modifizierten 3070, wo man sich gezielt Benchmarks und auch in diesem Spiel Stellen aussuchen muss, wo man messbare Unterschiede in den Lows aufzeigen kann. Der 16GB zu geben, bringt mir in Alan Wake 2 aber nicht die hübschen RT Beleuchtungs-Features, weil das Games dann einfach weiterhin fast eine Dia-Show ist.
Eine 4070, und die erschien ja immerhin auch schon 2022, hat bereits 12GB. Auch das reicht. Das reicht auch mittelfristig. Bis das zum Problem wird, ist die GPU selbst ein Problem.
Eine 1080 hat heute auch kein Problem, weil sie "nur" 8GB hat. Frag mal tastebin . Diese Serie hat heute ein Problem, weil sie gar keine RT-Features mitbringt und so langsam die Games kommen, die diese einfach voraussetzen. Games die technisch noch mit einer 1080 können, die haben kein VRAM Problem. Wie sollten sie auch, wenn sie mit einer 3070 mit selben Speichervolumen auch laufen? Die haben ein Problem mit der GPU. Sie ist mittlerweile zu langsam.
Meine Tochter hat noch eine GTX970 im Rechner - ihre Spiele laufen damit. Die Karte hat 4GB oder sagen wir lieber "3,5+0,5".
Eine RTX5070 wird jetzt auch "nur" 12GB haben. Auch das reicht. Bevor man da Probleme bekommt, wird auch da die GPU der störende Faktor sein.

Nvidia geht da also schon einen sinnvollen Weg, der nicht darin besteht einfach nur sinnfrei Speicherkapazität in den Ring zu werfen, damit man es auf den Karton drucken kann - so wie AMD schon 2017 mit der Vega64 und ihren 16GB.
Ich weiß noch, dass exakt die selben Diskussionen liefen: Das es ja viel besser sei mehr VRAM zu haben. Das Nvidia einfach nur geizig ist. Dass man deswegen ja auch noch in Zukunft besser mit der Vega steht. Nvidia-Karten vorzeitig altern werden. Bla, bla, bla... Damals habe ich geschrieben, dass es einfach nur an AMDs dämlicher HBM-Entscheidung liegt und sie schlicht so viel drauf nageln müssen, weil es für ihren Zweck keine kleineren Chips gibt, um den Vollausbau an Speicherbandbreite zu bestücken.

Jetzt zu sagen, dass eine 3070 mit 8GB bei den hier und da nun aufloppenden Games Probleme macht und man ihr 16GB hätte geben sollen, wodurch auf magische Weise die Probleme verschwinden sollen, verkennt einfach das Problem, dass die Karten jetzt ins 5. Jahr geht und an mehr krankt, als einzig am VRAM.
Jetzt merkt man langsam die Einschnitte. Die steigen nun Jahr für Jahr. In spätestens 2 Jahren wird die 3070 sicher nicht mehr tragbar sein, zumindest für das Klassen-Niveau war sie darstellen soll, aber wäre sie mit 16GB gekommen, hätte das absolut nichts daran geändert. Ich hätte lediglich mehr Geld für den zusätzlichen Speicher ausgeben müssen. Perspektivisch 2026/2027, werden Games im Mart sein, die noch mehr RT einsetzen und dann klappt die 3070 zusammen. Dann kann man sich entscheiden, wenn es geht, komplett ohne RT zu spielen. Aber das sind dann schon Einschnitte, die weit über die Frage hinaus gehen, ob man vermehrt Lows in den FPS hat oder Texturen von High auf Low stellen muss.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.660
Hier gab es ja einige Male die Diskussion von wegen: Nimm lieber ein Board mit PCIe 5.0, weil ist ja besser, weil früher war ja auch schon mit einer schnelleren PCIe Gen mehr raus zu holen.
Ich habe immer dagegen argumentiert, dass es spätestens ab 4.0 belanglos wird, zzgl. entsprechender Begründungen, aber warum nicht einfach mal mit der derzeit schnellsten Gaming-Grafikkarte einen Vergleich machen:


Zusammengefasst: Der Unterschied zwischen PCIe 3.0 x16 und PCIe 5.0 x16 liegt bei 1-4%. In Absolutzahlen: 1-5 FPS
Ja, richtig gelesen: Von 3.0 im Vergleich zu 5.0. Der Gewinn von 4.0 hin zu 5.0 fällt unter Messtoleranz (<1%).
Oder anders gesagt: Auch eine RTX5090 per PCIe 4.0 x8 angebunden, wird so gut wie gar nicht durch das Interface ausgebremst.
Ob man 4.0 oder 5.0 nimmt, spielt hingegen nicht die geringste Rolle. Für Grafikkarten ist das irrelevant.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.239
Erhaltene Likes
2.503
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Nicht alles, was hinkt ist ein Vergleich. Heute ist 4.0 versus 5.0 egal, hab ich nicht anders erwartet und habe ich auch nie behauptet. Aber: Was machst du, wenn die "6090" oder dann kommende 11er Radeon-Generation auch bei den Hochleistungskarten "nur" noch mit 8 Lanes statt wie bisher 16 angebunden werden weils PCB billiger wird (wie du selbst schon gesagt hattest)? Oder gar nur noch 4 Lanes im "Mittelklasse/Budget-Bereich" verwendet werden?

Siehe 3060 versus 4060 oder eben Radeon 5600 versus 6600? Dazu nochmal ein zu erwartender Leistungsschub um etwa 30% für einen echten Generationssprung (siehe die 20er zur 30 Serie) und du merkst es. Für M.2 Anbindung ist das Kappes, mehr als schnell genug geht nicht. Ich hab beim Umzug meines Systems nicht mal den Unterschied zwischen der SATA SSD auf eine M.2 wirklich gemerkt.

Für Budget-Systeme ist PCIe 5.0 als Feature ziemlich egal. PCIe 4.0 AM5 Boards kosten aktuell "ab 140€" und bessere etwa um 170€. Mit PCIe Gen5 zahlst du etwa "ab 180€", siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!
... Gibst du 800€ für einen PC aus, kannst und musst du sogar 50€ beim Board sparen - Beispiel eben günstige AM5 Boards GEN4 versus den ersten mit GEN5. Bei 1500€ Budget oder so oder gar was ab 4080 als Graka und damit satt oberhalb 2000€? Find ich technisch am falschen Ende gespart. Gerade wenn man sich einredet, dass man ein Board/System "10 Jahre halten / betreiben kann".
 
Kommentieren

level9

Pirate of the 777-Seas
Crew
Registriert
12 Mai 2021
Beiträge
1.538
Erhaltene Likes
5.219
Naja, wenn das für eine 6x-Generation relevant wird, weil die dann eben davon über eine Messtoleranz hinaus profitieren kann, dann ist das ja gut. Und dann ists ja auch richtig, dies dann zu implementieren.

So wirds aber - vermutlich - dazu führen, dass viele "weil muss ja zusammenpassen" auch einen Boardtausch vornehmen (gerade das Enthusiasten-Segment, was einfach Kohle reinschmiert) werden, obwohl dies einfach nicht notwendig gewesen wäre. Muss man halt aus dieser Richtung betrachten. Denn das offizielle Marketing wird Dir nicht sagen: Mit dem 4er Standard ist die Karte genauso schnell.

Klar, wenn man neue Hardware baut, sollte man eben auch aktuelle Standards einbauen - sonst kommt der Shitstorm aus der anderen Richtung angaloppiert und alle orakeln, dass Nvidia künstlich beschnitten hätte, wenn "immernoch" der alte Standard verwendet wird.
So wird jetzt eben halt auf die Karten geschaut und 'ne Schnute gezogen, weils keinen Unterschied macht, ob nun PCIe 4 oder 5 vorhanden ist.

In jedem Fall das "übliche" Problem: Nvidia ist der Verlierer, weil alle drüber motzen bzw. es mindestens bemäkeln.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.660
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Was machst du, wenn ein rosa Einhorn vorbei geritten kommt und dich fragt wo es nach Nonsense geht?
Erst stellst du völlig selbstverständlich gewisse Uplifts in den Raum, als Beleg dient dann ein "war ja früher auch schon so", nun ist das schwarz auf weiß widerlegt und es werden neue Begründungen erfunden, warum die eigene Meinung dann eben doch stimmt. Fundiert ist da aber einfach gar nichts dran.

Was du seit geraumer Zeit nicht verstehst ist, dass es Gründe hat, warum Bandbreite auf dem Bus nicht (mehr) das Problem ist.
Schon jetzt kannst du auf dem Bus in einer Sekunde deinen kompletten RAM-Inhalt rüberschieben. Das Problem ist halt nur: Dein RAM schafft das gar nicht.
Das andere Problem ist: Die Grafikkarte braucht das überhaupt nicht. Was soll sie damit?

Hast du im Ansatz eine Ahnung wie die rendert? Da fließen nicht ständig unendlich viele Daten hin und her, um ein Bild zu produzieren. Alle Assets, deswegen hat eine dedizierte Grafikkarte das ja, landen im VRAM "pre-loaded". Was über den Bus geht sind einzig Mesh-Daten, die das Polygon-Transforming bestimmen und sagen, welche Texturen wo drauf gepinselt werden sollen, in welcher Art und Weise und das ggf. von irgendwelchen Shadern noch verfeinert.
Das sind nur "Anweisungen", also Bruchteile von Bruchteilen der Daten, die da am Ende bei rauskommen.
Wenn du deinem Lieferdienst sagst, du willst nen Schnitzel, dann fährt der nicht los und geht nen Schwein schlachten. Der nimmt die Anweisung und legt son vorbereitetes Teil in die Pfanne.
Entscheident sind jetzt nur drei Faktoren: Wie schnell kannst du ihm am Telebimm sagen was du willst. Wie schnell brät das seine Pfanne und wie schnell ist der Bote an deiner Haustür. Du hast also das Problem von 1x Arbeit und 2x Laufzeit, in der Erfüllung der Gesamtaufgabe.

Ja, ein schnellerer Bus erzeugt i.d.R. kürzere Laufzeiten (allerdings nicht immer, später dazu mehr). Jetzt würde man meinen, dass es deswegen nun schneller geht. Dem ist aber nicht zwangsläufig so. Denn zum Einen steht Laufzeit und Arbeitszeit in einer Relation und wenn Laufzeit nur wenige Promille ausmacht, ist eine Reduzierung selbst um die Hälfte dort teuer erkauft, aber für wenig Gegenleistung in Summe verantwortlich. Zum andern wird Laufzeit technisch weitestgehend eliminiert, indem man die Aufgabe rüber schiebt und während die Aufgabe "arbeitet", man die nächste Aufgabe schon einmal rüber schiebt. Queuing nennt man das und ist Standard bei so einer Art von Technik.

Dein ganzes Postulieren von: Ja, aber dann in Zukunft, wenn.... Ist deswegen genau das: Ein dermaßen hinkender Vergleich, der braucht schon einen Rollator.
Vor allem weil die Reaktionszeit, die die Laufzeit mitbestimmt, mit steigenden PCIe-Generationen kaum sinkt. Erinnern wir uns zurück: Beides ist eine Summe und Sparen an einem Faktor aus dieser, kann keine signifikante Reduktion erzeugen, wenn der Faktor selbst nur eine kleine Teilmenge der Summe ist. Allein mathematisch schon völlig einleuchtend (by the way aktuell der Trick mit der Basiswahl, mit der der Bund der Steuerzahler die Entlastungspläne der FDP jüngst schönrechnete - kann man nämlich auch umgekehrt nutzen).
Die Transaktionszeiten von PCIe 4.0 zu PCIe 5.0 sind kaum gesunken. Es braucht eben eine gewisse Zeit den Transaktionsprozess zu initiieren, durchzuführen und abzuschließen. Das ist analog zu den RAS/CAS Timings bei DRAM, wo ich auch schon vorgerechnet habe, dass dessen Absolutzeit zwischen DDR4 und DDR5 quasi unverändert ist. Pushed man aber viele Transaktionen, weil man - selbst wenn man alles andere noch irgendwie optimieren könnte - viele Frames pro Sekunde rendern muss, hat man mit jedem Frame Transaktionsdelays die man nicht los wird.

Deswegen sieht man nahezu keinen Unterschied zwischen PCIe 4.0 und PCIe 5.0 und wird das auch bei einer RTX 9000 nicht merken, in einer Form von der man sagen könnte: Naja, jetzt isses mehr als Messrauschen.
Der Bus hat kein Bandbreitenproblem mehr. Bandbreite ist nicht mehr der dominierende Faktor in der Gleichung. Da sich die Transaktionszeit zwischen 4.0 und 5.0 nicht im relevanten Maße verändert hat, wird das niemals ein relevanten Uplift zur Folge haben. Du äußerst hier nur deine Meinung, welche sich technisch aber nicht sinnvoll begründen lässt, weswegen es dann in so Absurditäten mündet wie: Ja aber was ist, wenn eine x4-Karte kommt... Was ist eigentlich, wenn ich 5.0 habe und jetzt eine x1-Karte kommt? Das führt ja offensichtlich in ein völlig absurdes Territorium von "wünsch dir was". Vor allem auch deswegen, weil ein PCB nur billiger wird (unter der Maßgabe Mindestspezifikationen elektrisch, mechanisch, qualität, ect. zu fixieren), wenn es kleiner wird. Höherwertige und damit auch vor allem deutlich schwerere Karte mit einem x8 oder gar x4 bereiten Slot-Steckkamm auszustatten führt nur zu eins: Gebrochenen Platinen. Heute schon bei x16 ein Problem.
Für leistungsfähige Karten also unpraktikabel und für leichte Mittel bis Low-End Karten spielt es keine Rolle, weil der Unterschied dort vernachlässigbar ist - belegt mit dem Vergleich zu PCIe 3.0. Denn es hieße ja, dass eine heutige 5090 als kommende 6060 auf den Markt kommt und dann PCIe 5.0 haben müsste, um gegenüber 4.0 nicht im 1% Bereich FPS Nachteile zu erleiden. Welche Irrenanstalt hat bei dir denn gerade Freigang?
Das ist ja pures Wunschdenken. Eine 6000 oder eine 7000ner Serie wird diese Zuwächse nicht bringen. Dann haben wir irgendwo so etwa 2028 oder 2029, vielleicht auch 2030, wenn Nvidia mangels Konkurrenz wieder etwas rumpimmelt bei neuen Gens. Dann redet wahrscheinlich niemand mehr von PCIe 5.0, sondern dann ist 6.0 gesetzt und DDR6 steckt auf den Boards. Dort startet dann der komplette Mythos von Neuem.

PCIe 5.0 ist jetzt und auch in absehbarer Zukunft nur relevant für den Chipsatz-Interconnect zwischen CPU und Chipsatz, als auch für die Storage-Interfaces und deren leidiges Lane-Sharing. Für Grafikkarten ist das aber Nonsense. Und ob jetzt der Otto-Normal-Daddler von Übermorgen die Mörder-NVMe mit PCIe 5.0 braucht, um in einer Sekunde mehr von dieser zu laden, als er überhaupt RAM in seiner Daddelkiste hat, dürfte doch arg zu bezweifeln sein.

Aber du wirst natürlich bei deiner Meinung bleiben. Um es einfach mal mit Dieter Hildebrandt zu sagen: Meinungen sind wie Grundstücke: Erstens sind sie zu teuer, und zweitens kann man nicht immer darauf bauen.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.239
Erhaltene Likes
2.503
Ich sehe es etwas anders. Für eine 4080/4090 und Co und damit 1200 Euro aufwärts spielen die Kosten für das Board keine wirkliche Rolle. Beim "Budget-Segment" wie eben 4060/6600XT aufwärts und damit irgendwas um 300€ +/- 50 Ocken Endkundenpreis spielen die PCBs eher eine Rolle, weil Margen unterm Strich eher eng sind. Heißt - im High End Segment genug Lanes einbauen ist ein No-Brainer. Im Budget Segment irgendwann nur mit 4 oder 8 Lanes angebunden zu sein, das kann in 1-2 Generationen an Grakas in die Hose gehen. Plus dem Umstand, dass niemand mit etwas Hirn 2000€ für eine 4090/5090 ausgibt, um diese in einen "nur" PCIe 3.0 und entsprechend alten Rechner (CPU, ggf. Uralt-Rams) zu stecken.

Und ja, Karten wie die 6600XT mit PCIe 3.0 statt 4.0 oder eben 4060 an GEN3 anzubinden HAT bereits "etwas" Geld gekostet. Siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!
mit der Kernaussage "PCIe 3.0 degradiert die RTX 4060 Ti zur RTX 3060 Ti". Kein substanzieller Verlust, aber du verlierst was. Nein, nicht unspielbar. Aber auch nicht erstrebenswert. Was zusammen mit einer vermutlich eher alten CPU (weil warum sonst "alte Standards" bzw. Boards verwenden) noch was zusätzlich liegen lässt. Irgendwann summiert sich das auf.
 
Kommentieren
Oben