Technik - Ecke zum Plaudern

level9

Pirate of the 777-Seas
Crew
Registriert
12 Mai 2021
Beiträge
1.574
Erhaltene Likes
5.369
Also... eigentlich isses so, dass man die 5070 etwas undervoltet betreiben sollte. Dann bietet sie gute Leistung hinsichtlich Frames/Watt - und wenn sich die Preise auf ein normales Level einpendeln... hat man eine neue Grafikkarte mit Garantie... ...sie is halt nur nicht besser als die Vorgängergeneration :D

Für die Besitzer einer 40x0 somit im Prinzip kein FOMO und für zwangsweise Neukäufer... leicht modernisierte Hardware zum irgendwann mal ähnlichen Preis.
Theoretische Mehrleistung durch MFG in älteren Titeln mit etwas Glück... dafür aber kein Physix-Support mehr... Also für Retrogaming eher nicht so geeignet...

Ja... also ich denke, mir wird nichts der 5er Serie je ins Haus kommen^^ Es sei denn, die Umstände wären außergewöhnlich günstig...
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Von der Vorgeneration auf die dann jetzt aktuelle zu wechseln, egal zu welchem Zeitpunkt, halte ich sowieso für den größten Schwachsinn, den sich Konsumknechte haben einreden lassen.
Da hat man dann 10 oder 15% Mehrleistung. Ja prima. Das ist wie diese Nutella-Gläser wo fett draufsteht: 20% mehr Inhalt. Ja, das sind zwei Esslöffel etwa.
Das Absolut an "mehr" ist es ja nicht wert dass dann extra zu kaufen. Wenn man sowieso kaufen muss, dann kann man es mitnehmen. Aber doch nicht, um quasi das alte Nutella-Glas wegzuwerfen, nur weil es jetzt eins mit 20% mehr drin gibt. Das wäre ja nachvollziehbar völlig behämmert.

Und das gilt eben universell: Wer eine 4070 hat, der muss sich keine 5070 kaufen. Genau wie jemand, der einen Ryzen 7900X hat, sich jetzt keinen 9900X kaufen muss.
Wer das macht, ganz ehrlich, der gehört erschlagen und an den Laternenpfahl auf den Marktplatz gehängt. Ganz rustikal klassisch.

Wer aber jetzt z.B. eine Grafikkarte braucht, der guckt doch eh dumm aus der Wäsche.
Es gibt im Markt noch vereinzelte 4050 und 4060 Karten von Nvidia - und damit ist das Angebot von dieser "Firma" erschöpfen zuende diskutiert.
Bei AMD sieht es allerdings auch nicht mehr so rosig aus. Immerhin gab es da noch bis vor etwa einer Woche noch gewisse Bestände an 7800, 7900 usw.
Selbst wenn also jemand eine 5000ner Nvidia kaufen wollte, da kann man dann ja nur viel Glück wünschen.

Da kann man AMD ja nur viel Erfolg beim Ausbau des Marketshares wünschen.
Ich überlege auch meine 3070 in Rente zu schicken und gegen eine 9070XT zu ersetzen. Die beiden im Vergleich, da ist die 9070 ja mehr als doppelt so schnell.
 
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
997
Erhaltene Likes
1.781
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja die 9070XT schöpft das Powerlimit generell aus, die 9070 dagegen ist erstaunlich effizient.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Damit meinst Du die AMD Games wo RT eigentlich nur auf der Verpackung steht? 😇
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ist über der Gen 30xx, aber meistens doch unter dem Level der Gen 40xx, aber nicht viel.
Die Karten sind besser als erwartet, aber auch hier sieht man wieder einmal das AMD doch noch einmal nachgearbeitet hat und bei der 9070 XT doch wieder massiv am Powerlimit gedreht hat um an die 5070ti ran zu kommen.
Ich frag mich ja nur was Roooooobert jetzt macht. Da FSR4 nur für die 90xx zur Verfügung steht und wir wissen ja, keiner kann ihm erzählen das so etwas eine technische Notwendigkeit ist. 🤣
Oder gilt der Satz nur wenn es Nvidia betrifft? Warnehmung kann ja doch sehr selektiv sein. 😇
Warten wir mal ab wie die Strassenpreise werden.
Interessant finde ich es aber wieder einmal das man auf das hohe Übertaktungspotential der XT hinweist und dabei gleichzeitig unterschlägt das es schon dutzende Seiten gibt die bei der 5070ti auch schon 10-15% herausgeholt haben bei nahezu identischem Stromverbrauch.
 
Kommentieren

GuyFawkes667

Namhafter Pirat
Registriert
21 September 2021
Beiträge
1.593
Erhaltene Likes
3.743
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Meine RTX3060 lässt mir nun aber mal leider bei vielen Titeln einfach keine Wahl mehr.
Und da ich DLSS bei jeder sich bietenden Möglichkeit einfach abstelle, weil... schaut gräßlich aus...
sind 90-95% GPU-Last für mich leider eher der Alltag geworden.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Natürlich kommt das über die Zeit. Deine Karte ist eben, wie meine auch, von Ende 2020.
Zudem eine 60er, also bestenfalls unteres Mid-Range. Das bleibt da nicht aus.
Meine ist bei neuen Titeln jetzt auch an der Kotzgrenze angekommen. Ältere spielt sie natürlich fein.
Da wird es dann eben mal Zeit über ein Upgrade nachzudenken. Oder man muss eben mit den Nachteilen leben.
Nun gehe ich doch aber recht sicher in der Annahme, dass dir diese Umstände völlig bewusst sind.

Nur gibt es eben auf der andern Seite die, die einfach sinnfrei alles auf Ultra stellen, keine Frame-Limitierung machen und sich einen drauf schleudern, dass irgendwo in der Bildecke was von 200fps steht.
Das ist halt gaga.
 
Zuletzt bearbeitet:
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.313
Erhaltene Likes
2.666
Der Punkt ist ja auch, dass die meisten Ihre Karte nicht auf "99%" Auslastung fahren, sondern in der Regel "synced". Was schlicht 100% Auslastung nahezu ausschließt.

Meine 6600XT nebst etwa 10% Memory OC (Designfehler IMHO, mit 128 Bit etwas zu knappe Speicheranbindung) tut sich mit 60 Hz synced bereits schwer, dreistellige "Watt" zu ziehen - ich überschreite die 80% Auslastung eher selten.

Sieht für mich gut aus, frag mich in 4 Wochen oder so wo sich die Preise eingespielt haben werden.
 
Kommentieren

GuyFawkes667

Namhafter Pirat
Registriert
21 September 2021
Beiträge
1.593
Erhaltene Likes
3.743
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Aber später erworben, weil... Scalper^^
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
1080@60Hz reicht mir und die Karte auch.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Natürlich, aber ein Upgrade im Bezug auf P/L sehe ich noch nicht gegeben.
MB,CPU und Ram haben mich keine 300.-€ gekostet. GraKa alleine damals 440.- Steht so halt in keinem vernünftigen Verhältniss für mich.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Wenn man in einem Tripple Setup Monitore in WQHD und drüber betreibt... klar, kann ich verstehen. Ist für mich aber nicht von belang.
Wenn die RTX3060 bei modernen Titeln (welche mich aber auch wirklich interessieren müssen :cautious: 🤣 ) komplett unter die 60Fps gehen... dann denke ich über ein Upgrade nach.
Natürlich dann auch Board und Prözzel.
Aber bis jetzt... Nope, Reicht mir^^.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Dazu braucht es kein WQHD. Ich spiele ausschließlich in FHD. Habe zwar 3 Monitore, aber ein Game läuft wenn ausschließlich auf dem mittleren.
Indiana Jones lief prima auf guten Settings bei 60fps. Alan Wake 2: No way. Da musste ich ganz schon runter schrauben an den Settings, damit es zumindest an den 60 pendelt.
Die Karten sind eben längst nicht mehr so stark, wie sie einmal waren - relativ betrachtet.
Schau dir die Leistungscharts aktuell mal an, wo eine 3070 rangiert. Eine 3060 wird da oft nicht einmal mehr aufgeführt.

Es hängt aber eben davon ab, was man spielt. Ich bin da jeweniger mit dabei, wenn es um aktuelle AAA Titel geht. Indiana Jones war jetzt mehr so eine Ausnahme.
Bei den Online-Titel die ich favorisiere, habe ich mit der FPS jetzt keine Probleme. Aber eben pauschal zu sagen: Reicht für FHD ist ebenso pauschal so nicht (mehr) gültig.
Insbesondere bei RT Leistung brechen die alten 3000ner mittlerweile stark ein bei aktuellen Games.
Mein Sohn hat z.B. die 3060-12GB im Rechner. Der hat einen 144Hz Freesync Monitor und die meisten Games kommen da schon länger nicht mehr auf 3-Stellige FPS-Werte.
 
Kommentieren

GuyFawkes667

Namhafter Pirat
Registriert
21 September 2021
Beiträge
1.593
Erhaltene Likes
3.743
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Indie habe ich nicht ausgetestet, ich spiele zwar "Indie"-Titel, aber die gehen eher in Richtung Bullet-Hell oder Metroidvanias. Dafür brauche ich eigentlich gar keine GPU ;) .
Alan Wake 2 ist einfach nur Dung. Also so richtige Scheiße. Es schaut einfach, was die Anforderungen und Performance betrifft, nicht GUT GENUG aus.
Hau Dir nochmal CP2077 oder Control auf Dein PC und schau Dir das an....

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
GTX 660 vor 20 Jahren oder so NUR für HW T&L gekauft, damit Far Cry 1 bewegliche Lichtquellen hatte.
Aber da hatte NVidia ja auch gerade erst 3DFX aufgekauft.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Stört mich jetzt nicht wirklich. Schau Dir die Steam-Charts an, da ist die noch sehr beliebt.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Online zocke ich nur UT99-04 (Ja, da gibt es noch Server für^^) oder Zennles Zone Zero.
Bei letzterem ist die Ping (und das eigene Reaktionsvermögen) viel wichtiger als die FPS.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Für 144 war die GraKa aber auch nie gedacht. Ich habe die selbe Baugruppe. 3Stellig hatte ich in modernen Games mit der Karte noch nie🤣.
 
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
997
Erhaltene Likes
1.781
Naja was bei den Games abgeht geht eh auf keine Kuhhaut mehr.
Überlegt mal zurück, die 1070 wurde damals als perfekte WQHD Karte beworben, OK bei der 1080ti hat es für 4K nicht wirklicht gereicht.
Dann hieß es die 2070 ist für WQHD, danach die 3070, die ja die Leistung einer 2080ti erreichte.
Bei der Vorstellung der 3090 hieß es dann das ist keine 4K Karte, das ist eine 8K Karte.
Dann war meine 4070ti ( die ja schneller als die 3090ti ist) wieder nur für WQHD geeignet.
Und jetzt sind es eben die 5070ti und die 9070XT.
Wenn ich ´jetzt mal RT aussen vor lasse da es halt extrem viel Leistung kostet, warum brauchen die Games ohne RT diese unfassbare Leistung?
Sie sehen nicht wirklich besser aus als Games wie zB Witcher 3.
Hier müsste man mal ansetzen und den Game entwicklern mal kräftig in die Fresse hauen und in die Eier treten.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja Triple ist für mich schon extrem wichtig, wenn auch nur in FHD. Alleine schon wegen der Übersicht beim fahren.
Aber in WQHD müsste ich dann schon kräftig Details runter schrauben, die brauche ich aber teilweise für Brems und Einlenkpunkte ( gibt immer wieder so "Fachkräfte" die die Schilder umnieten).
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Naja, zwischen "schaut so aus" und "ist genau so", gibt es schon einen Unterschied.
Damit die Games früher so aussahen, mussten die technische Kompromisse eingehen, die oft auch künstlerische Einschränkungen zur Folge hatten.
Vor allem hier vorgerenderte Licht-Szenen. Schau mal zurück, wie viele Games es früher gab, die eine dynamische Beleuchtung hatten.
Kurzum: Keins. Das wurde, wenn es ansatzweise solche Features gab, eben mit Tricks erreicht, indem man diverse vorgerendete Settings implementiert hat.
Die Lumen Erweiterung in der Unity-Engine als Beispiel ersetzt so ein Vorrendern komplett.
Jetzt könnte man sagen: Ja, also wenn das so rechenintensiv ist, dann soll man eben wieder vorrendern.
Nur nimmt einem das im Spiel ja dann die künstlerische Freiheit mit der Beleuchtung zu spielen, was eben aktuelle Games gerne machen. Genau hinsichtlich dieses Aspekts kamen ja auch z.B. mit dem RT Kram die Tech-Demos, auch bzgl. Spiegelungen.
Oberflächlich ist es eben "auch nur ein Game". Diese eher subtilen Details allerdings kosten richtig Rechenpower.

Auf der andern Seite gibt es ja noch, insbesondere bei Online-Shootern und/oder Online-Games im Allgemeinen, die klassische Game-Konstuktion.
Solche Titel laufen mit hohen FPS Zahlen sehr flüssig. Aber selbst in solchen Titeln kann man dann heute 16-fach AA und 300% Renderauflösung einstellen, damit alles ganz weiche Kanten und feine Details in den Texturen hat. Dann sackt man ganz schnell von 200fps auf nur noch 60 runter.

There is no free lunch.
 
Kommentieren

GuyFawkes667

Namhafter Pirat
Registriert
21 September 2021
Beiträge
1.593
Erhaltene Likes
3.743
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Beschissene Optimierung und fehlendes Know-How?
Einfach weniger Wert auf DEI legen und mehr auf Gameplay. Wir brauchen keine politisch überzeugten Storywriter, wir brauchen mehr Wert auf die technische Entwicklung.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Control und CB2077 schauen UMWERFEND aus.
Leider fällt mir von diesen beiden Titeln kein anderes Game ein, welches RT und Physik so gut kombinieren ließ.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Meine Rede :cool: (y) .
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Würde ich ein Setup für Flu-Sims oder Space-Sims haben... Jupp, verstehe Dich da voll und ganz.
Schön ein Force-Feedback-Setup mit originaler Thrustmaster HOTAS HW...
Für Dich sind es die Brems und Einlenkpunkte, für mich die Kontrolle über mein Spaceship mit Seiten/Höhenruder und Accelerate/Break+Thrust.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Control kann ich nicht sagen. Cyberpunk hatte ich damals, als es rauskam, aber mal ausprobiert.
Abgesehen davon, dass mir das Spiel überhaupt nicht zusagte, kann ich nicht behaupten, dass es umwerfend aussieht.
Es hat mich optisch jetzt eher weniger beeindruckt. Da habe ich schon weit simplere Titel mit deutlich schöner gestalteter Grafik gesehen.
Und so toll lief es zudem auf meiner 3070 mit etwas besseren Grafikeinstellungen jetzt auch nicht. Die hat das natürlich geschafft, sicher, aber stellenweise waren da schon nervige Frameraten-Drops.
 
Kommentieren

GuyFawkes667

Namhafter Pirat
Registriert
21 September 2021
Beiträge
1.593
Erhaltene Likes
3.743
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Lass mich raten... Day1?
Das Game war zur Veröffentlichung ein Desaster, eine totale Katastrophe.
Aber das ist ja hinreichend bekannt.

Ich habe es mir auf GOG nach dem Patch 1.6 geholt, weil... vorher war es echt Müll.
Aber vom 1.6er war ich echt überzeugt, es lief flüssig und war (größtenteils) Bugfree.
Und vor allem, wenn man sich auch die Zeit nimmt, um sich umzuschauen... wunderschön.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Nene, Day1 nicht. Mach ich seit langer Zeit grundsätzlich nicht mehr. Den Ärger geb ich mir nicht.
Hab eben mal bei mir auf den File-Server geschaut und der "neuste" Patch den ich da liegen habe, ist die Version 1.12
Das war der Stand den ich seiner Zeit mal angespielt hatte.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.313
Erhaltene Likes
2.666
Bisher sind die 3rd Party Reviews der 9070/XT wirklich vielversprechend. Etwa 25% mehr als eine 7800XT. Oh warte, ich hab grad eine Idee, welche Karte im P/L wenigstens Anfangs etwas besser daherkommen wird. Weil die 7800XT aktuell bei etwa 500€ +/- ein paar Ocken angenagelt ist und das seit nem Jahr in etwa. UVP war übrigens 499$.

Heisst aber auch für mich: Die weit bessere Raytracingleistung zusammen mit genug VRAM wäre mir etwas Aufpreis wert, auch wenn ich aktuell nichts mit sowas am Hut habe.

@GuyFawkes667
IMHO einer der Gründe, wieso manche Spiele auf Konsole trotz deren übersichtlichen Grafikleistung (im Vergleich zum PC) solide abschneiden. Zum einen ist die Hardware festgelegt und die Entwickler haben maximal zwei Optionen für GPU-Leistungen zur Auswahl. Zum anderen brauchen die Spiele zudem ein "Approval" des jeweiligen Shopbetreibers, dass da kein stotternder Schrott in deren Store reinkommt und am Ende ist die Konsole schuld. Was fast jedem PC Entwickler egal zu sein scheint, Hauptsache der Umsatz mit nem neuen Titel kommt so früh wie möglich und dann mit "Optimierungen" des Typs "selbst Schuld, auf einer 4090 läufts super geschmeidig..."
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Da eine Konsole heute auch nur noch ein "Billig-PC" mit AMD APU ist, müssten Konsolen-Ports dann ja sowas von geschmeidig laufen.
Tja, eher das Gegenteil ist der Fall.
Am PC wollen die Leute eben keine "nur" Konsolen-Grafik. Die wollen da ihre Stellschrauben. HiRes-Texturen, Ultra-Schattendetails, der Dildo muss sich auf dem blanken Arsch der Pixelvorlage spiegeln, sogar die Sumselbienen in der Luft müssen realistische Schatten werfen... und was es nicht alles sonst so gibt.
Bei Konsolen sind die Settings eben so zurecht geschraubt, dass es den besten optischen Eindruck unter den gegebenen Bedinungen hergibt. Sei der der 30fps cap, Low-Details bei irgendwelchen Dingen oder sonstige Tricksereien - die man als Anwender aber eben nicht sieht.


Aber mal was ganz anderes:
Jetzt geht der Katzenjammer bei den Leuten los, weil einigen Board-Partner bei den 9070er Karten auch den 12V High-Power Stecker genutzt haben. Nun haben da einige Angst sie sterben im Flammenmeer. Doom Real-Edition quasi...
Bei ner Karte die rund 300W nuckelt, im Vergleich zu ner Nvidia 5090 die da das doppelte drüber zieht.

War das nicht im alten Forum, wo ich noch schrieb, dass das eigentliche Problem an dem Stecker die nahezu nicht kontrollierbare Balance des Strombezugs über die Einzelleiter ist!? Was hatten wir über die Jahre nicht die witzigsten Vermutungen, von schlechten Crimp-Kontakten, minderwertigen Adaptern, nicht richtig eingesteckt... bla bla bla... Jetzt stellt man fest: Ach, guck mal - wenn ich einzelne Leiter durchschniede, dann werden die übrigen ja wärmer. Nein, doch - ohh! :rolleyes:
Jetzt ist die "Schuld" ja aktuell, weil man die am Stecker alle zuzsammengefasst hat (die 12V Pins). Hat sich von den ganzen Leuten eigentlich mal jemand Gedanken gemacht, warum das eigentlich Stromkreis heist!? Was glauben die eigentlich, was passiert, selbst wenn man jeden einzelnen Pin vom Stecker mit einem seperaten Shunt versieht und dann stattdessen die Masseleistungen durchtrennt!? Dann fackelt der PCIe Slot ab!
Wo Strom hinfließt, muss eben auch wieder welcher zurückfließen. Es ist ja ohnehin schon heute so, das nicht unerheblich viel durch die Masse-Anschlüsse am PCIe Slot abgeleitet wird, was sich einfach aus Ground-Loops ergibt, die ja in dem Aufbau nicht zu vermeiden sind.
Betrifft übrigens 1:1 genau so jeden anderen Strom-Anschluss an den Karten. Es besteht eben nur zu früher der Unterschied, dass wir mittlerweile bei einer Leistung nur bei der Grafikkarte sind, was früher das Rating eines kompletten Netzteils war, das das Gesamtsystem versorgt hat. Das Leistungsniveau ist halt das Problem, nicht der Stecker im Generellen. Stattdessen nostalgieren da so einige Trottel vor sich hin und träumen davon, das mit 3 oder 4 8-Pin PCIe Steckern ja alles besser wäre.

Ich warte ja darauf, dass die ersten Netzteile aufkommen, die das Lösen, indem sie die Ausgänge überwachen. Denn abschließend kann das nur auf Netzteilseite gelöst werden. Es müsste ein Per-Pin Sensing da rein und eine getrennte Masse zwischen ATX-Anschluss und den PCIe Ausgängen bestehen.
Da bin ich mal gespannt, wann endlich mal jemand auf diese Idee kommt und welchen fetzigen Marketingnamen das bekommen wird. Bestimmt sowas wie "High Power AI Sense".
 
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
997
Erhaltene Likes
1.781
Der Stecker an sich ist ja auch in Ordnung. Aber was Nvidia und eben auch die Boardpartner daraus gemacht haben ist eine Sauerei den Kunden gegenüber.
Ich hab da auch ein Vid bei Youtube gesehen was die Thematik gut darstellte.
Bei den 3090/ti wurden vor dem Stecker 3 Module verbaut ( keine Ahnung wie die Dinger heissen, aber das wandelde Lexikon wird es wissen) die haben die Last auf 3x 2 Leitungen verteilt.
Haben auch alle Boardpartner so umgesetzt.
Bei der 4090 gab es dann eben nur noch ein Modul, also Aufteilung auf 2x3 und es traten die ersten Probleme auf.
Auch die Boardpartner haben es dann so gelöst.
Bei den 50xx Karten hat man dieses Modul komplett weggelassen ( kostet vermutlich ein Vermögen das Ding 🤣 ).
Auch die Boardpartner haben alles weggelassen.
Und das ist eben die Sauerei, der Warnschuss der 4090 Probleme wurde ignoriert und mit der Reihe die dann noch einmal ca 30% mehr Strom da durch ballern kann leis man die SIcherung dann komplett weg.
Wäre es nur Nvidia gewesen und die Boardpartner hätten es verbaut würde ich auch rufen lyncht sie.
Leider muss man das bei eben allen Herstellern rufen. Und das bei Karten die so ab 1000€ aufwärts los gehen.
Da AMD für mich absolut keine valide Option ist wird es bei mir kein Triple 1440p geben damit die 4070ti noch sehr lange hält.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Das ist genau der Punkt den ich angesprochen und der ist eben völlig falsch verstanden.
Früher (alles vor 5000ner) gab es eine verteilte Last auf jeweils einer Teilmenge des 12V Anschlusses - ja, das ist richtig.
Nur noch einmal: Das heißt Stromkreis. Das ist ja keine Wasserleitung wo etwas nur irgendwo hinfließt. Irgendwo muss es zurückfließen - selbst bei einem Wasserschlauch...
Dafür sind ja die Masseanschlüsse ebenso an dem Stecker: Je zur Hälft +12V und Masse.
Die Masse kann man aber aus technischen Gründen nicht einfach aufteilen - sie ist der gemeinsame Bezugspunkt zu allem.
Das heißt in der Umkehr: Technisch ist es unerheblich die Lastdistribution der +12V Anschlüsse am Stecker aufzuteilen. Denn die 600W gehen eben auch durch die gemeinsame Masse wieder zurück. Das haben die Entwickler bei Nvidia schon korrekt begriffen.

Der Grund warum der Stecker aber an den +12V Pins kokelt und nicht an der Masse ist der, dass auf Grund der gemeinsamen Masse ein erheblicher Teil des Rückstroms tatsächlich durch den PCIe Anschluss des Mainboards abgeführt wird. Durchaus (worst case) mehr, als die eigentlich spezifizierten 1A pro Pin (aka 5x 12V-Pins mit zusammen 5A aka 60W+15W für 5V/3,3V - woraus diese ominöse 75W Granze für PCIe Anschlüsse stammt).
Egal was man macht: Entweder der Stecker qualmt oder der PCIe Slot.
Den PCIe Slot rettet nur die Tatsache, dass er insgesamt, eigentlich für die Signalintegrität rund 50 Masse-Pins hat, über die der Rückstrom verteilt wird + den Anschlüssen des PCIe-Stromanschlusses. Nun sind aber nicht alle Masse-Pins am PCIe so ausgelegt, dass sie eine hinreichende Stromtragkraft haben. Der Großteil sitzt ja zwischen den Lane-Paaren zur Signalentkopplung.
Das alle Masse-Anschlüsse weg sind, wenn man die durchknipsen würde am Kabel, das bemerkt die Karte nicht einmal - weil die Masse über das komplette Board hinweg ein großes Leiterbahn-Polygon ist, was mit allem gleichermaßen verbunden ist.

Das ist das Problem. Und irgendwie scheint das da von diesen Flitzpiepen auch niemand so wirklich zu verstehen.
Grundsätzlich kann man es denen ja auch nicht übel nehmen, es sind keine Elektrotechniker. Aber dann sollen sie auch nicht Mythen verbreiten, als hätten sie da irgendwas verstanden.
Das Problem ist die Power insgesamt und egal wie man da nun den Stecker genau belegt, einzig ein intelligentes Sensing im Netzteil selbst wäre in der Lage solche Kabelprobleme zu überwachen. Es könnte sogar zu hohe Übergangswiderstände am Stecker bemerken und abschalten. Die Grafikkarte selbst kann das nur extrem bedingt für wenige denkbare Fälle von Schäden.
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Zufälle gibts...
Ich hatte eben mal googeln wollen, ob schon jemals jemand gemessen hat wie die prozentuale Verteilung der Rückflussströme in etwa ist. Ich hatte als Bauchgefühl, wegen der geringeren Leitungsimpedanz auf zwei Drittel PCIe-Slot und ein Drittel PCIe-Stromanschluss geschätzt (Spoiler: passt recht genau).
Naja, da finde ich auf jeden Fall diesen Artikel:
Bitte, Anmelden oder Registrieren um die Links zu sehen!


Schaut mal auf das Veröffentlichungsdatum :ROFLMAO: :ROFLMAO:
Hätte ich es, wie ich das eigentlich noch vor hatte, gestern Abend geschrieben, dann hätte ich dem Vogel plagiieren vorgeworfen :cool:

Allerdings hat er, wie ich das beim Überfliegen des Artikel so gesehen habe, zwei große Denkfehler in seinem Artikel:
  1. Der alte PCIe 6+2 Pin Stromanschluss hat im Endeffekt gar keine 5 Masseleitungen. Ja, es sind 5x Masse belegt - allerdings werden zwei der Leitungen ausschließlich zum detektieren des eingesteckten Steckers verwendet. Die werden für den Lastfluss überhaupt nicht benutzt.
    Deswegen das Messergebnis.

  2. Kann man mit einem "durchdachten Platinenlayout" das Problem überhaupt nicht lösen. Man kann die Masse-Domänen dort nicht trennen. Das Problem sind die Netzteile und ihre unterschiedlich langen Anschlusskabel.
    Wie sagt man so schön: Strom ist ne faule Sau, die suchst sich immer den einfachsten Weg. Genau gesagt: Den niederimpedantesten aka den, mit der kürzesten Leitung (unter der Annahme der Kabelquerschnitt ist identisch - deswegen ist da Impedanz als Begriff der eigentlich richtige).
Naja, aber ansonsten passt der Artikel im großen und ganzen soweit ich das beim Überfliegen gesehen habe. Er beschreibt exakt das von mir oben erwähnte Problem.
 
Kommentieren
Oben