RTX 4080 und ggf. neue CPU?

MrHonk

mit Baby Bruno
Registriert
6 Mai 2021
Beiträge
659
Erhaltene Likes
1.134
N'Abend in die Runde.

Normalerweise würde ich ja selbst Abende lang Vergleichen und Videos schauen/Testberichte lesen bis zum Umfallen, aber dafür fehlt mir aktuell die Zeit. Und so kam ich auf die Idee euch einfach mal zu fragen. Und eine Bitte vorab @RobMitchum und @Finus04 - lasst diesen Thread bitte bitte bitte nicht zu einem AMD/Nvidia Battle zwischen euch werden - es soll wenn dann definitiv wieder eine Nvidia Karte werden und da bringt es nichts mir AMD Grafikkarten vorzuschlagen.

Ich spiele mit dem Gedanken meine RTX 2080 an meinen Neffen weiterzuvererben und mir selbst dann eine RTX 4080 zu kaufen. Sein Computer wurde während der Corona Pandemie zusammengebaut und da hatten wir erst einmal auf einen AMD Ryzen 3200G gesetzt, da wir nicht einsahen, für eine popelige GraKa horrende Preise zu zahlen. Bei mir würden dadurch die meisten Spiele öfter in UHD gespielt werden. Aktuell skaliere ich auf meinem UHD Monitor auf FHD runter um höhere Grafiksettings fahren zu können.

VR wird es bei mir nicht geben, ich konnte erst vor Weihnachten wieder so eine Brille ausprobieren und für mich ist das einfach nichts. Der FS2020 sieht in VR geil aus, keine Frage, aber bereits beim Anrollen und dabei Umschauen wird mir übel. Und so geil, das ich wochenlang mein Gehirn erst trainieren muss um kaum oder fast keine Motion Sickness mehr zu erleben, das ist es mir einfach nicht wert.

Welche 4080 wäre denn aktuell empfehlenswert und warum meint der Bottleneck Calculator meine CPU (Ryzen 9 3900X) würde einen Flaschenhals für eine 4080 bei UHD Gaming darstellen? Laut dem Calculator wäre ein Ryzen 9 5900X ideal für die Karte, aber so ganz nachvollziehen kann ich das bei den CPUs ehrlich gesagt nicht. Soooo alt ist der 3900X ja nun auch noch nicht, das eine nur drei Jahre jüngere Grafikkarte ihn an Limit bringen soll.

Ein neues Netzteil muss ja schon alleine schon wegen der neuen GPU-Anschlüsse bei Nvidia her, reicht da ein 750W Netzteil noch aus? Die TDP der 4080 liegt ja bei 320 W, wobei Nvidia bei der aktuellen Generation die TDP für sich neu definiert hat. War die TDP bisher ein Wert, der kurzfristig immer wieder mal überschritten werden konnte, und die GraKa meist knapp unterhalb der TDP an der Leitung nuckelte, gilt diese seit dieser Generation als das alleräußerste Maximum was die Stromaufnahme angeht und der eigentliche Durst liegt deutlich darunter.

Der Rest meines System wird beibehalten. Wenn der Wechsel der CPU auf einen 5900X spürbar sein sollte, dann würde ich das maximal noch mit in Erwägung ziehen, aber mehr wie 2.000 € +/- ein paar Euros wollte ich jetzt nicht unbedingt dafür ausgeben.
 
Zuletzt bearbeitet:

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
811
Erhaltene Likes
1.267
Ist eigentlich egal welche Du nimmst, die sind alle gut.
Der Kühler war ja für die 4090 gedacht und ist selbst da überdimensioniert, also wird keine heiß.
Und was das Bottleneck angeht, klar kann es sein das der 3900x die Karte bremst, aber in 4K werden wir da von 3-6FPS reden, je nach Game.
Bei den 1% und 0,1% Lows ist es eventuell etwas mehr. Trotzdem würde ich mir da erst einmal keinen großen Kopf machen.
Und ja ein 750W NT reicht definitiv aus. Selbst wenn die Graka 350W und die CPU 250W ziehen würde ( was ja beides gleichzeitig eher unwahrscheinlich ist) bleiben eine Menge Reserven.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.688
Erhaltene Likes
1.534
UHD meint "4K"? Hab Zweifel dass ein 3900X da ein substanzielles Problem ist. Wenns dir auf Single Core Speed ankommt: 5800X3D rein (so lange man den noch bekommt) und gut ist. Ich würd mir die Kohle sparen und ggf. auf die 7er Generation mit AM5 als "Upgrade" in 2-3 Jahren setzen.

Edit:
mit einer 3090 gemessen. Die 4080 ist etwa dieses Niveau. Somit IMHO wenig Grund für ein paar statistische FPS ne neue CPU zu stecken. Und das ist alles außer "4k"
 
Zuletzt bearbeitet:
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
811
Erhaltene Likes
1.267
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Die 4080 ist ca 30% schneller als die 3090ti. Die 4070ti ist auf dem Niveau der 3090ti.
Und es ist natürlich wieder lustig das Du einen AMD Vergleich gegen eine Intel CPU die 2 Gens älter ist setzt.
Zeigt wieder sehr gut wie Du tickst, kannst keine AMD Karte an den Mann bringen, dann muss wenigstens ein Fake Vergleich her.
Sorry @MrHonk , aber das musste jetzt raus, meine Meinung zum aufrüsten hatte ich ja schon geschrieben.
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
659
Erhaltene Likes
1.134
Der SingleCore Speed ist mir nicht so wichtig, mir geht es um möglichst viele Kerne, und da stellen die 12 Kerner für mich den besten Kompromiss dar.

Ich hab mir jetzt mal die Gigabyte RTX 4080 Gaming OC bestellt, soll morgen schon geliefert werden. Die originale Founders Edition von Nvidia hätte mir optisch zwar besser gefallen, aber die würde es wenn dann ja eh nur bei NBB geben und da ist weit und breit von der FE nichts zu sehen.

Bei Saturn (über ebay) gibt es die Karte aktuell für 1.349 €. Bei dem Preis dreht sich mir zwar immer noch a bissl der Magen um, aber wenn man schon einen 2160p Monitor hat (auch wenn dieser nur 60 Hz kann), dann vergisst man öfter mal bei Spielen die Auflösung auf FHD runter zu schrauben und bei Hogwarts Legacy sieht man dann ja doch schon einen enormen Unterschied zwischen FHD und UHD ... und wenn man dann auch noch problemlos RT hinzuschalten kann, dann sieht das schon extremst gut aus. Bin ja mal gespannt wie viel mehr die 4080 jetzt im Vergleich zu meiner bisherigen 2080 verbraucht. In diversen Tests ist ja schon bestätigt worden, dass die 4080 zwar teuer, aber an der Steckdose sparsamer sein soll als die 3000'er Generation von Nvidia.

Hatte zwar auch bei der 2080 gesagt, dass die ein paar Jahre halten soll (sind ja auch immerhin fast 3 Jahre geworden), aber zu dem Zeitpunkt hatte ich auch noch ein Triple Monitor Setup mit 3 FHD Monitoren und mittlerweile hat mein Hauptmonitor in der Mitte UHD Auflösung.
 
Zuletzt bearbeitet:
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
357
Erhaltene Likes
538
Aber ist die Founders von der Kühlleistung nicht generell mieser als die der Dritthersteller?

Klar ok, das PCB hat dann logischerweise das Referenzdesign was praktisch ist für Waküs und sowas. Aber das hat @MrHonk doch nicht vor oder?

ABER:
Berichtigt mich gerne wenn ich falsch liege :-D
Aber meine Info ist eigentlich, dass die bei den Drittherstellern doch auch gut und gerne bessere Spawas, OC-freundlichere VRM's und so haben oder?
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
659
Erhaltene Likes
1.134
Ja, die Custom Modelle haben teilweise bessere Spawas drauf und sind in der Regel auch leiser, aber da die 4080, sowohl bei Nvidia wie auch bei den Boardpartnern, den Kühler der 4090 bekommen hat (bei gleichzeitig deutlich geringerer Stromaufnahme und Wärmeentwicklung), ist die Kühlleistung bei den 4080er Karten durch die Bank weg überdimensioniert. Das hält die Karten aller Anbieter in der Regel bei 60-70 Grad unter Last.

Die FE hat jedoch einen Kühlkörper, der komplett aus Metall gefertigt ist und für meinen Geschmack einfach nur extrem chic aussieht.

Durch die überdimensionierten Lüfter kommen die 4080er Karten sogar mit den Luftkühlern in den Bereich, den man ansonsten nur mit einer Wakü erreicht.

Der Nachteil dieser Luftkühler ist eigentlich nur ihre enormen Dimensionen, da wird in der Regel der Platz von 4-5 Slots belegt und es eignet sich auch nicht jedes Gehäuse für diese Monsterkarten. Das könnte man mit einer Wakü wieder korrigieren.

Die Custom Modelle haben zumeist auch deutlich mehr OC Potential, da viele die TDP von Original 320 Watt auf bis im Schnitt 400 Watt angehoben haben. Da muss man aber auch schauen ob der Mehrverbrauch beim Strom in vernünftiger Relation zur gesteigerten Leistung steht, meist ist dem nicht so.
 
Zuletzt bearbeitet:
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
811
Erhaltene Likes
1.267
Bei den Customs reden wir von 2-3 Grad, mehr ist das nicht. Und ob die Karte 65 oder 70° erreicht ist ja mal sowas von Latte.
Aber die FE sieht eben schon verdammt edel aus.
Und ob die Customs 2-5 FPS mehr bringen ost mir sowas von Latte.
Ich bin auch auf die FE scharf, aber genau die wird ja zum verrecken nicht günstiger.
Eigentlich würde mir die 4070ti ja reichen, die 12GB VRAM belasten mich auch nicht. Aber wenn ich dann auf Triple WQHD@144Hz umsteige werden mir dann mit Sicherheit die 192Bit Anbindung zum Verhängnis werden.
Nur deshalb werde ich auf die 4080 gehen.
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
659
Erhaltene Likes
1.134
Karte ist heute gekommen, Frau und Kind sind zu einer Bekannten (ebenfalls mit Kind) geschickt worden und dann konnte der Umbau starten ... und es war definitiv richtig den Umbau zu machen wenn einem nicht so ein kleiner Wuselzwerg (meine Tochter, nicht meine Frau) immer um die Beine herum läuft.

Ist das ein Brocken von einer Karte, im Gegensatz dazu sieht die RTX 2080 geradezu wie eine Einsteigerkarte aus :oops:
Habe auch mal ein paar Bilder gemacht und packe die hier mit rein, falls es jemanden interessiert, um wie viel größer die Karten innerhalb von nur zwei Generationen geworden sind.

Aber bevor die Bilder kommen, erst noch ein paar Zeilen zum Stromverbrauch, der mich, obwohl ich es schon gelesen hatte, doch ziemlich überrascht hat: Im Idle benötigt das System jetzt 5-10 Watt mehr (aktuell während ich das hier schreibe knapp unter 5 Watt mehr) Korrektur: nicht mehr Strom als mit der RTX 2080 auch, und bei Hogwarts Legacy, wo ich mit der RTX 2080 bei UHD, mittleren Details und abgeschaltetem Raytraycing ca. 360 Watt für das Komplettsystem (ohne Monitore gerechnet) benötigt hatte, lag der Verbrauch, ebenfalls UHD, mit Ultra-Einstellungen und Raytraycing bei insgesamt 320 Watt :D(y)(y) ... und je geringer die Auflösung, desto weniger Strom verbraucht die Karte. Eines muss ich aber sagen, bedingt dadurch, das mein Monitor nur 60 Hz kann, habe ich Hogwarts Legacy da natürlich drauf festgenagelt. Mit unlimitierten FPS ist der Verbrauch dann auch auf 390 Watt für das Gesamtsystem angestiegen.

Für die dreifache Leistung weniger Stromdurst - Nvidia hat mit der 4000er zweifelsfrei einiges falsch gemacht (allen voran beim Preis), aber die Karte ist höllisch schnell und dabei auch noch extrem effizient.

Freue mich schon auf den nächsten Test, wo ich dann mit dem FS 2020 in UHD durch Manhatten fliegen werde :cool:

Kleiner Funfact am Rande - mein Gehäuse ist nicht gerade klein, aber hochkant passt die Karte nie und nimmer mehr in das System hinein. Es gibt bei meinem Gehäuse keine andere Möglichkeit mehr als sie direkt auf dem Board zu befestigen. Schön ist, das Gigabyte der Karte direkt ein Anti-sag Bracket beilegt, mit dem die Karte nahezu unauffällig zusätzlich stabilisiert werden kann.

Da Igor in seinem Test der RTX 4080 FE erwähnte, dass die auch mit einem 650 Watt Netzteil problemlos funktionierte, habe ich es einfach mal gewagt und mein Dark Power Pro 11 650W drin gelassen ... und was soll ich sagen - das Netztteil hat sogar noch über 200 Watt Luft...

Mein Fazit: Die Karte hat zwar einen exorbitant hohen Anschaffungspreis, erhöht aber im Nachhinein nicht noch weiter die Betriebskosten (jedenfalls nicht im Vergleich zu einer RTX 2080).

So aufgeräumt sah mein System mit der 2080 noch aus. Man sieht, ich bin kein Fan von Bling Bling - der Rechner steht bei mir auch UNTER dem Tisch, da ich den Platz AUF dem Tisch lieber zum Arbeiten verwende. Zwischen der 2080 und der LWL-Netzwerkkarte war noch genügend Platz für zwei weitere Karten.
IMG-20230309-151548.jpg
IMG-20230309-151633.jpg


Hier mal ein paar Größenvergleiche zwischen der 2080 und der 4080:
IMG-20230309-152050.jpg
IMG-20230309-152058.jpg
IMG-20230309-152135.jpg


IMG-20230309-152203.jpg
IMG-20230309-152309.jpg



Und so schaut mein Rechner nach dem Einbau der 4080 aus, auf dem zweiten Bild erkennt man sehr gut das Anti-sag Bracket:
IMG-20230309-171730.jpg
IMG-20230309-171806.jpg


Für das Stromkabel hätte ich mir einen Winkelstecker gewünscht. Auch wenn es knapp aussieht, es bleibt trotzdem noch genügend Platz zwischen Kabel und Seitenglas. Kabelmanagement in Schön geht damit allerdings nicht, falls das jemand geplant haben sollte.
IMG-20230309-171823.jpg
IMG-20230309-171837.jpg


Und zwischen Grafikkarte und LWL-Netzwerkkarte ist jetzt auch KEIN Platz mehr für eine weitere Steckkarte, auch wenn es nicht danach aussieht. Aber würde ich da noch eine Karte stecken, können die Lüfter nicht mehr genug Luft saugen. Mein Gehäuse hätte echt nicht kleiner sein dürfen... :whistle:
 
Grund: Das Wort KEIN um das fehlende K ergänzt / ein fehlendes Wort ergänzt.
Zuletzt bearbeitet:
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
659
Erhaltene Likes
1.134
@Finus04
Nvidia hat die UVPs der 4080 FE und der 4090 FE gesenkt. Die RTX 4080 FE hat nun eine UVP von 1.369 € und die RTX 4090 FE von 1.819 €.

Bitte, Anmelden oder Registrieren um die Links zu sehen!
 
Kommentieren

trackball

Namhafter Pirat
Registriert
24 August 2021
Beiträge
181
Erhaltene Likes
319
Danke für deinen Umbaubericht und die Fotos dazu. (y) Die 4080 ist ein ganz schöner Oschi. 😵 Da hätte ich echt Schiss, das mir der PCIex Slot abknackt und mir dazu eine passende Halterung (Bsp. Jonsbo VC-20 o. ä.) darunter gesetzt.
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
659
Erhaltene Likes
1.134
Das hätte ich auch, aber Gigabyte z.B. legt der Karte ein sogenanntes Anti-Sag Bracket bei, das wird mit zwei Schrauben am Motherboard befestigt (dafür werden zwei Schrauben für die Halterung des MB im Gehäuse getauscht), und da wird dann die Karte noch einmal zusätzlich dran festgeschraubt. Das Ganze hält wirklich sehr gut und macht einen stabilen Eindruck.

Hier mal ein Video wie das Anti-Sag Bracket montiert wird:
 
Kommentieren

trackball

Namhafter Pirat
Registriert
24 August 2021
Beiträge
181
Erhaltene Likes
319
Danke, alles klar (y) Clever gemacht.
 
Grund: Ergänzung
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.688
Erhaltene Likes
1.534
Jetzt noch nen Winkelstecker bzw. Adapter für ne bessere Kabelführung an der Stromversorgung. Ich hasse enge Biegeradien an dicken Kabeln. Siehe in teuer
Bitte, Anmelden oder Registrieren um die Links zu sehen!
oder in günstig sowas wie
Bitte, Anmelden oder Registrieren um die Links zu sehen!
... Knickstelle nahe Gehäuse sehr sicher vermieden.
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
659
Erhaltene Likes
1.134
Die von dir verlinkten Winkelstecker sind leider für die herkömmlichen 8Pin-Kabel, die 4080 will wenn dann aber 12VHPWR Adapter, und dagegen wären sogar die bei Galaxus verlinkten 8Pin Adapter noch richtig günstig. Cablemod ruft für seine 180° Winkelstecker 39,90 € zzgl. 15 € Versand & Zoll auf, insgesamt also gute 55 € für einen Winkelstecker. Aktuell aber auch nur als Vorbestellung, da die Winkelstecker laut deren Homepage erst ab dem 08. März lieferbar sind. Naja, immerhin hat Igor die Teile schon ausgiebigst getestet und konnte nix bemängeln. Er war aber auch, wenn ich das richtig verstanden habe, bei der Entwicklung involviert.

Trotzdem ist das noch ein stolzes Sümmchen. Verglichen mit dem Preis der Karte natürlich ein Tropfen auf dem heißen Stein, aber mit dem Stecker geht es nur um die Optik, und da ich das Kabel nicht wirklich stark biegen muss und es trotzdem noch Platz hat bis zur Glasseite, hadere ich mit mir, ob mir der Stecker das Geld dann wirklich wert ist. Sehen tue ich den eh nur alle paar Monate wenn der Rechner gereinigt wird.

Hinzu kommt dann noch, das Igor in seinem aktuellen Video sogar einräumen musste, dass sich der Stecker gar nicht mal selber so aufheizt, sondern dass das mit der Erwärmung eines Bauteils auf der Karte unterhalb des Steckers zusammenhängt. Das Kabel wird quasi durch die Abwärme dieses Bauteils aufgeheizt. Mit ein wenig Wärmeleitpad an der richtigen Stelle zwischen Platine und Backplate bleiben die Temperaturen deutlich unter 50 Grad C.
 
Zuletzt bearbeitet:
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.688
Erhaltene Likes
1.534
Alles gut, es sind halt nicht alle Gehäuse gleich breit. Ansonsten scheint sowas wie
Bitte, Anmelden oder Registrieren um die Links zu sehen!
auch zu taugen. Ich hasse es halt Kabel zu knicken.
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
659
Erhaltene Likes
1.134
Uhhh, ich habe gestern mal wieder Cyberpunkt 2077 installiert und angespielt. Mit der 2080 war an flüssigem 4K Gaming (mit minimalen RT-Einstellungen) nicht zu denken. Mit der 4080 habe ich bei 3840x2160 Pixel, abgesehen von Pathtraycing, alles auf Ultra gestellt. Natürlich habe ich auch DLSS eingestellt, allerdings auf die Einstellung Qualität und nicht Performance.

Ergebnis: Das Spiel lief butterweich.

FPS habe ich mir nicht anzeigen lassen und kann euch demnach dazu auch nichts sagen. Da mein Monitor eh nur 60Hz hat und DLSS im Spiel war, werde ich auch mit konstanten 60 FPS gespielt haben (die 4080 könnte mit DLSS ja sogar mehr FPS liefern). Also Hogwarts Legacy hat die 4080 mit allem an und maximaler Auflösung bei Weitem nicht so gefordert. Allein mein PC (ohne die Monitore) hat während der Cyberpunk Session sehr konstante 483 Watt genuckelt. Mit der Zeit ersetzte die Grafikkarte sogar die Heizung im Zimmer, denn es wurde unter dem Tisch merklich wärmer - allerdings nicht so warm wie noch mit der 2080.

Das Spiel ist heute schon wieder von der Platte geflogen - nachdem ich ein Spiel durchgespielt habe, habe ich eher selten das Verlangen dieses ein weiteres Mal zu tun. Installiert hatte ich es nur, da ich neugierig war, wie sich das Spiel mit der 4080 spielen lässt. Dass das Spiel einen immensen Hardwarehunger hat, war mir ja klar, aber dass es den Stromverbrauch des Rechners trotz DLSS nochmals ne ganze Ecke höher schnellen lässt, damit hatte ich jedoch nicht gerechnet.
 
Zuletzt bearbeitet:
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.688
Erhaltene Likes
1.534
Sei froh - die 4090 zieht das unter Last alleine. Und du ahnst was ich als Dachgeschossbewohner von solchen Karten halte, vor allem im Sommer....

Da kommt der Gedanke den Kasten der Klospülung als Vorrats-/Ausgleichsgefäß einer kühlerfreien AiO zu nehmen und wenns dort zu warm wird automatisch zu spülen...
 
Kommentieren
Oben