Help! Redet mir mal bitte den 5900x madig...

MrHonk

mit Baby Bruno
Registriert
6 Mai 2021
Beiträge
656
Erhaltene Likes
1.125
Moinsen,

Amazon hat es mit seinem zweiten PrimeDay in diesem Jahr geschafft und mich arg ins Grübeln gebracht, ob ich meiner AM4 Plattform doch noch ein Upgrade auf Ryzen 5000 spendieren soll, oder ob der 3900x noch bis zum nächsten Plattformwechsel mehr als genügend Leistung hat.

Amazon bietet den Ryzen 9 5900x aktuell für sagenhafte 269,30 €. Im Spielevergleich bei 1440P bietet der 5900x im Vergleich zum 3900x im Schnitt 10% mehr Leistung, aber a) sind 10% nicht so viel, das es sich spürbar bemerkbar macht und b) spiele ich mittlerweile überwiegend in 4K, wo die CPU Leistung noch mehr zur Nebensache wird.
Aber wie verhält es sich z.B. bei Handbrake beim Umwandeln ins H.265 Format? Inwiefern profitiert Handbrake vom 5900x verglichen mit dem 3900x? Sind Videos nur ein paar Minuten schneller umgerechnet, oder ist der Unterschied deutlich spürbar?

Ihr seht, ich tendiere zwar schon eher dazu auf das Update zu verzichten und mir in zwei oder drei Jahren lieber ein komplettes Plattformupgrade zu holen, finde das Angebot aber auch seeehr verlockend. Der 3900x könnte in den Rechner meiner Frau wandern, sie hat noch einen alten 4000'er Core i3 oder Core i5. Dann müsste aber auch noch ein neues Board her, 64 GB DDR4 RAM hätte ich sogar noch in der Schublade liegen und der Rest würde aus dem bisherigen System verwendet werden. Und trotzdem steht über allem die Frage: Macht das wirklich Sinn? Ich tendiere zu nein, aber wie seht ihr das? Was würdet ihr machen wenn ihr vor der Frage stehen würdet?
 

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Ich würde "wenn" dann nur den 5800X3D nehmen wenns ums gaming geht. Der 5900X wird im Singlecore etwa 25% zulegen (Referenz 3900X) und das wars. Siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!


Beide sind 12/24 Kerne. Hat dummerweise mit Spieleleistung nicht zwingend viel zu tun.

By the way, der 5800X3D hätte im Vergleich zum 3900X formal weniger "Cinebench" Single-Core, weniger Multicore - ist aber in Spielen trotzdem sehr sicher schneller. Was du bei einer 4080 schon merken solltest. Siehe
auch wenn da eine 4090 drin war.

Problem: Die Tests vom 3900X wie
Bitte, Anmelden oder Registrieren um die Links zu sehen!
sind noch auf 2080Ti gemacht worden, du hast ne 4080 drin. Wenn du nicht stetig massiv Multicore wie CPU Videocoding oder Blender brauchst --> 5800X3D rein und gut ist. Also kannste wie oben verlinkt "nur" noch auf "seriöse" Youtuber hoffen, da "FPS" mit verschiedenen Grakas im Vergleich keinen Sinn ergeben.

Edit:

kommt bei "iRacing" zu einem ähnlichen Schluss. "Sattes Upgrade, reinmachen und glücklich sein". Soviel übrigens auch zum Thema, dass CPUs 6-8 Jahre halten.
 
Zuletzt bearbeitet:
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
798
Erhaltene Likes
1.239
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja ich ignoriere mal Roberts handverlesene Tests, die einigermassen passenden Ergebnisse waren mit 30 Sekunden Google zu finden ( also 3090 statt 2080ti und 1440p und 4k)
Auch die Tatsache das Robert die codierungsschiene bei Dir wieder einmal gekonnt ignoriert hat. ( kleiner Tip am Rande: beim nächsten mal den wichtigen Teil fett, unterstrichen und in rot schreiben damit Robert den auch sieht 😇)
Aber bei Robert filtert die Suchmaschine die Ergebnisse natürlich, er kann da nichts für. 🤣
Vid 1 in 1440p, Vid 2 von 1080p bis 4k
Da Du speziell nach Handbrake gefragt hast
Vergleich 3900x, 5900x, 7900x.
Da musst Du verdammt viele Vids codieren damit sich das rechnet.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Das ist meiner Meinung nach der klügste Weg.
In 4k bringt der Dir eventuell 2 FPS, da limitiert die 4080, in 1440p sind es zwischen 5-15FPS in einem Bereich wo Du mit beiden CPU hoch 3 stellig unterwegs bist.
Also lass es und kauf Intel Gen 15 🤣 ( sorry der musste einfach sein)
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Quizfrage ist wieviel anteilig an der Gesamtnutzung umgerechnet wird. Weil "ab und zu nen Video und sonst Gaming" ist was anderes als "alle Nase lang, ab und zu nen Spiel".

Zudem steck ne 4080 drinne, selbst dann ist die Frage ob Encoding auf der CPU oder GPU läuft. Bei "GPU" ists scheissegal, aber wem sag ich das. 4080 macht keinen Sinn, wenn Gaming Nebensache ist. Plus dein "Lieblingsthema" DLSS mit dem 4K Gaming.

Apropos, nun weiss ich wieder, warum ich dich in den Ignore stecke.
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
656
Erhaltene Likes
1.125
Erst einmal danke euch beiden, aber @RobMitchum, die 5800X3D war gewollt nicht in der Auswahl mit drin. Es ging und geht mir explizit um den Unterschied zwischen dem 3900x und dem 5900x - und da ist es nun einmal so, dass ein Wechsel, rational gesehen, absolut keinen Sinn machen würde - weder bei Spielen noch beim Encodieren von Videos. Beim Spielen kommt noch hinzu, das ich hier nur 60Hz Monitore habe, und 60 FPS und mehr schaffen beide CPUs in allen Auflösungen.

Ich werde mir das Geld für eine neue CPU also sparen und stattdessen in ein paar Jahren einen neuen komplett neuen Unterbau (mindestens CPU, Mainboard und RAM) zulegen. Ob das dann ein AMD oder Intel System werden wird? Das entscheidet sich spontan, je nachdem wer zu dem Zeitpunkt gerade das bessere Gesamtpaket im Angebot hat. Bei Intel finde ich die E-Cores schon recht praktisch, aber auf den Zug will AMD ja auch aufspringen.

Wenn ich mal prozentual verteilen müsste, wie ich meinen PC nutze, dann sähe das in etwa so aus:

50% Arbeiten, Internet und Videos schauen, wobei ich zum Arbeiten fast nur noch eine VM auf meinem Server nutze, ich mich also vom PC aus an der VM anmelde und der PC in der Zeit in der Regel nichts anderes macht​
30% Spiele spielen​
20% Videos encodieren​

Mit anderen Worten: Das System befindet sich zu 50% im Idle, was natürlich perfekt für E-Cores wäre. Spielen macht mit 30% etwas mehr aus als Videos encodieren, das reicht aber nicht, um, verhältnismäßig gesehen, so viel Geld für eine CPU auszugeben, von der ich nur minimale Performanceverbesserungen hätte. Die 4080 hatte ich mir geholt weil meine 2080 für viele Spiele in 4K doch etwas schwachbrüstig war und ja, man kann auf einem 4K Monitor natürlich perfekt auf FHD herunterskalieren, es sieht aber trotzdem nicht so knackig scharf aus als würde man nativ in 4K spielen. Weiterhin kaufe ich mir so eine teure Karte nicht um mir in zwei Jahren die nächste GPU zu kaufen, also sollte die auch noch in 3-4 Jahren vernünftig nutzbar sein (dann aber wahrscheinlich nur noch mit hohen Einstellungen statt wie jetzt in Ultra). Hier sehe ich einen riesigen Vorteil von DLSS 3 mit Frame Generation.
 
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
798
Erhaltene Likes
1.239
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Macht doch nichts, so wie ich AMD kenne verkacken die auch das grandios. Aber Intel bringt ja mit Gen 15 auch "3D" Cache.
Die werden es dann aber nicht verkacken. 🤣
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja da AMD ja nur noch "Mittelklasse" GPU herstellen will müssen sich die Gameentwickler ja mit ihren Spielereien auf Nvidia konzentrieren.
Könnte also dann doch länger halten.
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
656
Erhaltene Likes
1.125
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ganz so negativ sehe ich das jetzt nicht, auch AMD überrascht hin und wieder mal. Der letzte Hammer waren ja die Ryzen 3000 und Ryzen 5000 Serien, mit denen sie Intel hinter sich gelassen haben. Jetzt hat Intel wieder die Nase vorn was Effizienz und Geschwindigkeit angeht, können aber trotzdem nicht mit dem aktuellen 3D Cache CPUs von AMD mithalten. Inwiefern sie 3D Cache implementieren, und ob das vernünftig läuft wage ich nicht abzusehen, aber da Intel ja in den letzten Jahren ein paar hochrangige Leiter und Entwickler von AMD abgeworben hat, ist das Know-How definitiv in ihren Reihen vorhanden. ;)

Aber wie geschrieben, ich bin da offen und kaufe das, was zum Kaufzeitpunkt den besten Mehrwert für mein Geld bietet. Aus der Erfahrung heraus ist die Chance auf ein Intel-System höher als auf ein AMD-System, aber festlegen würde ich mich da zum jetzigen Zeitpunkt echt noch nicht.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Wobei ich da die Gefahr sehe, dass sich Nvidia dann selber in den Schatten stellt und irgendein Feature implementiert, dass die Spielewelt wieder mal revolutionieren wird und wo die Entwickler dann auf den Zug aufspringen. Wenn AMD nicht mehr auf Biegen und Brechen im High-End Segment mitspielen will, dann muss Nvidia irgendwann selbst Wege finden um Käufer der Vorgängerkarten zu einem Neukauf zu bewegen.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Ok, dass du den 5800X3D explizit nicht willst war deinem Post nicht zu entnehmen. Nach
Bitte, Anmelden oder Registrieren um die Links zu sehen!
fehlen dem X3D rund 18-20% auf den 5900X beim Encoding. Für jemanden, der viel spielt und ab und zu encoded - Frage ist wo man den Kompromiss macht. Du wärst quasi einer der wenigen, der vom 7900X3D überhaupt was hätte. Also außer zu viel Geld auszugeben. 30% Spiele, 20% Coding ... wenn das Coding z.B. über Nacht läuft wärs wiederum egal. Sitzt du davor, sicher nicht. Ich nehme an, du machst CPU Encoding und nutzt den NVENC auf der GPU explizit nicht.

Nach
Bitte, Anmelden oder Registrieren um die Links zu sehen!
und dem letzten der drei Handbrake Graphen sind zwischen dem 5900X und 3900X immerhin über 25% möglich. Heisst: Der X3D wäre beim Video quasi so schnell wie die aktuelle CPU, dafür haste mehr Frames beim Gaming. Aber:
Bitte, Anmelden oder Registrieren um die Links zu sehen!
sagt, dass der 3900X sogar etwas schneller sein soll, woher der seine Daten hat weiss der Geier.
Bitte, Anmelden oder Registrieren um die Links zu sehen!
sagt wiederum wieder was von +20%. Und
Bitte, Anmelden oder Registrieren um die Links zu sehen!
hat alle drei. Wieder der 5900X 20% vorne, der 5800X3D kaum langsamer als der 3900X. Daher gehe ich davon aus, dass der eine Ausreißer entweder ganz komische Parameter hat oder schlicht nen Vertipper hat.

Zusammen mit dem Single Core Speed (Plus im Gaming) und dem Umstand, dass du 1200€ oder so für deine 4080 ausgegeben hast ... ich würd irgendwann(!) zuschlagen, den Black Friday Preis werden wir wiedersehen. Siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!
und den Bestpreis als f(t). Also IMHO kein Grund sich wegen "BlackFriday" zu stressen oder ein Steak weniger essen zu müssen.

Denke übrigens nicht, dass du auch mit dem aktuellen 3900 in 2-3 Jahren realen Handlungsbedarf hast. Weil den Unterschied zwischen High und Ultra sehe ich bei mir bestenfalls in Standbildern. Hab 27'' und 1440P. Da will ich nicht wissen, wie klein der Unterschied erst in 4K wird, wo das Auge je nach Abstand kaum mehr die Pixel auflösen kann und das bei typisch bewegten Bildern. Hab meinen Firefox bereits bei 130% Zoom im Webbrowser stehen ;)

Siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!


27'' WQHD hat etwa 109 Pixel je Inch. 32'' 4K bereits 138. Also kannst du 1/3 näher(!) ran um den gleichen Winkel je Pixel zu haben. Was IMHO von der typischen Sitzposition her Schwachsinn ist. Sitze ziemlich genau eine Armlänge weg von diesem Screen, wie vermutlich fast jeder. Ob 5800X3D wegen künftiger Spiele und Single Core Speed oder der 5900X wegen Cores, das kannste IMHO würfeln. Ich würde auf den 5800X3D gehen, weil der eben ausreichend Single Core Speed für künftige Spiele hat (irgendwann wird jede CPU von der Zeit bzw. steigenden Ansprüchen neuer Titel eingeholt) und die reine Codierleistung ist kaum schlechter als dein aktueller 3900X. Meine Codierungen laufen in der Regel über Nacht. Nehme XMEDIARECODE und mach nen Shutdown sobald der fertig ist, da sind "10% schneller" nur für die Galerie. Stromverbrauch wäre wahrscheinlich mit dem 5800X3D am niedrigsten.
 
Kommentieren

level9

Pirate of the 777-Seas
Crew
Registriert
12 Mai 2021
Beiträge
1.208
Erhaltene Likes
3.830
Der 3900x ist doch ein guter Partner für die 4080. Einfach so lassen.
Die 270 € lohnen sich in 3 Jahren in einem neuen PC deutlich mehr.
 
Kommentieren

Corsafahrer

fährt Skoda
Registriert
13 Juni 2021
Beiträge
563
Erhaltene Likes
552
Du solltest dich halt fragen, ob du noch mit deinem 3900X zufrieden bist. Wenn nein -> 5900X; Wenn ja -> 3900X.
Im Endeffekt würden ja aber auch bei dir quasi zwei Personen von dem Kauf profitieren. Deine Frau würde mit dem 3900X natürlich extrem viel mehr Leistung dazu gewinnen.
 
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
656
Erhaltene Likes
1.125
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Richtig. Ich habe mehrfach versucht Videos mit NVENC in der Qualität und mit der Dateigröße encodiert zu bekommen, wie ich sie auch via CPU erhalte und das passte bisher nie. Beim Encodieren mittels CPU habe ich deutlich kleinere Dateien mit einer für mich wirklich guten Qualität. Nehme ich die selbe Qualitätsstufe für NVENC dann werden die Dateien deutlich größer. Versuche ich allerdings per NVENC annähernd auf die selbe Dateigröße zu kommen wie mittels CPU Encoding, dann ist die Qualität sichtbar schlechter.

Aus dem Grund encodiere ich hier nur per CPU. Der einzige Vorteil von NVENC liegt ganz klar in der Geschwindigkeit, aber den Kompromiss gehe ich dann doch nicht ein.
Videos werden sowohl tagsüber wie auch über Nacht encodiert und vor allem tagsüber bringen mehr Kerne hier einen spürbaren Vorteil, was auch der Grund ist, weshalb ich den 5800X3D außen vor lasse.


Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Beides sind CPUs der 105 Watt Klasse. Mein Rechner verbraucht in der Einstellung Höchstleistung beim Encodieren zwischen 165 und 170 Watt, im Idle sind es im Energiesparmodus im Schnitt um die 110 Watt. Unter Höchstleistung takten sich die Kerne ja eher runter um die Temperaturen unter Kontrolle zu halten. Ich müsste mal schauen wie hoch der Stromverbrauch mit nur 8 Kernen / 16 Threads für Handbrake wäre und wie viel länger der Rechner dafür braucht und ob so unterm Strich der Stromverbrauch spürbar gesenkt werden könnte.


Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Grundsätzlich bin ich mit dem 3900X zufrieden, vor allem seit ich vor ca. einem Jahr von AMD eine Austausch-CPU bekommen hatte und es sich dabei um ein Gold Exemplar handelt (vorhat hatte ich als CPU-Käufer der ersten Stunde lediglich ein Bronze Exemplar.

Im Grunde genommen macht meine Frau ja auch nicht viel mit Ihrem Rechner, insofern reicht der ihr noch, aber spätestens ab 2025 soll da auch Windows 11 drauf laufen und das wäre ohne Tricksereien mit ihrer aktuellen Hardware nicht möglich. Aber 2025 ist noch weit weg und das wäre wohl doch ein weitaus besserer Grund dann erst ein aufzurüsten.
 
Kommentieren

level9

Pirate of the 777-Seas
Crew
Registriert
12 Mai 2021
Beiträge
1.208
Erhaltene Likes
3.830
Windows 11 wird auch einwandfrei auf dem 3900x laufen.....
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Ich weiss nicht was du bisher mit OC versucht hast - guck mal wie weit du mit deinem Clock der Infinity Fabric hochgehen kannst. Weil bei AM4 ist die Memclock gleich der Clock der Infinity Fabric. Ich hab mein Ram von 3600 auf 3900 hochziehen können, das hat mit dem Ram OC auch den INF-Clock-Speed linear hochgezogen. Jedenfalls in Cinebench R23 als Test. Mit einem Gold-Sample solltest du ähnliches schaffen können, meins ist glaub ich "nur" Silver. Mut etwas OC kannste aus der Lücke 8-9% "für umme" kriegen, das war bei mir was nur übers RAM noch drin war. PBO war weit weniger ergiebig, ist bei mir daher aus.


Auch wenns hier OT ist: Hättest du ein paar deiner optimierten Settings für den CPU Encoder für H.264 und H.265 mit verschiedenen Rohformaten? 4K hab ich gar nichts, mein Zielformat ist meist "HD" bis "FHD" und etwa 1 gb/h als Datenrate. Also irgendwas knapp über 2kbps plus Audio als Zieldatenrate.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Ne, du hast verschiedene "Grades" an Silicon. Bronze ist quasi das, was gerade so die Anforderungen erfüllt. Frage ist ob du OC machen willst oder undervolting. Bei OC der CPU versuchst du bei der aktuellen Spannung so viel Takt wie geht rauszuholen, ohne dass das Ding instabil wird. Bei Undervolting versuchst du die Spannung und damit die Leistungsaufnahme bei gleichem Takt zu senken, dass das Ding weniger warm läuft. Letztes spart im Idle und Mittellast Strom bzw. Abwärme, kann aber bei Vollast sogar schneller laufen - jedenfalls wenn die CPU durch Ihren HotSpot thermisch begrenzt wird. Zusätzlich kannst du an der Spannung als f(Frequenz) drehen. Je höher die Frequenz, desto höher muss die Spannung sein.

OC ist bei Bronze kaum sinnig möglich und bei Undervolting bist du auch schnell am Ende. Bei Gold hast du in beiden Richtungen soliden Freiraum - heisst du kannst beides machen. Faustregel: Je später in der Serie eine CPU gekauft wird, desto statistisch besser ist der Herstellprozess beherrscht (Verunreinigungen, Partikel) und desto besser wird die Ausbeute an hochreinen und hoch taktenden Exemplaren werden. Siehe die kommende Intel 14 Generation als 13er Refresh. Etwas mehr Takt, das wars. Hättest auch einen 13xxx "KS" labeln können.

Ich hab bei meinem 5800X wie gesagt das Ram übertaktet um die parallel laufende Infinity Fabric um 300 MHz hochzuziehen. Stabil, was will ich mehr. In meiner GPU (6600XT) hab ich das Ram von 2 Ghz auf 2.2 GHz übertaktet, die hat so einen niedlich kleinen 128 Bit Bus Bottleneck. Die eigentliche GPU ist nicht im Takt angefasst, weil die hochzunehmen nichts gebracht hatte. Also hab ich diese im Gegenzug undervolted. Was mir 20 Watt an der Karte "gespart" hat. Ok, und den Spieltrieb befriedigt ;)

Was die Leistungsaufnahme angeht, die TDP ist eine Größe, aber nicht die einzige. Siehe für die Stromaufnahme in diversen Szenarien z.B.
Bitte, Anmelden oder Registrieren um die Links zu sehen!
... oder neuere Messungen von IgorsLab, der gibt sich echt Mühe was das Setup angeht. Er misst eben selbst und verlässt sich nicht auf Soft-Sensoren, weil die manchmal etwas "optimistisch" sind.

Da kannste zwischen "Gaming" und "Productivity" umschalten und die Watts ablesen. Intel hat alleine zwei Powertargets - das reguläre und das, was je nach Einstellung des BIOS nach ner Minute wieder verlassen wird oder bis der thermische Begrenzer "zeitlich nie" kommt. AMD gibt auch in den zugänglichen Datenblättern nicht das an, was maximal im Peak durchgehen darf. Die Größen sind ähnlich, aber nicht vergleichbar. Genaues sagt wirklich nur das Messgerät. Der 5800X3D hat im Gaming z.B. gemessene 70 Watt, der "zeitgenössische" 11900K kommt im Gaming bereits auf 190 in der CPU.
 
Zuletzt bearbeitet:
Kommentieren

MrHonk

mit Baby Bruno
Themenstarter
Registriert
6 Mai 2021
Beiträge
656
Erhaltene Likes
1.125
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Das tut es jetzt schon bei mir, aber die Hardware vom PC meiner Frau ist für Windows 11 offiziell zu alt, deswegen würde sie dann auch mein System weiter nutzen und für mich gibt es dann was Neues 😁.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
OC hatte ich relativ erfolglos mit dem alten Bronze Sample des 3900x versucht, mit dem Gold Sample hatte ich mal das Tool vom Igor und seinem Kollegen (war es das MorePowerTool?) ausprobiert, aber mir fällt der Name wirklich nicht mehr ein. Dabei kam dann nach diversen Tests halt heraus, dass es sich bei meiner CPU um ein Golden Sample handelt. Mein RAM läuft mit 3200 MHz, hatte zwischendurch mal 3600'er drin, aber die sind dann in den Server gewandert und verdoppelt worden, hatte im Arbeitsrechner keinen Mehrwert bemerkt.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Kann ich gerne machen, allerdings wandel ich auch nur in HD und FHD um. Quasi alles von vor 2007 wird in HD encodiert - Ausnahmen gibt es nur für Serien und Filme die remastered wurden - alles danach wird direkt in FHD encodiert. Aber der Platzgewinn zwischen H.264 und H.265 ist schon enorm. Wenn du trotzdem Interesse hast, dann kannst du meine Settings gerne bekommen.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Ja hab ich. Weil ich auch nur "HD" mache, alsop 720P. Für meinen 10 Jahre alten TV sowie meine Ansprüche langt das. Hab auch ganz selten FHD. Gescheite Audiospur ist mir fürs Filmerlebnis megawichtig. Ich hasse diese "Rips" mit Kamera, wo du dem Nachbarn beim Popcornfressen zuhören kannst. Sowas versaut mir den kompletten Film. Und ja, H.265 spart einiges, theoretisch gleiche QUalität bei halber Dateigröße im Vergleich zu H.264. Habs früher bewusst nicht gemacht, da nicht alle Clients H.265 konnten - was sich mittlerweile geändert hat. Erst der PI4 aus 2018 konnte H.265 abspielen, zuvor konnten es die meisten Tablets/Mobilchips auch nicht.

Was du bei deinem Ram mit dem Thema "OC" ausprobieren kannst:
3200 CL 16 kannst du als 3600 CL18 parametrieren. Bei meinem MSI-Board heisst das "Memory Try It". Ist quasi ein händisches Überschreiben des XMP Profils mit gängigen Ram-Settings. Geht durchaus bis zu "4000" CL20 oder 22 hoch. "Obenrum" muss entweder die Spannung am Ram etwas hoch oder eben die Latenz mehr als rechnerisch erwartet. Geh aber davon aus, dass ein als 3200 gekauftes keine 4000 kann. Thema wieder mal "Bronze" Sample, nur eben beim Silicon des Rams.

Wenn man nun FCLK gleich MemCLK setzt und langsam den Takt hochnimmt (3800 MHz sind 1900 MHz Clock, "Double Data" heisst auf steigender wie fallender Flanke wird jeweils ein Bit übertragen) - ist einer der beiden am Ende. Entweder RAM oder eben die Infinity Fabric. Ziehst das also langsam von den XMP settings hoch bis die Kiste instabil wird. Keine Bange, das merkst du ;)

Sowas beschleunigt halt alle Anwendungen, die viel aus dem Speicher holen. Siehe den Unterschied zwischen 5800X und X3D - formal quasi das selbe. Trotz weniger Takt ist der X3D in Spielen halt schneller, beim Numbercrunching kann der 5800X wegen mehr Topspeed bei kleinerem Cache sogar vorne sein. Ist der Speicher eben NICHT der Bottleneck, dann bringt das nichts, dann hilft nur die CPU weiter hochzuziehen.

Bei DDR5 ist das "Übertakten" des Speichers mit irgendwann aufkommenden Stabilitätsproblemen übrigens noch weniger ein Problem, da DDR5 Ram neben dem höheren Speed auch ab Werk eine ECC Funktion (Parity) mitbringt. Auch deswegen ist DDR5 theoretisch 1/8tel teurer als DDR4 in dessen Grenzkosten. Aber IMHO ein guter Deal, da du keine unbemerkten "Bit-Dreher" im Ram samt "komischem Verhalten von Anwendungen" mehr haben kannst. Früher ein "reines" Server-Feature.

Memclock kannst du gut mit CPU-Z auslesen (also ob das Setting wirklich angekommen ist und verwendet wird) und hast zudem mit dessen "Benchmark" Tool einen Indikator, ob das was verbessert hat.
 
Zuletzt bearbeitet:
Kommentieren
Oben