Gaming-PC für 600 Euro?

P-F-S

Das bersonifiziere Pöse
Themenstarter
Registriert
26 Juni 2021
Beiträge
347
Erhaltene Likes
509
Also ich seh da tatsächlich Unterschiede, auch bei den beiden Bildern "Qualität", wobei das vernachlässigbar ist. Aber meine Augen sind auch so gut, dass ich jeden Sehtest
Zitat ( sowohl Augenarzt, 2x Bundeswehr Eingangsuntersuchung und Optiker bei dem ich zum Spaß mal nen Sehtest gemacht hab ): "Gewinne 😅
Zudem bin ich nebenberuflich Fotograf/Videograf für Hochzeiten und Business ( Hauptsächlich Food für Lokale Gastronomien ), meine Augen sind also ohnehin ein gut trainiertes
Werkzeug 😊

Generell finde ich schon, dass DLSS besser aussieht als FSR. Was mir aber bei einigen Games aufgefallen ist ( Hogwarts Lagacy und Jurassic World Evolution 2 ), dass im Performancemode
man bei Bewegungen so Querlienien, beziehungsweise ne Art Flackern sehen kann. Naja... auf Qualimode stellen und Happy sein 🤣

Ich finde aber beides gut, sowohl FSR und DLSS sind echt geile Sachen. Bei FSR find ichs halt supergeil, dass es generell auf jeder Karte läuft.
Hab letztens nen Vid gesehen wie Cyperüunk 2077 auf ner alten GTX 750 mit FSR Performancemode läuft. Klar, niedrige Settings... ABER stabil über 30 FPS und damit -> Spielbar ( und so schlimm sah es gar nicht aus ).

Wenn ich so an die SNES, PS1, Gameboy-zeit denke... Da war man auch mit deutlich weniger zufrieden 😉
PS1 ( ja ich weis gibt noch ältere Personen, aber das war so alt bin ich nun auch nicht xD ) waren damals wieviel? 24 Bilder? Über Scat RGB? xD Das waren 576p :-D
Und wenn ich genau drüber nachdenke bin ich mir nichtmal sicher war ob es wirklich "p" war. Hab eigentlich im Kopf, dass die Röhrenfernseher nur "i" darstellen konnten und "JAAAA" Interlacing mit Progressiv zu vergleichen...
ist eigentlich Ketzerei wenn man da keinen Unterschied sieht 😂
ABER wir waren alle happy :-D

Was Starfield angeht: @GuyFawkes667 : Ja du hast recht, es gibt keine krassere Modding-Community. Selbst für Games wie Morrowind ( 2002 ) kommen heute noch Mods raus ( ok das Games ist auch supergeil... ). Schade
eigentlich, dass nicht alle Entwickler so "kulant" sind und sagen: "Ey jo hier ist das Game, ist zwar buggy ( wie heutzutage ALLE ), aber hier ist nen Modding-Tool, mach was du willst, wir schieben nirgends nen Riegel vor".
Ist halt einfach geil, denkt mal an Total Conversions wie Enderal, das ist einfach nen komplett neues ( und wirklich gutes mit geiler Story ) Spiel auf Basis von Skyrim. Sowas würde kaum ein Entwickler zulassen.
Klar meckern viele weil die Skyrim 500000000 mal released haben... halt für jedes Gerät 😅 Du hast nen PC? Hier ist Skyrim! du hast ne Switch? Hier ist Skyrim! Du hast ne Alexa? Hier ist Skyrim! Du hast nen Kühlschrank? Hier ist Skyrim! 🤣
Wundert mich, dass Bethesda das hier noch nicht offiziell verwirklicht hat ( ich glaub ich würds zocken... xD )

Aber wieso meckern da alle? Soll man doch froh sein. Ich war dankbar für die Special Edition ( zumal die dank Legendary für mich gratis war ) und würds feiern wenn die Fallout 4 auch nochmal nen Update spendieren würden.
Freu mich so hart auf Starfield... Jizz in my Pants... mir tun jetzt schon meine Kinder leid, die ich leider vollkommen vernachlässigen muss wenn das Game endlich da ist 🤣🤣🤣 Naja fürs Füttern stell ich mir nen Wecker 🤣🤣🤣
Bin mal gespannt ob DLSS dann per Mod kommt, aber wenn ich mir so ansehe was für crazy Shit alles für Skyrim kam... ENB, Lod-Generator, SkyUi, Engine-Fixes und und und... Achja DLSS/FSR/XLSS gibts für Skyrim auch... dank SKSE...

@Finus04 : Das mit dem Rückgaberecht wäre hart geil, wäre aber teils auch unfair für Entwickler... in ner Woche kannst ja so nen Last of Us ( zum Beispiel ) mehrmals durchzocken... und dann zurückgeben wäre mies.
Müsste im Prinzip dann speicherstandgebunden sein.
Interessanteres Prinzip wäre auch "Zeit" -> Lad das Game runter ( Gratis ) -> Spiel es -> Nach 2 Stunden ( zum Beispiel ) kommt ne Paywall -> If you like it -> Buy it!
Es fehlen einfach Demos... War so geil mit den Demo-CD's in den Zeitschriften damals.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Mit "Demo/Paywall" macht das auch Sinn. Wer heiratet schon um dann erst zu prüfen, obs auch taugt. Hab im Hinterkopf, das geht umgekehrt....

Gerade bei Shootern oder ähnlichem - erste Karte gratis, der Rest halt als "DLC".
 
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
798
Erhaltene Likes
1.239
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Aber was mit uns Kunden gemacht wird ist fair?
Es kann einfach nicht sein das Games auf 3x so potenter Hardware wie auf den Konsolen laufen wie ein Schluck Wasser in der Kurve.
Da kann man sich auch nicht mit rausreden das es so viele unterschiedliche Hardware Konfigs gibt.
Du wirst feststellen wenn es eben so eine lange Frist, wie 30 Tage, zur Rückgabe gibt werden die Day 1 Patches und die Bugs massiv weniger werden.
Die Games werden dann nämlich erst released wenn sie besser laufen. Es sind ja eher die Publisher die so schnell wie möglich releasen wollen und weniger die Entwickler.
Bei Steam gibt es ja schon seit geraumer Zeit die Möglichkeit Games in einem gewissen Zeitraum zurück zu geben.
Die Publisher erwarten von uns das wir immer stärkere Hardware kaufen weil sie zu faul oder zu Geldgeil sind um ihren Job richtig zu machen.
Wenn wir mal zurück blicken. Witcher 3 hab ich damals auf dem 4770k und der 1070 gezockt, mit maximalen Detail und über 60FPS.
Howarths Legacy sieht nicht wirklich besser aus, ist aber mit der Hardware nicht mehr spielbar. Wie kann das sein?
Und ich rede jetzt nicht von Raytracing etc, einfach nur das reine Game.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Themenstarter
Registriert
26 Juni 2021
Beiträge
347
Erhaltene Likes
509
Ok bei Witcher 3 kams aber auch drauf an ob man Hairworks noch an hatte :-D
Aber generell hast du recht, auf meinem 3960x + 2060 letztens noch angehabt. 60FPS war kein Ding ( Mit Drops, aber ich hatte auch Hairworks an xD )
Auf Lagacy ging mit dem Setup mittel bis hoch. Aber mit deutlich mehr Drops, ( und DLSS als "Cheat", was Witcher 3 ja nicht hat ) und im Gesamten würde ich sogar sagen, dass Witcher besser aussah. Wenn ich an Skyrim oder Fallout 4 + Mods denke... was selbst mit ner alten 780 Ti + i7 3770 konnte man das Game besser aussehen lassen als Hogwarts Lagacy.

Raytracing ist auch echt ne Sache. Das hab ich mit der 3070 konsequent in dem Game aus. Vorgeschlagen wird mit "Ultra", hab aber dann z.B in Hogsmead Drops auf 15FPS... das ist wirklich ekelhaft. Allerdings ists die Riddick Version ( ohne irgendwelche Patches ), vllt läufts mit der offiziellen besser durch die Patches...

Aber du hast schon Recht. Die Games sind mittlerweile pervers Hardwarehungrig. So zu Zeiten der 7xx / 9xx ( Nvidia ) und 2xxx / 3xx ( AMD ) hatte ich irgendwie das Gefühl die Games waren im Verhältnis von Grafik zu Leistung deutlich "besser". Denke ich dann aber an ein Morrowind von 2002... Da war das Verhältnis noch besser. Das Game sah ( und sieht mit Mods ) heute noch gut aus, läuft aber auf ner Kartoffel... Oder die Need for Speed Games ( Underground bis Prostreet ).

Konsolen-Ports sind aber nicht immer gleich Konsolen-Ports. Days-Gone lief mit 3770 + 2060 Butterweich 60FPS stable auf FHD Max und hat die Hardware nicht ausgereizt, sah zudem Top aus.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Ja, passiert halt - wenn die Devs Zeit haben und was bei Texturen leidlich optimiertes raushauen. Für mich ist Cyberpunk 2077 immer noch der Inbegriff von "wenns bei euch nicht flüssig läuft, kauft euch eben auch noch ne neue Graka, eure Armut ist uns egal"
 
Kommentieren

GuyFawkes667

Namhafter Pirat
Registriert
21 September 2021
Beiträge
1.323
Erhaltene Likes
2.936
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Cyberpunk ist halt leider an seinen hohen Versprechungen und deren nur geringer Einhaltung gescheitert.
Next Gen Grafik auf Last Gen Hardware? Das konnte nur schief gehen. Dazu Bugs en´Mass.
Der Hype war einfach viel zu hoch.
Das hatte wenig mit der PC-Hardware zu tun. Keiner war gezwungen, RT zu verwenden. Ist btw auch heute noch niemand. Und ohne RT lief das Spiel dann auch recht flüssig auf dem PC. Klar, nicht auf Kartoffeln, aber das sollte klar sein.
Lass uns mal ein anderes Spiel als Vergleich heran ziehen ...
Bitte, Anmelden oder Registrieren um die Links zu sehen!
.
Der grafische Unterschied zwischen RT Off und RT On hatte mich sowas von geflashed. Das Game schaut mit RT einfach nur Bombe aus.
Aber auch ohne war es ein "gutes" Game. Cyberpunk musste erst zu einem "vernünftigen" Spiel werden und das hat Monate gedauert. Selbst jetzt ist es so eine öde, boring Open World Simulation (wie fast alle OW Games), es tut nur weh.
Wird man all dieses Genörgel, welches wir hier von uns geben mit einem 600.-€ PC überhaupt bewerten können? Nein, dazu passt einfach die Hardware nicht.
Kann man sich mit gebrauchten Parts (wovon ich, ausser bei CPU´s, tunlichst abraten würde) einen 1080-Rechner zum Zocken ohne Ansprüche bauen? Klar.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Und was mir persönlich fehlt ist der "Anspruch" neuer Games, dass diese auf gängigen Karten wie einer 1060 leidlich saubere 60 Hz wenigstens in FHD abliefern. Und ab 2060/2070 sollte es auch akzeptable auf WQHD sein. Ein 5600G wird wahrscheinlich für die meisten AAA Titel zu wenig sein, leider fangen die meisten Grakas wie die Radeon 6600 so ab 230€ an. Und damit biste halt bei 600€ Systempreis. Selbstbau, nicht "Elektro-Aldi".

Weil die geilste Grafik kann eine sch**** Spielidee nicht kompensieren.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Themenstarter
Registriert
26 Juni 2021
Beiträge
347
Erhaltene Likes
509
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Stimme ich dir total zu, das ist echt nen krasser Unterschied.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ja das mit Open World ist bei manchen Games echt ein Problem. Nicht jedes Brauch Open World... Erinnere mich noch an die alten NFS: Underground... Ganz ehrlich? Mir ging es nach nen paar Spielstunden echt auf die Eier,
dass ich zu jedem Rennen hinfahren muss 🤣 Ist bei Unbound / Heat usw nicht anders. Finde zumindest bei Rennspielen sollte Open World "optional" sein 😅

Aber nicht alle Open World Games sind lahm. Subnautica war endgeil ( das Erste ), Skyrim, Fallout 4 ( Ich weis hier kommt wieder der Bethesda-Jünger raus... 🤣 ), Morrowind ( das beste Open World Game was ich je gespielt hab und so viel besser noch als Skyrim... an jeder Ecke gabs was zu entdecken ). Die GTA-Games sind halt auch gut wenns um die reine Spielwelt geht, aber auch da könnte mehr "Füllung" drin sein.

Interessant fand ich auch Deus Ex: Human Revolution. Die Welt war halt klein, dafür aber sehr gefüllt. Nicht perfekt, aber guter Ansatz.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Da bin ich voll deiner Meinung, aber ich glaub das liegt am Anspruch der neueren Generation der Spieler. Sind irgendwie alles "Grafikhuren" die nicht viel nachdenken und es möglichst einfach haben wollen.
Viele Spiele werden doch immer mehr künstlich vereinfacht ( bis auf sowas wie Dark Souls, was eben darauf ausgelegt ist "schwer" zu sein ).

Aber auch hier ist Elder Scrolls nen toller Vergleich:
2002 -> Morrowind: Keine Questmarker, dafür Erklärungen der NPC's wo man hin soll mit nem "Tagebuch / Questlog"-Eintrag mit den wichtigsten Stichpunkten al'a "Gehe Südlich von Stadt XY, etwa 200m, da ist ein Großer Baum, bei dem Links abbiegen, dann 50m und such das Objekt XY in der Ahnengruft.
2011 -> Skyrim: Questmarker -> Geh zum Marker -> Siehst nen NPC -> Greift er an = Kill ihn / Greift er nicht an = Rede mit ihm | Siehst ne Truhe = Loote... Joa und das wars auch irgendwie schon. Ich liebe das Game, aber wären die Quests in dem Style von Morrowind... Joa dann wäre ich heute gewiss nicht verheiratet, hätte keine Kinder und kein Reallife 🤣🤣🤣

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja... Kommt dann auf die Einstellungen an. Ne 1060 ist ja auch "nur" ne Midrange aus 2016... also schon 7 Jahre her. Also selbe Zeit wie zwischen PS4 und PS5. Aber du hast generell schon Recht. Mit mehr Optimierungen würde da mehr gehen. Kannst ja selbst mit ner 2060 nicht mehr alles in 1080/60p zocken, zumindest nicht dann wenn man "high" anstrebt. Und die ist halt "nur" 4 Jahre alt ( und hat ja deutlich mehr Power als die 1060 ).

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Also mit der Aussage geh ich nicht mit 😅 Selbst mit den I7 Sandy und Ivy-Brigde kannst du heute auch die AAA Games noch gut zocken. Klar -> Mit Drops, aber selbst Hogwarts Lagacy ist damit spielbar. 60FPS sind da nicht mehr drin. Aber wenn man sich mit 30 zufrieden gibt ( was bei so nem Singleplayer und "nicht-Rennspiel" ) ist das kein Beinbruch... und dabei reden wir von ner CPU aus 2012... Das Ding hat fucking 11 Jahre aufm Buckel. Mit dem 2600"k" oder dem 3770"k" siehts sogar noch besser aus. 2600K auf 4,5 - 5ghz packen die Dinger in der Regel mit recht easy OC und damit geht jedes Game ( ok Sim's wie Total War oder so sind damit ätzend ) auch heute noch auf min 30Frapse. Beim 2600"k" reden wir sogar von 12 Jahren...
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Naja, beim 5600G meinte ich eher den "G" Teil in der APU und explizit nicht die CPU. Für mich muss ein aktueller Titel in 1080/60 auf Medium (bzw. "kein Augenkrebs") leidlich ruckelfrei spielbar sein. Ob das saubere 30 Hz sind oder saubere 45 bis 60 ist ok. Gestotter ist halt nicht OK. Auf APUs sind eben keine 8 Gigabyte VRAM verbaut, meist nicht mal 4. Mal als beispiel: Cyberpunk auf einem
Bitte, Anmelden oder Registrieren um die Links zu sehen!
... "nicht schön IMHO". Auf einer
Bitte, Anmelden oder Registrieren um die Links zu sehen!
deutlich besser. Aber auch erst nach diversen Patches und FSR 2.1, Medium sieht IMHO brauchbar aus. Jedenfalls bei FHD.

Ich erinnere mich noch dumpf an Battlefield 5 damals - Raytracing war auf einer 1000€ Karte wie der 2080Ti mit 1440P um 60 Hz drin - NACH einem Patch. Hier ein
Bitte, Anmelden oder Registrieren um die Links zu sehen!
zu Raytracing der Generationen und wie dolle das doch geworden ist. Und nun noch im Hinterkopf haben,
Bitte, Anmelden oder Registrieren um die Links zu sehen!
und etwa 20 Watt in der Telemetrie falsch misst. Dazu die DLSS3 "Frame Generation" Fake-FPS Geschichte und das Ganze ist irgendwie nicht mehr so wirklich ne Erfolgsgeschichte angesichts zwei Generationen neuer.

Was ich übrigens am Video von Igorslab vermisse ist, dass seine gefundene Korrelation von Verbrauch und Leistung auch impliziert, dass Nvidia mit Freigabe von mehr Leistung auch mehr aus der 4060 holen könnte. Wenn ein Chip am Limit läuft (siehe 7900 vs 7900x oder 7600x vs 7600) ist der Gewinn an Leistung nur noch marginal, aber die Wärme eben überproportional. Heisst diese Generation hat IMHO Reserven z.B. was Overclocking angeht. Dummerweise "noch" das 8 GB Problem. Ob das nun ein Problem der Karte ist oder dass die neuen Spiele schlicht zu wenig Zeit in Optimierungen für "Allerweltsspieler" stecken sei explizit dahingestellt. Wenn ein Auto wie ein Loch säuft, dann sollte ein großer Tank installiert werden. Edit: Oder es kommt noch ein Update der 4060er Serie mit eben 16 gb Vram UND leistung nahe 160 Watt. Weil das Ram kostet quasi kaum Geld.

IMHO übrigens der technische Vorteil aller Konsolen - alle Anwender haben dieselbe Hardware, somit muss nur ein Setup sauber laufen.
 
Zuletzt bearbeitet:
Kommentieren

P-F-S

Das bersonifiziere Pöse
Themenstarter
Registriert
26 Juni 2021
Beiträge
347
Erhaltene Likes
509
Ja das mit der 4060 ist so ne Sache...
Ich finde die Karte aber gar nicht so schlimm 😅
Läuft sie unter PCIE 3 hat sie ungefähr die selbe Power wie ihr Vorgänger, ist dabei aber effizienter, kühler leiser.

Das mit den 20watt ist natürlich dennoch verarsche. Das mit den 8Gb finde ich ebenso wenig schlimm. In erster Linie reserviert sich nen Game nen Teil des VRams ohne, dass er wirlich voll läuft. Zumal GDDR6 VRam ohnehin sauschnell ist, GDDR6"x" noch schneller. Wenn die GPU den VRam schnell genug füttert ist da eigentlich nichts mit nachladerucklern.

Gibt echt wenig Games, beziehungsweise GPU's wo ich gemerkt hab das Vram der Flaschenhals war. Einzigen Beispiele die mir da so pauschal in den Kopf kommen war die R7 270 die definitiv in dem ein oder anderen Game hätte bisschen besser abliefern können wenn sie 3 oder 4Gb gehabt hätte, oder auch die 780 Ti mit nur knappen 3Gb.

Wobei ich Shadow of Mordor auch mit den 3Gb auf "High" Stable zocken konnte, obwohl das Games in den Settings meinte, dass mindestens 4Gb nötig wären ( glaube sogar es meint 6 )

Selbst bei der 2060 mit "nur" 6Gb hatte ich nie das Gefühl "oh nein jetzt ruckelts wieder weil der Vram vollläuft", allerdings hat die ja auch schon GDDR6... somit einfach mal knapp doppelt ( korrigiere mich wenn ich falsch liege ) so schneller Ram wie noch bei der 780 Ti. Würde eine 2060 in jedem Fall einer 1070 oder auch 1070 Ti vorziehen, auch wenn Userbench sagt, dass die 1070 Ti schneller sei als die 2060 und dazu noch 2Gb mehr hat. Allerdings hat die 1070 Ti "nur" GDDR5 und damit stehen die 6Gb Vram der 2060 für mich auf jeden Fall über denen der 1070 Ti.

Wenn ich so die 6700xt und die 3070 Vergleiche ( hab übrigens doch nicht getauscht... bin zur Besinnung gekommen 😅 ) hat die 6700 xt auch "nur" GDDR6, welcher langsamer ist als der GDDR6"x" der 3070. Hast also bei der 6700xt 50% mehr Vram, welcher aber langsamer ist ( weis grad aber nicht sicher "wieviel" langsamer ). Dazu hat die 3070 nen Bus von 256bit, gegenüber den 192 der 6700 xt...


Sind so im Durschnitt bei den Games nur 3 Frapse ( ca 5% ) mehr. Denke aber halt, dass Nachladeruckler usw eben durch die Geschwindigkeit weniger zu spüren sind, wobei wie gesagt GDDR6 Vram ohnehin schon sauschnell ist.

ABER: Klar -> Mehr ist immer besser

PS: Ok grad mal geschaut xD Die 4060 hat auch nur nen 128bit Bus auf GDDR6 ( ohne x ) 😅 das ist tatsächlich irgendwie Mager. Find die Karte aber dennoch nicht soooo schlimm.

Wird ja auch wohl keiner nen Upgrade von ner 3xxx auf ne 4060 machen. Die Karte ist eher für jemanden was, der noch ne 9xx oer 1xxx im Rechner hat.

Ist das gleiche wie mit der 6600 ( mit oder ohne XT ). Hast noch ne alte 9xx / 1xxx oder ( von AMD ) 5xx / Vega im PC -> Da kann man auf ne 6600 ( mit oder ohne xt ) gehen. Günstig, frisst nicht viel. Übrigens hat die 6600 / 6600 xt.

Die 6600 xt ist ja von der Leistung auch wie die 4060 ( Die Nv ist bisschen stärker, aber das gibt sich nicht viel ). Hat übrigens auch 8Gb GDDR6 bei 128bit ( allerdings etwas niedriger Taktzahl beim Speicher ) und hat ne TDP von 160w ( die 4060 115 + 20 wenn man es genau nimmt, macht 135 ). Ist die 6600 xt deswegen jetzt auch ne dumme Karte?

Ich finde nicht. Die 4060 ist ein bisschen teurer als die 6600 xt, dafür frisst sie minimal weniger, ist minimal stärker, kann dafür aber DLSS3, Reflex und ist im Raytracing besser.
 
Zuletzt bearbeitet:
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
1.659
Erhaltene Likes
1.495
Naja, GDDR6 und 6X hat eine heftig hohe Speicherbandbreite - siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!
... 192 bit Interface also im satt dreistelligen gb/s Feld unterwegs.

Bei DDR4 (was nunmal die meisten haben) - 28 gb/s und das wars, DDR5 das doppelte. Ruckler incoming wenns zum Überlauf kommt. Selbst wenn du SAM/REBAR hast. Vielleicht mit DDR5 nicht ganz so deutlich wie mit DDR4, aber 1/10tel der Datentransferrate zwischen CPU und RAM wie zwischen GPU und VRAM kannste nicht wegdiskutieren.

Wieviel Speicherbandbreite bringt siehst du ja an den 13er Intels (doppeltes L2 Cache zwischen 12 und 13 gen) sowie den AMD X und X3D Prozessoren. Je weniger die mit dem RAM arbeiten müssen und je mehr im Cache läuft, desto schneller.

Guck dir die Entwicklung vom L3 Cache an:
Ryzen 7800/5800: 32 MB
Ryzen 7800XeD/5800X3D: 96 MB

Intel 13600 hat mit 20 mb doppelt so viel L2(!) cache wie sein Vorgänger mit 9.5 mb. Trend geht also klar zu "mehr Cache, mehr effektive Bandbreite".

Und ja, "weise" bei vorhandener 3070 nicht panisch auf die 6700XT oder 6800 zu wechseln. Aufwand/Nutzen steht in keinem Verhältnis. Vor allem nicht in FHD/60. Ich werde persönlich auch die 4000er/Radeon 7000er Generation überspringen, meine nächste Karte wird eine aus der folgenden GEN werden. Diese Nvidia 4000 und Radeon 7000 bietet mir persönlich einfach zu wenig Gegenwert fürs Geld.

Wer heute wechseln muss, die einzige mit "leidlich aktzeptablem P/L" ist bei WQHD halt die 4070. Für FHD reicht die Generation zuvor IMHO aus, mit nun um und deutlich unter 300 Euro haste ne 3060/Ti oder 6600/6600XT/6700XT. Kein Grund auf die 400€ teuren 4000er zu wechseln, vor allem da der Mythos "spart Strom" nachgemessen "am Arsch" und nichts als Marketing-Geblubber ist. Ich frag mich eher wo Nvidia den Effizienzvorteil aus der kleineren Fertigung liegengelassen hat. Den muss es geben, aber wenns keine Leistung gibt - der wurde irgendwo am Rand stehen gelassen. Ob Architektur oder Treiber? Wir werden es sehen. Wenns im Treiber liegt wirds behebbar sein.
 
Zuletzt bearbeitet:
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
798
Erhaltene Likes
1.239
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Echt jetzt? Wegen 1-2 Fällen wo eben genau das der Fall war und die Karte 131W gezogen hat. Also immer noch 30W weniger als die langsamere 7600 im Schnitt braucht?
Die 3060ti liegt bei 185W, die Karte spart also deutlich Strom.
Ob sie jetzt der geniale Entwurf ist lass ich jetzt mal dahingestellt.
Fakt ist aber das Ding ist so schnell wie meine 2080 bei ca 50% des Stromverbrauchs. Dazu bietet sie eben die Möglichkeit zu DLSS3. Und im RT ist sie auch noch besser.
Und das für knapp 300€. Meine 2080 hat mich 650€ gekostet und war durch Beziehungen eben auch noch 100€ günstiger als der reguläre VK der Gaming X Trio.
Die Karte mag nicht das sein was alle erwartet haben, aber sie ist definitiv keine schlechte Karte und kein schlechtes Angebot.
 
Kommentieren
Oben