Welche Grafikkarte

master030

Namhafter Pirat
Registriert
19 Oktober 2022
Beiträge
26
Erhaltene Likes
102
Moin zusammen,

es wird mal Zeit für eine neue Grafikkarte für meinen Rechner. Die ASUS RTX 3070 hat jetzt mein Vater bekommen, da er sich einen neuen Rechner gewünscht hat. Ich verwende derzeit die Intel Onboard Karte, um überhaupt am Rechner arbeiten zu können.

Ich habe mir vor zwei Wochen einen neuen Monitor gekauft, es ist ein ASUS ROG Swift OLED PG32UCDM geworden.

Somit suche ich derzeit eine neue Grafikkarte mit ein bisschen mehr Power als meine alte 3070.

Mein PC steht in der Signatur.

Geld: 0 bis 1200€

AMD oder Nvidia ist mir am Ende egal.

Danke im voraus
 

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.472
Erhaltene Likes
2.849
Laut Google ist das ein 4K Monitor. Willst du effektiv in Full-HD oder WQHD spielen und dann Upscaling oder "Nativ"? Ich sag vorsichtig - "nativ" und das ganze mit Raytracing wird teuer, weil das eher nur eine 5090 wirklich gut kann. Wobei aktuell die 6090 angekündigt wird, was hoffentlich mal wieder ein Genetationensprung bei der Leistung schafft. Die 50er Serie war eher "kein Meilenstein".

Wenn du bisher mit der 3070 und den 8 GB klargekommen bist, dann ist alles ab einer (kommenden) 5070Super (18 gb statt aktuell 12, UVP Senkung angekündigt) oder eben der 9070 bzw. 9070XT völlig ausreichend - die nehmen sich quasi nicht viel, beide sind ein massives Upgrade ohne vierstellige Preise aufzurufen. Kannst bei PCGH schauen, siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!
.... aber du wirst Upscalen "müssen". Heisst "Rendern in WQHD, dann hoch auf 4K". Nvidia hat noch etwas (aber seit der 90er Serie weit verringerten) Vorsprung beim Raytracing, AMD ist bei der Rasterleistung statistisch vorne. Nutz den Link, setz den Filter z.b. auf WQHD bzw. guck dir Details deiner Lieblingsspiele an. Grob: Die 5070Ti und 9070XT haben den doppelten Leistungsindex deiner ehemaligen 3070.

Ich hab aktuell eine 9070 ohne XT, liegt aber auch an WQHD - für den Job ist die "satt ausreichend". War im Gegensatz zu einer 5070 sowohl lieferbar als auch vernünftig bepreist. Es hat Gründe, wieso Nvidia die Preise gesenkt hat und laut Gerüchten bei den "Super"-Ausgaben der kommenden 5070S (angeblich) senken wird. Mit 4K als Monitor würde ich die aktuelle 12 gb Version der 5070 nicht nehmen, weil sowohl Raytracing als auch DLSS etwas Speicher kostet - die aktuelle 5070 hat halt "nur" 12 gb, die 5070Ti bereits deren 16. Die neuen Supers bekommen statt 2gb die 3gb Chips - also 18 bzw. 24 GB Ram. Für Spiele irrelevant, es sollte nur "genug" sein.

Wenn du morgen kaufen "musst": Ich würde wegen 4K die 5070Ti bzw. die Radeon 9070XT in deinem Fall nehmen. Die 5080 sehe ich für den geringen Mehrwert als zu teuer an. Die 5090 ist eh aus der Kategorie "wer das Beste will, der soll bluten". Quasi Gesetz der "diminishing returns on Investment" im High-End Bereich. Egal ob PC oder High End Audio. Mit NVidia hast du deren proprietäres DLSS "extra" (Kunststück, das kann / darf AMD nicht). Muss aber vom Spiel direkt(!) unterstützt werden, leider - sonst ist das für die Galerie.
 
Zuletzt bearbeitet:
Kommentieren

master030

Namhafter Pirat
Themenstarter
Registriert
19 Oktober 2022
Beiträge
26
Erhaltene Likes
102
Also die Auflösung muss schon 4k sein. Ich drehe da gerne einige Details runter.

Auf die 5090 habe ich keine Lust. Ich sehe da keine 2500€ oder mehr. Das Geld pumpe ich lieber in mein Auto. :D

Edit:

Ich schaue schon die ganze Zeit auf die 907 XT

Bitte, Anmelden oder Registrieren um die Links zu sehen!

Die würde ich nehmen, wenn es eine AMD werden soll.
 
Kommentieren

MrHonk

mit Baby Bruno
Registriert
6 Mai 2021
Beiträge
992
Erhaltene Likes
2.103
Also für 4K kannst du, wenn du bei Nvidia bleiben willst, eine RTX 4080 oder RTX 5080 nehmen, die können auch Raytracing (in den aktuellsten AAA(AA)-Titeln zwar nicht mehr in hohen Details aber in mittleren und niedrigen Details auf jeden Fall. Pathtracing hingegen killt zumindest die 4080, da würde ich in den Einstellungen von vornherein die Finger lassen. Inwiefern eine 5070 oder 4070 für natives 4K geeignet ist, kann ich nicht beurteilen, aber mit meiner 4080 kann ich bisher noch jedes Spiel in 4K und mittleren Raytracing-Einstellungen spielen (ich denke da gerade z.B. an Indiana Jones und der große Kreis).
 
Kommentieren

Master_3

Namhafter Pirat
Registriert
26 Februar 2024
Beiträge
174
Erhaltene Likes
340
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Solange die mit der nächsten Gen nicht ihr Stromstecker Problem FINAL beheben wird da garnix interessant - ich steige doch in kein Lotto ein, bei dem ICH 1000-2500€ Startgebühr bezahle, als möglichen Einsatz mein Haus + das Leben meiner Familie auf Spiel setze, nur um ein paar Frames willen und weil die bei Nvidia vor Lachen nicht in den Schlaf kommen...
Die wissen seit der 30er Serie GANZ GENAU was das Problem ist und wie es zu fixen ist und sie tuen es schon seit ZWEI (!) Nachfolgergenerationen einfach nicht und das aus einem einzigen Grund: Geldgier.
 
Zuletzt bearbeitet:
Kommentieren

Reittier

Retro-Experte
Registriert
22 Mai 2021
Beiträge
207
Erhaltene Likes
544
Wenn du bisher eine Nvidia hattest und zufrieden warst würde ich nicht zu AMD wechseln. Aktuell wäre sicher die 4090 eine gute Wahl da sie immer noch die zweitschnellste Graka ist. Sonst eben eine 5080 oder auch 4080. DLSS hilft sehr gut mit 4K auf hohen Settings.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
691
Erhaltene Likes
1.196
Machts nicht aktuell schon eher Sinn auf die "Super"-Karten zu warten?
Wenn ich mich recht entsinne hatte ich irgendwo gelesen, dass die 5080 (Super) doch mit 24Gb ausgestattet wird oder?

Zumindest wird das meine Wahl nächstes Jahr wenn ich meine 4070 Ti Super aus dem Gaming-PC reiße und in mein Unraid packe :-D
 
Kommentieren

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
2.418
Erhaltene Likes
5.868
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Schwieriger Game-Pick, weil insbesondere Indiana Jones extrem geschmeidig läuft.
Die allermeisten Titel sind eher das Gegenteil...

4k ist halt nen Geldgrab (Autos allerdings auch...) und in sofern nen dämlicher Monitor pick fürs Gaming, wenn man dann nur Mittelklasse Grafikkarten bezahlen will.
Ums mit einem Autovergleich (passender Weise) zu machen: Das ist wie bei den Schnöseln die sich da unters Auto das doppelläufig Flammrohr tackern, wo du ein Rolltor am Ausgang montieren musst, damit da nachts die Penner nicht drin schlafen, vorn aber der 1L 3-Zylinder Eco-Boost Motor tuckert. Also wo ich herkomme, nennt man das Assi-Tuning. Halt viel Schein, wenig Sein.

Also bleibt hier eben auch nur DLSS oder FSR, für mehr Schein und weniger Sein.
Dann sollte es eine Karte mit min. 16GB VRAM sein, damit das Upscaling auch mittelfristig brauchbar funktioniert.
Da würde ich derzeit die 9070XT oder die 5070ti mindestens nehmen. Muss man sehen, wo sich die Supermodelle einordnen. Wenn am Ende eine 5070 Super mit mehr VRAM auch nur zwischen einer normalen 5070 und einer 5070ti hängt, lohnt die in meinen Augen nicht - 18GB VRAM hin oder her.
 
Kommentieren

Master_3

Namhafter Pirat
Registriert
26 Februar 2024
Beiträge
174
Erhaltene Likes
340
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

4K Gaming gibts für mich im Moment nur eine "vernünftige" Lösung ohne ein Vermögen auszugeben: Lass Raytracing/Pathtracing weg oder reduziere es bis es flüssig läuft und verzichte dafür auf FSR oder DLSS.

Das ist wie damals ~2000-2008 mit hohem Anti-Aliaising, damit haste schlicht jede Graka mit in die Knie bekommen.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Das sehe ich genauso - den Refresh habe ich nicht mal mehr im Auge, ich warte wie @RobMitchum auf die 6000er Serie und hoffe A) auf den Stromstecker fix und B) auf einen plausiblen Performance Sprung...

Tierisch auf die Eier geht, zumindest mir, dass ich mit der 5000er Serie nichtmal die alten Spiele wie Mirrors Edge, UT3, die Batman Spiele, Assassins Creed Black Flag vernünftig wegen der 32bit Physx Geschichte zocken könnte - Die Batman Spiele zocke ich deswegen gerade fix nochmal mit meinem Bruder simultan durch, aber z.B. UT3 wird bei uns jedes Jahr ausgiebig auf der LAN gezockt...
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
2.418
Erhaltene Likes
5.868
Puh... naja... Das ist etwas "schwierig".
Weil wenn du die Grafiksettings so schraubst, dass die Spiele wie "2010" aussehen, dafür aber performant laufen, ist halt die Frage warum man sich überhaupt was Neues kauft.
Jagut, neuere Titel sehen auch mit purem Rasterizing stellenweise "besser" aus ggü. früher. Aber in so manchen Titeln ist RT heute durchaus immer an - du hast da gar nicht die Wahl.
So einige mussten ja nun in den vergangenen 2 Jahren ihre alte GTX1080 in Rente schicken, weil das Spiel beim Start(versuch) einfach nur nen Mittelfinger gezeigt hat.

Games wie eben beispielsweise Indiana Jones prügeln heute selbst auf FHD 16GB VRAM einfach voll, wenn man da zu sehr an den "sieht nett aus" Reglern schraubt.
Da sind Features wie DLSS oder FSR fast unumgänglich, um beste Bildqualität mit VRAM Limits und Frameraten-Anforderungen in Einklang zu bringen.
Bei 4k geht das halt ebenso, ohne das die Framerate völlig abkackt - macht eigl. nicht wirklich nen Unterschied auf welche Auflösung man skaliert. Nur sieht es dann auf einem 4k Monitor quasi nicht anders als auf einem FHD Monitor aus - außer eben man greift in die teuren Regalebenen, um mehr Rohleistung zu haben.
Da jetzt einfach alle Leistungs-Fresser zu deaktivieren, einfach damit es voll nativ akzeptabel läuft, dann sieht das ja schlechter aus, als wenn man sich da einen FHD Monitor hinstellt. Dann fickt man sich ja doppelt: Teuer Geld in den 4k Monitor buttern. Teuer Geld nun hier in eine neue Grafikkarte buttern. Ergebnis: Bildqualität schlechter als FHD. Das ist ja dann schon meh...

Mit der Leistungsklasse 9070XT/5070ti kann er wenigstens per DLSS oder FSR ein ansprechendes Bild mit den meisten modernen Effekten auf 4k hochskalieren und soweit erst einmal glücklich sein.
Hat er den Monitor am Ende zwar noch immer für Nüsse gekauft, aber kann man ja durchaus auch abseits von Gaming nutzen.
Wobei ich jetzt offengestanden nicht weiß, warum man sich Webseiten auf 4k ansehen will oder ggf. Filme in 4k am PC Monitor. Für CAD-Anwendungen könnte ichs mir noch vorstellen.

Und bis die 6000ner kommen, da wird noch viel Zeit ins Land gehen. Ich denke nicht, dass da was zu Anfang von 2026 kommt. Ich würde eher von Ende 2026 ausgehen.
Sollte AMD nichts ankündigen, wird Nvidia da auch die Füße still halten. Dann wird es vielleicht auch 2027.
 
Kommentieren

Master_3

Namhafter Pirat
Registriert
26 Februar 2024
Beiträge
174
Erhaltene Likes
340
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Und deswegen sitze ich auch noch auf FullHD und meiner 1080Ti - weil für Full HD brauche ich keine neue GPU, auf der 1080Ti läuft bisher alles soweit (auch das kommende BF6) perfekt und 4K mit höchsten Einstellungen (da zähle ich Raytracing etc zu) packt nicht mal die 2500€ teure 5090.

Der Umstieg auf WQHD und neueren Titeln wird die 1080Ti allerdings in ihre Schranken weisen, da bin ich mir sicher.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Echt? Welche Spiele waren das denn? Hatte bisher noch keine Probleme.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.472
Erhaltene Likes
2.849
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Mindestens ist immer so eine Sache. Bei PCGH und mit einem Filter auf WQHD bekomm ich bei der 5080 69.7 Leistungspunkte, bei der 5070Ti 60.3. Die 9070XT hat 60.7 dieser. Also beim Upscaling. Wenn ich auf nativ 4K filtere - da hat die 5080 immer noch 10 Punkte Vorsprung vor der 5070Ti und 9070XT. Für leider deutlich mehr Geld nur übersichtlich wenig Zuwachs an Leistung, siehe unten.

Bei 16 gb braucht keiner auf die "Super" zu warten, da der Unterschied zwischen 16 und 24 für die Füße ist - außer man hat lokale AI Modelle laufen. Was ich bei den Radeon Treibern beim letzten Wechsel als extrem gelungen empfunden habe:
* Ich kann je Spiel benutzerdefinierte Settings machen. Ungewohnt, wenn man damals von Nvidia kam.
* "Fake Frames" um Ruckler zu bügeln konnte sogar meine RDNA-2 Karte nachträglich, was bei Nvidia halt erst ab der 4000er Serie (angeblich) ging. Auf Treiberebene, also keine Spielintegration nötig.
* Du hast (aktivierbare) Features wie Radeon-Superresulution, wo die Auflösung beim Rendern schneller Szenen temporär herabgesetzt wird und dann hochzuskalieren. Also (um diese in Summe schneller zu rechnen - AFAIK leider nur FSR1 oder FSR2. Aber: Beim Anglotzen der Landschaft hast du dieses "nativ". Funktioniert auf Treiberebene, also keine Spielintegration erforderlich.

IMHO ist fast egal was du nimmst. Ich finde die 5080 als deutlich zu teuer. Aktuell: 5080 etwas über 1000€ (
Bitte, Anmelden oder Registrieren um die Links zu sehen!
), 5070Ti etwas unter 800€ und die 9070XT bei 629€, siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!
... da müsste eine 5080 fast doppelt so lange "halten" um preislich mit der 9070XT mithalten zu können. Bei der 5070Ti kannst du das Argument "DLSS" ziehen. Wobei das Spiel selbst diesen Support mitzubringen hat, sonst bringts genau gar nichts.

Bei 4K, 32'' und ein "Höcke" als Maßeinheit vom Bildschirm wegsitzend ("Armeslänge, ausgestreckt") - rate, ob dein Auge ein nicht perfektes Scaling trotz 32'' überhaupt auflösen kann.

Was ich aus der Diskussion mitnnehme: 4K "Gaming" ist suboptimal. Ein OLED mit WQHD und die Entscheidung wäre sowas von einfach geworden. Weil dann sömtliche Diskussionen mit Upscaling draussen sind und man sich nur zwischen der bestehenden 5070Ti und 9070XT oder eben wartend auf die kommende 5070S (18 gb) entscheiden müsste. Keine der Karten wäre eine Enttäuschung und alle haben etwa die doppelte Leistung der 3070.
 
Zuletzt bearbeitet:
Kommentieren

Master_3

Namhafter Pirat
Registriert
26 Februar 2024
Beiträge
174
Erhaltene Likes
340
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Das ging doch bei Nvidia auch schon immer?

2qyidndd.jpg

Oder meinst du etwas anderes?
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.472
Erhaltene Likes
2.849
Damals? Nicht bei mir. Oder so gut versteckt, dass ich das in deren Software (letzte Nvidia war bei mir in 2021) nicht gefunden hatte. Jedenfalls haben die eine neue Software rausgebracht, die etwas intuitiver ist.
 
Kommentieren

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
2.418
Erhaltene Likes
5.868
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Indiana Jones hat das Problem, deswegen musste meine ich auch @tastebin seiner Zeit seine Grafikkarte upgraden, weil das Spiel einfach sagte: Nö! Zumindest meine ich, dass er das Problem so hatte.
Das selbe Problem passiert bei dem aktuellen Doom Titel. Beides id-Engines, was so die Gemeinsamkeit wäre.

Aber auch andere Engines haben das Problem. So beispielsweise die Lumen-Erweiterung in der Unreal Engine. Jaja, da gibt es einen Software-Mode. Nur reduziert der massiv die Details beim Schattenwurf und am Ende läuft es selbst dann noch alles andere als geschmeidig. Da hat man, je nach CPU-Ausstattung durchaus mit stark schwankenden Frametimes zu kämpfen, was sich in Ruckelneigung äußert.

BF6 ist da auch keine gute Referenz. Das ist für einen Target-Markt konzipiert und dem ist hohe Framerate, konsistente Frametimes und das auf einer breiten Palette an HW deutlich lieber, als geleckte Grafik. Ich habe die Beta gespielt und muss sagen, dass es grafisch jetzt sicher nicht schlecht ist, nur wenn ich da im Vergleich Indiana Jones spiele, ist letzteres dann doch eine deutlich andere Liga. Allerdings auch in der HW-Anforderung: Während sich meine GPU bei der BF6 Beta kaputt gelacht hat (Max-Details) und förmlich darum bat "gib mir was zu tun!!!", ist bei Indiana Jones mein VRAM bis Unterkante voll, ich bin da längst nicht auf Max-Details und die Rechnet auf 80-90% Auslastung.
Ja, da kann man vieles abschalten und dann läuft es auch mit 8GB VRAM und auf älteren Grakas. Tatsächlich muss man dann aber das allermeiste auf deprimierende "Low" bis "Mittel" Einstellungen setzen - bei FHD wohlgemerkt.

Zeiten ändern sich. Und insbesondere der First-Person-Shooter Sektor ist jetzt absolut kein Maßstab für das, was da im Gaming-Markt vonstatten geht. Eigentlich alle Games aus der FPS-Ecke langweilen meine GPU. Da ist 20-30% Auslastung absolut keine Seltenheit. Titel wie Indiana Jones bringen die aber die Kotzgrenze und da sind wir noch längst nicht bei Max-Details.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Ich habe nicht davon gesprochen, dass eine 5080 ihr Geld wert sei, ich habe nur davon gesprochen, dass es min. eine 5070ti oder 9070XT braucht, um im aktuellen Markt, mit DLSS als Hilfsmittel, auf 4k pimpern zu können.
Das resultiert aus der Kombination einer min. erreichten Rechenleistung dieser Karten, gepaart mit ihrem verfügbaren VRAM. Eine 5070 z.B. hat mit 12GB ein Problem, da dort nur wegen des VRAMs Grafik-Kompromisse gewählt werden müssen, obwohl die Rohrechenleistung der Karten eigentlich reichen täte. Bringt halt nur nix, wenn mangels VRAM die nötigen Features und Detailstufen nicht nutzbar sind.

Eine 5080 wäre mir auch zu teuer. Die über 200 Euro Mehrpreis sehe ich da nicht. Nichts desto trotz geht die auch. Die hat aber eben auch "nur" 16GB VRAM. Das Mehr an Rechenleistung ist da eben stellenweise kaum nutzbar. Beispielsweise eben wieder genommen Indiana Jones: Jagut, sie hat mehr Rechenleistung aber Texturen auf High, Schattenqualität auf High und DLSS sowie Teilweises-Pathtracing für die Licht- und Schatteneffekte (die dort sehr gut aussehen), führt zu rund 15,4GB VRAM Verbrauch. Was soll man nun noch aktivieren, um die Rechenanforderungen weiter zu erhöhen? Raytracing Hair? Geht nicht: Zu wenig VRAM. Höhere Textturdetails? Geht nicht: Zu wenig VRAM. Höhere Schattenqualität? Geht nicht: Zu wenig VRAM...
Man steckt da in der Zwickmühle. Hast zwar ne GPU die mehr "könnte", kannst es aber gar nicht auf die Straße bringen. Meh...

Ist natürlich ein Extremfall, weil Indiana Jones schon ziemlich RAM-Hungrig ist. Aber halt auch geil aussieht.
Es ist aber eben auch nicht allein mit dem "Problem", da reiht es sich nur ein in einer zugegeben nicht so langen Liste mit anderen Titeln.
Da ist es halt abhängig davon, welche Titel man spielt. Nur werden die kommenden 2, 3, 4... Jahre die Anforderungen ja nicht fallen.

Insofern hat der TE kaum eine andere Wahl: Der Sweet-Spot für seine Ausgangslage ist 9070XT oder 5070ti.
Darunter ist er angeschmiert wegen VRAM oder Rohrechenleistung, darüber gibt er überproportional Geld aus, für unterproportionale Rechenleistungszuwächse. Eigentlich könnte man sagen: Es gibt für ihn eigentlich keine andere sinnvolle Karte als eine der beiden. Nur wenn Geld nicht so die Rolle spielt, könnte man noch höher greifen.
Eine womöglich bald kommende 5070 Super wäre vermutlich nicht verkehrt, aber wenn die dann dem 5070ti Preisschild zu nahe kommt, lohnt sie sich auch nicht so sonderlich. In Sachen Rechenlesitung wird sie nämlich ziemlich sicher unter der 5070ti bleiben. Eine 5070ti mit 1.5x VRAM wäre eigentlich perfekt. Wird es aber vermutlich nicht geben. Die ti ist doch ohnehin nur die Resteverwertung der 5080. Das wäre unternehmerisch nicht clever damit ein Knallerprodukt zu bringen.
 
Kommentieren

Master_3

Namhafter Pirat
Registriert
26 Februar 2024
Beiträge
174
Erhaltene Likes
340
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ja bei Indi scheint das aktuell echt ein Problem zu sein, Doom hingegen lässt sich via Workaround starten, wenn man es direkt aus dem Ordner als Admin startet.

Aber klar ist das keine Dauerlösung und es werden weitere Spiele folgen, auch das ist nur logisch.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.472
Erhaltene Likes
2.849
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Gut zusammengefasst. Wobei alle Leaks zu den neuen "Super" Karten auf 3 gb Chips statt 2 gb verweisen. Also 18 statt 12 gb bei der 5070 und eben 24 statt 16 gb bei der 5070 Ti. Der Speicher wäre für mich bei der 5070 Ti aktuell kein Grund auf die "Super" zu warten - bei der 5070 aber sowas von.

Zudem hatte Mooreles Law is Dead" eine Preissenkung bei den 5070S Karten angekündigt, siehe
....

Es gibt immer 'was Besseres' in der Pipeline. Also entscheidet man sich für das, was zeitnah sowohl absehbar als auch leidlich bezahlbar ist.
 
Kommentieren

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
2.418
Erhaltene Likes
5.868
Moores Law is Dead hat sich leider sehr oft als "ich wünsch mir was Orakel" präsentiert.
Ich habe da auch angebliche Leaks gesehen, sowohl was Spezifikationen anbelangt, als auch Preise.
Ich halte den für einen unverbesserlichen AMD Fanboy, der sein Wunschdenken gern als Realität verkauft.

Realistisch dürfte da nur sein, dass es wohl Anfang kommenden Jahres die Super-Modelle geben wird.
Falls es wirklich eine ti mit höherer Speicherausstattung geben sollte, wäre die schon sehr interessant.
Womöglich besteht dann auch eine Chance, dass AMD bei einem Refresh auf 24GB oder 32GB steigert.
Wäre gerade für AI-Kram interessant, da die meisten modernen Karten eigentlich schnell genug sind, nur ihre Speicherausstattung zu gering ist, für komplexere Modelle. Denn selbst ein schnöder Topaz AI Video Enhancer kann heute schon 12GB in den VRAM nageln für irgendwelchen Upscaling oder Entrauschungs-Kram. So manche Modelle kombinieren können dann schon manche selbst auf teureren Karten nicht mehr. Täte viele sicher freuen, nicht mehr einer 5090 hinterherweinen zu müssen.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.472
Erhaltene Likes
2.849
Naja, meiner Beobachtung nach - er hat bisher eine positive Trefferquote bei "Leaks". Dass Nvidia auf 3 gb statt 2 gb Module setzen will (keine Änderungen an den Boards notwendig) --> keine echte Überraschung.

Siehe auch
Bitte, Anmelden oder Registrieren um die Links zu sehen!
von "Kopite7Kimi" mit ziemlich untadeliger Leak-Statistik.

Ja, ich hab mich gewundert, dass die 5070 mit 192 bit bzw. 12 gb gekommen ist. Nachdem 8 gb ein Jahr lang "verprügelt" wurde und die 5070 eigentlich mehr können sollte. Gerade wenn man Raytracing und DLSS als Argument aus dem Hut ziehen will.
 
Kommentieren
Oben