Technik - Ecke zum Plaudern

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
625
Erhaltene Likes
1.075
Hab eben auch mal zumindest den Test vom 8auer zur 9070(xt) gesehen und muss tatsächlich sagen, dass die Karte schon ganz gut gelungen ist.

Klar -> die 5000er sind natürlich effizienter. Aber ansonsten... Ich glaub da würde ich mir tatsächlich eher ne 9070xt in den Rechner knallen
als ne 5070ti.

Wobei nen Upgrade von der 4070TiS ohnehin eher uninteressant ist...
Umso mehr ich über die 5000er lese/sehe, umso uninteressanter finde ich die.

Die Problematiken mit en kokelnden Steckern, die Preise, PhysX, Probleme mit PCIE5, fehlende ROPs...

Bin mal gespannt was da ggf. nächstes Jahr mit den "Super"-Karten ist... sofern das bei den 5000ern kommt.
Ansonsten warte ich einfach mal ab und schau was mit den 6000ern so kommt.

Muss zwar dennoch sagen: Bei nem guten Deal würd ich ggf bei ner 5080 zuschlagen. Aber auch nur,
weil ich meinem Sohn das Upgrade von seiner 3070 auf die 4070 gönnen würde ( die 4070TiS würde
in mein Unraid für KI-Kram wandern... da sitzt jetzt grad ne 4070 ) :-D

Vllt demnächst doch erstmal nen CPU-Upgrade machen xD
Wenn GPU-Technisch grade so wenig interessant ( und viel zu teuer ist ).

So nen 9950x reizt mich schon abnormal... der Sprung vom 5950x ist jetzt nicht ganz unerheblich
wenns um Effizienz und IPC geht
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.312
Erhaltene Likes
2.665
Laut Steve von Gamers Nexus ist die 9070 ohne XT eine der effizientesten Karten, quasi auf Augenhöhe mit der Nvidia 4070/5070. Siehe

Würde von der Fertigung her tippen, dass RDNA4 Chips, die entweder defekte Units haben (siehe die geringeren CUs) und deaktiviert wurden oder die den Takt eben nicht schaffen. Also Spannung runter, Clock deutlich runter (fast 400 Mhz), die defekten CUs eben deaktiviert und fertig ist die Non-XT.

Mit gerade mal 220 Watt Peak und als Dachgeschossbewohner sowie nach den Tests für meine Zwecke "schnell genug" --> interessant. Aber nicht für die aktuellen "Launchday-Preise" von fast 800€.
 
Zuletzt bearbeitet:
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
625
Erhaltene Likes
1.075
@RobMitchum

Schließe mich deinem Verdacht im Prinzip an.

AMD wollte da wahrscheinlich mit der 9070xt "alles" aus dem Chip rausholen. Was das nicht packt -> non-XT

Wobei auch bei der 9070xt wohl recht große Varianzen im Boost-Takt sein soll.
Zumindest sagte das da wohl auch unterschiede von teils 300mhz sind.
Könnte natürlich stark mit den Temps zusammenhängen.

Die Effizienz der 9070 ist schon nicht übel.

Wie ist das eigentlich mit FSR4 ( AMD MFG? ) grade das wäre interessant.

Was mich halt noch immer beim kauf ner AMD Karte stören würde, wäre halt -> Kein DLSS...
Ja ich weis.. die leidige Diskussion... aber ich muss bisher wirklich sagen, dass ich bei jedem Game was beides
anbietet immer schaue -> Was sieht besser aus und bietet bessere Performance.
Und da muss ich ganz klar sagen: Ich hatte keinen Fall wo FSR besser aussah als DLSS.

Generell ist FSR ja ne geile Sache. So ne 1070/1080/1080ti ist dadurch fürs reine zocken
ja durchaus "brauchbar" und auch Emulatoren wie Ryunix ( oder wars Yozu? ) bieten FSR an.
Aber wie gesagt: Mich würds abfucken von DLSS auf FSR zu gehen.

Zumal man ja auch grade bei dem Thema dazu sagen muss:
Natives Gaming rückt halt immer weiter weg. DLSS ist für mich eigentlich schon
so ne Standardeinstellung.
Aufm 27er WQHD seh ich zwischen DLSS Quality und nativ kaum unterschied.
Gibt so paar Szenarien wo man es sieht, ist aber zu verschmerzen wenn ich weis,
dass es einfach entweder mehr Frames gibt, oder, wenn das Game z.B auf 60FPS gecapt ist,
meine Grafikkarte dadurch kühler und leiser ist und in dem Moment sogar weniger zieht.

Einzig wo ich die Finger bisher fast immer lasse ist FrameGeneration, weils die Latenz spürbar
hochtreibt. Kann mir das bei ner Sim wie Planetcoaster, Cities usw gut vorstellen ( weis aber grad nicht
ob die beiden Games das z.B anbieten ). Aber bei nem Ark SA, Forza Horizon 5 usw... nein Danke.
MfG soll da ja tatsächlich deutlich besser sein... würds zu gerne mal testen.

Hab letztens mal nen interessantes Vid auf Youtube gesehen. Glaube von PCGH oder so.
Da haben mehrere Cyberpunkt gezockt und haben halt ( ohne zu wissen welcher Upscaler an war )
bisschen gespielt, gezeigt und was dazu gesagt. Da hat FSR3 zumindest gut abgeschnitten meine ich.
MfG aber deutlich besser
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Also DLSS oder sonstiges derartiges Zeug habe ich noch nie in Games aktiviert.
 
Kommentieren

level9

Pirate of the 777-Seas
Crew
Registriert
12 Mai 2021
Beiträge
1.573
Erhaltene Likes
5.363
Multi-Frame-Generation kann nur gut abschneiden, wenn man eh schon eine relativ hohe Anzahl an Frames hat.
Wenn man von unspielbaren 20 sich auf 80 Frames "hochfaket" hat man mit richtig üblen Latenzen zu tun.
MFG is also imho nurn Marketing-Gag.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.312
Erhaltene Likes
2.665
Ich hab bei zwei meiner Spiele das Thema, dass die Game-Engine an sich sehr selten, aber eben ab und zu zum kurzfristigen "stottern" neigt. Sehr sicher ein Engine-Fehler, kein Fehler im Grafik-Treiber oder gar des PC. Mit FrameGens (AFMF) wird das ganz passabel kaschiert. High-FPS ist das Schwachsinn, aber wessen Karte/Engine an der Kotzgrenze arbeitet - einen Versuch wert.
 
Zuletzt bearbeitet:
Kommentieren

level9

Pirate of the 777-Seas
Crew
Registriert
12 Mai 2021
Beiträge
1.573
Erhaltene Likes
5.363
Bitte, Anmelden oder Registrieren um die Links zu sehen!

Die "hitzigen" Kabelsträngchen werden von immer mehr Tubern vorgefunden.
Klar, war zu erwarten... nur irgendwann müsste sich Nvidia ja dann mal erklären...
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
2.017
Erhaltene Likes
4.960
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Einen Teufel werden die tun. Wie auch Intel bzgl. der sterbenden CPUs.
Auch keine andere Firma wird darauf eingehen, wenn sie bei Sinnen ist.
Warum: Gebe ich als Hersteller ein Problem zu, dann erkläre ich gleichzeitig offiziell, dass es einen Sachmangel gibt der alle Kunden entsprechend zu Umtausch, Nachbesserung oder ggf. sogar Kaufrückabwicklung berechtigt.

Also hält man sich bedeckt und räumt immer nur das ein, was man einem ohne jeden Zeifel anhängen kann.
So wie bei Intel die sterbenden CPUs. Erst als es auf Datenlage empirisch bewiesen wurde, dass es ein generelles Problem der CPU selbst ist, war dann die Reaktion in etwa: Achso, ja, da ist uns jüngst was aufgefallen bei unseren internen Tests. Sooooorry...
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.312
Erhaltene Likes
2.665
Wobei "Gamer" und "betrogene Freundin" was gemeinsam haben: "reichlich nachtragend, sobald die das rausfinden..."

Nvidia hat den Luxus einer Monopolstellung im Grafikkartenmarkt, bzw. IMHO absehbar "gehabt".

Nun hattest du Anno '21 mit der anfangs nicht verfügbaren 3000er Serie das Thema, dass die Karten komischerweise überwiegend den Weg zu Scalpern und in chinesische Mining Farmen gefunden haben. Angeblich waren ja alle schuld, nur nicht Nvidia. 2018 zuvor wars das gleiche. Dann die Nummer mit dem 12V HP Stecker, "Anwenderfehler". Und nun Null Verfügbarkeit, zugleich nochmal 12V Hp Stecker. Und wieder mal werden neue Features ausschließlich exclusiv den 5000er Karten vorbehalten. Dazu die "zahls doch und heul nicht" UVPs der 4060 beim Launch. Oder die 4080/12 gb, was dann nichts anderes war als die 4070 Ti. zunächst über 1000€ UVP....

Übrigens, ein Schelm wer hinter der faktisch nicht vorhandenen 12VHP Überwachung bzw. dem dazugehörigen Loadbalancing eine Kostenoptimierung (bzw. Gewinnmaximierung) vermutet. Ähnliches beim knapp bemessenen Speicher wie bei der 3070/Ti mit 8 gb oder gar dem bereits erwähnten Thema "4080/12" nebst Upsi, doch nur eine 4070Ti mit wieder mal knapp bemessenem Speicher" .... siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!


Ich vermute, dass auch der dümmste Fanboy irgendwas was merken wird. Oder doch nicht.

Edit: Achja, die Aufschläge auf den UVP bei den 9070er Radeons sind heftig. Siehe den Rant von
Bitte, Anmelden oder Registrieren um die Links zu sehen!
. Warum wirds gemacht? Weil der Kunde keine Optionen hat. Aktuell ist die 7000er Serie in "Cost/Frame" gerechnet sogar billiger, hat sich aber nicht vergünstigt bzw. ansatzweise im Abverkauf. 7700XT nach wie vor bei 430 Euronen. Die Händler wirds freuen.
 
Zuletzt bearbeitet:
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
997
Erhaltene Likes
1.781
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Oha da ist ja wieder Dein liebstes Hassmärchen.
Du bist angeblich so Intelligent und arbeitest in einer großen Firma und weißt dann nicht wie so etwas abläuft?
Nvidia macht Verträge mit den Partnern lange vor Release. Da wird der Preis für den/die Chips den die Boardpartner zu zahlen haben festgelegt.
Wenn also 10 Millionen Karten im Mining Markt landen verdient Nvidia das gleiche als wenn Gamer die Karten kaufen.
Nvidia hat es wenigstens versucht die Karten für Mining mit einem anderen Bios unattraktiv zu machen, was bei AMD nicht der Fall war. Ausserdem haben sie extra Karten fürs Mining rausgebracht um die Lage zu entschärfen, die wurden eben nur kaum gekauft da man eine Mining Karte eben schlecht wieder an Gamer verkaufen kann.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Du meinst den Boom wo erst alles an AMD Karten aufgekauft wurde bis sich rausgestellt hat das die Nvidia Karten beim Minen besser und effizienter waren als die von AMD? 🤣
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Die Erklärung dafür wurde offen kommuniziert.
Aber warte mal 🤔 wie sieht das mit FSR4 und AMDs Variante der FG aus? Für welche Karten kommt das nochmal? Ach ja, das Feature ist 90xx exklusiv. Komische Sache.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Und selbst der größte Hater sollte merken das Nvidia Karten für die meisten die bessere Wahl ist, sei es wegen der Leistung, dem Stromverbrauch oder den Features.
Nvidia bringt immer wieder Innovationen in jeder neuen Gen raus. Was kommt von AMD? Immer wieder großmundige Ankündigungen und dann nach ewig langer Zeit eine schlechte Kopie der Nvidia Features.
Und genau das sehen auch die objektiven Käufer.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ein Monopol haben sie nie gehabt, aber eben immer das bessere Produkt abgeliefert.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Brauchst kein Mimimi zu machen, sobald die Nvidia Karten großflächig verfügbar sind werden bei AMD die Preise purzeln, so wie es immer passiert.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.312
Erhaltene Likes
2.665
Ich ahne, wieso ich solche und vor allem seine Beiträge ignoriere.

Edit: Ich musste gucken, Neugier hat gesiegt. Frame Generation (AFMF) hat selbst meine ollen 6600XT (RDNA2) bekommen. Nah, wo ist die auf der Nvidia 30er Serie? FSR4 wirds eher nicht sein, juckt mich aber auch nicht. Weil ich nicht einmal FSR 3 genutzt habe. Warum? Weil die Leistung bisher ausgereicht hat. Ist jetzt nach kaum 3 Jahren langsam am Ende, aber was solls. Damals halb so teuer neu gekauft wie eine Scalper 3070/3060Ti.

Und wie üblich viel Meinung statt Fakten. Guck dir die Fail Historie an bzw. bewusst "sehr kostenoptimiertes Kartendesign" nebst agressivem Marketing sowie Upselling - Preise der 4060 nebst TI beim Launch, die "4070 Ti" als "4080/12" zuerst angekündigt und andere Späße dieser Art. Aber hey, Nvidia hat sicher die angenehmste Schlachtbank, wenn man an der Kasse seine Kreditkarte zücken "muss".

Nvidia hat in der Mining Krise 2018 erstaunlich viele Karten und an den angeblichen "Premium-Gaming-Kunden" vorbei (direkt oder indirekt) an Miner vertickt. 2021/22 dasselbe nochmal. Und aktuell machen die mit AI das Hauptergebnis - wer bekommt keine Karten? Richtig, die angeblichen Gaming-Premium Kunden, um den sich die Lederjacke so sehr sorgt.
 
Zuletzt bearbeitet:
Kommentieren
Oben