Technik - Ecke zum Plaudern

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
Beim 9950X war ich wirklich enttäuscht. Da kannste auch einen 7950X nehmen - im Gaming merkste das eigentlich eh nicht ohne eine 4090 in Full-HD. "Schnell genug"
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Ja, schon. Die etwas bessere Energieeffizienz nehme ich dann aber doch schon gern mit.
Jetzt nicht so relevant für mich, aber immerhin. Aber schneller ist er ja obendrein auch noch. Wenig, aber immerhin.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
Also ich sehe beim Fokus auf "Productivity" keinerlei Mehrwert der X3D Modelle. Die sind trotzdem für faktisch alles "schnell genug". Was interessant wäre - ein 9700 ohne X am Ende. Das Effizienzmonster, bestens luftkühlbar und eben 12C24T mit identischen Kernen ohne Scheduler-Thema.

Edit: Der Ryzen 7900 ohne X steht gerade bei 340€. Würde ich nicht mal nachdenken, ob irgendein Tester mir einen 7800X3D oder 9800X3D empfiehlt.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Wie gesagt: X3D da bin ich eh raus. Nehm da lieber einen 9950X. Wer weiß wann die X3D kommen und ich bin mir relativ sicher, dass die im Vergleich zum Mehrpreis bei Produktivanwendungen wohl eher keinen Mehrwert haben (und ich die auch nur als tauglich empfände, wenn beide Chiplets den Cache bekommen).
Für Gaming ist es eh Nonesense, weil wer pimmelt da schon mit ner 4090 rum. Ob man da jetzt 5fps mehr oder weniger hat... also zumindest mir ist das völlig schnuppe.

Aber mal was anderes, was ich grad gelesen hab:
Intel's CEO hat sich wohl hinsichtlich der Zukunft ihrer dedizierten GPUs geäußert und fasst es wohl mit den Worten zusammen, dass Intel keine Zukunft in dedizierter Grafik sieht.
Wir hatten doch vor einiger Zeit mal eine Vernunft-Ferne Diskussion, wo jemand die Intel Arc als "Zukunftsfähiger" bezeichnete. Soviel mal dazu...
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
Yep, wobei ich etwas Wettbewerb da ganz gut gefunden hätte. Wobei Intel mit den ARCs sehr sicher brutal Geld versenkt hat. Statt nem 9950X würd ich auch den 7950X in Betracht ziehen - die Unterschiede würd ich am Preis zu Leistung (Blender? Videocoding?) festmachen und gut ist. Mich haben die neuen 9000er bisland eher enttäuscht - einer der kleinsten Sprünge bei den Ryzen-Serien seit deren Einführung.

Witzigerweise waren die ersten Ryzens die "Productivity-Könige", aber im Gaming formal hintendran. Nun ists umgekehrt. Das Leben kann scheiße und gemein sein ;)
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Wie gesagt: Energieeffizienz und Geschwindigkeit ist beides leicht besser, da neh ich lieber den 9000ner. Aufs Geld kommts in der Preis-Liga nun auch nicht so an.

Und ja, klar haben die da extrem viel Geld versenkt. So ist das immer bei Neuentwicklungen: Du weißt nicht genau was bei raus kommt, obs am Ende so funktioniert wie erwartet und obs für den dann resultierenden Preis auch noch Gewinnbringend ist.
Aber wenn man den Start da nun schon einmal gewagt hat, wäre es um so dämlicher die Gesamtsumme abzuschreiben, nur weil man ggf. noch eine 2., 3. oder gar 4. Generation braucht, um da (wie gewünscht) Wettbewerbsfähig zu sein.
Alle haben Nvidia einfach viel zu lang ungehindert davonrennen lassen. Das ist dann eben wie bei jedem Rennen: Wenn ich mich erst 2 Stunden nach dem Startschuss entscheide los zu fahren, hab ichs halt extrem schwer unter die ersten 3 zu kommen...
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
Yup. Hatte gehofft, dass Intel die Preise "erden" kann. Weil sich AMD eher an Nvidia orientiert und diese beim P/L etwas unterbietet. Als dann die 4060/ti rauskam - da dachte ich nach der 3060/Ti den Eindruck "was haben die geraucht?". Mittlerweile hat Nvidia das mittlere Preissegment leider aufgegeben. Die 3070 mit 8 gb bzw. die 4070 mit 12 gb ist in der Preisklasse leider ne Frechheit. Was bin ich "froh", damals keine 800++ Euronen für eine 390 UVP 3070 ausgegeben zu haben.

Bin gespannt - die neue 8000er Radeon soll gute Raytracing Leistung haben. Nicht dass AMD sich dann an den Nvidia Kursen orientiert. Bei der 5070 hab ich wirklich auf "etwa 600€ und 16 gb" gehofft. War wohl nix sagen die Leaks.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
530
Erhaltene Likes
867
Das mit den dedizierten Intel Grafikkarten war abzusehen. Auch wenn es echt schade ist.
Bei den Grafikkarten fehlt irgendwie der Wettbewerb. Und ich denke, dass es auch noch nen bisschen so weiter laufen wird wie aktuell.

Nvidia wird mit der 5090 wieder ne GPU raushauen, die zur 5080 nen gigantischen Abstand hat, so wie jetzt auch mit der 4090 und 4080. AMD hat ja selbst gesagt, dass sie sich aus dem High-End Bereich zurückziehen wollen. Denke aber, dass die mit ihren 8000ern zumindest mit den Nvidias bis zum 80er Bereich mithalten können.

Dennoch einfach schade, es fehlt einfach der Kampf um die Krone. Vermisse die Zeit irgendwie als noch Karten wie die GTX 690 oder auch die R9 295x gebaut wurden um ums Verrecken an die Krone zu kommen. Klar waren das Dual-GPU Karten und die Sache mit den Micro-Rucklern hat man nie richtig in den Griff bekommen. Aber ich vermisse diesen Enthusiasmus.

Aktuell gibts ja auch Gerüchte von DLSS4 und von ner 5000er Exklusivität dafür. Aber ich hoffe ganz stark, dass sich das nicht bewahrheiten wird.

Was die CPU's betrifft:
Ich muss gestehen da flasht mich aktuell wirklich nichts und ich sehe absolut keinen Grund meinen 5950x zu ersetzen. Beim 60FPS Gaming bei WQHD bis Tripple-WQHD ( eben je nach Game und Unterstützung ) limitiert eher die 4070TiS ( zumindest bei Tripple-WQHD ) xD

Und im Produktiven Bereich, sprich: Photoshop, Premiere Pro, Audition und diversen weiteren Tools für den Bereich Foto/Video/Ton reicht mit die Performance des 5950x vollkommen aus.
Klar könnte es bei Prozessen die "CPU-Only" bearbeitet werden noch schneller sein ( schneller geht immer xD ) Aber ob ich bei diversen Photoshop Plugins 5 Sekunden mit dem 5950x warte, oder es mit nem 7950x/9950x nur noch 4 Sekunden dauern würde -> Drauf geschissen xD

Bei den x3D CPU's sehe ich auch immer weniger Sinn. Bei der 5000er Gen hats noch Sinn gemacht wenn man nur aufs Gaming aus war. Aber selbst da wars ( zumindest damals für mich ) nen abwägen zwischen -> 5950x der "locker schnell genug" ist und in Workflow auch extrem gut ist und nem 5800x3d der "Gaming schneller als benötigt und in Workflows massiv langsamer" ist. Von der Hitzeentwicklung sind die auch in etwa gleich.
Für jemanden der 120Hz und mehr zockt, und dann ne 4090 hat und/oder nur kompetitiv CS, LoL usw zockt -> Ja, da hat nen 5800x3d Sinn gemacht.

Bei den 7000ern haben die ohnehin schon so ne hohe IPC, dass der nutzen des größeren Caches schon fast fragwürdig ist. Um nen 7800 limitieren zu lassen brauchste schon ne 4090... und musst dann in FHD zocken xD Welcher 4090 besitzer macht das?
Und selbst WQHD oder 4k? Da musste schon sowas relativ anspruchloses wie CS und so zocken um ins CPU-limit zu kommen... aber ob mit 7800 und 4090 400FPS haben oder mit nem 7800x3d und 4090 500FPS haben... naja ich denke dazu muss ich nichts sagen xD

Bin mal Hardcore gespannt was Intel so demnächst noch alles raushaut und ob mal wieder nen richtig interessanter Sprung kommt. Bei nem 2500k/2600k war auch der Sprung zum 8600k/8700k erst wirklich interessant weil man endlich 2 Kerne mehr hatte. Dann kam die 12000er weil die Kernanzahl verdoppelt wurde. Wer jetzt noch nen 12000er hat fährt damit noch immer top.

Ich warte ja drauf bis mehr als 16 Kerne / 32 Threads "Mainstream" werden.
Vielleicht kommt ja Intel mit ner 16p + 16e Cores CPU um die Ecke?
Da würd ich zuschlagen
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
Das Gerücht mit RTX5000 und "Exklusiv DLSS 4" würde jedenfalls in das Nvidia Geschäftsgebaren passen. Mir kann echt keiner erzählen, dass "Frame Generation" bei Nvidia technisch nur ab der aktuellen 4000er Serie gehen kann. Selbst meine olle 6600XT hats als AFMF auf Treiberebene bekommen. Ich nutze es ab und zu, denn bei manchen Spielen hab ich Mikroruckler von der Game-Engine her (beim Speichern des Spielstands zum Beispiel). Sowas kaschiert AFMF deutlich. Bzw. ich hab die Wahl, meine Settings von "hoch" oder so nahe Max zu drehen (bringt optisch nichts, habs ausprobiert) und die dann deutlich unter 60 fallenden FPS zu kaschieren. Die 0.1 bis 1% Lows fallen dann weniger auf.

Wenn die neue 8800XT wirklich um 550€ kosten wird, dann wars das für meine 6600XT. Hat als Pandemie-Upgrade und "was besseres war zum damals fairen Kurs nicht zu bekommen" Lückenbüßer erstaunlich lange gehalten. Die Treiberoberfläche/UI fand ich beim Wechsel von Nvidia kommend zuerst "ungewohnt", aber sehr schnell kam "warum nicht gleich so". Dass dann noch AFMF Framegen auch für RDNA2 rausgekommen ist - Sahnehaube.

Bei den CPUs gebe ich dir vollkommen recht - die Performance auch der kleinen wie 7600X für etwas über 200€ langt ohne eine 4090 aus. Hatte nem Kumpel letztes Jahr ein System für WQHD zusammengestellt - 7600X mit 4070Ti. Rennt wie Hölle, auch er wollte anfangs nen "13700 oder -900" und ist angesichts der "kocht weg" Thematik superfroh, nicht auf seinen lokalen Computerfritzen gehört zu haben. Kannst ausrechnen, was ein 7600X mit Luftkühler im Vergleich zu einem 13900 mit Wakü weniger gekostet hat. Die marginal höhere Frametime siehste praktisch ohne FPS Counter nicht und "mehr als schnell genug" geht nicht. Diese "Spiele brauchen die schnellste CPU" Einstellung war vor 20 Jahren noch korrekt, vor 10 Jahren langsam fragwürdig - siehe die damals Laberei wie "der Intel 10400 hat aber 2-3 FPS mehr als ein Ryzen 3600X". Heute hängt fast alles an der GPU. Wer noch einen Zen1/2 Ryzen hat, der kann nen 5700X3D für gerade mal 200€ stecken - nochmal 3-4 Jahre Ruhe.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Noch mehr Kerne machen wenig Sinn.
Das ist wie einfach vom 4-Zylinder auf 12-Zylinder umzubauen, aber sowohl Ansaugung und Abgasabführung identisch zu lassen. Was soll das bringen?
Die größeren Systeme haben deswegen ja Quad oder teils auch Octa-Channel RAM Anbindungen.
Mit den 16 Kernen im Desktop ist das ja auch erst mit DDR5 halbwegs sinnvoll geworden. Aber das große Problem an DDR sind seine vergleichsweise hohen Latenzen. Da hat sich seither wenig dran verändert. Kommt DDR5 heute mittlerweile auf enen Effektivtakt von 6GHz, sind die Zugriffszeiten (Absolutzeit) aber seit DDR3 kaum besser geworden.
Das verursacht insbesondere bei starkem Multithreadding einen ziemlichen Flaschenhals. Deswegen ja auch der irrsnnig große Cache heute in den Prozessoren. Da kann so was wie Cinebench eben komplett aus dem Cache laufen und sieht deswegen so furchtbar schnell aus. Bei "normalen" Anwendungen hingegen, versucht der Prozessor da die Daten durch einen Strohhalm zu saugen...
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
Exakt. Siehe damals 3600 CL14 als "Bestes DDR4 Ram" und heute haste DDR5-6000 CL30 oder 32. Wobei DDR5 endlich "Parity / ECC ab Werk" hat, sprich Speicherfehler (unbemerkte Datenkorruption) wird weniger wahrscheinlich.

Edit: Wäre übrigens "nett", wenn eine kommende Generation an CPUs Quadchannel Support hätte. Ggf. dumm, wenn man nur 4 Slots hat (Thema "nachstecken"), aber wenns was bringt - warum nicht? Fast jedes Board hat 4 Slots, 4 x 8 gb sind nicht wirklich teurer als 2 x 16 gb.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Naja, man kann das ja in Zeit umrechnen und sieht das Problem (Achtung: DDR Taktrate durch 2 teilen, weil das andere ist der Effektivtakt weil: Double-Datarate):
3600MHz und CL14 heißt: 1/1800*14 = 7,7ns
6000MHz und CL 30 heißt: 1/3000*30 = 10ns

Da ist dann DDR5 sogar noch langsamer - auf Basis Zugriffszeit.
Bei Multithreading passiert aber permanent Random Access und damit Zugriffszeitlatenz. Und die ist ein Vielfaches höher als die sequenzell mögliche Datenrate.

DDR5 hat übrigens "ab Werk" kein ECC. Da besteht ein breites Missverständnis: DDR5 überträgt auf der Schnittstelle Paritätsdaten, die es erlauben die Übertragung abzusichern. Der Speicher selbst hat kein ECC, dazu braucht es zusätzlichen Speicher auf dem Modul - was es natürlich auch gibt (wie auch zuvor).
Das Einbinden von ECC auf der Schnittstelle wurde notwendig, weil die Datenrate so hoch ist, dass es nicht mehr zuverlässig möglich war die Daten zu übertragen. Bitfehler gehörten da zur Tagesordnung. Um dennoch die hohen Datenraten zu erreichen wurde einfach ECC dazu gepackt, wodurch die meisten Fehler korrigiert werden können und nur in Einzelfällen die erneute Übertragung nötig ist. Übrigens auch eine Eigenart von DDR5, die die Zugriffslatenzen unberechenbar erhöht.
Der Datengehalt an sich, im Speicher, ist aber nicht geschützt (bei normalen None-ECC Modulen). Ist halt ne Kostenfrage, weil min. ein zusätzlicher Speicherchip nötig ist.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
1/8tel höhere Preise würde ich dafür durchaus lockermachen und vor allem dann, wenn der Kram seitens der CPU mit Quadchannel angebunden werden könnte. Im Serverbereich vollkommen üblich, also keine wirkliche Neuentwicklung.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Ja, Quadchannel ist was feines. Hab ich auf meinem alten Board ja auch. Trotz "nur" DDR3 hält der gegen so Zen2 etwa noch gut stand. Da geht halt schon was.
Aber ist eben auch teuer, weil komplexes Layout, mehr Sockel, Platz usw... Hat ja Gründe warum man nur Dual-channel im Consumer-Markt macht.
Ich denke schlau wäre ein neuer RAM-Standard mit doppelte Bus-Breite, wo man ggf. die Hälfte schon mal "voradressieren" kann, während man von der andern Daten saugt. Ich hab das bei einem embedded-System im Speicher-Controller, wo ich die RAM-Chips individuell ansprechen kann (bzw. macht das der Speicher-Controller). Das boosted, je nach Rahmenbedingungen, durchaus nicht wenig. Durchsatz bleibt natürlich gleich, aber Latenzen halbieren sich grob (effektiv).
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
Was bedeuten würde, du brauchst einen komplett neuen RAM Typ. Wird weder AMD wegen "Ein RAM, eine Sockelgeneration" noch Intel machen, da DDR6 in der aktuellen Pipeline ist.

Die aktuell releasten X870 Boards habe ich jedenfalls nicht verstanden. Kaum eine Verbesserung IMHO, aber neu und teuer.

Edit: Angesichts der Rahmenbedingungen - ein Board/CPU für optionales Quad Channel DDR6 wäre jedenfalls mal was neues. Und könnte ein Mehrwert bei den "X/Z" Boards sein um diese irgendwie mit einem Mehrwert zu rechtfertigen.
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Naja, das ist ja der Grund, warum ich immer sage, dass das Festhalten an einem Sockel-Standard auf längere Sicht ein technologischer Hemmschuh ist. Das bremst den Spielraum für neue Konzepte erheblich ein.
Aber ich glaube nicht, dass sowas mit DDR6 kommen wird. Da wird dann abermals die Datendichte erhöht, sowie der Takt, ggf. auch ein anderes Modulationsverfahren - weil Takt ist so langsam ausgereizt.
DDR6 ist ja schon länger in der Konzeptionierungsphase, da kenne ich den Stand aber nicht, weil es mich nicht wirklich tangiert. Könnte mir aber durchaus vorstellen, dass man da womöglich auf PAM, QAM oder gleichartige Modulationen geht, um der Taktbarriere zu entrinnen.
Quadchannel wird dann sicher was für den Profi-Bereich bleiben. Allein auch, weil was soll man dann dort zur Differenzierung bieten? Früher gab es da ja noch als Zwischending das Pro-Sumer Segment mit so Plattformen wie ich z.B. aktuell noch habe, also beispielsweise Sockel 2011. Gibts aber ja gar nicht mehr.
Deswegen wird da wohl Dual-Channel bleiben und wohl vorerst auch 16 Kerne im Desktop-Markt. AMD wäre ja blöd, wenn sie sich das Server-Segment kanibalisieren und die nötigen größeren Packages für mehr Chiplets und die nötigen Pads hießen ja auch generell, selbst bei Einsteiger-CPUs, höhere Kosten. Das die das völlig ohne Not machen, halte ich für extrem unwahrscheinlich. Mit dem 16 Kerner zu kommen war seiner Zeit ja auch nur um Intel zu ärgern (und Community-Druck, nachdem man selber Andeutungen machte), nun ist der da und kann ja auch nicht einfach wieder gehen. Aber ohne Marktdruck werden die das auf absehbare Zeit nicht aufstocken.

Am Ende sind Wetten in die Zukunft meist nichts wert, aber ich würde davon ausgehen, dass wir mit DDR6 im Consumer-Markt weiterhiin Dual-Channel mit 16-Kernen (von AMD) bekommen und womöglich seitens Intel, wegen den E-Cores mal 20 oder 24 drin sind.
Es könnte natürlich auch sein, dass AMD auch damit anfängt. Sagen wir mal auch SMT rauswirft und dann 16 Kerne auf ein Chiplet bekommt und damit also 32 native und nicht virtuelle anbietet. Solche Spielarten könnten schon passieren.
 
Kommentieren

trackball

Namhafter Pirat
Registriert
24 August 2021
Beiträge
229
Erhaltene Likes
451
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Zumal es auch Anwendungen braucht, welche mit entsprechender Kernzahl auch entsprechend skalieren. Zumindest im normalen Desktop Segment. Jetzt mal den Profibereich mit AutoCAD und anderen ähnlich gelagerter Software außer acht gelassen. Das ist dann wieder ein Thema für sich.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Jagut. Viele Alltagsanwendungen können das aber schon. Spiele halt insbesondere strukturell bedingt halt weniger.
Aber ich sag mal, allein wenn du nur ein 7zip oder RAR verwendest, das nutzt einfach alle Kerne parallel (außer du unterbindest es). Das ist halt Arbeit, die lässt sich wunderbar in Häppchen aufteilen.
Auch Video und Bildbearbeitung, Filme Encoden usw... Das gehört heute ja schon durchaus zu "Jedermannsanwendungen".

Aber klar, ein Word oder Outlook interessiert sich jetzt eher weniger dafür, ob du 10 oder 100 Kerne im Rechner hast :ROFLMAO:
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.081
Erhaltene Likes
2.317
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja, die 3D Drucker samt CAD werden immer mehr.

Ich glaub nicht, dass das Feature "Quad Channel" in einem Mainboard mit 4 Ram-Slots wirklich was bei Servern kannibalisiert. Wer wirklich "Server" betreibt, der hat ganz andere Anforderungen. Wobei ein TRX50 Board (sTR5) mit 4 x DDR5 (
Bitte, Anmelden oder Registrieren um die Links zu sehen!
) lediglich 600€ plus kostet. Mit dem WRX80 und 8 Ram Slots? 1000€. Plus die CPU so um 1000€ als Untergrenze.

Jedenfalls würde ich 350€ bis maximal 400€ für ein "X/Z" Board verstehen, wenn auf einmal Quad Channel möglich wäre. Alle zwei Jahre nen neuer Sockel, weil es könnte was Neues kommen - sehe ich persönlich nicht wirklich ein. Bisher fand ich die "Ein Ram, ein Sockel" Philosophie von AMD plausibel. Du hast vielleicht mit den ersten und günstigeren Boards nicht die "letzte" PCIe Fähigkeit bekommen (siehe frühe AM4 mit Limit auf 3.0), aber - die sind nach wie vor brauchbar. Wenn auch für kommende PCIe 5.0 Grakas am Ende denk ich.
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.616
Erhaltene Likes
3.943
Leben wir schon in so einer Welt, wo wie sagen, dass so ein Board "lediglich" 600 Euro kostet? :ROFLMAO:

Es gibt halt keine Prosumer-Klasse mehr. Die hatte solche Sachen ja. Aber der Markt dafür war offenbar nicht lukrativ.
Jetzt hast du halt nur noch die Wahl zwischen Consumer und Server/Workstation Hardware.
Heute verbimmelt man doch lieber für 500 Euro eine Consumer-Board, was lustig rumblinkt und son nutzlosen Plunder wie WLAN hat - ist doch ein viel besseres Geschäft.
 
Kommentieren
Oben