Welche GPU für KI oder AI

Status
Für weitere Antworten geschlossen.

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.659
Es geht doch nicht darum ob und wen man mag oder nicht. Es geht darum, welche Argumente kommen, um begründen zu wollen, dass es "das richtige" ist. Da kann man natürlich jetzt den Junky fragen, warum er sich einen in die Murmel schnieft. Aber das ist doch weit entfernt von objektiv. Da kommen dann eben Scheinargumente, so wie hier.
Und wenn er sich am Ende eine Matrox Mystique kauft und versucht die mit ihrem AGP Anschluss zusammen mit einem Hammer in den PCIe Slot zu prügeln... sein Bier. Nur soll doch am Ende keiner still mitlesen und das genannte als prima Empfehlung mitnehmen - auf Basis von Scheinargumente, weil einfach keine Gegenposition vorhanden ist.

Da muss man eben auch nicht Intel weniger für mögen, um sich der objektiven Faktenlage bewusst zu sein, dass Intels Erstlingswerk nicht nur beim Desktop ziemlich gefloppt ist, sondern auch im Server-Markt, wo die Architektur eigentlich herkommt bzw. hin sollte.
Die blutige Nase, die sie sich dort geholt haben, hat vor allem dazu geführt, dass sie gemerkt haben, dass die Architektur, so wie sie ist, nicht so gut dafür ist. Also haben sie ihre Roadmap über den Haufen geworfen und angefangen die Architektur den Bedürfnissen entsprechend anzupassen - deswegen hat Battlemage diesen massiven Delay.
Daraus lässt sich doch ein wichtiger Punkt mitnehmen: Die grundsätzliche Architektur wird in Battlemage nur noch in Anlehnung weitere Verwendung finden. Gleichzeitig hat ARC im Markt faktisch 0% Verbreitung, weils für eine Ganzzahldarstellung überhaupt nicht reicht. Was denkt denn bitte selbst ein Naivling, wird mit der Softwareunterstützung der aktuellen ARC Karten bereits in wenigen Jahren passieren? Das findet keinen Support mehr. Ja, selbst Intel könnte den Treiberstand dafür einfrieren und dann war bzw. ist es ein Dead-End - im Übrigen so, wie ich damals bei Vega (AMD) davor gewarnt habe. Wenn Battlemage besser wird, würde es ihnen nicht mal wer übel nehmen, weil dann über die jetzige ARC niemand mehr redet, mit der Konsequenz das ihr Support in Software erst zum Status "obsolet" wechselt und kurz drauf "und weg...".
Für Gaming wird es noch weiterlaufen, für Spezialanwendungen, wie hier eben Compute, aber nicht.

Gleichzeitig ist selbst dem jenigen im letzten abgelegenem Dorf hinterm Berg sicher die Info zu Teil geworden, das Intel durchaus in Finanzschwirigkeiten steckt. Die können da nicht mehr die Milliarden verpulvern. Sofern die Sparte dedizierter Grafikkarten nicht ein besonderer Herzenswunsch des Vorstandes ist - und guess what, ist er nicht - gehört Arc, bzw. Battlemage zu den ersten Opfern des Rotstiftes, wenn Entlassungen die Finanzlöcher nicht ausreichend stopfen.
Dann ist das Projekt komplett tot. Es existiert überhaupt nur, weil Koduri seiner Zeit damit - Selbstdarsteller wie er ist - so massiv hausieren ging. Das war im Grunde sein Herzensprojekt. Koduri ist nun aber schon lange nicht mehr bei Intel. Und Intel selbst wollte das Ding eigentlich nur für seine Server-Sparte - Compute-Module in Großrechnern.

Unter diesen Rahmenbedingungen da von "Zukunftssicher" zu fabbulieren, ist nicht einmal eine Meinung, es ist der Versuch sich seine Sicht der Dinge schön zu saufen.
 
Kommentieren

Tilly

Namhafter Pirat
Themenstarter
Registriert
5 August 2023
Beiträge
94
Erhaltene Likes
187
Zuletzt bearbeitet:
Kommentieren

Tilly

Namhafter Pirat
Themenstarter
Registriert
5 August 2023
Beiträge
94
Erhaltene Likes
187
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Du musst mich hier nicht als Naivling oder Säufer bezeichnen. Du als Klugscheißer meinst wohl das ich die Probleme die Intel hat nicht weiß ?
Für wie dumm musst Du mich halten ?

Nvidia sowie auch AMD kann es treffen. Die Preise von beiden sind derzeit so abgehoben und irre ? So etwas muss ich nicht unterstützen.
Und es interessiert mich nicht im geringsten ob Intel oder Andere den Löffel abgeben. Aber wahrscheinlich hast Du die ARC selber und kommst damit nicht zu Recht. Sowie ein Prozessor von denen in Deinem PC steckt.
 
Kommentieren

CrazyDogg

Der verrückte Hund aus der Nachbarschaft!
Registriert
10 August 2022
Beiträge
315
Erhaltene Likes
431
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Oh ja, C64 *sabber*. Bastel mir grade einen Retro Rechner zusammen, wo dann DOS 6.22 und Windows 3.1/11 drauf kommt. Und dann halt die Klassiker wie Doom 3D, Lemmings etc :) 1982 war ich grade mal 3 Jahre jung :D Aber mit ca 15 haben ich aktiv mit PC angefangen, vorher halt auch mit Konsolen und den guten alten C64/Schneider :)
 
Kommentieren

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
1.907
Erhaltene Likes
4.659
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Deine Meinung, Wahrnehmung oder sonst etwas ist mir einerlei.
Es geht darum, dass man eine potenziell auf der Abschussliste stehende Technik nicht mit dem Wort "Zukunftssicher" in Verbindung setzen kann.
Anstatt das einzusehen, kommt die rethorische Frage "hälst du mich für dumm"?

Da mag sich dann jeder selber seinen Teil denken.
 
Zuletzt bearbeitet:
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
580
Erhaltene Likes
989
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ich arbeite als Fachinformatiker in einer großen Krankenhausgesellschaft... Computer gibts in Krankenhäusern wirklich nicht erst seit gestern. "Damit zu tun" hat also generell jeder Pfleger schon seit wirklich vielen Jahren... dennoch können die nen Igel ( Linux ) nicht von nem Fat-Client unterscheiden. Für die ist das nen "Schwarzer PC". Unser durchaus (in seinem Fachbereich) kompetenter IT-Sicherheitsbeauftragte denkt auch jeder I7 sei besser als jeder i5... Für den ist nen Notebook im Kopf mit i7 3xxx schneller als nen "halbwegs" aktueller mit i5 13xxx... Und der hat schon mit PC "zu tun" als es den Begriff "Fachinformatiker" in den Augen der IHK noch gar nicht gab ;-)
"damit zu tun" ist nicht gleich "kompetent" oder gar "allwissend" ;-)
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Hat er nicht in einer Silbe!?
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Also ich bin gelernter Fachinformatiker und in meinem Unternehmen wirklich wirklich sehr angesehen ;-) Egal ob Service-Desk, Infrastruktur, MDM, Anwendung, Hardware...
Dennoch würde ich mich so weit ausm Fenster lehnen und mal Ad-Hoc behaupten, dass @xNecromindx und @Finus04 in ihrer Fingerspitze mehr IT-Wissen haben als ich überhaupt noch in den nächsten 5 Jahren aufbauen kann..
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Wie war das damals noch, als nen i5 2500k mit 4c/4t teurer war als nen AMD fx 8xxx mit 4x/8t? ( ok Gaming war der Intel auch aufgrund der IPC stärker... aber für Workloads war der AMD top )
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ich hoffe Intel bleibt und holt auf, sonst wird Ryzen noch teurer xD
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Tut mir so leid, mein innerer Irrer musste noch was dazugeben ^^
... Aber ich war lieb :-D
 
Kommentieren

level9

Pirate of the 777-Seas
Crew
Registriert
12 Mai 2021
Beiträge
1.538
Erhaltene Likes
5.218
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
An der Stelle muss bzw. möchte ich dann aber mal fragen, warum Du Dich ans Forum wendest?

Wenn Du per se erstmal nicht das kaufen willst, was man empfiehlt, dann sowieso nimmst, was Du für Dich als gut erachtest, abseits der durchaus begründeten Ratschläge...
ja... dann... warum der Post? Was wäre gewesen, wenn jetzt alle die Arc empfohlen hätten? Wäre es dann die Nvidia geworden!?

Irgendwie bisschen komisch...
 
Kommentieren

CrazyDogg

Der verrückte Hund aus der Nachbarschaft!
Registriert
10 August 2022
Beiträge
315
Erhaltene Likes
431
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
das habe ich mich in meinem beitrag Beitrag #19 auch gefragt.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
wie hier ja steht, soll die karte ja auch hauptsächlich fürs rendern etc genutzt werden. von den werten her, sieht die ja nicht so schlecht aus, aber die jungs werden sich schon was dabei gedacht haben, warum auch nvidia hier empfohlen wurde. aber ok, ist ja auch eine preis/leistung entscheidung, was ja auch völlig ok ist, ohne sich rechtfertigen zu müssen :)
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
580
Erhaltene Likes
989
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Da bin ich auch gespannt, wobei ich generell davon ausgehen würde, dass sie nicht so gut performt. Hat schon nen Grund wieso NV preislich mehr und mehr nach oben geht. Im Bereich Ki wird halt super viel gemacht und da Grafikkarten dafür halt deutlich besser sind als CPU's ist das Silizium was für Grafikkarten genutzt wird halt umso begehrter, zumal NV in dem Bereich für die Karten auch ne Höhere Gewinnspanne hat. Vollkommen klar, das Nvidia die Preise anzieht wenn die nen Chip an nen Ki Unternehmen für 30k Flocken verhökern können mit ner Spanne von 80% während die bei ner Gamingkarte vllt 50% haben. Ist halt auch nur nen Unternehmen und kein Wohltätigkeitsverein. Ist nicht schön, stört mich auch, würde aber auch so handeln.
Wenn ich was verkaufe was mich 100 Euro kostet, verkaufe ich auch lieber an denjenigen der mir 500 Euro gibt, anstatt an den der mir 200 Euro gibt...
 
Kommentieren

Tilly

Namhafter Pirat
Themenstarter
Registriert
5 August 2023
Beiträge
94
Erhaltene Likes
187
Ich hatte mit ein Limit gesetzt und das waren nicht mehr als 300,- €.
Die Rtx 3060 war absolut nicht mein Favorit. Dann kamen aber Vorschläge die mir eindeutig zu teuer waren.
Sieht man sich auf Kleinanzeigen um fragt man sich wirklich, das bei den vorgestellten überzogenen Preisen dort, man lieber gleich eine neue GPU kaufen sollte.
Gebrauchte Grafikkarten werden dort zu höheren Preisen angeboten die man neu günstiger bekommt.
Aber im Endeffekt wurde es dann eine Arc aufgrund der 16GB mit 256 Bits die man für KI benötigt. 8GB sind eindeutig zu wenig auch wenn es damit funktioniert. Aber es wird irgendwann zu wenig sein. Eine 16GB mit 128 Bit ist zu wenig da die Bits zum Flaschenhals werden und man die 16GB nicht voll ausschöpfen kann. Es läuft zwar damit aber auch hier die Frage wann ist es damit vorbei.
Es gibt so viele GPUs auf den Markt (auch Gute aber zu teuer) wo man immer und immer wieder nachsehen muß wieviel GB und Bit sie haben. Deswegen die Nachfrage !
Meine Entscheidung viel dann halt auf die ARC die mir von der Technik her einfach besser ausgestattet und auch für längere Zeit nutzbar ist. Ich will mir nicht nächstes oder ein Jahr darauf wieder eine GPU kaufen.
Natürlich sind die Treiber auch für Stable Diffusion wichtig. Wer etwas anderes behauptet liegt einfach falsch. Ohne die richtigen Treiber läuft es nicht. Ob Games oder KI ist in meinen Augen egal.
Aber was hier angeboten wurde wie zB. die 3060 mit 12GB und 192 bit (nicht die Ti mit ihren 8GB) oder andere stehen nicht im Verhältnis zur Arc.
Ich rede hier ausschließlich nur um die 16GB und 256Bit. Die Karten die dieses vorweisen können waren mir zu teuer.
Das wurde hier von einigen Leuten gänzlich vergessen. Dann werde ich für meine Entscheidung auch noch beleidigt was einfach zu weit ging.

Auch wenn die ARC schlechter läuft als NVIDIA Karten. Dann ist es eben so. Für meine Zwecke wird es reichen.
Schlechter als meine jetzige wird sie nicht sein.

Ich werde über Prompts keine Videos oder Bilder erstellen. In meinen Augen reine Spielerei.

Voice Cloning und Videos die es nicht auf Deutsch gibt und übersetzen ins deutsche ist viel interessanter.
Ebenso bei Directors Cut wo nur die zusätzlichen Szenen mit Untertitel versehen sind diese Lücke in deutsche Sprache zu füllen um die Untertitel zu entfernen.

Eine komplette Serie von Türkisch ins Deutsche das ist das was mich interessiert. Einige oder viele kennen zB. Destan - The Warriors Princess nicht. 28 Folgen wobei jede Folge über 2 Std. geht. Diese bearbeiten und komplett zu übersetzen via Voice Cloning.

Geiler Scheiß !

Für mich ist dieses Thema daher jetzt auch erledigt.
 
Zuletzt bearbeitet:
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
580
Erhaltene Likes
989
Für Ki ist die Speicheranbinung gar nicht so wichtig, eher generell die Speichergröße und die Speichergeschwindigkeit. Bei ner 3060 hast du auch GDDR6 ( oder schon GDDR6x? ) und 12Gb VRAM.
Bei dem Ki Kram wird nur ein kleines Paket einmal in den Speicher geschoben und das ganze Ding wird vollständig im Speicher bearbeitet und dann wenn es fertig ist ausgegeben. Ob 128-Bit oder 256-Bit ist dabei "scheißegal".

Klar kann die Arc mit ihren 16Gb und der besseren Anbindung in dem ein oder anderen Anwendungsfall natürlich besser sein ( hab da grade keine Benchmarks vor Augen ), aber du hast nach "KI" gefragt, und da führt faktisch kein Weg um Nvidia vorbei. Selbst eine olle 2060 mit ihren 6Gb ( und glaub 128-Bit? ) ist für "KI" besser geeignet als JEDE Intel und AMD Grafikkarte. Zumindest im generativen Bereich.

Ausnahmen sind so "KI"-Tools wie die "Topaz Video"-Ki ( oder wie das Ding heißt xD.. benutze es ständig... ). Aber auch da gibts klare Benchmarks, und selbst da ist jede Mittelklasse Nvidia schon besser als ne High-End AMD für den doppelten Preis mit doppelter Speicheranbindung und doppeltem Ram...
Und AMD versucht ja wenigstens beim KI-Kram bisschen aufzusatteln.
Die Intel-Karten sind so wenig verbreitet, dass ich bisher da nichtmal einen einzigen Benchmark zu gesehen hab oder von Treiberunterstützung gelesen hab wenn es um sowas wie Unraid/ComfyUi ( Docker ) geht....

Aber lass uns bitte wissen wie es performt. Bin dennoch gespannt
 
Kommentieren

Tilly

Namhafter Pirat
Themenstarter
Registriert
5 August 2023
Beiträge
94
Erhaltene Likes
187
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ich weiß das die das auch können. Aber für mich ist zB. 2060 zu alt.
Die 3060 hat noch GDDR6 nicht X.

Achja die Speicherbandbreite ist bei KI nicht wichtig ? Wäre mir neu !
200 GB/s reichen schon klar aber bei größeren Datensätzen reichen nicht immer und schon legt die GPU die Backen an.
Die ARC liegt bei 560 GB/s !
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
580
Erhaltene Likes
989
Hatte jetzt nur aus Interesse mal nach nen paar Benchmarks ( nicht Gaming ) geschaut und sämtliche Arc-Karten performen in Produktiven Anwendungen ( Decoding, Transcoding usw hab ich "auf die Schnelle" mal gefunden ) und da performt jede Arc ( ja auch die A770 mit 16Gb ) ne ganze Ecke schlechter als besagte 3060 12Gb.
Wenn es schon bei sowas nicht gut abschneidet kann ich mir ums verrecken nicht vorstellen, dass die in KI ( was noch in den Kinderschuhen steckt ) dass die Arc's da in irgendeiner Form auch nur an ne Nvidia ankratzen können...

Aber ganz ehrlich :-D
Meine Zeit ist mir zu kostbar um jemand belehren der offensichtlich nicht dazu bereit ist zu lernen.
Speicherbandbreite ist nicht der entscheidende Faktor bei KI.
Mal so by the Way... die 2080 hat mit 448gb/s die gleiche Speicherbandbreite wie eine 2070... oder auch eine 3070... übrigens alle mit 256-Bit angebunden... Die 3070 ist jedoch DEUTLICH schneller als die 2080 oder gar die 2070... ob das wohl an den besseren Tensor und RT-Cores liegt? Oder an dem generell besserem Chip? Oh oder was ist mit der 1080 Ti? Die hat 484gb/s, ist aber noch viel langsamer als ne 2070 obwohl sie doch circa 8% mehr Speicherbandbreite und mit 352-Bit angebunden ist... seltsam... Achja und die 4060-TI? Nur 128-Bit... 288gb/s... performt dennoch schneller als ne 2070... seltsam... xD

Achja hier mal nen Benchmark für StableDiffusion ( generative KI übrigens... )

Bitte, Anmelden oder Registrieren um die Links zu sehen!


Oh und wer hätte das gedacht... ne fucking alte 2060 mit ihren lächerlichen 192-Bit und insgesamt 336gb/s performt besser als die ARC 770 16Gb ;-)

Junge junge... meinen Kindern würd ich für eine solche Faktenverleumdung Hausarrest geben xD
 
Kommentieren

CrazyDogg

Der verrückte Hund aus der Nachbarschaft!
Registriert
10 August 2022
Beiträge
315
Erhaltene Likes
431
lassen wir das thema doch einfach gut sein. entscheidung ist gefallen und es bringt nix jetzt weiter darauf einzugehen. ist nur merkwürdig nach gpus zu fragen, obwohl die entscheidung schon gefallen war. vielleicht einfach nur als bestätigung, die leider dann ausgeblieben ist. aber fakt ist: seine entscheidung und wir müssen bzw sollten das dann acuh so hinnehmen...
 
Kommentieren
Status
Für weitere Antworten geschlossen.
Oben