Notebook für AutoCAD 2020/21 fürn Kumpel gesucht

TotalMayhem

Namhafter Pirat
Gesperrt
Uploader
Registriert
3 Juni 2021
Beiträge
6.844
Erhaltene Likes
13.919
Ja, diese gummierte Oberflaeche beim Latitude war nicht so prickelnd, aber das is auch schon ne Weile her, glaube schon seit Skylake hatten se das nimmer.
 
Kommentieren

trackball

Namhafter Pirat
Themenstarter
Registriert
24 August 2021
Beiträge
240
Erhaltene Likes
465
@1990zooloo
Danke dir, da muss ich mal beim Systemhaus meines Vertrauens nach haken. Oder beim "großen Fluss" danach Ausschau halten.
 
Kommentieren

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
1.778
Erhaltene Likes
4.260
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Beachte einen wichtigen Faktor: CAD Software hat andere Ansprüche als Gaming.
Der Hauptunterschied liegt darin, dass die Quadro-Modelle ECC geschützten Speicher haben. Das hat keine Gaming-Karte. Demzufolge bekommt man für die Quadro-Modelle auch entsprechend zertifizierte Treiber, für die Gaming-Karten nicht.

Es hängt also davon ab: Wenn er da CAD nur zum Spaß macht ist es egal. Wenn er CAD unternehmerisch nutzt, lieber Quadro. Die Wahrscheinlichkeit tendiert zwar gegen Null, aber er müsste letztlich ggf. einem Kunden erklären warum die freitragende 500m Brücke mit 2mm Stahlseilen gehalten werden soll und warum 4 Sack Zement für das ganze Projekt ausreichen sollen. Das ist dann die Gefahr so eines Rechenfehlers. Deswegen nutzt man da auch entsprechende Produkte, weil man nachweisen kann, dass man solche Konstruktionen auf zuverlässiger Hardware erstellt hat und damit auch (im gewissen Rahmen) hinsichtlich Haftung aus dem Schnieder ist.
Am Ende rechnet es eine Gaming-GPU genau so. Man kann dann nur nicht die nötigen Zertifizierungen vorweisen.

Im gewerblichen Umfeld bist Du dann also im Zweifel auf spezielle Hardware angewiesen, weil dir die Ergebnisse sonst Auftraggeber oder Behörden um die Ohren hauen. Aber auch da ist eben der Unterschied ob du eine Talbrücke konstruierst oder die kommende Dildo-Kollektion. Berechnungsfehler bei letzterem dürfte da sicher nicht zu kostspieligen Personenschäden führen - ohne da jetzt tiefer ins Thema gehen zu wollen :ROFLMAO:

Deswegen kann man da nicht pauschal sagen, dass es egal ist. It depends...
In der Mehrzahl der Fälle dürfte es aber wohl egal sein.
 
Kommentieren

TotalMayhem

Namhafter Pirat
Gesperrt
Uploader
Registriert
3 Juni 2021
Beiträge
6.844
Erhaltene Likes
13.919
Das giltet aber nicht nur fuer den Grafikspeicher, Fehlerkorrektur ist auch beim Arbeitsspeicher ueblich in professionellen mobilen Workstations.

Und GDDR6 verfuegt von Haus aus ueber ECC, die Funktion ist sogar bei einigen Consumer-Karten von Nvidia und AMD aktiviert
 
Kommentieren

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
1.778
Erhaltene Likes
4.260
Nein, GDDR6 hat kein ECC. Die Datenübertragung zwischen Chip und Speichercontroller ist (Built-In) CRC geschützt. Ob es zu einem Bitkipper im RAM selbst kommt wird damit nicht abgefangen, geschweige korrigiert.
Das braucht man bei GDDR6, weil die Datenrate so hoch ist, dass es spordisch bei der Datenübertragung zu Dekodierfehlern des Signals kommt. Das trifft im Übrigen auf zahlreiche moderne High-Speed Interfaces zu.
Beispielsweise auch auf DDR5 oder PCIe6. So hält sich der Mythos, dass DDR5 generell ECC hätte. Auch da haben irgendwelche Journalisten das Prinzip nicht ganz verstanden: Auch da gehts um die Übertragung. Es gibt dazu sogar völlige Falschaussagen in der IT-Presse (die es also 180° entgegengesetzt erklären, was technisch völliger Unsinn wäre).

Wie man dazu auch Micron's
Bitte, Anmelden oder Registrieren um die Links zu sehen!
zu GDDR6 entnehmen kann, nutzt man auf dem Übertragungsweg CRC für einen "Check and replay" Mechanismus, der die gewünschten Daten bei Übertragungsfehlern erneut an den Speicher-Controller sendet (bzw. dieser sie erneut anfragt).
Exemplarisch sehr schön auch zu sehen in der verlinkten Note auf Seite 14, wie verwaschen die Signal-Integrität sein kann und wie relevant das Problem gegenüber recht unwahrscheinlichen Bit-Kippern im DRAM selbst ist, zumal die reine Signalintigrität auch noch Störeffekte wie die Buck-Converter der Stromversorgung negativ beeinflussen.

Ist im Übrigen auch der Grund, warum es die Erkenntnis beim VRAM-Overclocking gibt, dass zu hohe Taktraten die Performance verschlechtern. Der Grund ist einfach, dass der Hostcontroller mehr Integritätsfehler feststellt (die er ja wegen der CRC gesicherten Übertragung bemerkt) und das durch Data-Replay korrigieren muss. Das kostet Zeit. Deswegen knickt dann die Performance irgendwann ein, dennoch läuft aber alles Fehlerfrei weiter.
Das kann "echtes" ECC letztlich zwar auch, es braucht aber eben den zusätzlichen Speicher im Chip. Das kostet Geld, weil Die-Fläche oder zusätzlicher Chip und weil DRAM Zellen so anfällig nun auch nicht sind, geht man lieber das dringlichere Problem der Übertragung als solche an.
Bei GDDR6X war es sogar um so dringlicher, weil das Encoding der Daten da nicht mehr NRZ ist, sondern per PAM4 die Daten übertragen werden. Letzteres hat ganz schön mit Problemen beim Signal-Rausch-Abstand (SNR) zu kämpfen. Vorallem in so einem wenig isoliertem Umfeld, wo dicke Buck-Converter EMI Störungen ohne Ende in die Umgebung rotzen.

Es ist also alles in allem erbärmliche journalistische Arbeit, weil ECC mit CRC in einen Topf geworfen wird und kein Verständnis dafür existiert, an welcher Stelle nun genau was davon gemacht wird. Diese Details sind aber die wichtigen. Könnte man in dieser PC-Schrauber-Branche eigentlich auch keinen zum Vorwurf machen, wenn da nicht zahlreiche immer wieder der Meinung wären mit technischen Details um sich zu werfen, die sie aber kaum bis gar nicht verstanden haben und dann eben so eine katastrophale Berichterstattung dabei raus kommt, so wie eben tatsächlich Magazine die tatsächlich davon schreiben, dass GDDR6 ECC beinhaltet - was so eben komplett falsch ist.

Gaming-Karten haben also kein ECC. Und die Quadro-Modelle auch nicht generell. Man kann sie umschalten. Dann nutzen sie einen Teil des Speichers zum ablegen der ECC Daten. Das ist es dann, was man mit den zertifizierten Treibern hin- und herschalten kann.
 
Kommentieren

TotalMayhem

Namhafter Pirat
Gesperrt
Uploader
Registriert
3 Juni 2021
Beiträge
6.844
Erhaltene Likes
13.919
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Von der Quadro-Nomenklatur hat sich Nvidia ja letztes Jahr verabschiedet.

Bei den "billigen" T Modellen kannste GDDR6 "Fehlererkennung" mit der Treiber-Software schalten, was selbstaendlich kein ECC ist (my bad). Die teurere RTX A Serie hat schon "echten" GDDR6 ECC Speicher (kann mir nicht vorstellen, das
Bitte, Anmelden oder Registrieren um die Links zu sehen!
die Kundschaft da schamlos anluegt).
 
Kommentieren

xNecromindx

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
1.778
Erhaltene Likes
4.260
Sie lügen die Kundschaft nicht an. Es gibt halt nur keinen GDDR6 mit "Build-In ECC". Das ist genau so gelöst wie es schon immer gelöst wurde: Es ist zusätzlicher Speicher vorhanden oder man nutzt eine Teilmenge für ECC.
Bei den Quadromodellen zumindest war es noch so, dass von der Bruttokapazität etwas flöten geht, wenn man ECC aktiviert, weil eben die Teilmenge für ECC dann genutzt wird. Dazu braucht man die entsprechenden Treiber, die normalen RTX Gaming-Karten können den aber nicht nutzen. Ich würde sogar drauf wetten, das jede normale Gaming-RTX technisch (im Chip) diesen Modus auch könnte, es dort eben nur nicht aktiviert wird bzw. werden kann.

Wie das bei den A2000 konkret realisiert wird, weiß ich nicht. Die hatte ich noch nicht in der Hand. Da meines Wissens aber der Chip kein weiteres Speicherinterface hat (bzw. als abgespeckte Version eben eins weniger als die A4000, deswegen auch nur 6/12GB VRAM), dürfte es da vermutungsweise ähnlich ablaufen.
Gefunden habe ich PCB
Bitte, Anmelden oder Registrieren um die Links zu sehen!
. Da kann man 8 Speicherchips sehen. Die Karte hat 16GB, also sind das folglich ganz normale 2GB Speicher-Chips. Es hätte einen 9. Chip geben müssen, wenn man da nicht auch das Brutto/Netto-Spielchen betreibt.
Theoretisch ginge es ja mit der A2000, weil die ja ein Interface weniger nutzt (als es in dem Silizium gibt). Da könnte man das freie entsprechend nutzen. Aber das schaltet Nvidia ja wegen der Chipausbeute ab, somit ist es potenziell defekt und eh nicht nutzbar.

Grundsätzlich ist dagegen nichts einzuwenden. So kann der Anwender entscheiden was er will. Und das sie es bei der Gaming-RTX nicht aktivierbar machen, verstehe ich auch. Die Treiber-Zertifizierung kostet die ja auch durchaus ne stange Geld. Letztlich träfe es aber nun auch nicht unbedingt einen Armen...

Könnte man im Grunde auch bei normalen PC DDR-RAMs so machen. Hat es meines Wissens aber noch bei keiner Architektur bisher gegeben. Da war immer Nennkapazität auch immer gleich der Nutzkapazität. Wäre aus meiner Sicht auch anders kaum sinnvoll.
 
Kommentieren
Oben