Technik - Ecke zum Plaudern

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.091
Erhaltene Likes
2.330
Ich hätte pauschal für jedes Mainboard samt Speichern noch 20 Watt ins Rennen geworfen. Aber ja, das ist etwa die Größenordnung, die ich befürchtet hatte.

Was übrigens zeigt, welches Potenzial Rechenzentren haben, wenn die Wärme z.B. ins Fernwärtmenetz "gepumpt" werden könnte. Also etwa 60 Grad Kühlmitteltemperatur an der CPU auf ne tiefe 1xx Grad als "Brauchwasserwärmepumpe" im Netz.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.629
Erhaltene Likes
3.969
Es ist merkwürdig, mit diesem J1900 Atom Prozessor....

Im NAS Thread hatte ich ja mal dieses SBC Platienchen erwähnt, wovon ich zwei habe, wo ein J1900 drauf ist.
Nun habe ich, komischer Zufall, noch mehr von diesen Boards bekommen, bzw. Mini-PCs wo genau diese Boards drin verbaut sind. Letztlich habe ich mir nur eine Hand voll wahllos heraus gegriffene andrehen lassen, da wo die herkommen gibt es quasi Palettenweise weitere. Das Problem bei allen ist: Sie sind defekt.

Sowohl bei der Quelle der Teile, als auch bei mir, gab es ein gewisses Interesse heraus zu finden was da eigl. das Problem ist. Überrascht hat mich dann eine verblüffende Monotonität des Problems. Normal wäre ja eine gewisse Bandbreite an Defekten erwartbar. Hier aber nicht...

Bei allen 8 Stück, die ich mir angesehen habe, ist die CPU defekt. Ausnahmslos.

Der POST findet einfach nicht mehr statt. Bei einigen reicht es die CPU zu erhitzen, dann geht das Teil so erst einmal wieder. Hat aber nichts mit der Verlötung zu tun. Ich habe einen dieser Dinger runtergelötet, neu Reballed und wieder aufgelötet. Das Problem ist exakt das selbe geblieben.
Lötet man eine neue CPU auf das Board (ich hab mal eine davon in China bestellt) laufen die Boards wieder einwandfrei.

Das ganze hat irgendwie frappierende Ähnlichkeit mit dem damaligen Atom C2000 Bug, wo der LPC Bus degenerierte und deswegen die CPUs keinen POST mehr machten, weil die das BIOS nicht mehr lesen konnten oder Komponenten am LPC in den anfänglichen POST-Schritten nicht initialisieren konnten.
Dann hab ich im Intel Ark mal geschaut aus welchen Zeitbereichen beide Chips kommen. Surprise: Beide kommen aus dem selben Jahr +/- ein Quartal.

Ich möchte darauf wetten, dass auch der J1900 (und vermutlich auch noch andere Atoms dieser Ära) allesamt vom C2000-Bug betroffen sind und Intel es einfach nur beim C2000 zugegeben hat, weil es da wegen der etwas höheren Leistung der Chips wahrscheinlich einfach früher auftrat.

Gerade diese J1900 und ein paar Leistungsklassen darunter, fanden und finden sich ja in einer Reihe von Produkten wie Fertig-NAS, Mini-PCs, Netbooks usw...
Wenn die Dinger also mal plötzlich nicht mehr an gehen, wisst ihr bescheid.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.629
Erhaltene Likes
3.969
Ja, hatte ich auch mitbekommen. War ne gute Seite, aber ging über die Zeit leider den Bach runter. Viele Leute weg, und kaum mehr bewegendes.
Dennoch: Eine Ära endet.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.091
Erhaltene Likes
2.330
Achja, hab mich gewundert, wieso mein Backup vom NAS auf eine WD Elements Desktop nicht durchgelaufen ist. Lösung ist ganz einfach - die USB Platte ist ein Totalausfall. Wird angesteuert, "tickert" nur vor sich hin und das wars. Gekauft im Dezember 2019 übrigens, Garantie lange abgelaufen. Was mir auch recht wenig genutzt hätte, da die dortigen Daten eben hinüber sind.

Hat jemand Erfahrungen mit
Bitte, Anmelden oder Registrieren um die Links zu sehen!
? Weil USB 3.0 SATA Docks hab ich "über". CMR, 5 Jahre Garantie (ja, ich weiss...) und für 24/7 Dauerbetrieb wie eben in einem NAS geeignet. Oder ich werfe meinen alten 4 TB Plattenzoo (4 Stück Raid 5) raus und ersetze diesen durch genau eine solche im Präsenz oder Backup-NAS. Dann kann ich die bisherigen 4 TB für Offline-Backups nehmen....

In meiner alten DS216J ist übrigens als Fun Fact eine 500er Seagate drin, die ich irgendwann zwischen 2007 und 2010 gekauft hatte. NAS sagt 94.000 Stunden oder so auf der Uhr.

Eigentlich sollte diese verstorbene 8 TB USB Platte an mein Dell Wyze 5070 NAS als Film- und Massenspeicher kommen. Hat sich nun erledigt....
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.629
Erhaltene Likes
3.969
Die Exos's sind Ettikett. Die Klasse ist was für den professionelleren Bereich, wo es um Garantie und Service-Dienstleistung geht. Erwarten das die nun besonders lange hält, braucht man nicht.
Zumal deren Haltbarkeitserwartung ohnehin auf Dauerlauf kalkuliert ist. Die in ein externes Case zu packen und on-demand mal in Rotation zu versetzen, ist wie der Meinung zu sein, dass die 250.000km veranschlagte Haltbarkeit für ein Auto auch gelten, wenn ich damit jeden Tag nur zum Postkasten, 500m weiter die Straße runter fahre.
Als Backup-Bitches bieten sich alte ausgemusterte Laufwerke an, wenn die sterben, dann kommen sie eben in den Schrott. Mein Backup-Drive ist sogar ein konkret defektes. Da sind in einem Bereich Sektoren hinüber. Die habe ich weggemarkert und nutze das Ding jetzt schon 5 Jahre als Backup-Bitch. Ist ne alte WD Red 4TB.

Ich kann nur dringend davon abraten höherwertige neue Laufwerke als Backup-Bitch zu betreiben. Verschwndung einmal hinsichtlich des Anschaffuungspreises und Verschwendung hinsichtlich der erwartbaren reduzierung der Lebensdauer.
Wie immer ein kann, kein muss. So ein Teil kann auch 20 Jahren mit täglichem an/aus überleben. Aber das ist Glückssache. Für die Lotterie wärs mir zu viel Geld. Dann würde ich lieber einen alten Bestandsdatenträger aus dem NAS rauswerfen und die neue (potenziell größere) dort dann einsetzen.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.091
Erhaltene Likes
2.330
Kommt. Das ist eine dieser Platten, wo man einen Pin elektrisch maskieren musste. Bis dahin bleibt die, wie diese ist. Hab eigentlich genug Plattenkapazität. Die neue 16 TB ist bereits bestellt. Wenn ich da was retten kann, ist das "nett", aber kein "must have". Die wichtigsten Sachen habe ich auf meinem "ZweitNAS" gespiegelt - sollte auch mit dem NAS ohne sein USB-Backup aktuell was passieren.

Zeigt nur, dass irgendwas mit USB eben klappen kann oder auch nicht. Ich will nicht mit $Frau$ die Diskussion haben, wenn ein "Schatz, unsere Hochzeitsbilder, Videos (und was weiss ich noch alles) sind weg" Gespräch anstehen sollte.

Ist übrigens erst die dritte HDD, die in 30 Jahren "verstirbt". Die allererste (damals Ende der 90er extra ne IBM gekauft) hatte meine Dissertation damals, mehr als 3 Monate Arbeit im Arsch als die Platte verstorben ist. Das waren Zeiten, wo man typisch 32 Megabyte Arbeitsspeicher hatte und Plattenkapazitäten noch in dreistelligen Megabyte bis Gigabyte statt "Terabyte" gemessen wurden.
 
Zuletzt bearbeitet:
Kommentieren

doofi

Namhafter Pirat
Registriert
18 Mai 2021
Beiträge
396
Erhaltene Likes
445
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Bei mir tatsächlich in 25 Jahren nur 1x

Dann stand das an
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Tja, selbst umgeworfen im Betrieb, weil irgendwo hängen geblieben. (externe HDD)(laaange her)
Die ersten 7 Jahre gemeinsame Bilder etc weg. Nen Teil war noch woanders auf Platten.
Bis zu dem Zeitpunkt keine Gedanken über Sicherung und so gemacht. Seitdem mehrfach gesichert, intern (hdd), extern (hdd), extern (ssd + nvme).
Man wird paranoid, aber lieber so, als noch mehr weg.

Da die Platte nicht gerettet werden konnte und wenn überhaupt zum "angucken" ein gefühltes Jahresgehalt (man war jung und hatte kein geld) gefordert wurde, lag die Platte Jahre rum.
Mal selbst dran probiert den Kopf zu tauschen (identisches Laufwerk), blieb am Ende nur der Versuch.

Als Erinnerung hab ich die Platten ausgebaut zum Einrahmen. Rest ist Vorstellungssache.....
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.091
Erhaltene Likes
2.330
Was ähnliches war mein peinlichster Datenverlust (Ok, ich hatte damals noch DLT Backups im Regal): Ein 4x500 gb Raid-5 (15-20 Jahre oder so her) aufgebaut, weil "kein Platz über" dieses mit Sata Kabeln und offenem Gehäuse auf dem Fußboden aufgebaut. Alles "lief", dann hab ich mich mit dem Bürostuhl etwas zu optimistisch umgedreht .... zwei SATA Kabel versehentlich mit den Füßen rausgeruppt, Daten weg.
 
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
532
Erhaltene Likes
871
Joa wenn man auf Biegen und Brechen alles aus einer Architektur rausholen will kommt halt nicht immer was gutes raus.

Wie war das nochmal mit den Bulldozern FX 9xxx usw?
Da hat man auch auf Biegen und Brechen versucht alles rauszuquetschen was geht.
Oder kann sich noch jemand an GNX erinnern? ;-)
R9 390(x)... waren jetzt auch nicht für ihre Langlebigkeit bekannt...

War ja lange Intel "Fan". Intel hatte bei mir so nen guten Ruf, dass ich wirklich sehr gerne mal sogar ne Arc einfach zum rumspielen geholt hätte. Aber mittlerweile hat sich das so krass gedreht, dass ich schon drauf warte mein Z-Book mit i7 10750h gegen nen Z-Book mit Ryzen auszutauschen und sehnsüchtig auf den Zeitpunkt warte an dem es Geräte wie das MS Surface Pro ( oder noch lieber HP Elite x2 ) endlich mit Ryzen CPU gibt.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.629
Erhaltene Likes
3.969
Das das mit dem hochgepeitschten Takt und damit verbundenen hohen Spannung wohl In Verbindung steht, hatte ich zurückliegend ja schon mal geäußert (irgendwo hier im Thread ein paar Wochen zurück).
Seither gab es ja fast täglich die wildesten Gerüchte...

Ich bin ja nun schon lange im Geschäft, aber "Taktbaum, mit dem unterschiedliche Frequenzen von der Basisfrequenz abgeleitet werden"!? So einen Quatsch hab ich ja noch nie gehört.
Dann hab ich mal, weil ich annahm, es sei irgend eine kreative Übersetzung aus dem Englischen, nach Originalberichten im englischsprachigem Raum gesucht.
Die nennen das echt clock tree. Ja nun, solche Baumstrukturen gibt es, da geht es aber um die Verzweigung in so Schaltungen, die sich eben wie Äste überall verästeln.
Das hat mit unterschiedlichen Taktraten erst einmal gar nichts zu tun. Das ergibt überhaupt gar keinen Sinn.

Dann findet man im englischen Raum aber zusätzliche Angaben und zwar die Aussage, dass "Intel has observed these conditions can lead to a duty cycle shift of the clocks".

In den Originalquellen spricht niemand von unterschiedlichen Taktfrequenzen. Das hat Heise einfach dazu gedichtet.
Und was Intel, durchaus technisch korrekt umschreibt mit duty cycle shift, könnte man wohl eher mit driftenden propagation delays in den Ästen beschreiben.
Die hat man allein schon physikalisch durch pure Leitungslänge, aber so ein Baum wird ja nicht von einer Quelle zentral getrieben (Leistungstechnisch). Bei diesen Frequenzen hätte man durch die Verästelung mit Unmengen an Signalreflektionen durch diese Stichleitungen zu kämpfen.
Deswegen sind da unzählige Treiberstufen in dem Baum.

Wenn Intel also recht hat, dann ist das nicht "eine" spezifische Stelle im Design, sondern das Problem ist großflächig verteilt - im ganzen Chip. Weil wenn eine Laufzeitdrift einsetzt, passiert die an den Treibern, die verteilt im Baum sind. Auf einer physischen Leitung kann die (praktisch) nicht driften. Und wenn alles von einer Quelle getrieben würde, kann eine Drift also nicht eintreten.

Oder anders gesagt: Sie erklären, dass das Chip Design in Gänze scheiße war bzw. ist und vermutlich durch exzessive Temperaturen der Halbleiter Schaden genommen hat. Denn unabhängig davon wie schnell man die CPU peitscht, der Strom für diese Clock-Domains ändert sich nicht. Der variiert nur mit der Anzahl zugeschalteter Schaltungsteile (natürlich auch Frequenz), weil heute in CPUs ja Clock-Gating Standard ist. Aber das fangen eben die Treiber im Baum ab, die dann nämlich meist Tri-State-Treiber sind, also einen Enable-Eingang haben, um das Takt-Segment zu- oder wegzuschalten.

Oder um es kurz zu machen: Bob, wird brauchen eine Ausrede, die die Heinis da bei Youtube und den Zeitschriften schlucken. Ach, und Bob, mach bitte noch ein Update und dreh Spannung und Temp-Limits noch mal ein wenig runter...
 
Zuletzt bearbeitet:
Kommentieren

MrHonk

mit Baby Bruno
Registriert
6 Mai 2021
Beiträge
844
Erhaltene Likes
1.738
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
In dem Punkt ist die PC Games Hardware tatsächlich besser mit ihrer Übersetzung und den Link hatte ich auch erst verlinkt, aber heise hat eigentlich in der Vergangenheit immer mehr Kompetenz gehabt, weshalb ich den Link kurzerhand ausgetauscht hatte.

Bitte, Anmelden oder Registrieren um die Links zu sehen!

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.091
Erhaltene Likes
2.330
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Was übrigens auch technisch bedeuten würde, dass die 13/14er Intels mit einer sauber aufgesetzten Wakü länger halten sollten bzw. langfristig länger stabil laufen müssten als luftgekühlte Exemplare, gerade mit grenzwertigen Kühlern. Es sind eben im Mittel geringere Temperaturen zu erwarten. Was eigentlich - so lange "alles in Spec" - kein Problem sein sollte, nur in diesem Fall eben nicht.

Ich glaub, der einzige Konzern, der eine Marke mit "suboptimalen Management-Entscheidungen" schneller ruinieren konnte als Intel seine PC Sparte - das muss Twitter gewesen sein. Dabei hatte Intel mit dem Big/Little Konzept eigentlich eine ausreichend gute Basis. Aber nein, die Gaming-Krone musste her und dann noch mal 100 Mhz mehr Peaktakt nebst Stromaufnahmen jenseits von gut und böse. Die orginal mal angedachte 14er Generation fertigungstechnisch nicht hinbekommen, stattdessen zum ersten mal (seit 20 Jahren?) einen Sockel über DREI Intel-Generationen mit einem lauwarmen Refresh benutzt ... da passt so einiges nicht zusammen. Als ob ein Manager dafür nen fetten Bonus bekommen hat, wenn "Intel 14.xxx pünktlich ausgerollt wird". Egal wie.

Hatte sowas vpr über 10 Jahren selbst erleben müssen - eine Anlage in Betrieb genommen, die sollte zu einem Stichtag unter "GMP" gestellt werden. Also nur noch dokumentierte Programmänderungen an der Automatisierung nebst "Fehlerfeststellung + Analyse --> Change Request --> Impact Analyse --> drei Zeilen ändern --> Review --> Aufspielen und Prüfen...". Was man wissen sollte: Die Anlage hing auch ohne den Paperkram bereits im Commissioning drei Monate hinterher. Manager bekam übrigens seinen fetten Bonus, die Inbetriebnehmer sind aber in Papierkram abgesoffen und kamen kaum noch aus "Meetings" für eben den Papierkram zur eigentlichen Arbeit. Als Lösung wurde übrigens nicht "GMP" aufgehoben, sondern über 30 Fremdfirmeningenieure für den Papierkram eingestellt. Um 100€ Stundensatz für mehr als ein halbes Jahr. Rechne....
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.629
Erhaltene Likes
3.969
Du hast ja einen Temperaturgradienten zwischen "Transistor im Die" und der letztlich wärmeabführenden Oberfläche im Kühler.
Jetzt hat man da bei Halbleitern durchaus mit RthJC (Wärmewiderstand Junction-Case) Werten im Bereich von 0.3 - 0.6 °C/W zu kämpfen. Und da kommen ja noch RthCK (bestimmt die Wärmeleitpaste) und RthKA (bestimmt der Kühler selbst) hinzu...

Deswegen haben die in den Chips ja auch heute unzählige Temperatursensoren, weil die irgendwo im Bereich 90-100°C im Chip selbst kappen müssen. Und da peaked es halt schnell mal hin. Insbesondere wenn man die Spannung und den Strom drastisch pushed.
Die Messung braucht aber Zeit, das Runterregeln ebenso. Da ist ganz schnell mal im Halbleiter selbst ein Overshoot auf 120°C oder mehr... So ab etwa 150°C ist für Silizium tödlich, aus Halbleitersicht. Da ist also erschreckend wenig Headroom.
 
Kommentieren

RobMitchum

Namhafter Pirat
Registriert
3 September 2021
Beiträge
2.091
Erhaltene Likes
2.330
Der Kühler selbst ist bei einer sauber aufgesetzten Wasserkühlung (z.B. Kupfer) nicht das Drama, schau dir die Wärmeleitfähigkeiten von Cu oder Al an. In den kleinen Strukturen kannst du zudem bei bekannter Oberfläche sowie Kanalgeometrie über die Nusselt-Zahl des Systems auch den kühlerseitigen Wärmeübergang rechnen. Was reinhaut sind neben den Schichtdicken in den Chips (siehe das X3D cache als zusätzliches Paket obendrauf) vor allem die Übergänge zwischen Chip und Kühler. Und wie Igor in den letzten Monaten gezeigt hat, es wird vermutlich nicht mal in Berlin so viel gelogen wie beim Verkauf von Wärmeleitpaste. Wenn dann noch krumme Oberflächen dazukommen ... "Mahlzeit".

Kumpel vom Fraunhofer hatte vor 30 Jahren an den ersten Mikrostrukturen zur CPU-Kühlung geforscht, waren lustige Rechnungen. Damals hatten die CPUs noch satt dreistellige Mikrometerzahlen in der Fertigung, mein P133 damals müsste "500 nm" gehabt haben.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.629
Erhaltene Likes
3.969
Ich weiß, bei dem Pasten-Thema habe ich ihn getriggert. Insbesondere bzgl. des Desasters Jaden Technologies. Den Rest zu bestellen war nicht wiklich seine Idee :cool: Das Pasten-Thema zieht sich ja schon gut nen Jahr, wo er sich ja nun die Testeinrichtung für zugelegt hat um es quantifizierbar zu machen.
Aber is gut, dankt mir später.... :p

Ich wollte ja ums Ergebnis wetten. Er wollte aber einfach nicht dagegen wetten :ROFLMAO:
 
Kommentieren
Oben