Technik - Ecke zum Plaudern

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.119
Erhaltene Likes
2.401
Temperaturen aus Vergleichstest sind immer schwer zu beurteilen für den eigenen Gebrauch. Wenn er da ein kleines Gehäuse mit wenig Lüftern und ner fetten CPU gleich über der Grafikkarte sein Eigen nennt, dann wird die Karte gewiss nicht auf 40°C ideln, wenn in der Kiste so schon 45°C sind.
Nichts desto trotz kann nach so langer Zeit sicher nicht mal eine Erneuerung der Paste zwischen Kühler und GPU schaden. Manchmal wird halt schon übelstes Zeug dazwischen gedrückt. Hatte ich hier auch eine. Da war das Zeug so trocken, da bekommste eher ne Staublunge von als gute Kühlung.
 
Kommentieren

bojac991

Namhafter Pirat
Registriert
6 Mai 2021
Beiträge
280
Erhaltene Likes
474
Jo im Idle bei nur einem Monitor taumelt er bei 45°C.

CPU (Xeon E3 1231v3) liegt immer so bei 35-42 °C, habe aber auch noch eine flache Lüfterkurve und mittlerweile ist die Zimmertemperatur momentan bei 27°C was sicherlich auch noch einen Faktor hat.

Gehäuselüfter und CPU Lüfter 10-20 Prozent höher aufdrehen sollten dann jetzt schon sein und deutlich helfen.

WLP bei einer Graka erneuern habe ich bislang nie versucht, aber scheint wohl keine große Kunst zu sein, jedenfalls notiere ich es mir für die Zukunft.
 
Kommentieren

Rosigatton

Namhafter Pirat
Registriert
7 Mai 2021
Beiträge
198
Erhaltene Likes
487
6 Jahre sind auf jeden Fall schon ein gutes Alter für deine 390.

Habe selbst noch nie frische Pasta auf eine GPU geschmiert..... aber mal dabei geholfen, einen fetten Arctic auf eine Asus GTX690 zu schrauben 😎

Soweit ich weiß, läuft die Karte immer noch 🤘

Meine heißgeliebte Asus 7950 hat so ziemlich auf den Tag genau nach 5 Jahren den Dienst quittiert 😭
 
Kommentieren

TotalMayhem

Namhafter Pirat
Gesperrt
Uploader
Registriert
3 Juni 2021
Beiträge
6.845
Erhaltene Likes
13.894
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Wenn ich mir das Video anschaue, scheint das keine sonderlich schweisstreibende Angelegenheit zu sein.

Nu is die R9 390 gemessen an heutigen Standards nix Aufregendes, aber wenn die Karte floeten geht, werden bei der aktuellen Situation am Markt mal eben 400 Ocken faellich fuer vergleichbaren Ersatz (ne popelige GTX 1650 Super gab's mal fuer 160 Euro LOL), da kann bissken Pflege gewiss nicht schaden, zumal die Temps wirklich nicht optimal sind.
 
Zuletzt bearbeitet:
Kommentieren

YuChan_

Namhafter Pirat
Registriert
24 Mai 2021
Beiträge
44
Erhaltene Likes
48
Ich werd aus meiner GPU irgendwie nicht ganz so schlau momentan, da sie meines Erachtens nach zu sehr übertreibt, was die Kühlung bzw. RPM angeht.
In beiden Szenarien ist die Lüfterkurve identisch und linear - also gleiche "Treppchen", das Game auf dieselben Grafiksettings und auf max 100fps gesetzt.
Lasse ich die Karte nun (nicht übertaktet) alleine arbeiten, wird die Karte langsam aber sicher hörbar laut und die temp steigt wie die RPM. - und läuft auf 100fps

Gebe ich der Karte aber nun max 50% Power, wird die temp nicht so hoch und demetnsprechend die Lüfter auch nicht laut. Bleibt aber ebenfalls auf konstanten 100fps.

Verstehe ich einfach nicht, wie Grafikkarten das handhaben? Warum wird mehr rausgefeuert, wenn sie doch mit weniger Leistung auf die von ihr geforderte Leistung kommt?
Oder denke ich einfach nur falsch 😅
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.119
Erhaltene Likes
2.401
Das hat was mit den Taktstufen zu tun. Bei Nvidia gibt es da z.B. nicht ganz 100 von. Da ist im BIOS eine Tabelle hinterlegt auf welcher Taktstufe welcher Takt zu geben ist und welche Spannung anzulegen ist.
Wird die GPU gefordert neigt sie dazu auf die höchsten Taktstufen zu springen und ggf. nur abhängig von der TDP Limitierung den Takt zu senken um das gesetzte Limit einzuhalten.
Senkst Du die TDP künstlich, zwingt Du die GPU in niedrigere Taktstufen mit niedrigeren Spannungen. Ergo bleibt sie kühler.

Gibt das Limit es aber her, geht sie hoch an das Limit bei Last. Der Grund ist, das die Karte ja nicht weiß wie sich der Lastverlauf entwickelt. Da das Umschalten der Clock-States aber relativ viel Zeit kostet, regelt sie eben tendenziell höher (maximal) aus, als unbedingt nötig ist, einfach weil Recheneinheiten ja auch einfach nicht mit Arbeit beschickt werden müssen - das spart ja auch Energie. Die restlichen Recheneinheiten laufen aber mit Maximaltakt, was, wegen einer heftigen Nichtlinearität zwischen Takt und Stromaufname (und daraus in Folge Wärmeentwicklung), zu einer erhöheren Temperaturentwicklung führt, als wenn man alle Rechenkerne maximal mit geringerem Takt auslastet.

Das ist im Groben die Erklärung für das Phänomen.
Das wirst Du auch bei GPU-Z sehen, das mit runtergeschraubter TDP gleichzeitig der Maximaltakt sowie Spannung sinkt. Du betreibst die GPU dann quasi in einem Sweet-Spot, weil sie exakt nur so schnell taktet, um die nötige Aufgabe durchrechnen zu können.
 
Kommentieren

YuChan_

Namhafter Pirat
Registriert
24 Mai 2021
Beiträge
44
Erhaltene Likes
48
Ahh okay. Danke für die hilfreiche Erklärung.
Hab mich immer gewundert, warum die so "ausrastet" obwohl sie das gar nicht bräuchte.
Daher habe ich dann etwas rumprobiert, bis ich ein angenehmes "Klima" hatte. Setze ich bei besagtem Game die Power auf 45% und die Zieltemperatur auf 65°c, bleibt die Karte auf ~62-63°c mit 1200 RPM bei 97-100fps - das ist recht angenehm.
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.119
Erhaltene Likes
2.401
Und noch ein Teil aus dem Kapitel: Toll gebaut...

Ich erwähnte ja, dass ich ne Hand voll Karten rumliegen habe, auf denen der VRAM defekt ist.
Dann nehmen wir mal eine und versuchen sie zu reparieren. Dann guckt man sich das so an und muss sich ja die Frage stellen: Welcher RAM Chip ist denn nun defekt?
Zielsicher hab ich mit dem Finger auf diesen gezeigt:

img_2655wtakxm.jpg











Warum ich mir so sicher war? ........











Nun... legen wir mal den "Kühler" auf die Platine:
img_2656w8vk8l.jpg


Gelle?
Ja, genau... MSI hat diese Karte exakt so gebaut und verkauft. Da hab ich nicht irgend etwas weggenommen. Da ist keine Kühlung auf diesem RAM Chip. Übrigens auch kein Luftzug vom GPU Kühler der dann da drüber kommt.
Also habe ich mal eine der Karten, die diese leidigen Elpida-Chips hatte (und ich vermute da ist die GPU Schrott), dort die RAM Chips runter genommen (da waren nämlich die selben drauf), die dann Reballed und auf diese Karte gepackt. Siehe da: Nun läuft sie wieder.
Funfact: Das habe ich dann noch bei 3 weiteren Karten gemacht und auch hier: Läuft wieder. Es war immer genau der Chip da unten.


Und noch einer zum Thema "durchdachtes Kühlsystem":
img_2699wywkmr.jpg



Das ist eine ASUS Karte. Da sieht man die Chip-Auflagefläche an der GPU. Da laufen die Heat-Pipes zusammen und sind da verlötet.
Zwischen diesen Heatpipes ist eine Rille, so tief das man da mit dem Fingernagel problemlos min. einen Millimeter rein kann.
Oben habe ich schon, als "korrektur" ältere zähe Wärmeleitpaste "reinverfugt" zum Test.

Da sind also min. 2 Rillen die auf dem GPU Die liegen, und dort natürlich überhaupt nicht richtig kühlen (Heatspots). Da fehlt ja der Wärmekontakt.

Witziger Funfact: Genau diese Karte wurde vor Jahren bei PCGH für ihre "hervorragende Kühllösung" gelobt. :unsure:
Ne, is kla...
 
Kommentieren

TotalMayhem

Namhafter Pirat
Gesperrt
Uploader
Registriert
3 Juni 2021
Beiträge
6.845
Erhaltene Likes
13.894
Was gibt's sonst noch Neues?

Jetzt wo Intel's Alder Lake vor der Tuer steht, hat AMD endlich auch ein big/LITTLE Patent angemeldet (wird aber wohl erst mit Zen5 kommen). Kein Wunder, nach den juensgten ARM big/LITTLE Erfolgen geht der x86 Fraktion der Arsch gehoerig auf Grundeis.

Qualcomm is bereit 40 Milliarden in ARM zu investieren, Auch kein Wunder, Qualcomm ist schliesslich Microsoft's ARM-Partner und MS poebelt bei den Regulierern kraeftig gegen den geplanten Nvidia Deal.

Windows 10 ist endueltig dem Tode geweiht, Microsoft hat EoL nun offiziell fuer Oktober 2025 bestaetigt. Sollte ja eigentlich des "letze Windows aller Zeiten" sein, aber als Nadella das grosspurig verkuendete, konnte ja noch kein Schwein ahnen, das ARM die Zukunft gehoert, macht also Sinn, hier einen Schlusstrich zu ziehen. ;)
 
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.119
Erhaltene Likes
2.401
Gehst Du immernoch mit diesem Blödsinn hausieren? Werd erwachsen...
Inhaltlich und sachlich so viele fehlerhafte Schlussfolgerungen in so wenig Text zu verpacken, ist schon etwas Besonderes.
 
Kommentieren

TotalMayhem

Namhafter Pirat
Gesperrt
Uploader
Registriert
3 Juni 2021
Beiträge
6.845
Erhaltene Likes
13.894
Wer die Tatsache, dass das zweitwertvollste Unternehmen unter der Sonn, sich zunehmend von x86 abwendet und dreistellige Milliardenbetraege in ARM investiert, als "Bloedsinn" abtut, der hat den Knall nicht gehoert. Du glaubst immer noch, Microsoft macht das nur aus Spass an der Freude"? :D
 
Kommentieren

TotalMayhem

Namhafter Pirat
Gesperrt
Uploader
Registriert
3 Juni 2021
Beiträge
6.845
Erhaltene Likes
13.894
Ei joh ... is schon erstaunlich was Apple da "angezettelt" hat. Das wird auch fuer Game Designer interessant.

Apple's ARM Chip schlaegt in den meisten Games alles was x86 an APUs zu bieten hat, emuliert durch die Rosette in 1080p. In Games die nativ auf Apple's Plattform portiert werden, peilen die laengst 2k/4k Gaming an. Und der M2 verspricht noch bessere Grafikleistung.

Da guggt der geneigte x86 Zocker nur noch in die Roehre, ausser man hat grad 2-3000 Euro ueber fuer ne Top-End GPU.

Im Sommer bietet MS im Shop einen Mini PC mit dem neuesten Qualcomm Chip an, zunaechst als Dev Kit (offiziell: damit die armen Schlucker nicht auf ein eklich teures Surface X sparen muessen), aber is wird immer deutlicher in welche Richtung der Microsoft-Zug faehrt.
 
Zuletzt bearbeitet:
Kommentieren

xNecromindx

Namhafter Pirat
Themenstarter
Registriert
6 Mai 2021
Beiträge
1.119
Erhaltene Likes
2.401
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

:rolleyes: oh man... das kommt eben dabei raus, wenn man nur Halbwissen sein Eigen nennt.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Was Dir und auch der "Fach"-Presse dabei immer wieder entgeht ist, dass es kein big/little ist. Es ist ein full/reduced.
Weißt Du wer 2016 exakt davon in genau diesem Thread schrieb, und zwar mit der Aussage, dass da min. schon seit 5 Jahren dran entwickelt wird? Du darfst ein mal raten...
Das die ersten Ideen dazu schon viel älter sind, und z.B. bei ARM Prozessoren zu der einfacheren Abwandlung des big/little führten, ist ein logische Schlussfolgerung der Halbleiterentwicklung.
Ist ja "schön" wenn AMD da nun auch Patente anmeldet. Die ersten Patente zu diesem Thema laufen aber mittlerweile schon aus...

Dein Schlussfolgerung ist also, wie ich sagte: Völliger Blödsinn.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Achja? Für was ist Qualcomm denn noch weltweit bekannt. Fällt deinem umfänglichen Branchenwissen denn da was ein?
Nein?

... Basebands. Für alle die auf Inseln wohnen: Es geht um Funktechnik.

Qualcomm ist branchenweit einer der Leader im Bereich Basebands für Mobilfunk und WLAN-Technik. Auf höhe der Zeit war sonst nur noch Infineon, die ihr Basebandgeschäft mal von Siemens übernahmen und es an Intel verkauften. Intel wiederum vertickte es an Apple. Qualcomm hingegen kann mit Basebands allein nicht überleben, sie brauchen ihr SoC-Geschäft dazu dringen. Da Apple nicht an andere verkauft und ansonsten marktrelevant nur noch Huawei übrig bleibt in diesem Geschäft, geht derweil so jedem der irgendwie mit Mobilgeräten zu tun der Kackstift, das sich der Zukauf ARM durch Nvidia zu einem Intel #2 entwickeln könnte.
Das ist die Furcht. Man hat Angst, dass Nvidia über diese neuen Besitzverhältnise den Hahn abdreht aber sie allemal im Bereich der Neuentwicklungen ausschließt. Denn Qualcomm konkuriert auch noch mit seiner Mobil-GPU, wo es für Nvidia um so interessanter wäre ihnen den Hahn abzudrehen.

Es geht überhaupt nicht um ARM. Es geht um die Möglichkeiten die sich entwicklen können, wenn der ein oder andere im Besitzt dieser IP gelangt und damit auch über die unternehmerische Entscheidungsgewalt.

Deine Schlussfolgerung ist also auch hier völliger Blödsinn.

Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Was Du auch hier nicht begriffen hast ist, dass diese Strategie eine Abkehr von Versionsnummern darstellen sollte, Windows zu einem "OS as a Service" machen sollte und das ewige Geier mit "ich bleib lieber bei Win XP", "ich bleib lieber bei Win7", usw. einen Schlussstrich erfahren sollte. Nicht zuletzt auch getrieben von der Industrie, die es gern gesehen haben nicht mehr Altlasten supporten zu müssen. Schließlich wollte man hin zu einem Markt, wo es nicht mehr heißt, "ich nutze Windows 10" sondern schlicht einem "ich nutze Windows".
Was diese Strategie erwartbar verhagelte, und auch das sagte ich schon damals als dieser Spruch von MS in Umlauf kam, dass das ein wirtschaftliches Problem darstellt. Nunmehr hat Microsoft ein paar Jahre vergeblich versucht genau dieses zu lösen. Es ist nämlich einfach: Wie verdiene ich an diesem Konzept Geld? Wenn ich ein "Windows" habe, was jemand auch noch in 20 Jahren auf seinem PC aktiv und aktuell gepflegt nutzt, wofür bekomme ich dann mein Geld?
Das Problem habe ich eben schon damals gesehen und habe deswegen dazu auch damals schon gesagt, dass diese Strategie extrem wahrscheinlich mittelfristig fallen gelassen wird. Abermals abhängig von der App-Store Entwicklung, wie schon bei den Windows Phones (und dem bekannten Ausgang - den ich übrigens auch genau so vorausgesagt hatte).
Zumal für Deine "Schlussfolgerung" eine neue Version absolut unnötig ist. Ein Update genügt.

Also auch diese Schlussfolgerung von Dir, ist schlicht und einfach Blödsinn.

Jaja... ich weiß schon. Du weißt das natürlich alles besser. Aber weißt Du: Da hätte ich vielleicht 5 Minuten über diese Möglichkeit mal nachgedacht, wenn Du nicht mit so etwas ankommt, lange lange nachdem ich für genau diese Punkte bereits eine andere Analyse lieferte. Insofern: Träum halt, wie immer, einfach weiter. Da ist Zeit zu schade für.
 
Zuletzt bearbeitet:
Kommentieren
Oben