Basics Cooling Practice Reviews Thermal grease and pads

Why half as thick is not automatically twice as good: Limits of layer thickness reduction in thermal pastes and a change in the thermal paste charts

Anyone who has been keeping a close eye on my thermal compound database since today will certainly not have overlooked a small addition. In my comparative characterization of thermal interface materials (TIM), a uniform lower limit of the bond line thickness (BLT) of 25 µm was deliberately chosen (purely graphically). This decision is based on physical considerations regarding the thermal resistance components as well as practical experience from real assembly scenarios of GPU and CPU systems. Today I will explain in detail and transparently why I did it this way and why I still do it this way in the evaluations of the chart sequence. Unfortunately, the topic is too complex to break it down to a rather low level, but I have tried to summarize the most important statements once again as a quote and not to bore anyone with too much theory.

Preliminary remark

In today’s article, I would like to present my personal view on this topic, which I have consciously reflected on and reorganized in light of a recently published video. This is expressly my own subjective assessment, which I will nevertheless endeavor to substantiate objectively and – as far as possible – back up with technical background, practical experience and feedback from discussions with manufacturers, developers and users.

I am not interested in clarifying who is “right” or not on individual points. Rather, experience has shown that the relevant influencing factors and framework conditions are so diverse and complex that there is rarely a simple answer or blanket solution. In my view, the decisive factor is rather the question of which effort and which methodology can be used to achieve reliable, practical results for a given objective – be it in material development, ageing tests, series release or application-related comparisons. It is precisely this consideration that deserves differentiated consideration.

But what is this all about today? In the thermal characterization of thermally conductive materials (TIM), it is generally assumed that a reduction in the layer thickness – in particular a halving of the so-called Bond Line Thickness (BLT) – always leads to a proportional halving of the thermal resistance. However, this assumption is not correct in the area of very thin layers, especially below around 25 µm, and is in fact fundamentally wrong. The reason lies in the increasingly dominant role of the interface resistance, i.e. the thermal contact resistance at the interfaces between TIM and the adjacent solid bodies (e.g. heat sink and chip surface). This is also one of the reasons why I reject the so-called “bucket” measurements used by certain manufacturers to achieve utopian W/mK values.

The total thermal resistance of a real TIM layer is made up of two main components: the volume resistance (bulk) of the material itself and the interface resistance at the interfaces. The bulk resistance is actually proportional to the layer thickness and the thermal conductivity of the material. The interface resistance, on the other hand, is independent of the layer thickness to a first approximation and is determined by the physical properties of the surfaces (roughness, wetting, mechanical contact) and the material properties of the TIM.

If the layer thickness is greatly reduced, the interface resistance remains constant, while the volume resistance decreases. With very thin layers – typically below 25 µm – the interface resistance can quickly take up the largest proportion of the overall system. In this range, a further reduction in the layer thickness only results in a comparatively small reduction in the overall thermal resistance, as the dominant interface component is not reduced. Consequently, halving the BLT in this area does not halve the thermal resistance.

In addition, the concept of thermal conductivity becomes problematic in such cases. The classical definition of thermal conductivity assumes that the thermal resistance is dominated by the volume of the material and that there is a linear relationship between thickness and resistance. However, as soon as the interface resistance becomes significant, the effective thermal conductivity is no longer a pure material parameter, but results from a mixed effect between volume and contact resistance. The specification of a single thermal conductivity figure then suggests a linear scalability of the system, which in reality does not exist. In extremely thin TIM layers, the thermal conductivity therefore no longer reliably describes the actual thermal behavior of the system.

To be fair, the thermal analysis must be more differentiated for very thin TIM layers: The interface resistance must be considered separately, and simple linear models based on thermal conductivity no longer work reliably.

Furthermore, the limit of 25 µm chosen by me reflects a realistic practical reference: In real applications, especially when assembling GPU or CPU coolers, mechanical conditions such as substrate bending, twisting of the cooler bases and microscopic roughness and unevenness often result in layer thicknesses of more than 20-30 µm. Even with very flat heat sinks and precisely mounted processors, minimum local BLT values below 20 µm can hardly be achieved in a stable manner, as slight mechanical deformations during screwing and thermal expansions have a dynamic influence on the system. The actual layer thicknesses are therefore usually between around 20 and 60 µm, depending on the paste type, application quantity, contact pressure and surface properties.

 

What has changed in the diagrams?

Another important practical component also concerns the material properties of the pastes themselves. Certain highly viscous or particle-rich pastes only achieve a certain minimum layer thickness on their own, below which they can no longer be applied homogeneously due to flow limits, particle sizes or dispersion properties. In this context, the experimentally determined minimum possible BLT for each tested paste was also included in the diagrams in your evaluations. These values document how thin a paste can be applied in the best case without air inclusions, inhomogeneities or mechanical defects occurring. For completeness, the experimentally determined minimum possible BLT values of each tested paste were also included in the diagrams. These document the technical feasibility of extremely thin applications under laboratory conditions. In practical applications, however, these minimum values are of secondary importance, as real influences such as uneven surfaces and assembly forces generally increase the achievable layer thicknesses.

Although these minimum BLT values are now also included in the diagrams, I will show in a moment that they play a subordinate role in practical applications. As optimum conditions hardly ever prevail in real systems and because unavoidable mechanical effects usually result in higher effective BLTs, extreme thin-film values have little influence on the actual thermal performance during operation. The introduced lower limit of 25 µm therefore allows a much more representative and practical comparison of different pastes under realistic operating conditions.

What is the purpose of this?

  • A clear comparison of pastes under typical practical conditions,

  • To avoid misleading overemphasis on the effects of extremely thin layers,

  • And a realistic assessment of the thermal performance of the pastes under real assembly and operating conditions.

What does the interface resistance influence in detail?

The contact or interface resistance of thermally conductive materials (TIM) is fundamentally not completely independent of the thickness of the TIM layer, although its behavior must be considered in a differentiated manner. First of all, a clear distinction must be made between the pure volume resistance of the TIM layer and the interface resistance at the interfaces (e.g. between TIM and heat sink and TIM and the component to be cooled). The interface resistance is mainly characterized by microscopic unevenness, surface roughness, impurities and the intrinsic wettability of the material. These factors determine how well the TIM layer adheres to the adjacent surfaces and thus the number and quality of the actual contact points.

Ideally, the interface resistance itself is largely independent of the layer thickness, as it relates to the quality of the interface and not to the material transport through the volume of the TIM. However, there are practical correlations that must not be neglected when considering this. There are three important points:

  • With very thin layers, the interface resistance can become very noticeable and even dominate, as the volume resistance components of the TIM layer are low. In this case, insufficient wetting can also lead to increased interface resistance due to the insufficient amount of material.

  • With thicker layers, the influence of volume resistance becomes increasingly important. Although the interface resistances basically remain constant, their percentage share of the total system resistance decreases with increasing layer thickness.

  • Mechanical properties of the TIM influence the interface resistance depending on the layer thickness. For example, thicker viscous paste layers often lead to a better adaptation to surface roughness, which can reduce the effective interface resistance. Conversely, a thicker layer can result in poorer contact with hard materials.

From a formal point of view, the interface resistance is primarily independent of the thickness of the TIM layer, as it is a phenomenon of the interface contact quality. In practical applications, however, changing contact conditions (caused by layers that are too thin or too thick) can have an indirect influence, so that the effective interface resistance can change with the layer thickness. However, this does not occur due to a fundamental physical relationship between layer thickness and interface resistance, but due to changed physical contact conditions.

Test setup and methods Material analysis and microscopy Basic knowledge
Here you can find out why effective thermal conductivity and bulk thermal conductivity can be completely different in practice, what role the contact resistance between the surfaces and the paste plays and how thermal compound can be measured precisely. There is also a detailed description of the equipment, the methodology and the error tolerances. You will learn how laser-induced plasma spectroscopy works and the advantages and limitations of the measurements. There is also high-resolution digital microscopy and analysis of particle sizes. This information is also used to estimate the long-term stability of a paste. Anyone who has always wanted to know what is or is not in a paste and how these pastes are produced will find what they are looking for here. The basic article provides a better understanding of what is often sold for far too much money and sometimes with adventurous promises.

 

 

 

Kommentar

Lade neue Kommentare

F
Falcon

Veteran

165 Kommentare 179 Likes

Vielen Dank für die ausführliche Erläuterung.

Ich finde beide Testansätze, deinen und Romans, gleichwertig gut.

Deiner ist wissenschaftlicher, seiner mMn ein bisschen praxisrelevanter und einfacher interpretierbar.

Da Roman bisher keine/kaum Messdaten seiner Testaufbauten veröffentlicht hat bleibst du Igor meine erste Anlaufstelle für derartige Tests.

Vielleicht könnt ihr ja bei ein, zwei Produkten mal Zusammen Arbeiten, eure Testergebnisse gegenüberstellen und Auswerten.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,151 Likes

Ich habe ja auf der letzten Seite was zur Zielsetzung geschrieben. Da gibt es durchaus Synergien. Ich bin auch gerade dabei, etwas beim TIMA6 mit einfließen zu lassen und werde meinen 5er demnächst umbauen (optimieren).

Aber ich sehe solch dünne Schichten eher skeptisch. Mal abgesehen davon, dass bisher kein Beweis erbracht wurde, dass diese minimalen Schichten in der Praxis wirklich massenrelevant und vielfach vertreten sind, verweise ich hier auf Seite Zwei und die beiden Regressionskurven. Oberhalb von 25 µm ist die Linearität absolut gegeben (99,99x Prozent sind hier die absolute Messtechnik-Champions-League), aber wenn dann unterhalb diese Messwerte so von der Kurve abweichen, sehen wir definitiv Änderungen in der Pastenstruktur, die der Haltbarkeit sicher nicht sonderlich förderlich sind, wohl aber für Benchmarks taugen. Eine Paste ist eine sehr heterogene Mischung, die in ihrer Struktur extrem leidet, wenn man sich der Partikelgröße zu sehr annähert. Pasten wie die TC-5888 enthalten z.B. einige wenige größere Partikel (<=15 µm), die nicht etwa eingebracht wurden, um eine höhere Wärmeleitfähigkeit zu erzeugen (dazu sind es viel zu wenige), sondern es sind m.E. bewusst eingesetzte "Stopper", die verhindern, dass die gesamte Paste zu weit zusammengepresst wird. Dass die TC-5888 bei 20 µm endet, hat einen ganz einfachen und beabsichtigten Grund: Haltbarkeit. Man kann auch einen "Mangel" als Feature verkaufen und die Grenzen zwischen Ingenieurskunst und Marketing verwischen sich dann etwas... ;)

Zur Qualität meiner Messungen:
Die in den Regressionskurven auf der zweiten Seiue dargestellten Werte – insbesondere der sehr hohe R2-Koeffizient und die geringen statistischen Abweichungen der Parameter – lassen sich im Sinne der Six-Sigma-Methodik als Hinweis auf eine sehr präzise, reproduzierbare und prozessstabile Messung deuten. Ein R2-Wert nahe 1 bedeutet, dass nahezu alle gemessenen Werte sehr eng entlang der Regressionslinie liegen und nur minimale Streuung vorliegt. Die gemessenen Zusammenhänge zwischen Schichtdicke und Wärmewiderstand sind damit nicht zufällig, sondern systematisch und nachvollziehbar. Auch die angegebenen Unsicherheiten bei der Wärmeleitfähigkeit und dem Interface-Widerstand zeigen, wie zuverlässig sich diese Werte statistisch erfassen lassen. Je kleiner diese Schwankungen im Verhältnis zum eigentlichen Messwert sind, desto belastbarer ist das Ergebnis. Im Kontext von Six Sigma spricht man in solchen Fällen von einem sehr fähigen Messsystem, das eine hohe Aussagekraft besitzt und eine sehr geringe Fehlerwahrscheinlichkeit aufweist.

Solche Auswertungen ermöglichen es nicht nur, TIM-Produkte unter kontrollierten Bedingungen vergleichbar zu charakterisieren, sondern auch die Aussagekraft der Ergebnisse realistisch einzuschätzen. Wenn die Streuung gering und der Zusammenhang klar ist, steigt das Vertrauen in die Ergebnisse – was gerade bei Entwicklungsentscheidungen oder Materialbewertungen von großem Vorteil ist.

Und genau da frage ich mich, wie hoch der R2-Wert beim anderen Messaufbau ist, wenn man ihn nicht mal zeigt bzw. erwähnt. Solange das nicht belegt wurde, stehen durchaus dicke Fragezeichen im Raum, ohne jetzt irgendetwas bewerten zu wollen. Das steht mir gar nicht zu. Ich bin transparent und habe alles offengelegt, was man an Daten haben kann. Was ich allerdings am Video nicht verstehe, warum er mich überhaupt mit ins Spiel gebracht hat um seine Methode zu erklären, das ergibt aufgrund der Unterschiede beim Ansatz überhaupt keine technische Notwendigkeit. Allerdings finde ich die vorgetragene Mutmaßung, ich würde praxisfern testen, schon etwas sportlich. :D

Antwort 7 Likes

Klicke zum Ausklappem
RedF

Urgestein

6,187 Kommentare 4,176 Likes

Um zu sagen, Romans Test wäre praxisrelevanter, müsste er anfangen, den Markt durchzutesten und die Ergebnisse veröffentlichen.
Wenn dann unter 25µ aber nur noch Hausnummern (ja nicht bei jeder Paste, aber wir wollen doch vergleichen) gemessen werden, hat sich die Praxisrelevanz schon wieder erledigt.

Aber es ist sicher eine gute Idee, mit seinem Equipment (CPU/GPU Dummy) eine Paste zu entwickeln. (y)

@Igor Wallossek
Kleiner Tippfehler, hier in Süd Hessen absolut zulässig😁

View image at the forums

Antwort 2 Likes

Igor Wallossek

1

13,159 Kommentare 26,151 Likes
F
Falcon

Veteran

165 Kommentare 179 Likes

@Igor Wallossek

Das war nicht als Kritik an deiner Methodik gemeint, eher als Idee die beiden Testaufbauten mal Zusammen zu Bringen.
Roman berichtet ja in seinem Video auch davon das zwischen seiner Duronaut und FLM gerade mal 2°C Unterschied sind.

Ich hab kein solches Equipment, aber über die Jahre auch viel mit Materialien, Schichtstärken und Oberflächengüten rumgetestet und teilweise sehr gute Erfahrungen gemacht.

z.B. Entfernen der Nickelschichten von Kühlern und Heatspreadern, planen, läppen und polieren beider Oberflächen

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,151 Likes

Absolut, das steht ja im Fazit auf der letzten Seite. Man kann vieles abkürzen, weil es völlig ausreicht, um einen eindeutigen Trend zu erkennen. Das spart immens Zeit. Und die ist bares Geld. Allerdings ist es so, dass die Entwickler solcher Siloxane und Pasten mittlerweile, wie beim Automobilbau auch, auf Simulationsprogramme setzen, die noch schneller und exakter sind. Das, was Dow und Wacker in China in ihrem Werk entwickeln, kostet trotzdem Jahre an Entwicklungszeit. Das nur mal am Rande, um die Komplexität der letzten leistungstechnischen Meile zu verstehen. Mainstream ist fix zusammengemischt, die Verfahren sind hinreichlich bekannt. Aber echte Innovationen werden immer schwieriger.

Das ist bei 12 µm schon recht viel (mindestens die Hälfte entfällt da auf den Interface-Widerstand), wobei es genau das beweist, was ich seit Jahren predige: Das Risko bei LM lohnt einfach nicht. Cool wäre es gewesen, wenn er mal eine CTG10 oder KOLD-01 mitgetestet hätte, denn das hätte echt Größe bewiesen. :)

Ich habe es ja nun in den Charts mit drin, weil ich es von Anfang an auch mit gemessen habe:

Temperatur-Delta:

View image at the forums

Absolute Temperatur:

View image at the forums

Antwort 1 Like

Klicke zum Ausklappem
Martin Gut

Urgestein

9,262 Kommentare 4,663 Likes

Als Roman im Video erklärt, dass der Wärmewiderstand mit geringerer Dicke konstant sinkt, haben sich mir die Nackenhaare gesträubt. Erst gut erklärt mit Wärmeleitfähigkeit und Übergangswiderstand und dann den Überganswiderstand doch gleich wieder vergessen und nicht berücksichtigt.

Bei gewölbten CPUs/GPUs dürfte die Stelle mit dem dünnsten Auftrag nicht das entscheidende sein, sondern die Stelle mit dickerem Auftrag. Eine Paste muss als nicht nur dünn aufzutragen sein, sondern auch die Fähigkeit haben etwas dickere Schichten zu überbrücken.

Auf dem Teststand unterschiedliche Oberflächenmaterialien, CPUs und Kühlerflächen zu testen macht den Test sehr aufwändig und doch schlecht vergleichbar. Da finde ich es sinnvoller, Wärmewiderstand und Übergangswiderstand zu messen. Damit hat man zwei physikalische Konstanten (wenigstens recht konstant) mit denen man abschätzen kann, wie sich die Paste in einer gewissen Dicke verhalten wird.

Die 30 x 30 mm Heizfläche ist auch nicht so praxisnah, wie es aussieht. In einer CPU ist der Bereich mit der höchsten Heizlast nur etwa 15 x 5 mm gross. Bei Intel ist das der Bereich mit den Cores im Chip und bei AMD zwei Chiplets. Die Heizlast auf die ganze Fläche gleichmässig verteilt zu messen führt darum zu viel besseren Deltas, als sie im Bereich des Hotspots auftreten. Genau da liegt aber der entscheidende Punkt, denn da wird die CPU zu heiss und nicht auf der ganzen Fläche.

Antwort 5 Likes

Klicke zum Ausklappem
p
pintie

Veteran

235 Kommentare 148 Likes

Kurz nachdem Roman ein Video macht...

View image at the forums

Im Ernst - ist doch gut das es da mal zwei Seiten und Herangehensweisen zu solchen Themen gibt.

Das für den User relevante liegt vermutlich irgendwo in der Mitte.

Als Anwender kann man da eigentlich nur gewinnen.

Antwort Gefällt mir

B
Besterino

Urgestein

7,630 Kommentare 4,144 Likes

Ich steige an der Stelle aus. Ich kann weder ermitteln, wie groß konkret bei mir der Abstand zwischen Heatspreader und Kühler (CPU) bzw. Chip und Kühler (GPU) ist, noch kommt es mir auf das letzte Grad an. Ach ja, und komplett plan sind die Oberflächen ja auch nicht, aber welche Wölbung bei mir nur nun herrscht und wie sich diese auf die Abstände wo auswirkt…? Keine Ahnung. Hängt ja anscheinend auch davon ab, welche Schraube ich bei der Montage wann wie angezogen hab. Dazu kommt noch, dass bei dem - für mich eigentlich relevantesten - Faktor Langzeitstabilität verständlicherweise auch nur geraten werden kann, so dass es am Ende doch auf Trial & Error bzw. Prinzip Hoffnung hinausläuft. Das dann noch verbunden mit der Beschaffungskomplexität (und ist dann auch noch wirklich drin, was drauf steht?) einiger Pasten… da bleibt ein etwaiger theoretischer Mehrwert eines Erkenntnisgewinns, welches Produkt denn im jeweiligen Testaufbau vielleicht „besser“ abgeschnitten hat, für mich in der Praxis langsam echt auf der Strecke.

Auch wenn ich mich eigentlich für technisch/geistig recht fit und geländegängig halte, bin ich vielleicht aber auch einfach zu blöd, die Thematik bzw. Relevanz für mich noch zu verstehen. Es entsteht bei mir trotz aller wissenschaftlichen Ansatzpunkte aber auch ein wenig der Eindruck, dass es hier doch auch um einen Disput über „wer hat Recht“ bzw. Rechtfertigung von Aussagen bzw. Methodik geht, als dass es für den Kunden/Anwender besondere Relevanz hätte. Macht aber nichts, manchmal ist meine ignorance ja bliss und ich kann erst einmal einfach machen. Später ärgern, falls das gewählte Produkt nicht wie gewünscht funktioniert, kann ich mich dann zur Not ja immer noch…

Frohen Tanz in den Mai! :)

Antwort 8 Likes

Klicke zum Ausklappem
Igor Wallossek

1

13,159 Kommentare 26,151 Likes

Genau das. Bisher halten sich ja alle immer sehr bedeckt. Ich sehe das auch nicht als Konkurrenz, sondern als willkommene Sensibilisierung der Anwender für solche Themen. Da können auch wir gewinnen, nicht nur die Kunden.

Ich finde es wirklich gut, dass auch mal andere was zum Thema beitragen, allerdings darf man dann inhaltlich keine solchen Stockfehler machen. Dann hätte ich mir den 3-Seiter nämlich sparen können. Nur konnte ich das so nicht stehen lassen, denn es ist einfach falsch.

Wenn man einen Buckel hat, wo auf die Paste überdurchnittlich hohe Drücke einwirken, dann passiert es ganz fix, dass das Siloxan verdrängt wird, weil sich die Paste an dieser Stelle entmischt. Übrig bleiben dann nur noch ein paar Partikel, die wie Abstandshalter wirken. Das hatten wir ja auf diversen Grafikkarten sehr eindrucksvoll bewundern dürfen:

View image at the forums

Antwort 3 Likes

B
Besterino

Urgestein

7,630 Kommentare 4,144 Likes

Gegen sowas müssten doch „Abstandshalter Partikel“ helfen, die eine Komprimierung auf eine Matrix-zerstörende „Dünne“ (was ist das Gegenteil von Dicke? ;)) verhindert?

Aber gehört auf eine GPU nicht ohnehin ein Pad und keine Paste…?

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,151 Likes

Mich hat nur das mit dem "dass der Wärmewiderstand mit geringerer Dicke konstant sinkt" getriggert, weil es falsch und (bewusst?) irreführend ist. Mich hätte aber schon der R²-Wert von Gruppenmessungen / Mehrfachmessungen interessiert, weil ich den 12 µm in Konstanz auch nicht so recht traue. Und man hätte mich aus dem Video auch rauslassen können. Ich mag sowas nicht ohne Absprache. Es wäre zumindest clever gewesen, mich zu dem Thema vorher auch zu befragen und dann zu zitieren. Dann vermeidet man auch falsche Eindrücke und es würde den Horizont der Konsumenten bestimmt erweitern. :)

Dann muss man sie aber auch mit reinmischen. Im Übrigen nehmen die ganzen Krypto-Fuzzies lieber die TC-5888 wegen der 20 µm anstatt des teureren Pads. Die guten Server-Pasten sind auch alle über 20 µm wegen der Durability. Für den Heimanwender mit Consumer-Karten ist das Pad aber mindestens genauso gut.

Antwort 2 Likes

B
Besterino

Urgestein

7,630 Kommentare 4,144 Likes

Verstehe ich! Aber hätte da nicht grob der Satz gereicht: „… ja, aber nur bis der Faktor Interface-Widerstand im Verhältnis zum Gesamt-/Restwiderstand zu groß wird, also in der Regel ab einer Schichtdicke von X“. Das dann ggf. noch garniert mit einer knackigen Einordnung zur Praxisrelevanz (wie z.B. „Schichtdicke X eh in der Praxis nicht erreichbar, schon gar nicht flächendeckend über die gesamte Chip-/Heatspreaderoberfläche“) und es hätte (für mich ;)) keinen 3-Seiter gebraucht… ;)

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,151 Likes

Der kackigste Punkt liegt auf Seite Zwei in den beiden Protokollen. Die Regressionskurve zeigt sehr hübsch, wie sich die Pasten ab einer gewissen BLT quasi bereits verändern, was den ganzen Reduktionswahn in Bezug auf die Durability stark relativiert.

Da es aber eine Menge von Spitzklickern gibt, die allzu einfach gehaltenene und aufs Minimum heruntergebrochene Sätze gleich wieder als "Beef" missinterpretieren, gibt es halt eine stichhaltige Beweisführung. Die mag jetzt Manchem zu komplex erscheinen, aber ich habe diesen Weg mit Absicht gewählt, um gewisse Reaktionen zu vermeiden und das übliche Forenzuträger-Publikum etwas abzuschrecken. Im Übrigen hat Roman den kompletten Draft bereits gestern früh von mir erhalten. Das werden auch andere Firmen gern bestätigen: ich kommuniziere immer vorher. :)

Antwort 1 Like

B
Besterino

Urgestein

7,630 Kommentare 4,144 Likes

Buuuh! Jetzt fühle ich mich als abgeschrecktes übliches Forenzuträger-Publikum! ;) Muss ich mit klarkommen. :D

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,151 Likes

Naja, um 13.00 Uhr hier und um 12:59 Uhr bereits auf Videocardz und diversen Foren, natürlich schön aus dem Kontext herausgepellt. System Gehirnfabrik. Nene, nicht meins :D

Antwort 1 Like

B
Besterino

Urgestein

7,630 Kommentare 4,144 Likes

Zur Klarstellung: nicht von mir! ;)

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

3,081 Kommentare 2,041 Likes

Gibt's denn eine Liste (Tabelle) mit den typisch und realistisch zu erwartenden Schichtdicken bei derzeit gängigen CPUs und GPUs? Und Werte, die man mit den höchsten realitätsnahen Anpressdrücken erreicht. Gerade bei GPUs oder geköpften CPUs riskiert man ja sonst, daß das Die Schaden nimmt.
Falls es eine solche Tabelle von Schichtdicken gibt (auch nur für eine Paste, besser als keine Anhaltspunkte), wären Durchschnittswert und Minimal- und Maximalwerte sehr hilfreich.

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,151 Likes

Da die Oberfläche nicht starr ist, sondern sich beim Spannen und späteren Fixieren des Kühlers sowie dem Erhitzen permanent verändert, müsste man einen Schnitt durch den komplett aufgewärmten Aufbau machen können, was so überhaupt nicht geht. Das Einzige, was mir als Prüfmethode noch einfällt, wäre eine aushärtende Silikonschicht, von der man dann beide Seiten auf Oberfläche und Rauheit testen könnte. Allerdings ist die Reststärke auch wieder ein Problem, das sich aber lösen ließe.

NVIDIA gibt für die 4090 z.B. eine maximal einwirkende Kraft von <=360 N an. Das lässt sich ja von der Chipfläche einfach herunterrechnen. Genau deshalb messe ich ja mit 9N (pro cm²) um dann den gleichen Druck zu erzeugen (in dem ja auch nich die Fläche steckt), wie ein Grafikkartenkühler. Das ist durchaus praxisrelevant.

Warum ich nur mit 1 cm² Fläche teste? Erstens reichen mir dann auch schon geringere Proben, Zweitens hat es bei der nachgewiesenen Genauigkeit (Regressions-Koeffizent, also der R² Wert) keinen Einfluss auf das Endergebnis und drittens gehen alle Auspump-Effekte viel schneller. Da ich auch nach oben hin drücken lasse (Bläh-Test), sind diese Flächen auch leichter beherrschbar.

Antwort 2 Likes

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung