Basics GPUs Graphics Reviews

Recalculated: Smart load balancing against ageing or monitoring with a hard cut – Which is the better solution for the 12VHPWR and 12V-2X6 Connectors? (Update)

The discussion about the 12V 2×6 plug and its thermally and electrically sensitive nature has now given rise to a new type of device that moves between pure measurement and active control. The aim of both approaches is to monitor or actively control the current distribution on the individual wires in order to avoid unbalanced loads and contact overloads and to prevent the contacts from ageing. There are also two fundamentally different approaches to placement: an internal solution directly on the graphics card and an external solution that sits between the power supply unit and the card.

This means that, from a purely technical point of view, there are two strategies that technically pursue the same goal but come from completely different directions. And the difference between external and internal solutions? On the card, every additional circuit means a loss of space, EMC risk and heat source, while an external solution requires more cabling but offers control speed, power reserves and flexibility. This separation between passive monitoring and active balancing forms the basis for realistically classifying the respective advantages and disadvantages and also explains why some manufacturers prefer to observe while others already intervene. And in the end, you can certainly live well with both solutions. At least better than without one at all.

The 12V 2×6 plug is and remains an unpleasant compromise solution that was designed for maximum power density with minimum space requirements – a goal that inevitably comes up against physical limits. With currents of over 50 amps and six parallel 12-volt lines, even the smallest differences in contact resistance or spring force have a massive effect on current distribution. As soon as individual pins have just a few milliohms more resistance, the load on the remaining contacts increases exponentially. This uneven distribution can only be corrected electronically if an additional active control stage intervenes between the plug and card, but this is almost impossible to implement on the circuit board for the reasons already mentioned.

Foreword: Today it’s about technology, not patents

Before we get into the nitty-gritty, I would like to make one thing clear: Today will be exclusively about the technical aspects, not about patents or legal interpretations and quibbles. I cannot and do not want to answer such questions at this point, because they can hardly be resolved here and would only distract from the actual issue. The following article is a factual presentation of what I have already explained in the forum – without legal overtones, without personal evaluations and without any attempt to dispute anyone’s position. I am also not directly or actively involved in the product in any way with any of the companies involved, even if of course one or two technical comments have been made that could be reflected in certain details.

To really understand the topic of active balancing, it is not enough to take a superficial look and certainly not to repeat marketing-driven buzzwords. This is about physics, thermals, material ageing and current distribution, i.e. the fundamentals that make the difference between stable function and early failure. I find it quite amusing that in some forums there are initially loud criticisms that NVIDIA has not implemented balancing on its graphics cards, and only a few posts later the same principle is described as harmful or superfluous. The inconsistency speaks for itself – and it shows that there is a lack of sound understanding.

Therefore, this article is intended to take up the basics and transparently show where the ideal control range of an active balancing circuit actually lies, why this range is very narrow in practice, but decisive, and how such a control has a preventive effect against contact ageing and damage. I will also demonstrate mathematically at which currents an intervention becomes useful and which physical mechanisms in the connector play a role.

In essence, it’s about how a good load distribution can be implemented on the individual 12-volt lines, whether internally on the graphics card or externally, as with the already tested AMPINEL from aqua computer. The discussion about balancing does not just concern a piece of additional hardware, but the fundamental question of how modern high-current connections can be operated safely in ever more compact layouts. Anyone who understands these relationships quickly realizes that it is not a question of for or against, but of the technical necessity of getting unbalanced loads, contact resistances and ageing processes under control before they become critical.

What is possible on a graphics card: monitoring the currents

ASUS has, for example, implemented a remarkable current monitoring system on some higher-priced GeForce RTX 5090 (Astral/Matrix), which goes far beyond what is common on most graphics cards. According to the manufacturer, the card has a system with six low-impedance shunt resistors, which are located directly behind the 12V 2×6 connector and detect the individual 12-volt lines there. Each pin of the connector can therefore be monitored separately with regard to the current.

Source: Techpowerup

ASUS calls the whole thing “Power Detector” and advertises it with the information that a warning is issued per pin as soon as the current exceeds the permissible 9.2 amps. From a technical point of view, this is a considerable effort, which is clearly noticeable in the layout of the card. A precise shunt resistor is required for each wire, the measuring voltage of which is fed via separate Kelvin lines to analog current measuring amplifiers or directly to an A/D converter. These front ends must be located in the immediate vicinity of the current paths in order to avoid errors caused by track resistors, and they require a clean signal ground and a shielded connection to the evaluation electronics. The space required for such additional components alone is a challenge for modern GPUs with highly integrated VRM areas, as the areas around the connector are already overcrowded with inductors, capacitors and protective circuits. The front-end amplifiers must also be thermally stabilized and decoupled. Incorrect ground routing or interference from the VRM areas could falsify the measurement result, which is why the placement and routing must be carried out with exceptional care. ASUS has apparently solved this in such a way that the measurements are reliable enough not only to log, but also to trigger a specific protective reaction if they are exceeded.

Source: Asus

The main benefit lies in direct diagnostics. The card recognizes in real time when one line is more heavily loaded than others and can immediately issue a warning or limit the power internally. This allows overheated contacts or uneven load distributions to be detected at an early stage before they cause thermal damage. Unlike external measuring systems, this control is fully integrated into the card logic. There are no communication delays, no additional plug connections and no external peripherals that would first have to process the signal. The manufacturer can integrate the measured values directly into the GPU firmware, define limit values and inform the user of deviating values in their own software interface.

The pure material costs for current monitoring on the graphics card are manageable. Six low-ohm shunt resistors in the milliohm range cost around EUR 1.5 per card, depending on tolerance and load capacity. The evaluation can be carried out either via dedicated current measurement ICs or via standard operational amplifiers, which costs an additional 2 to 3 euros. A 32-bit microcontroller unit with A/D converter and communication interface costs around EUR 1 to 2.50, but should already be available. The real effort is required for the firmware and integration. A simple implementation can be realized in a few weeks, but a fully developed series solution with calibration, telemetry and error detection requires several months of development time, which drives the costs much higher than the few components. Overall, the implementation of internal current monitoring for graphics cards would therefore be technically feasible and financially justifiable, but the limited space at the 12-volt input and the high layout density are the real hurdles, not the unit costs of the electronics or the implementation in the firmware.

However, ASUS has limited itself to pure monitoring without load shifting for good technical reasons. This means that the solution remains more elegantly integrated, but cannot compensate for asymmetrical currents. In an emergency, it only warns instead of taking countermeasures. Nevertheless, the concept has clear advantages: It is latency-free, requires no additional signal paths and offers the user complete transparency about the status of the power supply. However, the integration of such measuring circuits is not a trivial step. Shunt resistors generate heat loss, and even a few millikelvin difference can affect the measurement accuracy.

What is NOT feasible on a graphics card: Balancing the currents

Active load balancing directly on the circuit board of a modern graphics card is hardly practicable from a technical, thermal and manufacturing point of view. Even a brief look at the topology of current cards makes it clear that the power supply of a GPU today is not a monolithic system, but consists of many separate sub-supplies, all of which have different voltages, frequencies and phase positions. It would therefore be short-sighted to blame NVIDIA or the AIC alone for the lack of an integrated balancer or an internal protection circuit. Such systems simply cannot be practically implemented on a modern graphics card without rethinking the entire electrical architecture. The real core of the problem is therefore not on the board, but in front of it: in the connector itself.

NVIDIA could implement more sensors, telemetry or software warnings, but none of these would solve the mechanical and thermal problems of the connector. The board partners are also in a dilemma here: even with the highest manufacturing quality, micro-differences between pins, manufacturing tolerances of the socket and contact surface oxidation cannot be completely eliminated. Internal balancing would only postpone the problem, not solve it. It therefore remains to be said that the real weakness lies in the standard itself, i.e. in a connector that operates on the edge of what is physically sensible. It was adopted as a standard even though the current-carrying capacity of individual contacts and the thermal transitions are already critical in the optimum case. Any deterioration, for example due to uneven insertion, minimal dirt or material fatigue, can generate unbalanced loads that no circuit design on the card can prevent.

It would therefore be too cheap to blame NVIDIA or the board manufacturers for the lack of “symptom control”. They are merely reacting to the limitations of a specification that should never have been adopted in this form. The real source of the problem lies in the connector itself – a design that just about works under ideal conditions, but in practice punishes even the smallest deviations with disproportionate consequences.

Balancer between the 12V 2×6 header and the voltage converters

The first theoretical option would be to place the balancer directly behind the 12V connector – i.e. between the incoming lines of the 12V 2×6 connector and the high-current rails that lead into the actual voltage converters. Although this solution would have the charm of being directly at the source of the unbalanced load, it brings with it several fundamental problems. Firstly, this area is in close proximity to the actual regulation. Each downstream phase of a multiphase VRM system draws its currents dynamically according to the internal clock of the PWM controller, which operates at several hundred kilohertz. If an upstream electronic load sharing system intervenes in this current flow, additional voltage drops, phase shifts and leakage inductances occur, which severely disrupt the voltage converter control loops. This would introduce a “regulation before regulation” that has no knowledge of the control characteristics of the subsequent stages. At best, this can lead to oscillations; at worst, it destabilizes the entire power supply. Alternatively, further filtering and smoothing can be integrated. What makes sense externally and after further filters, resistors and at a certain distance is already highly sensitive in the immediate vicinity of the subsequent stages.

Added to this is electromagnetic compatibility. The currents coming out of the 12V connector are superimposed at high frequency, as the converters themselves operate in a highly pulsed manner. An additional MOSFET-based balancing stage with variable resistors would act as a broadband source of interference. Any change in the line resistance, even in the milliohm range, generates a non-linear voltage drop, which in turn feeds back into the control loops of the VRMs. The layout would have to provide additional ground planes, filters and decoupling to attenuate such interference – something that is physically almost impossible to implement in an area that is already fully occupied by high-current rails, sense lines and decoupling capacitors.

In addition, the power loss and heat dissipation speak against integration. Active balancing generally works with MOSFETs, which briefly dissipate power in the linear range in order to shift currents. With a load of 500 to 700 watts, an additional loss voltage of 50 millivolts on a line means a heat output of several watts, which would have to be dissipated over an area of a few square centimeters. This thermal load in the vicinity of the connector, i.e. in what is already the hottest zone of the card, would exceed the entire temperature budget.

Distribution of the lines to selected voltage regulators

A second theoretical option would be not to combine the six 12V lines in parallel, but to assign them specifically to individual voltage transformer groups in order to force a natural current distribution. In practice, however, this is impossible for several reasons. The power supply of a high-end GPU such as the RTX 5090 is divided into many independent voltage domains. In addition to the large main supplies such as NVVDD, MSVDD or FBVDD, there are smaller, dedicated rails through to various logic and I/O voltages. There are also secondary step-down converters that generate auxiliary voltages such as 5V, 1.8V or 0.95V from the 12V rail. Each of these domains has its own control loops, some even have their own PWM controllers and phase numbers. The currents are therefore not distributed evenly, but follow the dynamic load profile of the GPU, the memory, the signal paths and the peripherals.

A balancer that would couple each of the six 12V lines to a defined converter string would have to synchronously detect and regulate this multitude of different loads. This is not only complex in terms of control technology, but also clashes with the layout principle of modern graphics cards, in which all 12V paths converge in a low-impedance busbar in order to achieve symmetrical voltage ratios and minimal feedback. Splitting this busbar would divert the currents in unpredictable ways, disrupt the signal integrity of the sense lines and inevitably cause EMC problems. Each of these segments would also have to be individually fused and decoupled against crosstalk.

The production costs would also be considerable. The PCB layout would have to include additional copper layers for current isolation and filter routing, and the space required for MOSFETs, shunts, controllers and their thermal decoupling would increase the costs many times over. The validation of such designs would be extremely time-consuming, as every change to the current path would require complete recertification in accordance with EMC and safety standards. This would not be economically viable for mass production, where costs and installation space are crucial.

Consequently, the integration of an active load balancing system on the circuit board of a modern graphics card is technically conceivable, but practically incompatible with the existing architecture. Between the high packing density, the large number of separate supply rails, the sensitive control structures and the thermal and EMC-related restrictions, there is no scope for an additional, upstream control layer. An external solution, as implemented in the Ampinel, avoids precisely these problems by distributing the loads outside the board and only minimally changing the electrical structure of the current paths.

Interim conclusion

The only feasible internal variant on the graphics card is therefore a form of passive monitoring in which the currents of each line are measured individually, logged and reported if necessary. It provides diagnostic data, but does not interfere with the current flow. This method is space-saving, electrically transparent and can act as a supplement to the card’s protection logic, but is dependent on the responsiveness of the firmware. Active load distribution does not take place here, so the uniformity of the currents remains dependent on the physical state of the connector.

 

Kommentar

Lade neue Kommentare

Smartengine

Veteran

197 Kommentare 218 Likes

Ich an deren Stelle würde bei V2 (oder sind wir schon V3?) bei dem Stecker, das ganze einfach etwas größer gestalten. Mehr Kontaktfläche bei den einzelnen Pins und größerer Druchmesser bei den Kabeln.
Wollen sie sicher nicht weil sie sagen: Schaut schei**e aus, aber sie können die Physik nicht neu erfinden.
Es wird generell schwierig wenn es mit den Leistungsgrenzen so weiter geht.
Wer weiss. Evtl. brauch eine 6090 dann schon 800W dann MUSS man umdenken.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Das größte Problem: Man muss ja abwärtskompatibel bleiben, wenn man nicht einen komplett neuen Stecker etablieren will. Dieses Chaos wird dann unlösbar, denn wer will schon Netzteile mit drei verschiedenen Steckersystemen? Oder man verzichtet auf native Kabel an der Netzteilseite. Da dreht man sich im Kreis.

Antwort 2 Likes

Smartengine

Veteran

197 Kommentare 218 Likes

Ich würde lieber einen neuen ATX Standart sehen, auch wenn der letzte nicht so lange her ist, bei dem ich mir sicher sein kann.
So hat man entweder zusätzlich kosten in Form eines Überwachungssystems oder ein erhebliches Risiko die Hardware zu beschädigen. Und meiner Meinung nach sollte ein Standart genau das verhindern.

Antwort 1 Like

MGFirewater

Veteran

269 Kommentare 106 Likes

Was ist denn der Vorteil von 12v2x6 nativ auf Netzteilseite? Mir ist der klassische und massivere Corsair typ4 Stecker eh lieber, den mein rm850x (2021/atx3.0) nutzt.

Antwort Gefällt mir

z
zass

Veteran

167 Kommentare 70 Likes

P = U * I ist linear. Da ist noch nicht mal ein Quadrat drin.

Antwort Gefällt mir

_
_bf

Mitglied

29 Kommentare 3 Likes

Lösung auf der GraKa od. externe Lösung?!

Für mich stellte sich schon nach deinem ersten Artikel die Frage -> Wo kommt denn der Strom her? Hätte man da nicht schon beim Ausgang der Netzteile ansetzen können/sollen?

Sonst wird ja auch jeder Sch... marketingtechnisch ausgereizt, aber offensichtlich ist dann die Marge kleiner oder der Preis zum Mitbewerb zu hoch. Das Knowhow für solche Themen sollte doch (eigentlich) beim "Hersteller" vorhanden sein aber es ist sicher besser man verkauft noch Kabeln aus Feenstaub (die Kampange werd ich nie aus dem Kopf bekommen) für ein "paar" € extra dazu.

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die Formel stimmt zwar, aber der Kontext fehlt. P = U × I ist linear, ja – aber der Zusammenhang zwischen Kontaktwiderstand, Strom und Temperatur ist es nicht.

Sobald ein Kontakt auch nur leicht höheren Widerstand hat, steigt seine Verlustleistung quadratisch mit dem Strom (P = I² × R). Diese zusätzliche Wärme erhöht den Kontaktwiderstand weiter, was wiederum den Strom auf andere Pins verdrängt. Dort steigt dann die Belastung ebenfalls an und genau das erzeugt eine nichtlineare Rückkopplung.

Das „exponentielle“ Verhalten bezieht sich also nicht auf die Formel selbst, sondern auf den Effekt im System: Kleine Widerstandsänderungen führen zu überproportionaler Erwärmung und damit zu immer stärkerer Stromverlagerung. Physikalisch korrekt, nur eben jenseits der Schulbuch-Linearität. Lies bitte im Artikel auch noch mal die Stelle zum "Lawinen-Strom".

Und genau dieser Fakt hat mich veranlasst, diesen Artikel zu schreiben und nein, es wurde leider wieder nicht verstanden :(

Antwort 4 Likes

c
cunhell

Urgestein

800 Kommentare 857 Likes

So lange immer noch die Mär vom unfähigen User in den Foren und den Hardwareseiten wohlfeil geboten wird, ändert sich an dem Desaster rein gar nichts. Die Hersteller sparen sich Geld und wenn Probleme auftauchen ist der User schuld. Win-Win.
Noch besser ist dann die Tatsache, dass die Hersteller der Zusatzlösungen, die das eigentliche Problem versuchen auf verschiedene Weise zu lösen, sich gegenseitig anzicken, was denn jetzt der richtige Ansatz wäre, dass ursprüngliche Problem zu lösen.

Die Hardwarehersteller kommen vermutlich mit dem Schenkelklopfen und Lachen gar nicht mehr hinterher.

Cunhell

Antwort 3 Likes

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Das Problem ist die beschissene Zertifizierung, wo man schon die Kabellängen so kurz wie gerade eben nötig hält. Nicht wegen der Kosten, sondern wegen der Effizienz-Badges. Jeder Shunt drückt die Effizienz und solange die Käufer wie die Lemminge jedem Titanium-Hasi hinterherrennen, solange wirds diesen Unfug geben. ATX 3.1 schreibt den nativen Anschluss übrigens vor. Auch Intel sei Dank. :(

Ich hatte ja bei einem der Hersteller angeregt, zwei 12V-2X6 zu verbauen, einen echten nativen für die Messungen und Zertifizierungen, sowie einen "controlled" Connector mit Balancer bzw. Überwachung. Fliegt leider aus der Norm und ist so nicht standardkonform. Die haben doch echt alle einen an der Klatsche.

Antwort 6 Likes

c
cunhell

Urgestein

800 Kommentare 857 Likes

@Igor Wallossek
Wichtig ist doch nur, dass die Benchmarks (kurzzeitig) stimmen und die Karte schön BlingBling macht.
Vernünftiges Hardwaredesign wird doch maßlos überbewertet. Braucht niemand.

Function follows form war immer schon Mist und bleibt es auch.

Cunhell

Antwort 1 Like

_
_bf

Mitglied

29 Kommentare 3 Likes

Ich weis ich bin Naiv, aber sollte der Standard inkl. Reserven dann nicht von jemanden "ausserhalb" kommen (auch aus sicherheitstechnischen Gesichtspunkten).
Es wird ja sonst alles 20mal "überprüft".

Eine mögliche Brandgefahr hat aber schon manchen Hersteller zum umdenken gebracht. Schließlich gibt's ja noch Gesetze. ;)

Antwort 1 Like

Lieblingsbesuch

Urgestein

577 Kommentare 105 Likes

Danke Igor für die Nachbetrachtung, nur mir kommt es so vor als hättest du das was du schon berichtet hast noch mal zusammen gefasst zusätzlich zudem was aquacomputer geschrieben hat aber fehlen da nicht noch die Anmerkungen/Kritik von Roman zum Thema balancing und möglichen Auswirkungen?

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Ich bin immer noch für 2x EPS an einer Grafikkarte. Die Netzteil-Hersteller/Marken wird es freuen. Dann kann man schön Zusatzkabel verkaufen.

Oder man sagt einfach PCIex 6+2 kann ab sofort statt 150 Watt eben 300 Watt. Den Steckern traue ich das definitiv zu.

Antwort 2 Likes

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich habe es Eingangs im Artikel geschrieben, dass ich mich nicht auf solche Diskussionen einlasse, sondern emotionslos ausschießlich MEINE Sicht der Dinge schildere. Ich möchte auch nicht auf Texte Dritter in Drittforen eingehen, die das Teil noch nie in der Hand hatten, denn das wäre genauso sinnlos, wie so etwas selbst zu verfassen. Man kann nur kritisieren, was man auch belegen kann. Man kann es gern testen und sollte es erst danach kritisieren, ich lerne auch gern noch dazu. Aber rein auf dem Hörensagen basierend, wäre ein solches Urteil für mich eine Nummer zu groß, so gut bin ich leider nicht. Ich habe auch gelernt, dass Dinge, die ich nicht hinbekomme, von anderen durchaus lösbar sind. Die lasse ich dann und freue mich für die, die es schöner hinbekommen haben. Was in anderen Foren aufkommt, interessiert mich nicht, es sei denn, man schreibt oder spricht mich direkt an.

Mein Artikel und auch meine Äußerungen im Forum hier (die ich da in Auszügen aus dem Draft des bereits seit drei Tagen fertigen Artikels entnommen hatte) sind übrigens deutlich älter als das, was Aquacomputer dann hier und was weiß ich wo noch gepostet hat. Das ist schon wieder so ein Punkt, wo man mir Dinge unterstellt, die sich sehr leicht widerlegen lassen. Aber Hauptsache, man wirft mal wieder ein Steinchen. Generell lasse ich mir nie Inhalte diktieren, aber vielleicht sollte man auch mal überlegen, warum verschiedene Leute am Ende dann doch zum gleichen Schluss kommen.

Zum Balancing habe ich jede Menge recherchiert und geschrieben, der Part mit den Grafikkarten und der Problemetik auf der Platine ist komplett neu, davon hatte ich noch nichts zitiert. Genauso wie die RMA-Geschichte und der Part, ob Balancing wirklich gefährlich ist. Da steht sogar indirekt die Antwort auf Romans Zweifel drin, denn Schieflasten von 6 Ampere werden definitiv nicht mehr geregelt. Vorher ist nämlich aus. Das ist übrigens etwas, was sein WireVIew Pro m.E. auch nicht kann, aber man könnte es sicher implementieren. Außerdem habe ich im Artikel mehrmals darauf hingewiessen, dass eklatante Schäden, und das wäre so einer, nicht zu einer Irrsinns-Regelung führen würden, wenn ein Balancer zweckmäßig ausgeführt wurde. Mir ging es im Artikel primar um die Haltbarkeit und Prävention, nicht um reine Reaktion. :)

Ausgangslage:

Fünf Leitungen führen je 8 A, die sechste nur rund 2 A. Gesamtstrom 42 A. Das ist eine klare Schieflast.

Der Balancer greift erst ab etwa 7,5 A ein. Er erhöht auf den fünf überlasteten Pfaden den wirksamen Serienwiderstand in Milliohm-Schritten, bis Strom in die schwache sechste Leitung ausweicht. Beispielhaft: hebt er auf jedem der fünf Pfade den Widerstand um 2 mΩ an, erzeugt das pro Pfad bei rund 9 A etwa 18 mV Zusatzabfall. Diese 5×18 mV verschieben in Summe ungefähr 5 A in die sechste Leitung. Aus 2 A werden so etwa 7 A, aus 8 A werden je ~7 A. Erhöht er die fünf Pfade weiter leicht (z. B. um insgesamt ~3 mΩ), wandern nochmals ~2 A zur sechsten Leitung: alle landen nahe 9 A.

Jetzt der zweite Effekt: Das Power-Management der Grafikkarte regelt auf ihre Zielleistung, sagen wir 55 A gesamt. Mit aktivem Balancing verteilt sich das dann ideal auf etwa 55/6 ≈ 9,17 A je Pin. Jeder Versuch, über ~9,5 A pro Pin hinauszugehen, triggert die definierte Schutzkette: zuerst Balancing-Maximierung, dann optional Lastreduktion im OS und, falls nötig, Abschalten. Man verlässt sich also nicht darauf, „dass es schon gut geht“, denn jeder Pin oberhalb der Norm führt kontrolliert zur Kappung, bevor Schaden entsteht.

Nun zur Kritik:

Nehmen wir den „schlechten“ Pin aus dem Beispiel, also jenen, der anfangs nur 2 Ampere führte, weil sein Kontaktwiderstand höher ist als bei den anderen. Dieses Szenario ist thermisch besonders tückisch, da die Wechselwirkung zwischen Temperatur, Kontaktwiderstand und Stromverteilung nicht linear verläuft, sondern sich selbst verstärkt.

Ein Kontakt mit leicht erhöhtem Übergangswiderstand – sagen wir 3 Milliohm statt 1,5 Milliohm – verursacht bei 2 A zunächst nur eine vernachlässigbare Verlustleistung von P = I² × R = 2² × 0,003 = 0,012 W. Das ist kaum messbar.

Sobald der Balancer aber beginnt, Ströme umzuleiten und diesen Kontakt wieder gleichmäßig zu belasten, fließen dort wie auf den anderen Pfaden etwa 9 A. Jetzt steigt die Verlustleistung auf P = 9² × 0,003 = 0,243 W. Das ist das Zwanzigfache der vorherigen Wärmeentwicklung und sie entsteht lokal auf einer winzigen Fläche im Metallkontakt. Diese Wärme konzentriert sich an der Grenzschicht zwischen Stecker und Buchse, wo der Übergangswiderstand ohnehin am empfindlichsten ist.

Bei 0,2 bis 0,3 W auf einer Kontaktfläche von nur wenigen Quadratmillimetern entstehen Temperaturanstiege von ca. 30 bis 50 °C über Umgebung, abhängig von der Kühlung und Materialpaarung. Diese Erwärmung wiederum erhöht den Widerstand des Kontakts, weil Metalle einen positiven Temperaturkoeffizienten besitzen (Kupfer etwa +0,4 %/K, vergoldete Federkontakte je nach Legierung 0,2–0,6 %/K). Dadurch wird der Kontakt noch heißer, sein Widerstand steigt weiter, und es kommt zu einem thermischen Aufschaukelungseffekt: der von mir mehrmals erwähnten positiven Rückkopplung. Das war wohl auch der Kern der Kritik.

Aber: Der Balancer wirkt hier als Stabilisator, indem er solche Effekte früh erkennt und gezielt dämpft: Er erhöht den Widerstand der anderen fünf Leitungen wieder minimal, so dass der Gesamtstrom auf dem schwachen Pin wieder sinkt, bevor dessen Temperatur weiter ansteigt. Er verhindert also genau das, was in einem unbalancierten System passieren würde: dass der Pin sich thermisch aufheizt, der Widerstand steigt, die Stromaufnahme dadurch weiter sinkt und die restlichen Pins immer mehr übernehmen müssen, bis die „guten“ Kontakte überhitzen und der Stecker insgesamt versagt.

Das thermische Problem des schlechten Pins liegt nicht in seinem isolierten Verhalten, sondern in der Rückkopplung zwischen Erwärmung und Stromverlagerung. Ohne Balancing führt sie zu einem sich selbst verstärkenden Ungleichgewicht, mit Balancing wird sie aktiv abgefangen, bevor aus einem heißen Kontakt ein potenzieller Ausfall wird.

Das ist meine Sicht der Dinge, da ich die Wirkungsweise kenne, die einem solchen Schaltungsaufbau immer zugrunde liegen muss. Es handelt sich hier um eine geschlossene, rückgekoppelte Mehrgrößenregelung mit gegenseitiger Beeinflussung, also eine Form von Multikanal-Regelung, bei der jede Stellgröße (der Leitungswiderstand pro Kanal) auf alle anderen Kanäle rückwirkt.

Beim Loadbalancing wird kein Ergebnis „in sich selbst eingespeist“, sondern der aktuelle Zustand aller sechs Leitungen wird in Echtzeit gemessen, miteinander verglichen und daraus ein neuer Stellwertvektor berechnet. Das System ist also rückgekoppelt. Man könnte es auch als iterative Selbstanpassung eines gekoppelten Systems beschreiben: Jede kleine Änderung in einem Kanal beeinflusst die Ströme in den anderen, was wiederum eine neue Regelantwort erzeugt. Diese Wechselwirkung läuft kontinuierlich und analog, nicht in diskreten Berechnungsschritten.
Wir haben hier ein dynamisches Gleichgewichtssystem, das sich ständig selbst korrigiert, bis die thermisch und elektrisch stabilste Verteilung erreicht ist. Der Regelkreis enthält also Rückkopplung, Dämpfung und Verzögerung in Einem, aber keine rekursive Berechnung.

Antwort 4 Likes

Klicke zum Ausklappem
Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Soll ich das jetzt noch in den Artikel reinbasteln? Ich habe eigentlich andere Dinge zu tun... :)

Ok, habs gemacht, aber jetzt muss mal Ruhe sein. So viel Gedöns wegen so einem albernen Adapter :D
Ich habe gerade Intel in den Fingern. Eine Karte ohne 12V-2X6 ;)

Antwort 6 Likes

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich habe gerade das hier gesehen:

View image at the forums

Der Loadbalancer verändert nicht willkürlich den Strom auf einer Leitung, sondern sucht den elektrischen Arbeitspunkt, an dem die Spannungsabfälle über alle Leitungen möglichst gleich sind. Wenn ein Pin wegen höherem Übergangswiderstand weniger Strom führt, ist das System zunächst instabil, weil die anderen fünf Pfade mehr Last übernehmen. Würde man nichts tun, würde die Differenz immer größer und genau das beobachtet man in unbalancierten Steckverbindern.

Der Balancer versucht in dieser Situation nicht, den schwachen Pin aktiv stärker zu belasten, sondern reduziert die Dominanz der überlasteten Pfade, indem er dort den wirksamen Widerstand leicht anhebt. Der Gesamtstrom bleibt nahezu konstant, die Quelle (Netzteil bzw. GPU-Lastanforderung) bestimmt diesen ja – aber die Spannungsverteilung am Stecker gleicht sich aus. Dadurch wird der „schlechte“ Kontakt elektrisch wieder eingebunden, ohne dass er zwingend seine volle 1/6-Last tragen muss. Das System zielt nicht auf Gleichstromanteile, sondern auf minimale Spannungsabweichungen, also einen stabilen Gleichverteilungszustand.

Der zweite Punkt betrifft die Schutzlogik. Die Überwachung entscheidet tatsächlich, ob ein Pfad überlastet ist oder zu heiß wird. Wenn der Balancer einen Ausgleich nicht mehr stabil halten kann, etwa weil ein Kontakt thermisch „wegläuft“, dann greift diese Schutzebene. Dann wird entweder die GPU-Last reduziert oder die Stromzufuhr abgeschaltet. Das geschieht nachgelagert, nicht als Teil des Balancing-Prozesses.

– Der Balancer regelt Spannungsabfälle, nicht gezielt Ströme einzelner Leitungen.
– Er dämpft Schieflasten, er „belastet“ keine schlechten Pins aktiv nach.
– Die Abschaltung kommt nur dann, wenn ein Pfad physikalisch instabil wird und damit außerhalb des zulässigen Regelbereichs liegt.

Die Befürchtung, er könne einen schlechten Kontakt thermisch überfahren, wäre nur dann berechtigt, wenn der Balancer die Ströme aktiv erzwingen würde. Das tut er aber nicht, denn er sorgt nur dafür, dass kein Pfad dauerhaft unter- oder überversorgt ist. Der Grenzschutz bleibt in der Überwachung, nicht in der Regelung selbst. Immer vorausgesetzt, er ist so konstruiert, wie ich es voraussetzen würde.

Antwort 3 Likes

Klicke zum Ausklappem
N
Nixwiss

Mitglied

31 Kommentare 17 Likes

Es ist schön wie du mal wieder die Arbeit anderer machst um evtl. schlimmeres zu verhindern. Nach meiner bescheidenen Meinung ist aber alles großer Mist und NVidea müsste hier in die Haftung und Regress genommen werden für den Steckerscheiß den sie den Firmen aufzwingen. Der Verursacher ist Nvidea und nicht die Firmen von A wie Asus bis Z wie Zotac. ich stelle mir gerade vor, ich müsste 6 Punkt Gurte nachrüsten, damit mein Auto halbwegs sicher ist. Ich warte derzeit auf eine Sammelklage gegen diesen Stecker gegen Nvidea.

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich habe jetzt keine Lust mehr. Ich muss mich jetzt um familiäre Dinge kümmern, denn das Leben so eines bescheuerten Steckverbinders ist vergleichsweise ein Fliegenschiss gegenüber dem eines Menschen. Ich bin hier erst mal raus, denn mehr als zu erklären, was eine rückgekoppelte Mehrgrößenregelung ist, kann ich auch nicht. Das sind eigentlich Basics. Wenn die Leute nicht mal den Unterschied zwischen Strom und Spannungsabfall bei der Regelung begreifen, dann kann ich auch nichts mehr machen. Ist Gott sei Dank auch nicht meine Baustelle.

Letztmalig, weil es mich so aufregt:
Ein guter Balancer arbeitet idealerweise nicht stromgeführt, sondern (weitgehend) spannungsgeführt. Das ist ein entscheidender Unterschied.

Ein stromgesteuerter Balancer würde tatsächlich das Risiko bergen, den „schwachen“ Pin über Gebühr zu belasten, wenn dieser einen höheren Widerstand hat. Ein spannungsgeführtes System – wie der Ampinel – arbeitet jedoch nach einem anderen Prinzip: Es misst permanent die Spannungsabfälle über allen sechs Pfaden und regelt diese so, dass sie möglichst gleich sind.

Das heißt: Wenn der schwache Pin wegen seines höheren Übergangswiderstands eine größere Spannungsdifferenz aufweist, fließt dort automatisch weniger Strom. Der Balancer erhöht nun leicht den Spannungsabfall auf den anderen, „besseren“ Leitungen – aber nur so weit, dass die Differenz der Spannungen angeglichen wird, nicht so weit, dass der Strom auf dem schlechten Pfad den der anderen übersteigt.

Sowas hier macht mich fertig, weil das Verständnis der zweckmäßigen Regelung komplett darin fehlt:

View image at the forums

Der Denkfehler in dieser Argumentation liegt in der Annahme, dass der Balancer die Ströme aktiv erzwingt und damit den Gesamtstrom pro Leitung unabhängig verändert. Das tut er aber physikalisch nicht, denn er verändert nicht den Strom, sondern den Spannungsabfall über jede Leitung.

Das Beispiel im Bild („8 A + x Ω ⇒ 7 A“) geht implizit davon aus, dass der Strom auf den guten Leitungen durch den höheren Widerstand sinkt, sich der Gesamtstrom aber zwangsläufig auf die schwächere Leitung „verlagern“ müsse. Das würde aber nur gelten, wenn die Spannungsquelle ideal und der Lastwiderstand der GPU konstant wäre – also wenn die Quelle die gleiche Spannung beibehält, egal was an den Leitungen passiert. In der Realität ist das System aber geregelt und geschlossen:

  • Die GPU zieht nur den Strom, den sie bei der aktuellen Versorgungsspannung benötigt.
  • Wenn der Balancer die effektiven Serienwiderstände leicht anhebt, steigt der Spannungsabfall über den Leitungen, die GPU-Eingangsspannung sinkt geringfügig.
  • Dadurch sinkt der Gesamtstrom des Systems minimal – es gibt also keine „Umleitung“ von Strom, sondern eine Verringerung der Gesamtsumme.

Das Verhalten des Balancers ist also dämpfend, nicht umverteilend im Sinne einer festen Summe. Der schwache Kontakt wird nicht plötzlich mit 5 A mehr belastet, weil der Gesamtstrom im Netzteilpfad nicht starr fixiert ist. Er sinkt leicht, sobald der Balancer eingreift, weil die GPU-Regelung und das Netzteil auf die leicht veränderte Spannung reagieren.

Oder anders gesagt: Der Balancer verteilt keine festen 55 A neu auf die Pins, sondern sorgt dafür, dass die Spannungsabfälle über den sechs Leitungen so gleichmäßig wie möglich bleiben. Wenn eine Leitung wegen eines schlechten Kontakts heiß wird, fließt dort physikalisch automatisch weniger Strom, nicht mehr. Der Balancer kann das nicht umkehren, weil er keinen Strom in eine einzelne Ader „hineinregelt“, sondern nur Spannungsausgleich betreibt. In der Grafik sehen wir schon, dass nichts "gleichgeschaltet" wird, sondern es nach wie vor kleinere Stromdifferenzen gibt. Bei einem stromgeführten System wären die Leitungen quasi gleich. Die Schieflast liegt aber hier unter 0.7 A und das passt.

View image at the forums

ERGO

Das Missverständnis im Zitat entsteht also durch die falsche Annahme einer starren Gesamtstromsumme bei konstanter Spannung – tatsächlich handelt es sich um ein spannungsdynamisches, rückgekoppeltes System, bei dem alle Ströme über die momentanen Spannungsabfälle definiert sind. Der Balancer bremst die überlasteten Leitungen ab, ohne die schwachen zu überfahren.

Mathematisch formuliert strebt das System an, dass
ΔU₁ ≈ ΔU₂ ≈ ΔU₃ … ≈ ΔU₆
und nicht dass
I₁ = I₂ = I₃ = … = I₆.

Der Strom ergibt sich erst aus diesem Spannungszustand nach Ohm’schem Gesetz (I = U/R). Da der Widerstand des schlechten Kontakts höher ist, bleibt sein Stromfluss trotz Spannungsangleichung niedriger. Der Balancer gleicht also die Spannungsabfälle an, es wird nicht die Stromverteilung erzwungen.

Diese Regelstrategie stabilisiert das System, weil sie die Spannungsdifferenzen minimiert, die sonst durch Kontaktalterung oder Fertigungstoleranzen entstehen. Sie „zwingt“ keinen Kontakt zur höheren Lastaufnahme, sondern reduziert den Druck auf die überlasteten Leitungen, es ist also ein rein dämpfender, nicht treibender Eingriff.

Der Überwachungsteil, also Temperatur- oder Strom-Grenzwertüberwachung, bleibt zusätzlich aktiv und greift nur, wenn ein Pfad trotzdem aus dem sicheren Bereich läuft. Erst dann wird abgeschaltet oder die GPU-Last reduziert.

Ergo:
– Ein stromgeführtes System könnte gefährlich werden.
– Ein spannungsgeführtes, analog-dämpfendes Balancing wie beim Ampinel kann es nicht, weil es keine Ströme erzwingt.

Und genau deshalb wird dort kein schwacher Pin „hochgezogen“, sondern die übrigen werden leicht abgeregelt, bis das System sich thermisch stabilisiert. Ende Gelände :D

Edit:
Ich finde es wirklich so drollig, dass gefühlt 10 Foristen eine Schaltung kritisieren, die sie noch nicht einmal gesehen haben (können) und dabei ein spannungsgeführtes System wie ein stromgeführtes System betrachten,

Antwort 7 Likes

Klicke zum Ausklappem
h
hansdampf

Urgestein

583 Kommentare 173 Likes

Bist ja ein ganz schlauer.

Die richtig vollständige Formel wäre P = I² * R. Und zwar weil U = R * I ist. Setze das in deiner Formel ein und es ergibt sich P = I² * R.

Antwort 4 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung