-> #8
Ikke nødvendigvis. TDP er, så vidt jeg har forstået det, den energi CPU'en kan holde til, før den drosler/lukker ned.
Tænk på en CPU, der har en TDP på eks. 60 Watt (fiktivt) normalt. Den kan du jo sagtens clocke, og effekten stiger jo når du skruer op for frekvens og spænding. Men, så længe du køler den ned, kan dens effektive strømforbrug sagtens stige - så længe du holder den under dens interne grænse*.
TDP'en er blot en grænse for, hvor meget energi køleren skal kunne flytte/fjerne, for at CPU'en ikke overopheder. Men når du skruer op for frekvensen, plejer vi jo også at skrue op for kølingen (det samme gælder grafikkort).
Long story short. Du kan sagtens have to CPU'er, med lign. TDP, men vidt forskelligt strømforbrug og behov for køling. Jo mindre energi der forsvinder som varme, jo mere kan du stole på strømforbruget (og indirekte TDP'en). Men så længe det er en ukendt (forstået sådan, at CPU'er sluger strøm, noget til varme, noget til beregning) faktor, er det bedste nok at sætte en strømmåler i stikkontakten og se hvad der bliver slugt dér.
Min erfaring siger mig, at de fleste systemer ligger på 120-240 Watt i load (nu snakker jeg ikke high-end eller vildt overclock). Hvor meget der forsvinder som varme, aner jeg ikke - jeg kan kun forholde mig til hvad strømforsyningen er opgivet til at kunne klare.
Mit sekundære system i min profil, har vist aldrig været over 200 Watt (selv under fuld belastning m. et ASUS 9600GT), hvilket ikke giver mening hvis man kigger på komponenternes TDP (endsige gik i gang med at beregne strømforbrug for; bundkort, RAM, harddisk, optisk drev, etc.).
* - den varme du fjerner, ved at køle CPU'en, er med til at mindske modstanden i komponenten. Lavere temperatur = større stabilitet (som følge af mindre intern modstand, effektforbruget falder).
Svaret blev redigeret 1 gang, sidst af NoNig d. 03-06-2012 23:11:20.