det har du ret i. Men det er stadig sjovest med alle kerner.
Jeg synes man skulle til at benche efter effektivitet i stedet for bare, at nå den højeste frekvens. Det kan jo ikke bruges til noget. Det handler jo om hvor mange 1'ere og hvor mange 0'ere en computer kan gøre igennem.
Det svare jo lidt til, at sammenligne en bil og sige den er bedst, bare fordi den når højst op på omdrejningstælleren.
#5 Det bliver jo også meget mere komplekst 😉 Det er lettere at indsnævre WR området, da der fjernes en masse variabler.
Der bliver jo også testet i SuperPI, 3D Mark osv. Med kun 1 kerne ser man dog hvad den maksimalt kan udrette, og det er jo lidt sværere at skulle regne med flere variabler, såsom den hurtigste CPU med alle 4 kerner. Skal Turbo være til? Hvor mange volt på hvilken køling osv.
Jeg mener nu stadigvæk at hvis man har 2, 4 eller 6 kerner så burde man da som minimum udnytte dem alle, for at kunne få den bedste ydelse. Det er så bare min holdning.
Rasmus66 Kan også godt forstå dit synspunkt. Men hvor ofte har du selv clocket med kun 1 kerne for at få flest Ghz? Du har jo også haft nogle vilde OC projekter.
Det er jo dumt at bruge den kerne i processoren der begrænser ens overclock til 2d benching.
Til 2D benching i superpi og pifast er hastighed den vigtigste faktor, men kan tweake nok så meget og vinder nogle sekunder på den måde, men hvis jeg kan slå en ustabil gerne fra og vinde 200 mhz mere så er det da det jeg gør.