CPU OC vs. GFX OC

Om siden d.  26. december. 2006, skrevet af Gavstrik
Vist: 702 gange.

Gavstrik
 
Superbruger
Tilføjet:
26-12-2006 10:38:28
Svar/Indlæg:
650/97
Jeg sidder og fifler lidt med at OC mit gfx kort efter jeg læste at GTS efter OC næsten skulle kunne indhente et GTX med standard clock (jeg er ikke interesseret i kommentarer om hvor vidt dette er muligt eller ej, da det ikke er trådens formål). Men hvordan kan man se, hvornår man er nået grænsen for sit GFX kort. Crasher computeren på samme måde, ligesom hvis man har givet CPU'en for meget suppe ?:( Ligesom man siger at en CPU skal ligge omkring 60-65 grader max, hvor meget må GPU'en så gerne ligge på? Fordi har indtrykket af at de generelt ligger lidt højere eller er det mig som tager fejl?

Emillos
 
Overclocker
Tilføjet:
26-12-2006 10:47:25
Svar/Indlæg:
14079/622
Hvis du overclocker for meget, kan computeren fryse eller der kan komme grafikfejl/artifacts.
En GPU kan godt tåle op imod 130 grader, men det er nok bedst hvis du holder den under 90 grader IMO :)



Illuminati
 
Elitebruger
Tilføjet:
26-12-2006 10:51:00
Svar/Indlæg:
10398/435
Atitool:
http://www.techpowerup.com/dow...

Scan efter artifact mens du oc'er.. det er ikke altid atitool detecter dem, men du kan se dem i form af små gule prikker som kommer/går/skifter...



Gavstrik
 
Superbruger
Tilføjet:
26-12-2006 10:51:28
Svar/Indlæg:
650/97
Grafikfejl giver vel lidt sig selv hvad det går ud på. Har godt hørt at I har nævnt artifacts herinde før, hvad er det helt præcist at det går ud på?



Illuminati
 
Elitebruger
Tilføjet:
26-12-2006 10:52:23
Svar/Indlæg:
10398/435
#1, jeg ville nu snare sige 80 grader.. :) så er man sikker



Advanced
 
Elitebruger
Tilføjet:
26-12-2006 10:53:58
Svar/Indlæg:
6899/119
Altså du mener hvad artifacts er forårsaget af?

Det skyldes simpelthen at man er nået ud over grafikkortets grænse.

Som regel er det fordi du har clocket for højt og derfor skal du clocke lidt ned. Så langt ned at artifactsne forsvinder fuldstændig.

Artifacts kan også skyldes for meget varme, men ved standard hastigheder skal der ret meget til før kortet laver fejl.





Gavstrik
 
Superbruger
Tilføjet:
26-12-2006 11:12:11
Svar/Indlæg:
650/97
#4

ATItool er det ikke et program til at OC med? Fordi jeg forsøgte mig med coolbits i går og satte kortet til 550/1800, hvilket jeg havde læst mig frem til burde være fint for stort set alle GTS kortene og det kørte også fint MEN MEN MEN. Da jeg kom hjem fra byen kl. 3 i nat og lige skulle prøve at køre en test var der noget galt. Kortet kunne ikke en skid. 30 FPS i WOW og Benchmark var også helt ude at skide så jeg gik i seng liggende i fosterstilling tænkende at nu havde jeg brændt et kort til 3.700 kr. efter 2 dage. Her til morgen slettede jeg derfor driveren og installerede den igen, og så kørte det igen. Er det noget tit sker når man bruger coolbits til Nvidias driver og er det derfor at foretrække at bruge ATItool?



Advanced
 
Elitebruger
Tilføjet:
26-12-2006 11:16:03
Svar/Indlæg:
6899/119
#6

Ja jeg vil sige du hellere skal bruge ATi tool.

Det fungerer perfekt for de fleste.



Gavstrik
 
Superbruger
Tilføjet:
26-12-2006 11:33:02
Svar/Indlæg:
650/97
Går ATItool ind og disable'r Nvidia control panel? Fordi prøvede nemlig et andet OC program, hvor det fjernede Nvidia panelet, og betyder dette noget?

Ved godt jeg spørger meget, men er ret grøn når det kommer til OC af GFX...

Gav ;)



Illuminati
 
Elitebruger
Tilføjet:
26-12-2006 11:52:12
Svar/Indlæg:
10398/435
#8, atitool gør slet ikke noget ved controlpanelet..



Gavstrik
 
Superbruger
Tilføjet:
26-12-2006 12:13:49
Svar/Indlæg:
650/97
Og det gør ingenting at bruge et ATI baseret program til at OC Nvidia?



Advanced
 
Elitebruger
Tilføjet:
26-12-2006 12:20:43
Svar/Indlæg:
6899/119
#10

Som vi har svaret en del gange på nu.

Nej det gør det ikke!



Gavstrik
 
Superbruger
Tilføjet:
26-12-2006 12:21:34
Svar/Indlæg:
650/97
Okay, nu har jeg hentet ATI tool og startet programmet. Så næste mur er ramt, nu kan jeg ændre på hastighed på 3 forskellige ting:

- 2D
- 3D low power
- 3D perf.

Hvilke af dem skal jeg skrue op for? Fordi da jeg brugte Coolbits kunne jeg kun ændre på 2, og det var det :o

Gav



Advanced
 
Elitebruger
Tilføjet:
26-12-2006 12:29:45
Svar/Indlæg:
6899/119
Når du justerer på ram det ene sted flytter den sig automatisk med de andre steder, så mht ram er det så nemt.

Når det kommer til core, så skal du bare lade den være i 2D.

Det er rigtigt nok, at nogen vil sige, at det ikke er alt der bliver rendered i 3D i spil, men det er minimalt hvad man får ud af at clocke på 2D.

I 3D lowpower kører jeg med samme clock som på 3D performance. Så jeg ville køre med synkron core hastighed på de to.



Illuminati
 
Elitebruger
Tilføjet:
26-12-2006 12:30:12
Svar/Indlæg:
10398/435
#12, "3D performance" ;)

Denne hastighed bruges ved afvikling af 3D grafik..


ATItool er bare navnet.. der er ikke noget med at det er baseret på oc kun til ATI (det var det i starten). Siden har wizzard tilføjet support for nvidia grafikkort..



Gavstrik
 
Superbruger
Tilføjet:
26-12-2006 12:48:02
Svar/Indlæg:
650/97
Fremragende, det var vist alle de spørgsmål jeg havde indtil videre. Så jeg takker herfra, og vil begive mig ud i at få kortet til at køre lidt mere end det er lavet til ;)



red_martians
 
Moderator
Tilføjet:
26-12-2006 13:08:46
Svar/Indlæg:
7881/1165
Der findes så vidt jeg ved ingen tools der forstår grafikfejlene i en chip med unified shader.
Det gør at selv nvidia's eget coolbits, bare clocker og clocker selvom man har sat den til at finde max-hastigheden automatisk.

Jeg rør personligt ikke selv det automatiske, da jeg simpelthen ikke stoler på at hardwaren kan finde fejl i sig selv. :00 Den eneste der kan se og forstå fejl er den der sidder foran skærmen.