Korrekturlæser: jmose
Billed behandling: 
Oversættelse: jmose

Pristjek på Grafikkort hos PriceRunner 2843,00
Produkt udlånt af: Gigabyte
DK distributør: Fourcom

Software

Gigabyte OC Guru II

Ligesom mange andre producenter har Gigabyte også deres eget overclockprogram. Men de har valgt et meget specielt interface med firkanter, hvor hver firkant har en funktion. En kort gennemgang af firkanterne er nok på sin plads. Øverst til venstre kan man se kortets nuværende clockhastighed. På de to næste kan man justere på core og memory clocken. På næste række kan blæserhastigheden, spændingen og kortets power target justeres. Sidste række giver adgang til kontrolpanelet for et On Screen Display, en Support knap, hvor man kan downloade driveropdateringer. Den sidste firkant er bare et logo. 

Modsat MSIs Afterburner og Asus GPU Tweak, som på deres egne kort giver mulighed for at justere på specielle parametre såsom memory voltage og VDDC, giver OC Guru kun overclockeren de almindelige parametre at justere på. 

 

Nvidia's forceware driver

Driveren brugt i denne test er den seneste nye fra Nvidia, og derfor kan billeder samt beskrivelse variere en smule. Nvidia har udviklet deres eget overclockingprogram, som vil blive en integreret del af driveren, hvis programmet nTune installeres. nTune findes i pakken "NVIDIA system tools" sammen med andre værktøjer. Her er nTune ikke installeret.

 

 

Som det ses på billedet ovenfor, er det nu muligt at komme ind i driveren ved at højreklikke på skrivebordet.

 

  

 

Når driveren åbnes, kommer man direkte til 3D indstillingerne. Her er det muligt at justere på globale 3D indstillinger. Det er også muligt at indstille hvert program til at bruge bestemte indstillinger såsom AA eller AF. Endeligt er muligheden her for at fortælle driveren, om grafikkortet eller CPU'en skal bruges til PhysX.

 

    

 

Næste punkt hedder skærm. Her er det muligt at stille på opløsning, farver, placering, rotation samt opstilling til flere skærme.

 

 

Programmet har også mulighed for at opdatere sig selv. Inde i systemopdatering har du mulighed for at sætte, hvilket tidspunkt programmet skal kontrollere efter nye opdateringer.

 

 

 

Dette afsnit vil være åbent, hvis man erhverver sig et nVidia 3D vision sæt. Så er der mulighed for at få 3D på de fleste spil. Der er dog mulighed for uden 3D vision at se, hvilke spil der har god understøttelse for 3D.

 

 

 

I sidste punkt i driveren er der mulighed for at justere farve på skærmen til et specielt videoindhold. Der er også mulighed for at indstille videobillede. Dette gør brug af nVidia PureVideo teknologien.

Hapsdog1
 
Overclocker
Tilføjet:
11-11-2014 10:53:40
Svar/Indlæg:
294/19
Jeg fik også fingrene i sådan et kort og det er det fedeste gfx jeg har ejet, det overgår langt mit hd7990.

Svaret blev redigeret 1 gang, sidst af Hapsdog1 d. 11-11-2014 10:53:52.


noxon
 
Elitebruger
Tilføjet:
11-11-2014 15:45:28
Svar/Indlæg:
3321/21
Lækkert kort og god gennemgang 🙂
I burde dog opgive GPUens frekvens efter den faktiske hastighed, den kan kun aflæses under load, fx i grafen i afterburner.

Grunden er, at frekvensen pga boost, evt throttle og varme ikke passer med hvad GPU-Z "gætter" sig til.

2 ens kort kan sagtens have en forskel på 40-80MHz, især ved OC, selvom GPU-Z siger de kører med samme frekvens.

Lige et eksempel med mit 660Ti, som i øvrigt skal have skiftet kølepasta kan jeg se 🤡



SDK
 
Redaktør
Tilføjet:
11-11-2014 16:56:10
Svar/Indlæg:
573/108
#2 Har jeg også kigget på. Men de nye kort (De 970 jeg har testet) med meget effektive kølere, kører faktisk den opgivne hastighed da chippen aldrig bliver varm nok, til at throttle ned.


noxon
 
Elitebruger
Tilføjet:
11-11-2014 17:21:38
Svar/Indlæg:
3321/21
#3
Jeg har nu set flere eksempler på det modsatte, varme har ikke været problemet. -Men at GPU-Z læser fra nogle tabeller, og ikke den faktiske frekvens.

Anyways, du mener stadig at GPU frekvensen er 1178MHz(std) og 1358MHz(OC), under load?
-Det er nok tættere på de oplyste Boost frekvenser, altså 1329MHz(std) og 1509MHz(OC).

Her er et Gigabyte GTX 970, hvor GPU-Z siger 1509MHz, men hvor den faktiske frekvens under load er 1584MHz:
http://hwbot.org/submission/26...


Gripen90
 
Senior Skribent
Tilføjet:
11-11-2014 18:54:27
Svar/Indlæg:
15982/637
#4: CPU-z læser kun den "faste boost frekens" og ikke en max. Max boost kan jo variere fra spil til spil.


noxon
 
Elitebruger
Tilføjet:
12-11-2014 09:50:01
Svar/Indlæg:
3321/21
#5
Men her er det jo ikke engang boost clocken der er opgivet, men den 150MHz lavere GPU Clock. Så kan den reelle frekvens i princippet, være alt mellem ~1100-1600MHz.

Jeg har erfaret, at den frekvens afterburner oplyser, er den samme uanset spillet (belastningen).
-Og hvis man ikke vil oplyse denne, så er Boost clocken i GPU-Z ihf. mere korrekt end GPU Clocken.

Dog med undtagelse af et OC der er så tæt på powerlimit, at clocken under spidsbelastning hopper ned for at holde TDP i skak. Varme gør det samme, men skulle ikke gerne være et problem med et kort i denne klasse, der ikke sveder i SLI!


Undskylder for alt dette OT og mit detaljeknepperi 🤡 🤡
Men jeg synes det er vigtigt, at der er et ordentligt sammenlignings grundlag. Ellers bliver det jo bare hokuspokus, hvorfor det ene kort yder bedre end det andet.


Gripen90
 
Senior Skribent
Tilføjet:
12-11-2014 11:48:28
Svar/Indlæg:
15982/637

#5
Men her er det jo ikke engang boost clocken der er opgivet, men den 150MHz lavere GPU Clock. Så kan den reelle frekvens i princippet, være alt mellem ~1100-1600MHz.

Jeg har erfaret, at den frekvens afterburner oplyser, er den samme uanset spillet (belastningen).
-Og hvis man ikke vil oplyse denne, så er Boost clocken i GPU-Z ihf. mere korrekt end GPU Clocken.

Dog med undtagelse af et OC der er så tæt på powerlimit, at clocken under spidsbelastning hopper ned for at holde TDP i skak. Varme gør det samme, men skulle ikke gerne være et problem med et kort i denne klasse, der ikke sveder i SLI!


Undskylder for alt dette OT og mit detaljeknepperi 🤡 🤡
Men jeg synes det er vigtigt, at der er et ordentligt sammenlignings grundlag. Ellers bliver det jo bare hokuspokus, hvorfor det ene kort yder bedre end det andet.

noxon skrev d. 12-11-2014 09:50:01


Ah havde ikke set at boost clock ikke var oplyst men jo så er det rigtigt.

Boost clocken kan variere alt efter spil da GPU Boost 2.0 regulere alt ml. volt, varme og Mhz samtidigt. Men da GTX 970 er en rimelig ok kølig chip så burde den også kunne holde max boost clock i de fleste tilfælde.
Min egen boost clock svinger ml. 1345~1360MHz, men nu har jeg så også 3 kort GPU Boost 2.0 regulerer på samtidig. Min anden PC med 2 kort ligger den rimelig fast på 1395Mhz 99% af tiden.