Der er brugt et eksternt professionelt KWh-meter fra elektrikeren til måling af det totale strømforbrug på testmaskinen og dennes monterede grafikkort, til test og referencetests. Jeg har valgt, at bruge et professionelt Watt-meter der måler hele maskinens strømforbrug, frem for at måle grafikkortenes da disses afgivelse af varme har stor betydning for hele maskinens samlede strømforbrug.
Testmæssigt er der valgt Windows Vista 64-bit for, at udnytte alle 4 gigabyte RAM. Samtidigt er Windows Vista blevet valgt, da vi i vore tider tester DX10-grafikkort og for mig giver det ikke meget mening, at teste på Windows XP længere, med DirectX 9.0c. Jeg ville givet få nogle vilde resultater, men jeg er sikker på, at I alle gerne vil se tal fra DirectX 10.1 benchmarks og spil. World of Warcraft er blevet medtaget i testen, selvom dette langt fra er et DirectX 10 spil. Men da det er verdens mest brugte spil, udover Sims 3 synes jeg ikke det kan undlades. Og vi kan da også se, at resultaterne med et moderne grafikkort i WoW ligger ganske tæt op ad de resultater der gives i Windows XP SP3, selvom der er skiftet til et meget mere krævende 64-bit operativsystem. Og WoW trækker tænder ud, med den opløsning og indstilling jeg har brugt i denne deltest. Samtidigt har jeg valgt Windows Vista 64-bit, da SP2 lige er udkommet - og jeg tænkte det kunne være interessant for Jer læsere (samt mig selv), at se hvad Microsoft har fået indbygget af optimeringerne denne gang. Som bekendt virkede Windows XP ikke helt efter hensigten før SP2 udkom - og SP3 var sidste finpudsning og optimering. Og som vi alle ved rammer Windows 7 snart markedet, så det er tvivlsomt, om der kommer en SP3 til Windows Vista i den nærmeste fremtid - hvis overhovedet!
Hér klarer Gigabyte GTX-295 sig mere, end udmærket. Som det ses opnås der næsten hele vejen igennem meget høje FPS-scores. Der er valgt settings DX10: Higher Quality og MSAAx4, samt Enhanced Full Dynamic Lighting. På NVIDIA-kortet er det IKKE muligt, at sætte benchmarkeren til DX10.1: Higher Quality så hav dette in mente, når I sammenligner resultaterne - for der er en del ydelsesforskelle i FPS på AMD/ATI-kortene når denne indstilling er aktiveret, eller ikke. Dette er fordi, at NVIDIA GTX-295 ikke understøtter DirectX 10.1, men kun DirectX 10. Men ser vi på scoren i indstillingen "High" kan det her ses, at GTX-295 fra Gigabyte der er NVIDIA-baseret scorer mere, end 200% højere, end AMD HD4890. Og det er en særdeles betydelig forskel, dog skal denne "læses" med det forbehold, at GTX-295 er et dobbelt-GPU grafikkort og har 792 MB mere RAM, end Radeon HD4890-kortet.
Stalker:Clear Sky benchmark resultater for Gigabyte GTX 295 1 GB:
High:
Extreme:
Ultra:
Efter denne gennemgang kan vi se, at Gigabyte GTX-295 ligger ganske meget over AMD/ATi-kortene. Mellem Asus EAH4890 og Gigabyte GTX-295 er der her meget store forskelle på - som nævnt - over 200%. Men husk at AMD/ATI-kortene er målt med DirectX 10.1 slået til. Jeg har valgt, at sammen- ligne med Asus EAH4890 fordi det modsat det MSI HD 4890 jeg har testet sidst, ikke er fabriksoverclocket. Derfor er der heller ikke sammenlignet med Zotac GTX-285 i denne artikel, da det ligeledes er heftigt overclocket fra fabrikken af.
Unreal Tournament 3 Benchmark tool:
Der er ikke så meget, at sige om UT3-testen. Jeg har valgt UT3 fordi den fra starten af blev bygget optimeret til DirectX 10. Med patch er der support for DirectX 10.1. Og denne test er udvalgt fra benchmarkportfolioet fordi rigtigt mange spil der bruges i dag og som stadig frigives, er baserede på netop UT3's grafiske motor. Der er testet med manuelle settings til absolut højeste kvalitetsindstillinger. Vi får høje tal, da spillets grafiske elementer ikke længere er hypermoderne. Men ingen siger vi skal svælge i små tal fra ekstremtests hele tiden, vel? :) Og i netop denne test kan vi se, at der igen er meget tæt løb mellem kortene.
Faktisk så er Asus EAH 4890 vinder af testen i næsten alle opløsningerne, bortset fra laveste hvor fabriksoverclockede HiS vinder, mens Gigabyte GTX-285 sakker ret meget bagud. Samtidigt ser vi, at HiS HD4870 1024 (igen faktisk) sjovt nok er vinder af denne test i den laveste opløsning, mens HD4770 ligger sidst, blandt AMD/ATI-kortene. Men ser vi på scoren i laveste opløsning, så løber AMD/ATI 4770 512 af med sejren over GTX-295. Dette giver lidt stof til eftertanke, men jeg har repeteret testene igen med samme driver (som i sidste test med Gigabyte GTX-285 1 GB), frisk installeret og tallene er det samme ved re-run for at validere resultaterne. Nogen gange er det bare sådan, at en benchmark favoriserer visse kort i visse opløsninger, af uransalige årsager. Og rent faktisk gjorde det samme sig gældende for testen af Gigabyte GTX-295. Så jeg vil konkludere, at det åbenbart er meget symptomatisk for NVIDIA kontra AMD/ATI, at AMD/ATI scorer højest, i laveste opløsning i denne test. Men overraskende er det, at Asus EAH 4890 1GB vinder denne test over NVIDIA's topmodel GTX-285. Dette havde vi ikke forventet, at se.
Devil May Cry 4 - Scene 4:
Devil May Cry 4 er et spil der brillierer, ved at findes til både PS3, Xbox360 og PC. Spillet er i sig selv meget flot lavet grafisk, selvom det er flere år gammelt. PC-versionen udkom i midten af 2008 og er grafisk forbedret i forhold til konsoludgaverne. Grunden til jeg har valgt DMC-4 er fordi den dels findes i en automatisk benchmarker og dels fordi den stadig formår, at presse kortene til det yderste. Samtidigt kan den køre både DirectX 9.0c og DirectX 10, hvilket gør den til en benchmarker der sammen med UT-3 kan bruges på både Windows XP og Windows Vista. Før nogen spørger så er DMC-4 benchmarken opdelt i 4 scener der gennemspilles på PC'en over ca. 15 minutter. Herefter gives en FPS-resultat per scene og en rank, da DMC-4 opererer med sjove ranks. For eksempel hedder den højeste rank "S - Battle foes with Smokin' Sick Style". Det er måske meget sjovt, men lidt for "porno" til mig. Jeg har derfor udvalgt kun Scene 4 der er den grafisk mest krævende og indsat resultaterne i grafen nedenfor.
Og her ser vi noget rigtigt interessant - til forskel fra UT3-testen. Her er der markante 48,69 FPS forskel mellem Gigabyte GTX-295 og Asus EAH4890 1GB. I denne test ligger de 2 af de 3 store kort meget, meget tæt op ad hinanden. Men Gigabyte GTX-295 brillierer ved, at opnå de absolut bedste resultater i alle 3 opløsninger. Men igen skal man tage forbehold for, at Gigabyte GTX-295 har 792 MB mere RAM, end AMD/ATI-kortene og har to GPU'er monteret. Dog vil jeg alligevel sige, at der her er tale om en meget flot forskel mellem Gigabyte's NVIDIA GTX-295 kort og Asus AMD/ATi 4890 kort. I benchmarken hér er der faktisk tale, om at Gigabyte GTX-295 er foran AMD-kortene med næsten hele 50 FPS i alle 3 deltests.
FurMark 1.6.5:
FurMark er en meget brugt benchmarker på flere forskellige testsider - og det med god grund. For FurMark indeholder både en benchmarker, samt en burn-in/stability testfunktion. Den kan endvidere tage screenshots undervejs ved at trykke på F9, hvilket er meget praktisk. Samtidigt skriver den løbende en temperaturgraf over GPU'ens varmetilstand og det er endnu et plus ved, at benytte denne test. Ydermere er det min testsuites eneste OpenGL-benchmark og derfor den eneste der siger noget om, hvor godt producenterne har integreret OpenGL optimeringer i GPU'erne. Og dette er vigtigt, at vide for dem der kører Linux, eller anden Unix eller har brug for at rendere OpenGL professionelt i applikationer, hvor selve renderingen smides ned på GPU'en. Oveni så er FurMark klart den benchmarker der brænder grafikkortet allervarmest hurtigst muligt. Og det er også en fordel, når man skal finde et grafikkorts præcise smertegrænser for overclockning. Desuden er FurMark 1.6.5 en OpenGL 2.1 benchmark og da GTX-295 kun kan køre OpenGL 3.1, via dennes driveropdatering og AMD/ATI-kortene OpenGL 3.0 i hardware er denne test valgt i version 1.6.5, fremfor version 1.7.0, der kan køre OpenGL i version 3.1. Desuden er de andre referencekort i testen kørt med version 1.6.5 og dette berettiger yderligere brugen af denne version af FurMark, for at give et retvisende sammenligningsgrundlag, læserne kan betragte som valid.
Vi kan her kun hæfte os ved én enkelt ting - og det er, at i OpenGL-testen får alle AMD/ATI-kortene fuldstændigt baghjul af det NVIDIA-baserede Gigabyte GTX-295 kort Og det i voldsom grad endda - her er faktisk tale om en ydelse der ligger over 160% i forhold til AMD/ATI-kortene. Vi må her sande, at AMD/ATI er langt bagud med ydelsen i OpenGL, i forhold til AMD/ATI - og det selvom disse har OpenGL implementeret i en langt højere version, end AMD. Kører vi derimod benchmarken i version 1.7.0 der udnytter OpenGL 3.1 er ydelsen faktisk næsten det samme, selvom der er tale om et dobbelt-GPU med NVIDIA-chip på. Og for en god ordens skyld så har jeg valgt, at indsætte resultatet for GTX-295 herunder i graf kørt med FurMark 1.7.0 der benytter OpenGL 3.1 til sammenligning (via NVIDIA's driveropdatering og IKKE hardwareimplementering. Her kan vi stadig se, at NVDIA GTX-295 overgår AMD/ATI HD4890 med 9 FPS i højeste opløsning. Men husk at tage forbehold for, at NVIDIA GTX-295 har 792 MB mere RAM og en "enkelt" GPU mere, end Asus EAH 4890.
Call of Juarez:
Call of Juarez er et af de få spil der er skrevet til direkte, at udnytte flere CPU-kerner end to. Jeg brugt Call of Juarez benchmarker tool, 64-bit udgave, sat til maksimum DirectX 10 settings, 1680x1050, Shadowmap 2048x2048, Shadows High, SSAAx4, Sound On.
Og her ser vi en DirectX 10 test hvor Gigabyte GTX-295 ligger helt i front i både max., min. og average scoren. Her kommer Gigabyte GTX-295 virkelig fuldstændigt til sin ret og outperformer alle AMD/ATI-kortene fuldstændigt og totalt.
World of Warcraft: Wrath of The Lich King:
World of Warcraft IRL-gaming testforklaring:
VSYNC-mulighederne i WoW har alle været slået fra. Og der er målt frames med WoW’s indbyggede framemeter. Disse er noteret og ud fra dette er der lavet et gennemsnit. Målingerne er foretaget sent om aftenen/natten, hvor der er færrest på serveren, til at belaste grafikken og netforbindelsen til serveren. Arathor Realm server er brugt til testen. Characteren benyttet er en LVL 80 fuldt episk udstyret resto/balance druide der har ”Epic Fly Form”, samt episk ridetiger. Alle tests er udført i Northrend, med settings sat til ULTRA MODE, alle effekter slået til og sat til maksimum muligt og benyttende max. camera distance macro/addon, samt zoomet helt ud til maksimum. Dailyquests brugt har været følgende: ”Blowing Hodir’s Horn” og ”Hot and Cold”, samt ”Defending Wyrmrest Temple”. Der er blevet trukket 1-2 Azure Dragons og 2-3 Azure Drakes i Wyrmrest Temple questen. WoW er blevet medtaget i testen, da det er verdens mest spillede spil - udover Sims 3 - og da det efter sidste udvidelsespakke kan trække tænder ud på selv de største grafikkort.
Og her ser vi så, at Gigabyte GTX-295 igen er med helt oppe i front. Endnu engang et meget flot resultat for dette kort. Men kigger man på det overclockede Zotac GTX-285 AMP! Edition, kan man se at der er meget, at hente hjem i WoW på, at købe et overclocket GTX-285 single chip kort. Forskellene er faktisk så marginale, så jeg ikke vil vurdere, at det er ret meget merpris værd, at investere i et dual-GPU grafikkort, som Gigabyte GTx-295 1.792, hvis det udelukkende er World of Warcraft man spiller og ønsker, at bruge NVIDIA-kort. Til sammenligning for fabriksoverclockede AMD/ATI-baserede grafikkort kan jeg oplyse, at MSI R4890 1GB OC-edition scorede hhv. 43,5 og 36,5 FPS i WoW-testen.
Så spiller man udelukkende World of Warcraft stilles man derfor i følgende situation: Skal man bruge de ekstra penge et Gigabyte NVIDIA GTX-295 1.792 MB koster for de få frames ekstra, kontra et Zotac GTX-285 eller et AMD/ATI HD4890 - eller ikke? Men skal jeg som passioneret WoW-spiller udtale mig, så er valget i denne test klart. Da Blizzard har udtalt de vil opgradere WoW's grafiske engine/motor til højere krav med næste udvidelsespakke, så er det hér, at dem der hælder til NVIDIA-kort/GPU'er måske skal tænke på, at købe et Gigabyte GTX-295 grafikkort? Og da trenden indenfor spilverden pt. er, at flere og flere spiludviklere vil bygge teknologien i spillene til, at udnytte dual-GPU grafikkort og flerkernede CPU'er, så hvorfor ikke bruge de ekstra penge på et Gigabyte GTX-295 grafikkort, hvis man alligevel står for at købe nyt udstyr og har pengene til dette, kan man måske sige? Men valget skal være brugernes helt eget og her vil jeg ikke tage mig til indtægt for, at have rådgivet for eller imod et eventuelt valg pt. Her er det med de marginalle forskelle vi ser mellem NVIDIA og AMD/ATI helt op til éns egen - personlige - præference og pengepung, samt hvad man vil bekoste i strømforbrug og miljø der afgør valget.
Overclocking
Igen overclocker et kort fra Gigabyte helt UDEN problemer rigtigt godt. Kun én eneste gang er testmaskinen gået ned under OC-testen, da vi nåede smertegrænsen for kortet. Der er heller ikke optrådt nogle grafikfejl, under OC-testen af kortet, men benchmarken gik ned og modsat normalt kunne NVIDIA's ForceWare nulstille sig selv, som AMD/ATI's Catalystdriverpakke. Denne gang var det muligt, at benytte ctrl+alt+delete og simpelthen stoppe testprogrammet på maskinen, da vi nåede smertegrænsen på Windows Vista.
Resultaterne af OC-testen af kortet, taler godt for sig selv. Man får en god OC, selvom der er tale om et dobbeltkort, med de varmebegrænsninger dette sætter for en eventuel overclock af kortet. Brug af NVIDIA's drivertool NTUNE/NVIDIA System Tools 6.05 virker helt uden problemer - og det er en fordel da alle burde kunne finde ud af dette - det kan min kæreste Freke rent faktisk (der tester bærbare normalt) ihvertfald godt gøre uden problemer. Dog kører kortets blæser ret hørbart på 100% under OC-testen. Dette kunne ikke sættes/ændres manuelt, da programmet fra NVIDIA selv vil stille dette, under OC af kortet på denne model, modsat andre single-GPU kort jeg har testet.
Overclockningtesten blev gennemført således:
Tool brugt: NVIDIA System Tools, komponent nTune 6.05
GPU: fra 576 MHz til 671 Mhz
RAM: fra 999 MHz til 1099 MHz
Shader Unit: fra 1242 MHz til 1342 MHz
Som det tydeligt fremgår,så kører Gigabyte GTX-295 lige på grænsen af det mulige, med mit OC af kortet - selvom der automatisk bruges en blæsserrotation på 100% bliver kortet 89 grader varmt på den ene GPU og hele 92 grader varmt på den anden. Og det er generelt maksimumtemperaturen for GTX-295 grafikkort på luftkøling, med referencedesign og køleløsning.
Altså giver dette en effektiv overclockning af GPU på 95 MHz, RAM på 100 MHz og Shader Unit på 100 MHz, der omregnet til procenter bliver til +16.5% på GPU og +10% på RAM, samt +7.5% på Shader Unit'en.
Dette er et rigtigt flot resultat synes jeg, ved brug af standardværktøjer alle kan finde ud af at bruge. Særligt RAM og GPU'erne brillierer her synes jeg, da hhv. 16.5 og 10% OC på disse stabilt er et særdeles flot resultat. Og dette er absolut brugbart i produktion (real life gaming/design/overclocking). Dette finder jeg, da kortet holder temperaturerne acceptable med en forholdsvis ret høj overclocking. Jeg har ikke overclocket selv ret meget i flere år, men jeg vil konkludere, at ethvert produkt der med referencekøler-og design kan klare OC så stabilt, er et fremragende produkt med godt potentiale, set ud fra min OC-test. Specielt da selv ”torturbenchmarkingen” med FurMark 1.6.5/1.7.0 forløb uden crashes, grafikfejl, renderfejl eller overophedning over en periode på hele 45 minutter. Efter FurMark i 45 minutter blev der kørt Stalker:Clear Sky benchmarken på Ultra-mode - begge afviklet i rap så hurtigt de kunne startes med musen. I alle tilfælde crashede maskinen ikke og GPU-z loggede acceptable temperaturer der ikke lå mange grader fra hinanden. Derved vil jeg konstatere overclockningen stabil og brugbar i produktion. Blev der overclocket 10 Mhz mere mellem shader, GPU og RAM gik temperaturen op på 102 grader celsius og maskinen crashede driveren øjeblikkeligt i FurMark. Man oplevede faktisk i denne test, at Windows meddelte, at driveren var crashet. Og helt anderledes for NVIDA-kort - hvad jeg ikke har set før - kunne man fortsætte uden genstart/reboot.
Mange tak til Sheea2000 for procentberegningerne.
OC-test konklusion og bemærkninger til udnyttelsesgrad af kortets potentiale:
For at spare os alle sammen for en masse grafer og beregninger har jeg denne gang valgt, at indsætte ingen grafer fra OC-testen. Dette er fordi forskellene er så marginalle så der er tale om 3-5-7 FPS i STALKER: Clear Sky benchmarken. Derfor anser jeg det for rent ligegyldigt, at indsætte grafer fra resultaterne. Værdier i tekniske MHz er her rigeligt nok for dem der går det indenfor det, at overclocke og benchmarke. Fore slutbrugeren er der faktisk ikke her det store, at vinde på at besvære sig med at overclocke Gigabyte GTX-295. Men med en selvtilpasset køleløsning og "tweaks" er jeg næsten sikker på, at overclockeren eller benchmarkeren eventuelt kan hente noget hjem ved brug af Gigabyte GTX-295 1.792.
Jeg vil derfor yderligere konkludere, at de tests jeg har anvendt for, at sammenligne med tidl. testede kort under OC-testen ikke nødvendigvis i tilstrækkelig grad formår at udnytte Gigabyte GTX-295's potentiale fuldt ud.
Uden OC scorer Gigabyte GTX-295 1.792 78 FPS i STALKER: Clear Sky Ultra Day benchmarken. Her scorer to AMD/ATI HD4890 i CrossFire 84 FPS. Med OC bringer dette Gigabyte GTX-295 op på, at score næsten det præcis samme, som værende et single-kort-med-dual-GPU-løsning kontra brug to AMD/ATI HD4890 i CrossFire med 2 GB RAM.
Strømforbrug:
Strømforbrugsmæssigt bruger hele testmaskinen på 247-253 watt idle i Windows. Under load bruger hele maskinen 380-400 watt. Og under Hard Load kan forbruget komme helt op på svimlende 480-520 watt. Under OC-testen var højste watt-forbrug i peak belastning for hele systemet på 520 watt. Til sammenligning bruger Asus EAH4890 1024 215-219 Watt idle i Windows, og 330-350 Watt under belastning i benchmarks og IRL-gaming.
Til sammenligning bruger hele maskinen med to HD4890 i CrossFire 300-550 watt og Gigabyte GTX-295 250-450. Under OC og/eller "hard load" peaker systemet med begge løsninger monteret op på det præcis samme forbrug - nemlig 550 watt.
Strømforbruget under Power Save sat til i Windows Vista er meget nøjsomt for et dual-GPU grafikkort. Her kommer kortet helt ned på 193-203 watt, hvilket er meget acceptabelt strømforbrug i forhold til størrelsen. Det faktum at der er tale om et dual-GPU grafikkort og éns el-regning, samt den globale miljøsituation kan Gigabyte GTX-295 sparer lidt på el-regningen i miljøet. Ved vor test under Windows Vista kan man bruge mindre strøm, ved at gøre sig selv og verden/miljøet den tjeneste, at lave en genvej på skrivebordet til, at skifte power mode i Windows. Det er kun få klik med musen der skal til og faktisk ikke en særlig stor indsat man som person skal yde for, at spare både el-regningen og miljøet. Og hvis vi ALLE gør dette så GØR det FAKTISK en forskel, rent miljømæssigt.
At Microsoft ikke på Windows 7 har sat "Power Mode"-ikonet til, at køre nede i statushjørnet, som på bærbare computere er for Freke og mig meget ubegribeligt. På mine tests af Windows 7 Enterprise har det vist sig, at denne version installerer med power settings sat til "balanced" - og det er da et skridt i den rigtige retning. Men alle bør prøve, at undersøge det jeg har beskrevet foroven - både for egen og klodens/verdens skyld.
Andet:
Drivere og kontrolpanel er klippestabile og giver ikke anledning til nogle bemærkninger overhovedet. Man skal dog, som Linux- eller Unixbruger bemærke at NVIDIA i OpenGL scorer meget højere, end AMD/ATI-kortene, da Linux bruger OpenGL og ikke Microsoft's DirectX. Om dette gør sig gældende reelt på Linux eller Unix har jeg desværre ikke haft tid til, at teste. Og da Furmark ikke kan fås til Linux endnu, vil det være svært, at lave en egentlig valid og reél sammenligning.
Da vi nu er ved vejs ende, går vi derfor til videre til "Konklusion/UK Summary" ...