Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: AMD
DK distributør: AMD

Test

 

 

 

Følgende testsetup/maskine er benyttet til testen af kortet:

        AMD Dragon platform
  • Cooler Master HAF-922 medium tower kabinet med 2 x 200mm blæsere og 1 x 120 mm blæser
  • Enermax Galaxy 1000 Watt PSU med 2 x 8-pin PCI-E og 2 X 6-pin PCI-E strømstik
  • FoxConn DigitaLife A79A-S AM2+ motherboard med AMD 790FX chipset
  •  BenQ 26" fladskærm - 60/59 Hz - max. opløsning 1920x1200 via HDMI eller DVI-I, med højttalere 
  • Zalman CNPS 9500 AM2+ low noise køler
  • AMD Phenom II AM2+ Z940 Quad Core 3GHz CPU
  • 2 X Kingston HyperX 2 gigabyte RAM-klodser – DDR-2 1066 (4 gigabyte RAM)
  • 1 X Maxtor 200 gigabyte, 7.200 RPM 16 MB cache harddisk, SATA-1
  • 1 x Western Digital GreenPower HDD - 500 gigabyte, 7.200/5.400 RPM 16 MB cache, SATA-2.

 

Der er brugt et eksternt professionelt KWh-meter fra elektrikeren til måling af det totale strømforbrug på testmaskinen og dennes monterede grafikkort, til test og referencetests. Jeg har valgt, at bruge et professionelt Watt-meter der måler hele maskinens strømforbrug, frem for at måle grafikkortenes da disses afgivelse af varme har stor betydning for hele maskinens samlede strømforbrug. 
 
Software benyttet:
  • OS: Windows Vista Home Premium 64-bit SP2, fuldt opdateret
  • OS: Windows 7 Enterprise 90 Day Trial (til kørsel af Heaven benchmark)
  • Grafikkortdriver 1: AMD/ATI Hotfixed driver til HD5970 Hemlock (http://support.amd.com/us/kbarticles/Pages/GPU37-driver-for-ati-radeon-hd-5970.aspx
  • Grafikkortdriver 2: NVIDIA Driver 191.07  
  • Chipsætdriver: Seneste tilgængelige til AMD 790FX
  • OC-tool/værtøj: AMD/ATI OverVolt Tool

 

Testsoftware:

  • 3DMark Vantage 
  • Stalker:Call of Pripyat DirectX 11/10.1 benchmark tool
  • Stalker:Clear Sky DX10.1 benchmark tool
  • Unigine Heaven benchmark version 1.0 (kørt på Windows 7) 
  • Unreal Tournament 3 Benchmark tool -  der er benyttet DM-Sanctuary map, 12 bots, sound, full screen, max. details, DX10 
  • Devil May Cry 4 DX10 benchmark – max./super settings, MSAAx8
  • Furmark 1.7.0 OpenGL 3.2 benchmark tool 
  • Call of Juarez DX10 benchmark tool
  • World of Warcraft: Wrath of The Lich King – Ultra settings, max. camera distance macro

 

Testmæssigt er der valgt Windows Vista 64-bit for, at udnytte alle 4 gigabyte RAM. Samtidigt er Windows Vista blevet valgt, da vi i vore tider tester DX10-grafikkort og for mig giver det ikke meget mening, at teste på Windows XP længere, med DirectX 9.0c. Jeg ville givet få nogle vilde resultater, men jeg er sikker på, at I alle gerne vil se tal fra DirectX 10.1 benchmarks og spil. World of Warcraft er blevet medtaget i testen, selvom dette langt fra er et DirectX 10 spil. Men da det er verdens mest brugte spil, udover Sims 3 synes jeg ikke det kan undlades. Og vi kan da også se, at resultaterne med et moderne grafikkort i WoW ligger ganske tæt op ad de resultater der gives i Windows XP SP3, selvom der er skiftet til et meget mere krævende 64-bit operativsystem. Og WoW trækker tænder ud, med den opløsning og indstilling jeg har brugt i denne deltest. Samtidigt har jeg valgt Windows Vista 64-bit med SP2, da SP2 er udkommet for ikke så længe siden - derfor og jeg tænkte det kunne være interessant for Jer læsere (samt mig selv), at se hvad Microsoft har fået indbygget af optimeringerne denne gang. Som bekendt virkede Windows XP ikke helt efter hensigten før SP2 udkom - og SP3 var sidste finpudsning og optimering. Og som vi alle ved rammer Windows 7 snart markedet, så det er tvivlsomt, om der kommer en SP3 til Windows Vista i den nærmeste fremtid.


Forbehold der skal tages i testsammenligningerne!:

Gigabyte GTX-295 kan ikke køre med DirectX 10.1-udvidelserne, da GTX-295 GPU'erne ikke understøtter dette; men denne er derimod i stand til at køre med PhysX teknologien NVIDIA er ene om at udbyde. Og med OpenGL 3.2, hvor AMD/ATI kører med OpenGL 3.1. Dette er medvirkende til, at Gigabyte GTX-295 scorer højt i 3Dmark Vantage, som understøtter PhysX.



Her er et sæt grafer over hvordan HiS HD5970 2GB yder, set i sammenligning med 3 andre relevante referencekort i en række forskellige relevante benchmarks. På disse grafer betyder alle tallene, at jo højere resultat der er opnået, desto bedre ydeevne har kortet:

3Dmark Vantage:

Seneste benchmarker fra finske FutureMark 3Dmark Vantage - finnerne kan andet, end lave gode fiskeknive og woblere. Vantage er en ren DirectX10 benchmark, der ikke er bagudkompatibel med DirectX 9.0c. Derfor er Windows Vista eller Windows 7 eneste mulighed for afvikling af testen. Vantage er flot, at se på, men samtidigt også ekstremt hårdt mod grafikkortene. Stilen er ændret lidt en mere cartoon-agtig type - hvorfor vides ikke. Jeg foretrækker selv naturtro tests, som Call of Juarez.. Samtidigt kan jeg ikke se , hvorfor der er inkluderet CPU-tests, når det det drejer sig om, er grafiktestning. Hvorom alting er, lad os se hvordan kortet klarer sig i denne test:

 

 
Vi ser her, at HD5970 ligger helt i toppen af ALLE de testede kort med ekstremt flotte resultater. Selv Gigabyte GTX-295 render AMD/ATI fra med næsten syvmileskridt. At Gigabyte GTX-295 scorer så højt, som det gør i "HIGH"-deltesten skyldes udelukkende, at dette kan gennemføre 3Dmarks PhysX deltest. Denne teknologi understøtter AMD/ATI altså ikke. Skal vi sammenligne AMD/ATI's HD5970 med de 3 andre referencekort så vinder HD5970'eren suverænt denne test.
 
Stalker:Call of Pripyat:
Stalker:COP benchmark er et DirectX 11 benchmarktool fra GSC Game World i Kiev, Rusland. Firmaet står bag STALKER:Shadow of Chernobyl, STALKER:Clear Sky og STALKER Call of Pripyat. Denne benchmark er baseret på sidstnævnte og presser gennem 4 deltests grafikkortenes evner til det yderste. De 4 deltests består af en test, hvor grafikmotoren kører om dagen, en om natten, en i uvejr med regn og torden og mange reflektioner i materialer og en i høj solskin. Dette sikrer, at grafiktesten bliver yderst omfattende, da alle kortets evner testes igennem. Da testen kører under alle de forhold man vil møde i et spil, man spillede synes jeg det er en af de mest retvisende grafiktests der findes pt. I denne test er højere FPS bedre, end lavere. I kan se resultaterne af denne deltest herunder - dog har jeg kun indsat resultaterne fra testen kørt i Ultra Mode. Dog er medtaget de små grafer for hhv. opløsningerne 1920x1200 og 1680x1050, all settings = max (hvilket AMD anbefaler i deres testvejledning). Testene er dog også kørt med og uden MSAAx4 slået til. I kommer desværre til, at se på lidt mange billeder, da jeg simpelthen ikke har nået, at lægge alle resultaterne sammen i en kæmpegraf endnu - beklager meget. Vi lægger ud med det største først:

1920x1200, MSAAx4:
1920x1200:

1680x1050, MSAAx4:
1680x1050:
 

For lige at perspektivere sagen er her graferne for Gigabyte GTX-295 1.792, DirectX 10.0 modus, til sammenligning:
1920x1200, MSAAx4:
 
1680x1050, MSAAx4:
  
 
For en god ordens skyld tager vi lige også to grafer for HiS HD5870 1GB:
1920x1200, MSAAx4:
  
1680x1050, MSAAx4:
 
Og her ser vi igen kun én ting - og det er at AMD/ATI giver baghjul til GTX-295 og HD5870. Dog ikke så meget til HD5870, som det gør det til GTX-295. For 25 FPS i DX 10 modus er jo direkte ynkeligt - for at at sige det mildt - også selvom der er benyttes setting MSAAx4 og "For A-tested objects"... Jaja - STALKER-serien af benchmarks er åbenbart stadigvæk ikke NVIDIA's kop te.
 
Unreal Tournament 3 Benchmark tool:
Der er ikke så meget, at sige om UT3-testen. Jeg har valgt UT3 fordi den fra starten af blev bygget optimeret til DirectX 10.0. Med patch er der support for DirectX 10.1. Og denne test er udvalgt fra benchmarkportfoliet fordi rigtigt mange spil der bruges i dag og som stadig frigives, er baserede på netop UT3's grafiske motor. Der er testet med manuelle settings til absolut højeste kvalitetsindstillinger. Vi får høje tal, da spillets grafiske elementer ikke længere er hypermoderne. Men ingen siger vi skal svælge i små tal fra ekstremtests hele tiden, vel? :) Og i netop denne test kan vi se, at det er meget tæt løb mellem alle kortene.
 

 
Graferne her giver lidt stof til eftertanke. For vi kan her se, at HiS HD5970 ikke løber fra Gigabyte GTX-295, men ligger lidt under HiS HD5870 - selvom dette har 1GB større framebuffer og to GPU'er, mod HiS HD5870's ene GPU og ene GB RAM. Forskelsmæssigt ligger HD5870 derfor procentvis en lille smule over HD5970 i to deltests. Men dette skyldes helt sikkert, at driveren benyttet er en betaversion. 
  
Devil May Cry 4 - Scene 4:

Devil May Cry 4 er et spil der brillerer, ved at findes til både PS3, Xbox360 og PC. Spillet er  i sig selv meget flot lavet grafisk, selvom det er flere år gammelt. PC-versionen udkom i midten af 2008 og er grafisk forbedret i forhold til konsoludgaverne. Grunden til jeg har valgt DMC-4 er fordi den dels findes i en automatisk benchmarker og dels fordi den stadig formår, at presse kortene til det yderste. Samtidigt kan den køre både DirectX 9.0c og DirectX 10, hvilket gør den til en benchmarker der sammen med UT-3 kan bruges på både Windows XP og Windows Vista. Før nogen spørger så er DMC-4 benchmarken opdelt i 4 scener der gennemspilles på PC'en over ca. 15 minutter. Herefter gives en FPS-resultat per scene og en rank, da DMC-4 opererer med sjove ranks. For eksempel hedder den højeste rank "S - Battle foes with Smokin' Sick Style". Det er måske meget sjovt, men lidt for "porno" til mig. Jeg har derfor kun udvalgt Scene 4, der er den grafisk mest krævende og indsat resultaterne i grafen nedenfor.
 
 
 
Og her ser vi så noget rigtigt interessant igen - her spæner AMD/ATI HD5970 fuldstændigt fra alle de andre testede kort - og det helt vildt endda. Med den driver der var til rådighed på testtidspunktet kunne det ikke lade sig gøre, at køre den aldrende DMC-4 test i 1600x1200 på HiS HD5870. AMD/ATI HD5970 vandt UT3-testen suverænt - men den vinder også DMC-testen med voldsomme resultater. Dette kan undre, da netop UT-3 grafikmotoren ikke just er optimeret til den topmoderne hardware der sidder på AMD/ATI HD5970.

FurMark 1.7.0:


FurMark er en meget brugt benchmarker på flere forskellige testsider - og det med god grund. For FurMark indeholder både en benchmarker, samt en burn-in/stability testfunktion. Den kan endvidere tage screenshots undervejs ved at trykke på F9, hvilket er meget praktisk. Samtidigt skriver den løbende en temperaturgraf over GPU'ens varmetilstand og det er endnu et plus ved, at benytte denne test. Ydermere er det min testsuites eneste OpenGL-benchmark og derfor den eneste der siger noget om, hvor godt producenterne har integreret OpenGL optimeringer i GPU'erne. Og dette er vigtigt, at vide for dem der kører Linux, eller anden Unix eller har brug for at rendere OpenGL professionelt i applikationer, hvor selve renderingen smides ned på GPU'en. Oveni så er FurMark klart den benchmarker der brænder grafikkortet allervarmest hurtigst muligt. Og det er også en fordel, når man skal finde et grafikkorts præcise smertegrænser for overclockning. Desuden er FurMark en OpenGL 3.2 benchmark og da GTX-295 kan køre OpenGL 3.2, mens AMD/ATI-kortene kan køre OpenGL 3.1 er denne test valgt udfra det parameter for, at kunne give en retvisende og valid sammenligning. Dette er også gjort udfra, at da jeg testede HD5870 -i sin tid - med FurMark 1.6.5 gav den på FPS præcis samme resultat, som i version 1.7.0 hvilket overraskede mig meget. Normalt plejer AMD/ATI at tabe OpenGL-testene kraftigt til NVIDIA. Men noget tyder på, at AMD/ATI's ingeniører har været på overarbejde mht. OpenGL-sektionen i denne GPU. 

Vi kan her kun hæfte os ved én enkelt ting iflg. nedestående graf  - og det er, at i OpenGL-testen der vinder AMD/ATI HD5970 igen over Gigabyte GTX-295 og HiS HD5870. AMD/ATI-kortene er simpelthen blevet voldsomt forbedret på OpenGL-siden i forhold til 4000-serien. Da dette er testens eneste OpenGL benchmark har vi desværre intet andet, at sammenligne med. Men jeg finder stadig FurMark kommer til sin ret i denne test. Den finder i hvertfald ret hurtigt smertegrænserne for kortets overclockningsevner og har før vist den tydelige forskel der var imellem AMD/ATI og NVIDIA indenfor rendering af OpenGL. Her er HD5970 foran med hele 115% større ydelse i OpenGL, end GTX-295! (beregnet udfra max. værdien).
 
 
 
 
Call of Juarez: 
Call of Juarez er et af de få spil der er skrevet til direkte, at udnytte flere CPU-kerner end to. Jeg har brugt Call of Juarez benchmarker tool, 64-bit udgave, sat til maksimum DirectX 10 settings, 1680x1050, Shadowmap 2048x2048, Shadows High, SSAAx4, Sound On.
 
 
 
Og her ser vi en DirectX 10 test hvor AMD/ATI HD5970 ligger suverænt i toppen i både max. FPS, Average FPS og min. FPS scoren. Her kommer AMD/ATI HD5970 endnu engang fuldstændigt til sin ret og outperformer både Gigabyte GTX-295 og lillebroren HiS HD5870. Igen et meget flot resultat for AMD/ATI HD5970. Her ligger AMD/ATI HD5970 96,35% over GTX-295 og 64,27% over det mindre HD5870! Her kunne det have været rigtigt interessant, at have prøvet et HD5870 med 2GB RAM til sammenligning - men et sådant er ikke produceret endnu.

World of Warcraft: Wrath of The Lich King:

World of Warcraft IRL-gaming testforklaring:
 
VSYNC-mulighederne i WoW har alle været slået fra. Og der er målt frames med WoW’s indbyggede framemeter. Disse er noteret og ud fra dette er der lavet et gennemsnit. Målingerne er foretaget sent om aftenen/natten, hvor der er færrest på serveren til, at belaste grafikken og netforbindelsen til serveren. Arathor Realm server er brugt til testen. Characteren benyttet er en LVL 80 fuldt episk udstyret resto/balance druide der har ”Epic Fly Form”, samt episk ridetiger. Alle tests er udført i Northrend, med settings sat til ULTRA MODE, alle effekter slået til og sat til maksimum muligt og benyttende max. camera distance macro/addon, samt zoomet helt ud til maksimum. Dailyquest brugt er ”Defending Wyrmrest Temple”. Der er blevet trukket 1-2 Azure Dragons og 2-3 Azure Drakes i Wyrmrest Temple questen. WoW er blevet medtaget i testen, da det er verdens mest spillede spil - udover Sims 3 - og da det efter sidste udvidelsespakke kan trække tænder ud på selv de største grafikkort.  
 
 
Og igen ser vi, at AMD HD5970 er med helt oppe i front og igen overgår både Gigabyte GTX-295 og HiS HD5870 - og det endnu engang med voldsomme resultater. Her er forskellen mellem Gigabyte GTX-295 og AMD/ATI HD5970 44,03%. Jeg oplevede kortvarigt et FPS-peak i WoW Wyrmrest daily på hele 151.5 FPS. Forskellen mellem HiS HD5870 og AMD/ATi Hd5970 er på 38,93% i WoW-testen.
 
Unigine Heaven benhcmark 1.0:

Unigine Heaven er en benchmark der skrevet specielt til, at udnytte DX-11, men som også kan bruges til både DX10 og OpenGL. Men da der var driverfejl med denne tests under OpenGL på både NVIDIA GTX-295 og AMD/ATi HD5970 er denne del af testen udeladt. Testen er kørt i 1920x1200 og 1680x1050 og med lyden slået tilHer kan I se, hvordan det spandt af med denne test:
 
 
Som I sikkert kan regne ud, så er Heaven-testen kørt i DirectX 10 modus for Gigabyte GTX-295. Derfor skal man tage dettes store resultat med et stort gran salt, sammenlignet med, at AMD/ATI-kortene alle er kørt med DirectX 11 og Tesselation slået til. Vi kan dog uden problemer se, at AMD/ATI HD5970 vinder denne test kørt i 1920x1200. Forskellen mellem HD5870 og HD5970 er i denne omgang på 57,29%. I 1680x1050 kan vi se, at GTX-295 virkelig lægger fra land i DirectX 10. Så kører man intet der bruger DirectX-11 kunne man købe et GTX-295, der dog bruger væsentligt mere strøm, end AMD's HD5000'ere. Samtidigt er prisforskellen på få hundrede kroner, så det vil jeg dog absolut fraråde.
 

Overclockin

 

Kortet overclocker UDEN problemer og det i helt ekstrem grad endda!  Der optrådte ingen grafikfejl under OC-testen af kortet og benchmarkene gik heller ikke ned. Og resultaterne af OC af kortet, taler da også for sig selv. Man får helt ekstrem aldrig set før OC-potentiale med AMD/ATI HD5970. Dog holder kortet ret høje temperaturer og larmer -undskyld udtrykket-  ad helvede til med blæseren sat til 100%. Men alt i alt er kortet exeptionelt godt lavet af AMD/ATI's ingeniører når man ser på, at køleløsningen er indsluttet i en stor kasse der dækker hele kortet til og kun er åben i bund, front og top. Jeg opnåede stabilitet på systemet i over 45 minutter - men med den helt store larm til følge. Og vi snakker ikke håndstøvsugerlarm denne gang - vi snakker støvsuger...

Overclockningtesten blev gennemført således:
Tool brugt: AMD/ATI Catalyst Control Center, version beta 5 til AMD/ATI HD5970 Hemlock og ATI OverVolt Tool:


  
  
Overclocket fra og til:
 
GPU: fra 725 MHz til 935 Mhz.
RAM: fra 1000 MHz til 1275 MHz
Temperatur: 89 grader celsius
 
Som det tydeligt fremgår af min stabilitetstets med FurMark 1.7.0 så kører HiS HD5970 ved ret høje temperaturer under OC-testen. Smertegrænsen for dette kort lå præcis på det jeg har testet op til, i denne testmaskine.

Dog vil jeg gerne anføre, at jeg nåede helt op på 945 MHz på GPU'en og 1299 MHz på RAM, hvor FurMark 1.7.0 kørte stabilt i 10 minutter der normalt er mine/vore kriterier for stabil drift. Dette gav dog ikke bedre resultater i FurMark, end kørt på 935/1275 og resulterede bagefter i en ustabil maskine der måtte hard-resettes til sidst. Men testen gennemførte uden problemer skal det dog nævnes - og det er notérbart, da det er største OC jeg nogensinde har opnået i nogen test uden crash/driver reset/hard reset.  
 
Altså opnåede jeg en effektiv, stabil overclockning af GPU på 210 MHz og RAM på 275 MHz, der omregnet til procenter bliver til helt uhørt fantastiske +28,96
% på GPU og +27,5% på RAM.
 
Og det synes jeg er et voldsomt flot resultat på et referencekort. Absolut brugbart i "produktion"/real life gaming/OC-ing. Dette finder jeg, da kortet trods ret høje temperaturer kører stabilt og uden problemer. Jeg vil konkludere, at ethvert produkt der med referencekøler kan klare FurMark "torturtesten" er ganske godt designet i mindst 10 minutter med et sådant voldsomt overclock der ligger betydeligt over de 25% AMD/ATI lover for dette kort er fænomenalt godt præsteret.  Alt i alt crashede maskinen eller driveren ikke. Derved vil jeg konstatere overclockningen stabil. 
Man skal dog overvolte kortet med AMD/ATI's ATI OverVolt tool, da kortet ellers slet ikke får strøm nok og så vil crashe enten driveren, eller hele maskinen med et megabrag ved højere frekvenser, end 820 på GPU og 1200 på RAM. Jeg vil derfor voldsomt meget gøre opmærksom på, at dette kort er specialdesignet med henblik på overvoltning og toolet er da også lavet af AMD/ATi's ingeniører til denne opgave. Af samme grund har kortet helt nydesignede strømkredsløb og overspændingsbeskyttelse via hardwaremonitorering af spændinger, frekvenser og strømforbrug, via kredsløb fra Texas Instruments og håndplukkede komponenter over hele kortets PCB.
   
Temperaturen under Furmark test OC'ed lå på mellem 88 og 89 grader på GPU'en.
 
OC-test konklusion: 
 

OC-resultater for 3DMark Vantage: X11684 points - 381 mere end std. clock
OC-resultater for Call of Juarez: 98,5 -  7 FPS mere, end fabriksclocket
OC-resultater for Furmark: 95 - 9 FPS mere, end fabriksclocket

 
  
Strømforbrug:

Strømforbrugsmæssigt bruger hele testmaskinen 176-184 Watt idle i Windows, "High Performance" og 310-330 Watt under belastning i benchmarks og IRL-gaming.
 
 
  
 
Strømforbruget under OC af kortet, ligger for hele testmaskinen på det samme idle i Windows, og på 410-450 watt under belastning i benchmarks og IRL-gaming - overcloked vel at mærke. I alt meget acceptabelt strømforbrug i forhold til kortets ydelse, din el-regning og den globale miljøsituation. NON-OC kører kortet under belastning ved meget acceptable 147/180 idle i Windows og 250/330 under belastning. 147 watt er for hele maskinen, med power save aktiveret i Windows Vista.

AMD HD5970 sparer din el-måler fra, at løbe alt for løbsk i fremtiden i idle tilstand. Og du kan have god samvittighed med miljøfaktorerne, da dette kort clocker sig selv ned, uden for belastning og kan indstilles til, at være endog meget besparende for et super high end gamer grafikkort. I øvrigt er det pt. verdens højest ydende grafikkort, selvom dette kun bruger 47 watt idle, i Windows. Meget imponerende må man sige. OC'er du dog kortet eller på maksimum bør du overveje, om du kan nøjes med mindre, da kortet ved denne brug sluger voldsomt meget strøm. Dog ved normal clockning holder dettte sig stadig langt under NVIDIA's GTX-295.

Andet:

Drivere og kontrolpanel er klippestabile og giver ikke anledning til nogle bemærkninger overhovedet. ATI OverVolt-toolet til OC af kortet er barnetnemt - der er kun to indstillinger - overvoltet, eller ikke. Man skal dog, som Linux- eller Unixbruger bemærke at vi ikke endnu har OpenGL-testet HD5970 under Linux. Så pt, kan vi ikke sige, om driverne giver samme gode ydelse under Linux, som under Windows Vista, eller Windows 7.
 
Da vi nu er ved vejs ende, går vi derfor til videre til "Konklusion/UK Summary" ...
(FIH)
 
Elitebruger
Tilføjet:
03-12-2009 08:30:06
Svar/Indlæg:
2687/71
fin test og et lækkert kort..

dog undrer det mig at der ikke er blevet brugt win7 i andet end med heaven test

battleforge og dirt 2 demo som evt test?

dog ikke et kort jeg ville gå ud og bruge penge på pt, ikke før det falder en god 1000 kr i pris.

og syntes det er latterligt at i usa koster det 3k ca og det koster 1000 kr mere herhjemme, det er helt fucked efter min mening.

udover det så virker det ikke nær så voldsomt som det er blevet hyped til? eller er det bare mig?

og det "volsomme" oc giver jo heller ikke det vilde mer ydelser?






vanovich
 
Elitebruger
Tilføjet:
03-12-2009 08:37:41
Svar/Indlæg:
3972/242
#1 For at mærk om oc giver noget, skal der alstå cpu krafter til.


(FIH)
 
Elitebruger
Tilføjet:
03-12-2009 08:39:01
Svar/Indlæg:
2687/71
#2 det kom jeg også i tanke om efter jeg havde skrevet det.

du mener noget vildt ala en godt oc'et i7?


Gripen90
 
Senior Skribent
Tilføjet:
03-12-2009 08:44:05
Svar/Indlæg:
15982/637
Eller bare smaske en høj nok opløsning på 2560x1200 og fyre op for 16xFSAA/16xAF - mindre ville være spild med sådan et kort - eller for den sags skyld bare med 2x HD5850.
Glæder mig til at få mit op og køre med Ci5 750 2.66GHz'ern.

Overclocking er en sport ikke en nødvendighed 🙂


Svaret blev redigeret 1 gang, sidst af Gripen90 d. 03-12-2009 08:45:21.


Storm
 
Overclocker
Tilføjet:
03-12-2009 08:45:55
Svar/Indlæg:
62/5
Hej,

Lækker test og pisse snyd det er dig der får lov at teste disse kort.

Kan du ikke skrive Grafik scoren til 3Dmark Vantage i stedet for den samlede score. Det er svært at se hvad det kan det kort når man med et i7 system får omkring 5000 mere med et enkelt HD5870. Så tror jeg der et lettere at sammenligne for alle uafhængig af CPU konfiguration.


OdysseDK
 
Superbruger
Tilføjet:
03-12-2009 09:23:25
Svar/Indlæg:
1313/83
Når man har læst denne test, kan jeg ikke lade være med at tænke, at du selv hælder mest til ATI kort! Ikke dermed sagt at du er fanboy, men du er liiiiidt for ATI partisk i mine øjne. Selv, ja der er jeg nok Nvidia tilhænger, men jeg synes bare ikke at du giver nok credit til Nvidia kortene. Desuden er hovedparten af dit sammenligningsgrundlag jo ATI kort! Havde i ikke andre Nvidia kort at holde op imod. Og så er dit GTX295 ikke et Single PCB?? det er vel næsten det der skal sammenlignes med, er det ikke?

Og til sidst, hvorfor er der ikke testet i de mega aktuelle spil som COD MW2 og Left4Dead 2 ?

Ellers god test, men med lidt ris 🙂


Reverb
 
Superbruger
Tilføjet:
03-12-2009 10:28:11
Svar/Indlæg:
454/68
Øhm altså. HD5700/5800 serien understøtter OpenGL 3.2
Vi venter bare på driveren til 3.2 kommer.

http://www.amd.com/us/products...


Svaret blev redigeret 2 gange, sidst af Reverb d. 03-12-2009 10:33:29.


Clintin
 
Superbruger
Tilføjet:
03-12-2009 11:25:37
Svar/Indlæg:
1317/46
#6 ATI har leveret de bedste produkter i meget lang tid nu(især pga. prisen), faktisk siden de kom med 4850/4870, den eneste forskel er at de nu også er hurtigst. Hvis jeg skulle have et nyt kort i morgen, så ville jeg enten gå efter et 5850 eller et 5870.

#4 og mellem linjerne skriver deu vel også at et 5970 kun giver mening hvis man har en skærm der kan tage de opløsninger og en computer som på de andre punkter er tæt på topklasse.


tom81
 
Elitebruger
Tilføjet:
03-12-2009 12:24:14
Svar/Indlæg:
20170/383
#6

Kan kun være enig med dig, synes også der mangler lidt nyere spil til tests. 3 af spillene er fra forrige århundrede - sådan ca. Nu er du jo inkarneret Nvidia fanboy 😛 , men er nu også enig i at der godt kunne bruges lidt flere kort til sammenligning fra nvidia 🙂


Vest-AALB-DK
 
Superbruger
Tilføjet:
03-12-2009 13:09:06
Svar/Indlæg:
247/2
must have 2


WinterSilence
 
Overclocker
Tilføjet:
03-12-2009 13:37:06
Svar/Indlæg:
499/175
#7 OpenGL er programmerbart via driveren og ikke via hardwaren "fused in silicon", som DirectX er det. Derfor skriver jeg som det er, at kortet ikke støtter dette - endnu. Win Vista er brugt, da mine referenceresulater er derfra - de blev lavet før Win 7 udkom. De nævnte spil har jeg desværre ikke haft til rådighed - når de kommer som selvstændige benchmarks så overvejer vi selvfølgelig, at benytte dem. Da jeg bruger hele to DirectX tests, så synes jeg udemærket belyser kortets evner inden for DX11, med disse to tests, der er vidt forskellige. Og slutteligt så var der et par ting der ikke ville køre, eller ikke kørte optimalt på Win 7 af de test der bruges.

Grafikscoren jeg ikke nævnte kommer hér, da den er lidt irrelevant for dette testsetup. Det forholder sig således hér:

3DM Vantage Extreme:

X11303 GPU: 11367 CPU: 10217 - altså 64 points mere, end selve hovedscoren.


Svaret blev redigeret 1 gang, sidst af WinterSilence d. 03-12-2009 15:57:44.


ShArX
 
Superbruger
Tilføjet:
03-12-2009 13:44:40
Svar/Indlæg:
664/68
tak for et fint review Winter 🙂

dog er der noget der skærer lidt i hjernen når jeg læser; du skriver :

på siden software:

Og ATI OverVolt ER STÆRKT nødvendigt - for benytter man det IKKE, så crasher driver, kort og evt. hele maskinen med et enormt brag, hvis man overclocker kortet 100 MHz over normalen - og det med et kæmpe brag

på siden test & overclocking skriver du så :
Kortet overclocker UDEN problemer og det i helt ekstrem grad endda!

der kunne jeg godt have tænkt mig en henvisning til, at den ekstreme OC-grad kun kunne opnås ved hjælp af en spændingsforøgelse.

ellers et fint stykke arbejde 😉


WinterSilence
 
Overclocker
Tilføjet:
03-12-2009 15:55:48
Svar/Indlæg:
499/175
#12:

Forglemmelse i OC-sektionen. Tak for det - har indsat følgende:

"Man skal dog overvolte kortet med AMD/ATI's ATI OverVolt tool, da kortet ellers slet ikke får strøm nok og så vil crashe enten driveren, eller hele maskinen med et megabrag ved højere frekvenser, end 820 på GPU og 1200 på RAM. Jeg vil derfor voldsomt meget gøre opmærksom på, at dette kort er specialdesignet med henblik på overvoltning og toolet er da også lavet af AMD/ATi's ingeniører til denne opgave. Af samme grund har kortet helt nydesignede strømkredsløb og overspændingsbeskyttelse via hardwaremonitorering af spændinger, frekvenser og strømforbrug, via kredsløb fra Texas Instruments og håndplukkede komponenter over hele kortets PCB."


Sdammads
 
Superbruger
Tilføjet:
03-12-2009 16:38:04
Svar/Indlæg:
1037/59
#0
Flot test, men jeg synes i skal begynde at lave flere benchmarks med de lidt mere krævende spil som f. eks. Crysis Warhead, MW2 mm. 🙂

Det giver ikke så meget mening at lave en WoW benchmark, da man ikke kan se kortets potentielle ydeevne. 🙂


MazdaMadsen
 
Moderator
Tilføjet:
03-12-2009 17:01:04
Svar/Indlæg:
5039/109
Synes godt du kunne have haft et 4870x2 med i testen, så man kunne se sidste generations topkort mod det nye. Slet ikke fordi jeg selv har et 😳


WinterSilence
 
Overclocker
Tilføjet:
03-12-2009 17:34:29
Svar/Indlæg:
499/175
Jeg har desværre ikke HD4870x2 i referencepoolen over kort til rådighed - beklager. Mht. spil der koster det ret meget og alle testere skal så have en kopi hver. Derfor foretrækker vi spil der her en fri benhcmarker til rådighed. Jeg kan pt. kun få Crysis Warhead i Crysis Maximum-pakken til 299,-/200,- DKK og det er jeg ikke parat til, at betlae for at teste grafikkort for "Jeres skyld", hvis I forstår hacvd jeg mener? 🙂 Firmaet bag Crysis skulle have forsat med, at lave de næste to versioner som selvstændigt benchmarktool nu de satte standarden for dette tidl. Grunden til jeg ikke bruger den gamle Crysis-benhcmarker er,a t den ofte går ned på Win Vista x64 SP2 - og det er herrebelastende som tester, at se en test gå ned i run 14 og crashe, da det tager mig ca. mellem 12-20 timer per kort kun, at benchmarke dem. OC-testen tager ca. 3-5 timer med fintuning og artikelen derpå mellem 3.5-8 timer, at skrive. derfor foretrækker jeg at bruge automatiske benchmarkers. Og jeg bander STALKER langt ind i helvede for, at den skal manuelt startes hver eneste gang, fremfor at kunne en batchliste, som den gamle Crysis kan det... Grunden til jeg har WoW med er, at jeg selv spiller det og er den eneste i DK der tester grafikkort med WoW og da det er verdens mest spillede spil, udover SIMS og CS så synes jeg det fotjener, at komme med - i øvrigt tager denne test kun meget kort tid at udføre (10 min maks).

Og rent faktisk så har jeg data liggende fra en CrossFire-test af HD4890 1GB, men problemet med, at bruge den er at den blev lavet langt før de nye benchmarks kom ud, som sætter standarden pt.


Svaret blev redigeret 2 gange, sidst af WinterSilence d. 03-12-2009 17:43:05.


rebslager
 
Overclocker
Tilføjet:
03-12-2009 19:10:11
Svar/Indlæg:
3/0
Uhhh. Jeg er kommet til at bestille et HD5970. Ikke fordi jeg skal overclocke det, for det har jeg ikke forstand på. Jeg ville sikkert brænde det af i forsøget, og så tror jeg ikke garantien dækker. Nej grunden er, at jeg alligevel skal have helt nu computer..... og så vil jeg gerne lave et TOTALT overkill denne her gang 🙂

Jeg er ret imponeret over dit arbejde Winter. Men jeg er jo heller ikke en "nørd"(I positiv mening), så jeg stiller ikke så mange krav. 😳


#18
phg
 
Elitebruger
Tilføjet:
03-12-2009 19:46:21
Svar/Indlæg:
1399/43
allerførst vil jeg sige at testen af grafikkortene er der ikke noget galt med.
Jeg vil som #6 også sige at jeg sad med samme følelse at at du bare "reklamerer for rød stue" det er den måde teksten er skrevet på samt at de spil du bruger til testen jo favoriserer ATI kort ,det kan man jo nemt læse ud af graferne.
ud fra andre test på nettet er der forskel på GTX 295 og 5970 men ikke så stor forskel som du vil gøre det til i denne test.


rebslager
 
Overclocker
Tilføjet:
03-12-2009 21:13:25
Svar/Indlæg:
3/0
#18

Interessant. Jeg er hverken ATI eller Nvidia fan. Jeg vælger det, som jeg selv mener er bedst, når jeg skal købe ny computer. Umiddelbart syntes jeg faktisk at i Nvidia "fans" spiller pigefornærmet. Det klæder jer ikke.

Jeg undrer mig over disse Nvidia fans udbrud. Især når jeg har kigget rundt på nettet, da GTX 295 blev udgivet. Der blev ATI fans hånet for at forsvare, at ATI var et bedre køb til pengene. Nu bliver en artikel mistænkeligt gjort fordi den "favoritiserer ATI kort". Er Nvidias "fans" nogle hyklere? Lidt ligesom MAC folket? Man anerkender ikke konkurrenten. Selv nogen af de Nvidia folk, der har testet kortene siger, at ATI er pænt foran for øjeblikket. For 1 år siden var det omvendt. Det kan det også være igen om bare 3-4 mdr. Skal vi så hører ATI folket klage også? Det her er sgu da ikke en strikkeklub med kvinde "øffen".... er det?

Nu har jeg begge hold i vennekredsen, og der er der ingen klager fra nogen af siderne. Hvorfor ikke bare glæde sig over et af firmaerne har skubbet til udviklingen igen?


Svaret blev redigeret 1 gang, sidst af rebslager d. 03-12-2009 21:14:01.


#20
phg
 
Elitebruger
Tilføjet:
03-12-2009 21:51:53
Svar/Indlæg:
1399/43
#19
uha nej jeg er ikke pigesur på nogen måde,syntes bare at når man laver en test skulle man gerne holde sig upartisk ,og jeg syntes denne test er gennemsyret med hvad parti testeren er på.
rigtigt jeg har nvidia kort og har haft rigtig mange af dem efterhånden,men jeg har altså også haft ATI kort.
men det er bare min mening ,folk er i sin gode ret til at være uenige med mig 🙂


Emillos
 
Overclocker
Tilføjet:
03-12-2009 22:02:08
Svar/Indlæg:
14079/622
->#20

Aha.

...for 3Dmark Vantage med PhysX, er ikke "favoriseret" af nVidia grafikkort.?
...for Devil May Cry 4, er ikke the-way-its-meant-to-be-played, altså nVidia-sponsoreret?

Det er en højest besynderlig konklusion, du drager, på baggrund af hvad? Det kunne være, at vi kunne blive klogere. Så fortæl fortæl, hvis du har noget at dele. :yes:


Faktum er, at der testes med de nyeste teknologier.
Hvis du mener, at DirectX 10,1 og DirectX 11, som er Microsoft-udviklede API'er uden direkte tilknytning til hverken nVidia/ATi, er en AMD/ATi-favorisering, er jeg stærkt uenig.
Hvad skulle vi teste i - Directx9, så alverdens grafikkortproducenter kan være med? 😲

Kigger man nøgternt på det, er testen faktisk nVidia-favoriseret, da PhysX er slået til i 3dmark Vantage; en teknologi der er nVidias egen, og som AMD/ATi derfor ikke har mulighed for, at benytte sig af. At nVidia pt. er hulens langsomme med API-understøttelse, er jo bare ærgeligt for dem.

Summa summarum er altså, at vi tester med de tilgængelige teknologier og features på kortene, med de benchmarks der nu engang benytter disse teknologier. 🙂

I øvrigt - konkrete forslag til benchmarks, er MEGET velkomne.


Svaret blev redigeret 1 gang, sidst af Emillos d. 03-12-2009 22:32:27.


#22
phg
 
Elitebruger
Tilføjet:
03-12-2009 22:38:41
Svar/Indlæg:
1399/43
#21
...for 3Dmark Vantage med PhysX, er ikke "favoriseret" af nVidia grafikkort.?
Hvorfor tester i så med phys-X når i sammenligner med ATI kort,det kan slås fra 😉

for Devil May Cry 4, er ikke the-way-its-meant-to-be-played, altså nVidia-sponsoreret

ja det er colinmcrae rally 05 også og det spil ydede bedst med ATI kort så den konklusion kan jeg ikke bruge til noget
og jeg kan ikke se min konklusion skulle være mere besynderlig end din,jeg mener testeren ikke er upartisk sådan som jeg læser testen og det har jeg ret til at mene.


lerbech
 
Superbruger
Tilføjet:
03-12-2009 22:39:01
Svar/Indlæg:
186/28
er det ikke ligefør at vi ændre vores opfattelse af en PC så et gfx kort ikke er et addon men hovedkomponenten for fuck det er stort, så kunne vi lave et pci-1 slot til en cpu og de andre nødvendige ting som en SSD og lidt ram, det ville samtidog gøre det muligt at få lavet en bedre køler som ikke larmer så meget. :yes:, og der er jo aldirg nogle der ved lov har bestemt at det er Cpu'en der er hovedkomponenten, det burde da være den chip med mest power der bestemte.


OdysseDK
 
Superbruger
Tilføjet:
03-12-2009 22:52:24
Svar/Indlæg:
1313/83
#21 Konkrete test af kortene må da være med de mest aktuelle og nyeste spil ! Og de mest krævende til disse store kort. Det siger næsten sig selv jo...

Og just for the record, så er jeg heller ikke pigesur på nogen måde. Ja, jeg holder mest af Nvidia kortene, men holder det som regel også for mig selv (Du skal ikke sige noget nu Tom81 😀 )
Men at jeg føler at testen er lidt partisk, har INTET med at gøre, at jeg ikke kan anerkende at ATI kort er hurtigere og bedre prisat. Det kunne jo være, at jeg ønskede en bredere test, med nyere spil og ligeligt fordelte kort.

Og grunden til at jeg hæftede mig ved det var, at der var flest ATI kort, og så at testeren også selv kører med ATI kort.

Tilfældigt, måske! Fakta, bestemt !

Og så lige til sidst....Det var IKKE for at fremhæve Nvidia fremfor ATI... Blot et juleønske om en mere lige test.

Nok om det, sov godt... og igen, god test, men med ris 🙂


Svaret blev redigeret 1 gang, sidst af OdysseDK d. 03-12-2009 22:55:45.


WinterSilence
 
Overclocker
Tilføjet:
04-12-2009 07:53:02
Svar/Indlæg:
499/175
Nu er det sådan at "testeren" der er "testeren" hér altid har brugt NVIDIA, bortset fra da han var spildemonstrator for spil på Linux under SSLUG og LinuxIn.dk og fik sponseret et ATI 9800 Pro fra Sapphire. Der viste ATI overlegenhed, med lidt mere stabile drivere, end NVIDIA. Senere har NVIDIA "rulet" AMD/ATi på Linux, efter jeg stoppede med dette i 2003.

Det jeg gengiver i mine artikler er den "rene sandhed", set udfra en teknisk uddannet grafikkorttesters synspunkt. Og det er derfor jeg som Emillos (min supervisor og chef) siger det, tester AMD/ATI med PPU/PhysX=On. For NVIDIA er foran med denne teknologi, hvor AMD/ATi støtter deres egen OpenCL.

Jeg tester et kort i alle de forbandede mange tests jeg kan finde og jeg udvælger ALENE som den der er testeren hér, min testsuite, i samarbejde med min supervisor Emillos.

Med denne testsuite der kører jeg alle de kort jeg tester gennem helvede og tortur på både OC og med benchmarks.

Faktum for mine tests resultater er følgende:

AMD/ATI HD5970 ruler/owner/overgår ALLE andre producenter pt. i OpenGL, DirectX 10 - og mest nødvendigt - DirectX 11.

For skal vi se fremad så må vi se på fakta. Og fakta er, at AMD/ATI pt. er ude med teknologi der langt overgår NVIDIA's.

Hvis ellers "I" gad, at se tilbage på mine tidligere tests/reviews/anmeldelser af NVIDIA-kort så ville I se,a t jeg netop har anført, bl.a. følgende citeret fra mine tests:

Palit GTX-275:

Kortets strømforbrug idle i Windows er særdeles acceptabelt. I 2-D-brug er forbruget ikke meget større end på eksempelvis det lille AMD/ATI Radeon HD 4770. Med 3 applikationer åbne og et Explorer-vindue sluger testsystemet omkring 173-200 watt totalt (her bruger det lille Radeon HD 4770 512MB 156-185 watt.). De grafiske hoved-API'er kortet understøtter, er som vanligt for helt nyere kort i denne klasse, Microsoft DirectX 10 og OpenGL 3.0. Da ingen grafikkort pt. understøtter DirectX 11 der kommer med Windows 7 og i Windows Vista's SP2, bør man overveje om man skal opgradere lige pt., eller vente til sidst på året. Talende imod en opgradering til DirectX 11 er det faktum, at ingen spil på markedet pt. understøtter DX11. Det der taler for en opgradering er, at der er mange spil under udvikling pt., som benytter DirectX 11.

Dog imponerer kortet rent overclocking-mæssigt - der er her ret meget at hente og jeg vil vurdere, at dette kort er noget for entusiasten der nyder, at overclocke og tweake sin hardware. Her lever Palit virkelig op til sit rygte, som en producent af højkvalitetsgrafikkort der er teknologisk overlegne. Overclocking og tweaking-mæssigt fungerer kortet virkelig glimrende! Der er derfor masser af tweaking, vandkøling/ekstremkøling og overclocking-potentiale, at hente i Palit GTX-275 896. Her er kortet lige noget for "tweakeren". Ydelsesmæssigt fungerer kortet helt upåklageligt i spil. Jeg har testet kortet med flere forskellige typer spil - gamle som nye - af alle slags og typer. Og der er intet at udsætte på Palit GTX-275 896 under IRL-spilning. Kortet yder fremragende til prisen og leverer stabile framerates og rigtig meget "bang-for-the-buck". Kortets ydelse set i forhold til dettes pris må siges, at stå helt rimeligt i forhold til hinanden.


Gigabyte GTX-285:

Gigabyte GTX-285 er et kort der indfrier ens forventninger til ydelse og brillierer indenfor overclockning og strømforbrug idle, i Windows Vista. Kortet overclocker uden problemer ved brug af NVIDIA's referencedriver helt op til 14.66%. Og det er ganske meget OC, at kunne udføre på et standard referencekort. Ydelsen ligger over AMD/ATI's produkter i visse tests, men i en hel del tests er ydelsen ca. det samme, hvilket er værd at notere sig, set i lyset af prisforkellen på GTX-285 1 GB og Radeon HD 4890 1GB, der er på næsten 1.000,- DKK. Har man brug for PhysX, godt OC-potentiale eller stærk OpenGL ydelse (dog kun i version 2.1 hos NVIDIA) er dette kortet man bør købe.

Gigabyte GTX-285 1 GB koster pt. 2.485,- DKK. Man kan få en version med to gigabyte RAM på for 2.962,- DKK, hvilket er en merpris på sølle 477,- DKK. Derfor får kortet kun 3 i pris, da den større model må siges, at være absolut mere fordelagtig til prisen. I øvrigt kan man få et AMD/ATI-grafikkort med næsten samme ydelse for ca. 1.000,- DKK mindre. Så har man ikke brug for NVIDIA's specifikke funktioner, bør man overveje, om man skal vente på næste generation fra NVIDIA, eller købe et AMD/ATi-baseret grafikkort. Til gengæld sparer man mere strøm, idle med power save i Windows Vista og Windows 7, end man gør med AMD/ATi's HD 4890 GPU. Til sammenligning koster Zotac GTX-285 AMP! Edition 1 GB der er fabriksoverclocket 5,- DKK mindre, end Gigabyte GTX-285, hvor der er spil og 3DMark Vantage med. Men med det flotte OC-potentiale i Gigabyte GTX-285, er det måske lige kortet for dig.


Gigabyte GTX-295:

Gigabyte GTX-295 er et kort der til fulde indfrier ens forventninger til ydelse og har et stort potentiale indenfor overclockning. Kortet overclocker uden problemer ved brug af NVIDIA's referencedriver og tools helt op til 16.5% i merydelse på GPU'en. Og det er ganske meget OC, at kunne udføre på et dobbelt-GPU grafikkort lavet på referencedesign. Ydelsen ligger langt over AMD/ATI's produkter i flere af vore tests. Men alt godt kommer ikke uden en omkostning. Og her skal man notere sig, at Gigabyte GTX-295 1.792 MB koster en hel del. Men det er værd at notere sig prisforskellen på GTX-285 1 GB og Radeon HD 4890 1GB, der er på ca. 2.000,- DKK. Ønsker man, at bruge voldsom PhysX, samt investere i et godt OC-potentiale og har behov for stærk OpenGL-ydelse (der særligt gør sig gældende på Linux eller BSD) bør man helt klart købe sig et Gigabytes GTX-295, da det hos os har vist et meget flot potentiale og virkelig god brugsværdi - og særligt excellerer indenfor OpenGL.

Gigabyte GTX-295 1 GB koster som sagt en hel del, sådan som markedet er pt. Men man får hvad man betaler for - rå og brutal ydelse, uden kompromisser. Kortet viser flot potentiale indenfor DirectX og særligt OpenGL, samt OC-området. Da AMD's nye serie lige er landet, er det dog klart, at kortet ikke er det bedste pris/ydelsesmæssigt. Men GTX295 ser fortsat ud til, at være lidt i front - og så er HD5870 fortsat svært at få fat på.

Så gå liiige hjem og "dæk" folkens, dér tak med de fanbooiii postulater I kommer med - og læs og forhold Jer til testens udførelse, som den rent teknisk er - og her lyver hardware jo ikke - eller gør det?... 😉

Faktum er, at jeg har testet 7 AMD/ATi grafikkort siden jeg startede på HwT.dk og 3 NVIDIA kort. Og hvorfor 7 AMD/ATi og 3 NVIDIA? Simpelthen fordi NVIDIA IKKE har noget nyt på tapetet pt. De støtter end ikke DirectX 10.1, som AMD har gjort længe, siden HD4000-serien. Men STADIG kører jeg end på DE ALLERNYSTE KORT FRA NVIDIA AF DirectX 10-tests for at sammenligne med AMD/ATI.

Og for at "pisse" på NVIDIA's helt store "kronjuvel" - OpenGL - så kører jeg sgu også de samme OpenGL-tests på AMD/ATI-kortene.

Ret citeret fra MSI AMD/ATI HD4890-artiklen:

Vi kan her kun hæfte os ved én enkelt ting - og det er, at i OpenGL-testen får alle AMD/ATI-kortene fuldstændigt baghjul af det NVIDIA-baserede Zotac GTX-285 AMP!. Og det i voldsom grad endda. Dette kan selvfølgelig, som altid, have en del at gøre med drivere og pågældende benchmark benyttet. Jeg konkluderer, at dette kan have haft en vis indspil i denne test. Da det er testens eneste OpenGL benchmark har vi desværre intet, at sammenligne med. Men jeg finder stadig FurMark kommer til sin ret i denne test. Den fandt i hvertfald ret hurtigt smertegrænserne for kortets overclockningsevner.

Vi ser her, at MSI R4890 ligger i toppen af AMD/ATi-kortene med meget flotte resultater - men er langt fra Zotac GTX-285 AMP! Bare i Entry-testen er der hele 20.000 points til forskel. Men dette skyldes alene, at Zotac GTX-285 kan gennemføre 3Dmarks PhysX deltest. Og denne teknologi understøtter AMD/ATI altså ikke (endnu).

Så hvem dér er det lige der vil påstå, at jeg som specialtester af grafikkort ikke er journalistisk uafhængig? Fordi dem af jer - som jeg kan høre/læse det - ikke kan komme Jer over, at AMD/ATi for en gangs skyld ligger helt oppe i front og siger "baghjul" til NVIDIA skal vel for helvede ikke være ensbetydende med, at jeg er AMD/ATi fanboooiii???, eller hvad?

For så havde jeg NOK IKKE SIDDET HER badet i min røvsved og bedt Steen -The Boss-, om at sende mig ALLE NVIDIA-kortene til GENTEST til refernce med de HEAVEN og STALKER:COp DX 11 så det kunne komme med i min baseline for grafikkortestene, vel?

Det tager ca. 20 timers koncetretet arbejde, at OC og benhcmarkteste bare ET grafikkort.

og tror I selv jeg gad sidde her og voldteste hele lortet, imellem mine deadlines og releasedatoer på NVIDIA HVIS IKKE det var fordi jeg RESERVERER MIG min uforbeholdne JOURNALISTISKE FRIHED til, at skrive følgende:

X kort fra Y producent scorer "røv" i forhold til Z producents model af X's nye GPU.

Og da jeg er helt ubetalt, frivillig tester så er der absolut INGEN grund til, at tro jeg fucker med konklusioner eller benchmarkers for den sags skyld for de lyver ikke, fordi jeg har et forbehold for en given producent.

Jeg glæder mig rent faktisk til, at få et Fermikort fra NVIDIA af når de releaser dette så jeg kan "rape" det of hoved og røv og så fortælle JER LÆSERE, hvad der skubber mest i front pt. - AMD/ATi eller NVIDIA.

For personligt er jeg dybt ligeglad. Den mest effektive, højstydende og evt. miljømæssigt korrekte teknologi er den der for mig er den anden konkurrents overlegen. Om denne så hedder NVIDIA, AMT/ATI eller YffenGnyf GPU Technologies er jeg dybt ligeglad med.

Jeg formidler til Jer af egen vilje og hjerte de korrekte fakta for de kort jeg tester - uanset disses labels/navne/mærker/producenter. Og hvis ikke jeg ville oprigtigt gøre dette, så havde jeg sgu nok ikke brugt så faens meget tid, på re.baseline af NVIDIA på Heaven og STALKER:COP, vel?

Her er svaret meget enkelt - pt. "ruler" AMD/ATI over NVIDIA - og jeg håber og ser frem til, at NVIDIA snart kommer frem med deres nye teknologi - for som mig at se som tester, så drejer det sig, om at have et valg. Og pt. er der INTET andet valg, end AMD/ATI og derved ingen konkurrence. Og med ingen konkurrence så ved VI ikke som forbrugere, hvad der er bedst, eller får tilbudt de bedste og nyeste og BILLIGSTE teknologier til OS som brugere...

WinterSilence out...



Svaret blev redigeret 1 gang, sidst af WinterSilence d. 04-12-2009 07:58:49.


scheea2000
 
Superbruger
Tilføjet:
04-12-2009 08:07:06
Svar/Indlæg:
818/58
Jeg er også spændt på hvad det er for nogle NV kort folk savner, at der bliver testet op i mod? 😕

WS kunne vel ikke udelade: 5870 eller 5850 i testen, og 295 er et absolut must, da det er topkortet. Er der andet der er interessant i en artikel, hvor ATI's dual GPU kort bliver testet?

Alle (der savner flere NV kort) ved jo hvordan 285 osv. yder i forhold til 295?

Jeg synes at WS har valgt de helt rigtige kort at medtage i testen for at give et øjebliksbillede af high-end grafikkortene i de 'to lejre'. Flere kort vil kun forplumre graferne og give hovedpine til testeren, som skal lave endnu mere arbejde.



Svaret blev redigeret 1 gang, sidst af scheea2000 d. 04-12-2009 08:08:21.


Drunken
 
Elitebruger
Tilføjet:
04-12-2009 08:24:08
Svar/Indlæg:
1107/258
0#

syntes det var en enorm flot test, dækkede mange områder 🙂 specielt med strømforbrug er jeg glad for. det koster jo faens meget på et år hvis man ikke er opmærksom hAHA 🙂 Fik en ekstra bong på 6000kr til dong energi. satans ps3 ^^ og gamle stationære pc!
anyway
men helt sikkert 5\5 point 🙂 i min verden. og fatter ikke at nvidia drengene opfører sig sådan, i må da indse at det er en god test om så jeres "favor card" er slået. det er jo kun godt for os allesammen at der er så tæt løb på ydelsen, så knokler de røven ud af bukserne for at slå konkurrenterne 🙂

me like competition. me hate fan boys, hehe

og bliv endelig ved med at lave disse test. kanon lækkert. og hva faen gør det at du ikke har alle spil med. har jo stadig et godt overblik, forståeligt at du ikke gider spendere egne penge på at tilfredsstille en flok unknown nørder 🙂


Gripen90
 
Senior Skribent
Tilføjet:
04-12-2009 08:59:23
Svar/Indlæg:
15982/637
Hold kæft hvor er det her åndsvagt..


WinterSilence
 
Overclocker
Tilføjet:
04-12-2009 09:02:34
Svar/Indlæg:
499/175
#28 Gripen90:

Helt enig med dig dér 🙂


(FIH)
 
Elitebruger
Tilføjet:
04-12-2009 09:08:20
Svar/Indlæg:
2687/71

#25 well said, keep up the good work.


Svaret blev redigeret 1 gang, sidst af (FIH) The Don d. 06-12-2009 02:59:19.


WinterSilence
 
Overclocker
Tilføjet:
04-12-2009 09:14:40
Svar/Indlæg:
499/175
#30 Mange tusinde tak 🙂


bornholm
 
Elitebruger
Tilføjet:
04-12-2009 11:02:14
Svar/Indlæg:
2958/84
nu får jeg sku også lyst til at bakke dig lidt op Wintertstilhed 🙂

Jeg ville heller ikke kunne få armene ned hvis jeg kunne få et gfx der yder max til billige penge og som ikke bruger ret meget strøm. 🙂

Og til jer wanebe kælingetudetøser wanker benchbither, det kan da godt være at ATI i mange bench mangler 2-4 fps, men når hjernens og øjets anatomi er opbygget sådan at vi mennesker max kan se ca. 60 fps, så kan det undskyld være fukking lige meget om et gfx giver 150 fps. eller 152 fps. og til den der påstår noget andet kan men nok ikke tage så seriøst. 😎


OdysseDK
 
Superbruger
Tilføjet:
04-12-2009 16:21:18
Svar/Indlæg:
1313/83
"Withdrawn".... 😕

Svaret blev redigeret 2 gange, sidst af OdysseDK d. 06-12-2009 12:50:56.


rebslager
 
Overclocker
Tilføjet:
04-12-2009 16:22:21
Svar/Indlæg:
3/0
WinterSilence har lavet et mega godt arbejde i mine øjne. Jeg vil bare enten have det bedste, det bedste til prisen eller den med bedst strømøkonomi. PT er ATI(Kan ikke få mig selv til at skrive AMD/ATI) foran på alle punkterne. Om det bedste kort for eftertiden hedder ATI, Nvidia eller I'MAFANBOY er jeg totalt ligeglad med.

WinterSilence just keep swinging. Vi er mange det syntes det var et fedt stykke arbejde du lavede og sikkert vil blive ved med, hvis da ikke "fanboysene" får dig til at miste modet. Hvilket jeg absolut ikke håber. Hvis Fermi sparker røv i forhold til ATI, når det kommer(Hvilket sandsynligvis er tilfældet på ydelsen), så skal de da roses for det.

Forresten har selv sværget til AMDs CPUer, men min næste er fra Intel. Hvorfor? Fordi jeg tror, de kommer til at holde længere. Jeg er en rigtig dårlig fanboy 🤣

Som Drunken skrev "me like competition. me hate fan boys" :yes:


Razorblade
 
Superbruger
Tilføjet:
04-12-2009 20:08:50
Svar/Indlæg:
221/3
#34, det kan vist have lange udsigter, før den sammenligning kan finde sted: http://www.fudzilla.com/conten...


poulsen48
 
Elitebruger
Tilføjet:
04-12-2009 21:58:10
Svar/Indlæg:
2885/268
#0

Fin test mester 🙂


WinterSilence
 
Overclocker
Tilføjet:
04-12-2009 23:33:32
Svar/Indlæg:
499/175
Tak for rosen alle sammen 🙂


[G.N.U.]
 
Elitebruger
Tilføjet:
06-12-2009 02:27:23
Svar/Indlæg:
2175/21
1. hold kæft hvor en bærnehave det er herinde ....en vigtig årsag til jeg ikke længere søger hjælp herinde, hvilket egentligt er ret sørgeligt da denne hjemmeside var den første danske hardware side og forum jeg overhovedet havde med at gøre.

2. hvorfor kan folk (både læsere og testere) ikke skrive evt. kritik på en måde der hverken er personlig eller barnlig.......der flyver altid personlige beskyldninger om folk der er fanboys, dårlige til at teste osv osv.....OG JEG ER FANME TRÆT AF AT DET LIGNER HOL.DK! ..fix jeres attituder derude.


WinterSilence
 
Overclocker
Tilføjet:
06-12-2009 03:18:38
Svar/Indlæg:
499/175
G.N.U Fragman -det kan jeg godt følge dig i. Men hvis folk de angriber min journalistiske integritet/uafhænggihed (som foroven) så vil jeg gerne fremligge beviser herfor, at de tager fejl.

For som jeg siger - jeg er teknisk tester - jeg tester ting. Er noget bedre, end andet skriver jeg det. Er det ikke skriver jeg det. Meget simpelt. Og så gider jeg ikke anklages for, at jeg er "fanboooiiii".

Og jeg vil på ingen måde anklages - som uafhængig journalist - eller finde mig i, at folk skriver jeg som tester konkluderer det jeg gør, fordi fordi jeg, er "fanboooiii" af et vist mærke, eller teknologi.

Som jeg har skrevet før, så formidler jeg til Jer det der er "sandheden". Og den såkaldte "sandhed" hér skal ses, som de resultater jeg opnår på den specificerede testrig jeg bruger. Og her er det "sjovt",at se folk kritisererer mig/HwT.dk for at jeg tester på AMD - og IKKE Intel i7 "super performance" platform.

Men min platform er AMD-baseret pt. Og jeg gengiver intet andet, end de rå resultater. Og herfra tager jeg som tester min konklusion.

At folk så ikke pt. kan leve med, at AMD/ATI pt. overgår NVIDIA pt. er ikke mit problem - resultaterne taler for sig selv - og dem kan enhver gøre efter på sin egen maskine og evt. skalere op, til sin egen maskines specifikationer.

Når - eller hvis - NVIDIA kommer med et 40 nm grafikkort der overgår HD5970 eller HD5870 der pt. "ruler" de teknologisker formåender på markedet, udfra performance og tekniske kompatible evner med seneste teknolgi (læs:DX11 fra MS af) så skal jeg meget gerne skrive det til Jer, som læsere, at dette så langt overgpr AMD/ATI 🙂

Men at man pisser på min integritet -som foroven- som uafhængig journalist - det vil jeg sgu ikke finde mig i...

Mvh.
WinterSilence/Kim F.


poulsen48
 
Elitebruger
Tilføjet:
06-12-2009 09:36:43
Svar/Indlæg:
2885/268
#39

kan jeg sku godt forstå


ShArX
 
Superbruger
Tilføjet:
06-12-2009 21:02:16
Svar/Indlæg:
664/68
#39 + 38

Hørt !!!


[G.N.U.]
 
Elitebruger
Tilføjet:
07-12-2009 02:08:45
Svar/Indlæg:
2175/21
#39 har selv skrevet en test eller 2 for jer, så kan sagtens følge dig, og det er nu ikke fordi jeg tror at testerne ikke gør deres bedste og er så objektive som de kan være. Det er mere tonen i de ting der bliver skrevet, der ofte meget hurtigt bliver direkte personlig, og ½ af de ting kunne evt være klaret i en pm personerne imellem.


1k2nb
 
Superbruger
Tilføjet:
08-03-2010 22:09:09
Svar/Indlæg:
49/4
så mangler vi bare at man kan få kortet.. jeg har opgivet min bestilling efter 1.5 måned hvor leverance datoen hele tiden blev udskudt fordi leverandøren udskyd leverancen.. har så fået at vide at det simpelthen er fordi der ikke er chip's nok til at lave kort nok til efterspørgslen... men om det passer skal jeg ikke lige kunne sige andet end jeg vel kun kan tro på hvad man har læst sig til. :(( så jeg må bare vente i tålmodighed da min nye super computer kun mangler et nyt gfx kort for at være oppe og kører :) men ellers ontopic... så fed test og review af 5970 du fik det i hvert fald solgt det til mig ! :)


WinterSilence
 
Overclocker
Tilføjet:
09-03-2010 10:12:29
Svar/Indlæg:
499/175
#43: Mange tak det glæder mig :)