Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: HIS
DK distributør: HIS

Test

 

 

  

Følgende testsetup/maskine er benyttet til testen af kortet:

        AMD Dragon platform
  • Chieftec bigtower kabinet med 2 x PAPST og 2 x Sharkoon 80 mm blæsere
  • Tagan 900 Watt PSU
  • FoxConn DigitaLife A79A-S AM2+ motherboard med AMD 790FX chipset
  • Cibox 22" fladskærm - 60/59 Hz - max. opløsning 1680x1050
  • Zalman CNPS 9500 AM2 low noise køler
  • AMD Phenom II AM2 Z940 Quad Core 3GHz CPU
  • 2 X Kingston HyperX 2 gigabyte RAM-klodser – DDR-2 1066 (4 gigabyte RAM)
  • 1 X Western Digital Raptor HDD - 74 gigabyte, 10.000 RPM 16 MB cache harddisk, SATA-1
  • 1 x Western Digital GreenPower HDD - 500 gigabyte, 7.200/5.400 RPM 16 MB cache, SATA-2 .
Der er brugt et eksternt professionelt KWh-meter fra elektrikeren til måling af det totale strømforbrug på testmaskinen og dennes monterede grafikkort, til test og referencetests. Jeg har valgt, at bruge et professionelt Watt-meter der måler hele maskinens strømforbrug, frem for at måle grafikkortenes da disses afgivelse af varme har stor betydning for hele maskinens samlede strømforbrug. 
Software benyttet:
  • OS: Windows Vista Home Premium 64-bit SP2, fuldt opdateret
  • Grafikkortdriver: AMD/ATI Catalyst driverversion 8.651 leveret af HiS på CD-ROM 
  • Chipsætdriver: Seneste tilgængelige

Testsoftware:

  • 3DMark Vantage 
  • Stalker:Clear Sky DirectX 10.1 benchmark tool 
  • Unreal Tournament 3 Benchmark tool -  der er benyttet DM-Sanctuary map, 12 bots, sound, full screen, max. details, DX10 
  • Devil May Cry 4 DX10 benchmark – max./super settings, MSAAx8
  • Furmark 1.6.5 OpenGL 2.1 benchmark tool 
  • Call of Juarez DX10 benchmark tool
  • World of Warcraft: Wrath of The Lich King – Ultra settings, max. camera distance macro


Testmæssigt er der valgt Windows Vista 64-bit for, at udnytte alle 4 gigabyte RAM. Samtidigt er Windows Vista blevet valgt, da vi i vore tider tester DX10-grafikkort og for mig giver det ikke meget mening, at teste på Windows XP længere, med DirectX 9.0c. Jeg ville givet få nogle vilde resultater, men jeg er sikker på, at I alle gerne vil se tal fra DirectX 10.1 benchmarks og spil. World of Warcraft er blevet medtaget i testen, selvom dette langt fra er et DirectX 10 spil. Men da det er verdens mest brugte spil, udover Sims 3 synes jeg ikke det kan undlades. Og vi kan da også se, at resultaterne med et moderne grafikkort i WoW ligger ganske tæt op ad de resultater der gives i Windows XP SP3, selvom der er skiftet til et meget mere krævende 64-bit operativsystem. Og WoW trækker tænder ud, med den opløsning og indstilling jeg har brugt i denne deltest. Samtidigt har jeg valgt Windows Vista 64-bit med SP2, da SP2 er udkommet for ikke så længe siden - derfor og jeg tænkte det kunne være interessant for Jer læsere (samt mig selv), at se hvad Microsoft har fået indbygget af optimeringerne denne gang. Som bekendt virkede Windows XP ikke helt efter hensigten før SP2 udkom - og SP3 var sidste finpudsning og optimering. Og som vi alle ved rammer Windows 7 snart markedet, så det er tvivlsomt, om der kommer en SP3 til Windows Vista i den nærmeste fremtid.


Forbehold der skal tages i testsammenligningerne!:

Gigabyte GTX-295 kan ikke køre med DirectX 10.1-udvidelserne, da GTX-295 GPU'erne ikke understøtter dette; men denne er derimod i stand til at køre med PhysX teknologien NVIDIA er ene om at udbyde. Og med OpenGL 3.2, hvor AMD/ATI kører med OpenGL 3.1. Dette er medvirkende til, at Gigabyte GTX-295 scorer højt i 3Dmark Vantage, som understøtter PhysX.



Her er et sæt grafer over hvordan HiS HD5870 yder, set i sammenligning med 4 andre relevante referencekort i hele 7 forskellige benchmarks. På disse grafer betyder tallene, at jo højere resultat der er opnået, desto bedre ydeevne har kortet:

3Dmark Vantage:

Seneste benchmarker fra finske FutureMark 3Dmark Vantage - finnerne kan andet,end lave gode fiskeknive og woblere. Vantage er en ren DirectX10 benchmark, der ikke er bagudkompatibel med DirectX 9.0c. Derfor er Windows Vista eller Windows 7 eneste mulighed for afvikling af testen. Vantage er flot, at se på, men samtidigt også ekstremt hårdt mod grafikkortene. Stilen er ændret lidt en mere cartoon-agtig type - hvorfor vides ikke. Jeg foretrækker selv naturtro tests, som Call of Juarez.. Samtidigt kan jeg ikke se , hvorfor der er inkluderet CPU-tests, når det det drejer sig om, er grafiktestning. Hvorom alting er, lad os se hvordan kortet klarer sig i denne test:

 

 
Vi ser her, at HD5870 ligger helt i toppen af AMD/ATI-kortene med meget flotte resultater - men er langt fra Gigabyte GTX-295. Bare i Entry-testen er der hele 22.137 points til forskel. Men dette skyldes alene, at Gigabyte GTX-295 kan gennemføre 3Dmarks PhysX deltest og har hele to GPU'er monteret. Denne teknologi understøtter AMD/ATI altså ikke - og er iøvrigt også et single-GPU grafikkort. Skal vi sammenligne AMD/ATI's to generationer af GPU'er ser vi her, at ydelsen er forbedret mellem HD4890 og HD5870 med hele imponerende 3881 points. Procentvis er dette hele 56.7% stigning i ydelse, i denne test!

Stalker:Clear Sky DirectX 10.1 benchmark tool:


Stalker:Clear Sky benchmark er et DirectX 10.1 benchmarktool fra GSC Game World i Kiev, Ukraine. Firmaet står bag STALKER:Shadow of Chernobyl og STALKER:Clear Sky. Denne benchmark er baseret på sidstnævnte og presser igennem 4 deltests grafikkortenes evner til det yderste. De 4 deltests består af en test, hvor grafikmotoren kører om dagen, en om natten, en i uvejr med regn og torden og mange reflektioner i materialer og en i høj solskin. Dette sikrer, at grafiktesten bliver yderst omfattende, da alle kortets evner testes igennem. Da testen kører under alle de forhold man vil møde i et spil, man spillede synes jeg det er en af de mest retvisende grafiktests der findes pt. I denne test er højere FPS bedre, end lavere. I referencetestgrafen har jeg kun medtaget værdierne for Day-delen af testen, da vi ellers skulle se på 12 små billeder. Jeg har indsat graferner fra testen i Ultra Mode for alle 4 kort til sammenligning. STALKER:Call of Priypjat er udkommet i Rusland og derfor forventes det, at vi kan levere en DirectX 11 test af HD5870 inden længe (som opdatering/respin). Der er også lovet en patch til Stalker:Clear Sky der skulle tilføje DirectX 11 kompatabilitet.

 
 
 
Stalker:Clear Sky benchmarkresultater for HiS HD5870 - Ultra Mode:
 
 
 
Her klarer HiS HD5890 sig glimrende. Som det ses opnås der næsten hele vejen igennem en stabil FPS på mellem 69 og 45. Men dette er forventeligt, da testen er kørt for at se, hvad kortet kan yde på topbelastning. Der er valgt settings DX10.1: Higher Quality og MSAAx4, samt Enhanced Full Dynamic Lighting. På Gigabyte-kortet var det IKKE muligt, at sætte benchmarkeren til DX10.1: Higher Quality, så hav dette in mente, når i sammenligner resultaterne - for der er en del ydelsesforskel på AMD/ATI-kortene når denne indstilling er aktiveret. Dette vil sætte Gigabyte GTX-295 1.792 på et lidt højere niveau, end HiS HD5870. Dette er fordi, at Gigabyte GTX-295 ikke understøtter DirectX 10.1, men kun DirectX 10. Vi sammenligner lige med GTX-295 i Ultra mode, med alle delscener så I kan danne Jer et blik over forskellene på de to kort:
 
GTX-295 Ultra Mode:
Day: 78 FPS
Night: 75 FPS
Rain:  83 FPS
SunShafts: 49 FPS
Som jeg nævnte foroven så kan vi hér se, at Gigabyte GTX-295 leverer 9 FPS mere i scenen "Day". Men for lige at perspektivere det hele lidt, så tager vi lige grafen fra Ultra Mode, Scene "Day" med kortet overclocket bare 50 MHz på GPU og 100 MHz på RAM:

  

Stalker:Clear Sky benchmarkresultater for HiS HD5870 Ultra Mode - Overclocked:  
 

 
Og mange tak for kaffe og cognac siger jeg - med en minimal OC af kortet opnår HiS HD5870 en score der placerer den lige bagved Gigabyte GTX-295 med kun 4 FPS i forskel i scene 1 og 2, i Stalker benchmarken. Efter denne gennemgang kan vi se, at HD5870 som forventet ligger helt oppe i toppen af de AMD/ATI-baserede grafikkort. Der er ikke den store forskel på HiS HD5870 og Gigabyte GTX-295. Som det tydeligt ses så er HiS HD5870 rasende hurtigt med sin enkelte GPU, sat i sammenligning med GTX-295's to GPU'er og 792 MB større framebuffer. Med OC er der 5.12% forskel mellem Gigabyte GTX-295 og HiS HD5870. Uden OC er der 11,53% forskel.
 
Unreal Tournament 3 Benchmark tool:

Der er ikke så meget, at sige om UT3-testen. Jeg har valgt UT3 fordi den fra starten af blev bygget optimeret til DirectX 10.0. Med patch er der support for DirectX 10.1. Og denne test er udvalgt fra benchmarkportfoliet fordi rigtigt mange spil der bruges i dag og som stadig frigives, er baserede på netop UT3's grafiske motor. Der er testet med manuelle settings til absolut højeste kvalitetsindstillinger. Vi får høje tal, da spillets grafiske elementer ikke længere er hypermoderne. Men ingen siger vi skal svælge i små tal fra ekstremtests hele tiden, vel? :) Og i netop denne test kan vi se, at det er meget tæt løb mellem kortene.
 

 
Graferne her giver lidt stof til eftertanke. For vi kan her se, at HiS HD5870 fuldstændigt løber fra Gigabyte GTX-295 - selvom dette har 792 MB større framebuffer og to GPU'er, mod HiS HD5870's ene GPU. Forskelsmæssigt ligger HD5870 derfor procentvis en del over Gigabyte GTX-295. 
  
Devil May Cry 4 - Scene 4:

Devil May Cry 4 er et spil der brillerer, ved at findes til både PS3, Xbox360 og PC. Spillet er  i sig selv meget flot lavet grafisk, selvom det er flere år gammelt. PC-versionen udkom i midten af 2008 og er grafisk forbedret i forhold til konsoludgaverne. Grunden til jeg har valgt DMC-4 er fordi den dels findes i en automatisk benchmarker og dels fordi den stadig formår, at presse kortene til det yderste. Samtidigt kan den køre både DirectX 9.0c og DirectX 10, hvilket gør den til en benchmarker der sammen med UT-3 kan bruges på både Windows XP og Windows Vista. Før nogen spørger så er DMC-4 benchmarken opdelt i 4 scener der gennemspilles på PC'en over ca. 15 minutter. Herefter gives en FPS-resultat per scene og en rank, da DMC-4 opererer med sjove ranks. For eksempel hedder den højeste rank "S - Battle foes with Smokin' Sick Style". Det er måske meget sjovt, men lidt for "porno" til mig. Jeg har derfor kun udvalgt Scene 4, der er den grafisk mest krævende og indsat resultaterne i grafen nedenfor.
 
 
 
Og her ser vi så noget rigtigt interessant igen - her vinder Gigabyte GTX-295 fuldstændigt over HiS HID5870. Med den driver der var til rådighed på testtidspunktet kunne det ikke lade sig gøre, at køre den aldrende DMC-4 test i 1600x1200 på HiS HD5870 i denne omgang. HiS HD5870 vandt UT3-testen suverænt, mens den taber DMC-testen. Dette kan undre, da netop UT-3 grafikmotoren er optimeret til moderne hardware.

FurMark 1.7.0:


FurMark er en meget brugt benchmarker på flere forskellige testsider - og det med god grund. For FurMark indeholder både en benchmarker, samt en burn-in/stability testfunktion. Den kan endvidere tage screenshots undervejs ved at trykke på F9, hvilket er meget praktisk. Samtidigt skriver den løbende en temperaturgraf over GPU'ens varmetilstand og det er endnu et plus ved, at benytte denne test. Ydermere er det min testsuites eneste OpenGL-benchmark og derfor den eneste der siger noget om, hvor godt producenterne har integreret OpenGL optimeringer i GPU'erne. Og dette er vigtigt, at vide for dem der kører Linux, eller anden Unix eller har brug for at rendere OpenGL professionelt i applikationer, hvor selve renderingen smides ned på GPU'en. Oveni så er FurMark klart den benchmarker der brænder grafikkortet allervarmest hurtigst muligt. Og det er også en fordel, når man skal finde et grafikkorts præcise smertegrænser for overclockning. Desuden er FurMark en OpenGL 3.2 benchmark og da GTX-295 kan køre OpenGL 3.2, mens AMD/ATI-kortene kan køre OpenGL 3.1 er denne test valgt udfra det parameter for, at kunne give en retvisende og valid sammenligning. Dette er også gjort udfra, at da jeg testede HD5870 med FurMark 1.6.5 gav den på FPS præcis samme resultat, som i version 1.7.0 hvilket overraskede mig meget. Normalt plejer AMD/ATI at tabe OpenGL testene kraftigt til NVIDIA. Men noget tyder på, at AMD/ATI's ingeniører har været på overarbejde mht. OpenGL-sektionen i denne GPU. 

Vi kan her kun hæfte os ved én enkelt ting iflg. nedestående graf  - og det er, at i OpenGL-testen der vinder HiS HD5870 igen over Gigabyte GTX-295. AMD/ATI-kortene er simpelthen blevet voldsomt forbedret på OpenGL-siden i forhold til 4000-serien. Da dette er testens eneste OpenGL benchmark har vi desværre intet andet, at sammenligne med. Men jeg finder stadig FurMark kommer til sin ret i denne test. Den finder i hvertfald ret hurtigt smertegrænserne for kortets overclockningsevner og har før vist den tydelige forskel der var imellem AMD/ATI og NVIDIA indenfor rendering af OpenGL. Her er HD5870 foran med hele 23,52% bedre ydelse i OpenGL, end GTX-295 - og det selvom GTX-295 har to GPU'er og 792 MB mere RAM - meget imponerende må man sige hér, i denne deltest. 
 
 
Call of Juarez: 
Call of Juarez er et af de få spil der er skrevet til direkte, at udnytte flere CPU-kerner end to. Jeg har brugt Call of Juarez benchmarker tool, 64-bit udgave, sat til maksimum DirectX 10 settings, 1680x1050, Shadowmap 2048x2048, Shadows High, SSAAx4, Sound On.
 
 
 
Og her ser vi en DirectX 10 test hvor HiS HD5870 ligger i front i både max. FPS og Average FPS scoren. Her kommer HiS HD5870 igen virkelig fuldstændigt til sin ret og outperformer Gigabyte GTX-295. Igen et meget flot resultat for HiS HD5870, set i lyset af at dette har 792 MB mindre RAM og kun én GPU. Det eneste punkt hvor HiS HD5870 udskiller sig fra Gigabyte GTX-295 er i MIN FPS, hvor den scorer lidt lavere. Dette vil jeg tilskrive er fordi Gigabyte GTX-295 har en større framebuffer og derfor starter hurtigere op med testen, end HiS HD5870.

World of Warcraft: Wrath of The Lich King:

World of Warcraft IRL-gaming testforklaring:
 
VSYNC-mulighederne i WoW har alle været slået fra. Og der er målt frames med WoW’s indbyggede framemeter. Disse er noteret og ud fra dette er der lavet et gennemsnit. Målingerne er foretaget sent om aftenen/natten, hvor der er færrest på serveren til, at belaste grafikken og netforbindelsen til serveren. Arathor Realm server er brugt til testen. Characteren benyttet er en LVL 80 fuldt episk udstyret resto/balance druide der har ”Epic Fly Form”, samt episk ridetiger. Alle tests er udført i Northrend, med settings sat til ULTRA MODE, alle effekter slået til og sat til maksimum muligt og benyttende max. camera distance macro/addon, samt zoomet helt ud til maksimum. Dailyquest brugt er ”Defending Wyrmrest Temple”. Der er blevet trukket 1-2 Azure Dragons og 2-3 Azure Drakes i Wyrmrest Temple questen. WoW er blevet medtaget i testen, da det er verdens mest spillede spil - udover Sims 3 - og da det efter sidste udvidelsespakke kan trække tænder ud på selv de største grafikkort.  
 
 
Og igen ser vi, at HiS HD5870 er med helt oppe i front og igen overgår Gigabyte GTX-295 - dog meget marginalt i denne test. Igen et meget flot resultat for dette kort. Her er forskellen mellem Gigabyte GTX-295 og HiS HD5870 3,66%. 
 

Overclocking

Kortet overclocker UDEN problemer. Ikke en eneste gang er testmaskinen gået ned under OC-testen. Der optrådte ingen grafikfejl under OC-testen af kortet og benchmarkene gik heller ikke ned. Og resultaterne af OC af kortet, taler da også for sig selv. Man får stabil OC til en god pris, der virker helt uden problemer - dog holder kortet ret høje temperaturer, som nævnt. Exeptionelt godt lavet af AMD/ATI når man ser på, at køleløsningen er indsluttet i en stor kasse der dækker hele kortet til og kun er åben i bund og front. Jeg opnåede stabilitet på systemet i over 45 minutter, uden den store larm eller problemer.

Overclockningtesten blev gennemført således:
Tool brugt: AMD/ATI Catalyst Control Center, version 9.9


  
  
Overclocket fra og til:
 
GPU: fra 850 MHz til 900 Mhz.
RAM: fra 1200 MHz til 1300 MHz
 
 
Som det tydeligt fremgår af min stabilitetstets med FurMark 1.7.0 så kører HiS HD5870 ved ret høje temperaturer under OC-testen. Men jeg kunne ikke finde smertegrænsen, da driverne indtil videre kun tillod OC med 50 Mhz af GPU'en og 100 MHz af rammene. 
 
Altså opnåede jeg en effektiv overclockning af GPU på 50 MHz og RAM på 100 MHz, der omregnet til procenter bliver til +5,
88% på GPU og +8,33% på RAM.
 
Og det synes jeg er et rimeligt flot resultat, temperaturerne taget i betragtning. Absolut brugbart i produktion (real life gaming/design). Dette finder jeg, da kortet trods ret høje temperaturer kører stabilt og uden problemer. Jeg vil konkludere, at ethvert nyt produkt der med referencekøler kan klare FurMark "torturtesten" er ganske godt designet. Alt i alt crashede maskinen ikke. Derved vil jeg konstatere overclockningen stabil. 
Temperaturen under Furmark test OC'ed lå på mellem 79 og 81 grader på GPU'en. Dette understøttes yderligere af GPU-Z's temperaturlog, så jeg vil her konkludere, at de dobbelt målte temperaturer begge er lige valide. Nu har i ihvertfald fået begge datasæt oplyst.
 
OC-test konklusion: 
 

OC-resultater for 3DMark Vantage: 473 points mere, end fabriksclocket
OC-resultater for Call of Juarez: 6,2 FPS mere, end fabriksclocket
OC-resultater for Furmark:  5 FPS mere, end fabriksclocket

 
OC-graf for Stalker: Clear Sky benchmarken: 
 
 
 
Strømforbrug:

Strømforbrugsmæssigt bruger hele testmaskinen 176-184 Watt idle i Windows, "High Performance" og 310-330 Watt under belastning i benchmarks og IRL-gaming.
 
 
 
 
Strømforbruget under OC af kortet, ligger for hele testmaskinen på det samme idle i Windows, og på 310-340 watt under belastning i benchmarks og IRL-gaming. I alt meget acceptabelt strømforbrug i forhold til kortets ydelse, din el-regning og den globale miljøsituation. HiS HD5870 sparer både din pengepung ved indkøb, samt din el-måler fra at løbe alt for løbsk i fremtiden. Og du kan have god samvittighed med miljøfaktorerne, da dette kort clocker sig selv ned, uden for belastning og kan indstilles til, at være endog meget besparende for et high end gamer grafikkort. I øvrigt er det pt. verdens højest ydende grafikkort, selvom dette kun bruger 27 watt idle, i Windows. Meget imponerende må man sige.

Andet:

Drivere og kontrolpanel er klippestabile og giver ikke anledning til nogle bemærkninger overhovedet. Man skal dog, som Linux- eller Unixbruger bemærke at vi ikke endnu har OpenGL-testet HD5870 under Linux. Så pt, kan vi ikke sige, om driverne giver samme gode ydelse under Linux, som under Windows Vista.
 
Da vi nu er ved vejs ende, går vi derfor til videre til "Konklusion/UK Summary" ...
MadsH
 
Elitebruger
Tilføjet:
10-10-2009 09:19:12
Svar/Indlæg:
1915/57
Ja der er jo ikke så meget andet at sige end at det er et super lækkert kort. 🙂


Storm
 
Overclocker
Tilføjet:
10-10-2009 10:04:44
Svar/Indlæg:
62/5
Det er da godtnok lidt en skam at teste dette kort med en Phenom II CPU.

Der er jo slet ikke muskler nok til at følge kortet.


Rasmus66
 
Elitebruger
Tilføjet:
10-10-2009 10:08:54
Svar/Indlæg:
8762/174
Fin test.

Den eneste klage jeg har er at i har testet 3dmar vantage delen med PhysX enabled ved nvidia kortene.

Det viser jo tydeligt at resultater på ingen måde kan sammenlignes da de jo er kunstigt boosted med physX.

Ellers så har jeg ikke noget at klage over 🙂


WinterSilence
 
Overclocker
Tilføjet:
10-10-2009 10:30:39
Svar/Indlæg:
499/175
Som jeg har sagt det før: Vantage er en syntetisk test der giver de resultater denne giver. Og da vi sammenligner grafikkort med grafikkort og derved ikke "æbler med pærer" så slår vi IKKE denne funktion fra i vore tests.

Den ene type/producents grafikkort har dennes fordele og den anden ikke. Og alene af benytter jeg/vi en mængde andre tests, end lige 3DMark Vantage (WankerMark) for, at illustere disse forskelle 🙂

Vi sammenligner teknologi med teknologi - og da 3DMark Vantage ikke tager forbehold for dette er scoren specifikt nævnt i testen, som værende en man skal tage sine forbehold for. Standarden for alle folk og tester/reviewersites er altid en 3DMark Vantage test uden ting er koblet til eller fra.

Dette kan være misvisende for kortets reele evner, ja - men en score er en score indenfor en standard - og derfor "piller" vi ikke ved denne, men perspektiverer delscorerne mere tydeligt, mens vi samtidigt direkte skriver, hvilket der skal tages forbehold for, indenfor samme 🙂

Læser I testen som jeg mener denne skal - med alle ting sat i forhold til hinanden så synes jeg, at vi/jeg giver et så bredt billede som muligt, af pågældende korts evner og tekniske muligheder 🙂

For mig er det dybt uretfærdigt, at slå PPU/PhysX fra i tests sammenlignet med AMD/ATi-kort, da disse jo ikke har denne mulighed/teknologi. Der har NVIDIA en større fordel, rent teknologisk, indefor visse spil. Men som jeg også aynes jeg tydeligt har perspektiveret i testen, så "vinder" AMD/ATI faktisk for en gangs skyld OpenGL-testen over NVIDIA 🙂

Mvh.
WinterSilence/Kim F.


Rasmus66
 
Elitebruger
Tilføjet:
10-10-2009 10:33:18
Svar/Indlæg:
8762/174
#4

Ja det er helt rigtig at testen også giver et bredere billede af ydelsen men nu hængte jeg mig bare lige i wankermark testen 🙂


MadsH
 
Elitebruger
Tilføjet:
10-10-2009 10:48:02
Svar/Indlæg:
1915/57
#2 hvorfor. det kan jo ikke hjælpe noget at teste med en i7 på LN2. det giver jo overhovedet ikke den "normale" computerbruger et billede af hvad kortet præsterer i en dagligdags maskine. en helt anden ting er også at i spil situationer der fodrer en phenom cpu ved standard hastighed kortet nøjagtig lige så godt som en i7/i5 cpu ved standard hastighed. Kig på utallige benches og hvis du kigger på 3dmark tests og kigger på GPU scorer så kan phenom få kortene til at yde lige så godt. i mange tilfælde i 06 så rykker SM3 scorene rigtig godt med en Phenom/ATI cpu/chipset.


Storm
 
Overclocker
Tilføjet:
10-10-2009 11:00:42
Svar/Indlæg:
62/5
#6

Fordi jeg med en i950 (3,06Ghz) får væsentligt bedre score i testene end han gør med mit XFX kort.

Derfor må der være en flaskehals i den CPU. Når jeg tester med en i7 ved 3,8 Ghz (Utroligt let OC, nærmest umuligt at lade være, så dem der ofre et HD5870 OC'er nok også deres CPU lidt), så er den PII sat helt ud af spillet.

Kortet skalerer ret godt jo mere CPU power der kommer bag.


Clintin
 
Superbruger
Tilføjet:
10-10-2009 11:01:52
Svar/Indlæg:
1317/46
Interessant lille historie i begyndelsen om HIS, jeg tror en del af os kan huske 5800 med en køler, der lignede HIS køleren til 9800, men forskellen var selvfølgeligt at køleren til 5800 ikke virkede, mens køleren til 9800 var en drøm(inkl. kortet).

Til dem der ikke fatter hvad ujeg skriver om(formentligt det yngre publikum), tag et kik i hwt arkiver og læser anmeldelsen af nvidia 5800Ultra og et ATI HIS 9800 og sammenlign kvaliteten af køleren fra et lille asiatisk firma med køleren fra et stort amerikansk firma.


(FIH)
 
Elitebruger
Tilføjet:
10-10-2009 11:40:49
Svar/Indlæg:
2687/71
Meget fin test, rart at se at der ikke bare er blevet copy/pastet som så mange andre gange.

dog tror jeg ikke at jeg skifter mit GFX ud med et 5870 lige PT hehe

en anden ting, har set andre steder at der følger et "Gamers Toolkit" med? fik i ikke det eller hvordan?`

som fx her http://www.3dgameman.com/revie...


MadsH
 
Elitebruger
Tilføjet:
10-10-2009 11:49:03
Svar/Indlæg:
1915/57
#7 hvilke tests tænker du på? Wankermark eller spiltests? Og i hvilke opløsninger?


Johnny
 
Superbruger
Tilføjet:
10-10-2009 13:15:08
Svar/Indlæg:
2127/11
"Ydelsen er i en klasse for sig og overgår i visse tests og brug selv NVIDIA's GTX-295 dual-GPU kort, der har hele to grafikchips, og 792 MB mere RAM"

Du skriver flere gange i testen, noget der ligner ovenstående. Så vidt jeg er orienteret, har 295 ikke mere ram pr kerne, hvilket er det der tæller. Samme som at sige, at et 4870x2 har dobbelt så meget ram som 5870. Det har det ikke. Hver kerne har lige så meget ram, som en 5870 kerne har.

Jeg kan ikke huske hvor og med hvilket kort, og orker ikke at undersøge det, men kan erindre at have læst, at et af de dersens dualcore grafikkort, gav mulighed for at en kerne der manglede ram, kunne hente fra den anden kernes lager. Selv hvis det er tilfældet med 295, er det dog langt fra det samme som at sige, at hver kerne har mere ram til rådighed end 1GB.



Der ud over: Fino test 🙂 Den stemmer jo fint overens med hvad man ellers ser derude. Der er dog lige én ting jeg er nødt til at spørge ind til; strømforbruget. Jeg har en 955x4, og et gammelt 3850 512mb kort. Min maskine bruger @ 90w idle. Hvordan dælen kommer du op på det dobbelte i din måling? Det er ikke et kritikpunkt. Jeg er ærligt nysgerrig 🙂


I øvrigt: interessant som opfattelsen af støjniveauet svinger fra test til test. Nogle basher 5870 for at larme, mens andre - som du - siger at det er rimeligt stille. Jeg satser selv på at vente til der kommer kort med bedre køleløsning, og mere ram, før jeg køber enten 5850 eller 5870.


NightBreaker
 
Elitebruger
Tilføjet:
10-10-2009 15:58:13
Svar/Indlæg:
857/27
godt læse stof, der er gjort lidt mere ud af det end normalt, super WinterSilence


#13
BPM
 
Senior Skribent
Tilføjet:
10-10-2009 16:28:24
Svar/Indlæg:
223/2
denne test for virkelig en til at tænke over om det kan betale sig at hoppe på AMD/ATi vognen igen, for damn de er begyndt at rykke godt igen, sq dejligt at se...


tom81
 
Elitebruger
Tilføjet:
10-10-2009 17:41:19
Svar/Indlæg:
20170/383
#13

Det har de jo sådan set gjort siden HD4850/4870 blev lanceret.


#15
BPM
 
Senior Skribent
Tilføjet:
10-10-2009 18:19:31
Svar/Indlæg:
223/2
tja det har de vel, men først nu jeg syntes de rigtig er gået til den :D


martinbg
 
Elitebruger
Tilføjet:
10-10-2009 20:27:18
Svar/Indlæg:
2076/119
#11

nej ikke par kerner, men derfor river 5870 stadig 295 rundt vist vi skal til at hele det ud per kerne ;)


Storm
 
Overclocker
Tilføjet:
10-10-2009 20:58:51
Svar/Indlæg:
62/5
#16

Jep, og med to i CrossFire så skalerer de sådanset også ganske fint (Såfremt den er spændt for den rigtige CPU).


martinbg
 
Elitebruger
Tilføjet:
10-10-2009 21:25:42
Svar/Indlæg:
2076/119
#17

det er rigtig :D

men syntes det er pisse flot det her, men det bliver træls vist nvidia laver samme nr som sidste gang de lukket noget ud,

men vi kan da sige at lige nu har ATI det bedste singel kort, og sådan er det :D


Fearless
 
Elitebruger
Tilføjet:
10-10-2009 23:10:29
Svar/Indlæg:
4536/104
#0 som sædvanligt har i lavet div brølere med setups og giver en top score for et referance designet kort til overpris.

grunden til at købe netop HIS har jo altid været deres specielle 3parts køleløsninger.

at give 5 for at kort med ref design som er 100-300kr dyere end div andre ikke HIS kort som ka 110% det samme er imo lamt.


Desuden blir der brugt et setup med en Ph2 , og ikke nok med at det (KUN) er en 3,0ghz Ph2, så er det også kun et AM2+ setup der blir brugt, gamle DDR2 ram og AM2+ bundkort med den ældste Phenom 2 (940) cpu i systemet = ikke optimalt test setup til sådan et kort.

hvorfor pokker bruger i ikke det de fleste brugere her inde sikkert efterhånden har eller køber i nærmeste fremtid, AM3 (océd) phenom setups eller oc´ed core I5/I7 setups ?

altså det er vel stadig et side for overclockers , eller er vi efterhånden gået helt væk frra det ? , cpu limited test som denne gir jeg ikke meget for.

plz lav dem bedrer næste gang. ellers er det sku en om´er.


Rasmus66
 
Elitebruger
Tilføjet:
10-10-2009 23:15:19
Svar/Indlæg:
8762/174
#19

Ydelses mæssigt er der nu ikke meget forskel på AM2+ og AM3 😉



Shutdown
 
Elitebruger
Tilføjet:
11-10-2009 00:01:29
Svar/Indlæg:
8947/160
20# Faktisk ingen..ddr2 vs ddr3 er der ihvertilfælde næsten ingen forskel på.


Rasmus66
 
Elitebruger
Tilføjet:
11-10-2009 00:05:51
Svar/Indlæg:
8762/174
#21

En lille bitte bitte minimal forskel er der nu men ikke noget hvor man sådan bare siger wow.


Storm
 
Overclocker
Tilføjet:
11-10-2009 00:38:54
Svar/Indlæg:
62/5
#19

Skal nok lige flække nogle resultater sammen til dig i morgen med en tidssvarende CPU samt CrossFire resultater, hvis det skal give lidt mening med sådan et kort.


WinterSilence
 
Overclocker
Tilføjet:
11-10-2009 00:59:25
Svar/Indlæg:
499/175
#19

Jeg er faktisk ret vildt ligeglad med du mener det er en "ommer" og at testen er en "CPU Limited" test, når jeg har skrevet en grundig og tilbundsgående artikel, bare fordi jeg ikke kører med en overclocket maskine. Jeg har sagt det før mange gange og nu siger jeg det igen forhåbentlig for aller, aller sidste gang...

Vi overclocker IKKE testmaskinerne, da vi tester ALENE PÅGÆLDENDE GRAFIKKORTS EVNE, under forskellige forhold. Vi har en OC-test med af alle kort så vidt dette kan lade sig gøre og alene udfra det kan man som overclocker sagtens selv regne sig frem til, hvor godt pågældende kort vil skalere i et givent setup.

Det er første gang vi tester et HD5870 og da køleløsningen ikke hos mig larmer synderligt og holder kortet ganske godt koldt, så får det 5 af mig dér. Og så kan du brokke dig alt det du vil, for mit sammenligningsgrundlag et KUN det her kort, indtil videre og indtil vi får testet andre kort med non-referencekøleløsning. Med hensyn til prisen så får man havd mean betaler for med hiS som altid - god kvalitet og super service.

Jeg synes helt ærligt det er meget unfair du skriver jeg begår brølere og at mit kæmpe arbejde er en "ommer". Jeg skrev denne test på 3½ dag, selv om jeg havde halvinfluenca udelukkende for, at I som læsere skulle have det seneste nye at vide hurtigst muligt. Jeg føler mig fandme pisset på af dig personligt med det du skriver dér.

DU skal lære, at "læse testen" sådan, som den er. En test af et grafikkort, under normale forhold på en normal maskine, sådan som en helt normal brugers setup eller omstændigheder ville være. Testen hedder IKKE "OC-test af HD5870 med LN2 på AMD TWKR med RAM på 1600 MHz", men "Test af HiS HD5870".

Det er konstruktiv kritik, at skrive man gerne så en test med maskinen overclocked - men at skrive det hele er en "ommer" og en brøler er ikke ret pænt gjort.

Og yderligere så skifter de fleste personer ikke deres hardware ud så meget og så hurtigt, som Jer der overclocker og går meget op i have det seneste nye. AM2+ og Phenom II 940 med DDR2-1066 RAM er stadig et meget brugt setup, ligesom de fleste alm. brugere sidder med skærme der er på 22 tommer og spiller i 1680x1050.

At lave en OC-test af grafikkort er en opgave for en af vore OC-testere der sidder med "nyeste" setup/hardware - og der vil da sikkert også komme tests af kortene i OC-testmaskiner inden længe/hen ad vejen 🙂


Svaret blev redigeret 1 gang, sidst af WinterSilence d. 11-10-2009 02:21:22.


Storm
 
Overclocker
Tilføjet:
11-10-2009 01:43:23
Svar/Indlæg:
62/5
#24

Altså den CPU du tester med er klart underdimmensioneret i forhold til ydelsen/prisen på grafikkortet macher slet ikke resten af systemet og derfor vil det være et fåtal der har så svag CPU foran kortet.

At teste kortet på en 22" med "max" (Ja det er lavt) 1680x1050 er da også rimeligt vattet da dette kort først trækker fra land i 1920x1080(1200). Der findes langt billigere kort der kan maxe den lave opløsning ud.

Så jeg kan nu heller ikke forstå hvorfor et sådan kort skal testen på halvgammelt hardware som kun de færeste vil parre kortet med.

#All

Men som sagt, der er meget mere gemt i kortet med resten af systemet up-to-date. Det er et virkeligt lækkert kort og det larmer BETYDELIGT mindre end et 4890 med standard køleløsning, både IDLE og LOAD.

PS. Kan ikke forstå du tager kritik af din test personligt, faktum er at CPU/RAM og opløsning ikke er et HIGHEND kort værdig. ville passe fint til en 5770 test eller lignende, hvor et i7 4,0Ghz setup nok ville være lidt overkill.


Svaret blev redigeret 1 gang, sidst af Storm d. 11-10-2009 01:54:26.


WinterSilence
 
Overclocker
Tilføjet:
11-10-2009 02:20:14
Svar/Indlæg:
499/175
#25 Jeg er uenig. Jeg kender personligt ret mange med CPU'er i testmaskinens størrelse og med DDR-2 1066 RAM der alle er stormet ud for at købe et HD5870. Mht. opløsningen så har jeg tydeligt skrevet der kommer et respin, da jeg netop har fået en 26" 1920x1200 skærm til, at teste med fremover - den var bare ikke nået frem da jeg testede kortet. Men det vil blive retestet i 1920x1200 og der kommer en update herom senere når jeg også har fået testet et par referencekort til sammenligning i 1920x1200 🙂

Svaret blev redigeret 1 gang, sidst af WinterSilence d. 11-10-2009 02:22:18.


Johnny
 
Superbruger
Tilføjet:
11-10-2009 02:24:55
Svar/Indlæg:
2127/11
#26 Inden vi får endnu en klagesang om for meget brugerbrok, fra de stakkels hårdtprøvede anmeldere på hwt, kunne jeg så lokke dig til at se på resten af kommentarerne, der primært er positive? Jeg synes også kritikken du kommenterer på er alt for hård, men i din iver efter at forsvare dig, ser du ud til at overse os der er positive overfor dit arbejde.

Jeg ville i hvert fald sætte pris på en kommentar til det spørgsmål jeg stillede i #11, ang. strømforbruget for din maskine, med 5870 i.


Fearless
 
Elitebruger
Tilføjet:
11-10-2009 06:31:37
Svar/Indlæg:
4536/104
#25 well spoken.

110% enig. og meget hen af vejen også min pointe.

glemte self i første omgang at sige at opløsningen var gal også, men det er den self, imo bør man teste så de folk der vil købe et HD5870 også ved hva det ka ved MEGET høje opløsninger.

da folk der køber highend gfx, oftest har highend skærme(STORE skærme) og highend PC`ere.

satme sjældent at personer med 17-22 tommer sidder med en pc med gfx til 2500kr+ i forhold til folk der har hele grejet imo.


poulsen48
 
Elitebruger
Tilføjet:
11-10-2009 06:41:14
Svar/Indlæg:
2885/268
#26

Jeg er enig med #27

syndes også testen er god

god læse stof

og som du selv prioter så er det ikke meget at hente i DDR 3 ram i forhold til DDR 2 ram

jeg ved det for jeg sidder med et AM3 setup og min bror sidder med et AM2+ ph2 940 seup

begge maskiner virker til at være lige hurtig


jeg er glad for at du gider og bruge tid på at teste grafik kort så vi andre kan side og blive misundlig over at vi ikke ejer et / ikke har råd til et :'-(

jeg ville ihvertfald blive glad hvis jeg fik sådan et kort i julegave 🙂


Mvh Dennis


poulsen48
 
Elitebruger
Tilføjet:
11-10-2009 06:49:19
Svar/Indlæg:
2885/268
#28

i stedetfor at blive ved med at brokke dig over alting hver gang der kommer en test
så prøv for en gangs skyld at rose det arbejde der bliver udført

vi har lige mistet en af vore skibenter takket være alle dem som altid skal kritiser deres arbejde

hvis du ikke gider at være her så kan du jo bare finde andre sites og kigge på
der er pt ingen der holder dig tilbage - så hvorfor ikke bare gøre det

men nej nej sådan skal det jo ikke være - alle skibenter skal bare nakkes hårdt og grusomt

syndes det er tavligt


Mvh Dennis


MadsH
 
Elitebruger
Tilføjet:
11-10-2009 08:35:18
Svar/Indlæg:
1915/57
Kors man. Der er blevet skrevet en kanon artikel og den bliver haglet ned. Og en del af kritikken er helt ude i hampen. Og som opfølgning til det jeg skrev i #6 kan jeg da sige til alle jer AM2+/AM3 RAM eksperter,at i rigtig mange tilfælde der yder DDR2 platformene bedre end DDR3 pga bla de strammerer timings.


Og dig #25 du er da helt væk fra vinduet mand. Tror du virkelig at alle sidder med vold overclockede cpu'er.Nej de gør ikke. tværtimod. De fleste de clocker sgu ikke deres maskiner. Du skriver et i7 4 ghz setup. Det kan du jo ikke købe dig til,det skal du clocke dig til og det er der masser der ikke gør. der er andre end dem der skriver herinde på forum der læser artikler jo.


Storm
 
Overclocker
Tilføjet:
11-10-2009 08:54:17
Svar/Indlæg:
62/5
#31

Sagt til endnu en PII mand, 4Ghz er ikke voldclocket på en i7. Du kan ikke købe det nej, men mange der vil ofre 2500 på et GFX har nok lidt mere end bare ingen forstand på computere.

Men det ændre ikke på at kortet yder meget bedre spændt for en HELT standard i7 920 i forhold til den PII.

Min konklusion er også bare at et kommende 5770 må være rigeligt til dem der har PII og 1680x1050 skærme.


animal-mik
 
Elitebruger
Tilføjet:
11-10-2009 09:01:12
Svar/Indlæg:
908/160
tak for en god test 😉


MadsH
 
Elitebruger
Tilføjet:
11-10-2009 09:42:27
Svar/Indlæg:
1915/57
#32 så skal du vist lige få læst lidt tests rundt omkring igen,for så vil du finde ud af at en PHII i de oploøsninger folk spiller i idag føder grafikkortet nøjagtig lige så godt som en i7

se her foreksempel. nede i bunden i spiele(1680x1050)

http://www.hardware-infos.com/...


JustOne
 
Elitebruger
Tilføjet:
11-10-2009 09:51:38
Svar/Indlæg:
453/31
hvor dælen skal man tilslutte den 3 skærm på dette kort for jeg kan kun se 2 dvi stik!!


Storm
 
Overclocker
Tilføjet:
11-10-2009 10:03:53
Svar/Indlæg:
62/5
#35

Der er da et fint HDMI stik.


Storm
 
Overclocker
Tilføjet:
11-10-2009 10:06:17
Svar/Indlæg:
62/5
#34

Mener jo ligesom heller ikke man køber et HD5870 for at spille i 1680x1050. Der klarer et 4890 eller et kommende 5770 sig ganske fint.

Testen viser jo ikke rigtigt hvad kortet kan når man begrænser sig til opløsningen. Mit gamle 4890 kunne fint følge med i den opløsning. De yder også næsten ens på mit system i den opløsning.


MadsH
 
Elitebruger
Tilføjet:
11-10-2009 10:16:42
Svar/Indlæg:
1915/57
#37 ja det kan det så ikke lige. du kan jo klikke dig igennem overclockers club's review og se et 4890 blive trynet godt og grundigt i alle opløsninger. og det er med en i7 ved 3 ghz som jo langtfra er et voldsomt OC så at sige at de 2 kort yder ens ,ja så er der vist noget galt med dit setup. selv vapor versionen af 4890 for jo godt og grundigt smæk.Og det er specielt i de LAVE opløsninger.

http://www.overclockersclub.co...


Shutdown
 
Elitebruger
Tilføjet:
11-10-2009 10:30:57
Svar/Indlæg:
8947/160
Seriøst. Jeg syntes at dem der brokker sig helt vildt bare skulle finde et andet sted at smide sin galde. Når i selv er så meget klogere og andre sites så meget bedre, hvorfor så overhovedet bruge tid herinde. 🤡


ShArX
 
Superbruger
Tilføjet:
11-10-2009 10:37:01
Svar/Indlæg:
664/68
Fin artikel WinterSilence 🙂

og til dem der brokker sig, hvis I mener det skal gøres bedre, har I vel sendt en artikel til HWT da de jo søger nye skribenter 😉


kvist1992
 
Elitebruger
Tilføjet:
11-10-2009 10:49:15
Svar/Indlæg:
3565/372
#39 HØRT! :yes:


#42
BPM
 
Senior Skribent
Tilføjet:
11-10-2009 11:05:29
Svar/Indlæg:
223/2
#39 og #40 fuldstændig enig !!! :yes:

synd at alle der gør et flot stykke frivilligt arbejde herinde med at teste hardware skal trampes på, og kritikken går næsten altid på at maskinen ikke er god nok (mit system er sq heller ikk det nyeste, men det fungere fint) og som bliver nævnt en del gange er der ikk den vildt store forskel på, i dette tilfælde, am2+ og am3, så læs testen og tænk kunne jeg bruge den, nej det kunne jeg ikk, jeg finder et andet sted, nemmere kan det ikk være !


og lige en ting til, Tak for en lækker test WinterSilence !


Svaret blev redigeret 1 gang, sidst af BPM d. 11-10-2009 11:06:19.


The
 
Chefredaktør
Tilføjet:
11-10-2009 11:08:58
Svar/Indlæg:
4741/1690
Til jer der har kritik af vores test setup..

Det er ikke økonomisk muligt for os, at ha et high-end test setup med f.eks. i7 965 til alle vores tester og det er vel også mere interessant, at se hvordan et sådan kort opfører sig med setup som den gennemsnitlige læser vil have stående, istedet for et OC setup som måske kun står hos 10-20% af jer...

Vi prøver på Hwt så vidt muligt at lave test på systemer som der rammer flertallet, hvis i ønsker at se test hvor der er benyttet OC versioner af i7 965, 12GB DDR III RAM på super bundkort og ligende - skal i altså finde disse test på andre sider end Hwt.dk


mvh


The Boss


Svaret blev redigeret 1 gang, sidst af The Boss d. 11-10-2009 11:41:18.


poulsen48
 
Elitebruger
Tilføjet:
11-10-2009 11:18:19
Svar/Indlæg:
2885/268
#43

jeg er ganske helt enig med dig

jeg er 100% tilfreds med testen

Mvh Dennis


Johnny
 
Superbruger
Tilføjet:
11-10-2009 12:07:58
Svar/Indlæg:
2127/11
*suk* Vi har vel alle læst hvordan en AM2/3 cpu klarer sig i relevante opløsninger, overfor i7'erne. At blive ved med at øffe op om, at en AM2 cpu er irrelevant i denne sammenhæng, er imo misforstået. Jeg har selv en 955, og køber enten 5850 eller 5870, til min 2233RZ skærm, der også kører 16x10. Selv ved den opløsning, som igen af folk der tydeligvis ikke har læsts test af disse grafikkort bliver latterliggjort, er der i nogle situationer, en del at hente ved et 5870, ift et 5850. Dette vel at mærke uden at have testet DX11 spil, som for all we know, kan være en god bid tungere at slæbe, og derfor stille helt andre krav til kortene..

Optimalt skulle man teste i højere opløsninger, ja. Men det er, som det også skrives, på vej. Overall betragtet er kritikken imo misforstået.


Nabsi
 
Overclocker
Tilføjet:
11-10-2009 13:38:18
Svar/Indlæg:
29/6
Rigtig fin test..!

Jer der brokker jer burde finde et andet sted og larme!


WinterSilence
 
Overclocker
Tilføjet:
11-10-2009 13:51:08
Svar/Indlæg:
499/175
#11

Maskinen bruger så meget, som beskrevet - men hvorfor den idle bruger så meget mere, end din aner jeg ærligt ikke. Jeg synes det er lidt, for testmaskinen har aldrig brugt mindre, end den gør nu 🙂

#35 og #36 tilslutning af 3 skærme med HydraVision og Eyefinity er kun muligt ved brug af både HDMI, DVI og Displayportstikket, iflg. AMD oplyst på telekonference.

Til resten - mange tusinde tak for den positive opbakning. Det højner moralen 🙂


tom81
 
Elitebruger
Tilføjet:
11-10-2009 14:47:04
Svar/Indlæg:
20170/383
#28

Hvorfor læser du overhovedet tests her på siden hvis de er noget så ringe ??

Som altid formår du ikke komme med konstruktiv kritik, du ævler bare løs om hvor ringe det er.
Hvis du endelig vil komme med kritik, så prøv lige at læse nogle af de andres svar der indeholder kritik, og så se hvor fornuftigt formulerede de er. Det kunne du måske lære lidt af, og derved blive taget seriøs.

Du er nok ikke klar over det, men rigtigt mange mennesker læser tests her på siden, altså folk som ikke har en bruger på forummet. Disse folk skal man også tilgodese, og som bossen også er inde på, mange af dem sidder jo ikke med en I7 OCed til 9 ghz eller hvor meget det nu end er.
Du kan selv sætte imo'er ind hvor det passer dig bedst, kan være det hjælper dig til at forstå hvad jeg mener, imo 😴

#0+ #47
Synes det er en rigtigt fin test, og det er lækkert at se at HWT.dk er begyndt at bruge mere end bare 2 spil og en wankermark til gfx test.
Godt arbejde 🙂


Svaret blev redigeret 1 gang, sidst af tom81 d. 11-10-2009 14:49:41.


poulsen48
 
Elitebruger
Tilføjet:
11-10-2009 15:28:48
Svar/Indlæg:
2885/268
#48

Det er godt at jeg ikke er den eneste der syndes at den test er god 🙂


Mvh Dennis


MadsH
 
Elitebruger
Tilføjet:
11-10-2009 15:46:31
Svar/Indlæg:
1915/57
Jeg syntes også den er god 🙂


Johnny
 
Superbruger
Tilføjet:
11-10-2009 17:28:17
Svar/Indlæg:
2127/11
#47 Weird.. Måler du med skærm og eventuelle højttalere tilsluttet? Mit forbrug er kun målt på selve maskinen, og selvom jeg har en harddisk mindre end dig, kan det i hvert fald ikke forklare den store forskel 🙂


crankyrabbit
 
Elitebruger
Tilføjet:
11-10-2009 17:50:42
Svar/Indlæg:
7765/230
Her har vi så endnu engang er par kællinger der er ude med riven.... 😴
Kan godt være jeg jeg fornærmer nogen ved at kalde en spade en spade..Get over it..

Men hvis man er så fandens utilfreds med de tests der laves her på siden, så lad dog være at læse dem, hvor svært kan det være??? Og find jeres information på en side som opfylder jeres behov, istedet for at høvle løst på de folk som imo gør et ganske hæderligt stk arbejde her på sitet......


SkylineGTR
 
Elitebruger
Tilføjet:
11-10-2009 18:01:21
Svar/Indlæg:
2011/185
Igen tvivl om at Ati med de nye DirectX 11 kort, igen har et stærk på hånden. Specielt når de får deres Dual GPU kort klar også, så har de helt klart nogle hurtig kort på markedet.

Men nu kommer Nvidia altså også snart med deres DirectX 11 kort, så inden jeg opgraderer mine kort, vil jeg se hvad Nvidia´s nye kort kan præsterer. Og så tager jeg en bestemmelse der efter.


Storm
 
Overclocker
Tilføjet:
11-10-2009 18:08:26
Svar/Indlæg:
62/5
Hej WinterSilence.

Så har jeg prøvet at gå dig lidt i fodsporene (Ikke med alle de forskellige kort, kun med 5870 i single og CrossFire) Jeg kunne ikke finde UT3 benchmarken på nettet men resten er jo dejligt tilgængelige som selvstændige testprogrammer.

Du skal jo have lidt dokumentation (Ja ok, jeg har ikke taget SS af alle testene da jeg jo er doven, det er derfor det ikke er mig der er anmelder). Men se nu kun dette som et lilel suplement til din egen test, og til alle andre der har i sinde at fremskaffe dette kort.

Alt opsætning af programmer det samme som i anmeldelsen. Ingen genstart mellem testene, alt mit sædvanlige kørende i baggrunden, ikke en ny installation, nyeste ATI driver til GFX, skift mellem CrossFire og Single under driver uden genstart osv. osv. Kunne sikkert optimeres men jeg er jo den dovne satan.

Mit Setup:

Asus RAMPAGE II, blabla.
Core i7 950 (3,07Ghz) ingen OC
12 Gb Corsair DDR3 1600 7-7-7-20, standard hastighed
2x300 Raptor, RAID 0
XFX HD5870, 2 stk ens til Crossfire

-----------------------------------------------------------------------------------------------

3DMark Vantage (Performence):

Single: 17800 (Samlet score, svinger et par hundrede fra gang til gang)

CrossFire: 23200 (Samlet score, svinger et par hundrede fra gang til gang)

-----------------------------------------------------------------------------------------------

S.T.A.L.K.E.R

Single:

Day: min=0/max=285/avg=55 (Aner ikke hvad der sker for lysbilledshow i starten)
Night: min=0/max=332/avg=60 (Aner ikke hvad der sker for lysbilledshow i starten)
Rain: min=0/max=399/avg=69 (Aner ikke hvad der sker for lysbilledshow i starten)
SS: min=0/max=280/avg=55 (Aner ikke hvad der sker for lysbilledshow i starten)

CrossFire:

Day: min=18/max=129/avg=72
Night: min=19/max=118/avg=77
Rain: min=23/max=114/avg=80
SS: min=28/max=90/avg=63

-----------------------------------------------------------------------------------------------

Call of Juarez:

CrossFire: min=29,9/max=145,1/avg=96,3

Single: min=20,0/max=83,3/avg=56,4

-----------------------------------------------------------------------------------------------

FurMark v1.7.0

Single: min=33/max=63/avg=41

CrossFire: min=65/max=122/avg=81 (Så fordobler vi lige, tror bare den leger "vi regner teoretisk ud hvad vi kan yde sammen banchmark")

-----------------------------------------------------------------------------------------------

Devil May Cry 4:

CrossFire:

Scene 1: 343,34
Scene 2: 271,06
Scene 3: 445,38
Scene 4: 264,43

Single:

Scene 1: 128,58
Scene 2: 153,58
Scene 3: 276,28
Scene 4: 154,36

-----------------------------------------------------------------------------------------------

Ja det var så lige lidt at sammenligne med. I nogle af testene yder kortet da lidt mere med en anden CPU/platform, i andre er det ren GFX test og en 286 med PCI-E slot ville kunen klare opgaven.

Men hvis du smider et kort mere i maskinen tror jeg ikek du vil få så stor en fremgang i forhold til med en kraftigere CPU.

PS. Når i7'eren smides på den gode side af 4 GHz, så går kortet/kortene altså betydeligt mere amok.


Men tak for din anmeldelse, den kostede mig så lige 2 timer foran skærmen på en god søndag. Og tillykke med dit nye kort, medmindre det er et du har lånt, men så kan du jo skøbe et 5770 snart der macher fint i 1680*1050 (Altså en spilbar oplevelse ikke bare tal i en bench).


Promoe
 
Superbruger
Tilføjet:
11-10-2009 20:41:15
Svar/Indlæg:
504/34
#0 godt arbejde ... Det er rat at læse om et nyt grafikkort i en mid-end setup ... hvis folk så gerne vil læse om i7 så prøv google ... 80% af de test der er på nette er som regl 920,975 eller en 3580(xeon) ...

Svaret blev redigeret 1 gang, sidst af Promoe d. 11-10-2009 20:44:01.


WinterSilence
 
Overclocker
Tilføjet:
11-10-2009 20:51:58
Svar/Indlæg:
499/175
#54 meget informativt, men husk lige at nævne om du kørte STALKER med DX.10.1 og MSAA med DX10.1 og hvad niveau MSAA du benyttede. Ligeledes har du ingen steder skrevet, hvad opløsning du kører det i, men jeg går udfra det er 1920x1200 ? 🙂

Og til sammenligning skal også nævnes, at jeg bruger en nyere driver til mine tests fra AMD af der er NDA, "reviewers only". pt., hvilket også har indflydelse på kortenes performance 😉

UT Bench kan du hente fra guru3d.com og den kan køre på UT-3 demoen du kan hente på boomtown. net da denne indeholder banen DM-Sanctuary jeg bruger i mine tests. Skal testen udføres korrekt skal man have en fuld version af spillet, da dette kan patches med seneste rettelser der kraftigt forbedrer DX10 ydelsen i UT-motoren (men spillet kan købes for 50-100 DKK rundt omkring pt.).

Opfordring:

Men nu du har gidet gøre arbejdet for at belyse dit setups ydeevne med pågældende grafikkort, hvorfor sender du så ikke en ansøgning ind og søger direkte om, at blive enten grafikkorttester eller "OC-grafikkort tester", hvis ellers ledelsen går med til en sådan stilling? 🙂 For det er jo helt åbenlyst du brænder for, at belyse det aspekt når du gider sidde søndag og lave alle de resultater, bare for at supplere en artikel jeg har lavet og endda søger vidt og bredt efter min ene benchmarker🙂


Svaret blev redigeret 2 gange, sidst af WinterSilence d. 11-10-2009 21:36:07.


Ciric
 
Elitebruger
Tilføjet:
11-10-2009 21:54:03
Svar/Indlæg:
1881/22
Vil da også lige komme med en kommentar :)

Selve artiklen synes jeg er godt skrevet. -keep up the good work.

Så til det som flere har været inde på:
Det er synd at du maks har kunnet teste i 1680x1050, især set i lyset det prisleje 1920x1200(/1080) skærme er kommet ned i. -men er du jo selv klar over, og dette bliver ændret. (endda med en ver.2 af denne artikkel, og det skal du have ros for).

Til sidst en lille idé til dine kommende tests:
Tag et spil eller to, (optimalt to som bruger forskellige grafiske engines), og kør testene igen, denne gang med cpu'en overclocked, for at vise evt bottlenecks ved cpu/ram.

PS.: Det er vigtigt at man husker på at en test af grafikkort aldrig kan blive perfekt. Den kan højest blive indikator, for hvordan det vil yde på en given teststation. Det siger så sig selv, at jo bedre man kan illiminere faktorrene fra de andre dele jo bedre. (naturligvis derfor jeg vil se det som stort plus, hvis der kan testes både i en "normal" og en "OC" mode, og som min have 1920x1200 som højest testede opløsning) ;)


Svaret blev redigeret 2 gange, sidst af Ciric d. 11-10-2009 21:55:48.


WinterSilence
 
Overclocker
Tilføjet:
13-10-2009 00:28:56
Svar/Indlæg:
499/175
#57 Ja gode kommentarer. Men da du som du selv skriver - så belyser en grafikkort artikel et korts evner på en given teststation. Så derved kan dem der faktisk er seriøse/hardcore overclockere sagtens selv beregne og skalere resulaterne op og ned, som de er vant til jo 🙂

Med hensyn til spil, så synes jeg at jeg bruger et udvalg af motore/enginetests pt. der er meget varieret. Faktisk så et WoW en modificeret Warcraft 3 engine, der så vidt jeg ved benytter både OpenGL og DirectX 8 kald og optimeringer, med visse subkald til DX9 og DX10 med WOTLK. DMC-4 er skrevet til, både DX9 og DX10 og UT-3 er direkte skrevet til både OpenGL og DX10 med en down-wrapper der kan køre i DX9 mode, med svær optimering og texturer kun til dette mode. Pt. er der derfor kun ét DX11 spil ude der kan køre DX11 - og det endda kun med patch via wrapper og evt. bedre textures.

Derfor har jeg valgt, at bruge samme testsuite til HD5870, da AMD/ATI der "lover" op til 177% bedre ydelse under DX10 og, at DX11 henstår i det uvisse før der reélt kommer mere, end kun ét spil ud der kan køre med DX11 nativt/native.

Og da jeg ikke -som sagt før- IKKE vil sammenligne "pærer med æbler", så har jeg valgt, at vente med spiltests på DX11, indtil der foreligger MINDST 2 reéle spil i helst 2 forsk. genrer FØR jeg kører DX11 tests af kortene og sammenlinger disse. For ellers synes jeg ikke, I som læsere vil få et reélt billede af kortenes DX11-egenskaber og ydelse indenfor samme. At tage Battleforge der kører DX11 pt. og så kun vise dette frem - som andre sites har gjort - sat op mod DX10-kompatible grafikkort, eller tests/benchmarkers/spil er for mig ukorrekt testmetodologi, da dette giver et billede af kortets DX11 egenskaber kontra DX10/DX10.1 egenskaber, men uden reélt, at have et korrekt sammenligningsgrundlag.

Hvis tingene var mere optimale når en producent frigiver et nyt kort/en ny teknologi så burde denne producent evt. have lavet en Open Source tilgængelig benchmarker der kunne vise dette korts/chips evner, så alle kunne se hvad der sker og hvad kortet kan, kontra den konkurrerende producents. Og dette spørgsmål har jeg faktisk tænkt mig, at rejse næste gang jeg skal til pressemøde med AMD/ATI, da jeg passer AMD/ATI-kontakten på grafikkortområdet pt. indenfor pressemøder.



Svaret blev redigeret 3 gange, sidst af WinterSilence d. 13-10-2009 00:38:53.


Ezistef
 
Elitebruger
Tilføjet:
13-10-2009 21:09:57
Svar/Indlæg:
385/67
Tak for en god relevant test.

Storm, hvor bliver man dog træt af dit selviscenesættelsepis.

Fis dog på over på et site, der passer bedre til dine behov.

Der finder du sikkert også et bedre hof, der gider lytte til, hvilket supersystem du har.


poulsen48
 
Elitebruger
Tilføjet:
13-10-2009 21:24:26
Svar/Indlæg:
2885/268
#59

ser jeg en der er misundlig ???....


Ezistef
 
Elitebruger
Tilføjet:
13-10-2009 21:46:40
Svar/Indlæg:
385/67
#60 - ikke tilfældet men hvilken relevans ville det også have, hvis jeg var? Ingen.

Hvis Storm ønsker at iscenesætte sig selv og sit system (hvilket jeg synes fremstår af denne tråd), så er der ingen, der kan hindre manden i at oprette en tråd til formålet.

Sidste indlæg i denne tråd herfra.

Mvh.
Ezi


tom81
 
Elitebruger
Tilføjet:
13-10-2009 22:31:05
Svar/Indlæg:
20170/383
Slettet... Misforståelse.. 🙂

Svaret blev redigeret 1 gang, sidst af tom81 d. 14-10-2009 08:00:55.


scheea2000
 
Superbruger
Tilføjet:
14-10-2009 07:42:36
Svar/Indlæg:
818/58
#62

Hov!? ☹ Er det mig du mener? Nej det er skam ikke rigtigt :no:...hvorfor havde jeg lige fortjent den dér? 😩


Svaret blev redigeret 1 gang, sidst af scheea2000 d. 14-10-2009 07:44:35.


tom81
 
Elitebruger
Tilføjet:
14-10-2009 08:01:52
Svar/Indlæg:
20170/383
#63

Så må du undskylde. Det var vist en større misforståelse..

Jeg har lige slettet #62, ingen grund til at have sådan noget stående 🙂

Undskylder 🙂


scheea2000
 
Superbruger
Tilføjet:
14-10-2009 10:13:09
Svar/Indlæg:
818/58
np 🤣 🙂


martinbg
 
Elitebruger
Tilføjet:
14-10-2009 11:20:34
Svar/Indlæg:
2076/119
men hvornår kan vi alm mennesker få fat i den? :'(


Gripen90
 
Senior Skribent
Tilføjet:
15-10-2009 00:41:05
Svar/Indlæg:
15982/637
Det er en fint test, der er lidt hist og her med de er dækket.

Men nøj hvor er jeg træt af folk der har fløjtende fis forstand på hvad folk mener der skal bruges af CPU'er til tests.
Jeg synes netop det er fint at det IKKE er alle de store voluminøse CPU'er der bliver brugt men der der reelt bliver købt for menneske pga pris/ydelse og ikke internet show-off. Om der bliver brugt et AM2+ el AM3 setup til PhII er hamrende uinteressant da basis ydelsen ml. sådan to setups ligger ml. 0-5%.
Og mht overclocking ? det er en sport, IKKE en nødvendighed - men den går ikke klart ind alle steder.

Hvad jeg kan grine mest over er f.eks en PII X2 550 BE el. X3 720BE som koster ml. 550 og 800 på bekostning af pris/ydelse giver ufatteligt mere mere ydelse en nogen samt helst af de mest potente CPUer. Og hvis man hiver sporten ind i aspektet og unlocker dem til quadcore og yderligere OC'er dem, ja så bliver forskellen til de tunge drenge seriøst indhentet - så meget at de får de dyre drenge til at se mere impotente ud - og selv her i OC'et tilstand, så er det stadig ikke imponerede nok før man ser Ln2 resultater, men så er det heller ikke hjemme-pc'en længere.

Men nå. Nu vil jeg lege m. P55 og i5 som jeg fik ekstremt billigt hjemt fra min Litauen tur (50% af normal prisen i DK) - måske skal der afprøves HD5850 på det setup.



Svaret blev redigeret 2 gange, sidst af Gripen90 d. 15-10-2009 00:44:29.


Shutdown
 
Elitebruger
Tilføjet:
15-10-2009 09:53:10
Svar/Indlæg:
8947/160
59# og 67# 110% Enig. 😉


Storm
 
Overclocker
Tilføjet:
15-10-2009 12:39:03
Svar/Indlæg:
62/5
#59

Jeg lufter bare min E-Penis ligesom mange andre gør.

Samtidig prøver jeg at finde ud af om korttet er CPU begrænset samt om hvor meget det har at sige i en opløsning der er større. Så kan vi jo få klarlagt for et større gennemsnit af brugerne hvad CPU/resten af opsætningen har af indflydelse.

Hvis du ikke gider høre om mit system kan du jo bare scrolle lidt hurtige på musen (Hvis din 3400+ altså kan følge med).

Jeg er blevet meget klogere af hans test da det er første gang i 6 år jeg har fået nyt system, og jeg kunne muligvis have valgte klogere med hensyn til motherboard/CPU setup.


MadsH
 
Elitebruger
Tilføjet:
15-10-2009 15:25:20
Svar/Indlæg:
1915/57
#69 enhver ved da at jo højerer opløsning,jo mindre har CPU'en at sige.