Test: ASUS EAH4870X2 GDDR5

Grafikkort, AMD/ATI d.  05. september. 2008, skrevet af Emillos 22 Kommentarer.  Vist: 21073 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: ASUS
DK distributør: Rosenmeier

Innovation/Teknologi

 

Hvordan laver man det bedste grafikkort på markedet? Spørger man AMD, tager man sine to bedste GPU'er, og smider dem på samme print.
Princippet er set før med AMD's eget HD3870X2, men konkurrenten nVidia har også haft lignende kort med GeForce 7950GX2 og 9800GX2.

                
Tv. ses HD4870X2 - Th. HD3870X2, GeForce9800GX2 - nedest 7950GX2.

Producenternes formål og strategi med dual-GPU løsninger, er naturligvis, at de bl.a. langt hurtigere kan komme på markedet med et single-slot ultra-entusiast kort, end hvis de skulle udvikle en ny og hurtigere chip. Det sparer penge til udvikling og giver frem for alt øget indtjening her og nu. Det så vi med AMD’s 3870X2, men også NVIDIA har brugt samme løsning til deres 7950GX2 og 9800GX2. Man kan så undre sig over at NVIDIA så har valgt en strategi, som GTX 280 er et produkt af, som næsten gør en single-slot dual-GPU løsning umulig. En situation som AMD udnytter til fulde med deres small-die strategi og 4870X2 løsning, som vi tester her i denne artikel. Vi kan kun vente i spænding på et eventuelt udspil fra giganten NVIDIA.

Grundet den hurtige udviklingstid er dual-GPU løsninger dog ikke uden problemer, da dårlige drivere eller dårlig CrossFire-support i spillene kan medføre at dual-GPU og dual-slot GPU løsninger skalerer dårligt. Ikke mindst fordi at på trods af at AMD kortene er single-slot, skal de håndteres som to af drivere og software.
 
 
Desuden er strømforbruget ikke særlig pænt, taget i betragtning af high-end single-GPU baserede grafikkort. Men kigger man på den teoretiske regnekraft kontra strømforbruget, er 2 GPU'er faktisk at foretrække, da 2 GPU'er med 1x hastighed, burde være meget mindre strømslugende end 1 GPU med 2x hastighed - akkurat som vi kender det fra CPU-markedet, hvor AMD og INTEL tilføjer flere og flere kerner på deres processorer, frem for at hæve clockfrekvensen.

 
Af flere fordele kan nævnes, at selvom 2 GPU'er på ét print selvfølgelig bruger mere strøm end et almindeligt HD4870 kort, så er der rigtigt mange andre komponenter, som der kun skal bruges 1 af. Dette gør det først og fremmest billigere, at producere 1 stk HD4870X2, end 2 stk HD4870 - og så vil der også være færre komponenter til, at trække strøm - så her sparer man altså også noget på dén konto.

  

Vi kan roligt slå tingene fast med 7-tommer søm: Radeon HD4870X2 er verdens pt. mest strømslugende single-slot grafikkort, dog ikke helt uden sidestykke. Et stk. HD4870 bruger 160W max, mens et HD4870X2 bruger max 286W - i øvrigt "kun" ca. 50W mere end NVIDIA’s GTX280 grafikkort (,som jo gerne skulle blive outperformet ganske pænt). Kigger vi på den teoretiske regnekraft, yder HD4870X2 næsten dobbelt så meget pr. Watt, end GTX280! Desuden kan man se at strømforbrugsmæssigt er 4870X2 bedre end 2x4870, hvis vi simpelt ganger strømforbruget for HD4870 op.
Dog kan det ses, at NVIDIA har overhalet AMD/ATi indenom på strømstyrings-fronten, da strømforbruget på Geforce GTX280 er noget lavere end på HD4870X2 i idle; en force AMD/ATi ellers hidtil har haft med deres PowerPlay-teknologi.
 
 
I forhold til 3870 og 3870X2 byder 4870 og 4870X2 på nogle ’få’ ændringer, som er værd at nævne.
AMD’s shader units er arkitekturmæssigt anderledes end NVIDIA’s (GTX 280 har 240), hvorfor de ikke kan sammenlignes, men med RV7XX-chippen er der ingen tvivl om at AMD virkelig har rykket på shader kapaciteten. De har bl.a. formået at reducere størrelsen på deres shader units betragteligt, så de har kunnet hæve antallet af Shader Units helt eksplosivt fra 320 (3870) til 800 (4870). Og det er uden at ændre produktionsteknologi (Begge generationer er 55 nm). Desuden har AMD optimeret dem, så de skulle være blevet mere effektive. Endeligt er det også op til spilprogrammørerne at udnytte at AMD’s shader units er lidt anderledes end NVIDIA’s og udnytte at AMD’s shader units er gode til nogle typer beregninger, men langsommere til andre (læs: ikke fuldt udnyttet).
En anden ændring er at 3870X2 benyttede sig af en PCI-express x16 bro, hvorimod 4870X2 benytter sig af en PCI-Express 2.0 bro, som doubler båndbredden. Det burde gøre at skalerbarheden øges og reducere nogle af de problemer vi så med tidligere CrossFire løsninger.

Endvidere har AMD også udviklet en direkte forbindelse mellem GPU'erne, som de kalder "CrossFire X Sideports", som sammen med den forbedrede bro-chip, øger den maksimale interne båndbredde, fra 6.8 GB/s på HD3870X2, til 21.8 GB/s på HD4870X2 - meget imponerende! Eneste ulempe er at SidePort er ikke aktiveret, da AMD anseeligt har haft problemer med denne feature. Så præcis hvor meget dette nye tiltag giver ydelsesmæssigt, har vi altså stadig til gode. 
Den anvendte RAM-teknologi er også blevet ændret fra GDDR3 til GDDR5 (som det første i verden), som er med til at forbedre ydelsen betragteligt ved langt mindre strømforbrug.
 

4870X2 produceres med en kolossal mængde GDDR5 RAM – hele 2GB.  Da 4870X2 i princippet bare er 2 GPU’er på et print via CrossFire, svarer det dog "kun" svarer til 1GB, da samme data skal ligge på begge GPU - men 2GB er nu alligevel ret voldsomt.
Og trods nyhederne, de mange RAM, det store print, samt de 2 GPU'er, er HD4870X2 ikke så dyrt, som vi eksempelvis kender det fra NVIDIA’s 9800GX2 grafikkort(m. 2 GPU'er) - og endda ikke så meget dyrere end GTX280. Det dyreste på et grafikkort er nemlig selve GPU'en, som er dyrere, des større den er. Og her fylder selv 2 RV770 GPU'er til sammen mindre, end én GTX280 chip. Det er i sandhed imponerende, hvad AMD/ATi har kunnet pakke ned på så lille plads!

En anden spændende ting er i øvrigt, af der denne gang kommer en mindre og billigere version af R700. Hvorimod kun ASUS fik lov til, at lave et HD3850X2, som vi testede her på HWT, kommer der nu officielt et HD4850X2.

Dette vil have en GPU clock frekvens på 625MHz kontra storebroderens 750MHz, samt 2GB GDDR3-RAM, der næsten halverer rambåndbredden kontra HD4870X2'et. Til gengæld vil strømforbruget ligge lige under nVidias GTX280, og så vil prisen formentlig ligge lige omkring samme kort.

(Ovenstående er sammenkogt af Scheea, JakobHL & Emillos)
 

Specifikationer

Nu har vi gennemgået meget af teknologien bag HD4870X2. For at opsummere, tager vi lige en oversigt over kortets specifikationer.
Som sagt er HD4870X2 "bare" 2 styks HD4870 rent specifikationsmæssigt - bortset fra et punkt - mængden af RAM, der er på voldsomme 2 Gigabyte, på HD4870X2. Et meget fornuftigt tiltag, eftersom det reelt set kun svarer til det halve, når de 2 GPU'er skal deles om dem. Når der skrues op for diverse detaljer og øjenguf, skal de ekstra RAM nok give pote.

 

Navn Radeon HD 4870 X2           Radeon HD4870 GeForce GTX280
GPU 2*RV770 RV770 GTX280
Steamprocessorer 2*800 800 240
GPU clock 750MHz 750MHz 602MHz
RAM type GDDR5 GDDR5 GDDR3
RAM bus 256bit 256bit 512bit
RAM mængde 2*1024MB 512MB 1024MB
RAM clock 900MHz 900MHz 1107MHz
API-understøttelse OpenGL 2.0, DirectX 10,1 OpenGL 2.0, DirectX 10,1 OpenGL 2.0, DirectX 10
Onboard lyd via HDMI Ja Ja Nej

Ser vi kortet i forhold til nVidias flagskib, ligner GTX280 mest af alt noget af en underdog. Dog skal vi huske på, at AMD og nVidias shadere ikke kan sammenlignes, bl.a. pga. shaderne på GTX280 kører hurtigere end resten af GPU'en. GTX280 har en fordel ved 512bit ramcontrolleren og rammenes clockfrekvens; på den anden side bruger kortet GDDR3, som er noget ældre og langsommere end GDDR5.
AMD har også fordel ved API-understøttelsen, som lyder på DX10,1, hvor nVidia kun understøtter DX10 - og så har HD4870X2 onboard lyd, som man kan trække ud af kortet via den medfølgende HDMI-adapter. En smart feature, nVidias flagskib ikke har.

Gripen90
 
Senior Skribent
Tilføjet:
05-09-2008 00:33:22
Svar/Indlæg:
15982/637
Kanon go' gennemført test 😀

Der er dog et problem med CoD4 grafen - den passer vist ikke ind.


Emillos
 
Overclocker
Tilføjet:
05-09-2008 00:45:07
Svar/Indlæg:
14079/622
Hovsa - det var vidst en gammel graf, der lå og lurede. Den er skiftet ud nu. 🙂


SoundWave
 
Elitebruger
Tilføjet:
05-09-2008 08:06:41
Svar/Indlæg:
3011/103
Lækkert at se, at 9800GX2 stadig følger godt med, HD4870X2 er ikke SÅ ondt igen 🙂


Tenkin
 
Elitebruger
Tilføjet:
05-09-2008 08:11:00
Svar/Indlæg:
3332/33
kan godt være det bare er mig, men ud fra de fleste af spil-graferne, så ser det jo ud som om at nvidia tæsker amd's nye kort 😐 men alligevel bliver det rost i konklusionen. eller er det bare mig der trænger til nye briller ? 😛


Spear
 
Elitebruger
Tilføjet:
05-09-2008 08:13:35
Svar/Indlæg:
564/13
#3 You got a point imo. 😉


saiot
 
Elitebruger
Tilføjet:
05-09-2008 08:42:46
Svar/Indlæg:
7111/480
4# det kommer jo and på om spilet er glad for CF man kan jo lave en test kun med spil som ikke kan lig cf og spil der kan så få man 2 rasultater så det kommer and på hvad man spiler om vilket kort man skal have 🙂


SoundWave
 
Elitebruger
Tilføjet:
05-09-2008 09:31:19
Svar/Indlæg:
3011/103
#5
Jep, denne test sammenholdt med testen på Tweakup.dk giver det billede, at 9800GX2 stadig er helt i top, og så bliver jeg jo bare endnu mere glad for, at jeg ikke har udskiftet det 😀


Amin
 
Superbruger
Tilføjet:
05-09-2008 10:20:49
Svar/Indlæg:
205/51
Det her er det første review, jeg har læst, hvor hd 4870x2 ikke massakrerer alt. Men hey, det fortæller måske noget om multi-gpu setups generelt :).


scheea2000
 
Superbruger
Tilføjet:
05-09-2008 11:12:17
Svar/Indlæg:
818/58
4870x2 begynder også for alvor at vise muskler ved høje opløsninger - men tror størstedelen spiller ikke ved 2560x1600?


Gripen90
 
Senior Skribent
Tilføjet:
05-09-2008 11:38:49
Svar/Indlæg:
15982/637
Jeg synes nu (uden at skamrose) at Emillos flere gange i testen piontere at potentialet så sandelig findes i HD4870x2, men Crossfire understøttelsen er simplethen ikke på højde med SLi i kompabilitet endnu - derfor finder man at Hd4870x2 ryger op og ned af skalaen.

Men når det er sagt, så passer det også fint med det jeg har "prædiket" vedr. mine oplevelser med HD4870x2 vs 9800GX2 og hvor det endte med at HD4870x2 kom retur. Det er et superkort - men de ting der skal gøre det superb halter lidt. Det er bedre end sidste forsøg med HD3870x2, men stadig ikke helt godt nok.


Overbuary
 
Elitebruger
Tilføjet:
05-09-2008 17:33:12
Svar/Indlæg:
1762/50
Det irritere mig virkelig at det er testet på en 22" skærm!

Det kort viser virkelig sin styrke i 1920x1200 med AA og AF!! :no: 😕


Emillos
 
Overclocker
Tilføjet:
05-09-2008 17:59:13
Svar/Indlæg:
14079/622
Vi har desværre ikke en 24" skærm liggende.
Ja, kortet er bedre ift. konkurrenterne, des højere opløsninger og AA/AF man smider efter det. Men vi er nød til, at teste med de midler vi har. :yes:
Endvidere er det min vurdering, at de fleste sidder med en 21-22" skærm.


#10 got the point. 🙂


HuckJam
 
Overclocker
Tilføjet:
05-09-2008 20:04:58
Svar/Indlæg:
36/9
Jeg spiller selv i 1920x1200 og som Overbuary siger så er det virkelig der man kan se forskellen.


tom81
 
Elitebruger
Tilføjet:
06-09-2008 00:56:04
Svar/Indlæg:
20170/383
#0

rigtig god og gennemført test. Godt at se at du har fået en god håndfuld spil og benchmarks med. Det manglede godt nok i en af de sidste gfx tests med kun 3 spil. Det var sgu for ringe.

Men godt gået Emillos 🙂


Miccim
 
Elitebruger
Tilføjet:
06-09-2008 01:03:17
Svar/Indlæg:
3233/128
Hvis de nye spil der er på vej understøtter crossfire ordentligt smadrer dette kort nvidia fuldstændigt på ydensen.


#16
Lace
 
Elitebruger
Tilføjet:
06-09-2008 05:35:34
Svar/Indlæg:
2357/72
Kunne nu godt tænke mig at se hvordan det performer mod GTX260 i SLI. De ligger jo i omtrent samme prisleje, og så er det multi-gpu vs. multi-gpu. Desuden synes jeg at kunne forstå, at ingen quad-SLI/CF løsninger virker ordentligt, så der er ingen pointe i at smide et ekstra 4870X2 i en maskine? Så ville man osse vide om det kunne betale sig, at købe et 4870X2, hvis man sidder ned et SLI-board.


Emillos
 
Overclocker
Tilføjet:
06-09-2008 09:22:10
Svar/Indlæg:
14079/622
->#16

GTX260 havde jeg desværre ikke liggende, at teste kortet op imod. Og skulle jeg teste SLi, skulle jeg jo også skifte bundkort mv.
Men nej, jeg vil mene, at 4 GPU'er i et setup, aldrig er pengene værd. Det er kun hvis man går ekstremt meget op i benchmarking, at det for alvor giver noget, efter min mening.

Jeg prøvede faktisk at køre 2 HD4870X2 sammen, på mit X38-baserede bundkort. Desværre fik jeg det aldrig op at køre, trods jeg har kørt CrossFireX på det før. Der har været forlydener om, at nogle bundkort har problemer med lige HD4870X2 i CrossFireX.


hamderD
 
Elitebruger
Tilføjet:
06-09-2008 10:34:56
Svar/Indlæg:
7263/260
Utrolig god test Emil ❤ - nok den bedste du har skrevet 😳


Burgurne
 
Elitebruger
Tilføjet:
06-09-2008 12:54:00
Svar/Indlæg:
5874/1287
Ja, flot og godt skrevet test. Dog savnes der spil baseret på OpenGL, Quake 4 f.eks?

Lige et tillægsspm. Du skriver, at din testPC kører Vista Ultimate 32 bits og at du har 2x2 Gb ram i denne PC. Hvor meget ram kan Windows rent faktisk bruge af dine 4 Gb, når også grafikkortet har 2 Gb?

Man kunne måske få dig til lige at vise et screenshot af Video memory watcher (gratis program), for at se fordelingen af ramforbruget under heftig grafisk aktivitet?
(se eksempel her:
)
Se nærmere beskrivelse af programmet her: http://forums.legitreviews.com...




Emillos
 
Overclocker
Tilføjet:
06-09-2008 13:21:23
Svar/Indlæg:
14079/622
->#19

Jeg plejer at teste i PREY, men det er droppet, da jeg mener det er forældet. Når FPS er på omkring 3-400, synes jeg det er ret irellevant. Quake 4 er en meget fin ide - det skal jeg helt bestemt overveje. 🙂

Mht. den reelle udnyttelse af RAM, er jeg faktisk ikke sikker - jeg tror det er 3GB af systemrammene der udnyttes, grundet måden grafikkortets ram bliver benyttet - men det kan også være 2GB.
Dog burde det ikke gøre nogen forskel mht. benchmarking, da 4GB ram kontra 2GB mest af alt gør en forskel i minimum FPS - men ikke det store gennemsnitligt.

Jeg har dog overvejet, at gå over til Vista64 snart, grundet problematiken med de store Rambuffere på nutidens og de kommende grafikkort. :yes:

Fedt program i øvrigt.


#21
cyco
 
Superbruger
Tilføjet:
14-09-2008 12:50:13
Svar/Indlæg:
161/53
Nu er kortets ydelse snart gennemtestet i forskellige fora. Dejligt kort.

Men....synes ikke jeg har set nogle sammenligningsgrafer for støjen (og egentligt også varme), hvilke alle test alligevel prioriterer.

Jeg kunne rigtig godt tænkte mig at vide hvor meget kortet støjer mere end andre. Især sammenlignet med mit gamle 8800gtx. Nogen der netop har denne erfaring/udskiftning?????

Er lidt bekymret for støjniveauet, men kan alligevel leve med en del, så jer der har et kort skriv lige hvor voldsomt det egentligt er, please....


Emillos
 
Overclocker
Tilføjet:
21-09-2008 00:10:15
Svar/Indlæg:
14079/622
->#21

Jeg lavede i sin tid støjgrafer udfra støjmålinger, foretaget med mikrofon, samt lavede støjvideoer. Støjmålinger angivet på grafer er dog en sjov størrelse, da det er lidt svært at bedømme støj udfra en graf.
Videoerne er egentlig meget rare at have, men de var rimelig tidskrævende at lave, og jeg havde ikke indtrykket af, at folk rent faktisk brugte dem.
Og skal de laves rigtig godt, skulle jeg køre med en bordopstilling, så man kunne filme fra den rigtige vinkel - men det kræver så, at jeg skal pille mit hardware ud af kabinettet hele tiden.

Men er det noget folk efterspørger, skal jeg da overveje at begynde at lave dem igen? 🙂